Modern Golem ve Gizlenen Fail: Ayşe Acar’ın Gözünden Yapay Zeka ve İdeoloji

Ayşe Acar, Anadolu Aydınlanma Vakfı’nda gerçekleştirdiği "Yapay Zeka ve İdeoloji" başlıklı konuşmasında, yapay zekayı sadece teknolojik bir gelişme olarak değil, tarihsel, felsefi ve politik bir bağlamda ele almaktadır. Konuşma, yapay zekanın ne olduğundan ziyade, onun nasıl bir "ideolojik aygıt" olarak işlev gördüğüne ve arkasındaki asıl failleri nasıl gizlediğine odaklanmaktadır.

Mitolojik ve Tarihsel Kökenler: Golem'den Babbage’a

Acar, yapay zeka tartışmasını Yahudi gizemi Kabala ile ilişkilendirilen "Golem" efsanesiyle açar. Golem, insanın tanrıya öykünerek çamurdan yarattığı, ancak ruhu ve bilinci olmayan, kontrolden çıktığında ise tehlikeli hale gelebilen bir varlıktır. Modern insan için Golem; teknolojinin, algoritmanın ve sistemin ta kendisidir. Yapay zeka, insanın bir "Golem yaratma" arzusunun ve çabasının bir göstergesidir.

Tarihsel süreçte ise yapay zeka ve makineleşme fikrinin ardındaki politik saikler dikkat çekicidir. 19. yüzyılda İngiltere’de "bilgisayar" (computer) kelimesi, karmaşık hesapları yapan insanları (çoğunlukla kadınları) tanımlamak için kullanılıyordu. Charles Babbage’ın makineleşme girişimi, sadece ticari bir saikten değil, aynı zamanda işçilerin örgütlülüğünü dağıtmak ve zihinsel emeği makineleştirmek amacından doğmuştur. Bu bağlamda, Marksist eleştiriye göre makineleşme, iş bölümünün teknolojik gelişmeye sebep olduğu bir süreçtir.

Bilinç, Anlam ve Çin Odası

Konuşmanın felsefi omurgasını, makinelerin gerçekten düşünüp düşünemeyeceği sorusu oluşturur. Alan Turing’in "Makineler düşünebilir mi?" sorusuyla başlayan süreç, günümüzde işlevselci (fonksiyonalist) bir bakış açısıyla ele alınmaktadır. İşlevselcilere göre zihin, girdi ve çıktı arasındaki ilişkiden ibarettir.

Ancak Acar, John Searle ve Roger Penrose gibi düşünürlere atıfla bu görüşe karşı çıkar. Searle’ün "Çin Odası" argümanı, bir sistemin sembolleri sözdizimsel (sentaktik) olarak doğru kullanmasının, o sembollerin anlamını (semantik) bildiği anlamına gelmediğini gösterir. Örneğin, bir yapay zeka Nazım Hikmet tarzında bir şiir yazabilir; ancak bu şiirdeki duyguyu, yaşanmışlığı ve bağlamı kavrayamaz. Roger Penrose'a göre de algoritmalarda ne şimdi ne de gelecekte bir anlam üretilmesi mümkün değildir.

Mevcut yapay zeka sistemleri "kapalı sistemler"dir ve bir dünyada olduklarının farkında değildirler. Onların bir "kendilik" (self) bilinci yoktur. Zeka, bir sistemin içinde kalıp onu en iyi şekilde uygulamak değil, aksine sistemin dışına çıkabilme yetisidir; tıpkı Adem ve Havva'nın cennet sisteminin dışına çıkması gibi.

İdeolojik Bir Aygıt Olarak Yapay Zeka

Acar’ın konuşmasındaki en çarpıcı tespit, yapay zekanın bir "manipülasyon aracı" ve "ideolojik aygıt" olarak kullanılmasıdır. Yapay zeka çalışmaları, sanki ortada bağımsız bir "fail" (özne) varmış gibi sunularak, asıl karar verici olan şirketlerin ve politik kurumların gizlenmesine hizmet etmektedir.

Bu durumun yarattığı riskler şunlardır:

  • Manipülasyon ve Yalan Haber: İnternet trafiğinin %60’ını botlar oluşturmaktadır ve bu durum "Ölü İnternet Teorisi"ni (ölülerin ölülerle konuştuğu bir internet) gündeme getirmektedir. Yalan haberlerin yayılmasında botların payı büyüktür.
  • Deepfake ve Güven: Deepfake teknolojisi ile gerçeği sahteden ayırmak imkansızlaşmakta, bu da toplumsal ilişkileri ve siyaseti derinden sarsmaktadır.
  • Sorumluluk Kaybı: Yapay zeka bir "fail" gibi sunulduğunda, örneğin ırkçı veya cinsiyetçi bir çıktı ürettiğinde, suç yazılıma atılmakta; arkasındaki eril ve otoriter kültür ya da şirket politikaları görünmez kılınmaktadır.

Kendini Seyretme Arzusu

Konuşmanın sonunda Acar, insanın yapay zeka üretme motivasyonunu mağara duvarına çizgi çizen ilk insanın motivasyonuna benzetir. İnsan, "Ben kimim?" sorusuna yanıt ararken, kendi bilincini ve kapasitesini karşısına alıp seyretmek istemektedir. Yapay zeka, insanın kendi aklını dışsallaştırıp nesneleştirerek kendine bakma çabasının son halkasıdır.

Sonuç olarak, yapay zeka ne dünyayı ele geçirecek bağımsız bir robot ordusu ne de insanlığın kurtarıcısıdır. O, arkasındaki sermaye ve güç odaklarının elinde şekillenen, insanın kendini anlama serüveninin bir parçası olan, ancak mevcut haliyle asıl failleri gizleyen ideolojik bir aynadır.

YOUTUBE
AUTHOR
Halil Öztürkci

Halil Öztürkci

Cybersecurity expert with 25 years of hands-on experience across the full attack-defense spectrum.

I've spent my career on both sides of the battlefield—investigating breaches through digital forensics, hunting APT groups through threat intelligence, building and leading security operations, dissecting malware, and executing red team engagements. Now I'm focused on the next frontier: LLM security, AI red teaming, and building secure AI/ML pipelines.

From incident response to adversary simulation, from SOC architecture to AI-powered threat detection—I decode complex security challenges and translate them into actionable defense.

enjoyed this? get more like it.