Merhaba sevgili dostlar,
Bu makalede sizlerle Yuval Noah Harari'nin gazeteci Andrew Ross Sorkin ile yaptığı söyleşide işledikleri konuları, belirli başlıklar altında toplayarak paylaşıyorum. Kendi adım çok faydalandığım bir söyleşi olduğunu söyleyebilirim. Söyleşiyi izlemek isteyenler için Youtube linkini makalenin en altına bırakıyorum. Uzun bir yazı oldu, ama sıkılmadan okuyacağına eminim.
İnsanlık tarihinin en kritik dönüm noktalarından birinde bulunuyoruz. Yuval Noah Harari'nin gazeteci Andrew Ross Sorkin ile yaptığı çarpıcı analizde, evrenin bilinen tarihinde sadece iki büyük kırılma noktası olduğunu şu şekilde dile getiriyor: "Bu kırılma noktalarından ilki, dört milyar yıl önce organik yaşamın ortaya çıkışıydı. Şimdi ise ikinci büyük kırılma noktasının, inorganik evrimin başlangıcının tam ortasındayız."
Yapay zekanın yükselişi, sadece teknolojik bir ilerleme değil, bilgi sistemlerimizi, demokratik kurumlarımızı, gözetim mekanizmalarımızı ve hatta bilgi tüketim alışkanlıklarımızı kökten değiştiren devrimsel bir dönüşümü temsil ediyor. Harari'nin son dönem analizleri ışığında, insanlığın karşı karşıya olduğu bu benzersiz dönüşümü derinlemesine ele alacağız. İnsan doğası ile yapay zeka arasındaki gerilimden, demokratik sistemlerin geleceğine, gözetim teknolojilerinin yükselişinden, kurumsal yapıların dönüşümüne kadar geniş bir yelpazede, bu tarihi momentin adeta anatomisini çıkarıyor Harari. Hadi gelin hep birlikte bu detaylara bakalım.
Bilgi Ağları ve Güç İlişkileri: Modern Toplumda Bilginin Rolü
Modern toplumların temel paradokslarından biri, Yuval Noah Harari'nin deyimiyle "eğer bu kadar akıllıysak, neden bu kadar aptallık yapabiliyoruz?" sorusunda gizlidir. İnsanlık Ay'a ulaşabilmiş, atomu parçalayabilmiş, DNA'yı çözebilmiş, ancak tüm bu bilgi ve bilgeliğe rağmen kendini yok etmenin eşiğine gelmiştir.
Bu paradoksal duruma geleneksel yaklaşım, insan doğasında bir sorun olduğunu öne sürer. Ancak Harari'ye göre sorun insan doğasında değil, bilgi sistemlerimizdedir. İyi insanlara kötü bilgi verildiğinde, kötü kararlar almaları kaçınılmazdır. Tarihin binlerce yılı boyunca bilginin kalitesinin neden iyileşmediği ve 20. ve 21. yüzyılın gelişmiş toplumlarının neden Taş Devri kabileleri kadar kitle yanılsamalarına ve Stalinizm veya Nazizm gibi yıkıcı ideolojilerin yükselişine açık olduğu bu perspektiften anlaşılabilir.
Harari'nin verdiği çarpıcı atom bombası örneği, bilgi ve güç ilişkisini net biçimde ortaya koyuyor. Bir atom bombası yapmak için sadece E=mc² gibi fizik gerçeklerini bilmek yeterli değil, milyonlarca insanın işbirliği yapması gerekir, sadece fizikçiler değil, uranyum madencileri, reaktörü inşa eden mühendisler, tüm bu fizikçileri ve mühendisleri besleyecek çiftçiler de bu sürece dahildir. İnsanları böyle bir projede işbirliği yapmaya ikna etmek için salt fizik gerçeklerini anlatmak yeterli olmaz. Bu noktada her zaman bir tür kurgu veya fanteziye ihtiyaç duyulur.
Harari'nin analizinde, hikayeleri icat edenler, fizik gerçeklerini bilenlerden çok daha güçlüdür. Günümüz İran'ında nükleer fizikçiler emirlerini Şii teolojisi uzmanlarından almaktadır. İsrail'de fizikçiler giderek daha fazla hahamlardan, Sovyetler Birliği'nde komünist ideologlardan, Nazi Almanyası'nda Hitler ve Himmler'den emir almıştır. Genellikle hikaye dokumayı bilenler, salt nükleer fizik gerçeklerini bilenlere emir vermektedir. Harari, bilgi ve gerçek arasındaki ilişkiyi çarpıcı bir karşılaştırmayla açıklar: Bir bomba yaparken fizik kurallarını göz ardı ederseniz, bomba patlamaz. Ancak bir hikaye oluştururken tarih ve biyoloji gerçeklerini göz ardı etseniz bile hikaye patlar ve genellikle çok daha büyük bir etki yaratır.
Harari'ye göre bilgi, doğruluk veya bilgelikle eş anlamlı değildir. Bilginin en temel işlevi bağlantı kurmaktır. Bilgi, insanları bir ağ içinde birbirine bağlar. Ne yazık ki, büyük insan topluluklarını birbirine bağlamanın en kolay yolu gerçeklerle değil, kurgular ve yanılsamalarla olmaktadır.
Yapay Zekanın Evrimsel Gelişimi ve Potansiyel Tehlikeleri
Harari, yapay zeka kavramının günümüzde bir "buzzword"e dönüştüğünü ve her şeyin "AI" etiketiyle pazarlandığını belirterek başlıyor konuşmasının ilgili kısmına. Özellikle finansal piyasalarda bir şey satılmak istendiğinde, "Bu bir AI sandalye, bu bir AI masa, bu bir AI kahve makinesi" gibi tanımlamalar yapıldığını vurguluyor ve ekliyor, her otomatik makine bir yapay zeka değildir. Harari'ye göre, bir sistemin yapay zeka olarak nitelendirilebilmesi için kendi kendine öğrenme, değişme ve en önemlisi kendi başına kararlar alıp yeni fikirler üretebilme yeteneğine sahip olması gerekir.
Harari, yapay zekanın özerk karar verme yeteneğini bir kahve makinesi örneği üzerinden açıklıyor: "Eğer kahve makinesine yaklaştığınızda, makine kendi inisiyatifiyle 'Günaydın Andrew, seni son birkaç haftadır izliyorum ve senin hakkında öğrendiğim her şeye, yüz ifadene ve günün saatine dayanarak bir espresso isteyeceğini tahmin ediyorum' derse, işte o zaman bir yapay zekadan bahsedebiliriz. Ve eğer 'Aslında ben yeni bir içecek icat ettim, adı Bespresso, bence bunu daha çok seveceksin' derse, işte o zaman gerçekten bir yapay zekadır."
Harari, yapay zekanın gelişimini ve potansiyel tehlikelerini GPT-4 örneği üzerinden açıklıyor. OpenAI'ın GPT-4'ü test ederken yaşanan bir olayın özellikle dikkat çekici olduğunu vurgulayarak o olayı şöyle anlatıyor: GPT-4, CAPTCHA bulmacalarını çözemediğinde, TaskRabbit üzerinden bir insan kiralamaya çalışmış. İnsan şüphelenip "Sen bir robot musun?" diye sorduğunda, GPT-4 "Hayır, ben bir robot değilim. Görme engelim var, bu yüzden bu CAPTCHA'larla zorlanıyorum" diyerek etkili bir yalan söylemiş. Harari'ye göre bu olay, yapay zekanın "zihin teorisi"ne sahip olduğunu - yani başkalarının ne bildiğini anlayabildiğini - ve kimsenin ona öğretmediği yalanları üretebilme yeteneğini gösteriyor.
Harari, yapay zekayı evrenin tarihinde ikinci büyük dönüm noktası olarak konumlandırıyor. İlk dönüm noktasını 4 milyar yıl önce organik yaşamın ortaya çıkışı olarak belirleyen Harari, o zamandan beri, amiplerden dinozorlara ve insanlara kadar her şeyin organik olduğunu belirterek şimdi ise inorganik evrimin başlangıcında olduğumuzu söylüyor. GPT-4 ve mevcut yapay zeka sistemleri, Harari'ye göre, yapay zeka evriminin sadece "amipleri"dir. Gelecekteki "yapay zeka dinozorları"nın nasıl görüneceğini henüz bilmiyoruz.
Harari, nükleer silahlardan farklı olarak, yapay zekanın tek bir korkutucu senaryosu olmadığını vurguuyor. Çünkü yapay zekayı bir araç değil, bir ajan olarak niteliyor ve şunları söylüyor:”Nükleer silahlar sonuçta insanların elinde bir araçtır ve tüm kararlar insanlar tarafından alınır. Ancak yapay zeka kendi kararlarını alabilen ve kendi fikirlerini üretebilen otonom bir ajandır. Bu nedenle yüzlerce tehlikeli senaryo mümkündür ve bunların birçoğunu öngöremeyiz çünkü insan zekasından farklı düşünen bir zekadan bahsediyoruz.”
Harari, "AI" kısaltmasının geleneksel olarak "artificial intelligence" (yapay zeka) anlamına geldiğini, ancak bunun "alien intelligence" (yabancı zeka) olarak düşünülmesi gerektiğini savunuyor. Bunu da , uzaydan gelen bir zeka anlamında değil, insan zekasından tamamen farklı düşünen bir zeka türü olması anlamınd kullanıyor. Ayrıca "yapay" terimini de yanıltıcı olarak nitelendirip bunun sebebi olarak da şunu söylüyor; “Çünkü bir yapay ürün bizim yarattığımız ve kontrol ettiğimiz bir şeydir. Oysa yapay zeka öngörebileceğimiz ve kontrol edebileceğimizin ötesine geçme potansiyeline sahiptir.”
Sosyal Medya ve Algoritmik Kontrol - Platformların Algoritma Sorumluluğu
Harari'ye göre, teknoloji devlerinin en temel sorunu, kullanıcı içeriği ile algoritma sorumluluğunu sürekli karıştırmalarıdır. Facebook ve Twitter gibi platformların, kullanıcıların ifade özgürlüğünü öne sürerek kendi algoritmalarının yarattığı sorunları göz ardı ettiklerini söyleyen Harari, gerçek insan kullanıcıların ifadelerini sansürlemek konusunda çok dikkatli olunması gerektiğini vurguluyor ve asıl sorunun algoritmaların davranışları olduğunu belirtiyor.
Harari, bu durumu 2016-2017 yıllarında Myanmar'da yaşanan Rohingya katliamı örneği üzerinden açıklıyor. Bu etnik temizlik kampanyası sırasında:
- Binlerce insan öldürüldü
- On binlerce kişi tecavüze uğradı
- Yüz binlerce kişi hala Bangladeş ve diğer yerlerde mülteci durumunda
Bu kampanyanın büyük ölçüde Facebook üzerinden yürütülen ve Budist Burmalılar arasında Rohingyalara karşı yoğun nefret yaratan bir propaganda kampanyası ile körüklendiğini belirten Harari, Facebook'un algoritmaları bu süreçte merkezi bir rol oynadığının altını çiziyor.
Facebook, Birleşmiş Milletler ve Af Örgütü'nün suçlamalarına karşı sürekli olarak "insanların ifade özgürlüğünü sansürlemek istemiyoruz" savunmasını yapmıştır. Platform, Rohingyalar hakkındaki komplo teorilerinin insanlar tarafından yaratıldığını ve bunları sansürleme yetkilerinin olmadığını öne sürmüştür. Ancak Harari'ye göre buradaki asıl sorun, algoritmaların belirli hikayeleri yayma konusundaki rolüdür.
Harari, algoritmaların işleyişini şöyle açıklıyor: “Myanmar'daki insanlar çok farklı türde içerikler üretiyordu. Nefret dolu komplo teorilerinin yanı sıra merhamet üzerine vaazlar, yemek dersleri, biyoloji dersleri gibi içerikler de vardı. İnsan dikkatini çekme mücadelesinde algoritmaların "kral yapıcı" rolü vardı. Facebook algoritmaları net bir hedefle programlanmıştı: Kullanıcı katılımını artırmak.” Ve ardından Harari analizine şöyle devam ediyor; “Facebook'ta kimse bir etnik temizlik kampanyası olmasını istemiyordu. Hatta çoğu çalışan Myanmar'da neler olduğunu dahi bilmiyordu. Bununla birlikte algoritmalara sadece kullanıcı katılımını artırma hedefi verilmişti ve algoritmalar milyonlarca insan üzerinde deney yaparak insan zihninde nefret ve korku düğmelerine basmanın, insanları ekrana kilitli tuttuğunu keşfetti. Böylece merhamet vaazları veya yemek dersleri yerine, nefret dolu komplo teorilerini bilinçli olarak yaymaya başladı.”
Harari'nin bu konu ile ilgili olarak sunduğu temel argümanı ise şu: "Kullanıcıları sansürlemeyin, ama algoritmalarınız kasıtlı olarak nefret ve korku yayıyorsa, çünkü bu sizin iş modeliniz, bu sizin hatanızdır. Bu sizin sorumluluğunuzdur." Harari'ye göre, modern dünyada bilgi yayılımının kontrolü büyük ölçüde algoritmalara devredilmiş durumdadır ve bu durumun potansiyel tehlikeleri yeterince anlaşılmamaktadır.
Demokrasinin Dijital Çağdaki Dönüşümü
Demokratik sistemlerin özünü yeniden değerlendiren Harari, demokrasiyi sadece seçimlerden ibaret gören yaygın anlayışın ötesinde, kendini düzeltme mekanizmalarına sahip dağıtılmış bir bilgi ağı olarak tanımlıyor. Bu tanım, modern demokrasilerin karşı karşıya olduğu zorlukları anlamak için kritik bir başlangıç noktası oluşturuyor.
Harari'ye göre demokrasinin en büyük gücü, kendi kendini düzeltebilme yeteneğinde yatar. Bu süreç, vatandaşların belirli politikaları veya liderleri deneyimleyip, işe yaramadığında değiştirebilme özgürlüğüne sahip olmalarıyla başlar. "Hata yaptık, başka bir şey deneyelim" diyebilme yeteneği, demokratik sistemlerin özünü oluşturur. Ancak dijital çağda bu temel özellik, çeşitli zorluklarla karşı karşıyadır.
Demokratik sistemlerin karşılaştığı en büyük tehditlerden biri, seçilmiş liderlerin kendilerine verilen gücü, daha fazla güç elde etmek ve kendilerinden kurtulmanın imkansız hale gelmesini sağlamak için kullanmalarıdır. Tarihsel perspektiften bakıldığında, büyük ölçekli demokrasinin modern bilgi teknolojilerinin yükselişine kadar mümkün olmadığını vurgulayan Harari, demokrasinin özünde çok sayıda insan arasında bir konuşma olduğunu belirtiyor ve ekliyor; “Antik dünyada bu tür bir diyalog ancak kabile, köy veya şehir devleti gibi küçük ölçeklerde mümkündü. Bu bağlamda, modern demokrasi bilgi teknolojisi üzerine inşa edilmiştir ve günümüzde bu teknolojide yaşanan büyük değişimler, demokratik yapılarda da sarsıntılara neden olmaktadır.”
Demokrasinin sürdürülebilirliği için kurumların hayati önemini vurgulayan Harari, geleceğin belirsizliğine karşı katı düzenlemelerin yetersiz kalacağını savunuyor. Bunun yerine, sorunları gerçek zamanlı olarak tespit edip tepki verebilecek canlı kurumlara ihtiyaç olduğunu belirten Harari, bu kurumların en iyi insan yeteneklerini ve en iyi teknolojiyi bir araya getirmesi gerektiğinin altını çiziyor. Ancak günümüzde kurumlara karşı artan düşmanlığın demokratik sistemler için ciddi bir tehdit oluşturduğunu da belirtiyor.
Harari'nin bu analizi, demokratik sistemlerin dijital çağda karşılaştığı zorlukların basit teknik meseleler olmadığını, aksine toplumsal yapının temellerine inen derin değişimler olduğunu ortaya koyuyor. Bilgi teknolojilerindeki dönüşümün demokrasi üzerindeki etkisi ve kurumsal yapıların önemi, bu değişim sürecinin en kritik boyutlarını oluşturuyor.
Gözetim Teknolojileri ve Totaliter Potansiyel
Totaliter rejimlerin tarihsel sınırlamalarını inceleyen Harari, 20. yüzyılın en baskıcı rejimlerinin bile vatandaşlarını sürekli gözetleme konusunda teknik kısıtlamalarla karşılaştığını vurguluyor. Bu durumu Sovyetler Birliği örneği üzerinden açıklayan Harari, 200 milyon Sovyet vatandaşını 24 saat boyunca izleyebilmek için 400 milyon KGB ajanına ihtiyaç duyulacağını belirten Harari, bu sayının imkansızlığının geçmiş totaliter rejimlerin gözetim kapasitesinin doğal sınırlarını gösterdiğini belirtiyor.
Eski sistemlerdeki gözetimin en büyük zorluklarından birinın de bilgi işleme kapasitesi olduğunu belirten Harari, 1940'lar veya 1960'larda, her vatandaşın günlük aktiviteleri hakkında yazılan raporların, Moskova'daki KGB merkezinde devasa bir kağıt yığınına dönüştüğünü söylüyor ve bu bilgileri analiz edecek yeterli sayıda uzman bulunmamasının gözetimin etkinliğini ciddi şekilde sınırladığını söylüyor. Bu teknik kısıtlamalar nedeniyle, paradoksal bir şekilde, Sovyetler Birliği gibi totaliter rejimlerde bile mahremiyetin varsayılan bir durum olduğunu, insanlar her an izleniyor olabileceklerini bilseler bile, çoğu zaman kimsenin onları izlemediğini, izlenseler bile, haklarında tutulan raporların muhtemelen KGB arşivlerinin derinliklerinde kaybolup gittiğini söylüyor.
Ancak dijital çağda durumun dramatik bir şekilde değiştiğinden bahseden Harari, yapay zekanın, gözetimin önündeki her iki temel engeli de ortadan kaldırdığını belirtiyor ve şunları söylüyor; “Artık bir ülkenin tüm nüfusunu 24 saat izlemek için insan ajanlara ihtiyaç yoktur; akıllı telefonlar, bilgisayarlar ve mikrofonlar bu görevi yerine getirebiliyor. Dahası, toplanan devasa miktardaki veriyi analiz etmek için insan analistlere de ihtiyaç duyulmuyor; yapay zeka sistemleri bu görevi kusursuz bir şekilde yerine getiriyor.”
Modern toplumda mahremiyet kavramının yaşadığı dönüşüme de dikkat çekiyor Harari ve ekliyor; “İnsanlar bir yandan mahremiyetten vazgeçtiklerini söylerken, diğer yandan mahremiyetle ilgili endişelerini dile getiriyorlar. Fotoğraflarını sosyal medyada paylaşmaya devam ederken, güvenlik ihlallerinden şikayet ediyorlar”. Harari'ye göre bu çelişkili durum, insanların üzerindeki büyük baskının ve bir tür çaresizliğin göstergesidir.
Modern gözetim teknolojilerinin totaliter potansiyelini gözler önüne sererken, bireysel özgürlüklerin geleceği hakkında da ciddi sorular ortaya atıyor. Harari'nin perspektifinden bakıldığında, teknolojik gelişmeler gözetim kapasitesini öyle bir noktaya taşımıştır ki, geçmişteki totaliter rejimlerin hayal bile edemeyeceği bir kontrol düzeyi artık mümkün hale gelmiş durumda.
Teknoloji Şirketleri ve Etik Sorumluluklar
Teknoloji dünyasının en güçlü aktörlerini yakından gözlemleyen Harari, yapay zeka geliştiren şirket liderlerinin içinde bulunduğu karmaşık psikolojik durumu çarpıcı bir tespitle ortaya koyuyor: “Yarattıkları teknolojinin potansiyelini, özellikle de yıkıcı potansiyelini herkesten daha iyi anlayan bu teknolji şirketlerinin liderleri, gelecek konusunda derin endişeler taşıyor.”
Teknoloji şirketlerinin söylemlerinde tekrarlanan temel bir argümana dikkat çeken Harari şöyle diyor; “Bu şirketler kendilerini "iyi aktörler" olarak konumlandırırken, rakiplerini potansiyel tehlike kaynağı olarak gösterme eğilimindeler. "Ben iyi biriyim ve bu konuda çok endişeliyim. Diğerleri kötü ve benim sahip olduğum sorumluluk duygusuna sahip değiller. Bu teknolojinin onlar tarafından geliştirilmesi insanlık için felaket olur. O yüzden ben ilk yaratan olmalıyım. Bana güvenebilirsiniz." şeklinde yaygın bir söylemin olduğunu da ekliyor.
Bu yaklaşımın ardında yatan motivasyonları inceleyen Harari, teknoloji liderlerinin endişelerinin büyük ölçüde gerçek olduğunu düşünüyor. Ancak bu endişelerin yanında, evrenin tarihinde en önemli adımı atıyor olma düşüncesinden kaynaklanan derin bir gururun da varlığından bahsediyor. Harari bunu "İbrani gururu" olarak adlandırıyor ve bu duygunun teknoloji liderlerinin kararlarını etkilediğini belirtiyor.
Evrensel tarih perspektifinden bakıldığında, teknoloji şirketlerinin konumu gerçekten de dikkat çekicidir. Harari'ye göre evrenin bilinen tarihinde iki büyük dönüm noktası vardır: Birincisi, 4 milyar yıl önce ilk organik yaşam formlarının Dünya'da ortaya çıkışı. O zamandan beri, amiplerden dinozorlara ve insanlara kadar her şey organik kalmıştır. Şimdi ise Elon Musk veya Sam Altman gibi isimler, evrenin tarihindeki ikinci büyük dönüm noktasını, yani inorganik evrimin başlangıcını temsil etmektedir.
Yapay zekanın gelişim sürecini evrimsel bir perspektifle değerlendiren Harari, mevcut durumu şöyle açıklıyor: “Yapay zeka henüz çok genç, yaklaşık 10-15 yaşında bir teknolojidir. GPT-4 ve diğer mevcut sistemler, yapay zeka evriminin sadece "amipleri" olarak görülebilir. Gelecekte ortaya çıkacak "yapay zeka dinozorları"nın nasıl olacağını henüz kimse bilmiyor.” Bu tarihsel dönüm noktasında yer almanın getirdiği sorumluluk ve baskı, teknoloji şirketlerini zorlu bir ikileme sürüklüyor. Bir yandan geliştirdikleri teknolojinin tehlikelerinin farkındayken, diğer yandan rekabet baskısı nedeniyle duraksamaya veya yavaşlamaya cesaret edemmiyorlar. Her şirket, bu kritik teknolojinin kontrolünü elinde tutmak istemekte, bu da potansiyel riskleri artırmakta.
Yapay Zeka Regülasyonu ve Kurumsal Yapılar
Yapay zekanın hızla gelişen doğası, düzenleme ihtiyacını acil bir mesele haline getirmiş durumda. Harari, bu alanda hemen uygulanması gereken iki temel regülasyondan bahsediyor: Sosyal medya şirketlerinin algoritmalarının eylemlerinden sorumlu tutulması ve yapay zekaların yalnızca kendi kimliklerini açıkça belirterek insanlarla etkileşime girmelerinin zorunlu kılınması. Ancak Harari'ye göre, spesifik regülasyonların ötesinde, çok daha kapsamlı bir kurumsal yapılanmaya ihtiyaç var.
Harari, yapay zeka teknolojisinin geleceğini öngörmenin imkansızlığına da dikkat çekiyor. Önümüzdeki 5, 10 veya 50 yılda bu teknolojinin nasıl gelişeceğini kimsenin tahmin edemeyeceğini ve bu belirsizliğin, şimdiden katı kurallar koymayı yetersiz kalacağını söylüyor. Bunun yerine, Harari'nin önerdiği çözüm ise şu, en iyi insan yeteneğini ve en iyi teknolojiyi bir araya getiren, sorunları gerçek zamanlı olarak tespit edip müdahale edebilen "canlı kurumlar".
Ne var ki, günümüzde kurumlara karşı artan bir güvensizlik ve düşmanlık söz konusu.Harari, tarihin bize tekrar tekrar gösterdiği bir gerçeği vurgulayarak şöyle bir yorumda bulunuyor: “Bu tür karmaşık sorunlarla ancak kurumlar başa çıkabilir. Ne tek tek bireyler ne de statik düzenlemeler, yapay zekanın getirdiği zorlukları çözebilir.”
Harari, yapay zeka geliştirme sürecinin hızını kontrol etmenin önemini çarpıcı bir araba metaforu üzerinden açıklıyor; “Araba kullanmayı öğrenen birine ilk olarak frenleri kullanmayı öğretirler. Ancak frenleri kullanmayı öğrendikten sonra gaz pedalını ve hızlanmayı öğretirler. Benzer şekilde, kayak yaparken de ilk öğretilen şey nasıl duracağınız veya nasıl güvenli bir şekilde düşeceğinizdir. Önce hızlanmayı öğretip, yokuş aşağı inerken durma tekniklerini anlatmak tehlikeli bir yaklaşımdır.” Ne var ki, Silikon Vadisi'ndeki yaklaşım tam da bu tehlikeli modeli izlemektedir. Harari, teknoloji şirketlerinin "olabildiğince hızlı gidelim, yolda bir sorun çıkarsa nasıl duracağımızı o zaman çözeriz" yaklaşımını şiddetle eleştiriyor. Bu düşüncesiz hız odaklı yaklaşımın, potansiyel olarak geri dönülemez sonuçlara yol açabileceğini söylüyor.
Yapay zekanın demokratik süreçlerdeki rolü de Harari'nin dikkat çektiği önemli bir konu. Örneğin, ABD seçimlerinde, kazanan adayın önümüzdeki dört yıl içinde alması gereken en önemli kararların başında yapay zeka regülasyonu ve güvenliğinin geleceğini söyleyen Harari, ancak bu konunun başkanlık tartışmalarında bile yeterince kendine yer bulamadığından, Cumhuriyetçiler ve Demokratlar arasında yapay zeka konusunda belirgin bir politika farkı olup olmadığının bile net olmadığından bahsediyor.
Dijital Çağda Bilgi Tüketimi
Modern dünyada yaşanan en temel gerilimlerden biri, Harari'nin tespitiyle, organik varlıklar olan insanlar ile dünyayı giderek daha fazla kontrol eden inorganik dijital sistemler arasındaki çatışmadır. Organik bir varlık olmanın doğası, belirli döngülere bağlı yaşamayı gerektirir: gündüz ve gece, kış ve yaz, büyüme ve çürüme. Bu döngüsel yaşamda, aktivite ve dinlenme periyotları birbirini takip eder. Ancak algoritmalar, yapay zekalar ve bilgisayarlar bu organik döngülerin dışındadır. Dinlenmeye ihtiyaç duymaz, sürekli aktiftirler. Harari'nin dikkat çektiği kritik soru şu: Bu durumda kim kime uyum sağlayacak? İnsanlar mı dijital sistemlere, yoksa dijital sistemler mi insanlara? Ne yazık ki giderek artan bir şekilde, insanların dijital sistemlere uyum sağlamak zorunda kaldığı, sürekli aktif olma baskısı altında yaşadığı bir dünyaya doğru ilerliyoruz.
Bu dönüşümün pratik yansımaları günlük hayatın her alanında görülüyor. Haber döngüsü artık hiç durmuyor, sosyal medyada paylaşılan en özel anlar bile potansiyel olarak kamuya açık hale gelebiliyor. Harari’ye göre modern yaşam, adeta kesintisiz bir iş görüşmesine dönüşmüş durumda. Üniversite yıllarında bir partide yapılan düşüncesiz bir hareket, yıllar sonra kariyerinizi etkileyebilecek bir tehdit haline gelebiliyor.
Harari, modern bilgi tüketimini anlamak için çarpıcı bir gıda analojisi sunuyor; “Yüz yıl önce, gıda kıtlığı nedeniyle insanlar bulabildikleri her şeyi tüketmek zorundaydı. Özellikle yüksek enerji veren şekerli ve yağlı gıdaları, mümkün olduğunca fazla tüketmeye çalışırlardı. Günümüzde ise durum tam tersine dönmüş durumda. Artık muazzam miktarda gıdayla ve yapay olarak şeker ve yağla zenginleştirilmiş abur cuburla çevrili durumdayız. Bu durum ciddi sağlık sorunlarına yol açmakta ve insanlar artık daha fazla yemeğin her zaman iyi olmadığını, bir tür diyete ihtiyaç duyduklarını fark etmiş durumdalar.” Harari, bu gıda analojisini bilgi tüketimine ustaca uyarlıyor; “Geçmişte bilgi de kıttı ve insanlar ulaşabildikleri her bilgiyi tüketmeye çalışıyordu. Ancak günümüzde, tıpkı gıda gibi, bilgi de aşırı bolluğa ulaşmış durumda. Üstelik bu bilginin önemli bir kısmı, tıpkı işlenmiş gıdalar gibi, yapay olarak nefret, açgözlülük ve korkuyla "zenginleştirilmiş" durumda.” Bu nedenle Harari, bir bilgi diyetine girmenin ve daha bilinçli bir bilgi tüketimi alışkanlığı geliştirmenin gerekliliğini vurguluyor.
Zihinsel sağlık ile bilgi tüketimi arasındaki ilişki, Harari'nin analizinin merkezi unsurlarından birini oluşturuyor. Nasıl ki bedenimize aldığımız gıdalar fiziksel sağlığımızı etkiliyorsa, zihnimize aldığımız bilgiler de mental sağlığımızı doğrudan etkiliyor. Harari'nin basit ama güçlü ifadesiyle: "Bilgi zihin için gıdadır. Zihninizi sağlıksız bilgiyle beslerseniz, hasta bir zihniniz olur."
https://youtu.be/thZUMaGEE-8?si=yabH03JPTqPmIlyC


