EVIDENCE_LOG
135 artifacts
VIDEOYOUTUBEb0142ebbtr_TR.UTF-8
An Honest Conversation on AI and Humanity @wef | Yuval Noah Harari

An Honest Conversation on AI and Humanity @wef | Yuval Noah Harari

Yuval Noah Harari

Yapay zekayı hâlâ “sadece bir araç” sanıyorsanız, Harari’nin WEF’teki bıçak benzetmesi fikrinizi sarsacak: Ne yapacağına insan değil, kendi karar veren bir “fail” (agent) düşünün. “Gözcüler” gibi yeni kavramlarla dilin ve kurumların (hukuk, din, finans) el değiştirmesi ihtimali ürkütücü derecede somut. Asıl düğüm ise tek bir soruda: AI’ya “tüzel kişilik” verirsek, geri dönüşü olmayan hangi kapıları açmış oluruz?

NOTEa354401btr_TR.UTF-8

Yapay Zekâ Çağında Asıl Risk: Teknoloji Değil, Yönetişim Boşluğu

CISA’nın geçici başkanının “for official use only” belgeleri herkese açık bir ChatGPT sürümüne yüklemesi, teknik bir hatadan çok daha fazlasını ifşa ediyor: yönetişim boşluğu. Belgeler gizli değil ama “sınıflandırılmamış hassas veri” tam da burada risk üretiyor; üstelik DLP alarmları çalışsa bile üst düzey kullanıcılar söz konusu olduğunda durdurucu mekanizma nerede devreye giriyor? Asıl kırılma, kuralların kâğıtta değil liderlikte nasıl karşılık bulduğunda.

ARTICLEa28de2a1tr_TR.UTF-8

İnsanlığın Geçiş Töreni ve Veri Merkezindeki Dahiler Ülkesi

2026–2027 gibi yakın bir tarihte hayatımıza girebilecek “Güçlü Yapay Zeka”, Dario Amodei’nin deyimiyle “bir veri merkezinde yaşayan dahiler ülkesi” olabilir—7/24 çalışan, milyonlarca kopyası yapılabilen ve insan hızının 10–100 katına çıkan bir zihin. Peki sarkaç 2023’teki korkudan 2025–2026’daki kayıtsızlığa savrulurken, asıl tehlike tam olarak nereden geliyor? Amodei’nin tanımladığı 5 risk kategorisi ve teknik-jeopolitik savunmaların en kritik kısmı, sandığınız yerden başlayabilir.

BOOKMARKc964a4dden_US.UTF-8
📖To Read
🔖

Safety at every step

openai.com

AI safety isn’t a single feature—it’s a chain of decisions from training to deployment that can either minimize harm or amplify it. OpenAI’s Safety approach breaks that chain into five concrete areas—training, evaluation, risk mitigation, content safeguards, and human-value alignment—plus the policies and collaborations behind them. The most important piece isn’t what you think, and it shows up before launch.

ARTICLEb7f3d00btr_TR.UTF-8

Modern Golem ve Gizlenen Fail: Ayşe Acar’ın Gözünden Yapay Zeka ve İdeoloji

Ayşe Acar, "Yapay Zeka ve İdeoloji" başlıklı konuşmasında yapay zekanın tarihsel ve politik arka planını gözler önüne seriyor. Golem efsanesinden yola çıkarak, yapay zekanın bir "ideolojik aygıt" olarak nasıl kullanıldığını ve arkasındaki gerçek failleri nasıl gizlediğini keşfedin. İnternet trafiğinin %60'ını botların oluşturduğu bu dünyada, yapay zekanın manipülasyon araçları ve toplumsal riskleri nelerdir?