Tarihçi ve Sapiens yazarı Yuval Noah Harari, teknolojinin karmaşıklığının tehlikelerini tahmin etmeyi zorlaştırdığını söylüyor.
Tarihçi ve yazar Yuval Noah Harari’ye göre yapay zeka “felaket” sonuçları olan bir mali krize neden olabilir ve teknolojinin karmaşıklığı tehlikelerini öngörmeyi zorlaştırıyor.
Harari Guardian’a verdiği demeçte, yapay zeka modellerinin güvenlik açısından test edilmesiyle ilgili bir endişenin, güçlü bir sistemin neden olabileceği tüm sorunları öngörmek olduğunu söyledi. Nükleer silahların aksine, herkesin anlayabileceği tek bir “büyük, tehlikeli senaryo” olmadığını söyledi ve şöyle devam etti:
“YZ söz konusu olduğunda, her biri nispeten küçük bir olasılığa sahip olan ve bir araya geldiklerinde insan uygarlığının hayatta kalmasına yönelik varoluşsal bir tehdit oluşturan çok sayıda tehlikeli senaryodan bahsediyoruz.”
YZ’nin gelişimi konusundaki endişelerin önde gelen seslerinden biri olan Sapiens yazarı, geçen hafta Bletchley Park’ta düzenlenen küresel YZ güvenlik zirvesinde yapılan çok taraflı deklarasyonun “ileriye doğru atılmış çok önemli bir adım” olduğunu çünkü önde gelen hükümetlerin teknoloji konusundaki endişelerini dile getirmek ve bu konuda bir şeyler yapmak için bir araya geldiklerini söyledi.
Harari, “Belki de bu konudaki en cesaret verici ya da umut verici şey, sadece Avrupa Birliği, Birleşik Krallık ve Amerika Birleşik Devletleri’nin değil, aynı zamanda Çin hükümetinin de bildirgeyi imzalamasını sağlayabilmiş olmalarıdır. Bunun çok olumlu bir işaret olduğunu düşünüyorum. Küresel işbirliği olmadan, yapay zekanın en tehlikeli potansiyelini dizginlemek imkansız olmasa bile son derece zor olacaktır” diye konuştu.
Zirve, aralarında İngiltere ve ABD’nin de bulunduğu ancak Çin’in yer almadığı 10 hükümet, AB ve aralarında ChatGPT geliştiricisi OpenAI ve Google’ın da bulunduğu büyük yapay zeka şirketleri arasında, gelişmiş yapay zeka modellerinin piyasaya sürülmeden önce ve sonra test edilmesi konusunda işbirliği yapılmasına yönelik bir anlaşmayla sonuçlandı.
Modellerin güvenlik testleriyle ilgili bir sorunun, güçlü bir sistemin neden olabileceği tüm sorunları öngörmek olduğunu söyleyen Harari, şöyle devam etti:
“YZ insanlık tarihindeki tüm önceki teknolojilerden farklı çünkü kendi başına karar verebilen, kendi başına yeni fikirler yaratabilen ve kendi başına öğrenip gelişebilen ilk teknoloji. Neredeyse tanımı gereği, insanların, hatta teknolojiyi yaratan insanların bile tüm potansiyel tehlikeleri ve sorunları öngörmesi son derece zordur.”
Harari, hükümetlerin YZ sistemlerinin tehlikelerini halka açıklamaya çalışırken biyolojik silahların yaratılmasına yardımcı olma tehdidinden bahsettiğini, ancak dikkate alınabilecek başka senaryolar da olduğunu söyledi. Yazar, yapay zeka sistemleri için ideal bir sektör olarak finansı işaret etti, “bu yapay zeka için ideal bir alan çünkü sadece veri var” ve yapay zeka yapımı ciddi bir krizin potansiyel kaynağı.
“Yapay zekaya dünyanın finansal sistemi üzerinde daha fazla kontrol verilmekle kalmayıp, sadece yapay zekanın anlayabileceği, hiçbir insanın anlayamayacağı yeni finansal araçlar yaratmaya başlarsa ne olur?” diyen Harari, 2007-08 finansal krizinin, çok az insanın anladığı ve bu nedenle yetersiz bir şekilde düzenlenen teminatlı borç yükümlülükleri (CDO’lar) gibi borç araçlarından kaynaklandığını sözlerine ekledi.
Harari, “Yapay zeka, CDO’lardan çok daha karmaşık finansal araçlar yaratma potansiyeline sahip. Hiçbir insanın anlayamadığı ve bu nedenle de düzenleyemediği bir finansal sisteme sahip olduğumuzu hayal edin. Ve sonra bir finansal kriz oluyor ve kimse ne olduğunu anlamıyor” dedi.
Geçtiğimiz ay Birleşik Krallık hükümeti, gelişmiş bir yapay zeka modelinin finansal sistemleri kontrol ve manipüle ederek potansiyel olarak varoluşsal bir tehdit yaratabileceğine ilişkin endişelerini dile getirmişti. Ancak Harari, YZ tarafından yaratılan bir finansal krizin insan uygarlığını yok etmeyeceğini söyledi; “en azından doğrudan değil”. Harari sözlerine şöyle devam etti: “Eğer belirli türden savaşları ya da çatışmaları tetiklerse dolaylı olarak yok edebilir. Bu yıkıcı bir risk – ekonomik, sosyal, siyasi – ama tek başına varoluşsal olarak tanımlamazdım.”
Gelişmiş yapay zeka gelişimine altı aylık bir ara verilmesi çağrılarına destek veren ve yapay zeka şirketlerinin ürünlerinin neden olduğu zararlardan sorumlu tutulmasını destekleyen İsrailli yazar, odak noktasının belirli düzenlemeler ve yasalar değil, yeni atılımlar ortaya çıktıkça hızlı bir şekilde tepki verebilecek teknoloji bilgisine sahip düzenleyici kurumlar olması gerektiğini söyledi.
Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.