31.4 C
İstanbul

OpenAI çalışanları yapay zekanın insanlığa yönelik tehditleri konusunda uyardı

ChatGPT'nin arkasındaki ana şirket olan OpenAI'nin mevcut ve eski çalışanlarından oluşan bir grup, insan neslinin tükenmesi potansiyeli de dahil olmak üzere gelişmiş yapay zekanın yarattığı varoluşsal tehditler hakkında bir uyarı mektubu yayınladı.

Mutlaka Okumalısın

ChatGPT’nin arkasındaki ana şirket olan OpenAI’nin mevcut ve eski çalışanlarından oluşan bir grup, insan neslinin tükenmesi potansiyeli de dahil olmak üzere gelişmiş yapay zekanın yarattığı varoluşsal tehditler hakkında bir uyarı mektubu yayınladı.

OpenAI, Anthropic ve Google’s DeepMind gibi firmaların 13 eski ve mevcut çalışanından oluşan grup, dün (4 Haziran) yayınladıkları ayrıntılı bir mektupta, potansiyel faydalarına rağmen yapay zeka ile ilişkili bir dizi tehdidi özetledi.

Mektupta, “Bizler öncü YZ şirketlerinin mevcut ve eski çalışanlarıyız ve YZ teknolojisinin insanlığa eşi benzeri görülmemiş faydalar sağlama potansiyeline inanıyoruz” deniyor. Bununla birlikte, endişelerin de altı çiziliyor:

“Bu riskler, mevcut eşitsizliklerin daha da derinleşmesinden, manipülasyon ve yanlış bilgilendirmeye, otonom YZ sistemlerinin kontrolünü kaybetmesine ve potansiyel olarak insan neslinin tükenmesine kadar uzanmaktadır.”

DeepMind’da Mekanistik Yorumlanabilirlik lideri olan ve daha önce AnthropicAI’de çalışan Neel Nanda da imzacılar arasındaydı. Nanda X’te, şunları yazdı:

“Bunun nedeni şu anda mevcut ya da eski işverenlerim hakkında uyarmak istediğim bir şey olması ya da onların ihbarcılara yönelik tutumlarına yönelik özel eleştirilerim olması DEĞİLDİR. Ancak AGI’nin inanılmaz derecede önemli olacağına ve tüm laboratuvarların kabul ettiği gibi varoluşsal bir tehdit oluşturabileceğine inanıyorum. AGI yapmak isteyen herhangi bir laboratuvar, halkın güvenine layık olduğunu kanıtlamalıdır ve çalışanların sağlam ve korunan bir ihbar hakkına sahip olması önemli bir ilk adımdır.”

Yapay zekanın hesap verebilirliğinin ve düzenlenmesinin olmaması

Destekçiler, YZ şirketleri ve küresel hükümetler bu tehlikelerin farkında olsa da, mevcut kurumsal ve düzenleyici önlemlerin bunları önlemek için yetersiz olduğunu belirtiyor ve “YZ şirketlerinin etkili gözetimden kaçınmak için güçlü finansal teşvikleri var ve ısmarlama kurumsal yönetişim yapılarının bunu değiştirmek için yeterli olduğuna inanmıyoruz” diyorlar.

İLGİLİ YAZI :   Google'ın yapay zeka destekli NotebookLM'i artık kullanılabilir

Ardından, YZ şirketlerinin şeffaflığını eleştirerek, “sistemlerinin yetenekleri ve sınırlamaları, koruyucu önlemlerinin yeterliliği ve farklı zarar türlerinin risk seviyeleri hakkında kamuya açık olmayan önemli bilgilere” sahip olduklarını iddia ediyor. Bu şirketlerin bu tür kritik bilgileri ifşa etme yükümlülüğünün olmadığına dikkat çekerek, “Şu anda bu bilgilerin bir kısmını hükümetlerle paylaşmak için yalnızca zayıf yükümlülükleri var ve sivil toplumla hiçbir yükümlülükleri yok” diyor.

Çalışanlar, daha fazla hükümet denetimine ve kamuya hesap verebilirliğe duyulan acil ihtiyacı dile getirdi. Grup, “Bu şirketler üzerinde etkili bir hükümet denetimi olmadığı sürece, mevcut ve eski çalışanlar onları halka karşı sorumlu tutabilecek birkaç kişi arasında yer alıyor” dedi. Ayrıca, yapay zeka teknolojilerinin yarattığı düzenlenmemiş riskleri tam olarak kapsamayan mevcut ihbarcı korumalarının sınırlamalarını da sergilediler.

OpenAI sıcak suda

Açık mektup, insanlarla canlı sesli konuşmalar yapabilen ve video akışları veya yazılı matematik problemleri gibi görsel girdilere yanıt verebilen gelişmiş özelliklere sahip yapay zeka asistanlarını piyasaya süren OpenAI başta olmak üzere önde gelen yapay zeka şirketlerinin sarsıldığı bir dönemde geldi.

Bir zamanlar “Her” filminde bir YZ asistanını canlandıran Scarlett Johansson, böyle bir teklifi açıkça reddetmesine rağmen OpenAI’yi ürünlerinden birini kendi sesinden modellemekle suçladı. OpenAI CEO’su sesli asistanın lansmanı sırasında “her” kelimesini tweetlemiş olsa da, şirket o zamandan beri Johansson’un sesini model olarak kullandığı iddialarını yalanladı.

Mayıs ayında OpenAI, kuruluşundan bir yıldan kısa bir süre sonra yapay zeka ile ilgili uzun vadeli tehditleri araştırmak üzere oluşturulan özel bir ekibi de feshetti. Geçtiğimiz Temmuz ayında OpenAI’nin güven ve güvenlikten sorumlu başkanı Dave Willner da istifa etti.


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler