22.5 C
İstanbul

Eski OpenAI araştırmacısı şirketin AGI’ye “oldukça yakın” olduğunu ve buna hazırlıklı olmadığını düşünüyor

Eski OpenAI güvenlik araştırmacılarından Daniel Kokotajlo, OpenAI'ın, yapay genel zeka (AGI) geliştirmeye "oldukça yakın" olduğunu ancak buna hazırlıklı olmadığını söyledi.

Mutlaka Okumalısın

Eski bir çalışana göre, OpenAI’nin AGI/ASI güvenlik araştırmacılarının yaklaşık yarısı yakın zamanda şirketten ayrıldı. Ayrılışlar muhtemelen potansiyel süper zeki AI’nın risklerini yönetme konusundaki anlaşmazlıklardan kaynaklanıyor.

Eski OpenAI güvenlik araştırmacılarından Daniel Kokotajlo, Fortune dergisine yaptığı açıklamada, şirketin güvenlik araştırmacılarının yaklaşık yarısının, aralarında önde gelen liderlerin de bulunduğu, işten ayrıldığını söyledi.

Kokotajlo, istifaların belirli nedenlerine dair yorum yapmazken, bunların kendi görüşleriyle örtüştüğüne inanıyor: OpenAI, yapay genel zeka (AGI) geliştirmeye “oldukça yakın” ancak “gerektirdiği her şeyi halletmeye” hazır değil.

Kokotajlo, bunun şirket içinde AGI riskleri üzerine araştırma yayınlamaya çalışanlar üzerinde “soğutucu bir etki” yarattığını söyledi. Ayrıca, neyin yayınlanmasının uygun olduğu konusunda “OpenAI’nin iletişim ve lobi kanatlarının artan etkisine” dikkat çekti.

OpenAI CEO’su Sam Altman’ın geçici olarak işten çıkarılması da güvenlik endişeleriyle bağlantılıydı. Bir hukuk firması, Altman’ın yeniden göreve getirilmesinin ardından onu akladı .

AGI güvenlik sorunları üzerinde çalışan 30 çalışandan yaklaşık 16’sı kaldı. Kokotajlo, bu ayrılışların “koordineli bir şey” olmadığını, bunun yerine insanların “bireysel olarak pes ettiğini” söyledi.

Ayrılanlar arasında Jan Hendrik Kirchner, Collin Burns, Jeffrey Wu, Jonathan Uesato, Steven Bills, Yuri Burda, Todor Markov ve OpenAI’nin kurucu ortağı John Schulman yer alıyor.

Şirketin gelecekteki AI sistem güvenliğine odaklanan “süper hizalama” ekibine birlikte liderlik eden baş bilim insanı Ilya Sutskever ve Jan Leike’nin istifaları özellikle önemliydi. OpenAI daha sonra bu ekibi dağıttı .

Uzmanlar OpenAI’dan ayrılıyor ama AGI’dan değil

Kokotajlo, OpenAI’nin gelişmiş AI sistem risklerini düzenlemeyi amaçlayan Kaliforniya’nın SB 1047 tasarısına karşı çıkmasından hayal kırıklığı duyduğunu ancak şaşırmadığını ifade etti. Vali Newsom’a OpenAI’nin tutumunu eleştiren ortak bir mektup imzalandı ve bunu şirketin AGI’nin düzenlemeler ve yasalar geliştirme konusundaki uzun vadeli risklerini kapsamlı bir şekilde değerlendirme konusundaki orijinal planlarına ihanet olarak nitelendirdi.

İLGİLİ YAZI :   OpenAI, GPT-4'ün halefinin eğitim aşamasında olduğunu doğruladı

Mektupta, “OpenAI’ye katıldık çünkü şirketin geliştirmekte olduğu inanılmaz derecede güçlü AI sistemlerinin güvenliğini sağlamak istedik. Ancak OpenAI’den istifa ettik çünkü AI sistemlerini güvenli, dürüst ve sorumlu bir şekilde geliştireceğine olan güvenimizi kaybettik” ifadeleri yer alıyor.

Leike ve Schulman, SB 1407’yi bazı çekincelerle destekleyen OpenAI rakibi Anthropic’te güvenlik araştırma rollerine geçtiler. OpenAI’dan ayrılmadan önce Schulman, AGI’nin iki ila üç yıl içinde mümkün olacağına inandığını söyledi. Sutskever daha da ileri giderek güvenli süper zeki AI geliştirmek için kendi girişimini kurdu.

Dikkat çekici bir şekilde, bu araştırmacılar OpenAI’dan ayrılırken, AI çalışmalarına bağlı kalmaya devam ediyorlar. Bu, teknolojide hala potansiyel gördüklerini, ancak artık OpenAI’yı doğru işveren olarak görmediklerini gösteriyor.


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler