16.9 C
İstanbul

OpenAI’den Ilya Sutskever’in yapay zekayı kontrol altında tutmak için bir planı var

OpenAI'a bağlı olarak Temmuz ayında kurulan Superalignment grubu, geleceğin süper akıllı YZ'leriyle mücadele etmek için çalışan yeni bir araştırma grubunun meyvelerini vermeye başladığını duyurdu. Superalignment grubu, OpenAI'nin kurucularından, baş bilim adamı ve geçen ay CEO Sam Altman'ın kovulması yönünde oy kullanıp geri adım atan Ilya Sutskever tarafından yönetiliyor.

Mutlaka Okumalısın

OpenAI, tüm insanlığa fayda sağlayacak bir yapay zeka oluşturma vaadiyle kuruldu; bu yapay zeka yaratıcılarından çok daha akıllı hale gelse bile. ChatGPT’nin geçen yıl piyasaya sürülmesinden bu yana ve şirketin son yönetim krizi sırasında, ticari hedefleri daha belirgin hale geldi. Şimdi şirket, geleceğin süper akıllı YZ’leriyle mücadele etmek için çalışan yeni bir araştırma grubunun meyvelerini vermeye başladığını söylüyor.

Temmuz ayında kurulan Superalignment araştırma ekibinde yer alan OpenAI araştırmacısı Leopold Aschenbrenner, “AGI çok hızlı bir şekilde yaklaşıyor. İnsanüstü modeller göreceğiz, çok geniş yeteneklere sahip olacaklar ve çok ama çok tehlikeli olabilirler ve henüz onları kontrol edecek yöntemlere sahip değiliz” diyor.

OpenAI, mevcut bilgi işlem gücünün beşte birini Superalignment projesine ayıracağını kaydediyor.

OpenAI tarafından yayınlanan bir araştırma makalesi, daha düşük bir YZ modelinin daha az akıllı hale getirmeden çok daha akıllı bir modelin davranışını yönlendirmesine izin vermenin bir yolunu test etmek için tasarlanan deneylerden elde edilen sonuçları ortaya koyuyor. Söz konusu teknoloji insanların esnekliğini aşmaktan çok uzak olsa da, senaryo, insanların kendilerinden daha zeki YZ sistemleriyle çalışmak zorunda olduğu gelecekteki bir zamanı temsil etmek üzere tasarlandı.

OpenAI araştırmacıları, ChatGPT’nin arkasındaki büyük dil modeli olan GPT-4 gibi sistemleri daha yararlı ve daha az zararlı olacak şekilde ayarlamak için kullanılan ve denetim adı verilen süreci incelediler. Şu anda bu, insanların YZ sistemine hangi cevapların iyi hangilerinin kötü olduğu konusunda geri bildirim vermesini içeriyor. YZ ilerledikçe, araştırmacılar zamandan tasarruf etmek için bu süreci nasıl otomatikleştireceklerini araştırıyorlar; aynı zamanda YZ daha güçlü hale geldikçe insanların yararlı geri bildirim sağlamasının imkansız hale gelebileceğini düşünüyorlar.

GPT-4’ü öğretmek için OpenAI’nin ilk olarak 2019’da piyasaya sürülen GPT-2 metin oluşturucusunu kullanan bir kontrol deneyinde, daha yeni olan sistem daha az yetenekli ve daha düşük sisteme benzer hale geldi. Araştırmacılar bunu düzeltmek için iki fikri test etti. Bunlardan biri, her adımda kaybedilen performansı azaltmak için giderek daha büyük modellerin eğitilmesini içeriyordu. Diğerinde ise ekip GPT-4’e algoritmik bir değişiklik ekleyerek daha güçlü modelin, performansını normalde olduğu kadar köreltmeden daha zayıf modelin rehberliğini takip etmesini sağladı. Araştırmacılar, bu yöntemlerin daha güçlü modelin mükemmel davranacağını garanti etmediğini kabul etseler de, bu yöntemin daha etkili olduğunu ve daha ileri araştırmalar için bir başlangıç noktası olduğunu belirtiyorlar.

İLGİLİ YAZI :   Yapay zeka araştırmacılarından açık mektup: Demokrasiyi yok etmeden önce derin sahtekarlıklara karşı harekete geçin

San Francisco’da yapay zeka risklerini yönetmeye adanmış kar amacı gütmeyen bir kuruluş olan Center for AI Safety‘nin direktörü Dan Hendryks, “OpenAI’nin insanüstü yapay zekaları kontrol etme sorununu proaktif bir şekilde ele aldığını görmek harika. Bu zorluğun üstesinden gelmek için uzun yıllar sürecek özel bir çabaya ihtiyacımız olacak” diyor.

Aschenbrenner ve Superintelligence ekibinin diğer iki üyesi Collin Burns ve Pavel Izmailov, potansiyel insanüstü yapay zekaları ehlileştirme yolunda önemli bir ilk adım olarak gördükleri bu durumdan cesaret aldıklarını söylüyorlar. Izmailov, “Bir altıncı sınıf öğrencisi bir üniversite matematik öğrencisinden daha az matematik bilse bile, yine de başarmak istediklerini üniversite öğrencisine aktarabilir. Bizim burada başarmaya çalıştığımız şey de bu” diyor.

Superalignment grubu, OpenAI’nin kurucularından, baş bilim adamı ve geçen ay CEO Sam Altman’ın kovulması yönünde oy kullanıp geri adım atan ve göreve iade edilmediği takdirde istifa edeceği tehdidinde bulunan yönetim kurulu üyelerinden biri olan Ilya Sutskever tarafından yönetiliyor. Sutskever bugün yayınlanan makalenin ortak yazarlarından biri, ancak OpenAI projeyi tartışmak üzere kendisine ulaşmayı reddetti.

Altman’ın geçen ay yönetim kurulunun çoğunun istifa ettiği bir anlaşmayla OpenAI’ye geri dönmesinin ardından, Sutskever’in şirketteki geleceği belirsiz görünüyordu.

Aschenbrenner, “Ilya’ya çok minnettarız. Projede büyük bir motivasyon ve itici güç oldu” dedi.

OpenAI’nin araştırmacıları, yarının yapay zeka sistemlerini evcilleştirmeye yardımcı olabilecek teknikleri test etmek için bugünün yapay zeka teknolojisini kullanmaya çalışan ilk kişiler değil. Kurumsal ve akademik laboratuvarlardaki önceki çalışmalarda olduğu gibi, dikkatlice tasarlanmış bir deneyde işe yarayan fikirlerin gelecekte pratik olup olmayacağını bilmek imkansız. Araştırmacılar, daha zayıf bir YZ modelinin, mükemmelleştirmeye çalıştıkları daha güçlü bir modeli eğitmesini “daha geniş bir süper uyum sorunu için önemli bir yapı taşı” olarak tanımlıyorlar.

İLGİLİ YAZI :   YouTube yayıncıları artık yapay zekayla oluşturulan videoları etiketlemek zorunda kalacak

Sözde YZ hizalama deneyleri, herhangi bir kontrol sisteminin ne kadar güvenilir olabileceği konusunda da soru işaretleri yaratıyor. Yeni OpenAI tekniklerinin kalbi, daha güçlü YZ sisteminin, daha zayıf sistemden gelen hangi rehberliğin göz ardı edilebileceğine kendisi karar vermesine bağlı; bu, gelecekte güvensiz bir şekilde davranmasını önleyecek bilgileri ayarladığını görebilecek bir çağrıdır. Böyle bir sistemin faydalı olabilmesi için, hizalama konusunda garantiler sağlama konusunda ilerleme kaydedilmesi gerekecek. OpenAI ekibinin üçüncü üyesi Burns, “Nihayetinde çok yüksek derecede güvene ihtiyacınız olacak” diyor.

UC Berkeley’de YZ güvenliği üzerine çalışan bir profesör olan Stuart Russell, daha güçlü bir modeli kontrol etmek için daha az güçlü bir YZ modeli kullanma fikrinin bir süredir var olduğunu söylüyor. Ayrıca, şu anda YZ’ye davranmayı öğretmek için var olan yöntemlerin ileriye dönük bir yol olup olmadığının belirsiz olduğunu, çünkü şimdiye kadar mevcut modellerin güvenilir bir şekilde davranmasını sağlayamadıklarını söylüyor.

OpenAI daha gelişmiş yapay zekayı kontrol etmeye yönelik ilk adımı atmış olsa da, şirket dışarıdan yardım almaya da hevesli. Şirket bugün, etkili yatırımcı ve Google’ın eski CEO’su Eric Schmidt ile ortaklaşa, zayıftan güçlüye denetim, gelişmiş modellerin yorumlanabilirliği ve kısıtlamalarını kırmak için tasarlanan istemlere karşı modellerin güçlendirilmesi gibi konularda daha fazla ilerleme sağlayan dış araştırmacılara 10 milyon dolarlık hibe sunacağını duyurdu. Yeni makalede yer alan araştırmacılar, OpenAI’nin önümüzdeki yıl süper hizalama üzerine bir konferans düzenleyeceğini de belirtiyor.

OpenAI’nin kurucu ortağı ve Superalignment ekibinin eş lideri olan Sutskever, şirketin en önemli teknik çalışmalarının çoğuna liderlik etti ve daha güçlü hale geldikçe YZ’nin nasıl kontrol edileceği konusunda giderek daha fazla endişe duyan önde gelen YZ figürleri arasında yer alıyor. Gelecekteki YZ teknolojisinin nasıl kontrol edileceği sorusu, büyük ölçüde ChatGPT sayesinde bu yıl yeni bir dikkat çekti. Sutskever, doktorasını derin sinir ağlarının öncülerinden Geoffrey Hinton’un yanında yaptı ve bu yılın Mayıs ayında yapay zekanın bazı görevlerde insan seviyesine yaklaşma hızı konusunda uyarıda bulunmak üzere Google’dan ayrıldı.

İLGİLİ YAZI :   Adobe özel Firefly modellerini ve yeni istem özelliklerini duyurdu

Kaynak: Will Knight / Wired


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler