17 C
İstanbul

Felaket riskine hazırlık

Birileri hala yapay zekanın insanlara zarar verip vermeyeceğini tartışıyor. Hala Yann LeCun gibi akıllılar, “Veri merkezinin elektriğini kesmek” gibi çözümlerden bahsediyor. Oysa iş bunun çok ötesine geçti, geçiyor.

Mutlaka Okumalısın

Necmi Gürsakal
Necmi Gürsakalhttps://yapayzeka.news
Uludağ Üniversitesi (UÜ) İktisadi ve İdari Bilimler Fakültesi Ekonometri Anabilim Dalı'ndan emekli olan Prof. Dr. Necmi Gürsakal, halen Mudanya Üniversitesi Lisanüstü Eğitim Enstitüsü Müdürü olarak görev yapmaktadır. Prof. Dr. Necmi Gürsakal'ın yayınlanmış çok sayıda kitabı bulunmaktadır. Makine Öğrenmesi, Büyük Veri, Beynimdeki Çip, Yapay Zeka-Fareli Köyün Kavalcısı bu kitaplar arasında yer alıyor.

Birileri hala yapay zekanın insanlara zarar verip vermeyeceğini tartışıyor. Hala Yann LeCun gibi akıllılar, “Veri merkezinin elektriğini kesmek” gibi çözümlerden bahsediyor. Oysa iş bunun çok ötesine geçti, geçiyor. Ayrıca burada zarardan kastedilen insanların işlerini elinden almak değil, bu modeller onu zaten yapacak.

Oysa Aralık ayı ortasında, OpenAI tarafından yayımlanan bir belgede, başka araştırmacıların ise felaket riski için hazırlık çerçevesi oluşturma hazırlığı içine girdiklerini görüyoruz. Belge şu:

“Sistemlerimiz insan düzeyinde zekaya (AGI) yaklaştıkça, özellikle felaket riski bağlamında modellerimizin geliştirilmesi konusunda daha da dikkatli oluyoruz. Bu Hazırlık Çerçevesi, uygulamada güvenli geliştirme ve dağıtımın en iyi şekilde nasıl gerçekleştirileceğine dair en son öğrendiklerimizi damıtan yaşayan bir belgedir. Hazırlık Çerçevesinin her bir versiyonunda ortaya konan süreçler, felaket riskinin bilimsel ve ampirik dokusuna ilişkin anlayışımızı hızla geliştirmemize ve güvensiz gelişmeye karşı korunmak için gereken süreçleri oluşturmamıza yardımcı olacaktır”.

Bu belgede iki defa “felaket riski” deyiminin geçtiğine dikkat edelim. Yapay zeka modeli üreten firmalarda kimse insanın işsiz kalmasına “felaket riski” demez. Burada sözü edilen yapay zekanın insana karşı haydutluğa girişmesi riski. İşsizlik filan bu konular için çerez.

İyi de bu felaket risklerine karşı ne yapacaklarmış?

Riskleri tahmin edeceklermiş ve risk kategorileri boyunca değerlendirme paketleri ve diğer izleme çözümlerini oluşturacak ve sürekli olarak geliştirecek ve bir puan kartında mevcut azaltma öncesi ve azaltma sonrası risk seviyelerini göstereceklermiş.

İyi de de sorun ne, sıkıntı ne, dert ne?

Onu da yine bu süperhizalama ekibinden bir araştırmacı şöyle açıklıyor, “Son birkaç yılda yapay zeka ilerlemesi olağanüstü hızlı oldu. Tüm ölçütleri ezip geçiyoruz ve bu ilerleme hız kesmeden devam ediyor. Ama iş bununla da kalmayacak. İnsanüstü modellere, bizden çok daha zeki modellere sahip olacağız. Bu da yeni teknik zorlukları beraberinde getirecek.”

İLGİLİ YAZI :   Zero123: Stability AI, tek bir görüntüden metinden 3D'ye geçiş için yeni bir model yayınladı

Temmuz ayında Sutskever ve diğer OpenAI bilim insanı Jan Leike, bu zorlukların üstesinden gelmek için süperhizalama ekibini kurmuş ve Sutskever Eylül ayında MIT Technology Review’a verdiği demeçte, “Herhangi birinin inşa ettiği herhangi bir süper zekanın haydutluk yapmaması kesinlikle önemli” demişti.

İşsiz bırakma filan değil haydutluk…

OpenAI bu sorunu bugün nasıl çözmeye çalışıyor? Bunu “insan geri bildirimi yoluyla takviyeli öğrenme” (RLHF)  yoluyla yapıyor. Özetle, insan test uzmanları, etik konulardaki test sorularına bir modelin verdiği yanıtları puanlıyor. Görmek istedikleri davranışlara yüksek ve istemedikleri davranışlara ise düşük puanlar veriyorlar. Bu geri bildirim daha sonra, modeli yalnızca insan testçilerin beğendiği türde yanıtlar üretecek şekilde eğitmek için kullanılıyor.

İyi de şimdilik model insanüstü zekaya sahip değil, yarın öbür gün bu modeller insandan daha zeki olduğunda test uzmanının anlayamayacağı ve dolayısıyla puanlayamayacağı işler yapamaz mı?

Sizden az bilen bir modeli kolay hizalarsınız da, sizden çok bileni nasıl hizalayacaksınız?

Bu işlerle uğraşan OpenAI araştırmacıları bakın ne yapmışlar. Beş yıl önce piyasaya sürdükleri bir model olan GPT-2’nin, OpenAI’nin en yeni ve en güçlü modeli olan GPT-4’ü nasıl denetleyebileceğine bakmışlar. Aslında bu biraz da, orta son öğrencisinin verdiği yanıtlar ile lise son öğrencisini eğitmek gibi bir şey. Amaç ne? Bunu yapabilirlerse, insanların insanüstü modelleri denetlemesini sağlamak için benzer teknikler kullanabileceklerine dair kanıt bulmuş olacaklar.

Denemenin sonuçları umut verici olmuş ama yine de ortada sorun çok. Kısaca, felaket riski için hazırlıklar sürüyor.

KAYNAKLAR

OpenAI Preparedness Framework (Beta), December 18, 2023.
Heaven Douglas Wll, Now we know that OpenAI’s superalignment team has been up to, MIT Technology Review, December 14, 2023

İLGİLİ YAZI :   Sam Altman kendi yapay zeka çipiyle Nvidia'ya rakip olmak istiyor

Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler