12.9 C
İstanbul

Nvidia CEO’su Jensen Huang: Yapay genel zekadan 5 yıl uzaktayız

Nvidia'dan Jensen Huang, AI halüsinasyonlarının çözülebilir olduğunu, yapay genel zekanın 5 yıl uzakta olduğunu söyledi.

Mutlaka Okumalısın

Genellikle “güçlü yapay zeka”, “tam yapay zeka”, “insan düzeyinde yapay zeka” veya “genel akıllı eylem” olarak anılan Yapay Genel Zeka (AGI – Artificial General Intelligence), yapay zeka alanında geleceğe yönelik önemli bir sıçramayı temsil eder. 

Ürün kusurlarını tespit etmek, haberleri özetlemek veya size bir web sitesi oluşturmak gibi belirli görevler için özel olarak tasarlanmış dar yapay zekanın aksine, AGI, insan seviyelerinin üzerinde veya üzerinde geniş bir yelpazedeki bilişsel görevleri gerçekleştirebilecektir. 

Bu hafta Nvidia’nın yıllık GTC geliştirici konferansında basına seslenen CEO Jensen Huang, konuyu tartışmaktan gerçekten sıkılmış gibi göründüğünü söylüyor; özellikle de kendisinin çok fazla yanlış alıntılandığını fark etmesinden dolayı.

Sorunun sıklığı mantıklı: Konsept, makinelerin neredeyse her alanda insanlardan daha iyi düşünebileceği, daha iyi öğrenebileceği ve daha iyi performans gösterebileceği bir gelecekte insanlığın rolü ve kontrolü hakkında varoluşsal soruları gündeme getiriyor. Bu kaygının özünde, AGI’nin karar verme süreçlerinin ve hedeflerinin tahmin edilemezliği yatıyor; bu, insani değerler veya önceliklerle (en azından 1940’lardan bu yana bilim kurguda derinlemesine araştırılan bir kavram) uyumlu olmayabilir. YGZ belirli bir özerklik ve yetenek düzeyine ulaştığında, kontrol altına alınmasının veya kontrol edilmesinin imkansız hale gelebileceği ve bu durumun, eylemlerinin tahmin edilemeyeceği veya tersine çevrilemeyeceği senaryolara yol açabileceği yönünde endişeler var.

Sansasyonel basın bir zaman dilimi istediğinde, genellikle yapay zeka profesyonellerini insanlığın sonunun ya da en azından mevcut statükonun sonunun geldiğine dair bir zaman çizelgesi koymaya teşvik ediyor. Yapay Zeka CEO’larının bu konuyu ele almaya her zaman istekli olmadığını söylemeye gerek yok.

Ancak Huang, konu hakkında ne düşündüğünü basına anlatmak için biraz zaman harcadı. Huang, başarılı bir YGZ’yi ne zaman göreceğimizi tahmin etmenin YGZ’yi nasıl tanımladığınıza bağlı olduğunu savunuyor ve birkaç paralellik kuruyor: Saat dilimlerinin karmaşıklığına rağmen, yeni yılın ne zaman olacağını ve 2025’in geleceğini bilirsiniz. Eğer arabanızla San Jose Kongre Merkezi’ne (bu yılki GTC konferansının düzenlendiği yer) gidiyorsanız, devasa GTC pankartlarını görebildiğiniz zaman geldiğinizi genellikle anlarsınız. Önemli olan, gitmeyi umduğunuz yere, ister zamansal ister coğrafi olarak, ulaştığınızı nasıl ölçeceğimiz konusunda anlaşabilmemizdir.

İLGİLİ YAZI :   AB ülkeleri dünyada bir ilk olan yapay zeka yasasını onayladı

Huang, “AGI’yi çok spesifik bir şey olarak, bir yazılım programının çok iyi performans gösterebileceği veya çoğu insandan %8 daha iyi performans gösterebileceği bir dizi test olarak belirlersek, oraya 5 yıl içinde ulaşacağımıza inanıyorum” diye açıklıyor. Testlerin yasal baro sınavı, mantık testleri, ekonomik testler veya belki de tıp öncesi sınavını geçme yeteneği olabileceğini öne sürüyor. Soruyu soran kişi, AGI’nin soru bağlamında ne anlama geldiği konusunda çok spesifik olmadığı sürece bir tahminde bulunmaya istekli değil. Haklısın.

AI halüsinasyonu çözülebilir

Salı günkü Soru-Cevap oturumunda Huang’a yapay zeka halüsinasyonları (bazı yapay zekaların makul görünen ama gerçeğe dayanmayan cevaplar uydurma eğilimi) konusunda ne yapması gerektiği soruldu. Soru karşısında gözle görülür şekilde hayal kırıklığına uğramış görünüyordu ve cevapların iyi araştırıldığından emin olarak halüsinasyonların kolayca çözülebileceğini öne sürdü.

Huang, “Bir kural ekleyin: Her bir cevap için cevaba bakmalısınız” diyor ve bu uygulamaya “geri getirmeyle artırılmış nesil” olarak atıfta bulunarak, temel medya okuryazarlığına çok benzer bir yaklaşımı tanımlıyor: Kaynağı ve bağlamı inceleyin. Kaynakta yer alan gerçekleri bilinen gerçeklerle karşılaştırın ve yanıt kısmen de olsa gerçeklere dayalı olarak yanlışsa, kaynağın tamamını atın ve bir sonrakine geçin. Huang, “Yapay zeka sadece yanıt vermemeli; Cevaplardan hangisinin en iyi olduğunu belirlemek için önce araştırma yapmalı” dedi.

Sağlık tavsiyesi veya benzeri gibi kritik yanıtlar için Nvidia’nın CEO’su, belki de birden fazla kaynağı ve bilinen gerçek kaynaklarını kontrol etmenin ileriye giden yol olabileceğini öne sürüyor. Elbette bu, bir yanıt oluşturan oluşturucunun, “Sorunuzun cevabını bilmiyorum” veya “Soruya doğru cevabın ne olduğu konusunda fikir birliğine varamıyorum” deme seçeneğine sahip olması gerektiği anlamına gelir. Bu soru şu veya şöyle bir şey: “Hey, Super Bowl henüz gerçekleşmedi, dolayısıyla kimin kazandığını bilmiyorum.”

İLGİLİ YAZI :   YÖK, yapay zeka alanında yeni bölümler açacak

Kaynak: Haje Jan Kamps / TechCrunch


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler