22.9 C
İstanbul

OpenAI CEO’su Sam Altman, otoriter bir yapay zeka geleceği konusunda uyardı

OpenAI CEO'su Sam Altman, Washington Post'taki köşe yazısında otoriter bir yapay zeka geleceği konusunda uyardı ve demokratik bir yapay zeka vizyonu için ABD liderliğinde küresel bir koalisyon çağrısında bulundu.

Mutlaka Okumalısın

OpenAI CEO’su Sam Altman, Amerika Birleşik Devletleri’ni yapay zekanın (YZ) geleceğini demokratik çizgilerde şekillendirmek için küresel bir ittifaka liderlik etmeye çağırdı. Washington Post’taki bir köşe yazısında Altman, otoriter YZ geliştirme riskine karşı koyma vizyonunu özetledi.

Altman, YZ’nın geleceği için iki olası yol görüyor: ABD ve müttefikleri tarafından yönetilen bir yol veya ülkelerin YZ’yı güçlerini pekiştirmek için kullandığı otoriter bir versiyon. ABD’nin şu anda YZ geliştirmede lider olmasına rağmen, bu avantajın garanti olmadığı konusunda uyardı.

Altman, “Dünya genelindeki otoriter hükümetler bizi yakalamak ve sonunda geçmek için muazzam miktarda para harcamaya istekliler” diye yazdı ve Rusya Devlet Başkanı Vladimir Putin’in (“Bu alanda lider olan, dünyanın hükümdarı olur”) sözlerini ve Çin’in 2030 yılına kadar yapay zekada dünyaya liderlik etme hedefini örnek olarak gösterdi.

Altman, “Yapay zeka konusunda liderliği ele geçirmeyi başarırlarsa, ABD’li şirketleri ve diğer ulusların şirketlerini kullanıcı verilerini paylaşmaya zorlayacaklar ve bu teknolojiyi kendi vatandaşlarını gözetlemek için yeni yollar geliştirmek veya diğer ülkelere karşı kullanmak üzere yeni nesil siber silahlar üretmek için kullanacaklar” uyarısında bulunuyor.

İlginçtir ki, Altman açık kaynaklı modelleri ittifakları güçlendirmek için politik bir araç olarak görüyor. “Yapay zekada kimin liderlik edeceğine dair meydan okuma sadece teknolojiyi ihraç etmekle ilgili değil, teknolojinin desteklediği değerleri ihraç etmekle ilgili,” diyor.

Yapay zeka modelleri, değerlerini ve yönelimlerini etkileyen eğitim verileri tarafından şekillendirilir. Çalışmalar, OpenAI’nin ChatGPT’sinin politik olarak sol eğilimli olduğunu göstermiştir. Bu önyargı, teknolojiyle birlikte potansiyel olarak dışarı aktarılabilir.

Altman, “Yapay zeka için demokratik vizyonun hakim olmasını sağlamak için” dört temel adım öneriyor.

1. Güvenliği artırın: ABD firmalarının daha güçlü siber savunmalar ve veri koruması geliştirmeleri gerekiyor . Altman, “ABD hükümeti ve özel sektör, bu güvenlik önlemlerini olabildiğince çabuk geliştirmek için birlikte çalışabilir” diyor.

İLGİLİ YAZI :   Midjourney'den yeni web editörü

2. Altyapıyı genişletin: Daha fazla veri merkezi ve enerji santrali inşa edin. Kamu-özel sektör ortaklıkları “AI’ya erişimi genişletebilir ve toplumsal faydalarını daha iyi dağıtabilir” diyor Altman ve gelecek nesil AI yeteneklerine desteği vurguluyor.

3. AI ticaret kurallarını belirleyin: İhracat kontrolleri ve yabancı yatırım konusunda net yönergeler oluşturun. Altman, hassas çiplerin, AI eğitim verilerinin ve kodun ABD içinde tutulmasını önerdi.

4. Küresel AI standartlarını belirleyin: Güvenliğe odaklanın ve Küresel Güney’i dahil edin. Altman, Uluslararası Atom Enerjisi Ajansı ve ICANN’i potansiyel modeller olarak gösterdi.

Altman, “demokratik yapay zekanın otoriter yapay zekaya göre üstünlüğünün nedeninin, siyasi sistemimizin ABD şirketlerine, girişimcilere ve akademisyenlere araştırma, yenilik yapma ve inşa etme yetkisi vermesi” olduğunu savunuyor. Üst düzey ülkeleri ve teknoloji uzmanlarını, yapay zeka gelişimine demokratik bir yaklaşımı desteklemek için hemen harekete geçmeye çağırıyor.

Altman’ın AI’nın otoriter kontrolüne ilişkin endişeleri makul olsa da, önerileri özellikle ABD teknoloji şirketlerini ve OpenAI’yi destekliyor gibi görünüyor. Yüksek teknoloji endüstrilerini koruma, ABD savunma müteahhitleriyle kazançlı anlaşmalar yapma ve hükümetle maliyet paylaşımı çağrıları, şirketinin kârını artırmak için bir dilek listesi gibi okunuyor.


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler