31.4 C
İstanbul

200 yapay zeka araştırmacısı OpenAI, Google ve Meta’yı güvenlik kontrollerine izin vermeye çağırdı

Yapay zeka (YZ) alanında dünyanın önde gelen araştırmacılarından 200'den fazlası, OpenAI, Meta ve Google gibi yapay zekanın büyük oyuncularına, dış uzmanların yapay zeka modellerinin ve sistemlerinin güvenliğini bağımsız olarak değerlendirmesine ve test etmesine izin verme çağrısında bulunan açık bir mektup imzaladı.

Mutlaka Okumalısın

Yapay zeka (YZ) alanında dünyanın önde gelen araştırmacılarından 200’den fazlası, OpenAI, Meta ve Google gibi yapay zekanın büyük oyuncularına, dış uzmanların yapay zeka modellerinin ve sistemlerinin güvenliğini bağımsız olarak değerlendirmesine ve test etmesine izin verme çağrısında bulunan açık bir mektup imzaladı.

Mektup, teknoloji firmaları tarafından yapay zeka araçlarının kötüye kullanılmasını veya kötüye kullanılmasını önlemek için uygulamaya konan katı kuralların, bu sistemleri potansiyel riskler ve güvenlik açıkları açısından denetlemeyi amaçlayan kritik bağımsız araştırmaları engellemek gibi istenmeyen sonuçlara yol açtığını savunuyor.

Tanınmış imzacılar arasında Stanford Üniversitesi’nden Percy Liang, Pulitzer ödüllü gazeteci Julia Angwin, Stanford İnternet Gözlemevi’nden Renée DiResta, yapay zeka etik araştırmacısı Deb Raji ve eski hükümet danışmanı Suresh Venkatasubramanian yer alıyor.

Yapay zeka araştırmacıları neyle ilgileniyor?

Araştırmacılar, belirli test türlerini yasaklayan ve telif hakkı ihlallerini, yanıltıcı içerik üretilmesini veya diğer suiistimalleri yasaklayan AI şirket politikalarının aşırı geniş bir şekilde uygulandığını söylüyor. Bu durum, denetçilerin, açık bir onay olmadan yapay zeka modellerine stres testi yapmak için sınırları zorlamaları durumunda hesaplarının yasaklanmasından veya yasal sonuçlarla karşı karşıya kalmasından korktukları bir “ürpertici etki” yarattı.

Mektupta, “Üretken yapay zeka şirketleri, çoğu kendilerini sorumlu tutmayı amaçlayan araştırma türlerini etkili bir şekilde yasaklayan sosyal medya platformlarının hatalarını tekrarlamaktan kaçınmalı” ifadesine yer veriliyor.

Mektup, OpenAI gibi yapay zeka firmalarının New York Times’ın ChatGPT’deki telif hakkı sorunlarını araştırma çabalarının “hackleme” anlamına geldiğini iddia etmesiyle artan gerilimlerin ortasında geliyor. Meta, en son dil modelinin fikri mülkiyet haklarını ihlal etmek için kullanılması durumunda iptal tehdidinde bulunan şartları güncelledi.

Araştırmacılar, şirketlerin sosyal medyada “yakaladım” anlarına başvurmak zorunda kalmak yerine, sorumlu denetime izin veren bir “güvenli liman” sağlamanın yanı sıra, test sırasında bulunan potansiyel güvenlik açıklarını sorumlu bir şekilde raporlamak için doğrudan kanalları sağlaması gerektiğini savunuyor.

İLGİLİ YAZI :   Meta, Aria gözlükleri veri setini yayınladı

Yapay Zeka Risk ve Güvenlik Açığı İttifakından Borhane Blili-Hamelin, “Kötü bir gözetim ekosistemimiz var. Elbette insanlar sorunları buluyor. Ancak etki yaratacak tek kanal, şirketi pantolonunun altında yakaladığınız bu ‘yakaladım’ anlarıdır” dedi.

Mektup ve beraberindeki politika teklifi, dış araştırmacıların milyonlarca tüketiciyi etkileyen yapay zeka sistemlerinin güvenliğini ve potansiyel risklerini değerlendirmeleri için daha işbirlikçi bir ortam geliştirmeyi amaçlıyor.


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler