22.5 C
İstanbul

OpenAI ve Anthropic, ABD Yapay Zeka Güvenlik Enstitüsü’nün denetimini kabul etti

ABD Yapay Zeka Güvenliği Enstitüsü, OpenAI ve Anthropic ile test ve değerlendirme konusunda anlaşmaya vardığını duyurdu. Anlaşma, enstitüye “her şirketin yeni önemli modellerine, bunların kamuoyuna sunulmasından önce ve sonra erişim sağlama” olanağı sağlıyor.

Mutlaka Okumalısın

Yapay zeka alanında en değerli girişimlerden ikisi olan OpenAI ve Anthropic, sektörde yapay zeka konusunda artan güvenlik ve etik endişelerinin ardından, yeni modellerinin kamuoyuna duyurulmadan önce ABD Yapay Zeka Güvenlik Enstitüsü tarafından test edilmesine izin vermeyi kabul etti.

Ulusal Standartlar ve Teknoloji Enstitüsü’nün (NIST) Ticaret Bakanlığı bünyesinde yer alan enstitü, bir basın bülteninde, “her şirketin yeni önemli modellerine, kamuoyuna duyurulmadan önce ve sonra erişim sağlanacağını” söyledi.

Grup, Biden-Harris yönetiminin Ekim 2023′te ABD hükümetinin yapay zekaya ilişkin ilk yürütme kararını yayınlamasının ardından kuruldu. Bu karar, yeni güvenlik değerlendirmeleri, eşitlik ve medeni haklar rehberliği ve yapay zekanın iş gücü piyasasına etkisine ilişkin araştırma öngörüyordu.

OpenAI CEO’su Sam Altman, X’te paylaştığı bir gönderide “Gelecekteki modellerimizin ön sürüm testleri için ABD AI Güvenlik Enstitüsü ile bir anlaşmaya vardığımız için mutluyuz” dedi. 

Perşembe günkü duyuruya göre, hükümet, OpenAI ve Anthropic arasındaki anlaşmalar “yeteneklerin ve güvenlik risklerinin nasıl değerlendirileceği ve bu riskleri azaltma yöntemleri konusunda işbirlikçi araştırmalara olanak tanıyacak.″

OpenAI’nin baş strateji sorumlusu Jason Kwon, “ABD Yapay Zeka Güvenlik Enstitüsü’nün misyonunu güçlü bir şekilde destekliyoruz ve yapay zeka modelleri için en iyi güvenlik uygulamalarını ve standartlarını belirlemek üzere birlikte çalışmayı dört gözle bekliyoruz” dedi.

Anthropic’in kurucu ortağı Jack Clark da, şirketin “ABD Yapay Zeka Güvenlik Enstitüsü ile iş birliğinin, yaygın dağıtım öncesinde modellerimizi titizlikle test etmek için geniş uzmanlıklarından yararlandığını” ve “riskleri belirleme ve azaltma yeteneğimizi güçlendirerek sorumlu yapay zeka gelişimini ilerlettiğini” söyledi.

Birçok YZ geliştiricisi ve araştırmacısı, giderek daha fazla kâr amacı güden YZ sektöründe güvenlik ve etik konusunda endişelerini dile getirdi. Mevcut ve eski OpenAI çalışanları, 4 Haziran’da YZ’da gerçekleşen hızlı ilerlemelerle ilgili olası sorunları ve denetim ve ihbarcı korumalarının eksikliğini anlatan bir açık mektup yayınladı.

İLGİLİ YAZI :   Anthropic, yapay zeka chatbot'u Claude'un iOS uygulamasını piyasaya sürdü

Kaynak: CNBC


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler