15.8 C
İstanbul

OpenAI’ın bir başka baş güvenlik araştırmacısı Lilian Weng de ayrıldı

OpenAI'nin önde gelen güvenlik araştırmacılarından biri olan Lilian Weng, şirketten ayrıldığını duyurdu. Weng, Ağustos ayından bu yana araştırma ve güvenlikten sorumlu başkan yardımcısı olarak görev yapıyordu ve ondan önce OpenAI'nin güvenlik sistemleri ekibinin başındaydı.

Mutlaka Okumalısın

OpenAI’nin önde gelen güvenlik araştırmacılarından biri olan Lilian Weng, Cuma günü girişimden ayrıldığını duyurdu. Weng, Ağustos ayından bu yana araştırma ve güvenlikten sorumlu başkan yardımcısı olarak görev yaptı ve ondan önce OpenAI’nin güvenlik sistemleri ekibinin başındaydı.

Weng, X’te paylaştığı gönderide “OpenAI’da geçirdiğim 7 yılın ardından kendimi sıfırlamaya ve yeni bir şeyler keşfetmeye hazır hissediyorum” dedi. Weng, son gününün 15 Kasım olacağını söyledi ancak bundan sonra nereye gideceğini belirtmedi.

Weng gönderide, “OpenAI’dan ayrılmak konusunda son derece zor bir karar aldım. Başardıklarımıza bakınca, Safety Systems ekibindeki herkesle gurur duyuyorum ve ekibin gelişmeye devam edeceğine dair son derece yüksek bir güvenim var” dedi.

Weng’in ayrılışı, geçen yıl şirketten ayrılan AI güvenlik araştırmacıları, politika araştırmacıları ve diğer yöneticilerden oluşan uzun bir dizinin sonuncusu ve birçoğu OpenAI’yi AI güvenliğinden çok ticari ürünlere öncelik vermekle suçladı. Weng, OpenAI’nin artık feshedilmiş olan ve süper zeki AI sistemlerini yönlendirmek için yöntemler geliştirmeye çalışan Superalignment ekibinin liderleri olan Ilya Sutskever ve Jan Leike’ye katılıyor . Bu kişiler de bu yıl AI güvenliği üzerinde başka bir yerde çalışmak için girişimden ayrıldı.

LinkedIn’deki gönderisine göre Weng, 2018 yılında OpenAI’ye katıldı ve girişimin robotik ekibinde çalıştı. Gönderisine göre, bu ekip Rubik küpünü çözebilen bir robot eli inşa etti ve bu görevi tamamlaması iki yıl sürdü.

OpenAI GPT paradigmasına daha fazla odaklanmaya başladıkça Weng de aynısını yaptı. Araştırmacı, 2021’de girişimin uygulamalı AI araştırma ekibini kurmaya yardımcı olmak için geçiş yaptı. GPT-4’ün lansmanının ardından Weng, 2023’te girişim için güvenlik sistemleri inşa edecek özel bir ekip oluşturmakla görevlendirildi. Weng’in gönderisine göre, bugün OpenAI’nin güvenlik sistemleri biriminde 80’den fazla bilim insanı, araştırmacı ve politika uzmanı bulunuyor.

İLGİLİ YAZI :   Stability AI, modellerinin ticari kullanımı için ücretli üyeliği duyurdu

Bu, çok sayıda AI güvenliği uzmanı anlamına geliyor ancak birçoğu, giderek daha güçlü AI sistemleri inşa etmeye çalışırken OpenAI’nin güvenliğe odaklanması konusunda endişelerini dile getirdi. Uzun süredir politika araştırmacısı olan Miles Brundage, Ekim ayında girişimden ayrıldı ve OpenAI’nin danışmanlık yaptığı AGI hazırlık ekibini dağıttığını duyurdu. Aynı gün, New York Times, OpenAI’den ayrıldığını çünkü girişimin teknolojisinin topluma faydadan çok zarar getireceğini düşündüğünü söyleyen eski bir OpenAI araştırmacısı olan Suchir Balaji’nin profilini çıkardı.


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler