22.5 C
İstanbul

OpenAI, insanların yeni ChatGPT ses moduna duygusal olarak bağımlı hale gelebileceğinden endişe ediyor

OpenAI, insanların arkadaşlık için ChatGPT'ye çok fazla güvenmeye başlayabileceğinden ve yeni insan sesine benzeyen ses modu nedeniyle "bağımlılığa" yol açabileceğinden endişe ediyor.

Mutlaka Okumalısın

OpenAI, insanların arkadaşlık için ChatGPT’ye çok fazla güvenmeye başlayabileceğinden ve yeni insan sesine benzeyen ses modu nedeniyle “bağımlılığa” yol açabileceğinden endişe ediyor.

Bu açıklama, OpenAI’nin geçen hafta ücretli kullanıcılara sunulmaya başlanan aracın ve üzerinde çalıştığı büyük dil yapay zeka (YZ) modelinin güvenlik incelemesine ilişkin perşembe günü yayınladığı raporda yer aldı.

ChatGPT’nin gelişmiş ses modu oldukça gerçekçi geliyor. Gerçek zamanlı olarak yanıt veriyor, kesintiye uğramaya uyum sağlayabiliyor, insanların konuşmalar sırasında çıkardığı gülme veya “hmm” gibi sesleri çıkarıyor. Ayrıca bir konuşmacının duygusal durumunu ses tonuna göre değerlendirebiliyor.

OpenAI’nin bu yılın başlarında düzenlediği bir etkinlikte bu özelliği duyurmasından birkaç dakika sonra, bu özellik, 2013 yapımı “Her” filmindeki yapay zeka dijital asistanıyla karşılaştırılmaya başlandı. Filmin başrol oyuncusu, bu yapay zekaya aşık oluyor, ancak yapay zekanın “onun” yüzlerce başka kullanıcıyla da ilişkisi olduğunu itiraf etmesiyle kalbi kırılıyor.

Şimdi ise OpenAI, kullanıcıların araçla “paylaşılan bağları ifade eden” bir dilde ChatGPT’nin ses moduyla konuştuğunu gözlemledikten sonra, kurgusal hikayenin gerçeğe biraz fazla yakın olduğu konusunda endişeli görünüyor.

Sonuç olarak, “kullanıcılar yapay zeka ile sosyal ilişkiler kurabilir ve bu da insan etkileşimine olan ihtiyaçlarını azaltabilir; bu da yalnız bireylere fayda sağlayabilir ancak sağlıklı ilişkileri etkileyebilir” diyor rapor. İnsan gibi ses çıkaran bir bottan bilgi duymanın, yapay zekanın işleri yanlış yapma eğilimi göz önüne alındığında, kullanıcıların araca olması gerekenden daha fazla güvenmesine yol açabileceğini de ekliyor.

Rapor, yapay zekayı çevreleyen genel bir riskin altını çiziyor: Teknoloji şirketleri, yaşama, çalışma, sosyalleşme ve bilgi bulma biçimimizi altüst edebileceğini söyledikleri YZ araçlarını hızla halka sunmak için yarışıyor. Ancak bunu, bu etkilerin ne olduğunu gerçekten kimse anlamadan yapıyorlar. Birçok teknoloji ilerlemesinde olduğu gibi, şirketler genellikle araçlarının nasıl kullanılabileceği ve kullanılması gerektiği konusunda tek bir fikre sahip oluyor, ancak kullanıcılar genellikle beklenmeyen sonuçlarla birlikte bir dizi başka potansiyel uygulama buluyor.

İLGİLİ YAZI :   Google'dan gerçekçi yapay zekalı metinden video oluşturucu: Lumiere

Bazı kişiler yapay zekalı sohbet robotlarıyla romantik ilişki kurmaya başladı bile; bu durum ilişki uzmanlarını endişelendiriyor.

Arizona Eyalet Üniversitesi’nde teknoloji ve insan iletişimi üzerine çalışmalar yapan bir profesör olan Liesel Sharabi, Haziran ayında CNN’e verdiği bir röportajda, “Şirketlerin bunu etik ve sorumlu bir şekilde yönetmesi çok fazla sorumluluk gerektiriyor ve şu anda her şey bir deneme aşamasında. Uzun vadede var olmayabilecek ve sürekli gelişen bir teknolojiyle gerçekten derin bağlantılar kuran insanlar konusunda endişeleniyorum” dedi.

OpenAI, insan kullanıcıların ChatGPT’nin ses moduyla etkileşimlerinin, zamanla sosyal etkileşimlerde neyin normal kabul edildiğini etkileyebileceğini söyledi.

Şirket raporunda, “Modellerimiz saygılı olup kullanıcıların istedikleri zaman söz kesip ‘mikrofonu alabilmelerine’ olanak tanıyor. Bu, bir yapay zeka için beklenen bir durum olsa da insan etkileşimlerinde normlara aykırı bir davranış olur” ifadelerine yer verildi.

OpenAI, şimdilik yapay zekayı “güvenli” bir şekilde inşa etmeye kararlı olduğunu ve kullanıcıların araçlarına “duygusal bağımlılık” potansiyelini incelemeye devam etmeyi planladığını söylüyor.

Kaynak: CNN.com


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, X (Twitter), Bluesky, LinkedIn, Instagram ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler