22.5 C
İstanbul

Distopik senaryoları unutun; yapay zeka günümüzde her yere yayılmış durumda ve riskler genellikle gizli

Yapay zeka geliştirmelerine öncülük eden OpenAI son günlerde çokça konuşulurken bu alanda atılan adımların tahmin edilenden çok daha fazla riskler içerdiği ve gizlendiği yönünde kaygılar artıyor.

Mutlaka Okumalısın

ChatGPT üreticisi OpenAI’de, yönetim kurulunun 17 Kasım 2023’te yüksek profilli CEO Sam Altman’ı kovması ve sadece dört gün sonra yeniden işe almasıyla başlayan kargaşa, yapay zeka güvenliği ve yapay genel zekanın veya AGI’nin hızlı gelişimi konusundaki endişelere dikkat çekti. AGI (Artificial General Intelligence / Yapay Genel Zeka), bir dizi görevde insan düzeyinde zeka olarak genel bir şekilde tanımlanıyor.

OpenAI yönetim kurulu, Altman’ın görevine son verilmesinin açık sözlülükten yoksun olmasından kaynaklandığını belirtse de spekülasyonlar, Altman ile yönetim kurulu üyeleri arasında OpenAI’nin kayda değer büyümesinin (ChatGPT ve Dall-E gibi ürünler dünya çapında yüz milyonlarca kullanıcıya ulaştı) şirketin AGI’nin yarattığı felaket risklerine odaklanmasını engellediği yönündeki endişeler üzerine yoğunlaştı.

OpenAI’nin AGI geliştirme hedefi, yapay zekanın süper zeki yetenekler kazanması ve teknolojinin kötüye kullanılmasına veya kötü niyetli olmasına karşı korunma ihtiyacı fikriyle iç içe geçiyor. Ancak şimdilik AGI ve beraberinde getirdiği riskler spekülatif. Bu arada, YZ’nin göreve özgü biçimleri çok gerçekti, yaygınlaştı ve genellikle radarın altında uçuyor.

Bir bilgi sistemleri ve sorumlu YZ araştırmacısı olarak, bu günlük algoritmaların nasıl çalıştığını ve insanlara nasıl zarar verebileceklerini inceliyorum.

Yapay zeka her yere yayılıyor

Yapay zeka, telefonunuzun kilidini açan yüz tanımadan dijital asistanınıza güç veren konuşma tanımaya kadar birçok insanın günlük hayatında görünür bir rol oynuyor. Ayrıca, sosyal medya ve çevrimiçi alışveriş oturumlarınızı şekillendirmek, video izleme seçimlerinize rehberlik etmek ve bir sürüş paylaşım hizmetinde sizi bir sürücüyle eşleştirmek gibi belli belirsiz farkında olabileceğiniz roller de oynar.

Yapay zeka, hayatınızı tamamen gözünüzden kaçabilecek şekillerde de etkiler. Eğer bir işe başvuruyorsanız, birçok işveren işe alım sürecinde yapay zekayı kullanıyor. Patronlarınız, işten ayrılma ihtimali olan çalışanları belirlemek için kullanıyor olabilir. Bir kredi için başvuruyorsanız, bankanızın krediyi verip vermeyeceğine karar vermek için yapay zeka kullanıyor olması muhtemeldir. Tıbbi bir durum için tedavi görüyorsanız, sağlık hizmeti sağlayıcılarınız tıbbi görüntülerinizi değerlendirmek için bunu kullanabilir. Ve eğer ceza adalet sistemine takılmış birini tanıyorsanız, yapay zeka onun hayatının gidişatını belirlemede bir rol oynayabilir.

İLGİLİ YAZI :   YouTube Create Türkiye dahil 13 ülkede daha kullanıma sunuldu

Algoritmik zararlar

Radarın altında uçan yapay zeka sistemlerinin çoğu, zarar verebilecek önyargılara sahip. Örneğin, makine öğrenimi yöntemleri, eğitim verilerinden kalıpları genelleştirmek için bir dizi öncülle başlayan tümevarım mantığını kullanır. Makine öğrenimi tabanlı bir özgeçmiş tarama aracının kadınlara karşı önyargılı olduğu tespit edildi çünkü eğitim verileri, özgeçmişlerin çoğunun erkekler tarafından gönderildiği geçmiş uygulamaları yansıtıyordu.

Sağlık hizmetlerinden çocuk refahına kadar çeşitli alanlarda tahmine dayalı yöntemlerin kullanılması, toplumdaki farklı gruplar arasında eşit olmayan risk değerlendirmelerine yol açan kohort önyargısı gibi önyargılar sergileyebilir. Yasal uygulamalar ırk ve cinsiyet gibi niteliklere dayalı ayrımcılığı yasaklasa bile (örneğin tüketici kredilerinde) vekaleten ayrımcılık yine de meydana gelebilir. Bu durum, algoritmik karar verme modelleri ırk gibi yasal olarak korunan özellikleri kullanmadığında ve bunun yerine mahalle gibi yasal olarak korunan özellikle yüksek oranda ilişkili veya bağlantılı özellikleri kullandığında meydana gelir. Araştırmalar, risk açısından eşdeğer Siyah ve Latin borçluların, devlet destekli kuruluşların menkul kıymetleştirilmiş ve Federal Konut İdaresi sigortalı kredilerinde beyaz borçlulara göre önemli ölçüde daha yüksek faiz oranları ödediğini ortaya koymuştur.

Karar vericiler bir algoritmayı, algoritmanın tasarımcılarının amaçladığından farklı bir şekilde kullandıklarında başka bir yanlılık biçimi ortaya çıkar. İyi bilinen bir örnekte, bir sinir ağı astımı zatürreden ölüm riskinin daha düşük olmasıyla ilişkilendirmeyi öğrenmiştir. Bunun nedeni, pnömonili astımlılara geleneksel olarak, genel nüfusa kıyasla ölüm risklerini azaltan daha agresif bir tedavi verilmesidir. Ancak, böyle bir sinir ağından elde edilen sonuç hastane yatağı tahsisinde kullanılırsa, astımı olan ve pnömoni ile başvuranlar tehlikeli bir şekilde önceliksizleştirilecektir.

Algoritmalardan kaynaklanan önyargılar, karmaşık toplumsal geri bildirim döngülerinden de kaynaklanabilir. Örneğin, yeniden suç işlemeyi tahmin ederken, yetkililer hangi suçlardan hüküm giymiş kişilerin tekrar suç işleme olasılığının yüksek olduğunu tahmin etmeye çalışır. Ancak tahmin algoritmalarını eğitmek için kullanılan veriler aslında kimin yeniden tutuklanma olasılığının yüksek olduğu ile ilgilidir.

İLGİLİ YAZI :   Figure'ün insansı robotları BMW'de iş gücüne katılmak üzere

Burada ve şimdi yapay zeka güvenliği

Biden yönetiminin son icra emri ve Federal Ticaret Komisyonu gibi federal kurumların yaptırım çabaları, algoritmik zararları tanıma ve bunlara karşı koruma sağlamanın ilk adımlarıdır.

ChatGPT’ye güç veren GPT-3 gibi büyük dil modelleri ve GPT-4 gibi çok modlu büyük dil modelleri yapay genel zekaya giden yolda atılan adımlar olsa da, bunlar aynı zamanda insanların okulda, işte ve günlük hayatta giderek daha fazla kullandığı algoritmalardır. Büyük dil modellerinin yaygın kullanımından kaynaklanan önyargıları göz önünde bulundurmak önemlidir.

Örneğin, bu modeller cinsiyet, ırk veya dinle ilgili olumsuz stereotipleştirmeden kaynaklanan önyargıların yanı sıra azınlıkların ve engelli kişilerin temsilinde önyargılar sergileyebilir. Bu modeller baro sınavı gibi testlerde insanlardan daha iyi performans gösterdikçe, YZ ile güçlendirilmiş çalışmaların şeffaflık, doğruluk ve kaynak gösterme standartlarına uymasını ve paydaşların bu standartları uygulama yetkisine sahip olmasını sağlamak için daha fazla incelemeye ihtiyaç duyduklarına inanıyorum.

Nihayetinde, YZ’nin geniş ölçekli kullanımından kimin kazanıp kimin kaybedeceği, hileli süper zeka ile ilgili değil, algoritmik karar verme her yerde olduğunda kimin savunmasız olduğunu anlamakla ilgili olabilir.

Kaynak: Claudia Lorenzo Rubiera / The Conversation


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn,  Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler