31.4 C
İstanbul

Bakalım kimin dediği olacak?

Lafta kişisel verileri çok koruyoruz ama uygulamada hiç koruyamıyoruz. Büyük teknolojinin mi dediği olur, yoksa sesi az çıkan veri gizliliğini savunanların mı?

Mutlaka Okumalısın

Necmi Gürsakal
Necmi Gürsakalhttps://yapayzeka.news
Uludağ Üniversitesi (UÜ) İktisadi ve İdari Bilimler Fakültesi Ekonometri Anabilim Dalı'ndan emekli olan Prof. Dr. Necmi Gürsakal, halen Mudanya Üniversitesi Lisanüstü Eğitim Enstitüsü Müdürü olarak görev yapmaktadır. Prof. Dr. Necmi Gürsakal'ın yayınlanmış çok sayıda kitabı bulunmaktadır. Makine Öğrenmesi, Büyük Veri, Beynimdeki Çip, Yapay Zeka-Fareli Köyün Kavalcısı bu kitaplar arasında yer alıyor.

2023 yılının Nisan ayında Technology Review adlı yayında Melissa Heikkila adlı bir yazar, “Yapay Zeka için Cambridge-Analytica türü bir skandal geliyor” adlı bir  yazı yazdı. (Kaynak: Heikkila Melissa, A Cambridge Analytica-style scandal for AI is coming, MIT Technology Review, April 25, 2023)

Önce Cambridge Analytica skandalının ne olduğundan kısaca söz edelim. Cambridge Analytica, 2013 yılında kuruldu. Şirket kullandığı bir API sayesinde, insanların ilgi alanlarına ve beğenilerine göre sahip oldukları bağlantıları görebilmesini sağladı. Bu yolla şirket, 87 milyona kadar Facebook profilinden ham veri topladı ve bu veriler 2016 yılında Trump’ın seçim kampanyasında kullanıldı.

Kısaca skandal, veri gizliliğinin ve bildiğimiz demokrasinin yerle bir edildiği bir skandaldı.

Yazının ilk paragrafına bakacak olursak, orada şu sözler var:

“Bir otomobil şirketinin, yerleşik güvenlik özellikleri olmayan yeni bir aracı piyasaya sürdüğünü hayal edebiliyor musunuz? Pek olası değil, değil mi? Ancak yapay zeka şirketlerinin yaptığı şey, emniyet kemeri ya da tam çalışan frenleri olmayan yarış arabalarını piyasaya sürmeye ve her şeyi ilerledikçe anlamaya benziyor”.

Evet, yapay zeka şirketleri tam anlamıyla bunu yaptılar.

Yine yazarın bu yılın Nisan ayındaki öngörülerine göre, bu yaklaşım onların başını belaya sokacak ve Cambridge Analytica türünden bir skandal patlak verecekti.

Nisan ayından sonra sekiz ay geçti, böyle bir skandal oluştu mu? Yooook.

Oluşur mu? Hiç sanmıyoruz.

Çünkü İtalya ChatGPT’yi geçici olarak yasaklamıştı, hatta süre vermişti, ne oldu?

Hiçbir şey.

Amerika ile Avrupa arasında veri gizliliği konusunda fark olsa ve Avrupa bu konuda daha katı olsa da Avrupa’dan bile bu konuda ses yok.

Amerika’da Cambridge-Analytica skandalından sonra verilerin kullanımı zorlaştı mı? Yooook.

OpenAI 2015’de kuruldu, neredeyse skandal ile yaşıt.

İLGİLİ YAZI :   Anthropic ve Menlo Ventures, yapay zeka girişimleri için 100 milyon dolarlık fon başlattı

Lafta kişisel verileri çok koruyoruz ama uygulamada hiç koruyamıyoruz.

Bu söz dünyanın geneli için söz konusu.

Konu aynı yeşil dönüşüm hikayesi gibi. Durmadan yeşil dönüşümden söz edip,  diğer yandan dünyada fosil yakıtlara yatırım yapıp duruyoruz.

Söylenen başka, yapılan başka…

Onun için Cambridge-Analytica türü bir skandalı daha çoook bekleriz.

İsterseniz soruyu başka şekilde soralım:

Büyük teknolojinin mi dediği olur, yoksa sesi az çıkan veri gizliliğini savunanların mı?

Cevabı da artık ben vermeyeyim, siz verin.


Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.

- Sponsorlu -spot_img

Daha Fazla

CEVAP VER

Lütfen yorumunuzu giriniz!
Lütfen isminizi buraya giriniz

- Sponsorlu -spot_img

Son Haberler