Telegraph, “arka ofis” görevleri için teknolojiye “izin verici” bir yaklaşıma sahip olmayı umduğunu söyleyerek, personele üretken yapay zeka kullanımına ilişkin resmi politikasını yayınladı.
Ancak gazete, üst düzey Telegraph editörlerinin ve hukuk departmanının onayını gerektiren sınırlı durumlar dışında, personelin yapay zeka tarafından oluşturulan metni haber metinlerine dahil etmesini yasakladı.
Yönergeler, Telegraph Medya Grubu’nda yapay zekanın editoryal amaçlarla kullanılmasının yasal ve editoryal risklerine ilişkin önemli endişeleri ortaya koyuyor; sohbet robotlarına girilen hassas bilgilerin başka bir yerde ortaya çıkabileceği korkusu da dahil.
The Guardian, Financial Times, BBC, Associated Press ve Reuters dahil olmak üzere diğer büyük Birleşik Krallık ve ABD yayıncıları, jeneratif yapay zeka kullanımına ilişkin kılavuzlarını ve ilkelerini daha önce yayınlamış olup, bunların bir listesine buradan ulaşabilirsiniz.
Telegraph personelini uyardı
Yapay zeka tarafından üretilen metinler gelecekte telif hakkı taleplerine konu olabili.
Telegraph’ın genel yayın yönetmenleri Salı sabahı personele politikayı göndererek, kılavuz ilkelerin “geniş ve çok üst düzey olması amaçlandığını” ve “gelecekte çeşitli iş kullanım durumları için özel rehberlik” sunacağını söyledi.
Yapay zekanın işletme için “giderek daha değerli bir araç” olacağını söyleyen editörler, gazetecilerini de “okuyucularımızla olan ilişkimizde temel bir zorluk teşkil ettiği” konusunda uyardı:
“Okuyucuların içeriğimize olan güveni ve yatırımı, atıfta bulunma sorumluluğu gerektiriyor: herhangi bir Telgraf platformunda tükettikleri şeyi kimin yarattığından emin olmalılar.”
OpenAI gibi üretici yapay zeka şirketleri, sohbet robotlarına güç veren büyük dil modellerini (LLM) eğitmek için hangi verileri kullandıklarını açıklamadılar. Bu nedenle Telegraph editörleri, “motorlar birden fazla kaynaktan alınan içeriğe dayandığı için intihal tehlikesi var… Gelecekte bu içerik telif hakkı taleplerine konu olabilir” denildi.
Sonuç olarak, kısmen de olsa ChatGPT tarafından üretilen kopyaları dosyalayan Telegraph gazetecileri “intihal için uygulanan yaptırımların aynısına tabi olacaklardır”.
Editörler, Telegraph’ın yapay zeka tarafından üretilen metinleri yayınlayacağı tek durumun “yapay zeka ile ilgili bir yazıyı açıklamak için yapay zeka tarafından üretilen içeriğin kullanılması” olacağını söyledi.
Ancak bu tür durumlarda editör Chris Evans, bir genel yayın yönetmeni ya da bir editör yardımcısı tarafından imzalanması ve editoryal hukuk başkanı Rachel Welsh’in de bilgilendirilmesi gerekiyor.
Yapay zeka tarafından üretilen ve yayınlanan her türlü metin “okuyucuya açıkça belirtilmeli” ve personel The Telegraph’ın içeriği kullanma haklarına sahip olduğundan emin olmalıdır: “Bu durum yasal editörlük tarafından kontrol edilmeli ve onaylanmalıdır.”
Yapay zeka tarafından üretilen görseller – bir ajans tarafından oluşturulup The Telegraph’a tedarik edilenler de dahil olmak üzere – aynı kurallara tabidir.
Üretken YZ’nin yaygın olarak bilinen “halüsinasyon görme” veya yanlış bilgileri doğruymuş gibi kendinden emin bir şekilde ifade etme eğilimi nedeniyle, Telegraph gazetecileri “başlangıç noktası olarak bir GenAI ile toplanan veya oluşturulan herhangi bir bilginin yanlış olduğunu varsaymalıdır…
“Döngüdeki insan sizsiniz ve GenAI çıktı(lar)ına dayalı olarak ürettiğiniz her şey sizin sorumluluğunuzdadır ve hem yasalar hem de şirket düzenlemeleri açısından bundan siz sorumlusunuz.”
Telegraph editörleri: lütfen IP’mizi ChatGPT’ye koymayın Telegraph’ın yönergeleri, kopya düzenleme için üretken yapay zeka araçlarının kullanılmasını yasaklıyor.
Editörler, “Yapay zeka motorları tarafından üretilen çok fazla yanlış bilgi örneği var. Aynı şekilde, platformlar Telegraph’ın tarzını ve ilkelerini yeterince anlamayacak; yazıları en iyi şekilde düzenlemek için gerekli nüans da olmayacaktır. “Her halükarda, Telegraph yazılarının tamamını üçüncü taraf yapay zeka hizmetlerine girmemeliyiz” denildi.
Yöneticiler, üretici YZ şirketlerinin modellerinin eğitildiği bilgileri nereden elde ettiklerini açıklamadıkları için, “GenAI tabanlı bir araca yazdığınız herhangi bir şeyin başka bir yerde harici olarak yeniden ortaya çıkabileceğine dikkat etmeniz bekleniyor” açıklamasında bulundu.
OpenAI, LLM’lerini artık kullanıcılar tarafından ChatGPT’ye girilen metinler üzerinde eğitmediğini söylüyor. Bununla birlikte, Telegraph personelinden yayın öncesi ya da sonrası bir YZ’ye önemli miktarda özel metin girmemeleri ve “şirkete özel ya da editoryal açıdan hassas” ya da isimler veya e-posta adresleri gibi kişisel olarak tanımlanabilir bilgiler içeren bilgileri girmekten kaçınmaları istendi. Çalışanlara bunu yapmanın “veri koruma yasalarını ihlal edebileceği” söylendi.
Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.