Meta, Facebook, Instagram ve Threads’te yayınlanan yapay zeka tarafından oluşturulan görüntülere “Imagined with AI” etiketlerini uyguluyor.
Şirket, görünür etiketler, görünmez filigranlar ve görüntü dosyalarına gömülü meta veriler aracılığıyla video ve ses de dahil olmak üzere yapay zeka tarafından oluşturulan içeriğin şeffaflığını artırmayı amaçlıyor.
Meta özellikle, C2PA ve IPTC meta verileri gibi yapay zeka tarafından üretilen içeriğin etiketlenmesi ve tanımlanması için ortak standartlar geliştirmek üzere Google, OpenAI, Microsoft, Adobe, Midjourney ve Shutterstock gibi sektör ortaklarıyla birlikte çalışıyor.
Tescilli Meta AI özelliği ile oluşturulan fotogerçekçi görüntüler, uygun meta verilerin yanı sıra “Imagined with AI” görünür etiketini ve görünmez bir filigranı da taşıyacaktır.
Meta, “önümüzdeki aylarda” her bir uygulama tarafından desteklenen tüm dillerdeki YZ içeriklerini etiketlemeye başlayacak.
Meta, bunun bugün teknik olarak mümkün olan en iyi yaklaşım olmasına rağmen, YZ tarafından oluşturulan tüm içeriği tanımlamanın mümkün olmadığını ve insanların görünmez etiketleri kaldırabileceğini söylüyor.
Meta, şirketin YZ tarafından oluşturulan içeriği otomatik olarak tanımak için daha gelişmiş sınıflandırıcılar üzerinde çalıştığını ve filigranları doğrudan görüntü oluşturma sürecine entegre ederek devre dışı bırakılmasını zorlaştıran Stable Signature gibi filigran teknolojilerini araştırdığını söyledi.
Video ve ses algılama teknolojisi standartlaşıp olgunlaşana kadar Meta, kullanıcıları dijital olarak oluşturulmuş veya değiştirilmiş fotogerçekçi video veya gerçekçi sese sahip organik içerikleri etiketlemeye de çağırıyor. Meta bunu yapmayanları cezalarla tehdit ediyor. “Özellikle yüksek risk” teşkil eden görüntü, video veya ses içerikleri daha belirgin bir şekilde etiketlenebilir. Meta bir etiketleme aracı sağlayacaktır.
Meta, içerik denetimi için LLM’leri test ediyor
Meta ayrıca topluluk standartlarının uygulanmasına yardımcı olmak ve politikalarını ihlal eden içeriği belirlemek için büyük dil modellerini test ediyor. Meta’ya göre, ilk testler LLM’lerin mevcut makine öğrenimi modellerinden daha iyi performans gösterebileceğini gösteriyor.
Şirket ayrıca, içeriğin politikaları ihlal etmediğinden emin olduğunda içeriği inceleme kuyruğundan kaldırmak için LLM’leri kullanıyor. Bu, gözden geçirenlerin politikaları ihlal etme olasılığı daha yüksek olan içeriğe odaklanmasına olanak tanıyor.
OpenAI ayrıca dil modellerinin içerik denetimini ne ölçüde otomatikleştirebileceğini de test ediyor.
Yapayzeka.news’in hiçbir güncellemesini kaçırmamak için bizi Facebook, Twitter, LinkedIn, Instagram‘ ve Whatsapp Kanalımız‘dan takip edin.