Yapay zeka eğitiminde çocukların cinsel istismar görüntülerinin kullanıldığı ortaya çıktı.

Stanford'un Internet Observatory programı, yapay zeka görüntü üretimi için popüler bir eğitim veri setinin çocuk istismarı görüntülerine bağlantılar içerdiğini ve yapay zeka modellerinin zararlı içerik oluşturmasına izin verebileceğini tespit etti. 

Stable Diffusion geliştiricisi Stability AI tarafından kullanılan bir veri seti olan LAION-5B'nin, sosyal medya paylaşımlarından ve popüler yetişkin web sitelerinden kazınmış en az bin 679 yasadışı görüntü içerdiği belirlendi.

İspanya'yı şoke eden saldırı: Maskeli zanlı 11 yaşındaki çocuğu bıçakladı! İspanya'yı şoke eden saldırı: Maskeli zanlı 11 yaşındaki çocuğu bıçakladı!

Eylül 2023'te LAION veri setini taramaya başlayarak ne kadar çocuk cinsel istismarı materyali (CSAM) bulunduğunu araştıran araştırmacılar hash’lere veya görüntünün tanımlayıcılarına baktılar. Toplanan bilgiler PhotoDNA gibi CSAM tespit platformlarına gönderildi ve Kanada Çocuk Koruma Merkezi tarafından doğrulandı.

Stanford, Imagen'in geliştiricilerinin 400M'nin "pornografik görüntüler, ırkçı hakaretler ve zararlı sosyal stereotipler de dahil olmak üzere çok çeşitli uygunsuz içerik" içerdiğini tespit ettiklerini belirtti.

Öte yandan veri setini yöneten kar amacı gütmeyen LAION, yaptığı açıklamada zararlı içerik için "sıfır tolerans" politikası olduğunu ve veri setlerini geçici olarak kaldıracağını söyledi. 

Stability AI ise platformlarının kötüye kullanımına karşı yönergeleri olduğunun altını çizerken modellerini LAION-5B ile eğittiğini, ancak veri setinin bir kısmına odaklandığını ve güvenlik için ince ayar yaptığını belirtti.