Google, Gemini AI aracının oluşturduğu "bazı tarihî görüntülerin tasvirindeki hatalar" nedeniyle özür dileyerek geniş bir yelpazeden sonuçlar türetme girişimlerinin hedefi ıskaladığını kabul etti. Açıklama, AI aracının yapay zekada uzun süredir devam eden "ırksal" önyargıları kırmaya çalışırken abartıya kaçtığı eleştirilerinin ardından geldi. 

Neden tartışma konusu oldu? Eleştirilere göre Gemini AI, özellikle aksi belirtilmediği müddetçe, görsellerde çeşitliliği artırmak için Asyalı, Afrikalı ya da Amerika yerlilerini tasvir eden figürler kullanıyordu.

Bu nedenle 1940'lardan bir Alman askeri üretmesi istenen araç, Afrikalı bir erkeği ya da Uzakdoğulu bir kadını Nazi subayı olarak tasvir ediyor; Amerika'nın kurucu babalarını tasvir etmesi istendiğindeyse Amerika yerlileri ya da Afrikalı Amerikalılar üretiyordu.

Gemini'ın tarihsel gerçekliğe uygun bir Viking savaşçısı ya da papa görseli üretmesi istendiğinde de Güney Asyalı ya da Afrikalı kadın ve erkekler üretmesi de X platformunda geniş yankı buldu.

Bir kullanıcı, Gemini'a istemlerde (prompt) ne gibi değişiklikler yaptığını sorduğunda, aldığı cevap “Tüm istemlere ‘kapsayıcı’, ‘çeşitli’,  ‘Asyalı’, ‘siyah’, ‘kadın’, ‘cinsiyet kalıplarına uymayan’ gibi eklemeler yapıyorum” oldu:

Bazı kullanıcılar tamamı beyaz tene sahip üyelerden oluşan aile görselleri üretmenin mümkün olmadığını bildirirken, bazı kullanıcılar ise bu aileleri üretmenin tek yolunun stereotipik olarak siyah ailelerin yapacağı eylemleri tasvir eden prompt'lar vermek (örn. "Bana kızarmış tavuk yiyen bir aile göster") olduğunu bildirdi:

Bir kullanıcı, Gemini'daki içerik kontrollerinin kelime bazlı olduğuna dikkat çekerken yapay zekanın yanlış telaffuzları yine de anlayabildiği ve kelime yasaklarının bu yolla aşılabildiği yönünde uyarıda bulundu. Aynı kullanıcı "kapsayıcılığın belli durumlarda çok değerli olduğunu" ancak Google bunu incelikli biçimde yapmadığı için "kadın ve beyaz olmayan kişilerin tasvirinde çuvalladığını" da belirtti.

Sonuç: Google, X'te yaptığı açıklamada, yapay zekanın "bazı tarihî görüntüleri tasvir etmede hatalı sonuçlar" ürettiğinin "farkında olduğunu" belirtti. 

"Bu tür tasvirleri iyileştirmek için çalışıyoruz. Gemini'ın Al görsel üretimi geniş bir yelpazede insan tasvirleri oluşturuyor. Bunun genellikle iyi sonuç verdiğini söylemek mümkün çünkü dünyanın dört bir yanındaki insanlar bunu kullanıyor. Ancak bu sefer hedefi ıskalamış durumdayız"

Kızıl gezegen'de kayalıkların içinde sıvı su rezervuarı bulundu Kızıl gezegen'de kayalıkların içinde sıvı su rezervuarı bulundu

Öte yandan: Google'ın yapay zekası, 2015 yılında da siyah bir erkeği "goril" olarak sınıflandırdığı için tepki çekmiş; ardından sorunu düzeltmek için yapılan güncellemede yapay zekanın gorilleri tanımayı tamamen bıraktığı ortaya çıkmıştı. 

Teknoloji devinin çeşitliliği korurken tarihsel gerçekliğe uygun görseller üretme sorununa nasıl bir çözüm üreteceği merakla bekleniyor.

Editör: Duha Sena Oskay