Siyah sanatçılar, algoritmalar geçmişlerini silerken AI’nın önyargı gösterdiğini söylüyor

OgreMan

Global Mod
Global Mod
Sanatçı Stephanie Dinkins, Brooklyn merkezli ofisinde uzun süredir sanat ve teknolojiyi bir araya getirme konusunda öncü olmuştur. Mayıs ayında 100.000 dolar aldı. Guggenheim müzesi insansı bir robot olan Bina48 ile devam eden bir dizi röportaj da dahil olmak üzere çığır açan yenilikleri için.

Son yedi yıldır, AI’nın çeşitli kelime istemlerini kullanarak gülümseyen ve ağlayan siyah kadınları gerçekçi bir şekilde tasvir etme becerisini deniyor. İlk sonuçlar endişe verici olmasa da zayıftı: Algoritmaları siyah bir pelerinle gizlenmiş pembe bir insansı üretti.

“Siyah kadınlığı biraz daha anımsatan bir şey bekliyordum” dedi. Ve ilk deneylerinden bu yana teknoloji gelişmiş olsa da Dinkins, “makineye bana istediğimi verme şansı vermek için” AI görüntü oluşturucuların istedikleri görüntüyü elde etmelerine yardımcı olmak için metin istemlerinde baypas terimleri kullandı. “Afrikalı Amerikalı” veya “Siyah kadın” terimi, yüz hatlarını ve saç dokusunu bozan makine çarpıklıkları yaygındır.

Dinkins, “İyileştirmeler, ayrımcılık hakkında sormamız gereken daha derin soruların bazılarını belirsizleştiriyor.” dedi. Siyahi sanatçı şunları ekledi: “Önyargılar bu sistemlere derinden yerleşmiş durumda, dolayısıyla bunlar kökleşmiş ve otomatik. Algoritmik ekosistemler kullanan bir sistemde çalışıyorsam, daha iyi desteklendiğimizi hissedebilmemiz için bu sistemin Siyahların kim olduğunu farklı bir şekilde bilmesini istiyorum.


Yapay zeka ve ırk arasındaki rahatsız edici bağlantı hakkında zor sorular soran tek kişi o değil. Birçok siyah sanatçı, hem makinelere nasıl görüntü üretileceğini öğreten büyük veri kümelerinde hem de algoritmaları çalıştıran temel programlarda yapay zekada ırksal önyargının kanıtlarını buluyor. Bazı durumlarda, AI teknolojileri, Siyahların resimlerde nasıl tasvir edildiğini etkileyerek sanatçıların metin komutlarını görmezden geliyor veya çarpıtıyor gibi görünüyor ve diğer durumlarda, Siyahların tarihini ve kültürünü klişeleştiriyor veya sansürlüyor gibi görünüyor.

Yapay zeka içindeki ırkçı önyargılarla ilgili tartışma son yıllarda önemli ölçüde arttı. Araştırmalar, yüz tanıma teknolojilerinin ve dijital asistanların beyaz olmayan insanların görüntülerini ve konuşma kalıplarını tanımakta zorlandığını gösteriyor. Çalışmalar daha geniş adalet ve önyargı sorularını gündeme getirdi.

OpenAI, Stability AI ve Midjourney dahil olmak üzere yapay zeka görüntü oluşturucularının arkasındaki büyük şirketler, araçlarını iyileştirmeyi taahhüt etti. OpenAI sözcüsü Alex Beck, bir e-posta röportajında, “Önyargı, endüstri çapında büyük bir sorundur” dedi ve şirketin sürekli olarak “performansı artırmaya, önyargıyı azaltmaya ve zararlı sonuçları hafifletmeye” çalıştığını ekledi. Kaç çalışanın ırkçı önyargıyı ele aldığını veya şirketin soruna ne kadar para ayırdığını söylemeyi reddetti.


Senegalli sanatçı, “Siyahlar görünmez olmaya alışkındır” diyor Linda Dounia Rebeiz In/Visible adlı sergisinin giriş bölümünde şunları yazdı: vahşi dosya, bir NFT pazarı. “Görülürsek, yanlış tanıtılmaya alışkınız.”


28 yaşındaki Rebeiz, bir muhabirle yaptığı röportajda görüşünü kanıtlamak için OpenAI’nin görüntü oluşturucusuna sordu: DALL-E 2, memleketleri Dakar’da binalar hayal etmek. Algoritma, Rebeiz’in Senegal başkentindeki kıyı evleriyle hiçbir ilgisi olmadığını söylediği, kurak çöl manzaraları ve yıkılmış binalar üretti.

Rebeiz, “Bu moral bozucu” dedi. Algoritma, Batı tarafından yaratılan kültürel bir Afrika imajına yöneliyor. Varsayılan olarak internette zaten var olan en kötü klişeleri kullanıyor.”

Geçen yıl, Open AI isminde DALL-E 2 tarafından oluşturulan görüntüleri çeşitlendirmek için yeni teknikler tanıtıldı ve aracın “dünya nüfusunun çeşitliliğini daha doğru bir şekilde yansıtan insanların görüntülerini oluşturmasına” olanak sağladı.

Rebeiz’in sergisinde yer alan bir sanatçı, Minne Atairu doktora Güney Bronx’ta genç siyah öğrenciler üzerinde görüntü üreteçleri kullanmayı öneren Columbia Üniversitesi Öğretmen Koleji adayı. Ancak Atairu, “öğrencilerin rahatsız edici görüntüler yaratmaya teşvik edilebileceğinden” endişeleniyor.


Feral File sergisinde, Midjourney’nin doğal olarak sarı saçlı siyah kadınların görüntülerini oluşturmaya yönelik algoritmasının sınırlarını araştıran Blonde Braids Studies’den görüntüler yer alıyor. Sanatçı, sarı saçlı siyah tek yumurta ikizlerinin resmini istediğinde, program bunun yerine daha açık tenli bir kardeş verdi.

Atairu, “Bu bize algoritmanın görüntüleri nereden topladığını gösteriyor” dedi. “Bu, bir grup siyah insandan çizim yapmakla ilgili değil, beyaz insanlara hitap eden bir grup.”

Küçük siyah çocukların kendi görüntülerini yaratmaya çalışıp tenleri beyazlamış çocukları görmelerinden endişe duyduğunu söyledi. Atairu, son güncellemeler yetenekleri geliştirmeden önce Midjourney ile yaptığı önceki deneylerden bazılarını hatırladı. “Siyah yüz gibi görünen görüntüler üretecek” dedi. “Bir burun görürdünüz, ama bu bir insan burnu değildi. Bir köpeğin burnuna benziyordu.”

Midjourney’in kurucusu David Holz, bir yorum talebine yanıt olarak bir e-postayla şu yanıtı verdi: “Sistemlerimizle ilgili bir sorun bulan olursa, konuyu inceleyebilmemiz için onlardan bize belirli örnekler göndermelerini istiyoruz.”

Görüntü oluşturucu hizmetleri sağlayan Stability AI, daha geniş bir ülke ve kültür yelpazesi için önyargı değerlendirme tekniklerini geliştirmek için AI endüstrisi ile birlikte çalışmayı planladığını söyledi. AI firmasının söylediği önyargı, genel veri kümelerindeki “aşırı temsilden” kaynaklanıyor, ancak burada sorunun beyaz aşırı temsilinin olup olmadığını belirtmedi.


Bu ayın başlarında, Bloomberg analiz edildi Stability AI tarafından oluşturulan 5.000’den fazla görüntü ve programının ırk ve cinsiyetle ilgili klişeleri güçlendirdiğini, tipik olarak yüksek ücretli işlerde daha açık ten tonlarına sahip insanları tasvir ederken, daha koyu ten tonlarına sahip olanları “bulaşık makinesi” ve “kahya” olarak etiketlediğini buldu.

Bu sorunlar teknoloji endüstrisindeki yatırım çılgınlığını durdurmadı. Danışmanlık firması McKinsey’den yakın tarihli pembe bir rapor, üretken yapay zekanın küresel ekonomiyi yılda 4,4 trilyon dolar artıracağını öngördü. Geçen yıl yaklaşık 3.200 girişim 52.1 milyar dolar fon aldı. sonrasında GlobalData Anlaşmaları veritabanına.

Teknoloji şirketleri, Kodak gibi şirketlerin kullandığı 1950’lerde renkli fotoğrafçılığın ilk günlerinden beri koyu tenli tasvir etme konusundaki önyargı iddialarıyla mücadele ediyor. beyaz modeller renk gelişimlerinde. Google, sekiz yıl önce AI programının, insanların Fotoğraflar uygulaması aracılığıyla gorilleri ve maymunları aramasına izin verme özelliğini devre dışı bıraktı çünkü algoritma Siyahları bu kategorilere yanlış sınıflandırdı. Bu yılın Mayıs ayı itibariyle sorun henüz çözülmedi. Teknoloji üzerinde çalışan iki eski çalışan, Haberler’a Google’ın yapay zeka sistemini yeterince siyah insan görüntüsüyle eğitmediğini söyledi.


Yapay zeka üzerine çalışan diğer uzmanlar, bu teknolojinin 1960’larda erken gelişimine atıfta bulunarak, önyargının yalnızca veri kümelerinden daha derine indiğini söylediler.

Dartmouth College’da bir kültür tarihçisi olan ve konuyla ilgili yeni bir kitabın yazarı olan James E. Dobson, “Sorun, verilerin çarpıklığından daha karmaşık” dedi. Bilgisayar görüşünün doğuşu. Araştırmasına göre, makine öğreniminin ilk günlerinde ırk hakkında çok az tartışma vardı ve teknoloji üzerinde çalışan bilim adamlarının çoğu beyaz erkeklerdi.


Dobson, “Mühendisler önceki sürümler üzerine inşa ettikleri için günümüzün algoritmalarını tarihsel olanlardan ayırmak zor” dedi.

Irksal önyargı ve nefret dolu görüntülerin görünümünü azaltmak için bazı şirketler, kullanıcıların “köle” ve “faşist” gibi jeneratörlere gönderdiği metin istemlerinde belirli kelimeleri yasakladı.

Ancak Dobson, kullanıcıların gönderebileceği istem türlerini sansürlemek gibi basit bir düzeltme umut eden şirketlerin, altta yatan teknolojideki daha temel önyargı sorunlarından kaçınacağını söyledi.

“Bu algoritmalar daha karmaşık hale gelmeye devam ettiği için endişe verici bir dönem. Ve dışarı çıkan çöpleri gördüğünüzde, kendinize modelde hala ne tür bir çöp süreci olduğunu sormalısınız” diye ekledi profesör.

Auria HarveyWhitney Müzesi’nin son sergisinde yer alan bir sanatçı Sergi Dijital kimlikler üzerinden “yeniden biçimlendirme”, Midjourney ile yakın tarihli bir projede bu yasaklarla karşılaştı. “Veri tabanına köle gemileri hakkında ne bildiklerini sormak istedim” dedi. “Devam edersem Midjourney’in hesabımı askıya alacağına dair bir mesaj aldım.”


Dinkins, köleleştirilmiş insanlar ve yerleşimciler tarafından Kuzey Amerika’ya bamya getirildiğini gösteren, yarattığı ve sattığı NFT’lerle benzer sorunlar yaşadı. Üretken bir program kullanmaya çalıştığı için sansürlendi, tekrarlamakköle gemilerinin fotoğraflarını çekmek için. Sonunda “korsan gemisi” terimini kullanarak sansürcüleri alt etmeyi öğrendi. Aldığı görüntü, istediğinin bir tahminiydi ama aynı zamanda sanatçı için rahatsız edici soruları da gündeme getirdi.

Dinkins, “Bu teknolojinin tarihle ne ilgisi var?” diye sordu. “Birinin önyargıyı düzeltmeye çalıştığını ama aynı zamanda tarihin bir parçasını da sildiğini görebilirsiniz. Bu silmeleri herhangi bir önyargı kadar tehlikeli buluyorum çünkü buraya nasıl geldiğimizi unutacağız.”

Guggenheim Müzesi’nin baş küratörü Naomi Beckwith, Dinkins’in temsil ve teknoloji konularına farklı yaklaşımını, sanatçının müzenin ilk Sanat ve Teknoloji Ödülü’nü almasının bir nedeni olarak gösterdi.

Beckwith, “Stephanie, işlerin nasıl yürüdüğüne dair bu kapsayıcı ve bütünleştirici teorilerde delikler açan sanatçılar ve yaratıcılar geleneğinin bir parçası haline geldi” dedi. Küratör, insan yaratıcılığının yerini alan yapay zeka programları hakkındaki ilk paranoyasının, bu algoritmaların siyah kültür hakkında neredeyse hiçbir şey bilmediğini fark ettiğinde azaldığını ekledi.

Ancak Dinkins henüz teknolojiyi bir kenara atmaya tam olarak hazır değil. Sanatsal projeleri için şüpheyle kullanmaya devam ediyor. “Sistem, ağlayan veya gülümseyen siyah bir kadının gerçekten aslına uygun bir görüntüsünü üretebildiğinde, dinlenebilir miyiz?”
 
Üst