Facebook, Twitter, Google üzere büyük şirketler ve çeşitli boyutlardaki toplumsal medya platformlarının yazılımlarına yerleştirilen ırkçı algoritmalarla siyahiler maymunla, Filistin sözü ise terörle eşleştiriliyor.
Yapay zeka, ırkçılaşabilir mi?
Bilgisayar bilimleri, algoritmalar ve yapay zeka üzerine araştırmalar yapan Cerrahpaşa Tıp Fakültesi, Temel Tıp Bilimleri Kısmı, Biyoistatistik Ana Bilim Kolu Öğretim Üyesi Prof. Dr. Murat Kirişçi, yapay zekanın nasıl ırkçı sistemler haline getirildiği hakkında değerlendirmelerde bulundu.
“Filistin ya da Myanmar üzere bölgelerde ayrımcı algoritmalar var”
AA’nın haberine nazaran; Prof. Dr. Kirişçi, algoritmaların, programcılarının zihnindeki ayrımcı sistemlere nazaran çalıştığını belirterek, Filistin ve Myanmar üzere bölgelere yönelik ayrımcı algoritmaların varlığına işaret etti. Kirişçi şöyle devam etti:
“Algoritmalar, beyazların tasarladığı dünyada siyahileri kötüleyecek formda çalışıyor. Filistin sözü geçtiğinde altyazıda teröristi kullanıyor. Kimi insanları, birtakım toplulukları ve hatta bir ülkeyi yok sayan algoritmalar var. Myanmar’ı bir yer olarak ortaya koymayan, orada yaşayanları insan olarak da tanımlamayan çok sert algoritmaların çalıştığı haber siteleriyle karşılaştık. Bu daima oluyor mu? Evet, oluyor. Aslında sorun da buradan çıkıyor. O kadar çok ırkçı telaffuz var ki bir anda kriminal olaylar algoritmalarla paka çıkartılıp suçsuz olaylar kirletiliyor.”
“Floyd’un katili polis, günahsız üzere gösterildi”
ABD’de polis şiddeti sonucu hayatını kaybeden siyahi George Floyd olayının akabinde kimi ırkçı yazılımların fail polis memurunu saf gösterdiğini aktaran Kirişçi, “Floyd olayını tersten sunan algoritmaların az yahut çok olmasından çok birtakım algoritmaların temiz bir mantıkta çalışmadığını fark etmek değerli. Siz ne yaparsanız yapın algoritmalar onu yazanın zihnindeki ayrımcı sistemlere nazaran çalışıyor.” tabirini kullandı.
“Algoritma ya da yapay zeka değil onları programlayanlar ırkçı”
Kirişçi, yapay zekanın en kolay haliyle “insanın düşünme biçimini makinalara öğretmeye çalışma” halinde tanımlanabileceğini kaydederek, bu nedenle teknolojik ürünlere “akıllı” denmesinin yanlışsız olmadığını tabir etti.
Irkçı algoritmaları tartışırken aslında ırkçı zihniyetlerin tartışılması gerektiğinin altını çizen Kirişçi, “Irkçı olan yahut ayrımcılık yapan aslında algoritmalar değil. Tırnak içinde ‘İnsanı yok edeceğini tez ettiğimiz algoritmalar’ mümkün değil. Biz bu sıkıntıyı konuşurken onları üreten, bu fikri veren ve onlara nasıl düşünmesi gerektiğini anlatan insanın problemlerini tartışmış oluyoruz. Aksi takdirde gerçek şahısla uğraş etmek yahut karşı durmak yerine soyut, belgisiz bir şeyle uğraşıyoruz.” dedi.
Kirişçi, arama çubuğuna “ape” (maymun) yazıldığında eski ABD Lideri Barack Obama’nın eşi Michelle Obama’nın fotoğrafının çıktığı algoritma çalışmasının yansılara neden olduğunu aktararak, “Barack Obama’nın ABD Lideri olduğu devirde Beyaz Sarayı ‘zenci sarayı’ olarak tanımlayan algoritmalar var. Bu ırkçılığı üreten yapıyı bir makine niçin yapsın ki? Bir algoritma yahut makine kendi kendine sizi yahut beni niçin kötülesin? Temelinde makinenin bu türlü bir imkanı yok lakin onun ardındaki niyet dünyasını, yani akıl eden iradeli varlığın algoritmayı bu biçimde organize etmesi mümkün.” formunda konuştu.
“Sanal dünya aslında dehşetli baskıcı, ırkçı ve ayrımcı”
Algoritmaların, haber siteleri ve toplumsal medya platformlarında ırkçı ve manipülatif emellerle kullanıldığına dikkati çeken Kirişçi, şunları lisana getirdi:
“Sosyal medyada üretilen algoritmalar, sizin yaptığınız çok hoş bir çalışma şayet kendilerini kodlayanlar tarafından rahatsız edici görülüyorsa, sizi platformun en gerisine atıyor. Sizden kelam edildiğinde rastlanmayacak formda bloke ediyor. İnsanlara yararlı birçok şey ürettiğinizi varsayalım, şayet yaptığınız işlerin bir sanayiye ziyan verdiği düşünülüyorsa blokaj uygulanıyor. Aslında siz hala orada varsınız lakin önünüze perde çekiliyor ve arandığınız vakit bile bulunmuyorsunuz. Tırnak içinde özgür olan bu sanal dünya aslında vahim baskıcı, ırkçı ve ayrımcı bir sistem. Yalnızca bunu kurgulayanlar kendilerini çok âlâ gizlemeyi başarmış.”
“Z nesli da geride kaldı, Alfa jenerasyonu geldi”
Kirişçi, küçük yaştaki çocukların bile akıllı telefonları bilgi kaynağı olarak kullanabildiğini belirterek, “Z jenerasyonu da geride kaldı. Dijital dünyanın içine doğan bu çocuklara ‘Alfa nesli’ diyoruz. Çocuk toplumsal medyanın içine doğmuş. Hasebiyle oradan yaşanan olayları öğreniyor ve hayatını ona nazaran organize ediyor. Çocukların biyolojik annesi yahut babasıyız ancak hayatlarını oraya nazaran organize ediyorlar. Bunların hepsi bir algoritmalar zinciriyle çalışıyor. Çocuklar ırkçı, ayrımcı yahut ideolojik gayelerle da kullanılan bu algoritmalar tarafından eğitiliyor.” diye konuştu.
“Irkçılık öğretilen yapay zeka insan ömrüne tehdit oluşturabilir”
Yeni bilgi kaynaklarından elde edilen daha büyük, daha karmaşık bilgi kümelerini tabir eden “Big Data” (Büyük Veri) kavramı ve ayrımcılık konusuna değinen Kirişçi, “Big Veri’nin kendisinde de algoritma akışı var. Bir değil, binlerce hatta milyonlarca algoritma çalışıyor. O algoritmalar da kim ne organize ederse bilgi ona nazaran size karşılık veriyor. Bir zincir üzere düşünürsek, halkalarının rastgele bir yerinde yeniden beşerden bulaşan ayrımcılık noktası varsa birileri oraya müdahil olarak o dataları ayrımcı ve ırkçı biçimde organize edebilir.” değerlendirmesinde bulundu.
Kirişçi, yapay zekanın hayatın pek çok alanında kullanıldığı üzere mahkemelerde kullanılması için çalışmalar yapıldığını anlatarak, mahkeme modellemesinde kullanılacak yapay zekanın hatalı olan beyaz kişiyi günahsız, temiz olan siyahiyi ise hatalı kabul edilebileceğini söyledi. Kirişçi şunları kaydetti:
“İnsanlar nasıl karar verirken ırkçı ve ayrımcı hal gösterebiliyorsa yapay zekaya ‘beyaz ve siyahi ayrımını’ ırkçı biçimde anlattığınız andan itibaren mahkeme süreçlerinin hepsi birebir sonucu verecektir. Binlerce yargıçtan tahminen birkaçı ayrımcılık yapacak tahminen de buna hiç rastlamayacak. Tıpkı eğilimdeki bir makina ile karşılaştığınızda bütün davalarda tıpkı ayrımcılıkla karşılaşacaksınız. Bu aslında insan hayatını tehdit eden bir durum ancak aslında insan ömrünü tehdit eden algoritma ve makinalar değil, akıllı ve iradeli varlık olan insan.”