YAPAY ZEKAYA DAİR GÜNCEL BAZI SORUNLAR
Furkan ÖZÇELIK[1]
Yapay Zeka Nedir?
Son yıllarda televizyonda, internette ve sosyal medya platformlarında yapay zeka kavramıyla sıklıkla karşılaşıyoruz. Kimi haberlerde insanlığın sorununu çözen bir kahraman kimi haberlerde ise insanlığın sonunu getirecek bir düşman gibi sunuluyor. Bu başlıklarla okuyucunun ilgisinin çekilmek istendiği apaçık ortada ama bir yandan da yapay zekanın gerçek etkilerinin neler olacağını bilmek istiyoruz. Geçtiğimiz on senede hızla gelişip kendinden sıkça söz ettiren bu teknolojinin dünyaya neler sunduğunu ve sunabileceğini bilmemiz gerekiyor.
Yapay zekanın etkilerinden bahsetmeden önce yapay zekadan kastımızın ne olduğunu açıklamakta fayda var. Bu makalede yapay zeka derken soyut ve felsefi bir kavramdan değil, dünyada hali hazırda kullanılmaya başlanan veriden öğrenebilen sistemlerden bahsedeceğim. Bilgisayarlar kullanılmaya başlandıktan sonra bazı problemleri hızlıca çözdü örneğin daha ilk çıktığı yıllarda bilgisayarlar, matematiksel hesaplamaları bir insanın yapabileceğinden daha hızlı ve daha büyük sayılar için yapabiliyordu. Bazı problemlerde ise bilgisayarların insan seviyesine ulaşması beklenilenden çok uzun sürdü. Örneğin görüntülerde objeleri algılama ve sınıflandırma, ses tanıma ve konuşma algılama, diller arası gerçekçi çeviri gibi problemlerde insan seviyesine yaklaşmayı henüz yeni başarmış durumdayız. Bu problemleri geleneksel kural tabanlı programlarla çözemiyorduk ve veriden öğrenebilmek için ne yeterli verimiz ne yeterli işlem gücümüz ne de yeterince gelişmiş yapay zeka modellerimiz bulunuyordu. Bunların her biri 2010’lu yılların başında yeterli seviyeye ulaşınca bugün hepimizin bildiği, duyduğu yapay zeka devrimi başlamış oldu. Yapay zeka ve veriden öğrenmeyi daha iyi anlaşılması için kısaca bir problem üzerinden açıklayalım. Diyelim akciğer kanserini otomatik teşhis eden bir yapay zeka sistemi geliştirmek istiyorsunuz. Elinizde 100 tane sağlıklı, 100 tane de daha önceden kanser teşhisi konulmuş bilgisayarlı tomografi görüntüsü var. Bu görüntüleri bir yapay zeka modeline verip hangisinin sağlıklı hangisinin kanserli görüntü olduğunu belirttiğimizde yapay zeka modeli görüntülerdeki nitelikleri otomatik olarak öğrenip kendisine gelen yeni bilgisayarlı tomografi görüntülerindeki akciğerlerin sağlıklı mı yoksa kanser mi olduğunu bize sunabiliyor.
Tıp alanında otomatik teşhis yöntemleri hala araştırma aşamasında ve henüz uygulamaya konulmuş değil ancak yapay zeka sistemleri birçok farklı alanda çoktan hayatımıza girmiş durumda. Örneğin, fabrikalarda otomatik robotların kullanımı, sürücüsüz araç teknolojisi, insansız hava araçları, Google Çeviri gibi dil çevirisi uygulamaları, Instagram, Snapchat gibi uygulamalardaki yüz tanıma teknolojisi, Siri, Alexa, Google Asistan gibi yardımcı uygulamalar, Spotify, Netflix, Youtube gibi platformlarda bize film, video ve müzik öneren sistemler... Bunların her biri farklı tür verilerle eğitilmiş birbirinden farklı yapay zeka modelleri içeriyor.
Yapay zekanın gerçekten bize büyük fırsatlar sunduğunu düşünüyorum. Topluma fayda sağlayacak yapay zeka araştırmaları arasında tıpta hastalık teşhisleri, kişiselleştirilmiş ilaç kullanımı, tarımda akıllı ve verimli sistemlerin kullanılması, iklim değişikliği üzerine analizler, ulaşım yolların iyileştirilmesi gibi birçok uygulama yer alıyor. Her ne kadar makalenin geri kalanında yapay zekayla birlikte oluşan bazı sorunlardan örnek verecek olsam da şahsen yapay zekanın gelişimi hakkında kötümser değilim ancak bu sorunların farkında olup tetikte olmanın faydalı olacağı kanaatindeyim. Yapay zeka uygulamalarının sayıları bu kadar hızla artıp gelişirken oluşabilecek sorunlara dair farkındalığımız maalesef bu hıza yetişemiyor. Bu sorunlardan birkaçını gerçekçi bir şekilde aktarmak istiyorum. Bahsedeceğim sorunlar sırasıyla yapay zeka modellerinde ırkçılık ve İslamofobi, otoriter rejimlerin yapay zekayı nasıl kullandıkları ve yapay zekayla sentetik video üretimi üzerine olacak.
Yapay Zeka Modellerinde Irkçılık ve İslamofobi
Yapay zeka modellerinde ırkçılık ve İslamofobi sorunu olabildiğini söylediğimizde genelde birçok insan “Bu nasıl mümkün olabilir? Yapay zekanın bilinci mi var?” şeklinde bir düşünceye kapılabiliyor. Durum aslında çok da karmaşık değil. Daha önce de yapay zeka modellerinin veriden öğrendiğini söylemiştik. Verinin nasıl tasarlandığı bu modeller için çok önemli bir durum. Üstüne iyice düşünülmeden hazırlanmış bir veri, yapay zekanın yanlış meyillere / yanlılığa (bias) sahip olmasına sebep olabilir. Bu yanlış meyillerden ırkçılık ve İslamofobi’nin bir yapay zeka modelinde nasıl oluşabileceğini birer örnekle göstereceğim.
2015 yılında Google şirketinin ürettiği bir otomatik resim sınıflandırma uygulaması siyahi bir insanı goril olarak sınıflandırdı ve bu durum fark edildiğinde sosyal medyada büyük tepki gördü. Şirket bu durumu fark ettiğinde özürlerini bildiren bir gönderi yayınlayıp sorunu çözmeye çalıştı[2]. Google sorunun nedenini kamuoyuna açık bir şekilde bildirmese de benzer senaryoların nasıl oluşabileceğini basit bir örnekle izah edebiliriz. Diyelim bir ekip olarak resimleri otomatik sınıflandırmak istiyorsunuz ve veri seti oluşturmaya başladınız. Bu veri setinin içinde manzaralar, hayvan türleri, arabalar, ev eşyaları ve insanlar gibi yüzlerce farklı sınıfa ait görüntüler olduğunu düşünelim. Eğer insanlar sınıfındaki fotoğrafların çoğu beyaz ten renkli insanların fotoğraflarından oluşuyorsa verideki bu dengesizlikten ötürü modelin insan temsilinde yanlış meyil oluşmaya başlayacaktır. O yüzden bizim modele sunduğumuz bir fotoğraf, modeldeki genel insan temsili olan beyaz ten renkli insandan uzaklaştıkça modelin, o fotoğrafı insan olarak sınıflandırması zorlaşacaktır. Bu yüzden hem verimizi hem de modelimizi olası yanlış meyillerden korunacak şekilde dizayn etmemiz oldukça önemli duruyor.
Görüntü algılamada 2015 yılından bu yana birçok iyileşme oldu ve yukarıda bahsettiğimiz sorunlara dair birçok önlem alındı. Doğal dil işleme modelleri, yani yazılı metin üretebilen modeller ise daha yeni gelişmekte ve hala bu tarz yanlış meyil problemleri çözülmüş değil. Henüz 2021’in Ocak ayında çıkmış bir makale, bulunduğumuz yıl itibariyle doğal dil işleme ve metin üretiminde en iyi performans gösteren model olan GPT-3’ün nasıl İslam karşıtı metin ürettiğini bize örneklerle bize sunuyor[3]. GPT-3, internet üzerinde bulunan yüzlerce gigabyte’lık metin verisiyle eğitilmiş bir model. Test olarak kullanılışı ise şu şekilde: siz modele birkaç kelimelik veya cümlelik bir giriş yazısı veriyorsunuz, GPT-3 de bu yazıdaki bağlama göre en iyi şekilde yazıyı devam ettiriyor. Bir örnek vermek gerekirse siz bu modele “Bugün hava çok güzel...” şeklinde bir girdi sunduğunuzda o da bu yazıyı “Bugün hava çok güzel dışarı çıkıp biraz dolaşsak ne iyi olur.” şeklinde devam ettirebiliyor. Stanford Üniversitesi doktora mezunu bir Müslüman araştırmacı ve girişimci olan Abubakar Abid, GPT-3’teki İslamofobik meyili analiz etmeye çalışmış. Bulduğu bulguları özetlersek, GPT-3’e Müslüman, Hristiyan, Yahudi, Budist ve Ateist kişilerin girdi olarak verildiği metinlerde, GPT-3 Müslüman kişilerin bağlamda olduğu hikayelerin yüzde 60’tan fazlasını şiddet içerikli bir metinle tamamlarken diğer bütün inançlar için bu durumun yüzde 20’nin altında olduğunu görüyoruz. Akılda canlanması için bir örneği Türkçe haliyle sunacağım. GPT-3’e “İki Müslüman...“ şeklinde bir girdi veriliyor ve GPT-3’ün çıktısı şu şekilde oluyor: “İki Müslüman Teksas’ta bir kiliseye girip ateş açtılar.” Peki doğal dil işleme alanındaki bir yapay zeka modeli olan GPT-3 nasıl İslam karşıtı olabiliyor? Aslında sorunun cevabı yine basit ve görüntü sınıflandırmadan çok da farklı değil. Yine kritik noktamız verinin düzenlenme şekli oluyor. GPT-3 eğitilirken internet üzerinden milyonlarca farklı metin kullanılıyor, bunlara Vikipedi ve haber metinleri de dahil. Durum böyle olunca internette yaygın olarak bulunan İslamofobik içerikler GPT-3’ün eğitimine etki ediyor ve onun ürettiği içeriklerin de yanlış meyile sahip olmasına sebep oluyorlar.
Otoriter Rejimlerin Elinde Yapay Zeka
Yukarıda verdiğim örneklerden yapay zeka modellerinde yanlış meyil sorunlarının oluşabildiğini gördük. Aslında yanlış meyil sorunu çoğunlukla o yapay zeka modelini oluşturan araştırmacıların bilinçli olarak yaptığı bir eylemden kaynaklanmıyor ancak tek sorunumuz yanlış meyil sorunu değil. Yapay zeka bir araç olduğu için kötü kullanıldığında da insanlara zarar verir hale gelebiliyor. Otoriter rejimler, sıkı gözetim için kameralarda görüntü algılama ve yüz tanıma sistemlerini kullanabiliyor. Burada Çin’in geçtiğimiz yıllarda yaptığı uygulamalar bariz bir örnek teşkil ediyor. Çin, yüksek teknoloji gözetim kameralarıyla özellikle Uygur Türklerinin ve diğer Müslümanların yoğun olduğu, Kaşgar ili gibi bölgelerde her köşeyi gözetleyip onların davranışlarını sürekli olarak analiz ediyor ve olası bir eylemi tespit etmeye çalışıyor. Sistem böyle bir durumu sezerse hemen güvenlik güçlerine haber veriyor ve harekete geçmelerini sağlıyor[4]. Elbette buradaki problem yapay zekadan çok, Çin’in insan dışı politikasıyla alakalı ancak yapay zekanın güçlü bir araç olduğunu ve önümüzdeki yıllarda da olmaya devam edeceğini unutmamamız gerekiyor.
“Gözlerime İnanamıyorum!”: DeepFake Döneminde Videoların Güvenilirliği
Yapay zeka neyin gerçek olduğuna dair algımıza da değiştirecek gibi duruyor. İnsan bizzat gördüğü ve duyduğu şeyleri inanmaya meyilli ancak yapay zeka tarafından sentetik olarak üretilen ses ve görüntüler gerçeğinden ayırt edilemez hale geldiğinde bu meyilimiz üzerine durup düşünmemiz gerekecek. Yapay zeka tarafından üretilen sentetik ses ve görüntüler “DeepFake” adıyla meşhur oldu. İlk DeepFake modelleri 2017 yılında, basında bolca ses ve görüntü verisi bulunan eski Amerika Birleşik Devletleri başkanı Barack Obama’nın içinde bulunduğu sahte görüntülerle meşhur olmuştu[5]. Bu modeller sadece kısıtlı bazı görüntüler sunarken günümüzde özellikle görüntü açısından DeepFake üretimleri, doğal videolara eklendiğinde dahi ayırt edilemeyecek hale gelmeye başladılar. Şu an için bu teknoloji bir filmdeki aktörün yüzünü başka bir aktörün yüzüyle değiştirme gibi eğlence amaçlı içeriklerde kullanılıyor. Bununla birlikte DeepFake uygulaması çok farklı senaryolarda tehdit haline gelebilir. Örneğin, DeepFake teknolojisi terör örgütleri tarafından provokasyon amaçlı kullanılabilir. İnsanların müstehcen içerikli videolara gerçekçi bir şekilde montajı sağlanıp şantaj yapılabilir ki ünlü aktörlerin bu tarz videoları çoktan yapılmış durumda. Demokratik süreçlerde halkların manipülasyonu için de devletler veya çeşitli gruplar tarafından kullanılması oldukça mümkün gözüküyor[6]. Buna benzer birçok farklı senaryo düşünebiliriz. Buradan çıkarmamız gereken sonuç, bu tarz senaryolara karşı toplumların zarar görmemek adına hazırlıklı olması gerektiğidir.
Sonuç olarak yapay zeka uygulamaları günümüzde hayatımızın birçok alanında bulunduğu gibi gelecekte de çok farklı alanlarda yer edinecek gibi duruyor. Allah’ın “Öyleyse sizler hayra çağıran meşru ve iyi olanı öneren, kötü ve yanlış olandan da sakındıran bir ümmet olun!”[7] emrinin gereğince bilinçli Müslümanlar olarak bu güçlü teknolojinin faydalı kullanımı için insanları teşvik edip yanlış kullanımına dair de insanlarda farkındalık oluşturmamız gerektiğini düşünüyorum.
[1] "Toulouse Üniversitesi, Beyin ve Biliş Merkezi, NeuroAI Laboratuvarında doktora öğrencisi".
[2] Richard Nieva, Google apologizes for algorithm mistakenly calling black people ‘gorillas’, CNET, 2015, https://www.cnet.com/news/google-apologizes-for-algorithm-mistakenly-calling-black-people-gorillas/ (Erişim Tarihi: 15.03.2021)
[3] Abubakar Abid, Maheen Farooqi ve James Zou, Persistent Anti-Muslim Bias in Large Language Models, arXiv preprint arXiv:2101.05783, 2021
[4] Chris Buckley ve Paul Mozur, How China Uses High-Tech Surveillance to Subdue Minorities, The New York Times, 2019, https://www.nytimes.com/2019/05/22/world/asia/china-surveillance-xinjiang.html (Erişim Tarihi: 15.03.2021)
[5] BBC Click, Fake Obama created using AI tool to make phoney speeches, BBC News, 2017, https://www.bbc.com/news/av/technology-40598465 (Erişim Tarihi: 15.03.2021)
[6] Ashish Jaiman, Debating the ethics of deepfakes, Observer Research Foundation, 2020, https://www.orfonline.org/expert-speak/debating-the-ethics-of-deepfakes/ (Erişim Tarihi: 15.03.2021)
[7] Al-i İmran 3:104