İstatistiksel Önyargı ve Yapay Zeka

 

Artık hepimizin farkında olduğu bir şey var; Veri 21. yüzyılın petrolü ve gelecekteki başarının anahtarıdır. Bu noktada da veriler, güçlü bir yapay zeka için hayati yakıttır. Veri bilimcilerin  yapay zeka algoritmalarını doğru verilerle beslemek ve eğitmek için verileri kullanılabilir formda sunmak adına önemli sorumlulukları vardır. Ayrıca verilerde gerekli tutarlılık seviyesini elde etmek için veri bilimciler etkin rol oynar.

Makine öğrenmesi ve derin öğrenme algoritmalarının sonuçları, kesinliği ve kullanışlılığı doğrudan eğitildikleri verinin alaka düzeyine bağlıdır.

Eğitim verileri de doğru, tutarlı, alakalı ve önyargı içermemelidir. Bu önyargının istatistiksel anlamda tanımından yola çıkacak olursak;

İstatistiksel Önyargı: İstatistiksel bir tekniğin veya sonuçlarının beklenen değerinin, tahmin edilen gerçek temel nicelik parametresinden farklı olduğu durumdur. Bir parametrenin bir tahmincisinin yanlılığı, örnekleme hatasının bir ölçüsü olduğundan, duyarlılık derecesi ile karıştırılmamalıdır.

Yansızlık: Bir tahmin edicinin beklenen değeri parametre değerine eşit ise (yani ( E( )=θ) ) o tahmin edici yansızdır. Yanlılık ve yanlılık miktarı örneklem dağılımına bağlıdır. Örneklem dağılımı bilinmeden yansızlık gösterilemez. Ayrıca yanlılık örnekleme işlemi dışı hatalardan da kaynaklanabilir. Örneğin ölçüm, tartım ve kaydetme hatası gibi.

Tutarlı, alakalı ve önyargısız yani yansız verilerle yapay zekayı besleyerek etik anlamda eğitmek mümkünmüş gibi görünse de gerçek dünyadaki veriler tamamen gerçeği yansıtmıyor.

Örneğin toplumumuzda iş konusunda kadın-erkek eşit bir rol oynadığını görmek isteriz. Ne yazık ki gerçekliğimiz farklı, kadınlar hala daha düşük ortalama ücret almaktadır. Bu durumdaki verilerle beslenen yapay zeka kadınların erkeklerden daha az kazanmasının ya da işe alımlarda erkek aday tercihlerinin yüksek olması gibi önyargılı verilerle öğrenecek çünkü eğitildiği verilerle daha iyisini bilmiyor.

Bu konunun nerelere varabileceğini görmemiz ve üstümüze düşen sorumluluğun farkına varmamız açısından birkaç haber başlığına göz atalım;

Amazon’un İşe Alım Yapay Zeka Algoritmasının Cinsiyetçi Çıkması

Amazon, şirket bünyesindeki işe alımları otomatik hale getirmenin bir yolunu bulmak için 2014 yılında İskoçya’nın Edinburgh kentinde bir mühendislik ekibi kurdu. Şirket, geçmişte başvuran adayların özgeçmişlerinin taranması ve 50 bin anahtar terimi anlaması için 500 bilgisayar modellemesi yaptı. Kurulan bu sistem aday önerisinde bulunmak için webde gezinecekti. Bu çalışmanın başlangıcından bir yıl sonra ise mühendisler, araçta bir problem olduğunu fark etti. Araç kadınlardan hoşlanmıyordu. Bunun nedeni ise yapay zekanın kimin işe alınacağı ile ilgili 10 yıllık Amazon başvuru verisini tararken çoğunlukla erkek adayların özgeçmişlerine rastlamasıydı.

Yaptığı taramanın sonucunda yapay zeka, erkek adayların daha tercih edilebilir olduğu fikrine vardı. Araç, içinde “kadın” kelimesi geçen özgeçmişlerin puanını düşürüyor ve kız okullarına giden adayları filtreliyordu. Amazon’un mühendisleri ise bu önyargı formlarını araçtan kaldırmak için sisteme müdahale etti. Ancak yapay zekanın adaylar arasında ayrımcılık yapmanın yeni yollarını bulabileceğinden de şüphelendiler. Üstelik aracın tek problemi cinsiyetçilik yapması değildi. Araç aynı zamanda pozisyon için yeterli olmayan adayları da önerebiliyordu.

Microsoft’un Yapay Zekası Tay’ın Irkçılığı Öğrenmesi

 Geçtiğimiz aylarda dünya genelinde yankı uyandıran George Floyd’un polis memuru Derek Chauvin tarafından gözaltına alınırken öldürülmesi ile başlayan ve günlerce süren protestolar sonrasında ırkçılığın doğuştan mı yoksa öğrenerek mi oluşum gösterdiği sorusu tartışıldı. Bunun üzerine aklımıza Microsoft’un geliştirdiği chatbot Tay’ın ırkçı konuşmaya başlaması örneği gelebilir. Bildiğimiz gibi chatbotlar, internet ortamında yöneltilen soruları yanıtlayabilen, yapay zeka ürünü yazılımlar. Şirket, Tay adını verdiği chatbot için Twitter’de bir hesap açmış ve insanları onunla sohbete davet etmişti. Bu projede 18-24 yaş grubunu hedefleyen Microsoft, Tay’ın amacının “gündelik, esprili sohbetler yapmak” olduğunu belirtmiş ve şöyle demişti:

“Tay ile ne kadar çok sohbet ederseniz o kadar akıllı olacak ve sizinle, size özel bir iletişim kuracak.”

Ancak devreye girmesinin üzerinden 24 saat geçmeden Tay’a ırkçı ve soykırım destekçisi gibi mesajlar yazmak ve küfretmek “öğretildi.” Bunun üzerine Microsoft’un sohbetlere müdahale etmeye başladığı sanılıyor. Şirket yetkilileri bunu açıkça doğrulamadı ancak “bazı düzenlemeler yaptıklarını” bildirmekle yetindi. Bazı kullanıcılar ise Microsoft’un müdahalesini eleştirerek #justicefortay (#tayiçinadalet) kampanyası başlattı, yazılım devinden yapay zekanın “doğruyu ve yanlışı kendi kendine öğrenmesine izin vermesini” talep ettiler.

Yapay Zekayı Her Ülkeden Haber Verileri ile Eğitsek Neler Olurdu

Başka bir örnek olarak yapay zekanın gerçek dünya verileri olan haber verileri ile beslenmesi durumundaki tehlike. Yapay zekayı gerçek haber verileri olan savaş, terör, kadın cinayetleri raporları ile beslemek dost olmayan yapay zeka için tehlikeli bir örnek olacaktır.

Yapay zekayı gerçek ve önyargılı dünyamızdan gelen verilerle eğitirsek bugünün sorunları ve önyargılarıyla gelecekte de karşılaşmamız muhtemel görünüyor. Bu nedenle, ona verdiğimiz verilerin hedeflerinin ve tüm motivasyon sisteminin ‘insan dostu’ olması son derece önemlidir.

Kaynakça

  • Wikipedia, “Existential Risk From Artificial General Intelligence”. (28 July, 2020)
  • cnnturk.com. “Microsoft Tay Neden Kapatıldı?”. (31 Temmuz, 2020)
  • haberturk.com “Yapay Zekanın Yanılma İhtimali”. (1 Ağustos, 2020)

3 thoughts on

İstatistiksel Önyargı ve Yapay Zeka

Bir cevap yazın

Data Science Earth

Data Science Earth ekibi, üst düzey Veri Bilim çözümleri üretmek amacı ile toplanmış akademisyenler ve uzmanlardan oluşmaktadır. Öncelikli olarak veri bilincini geliştirmeyi ve küreselleşen rekabet ortamında verinin gücünün doğru kullanılmasını sağlamayı amaçlamaktadır.

Sponsor

QuestionPro 35 farklı soru seçim özelliği ile anket çalışmalarımıza güç katmaktadır.