TEKNOLOJİ

Yapay zeka işe alımlarda "algoritmik ayrımcılığa" yol açıyor

"Yapay zeka ve makine öğrenimi kullanan algoritmaların belirli gruplara ya da bireylere karşı ön yargılı davranması, bu ön yargılı davranışın sonucunda adil olmayan kararlar alınması algoritmik ayrımcılık olarak adlandırılıyor"

İbn Haldun Üniversitesi Hukuk Fakültesi Özel Hukuk Bölümü Öğretim Üyesi Prof. Dr. Yeliz Bozkurt Gümrükçüoğlu, işe alımlarda kullanılan yapay zeka tabanlı filtreleme sistemlerinin belli başlı din, dil, ırk, cinsiyet veya kişisel tercihleri sistem dışına iterek, algoritmik ayrımcılığa yol açtığını söyledi.

Gümrükçüoğlu,  Meta, Google, Amazon gibi teknoloji şirketlerinde işe alımlarda sıklıkla karşılaşılan algoritmik ayrımcılığı değerlendirdi.

Hayatı kolaylaştırdığı için sıklıkla kullanılan yapay zeka uygulamalarının, büyük şirketler tarafından da tercih edilmeye başlandığını belirten Gümrükçüoğlu, yapay zekanın hem zaman hem de ekonomik anlamda şirketler için önemli bir tasarruf aracı olduğunu ifade etti.

Gümrükçüoğlu, yapay zeka kullanımının, şirketlerin iş verimliliğini artıran bir unsur olsa da özellikle işe alımlarda algoritmik ayrımcılığa neden olduğunu dile getirerek, "Yapay zeka ve makine öğrenimi kullanan algoritmaların belirli gruplara ya da bireylere karşı ön yargılı davranması, bu ön yargılı davranışın sonucunda adil olmayan kararlar alınması algoritmik ayrımcılık olarak adlandırılıyor. Özellikle bildiğiniz gibi hukuken korunan ayrımcılık temelleri söz konusu; ırk, din, dil gibi. Bu konularda ayrımcılık riski yaratıyor algoritmalar." dedi.

Algoritmik ayrımcılık olarak adlandırılan bu durumun algoritmaları inşa eden kişilerin ön yargıları veya sağlıksız veri kullanımı sonucu ortaya çıktığına dikkati çeken Gümrükçüoğlu, "Buradaki temel sebeplerden bir tanesi algoritmaların yaratıcılarıdır. En nihayetinde algoritmaları yaratan yazılımcılar var ve biliyoruz ki belirli ülkeler bu alanda ön plana çıkıyorlar. Algoritmalar da yine bu verilerden besleniyorlar. Baktığımızda bunların arasında çok az siyahi, çok az kadın, çok az Müslüman var. Bu da bir ayrımcılık kavramı olarak karşımıza çıkabiliyor. Mühendislerin kendi ön yargılarını yansıtıyor algoritmalar." değerlendirmesinde bulundu.

Müzik zevki, saç şekli ve yaşadığı yer nedeniyle işe alınmayan adaylar var

Gümrükçüoğlu, algoritmaları geliştiren mühendislerin yanı sıra şirketlerin de kendi filtreleme metotlarının algoritmik ayrımcılığa yol açtığını, pek çok şirketin yine birçok ülkede işe alımlarda ayrımcılık yaptığı gerekçesiyle davalara konu olduğunu kaydetti.

Algoritmik ayrımcılığın, Amazon vakası olarak bilinen ve işe alımlarda yalnızca erkek mühendislerin tercih edildiği iddiasıyla açılan dava ile ortaya çıktığını hatırlatan Gümrükçüoğlu, şu ifadeleri kullandı:

"Amazon bir işe alım algoritması geliştirmişti. Yaklaşık 10 yıl boyunca şirkete başvuru yapan adayların çoğu erkekti. Bu algoritma, kullandığı verilere göre kadınları direkt olarak eleyen bir algoritma haline gelmiş. Çünkü bir teknoloji şirketi Amazon ve teknoloji alanında erkekleri tercih ediyor, kadınları direkt eliyor. Facebook'un ayrımcı politikaları 2018 yılında ABD'deki bir davada gündeme geldi. Yine Danimarka'da da aynı sebeple Facebook'a verilmiş idari bir ceza söz konusu."

Gümrükçüoğlu, Avrupa'da ve ABD'de söz konusu filtreleme yöntemleri nedeniyle şirketlere açılan davaların gündeme geldiğine dikkati çekerek, algoritmaların, "kişilerin müzik zevki nedeniyle entelektüel bulunmaması, siyahilerin kullandığı saç şekillerine sahip olması veya oturduğu yerin göçmenlerin yaşadığı bölge olabileceği" gibi gerekçelerle işe alımlara engel olduğunu söyledi. Gümrükçüoğlu, ayrıca şu değerlendirmede bulundu:

"Bu konuda karşımıza çıkan ilginç örneklerden biri Justin Bieber dinlediği için yeterince entelektüel bulunmayan bir adaydı. ABD'deki yine bazı iş ilanlarında yapılan filtreleme özellikleri arasında saça dayalı seçim yapma kriterlerinin kullanılamayacağına ilişkin bir düzenleme vardı. Siyahiler rastalı veya şekilli saçlar kullandığı için buna ilişkin bir düzenleme yapılmış ve aday direkt olarak elenmişti. Bir teknoloji şirketi belirli ırktan gelen insanları engellemek istiyordu. ABD'de buna bağlı bir örnekte de ülkedeki belirli coğrafyalar ilanın dışında tutulmuş, belirli posta kodu alanları seçilmişti. Bu alanlarda daha çok göçmen kökenli kişiler yaşadığı için onları eleme yöntemine gitmişlerdi. Şirketler bunu seçtiği zaman bir nevi ırk ayrımcılığı da yapmış oluyor"

"Algoritmaların daha şeffaf ve hesap verilebilir geliştirilmesine ihtiyaç var"

Algoritmaların yol açtığı ayrımcılığın önüne geçilebilmesi için mühendislerin ve bu teknolojilere başvuran şirketlerin çalışma prensiplerinde insan hak ve değerlerine uygunluğu gözetmesi gerektiğine vurgu yapan Gümrükçüoğlu, üst kuruluşların, yetkili mercilerin ve hükümetlerin de kullanılan verilerde etik ihlali yapılmadığına özellikle dikkat etmesi gerektiğini söyledi.

Gümrükçüoğlu, özellikle Avrupa Birliği'nin (AB) bu alanda düzenleme ve uygulanma yönünde hukuki çalışmalar başlattığını, yapay zeka ve verilerin korunmasıyla ilgili hazırlanan tüzüğün bu sistemlerin kullanımına düzenleme getirmeye çalıştığını, Türkiye'nin de buna uyum sağlamaya çalıştığını dile getirerek, şöyle devam etti:

"Şu anda AB yaptığı için ve tek yasal düzenleme o olduğu için bunu örnek verebiliriz. AB, tüzüğünde iş ilanları, iş başvuruları, bir kişinin tercih edilmesi, adayların değerlendirilmesi ya da iş ilişkilerinin sona erdirilmesinde yapay zekanın kullanımını yüksek riskli ilan etti. Bu da demek oluyor ki çok daha sıkı bir denetimden geçirilecek bu mekanizmalar. Türkiye için de bunu düşünebiliriz. Bizim ekonomik olarak en fazla sıkı ilişkiler içinde olduğumuz ülkeler AB ülkeleri. Bu nedenle pek çok alanda mevzuata uyum sağlamaya çalışıyoruz."

Algoritmik ayrımcılığın önlenmesinde kişisel önlem alınamayacağına işaret eden Gümrükçüoğlu, ülkelerdeki denetleme kurumları ile uluslararası kuruluşlar haricinde bunu küresel bazda düzenleyebilecek bir sistemin henüz bulunmadığının altını çizdi.

Gümrükçüoğlu, sözlerini şöyle tamamladı:

"Algoritmalar, kişisel alanımız olarak bildiğimiz yerlerden besleniyor. Yaptığımız tüm paylaşımlar aslında eğer yeterli koruma geliştirilmezse bu şirketlerin eline geçebiliyor. Bizi değerlendirmede, bir kriter olarak görülebiliyor. Siz belki çok kişisel veya özel olarak gördüğünüz veya inancınıza ilişkin bir paylaşım yaptığınızda burada, bunlar ele geçmeyecek veriler değil. Sadece özgeçmişlerimizle (CV) değerlendirilmiyoruz. Bu maalesef Türkiye'de de böyle. Pek çok şirket sosyal medya üzerinden ilk taramalarını gerçekleştiriyor. O yüzden bireysel olarak yaptığımız paylaşımların iş hayatını, kariyerimizi de etkileyen paylaşımlar olduğunu unutmamak gerekiyor. Bu anlamda dünyada önemli gelişmeler de var, algoritmaların daha şeffaf ve hesap verilebilir olarak programlanmasına ihtiyaç var. Bu da bir seçim meselesi. Yapay zeka hızlıca gelişsin ve her gelişmeye her şarta ayak uyduralım mı diyeceğiz, yoksa etik çerçevede ilerleyelim, yavaş ilerleyelim mi diyeceğiz. Bunu ilerleyen dönemde göreceğiz."