Yapay zekanın hayatımıza hızla girmesiyle birlikte, bu teknolojinin eşitsizliklere yol açabileceği endişesi de giderek artıyor. Özellikle büyük şirketlerin yapay zeka sistemlerinde ayrımcılık yaptığı iddiaları, konunun önemini bir kez daha gözler önüne serdi.
Yeditepe Üniversitesi Hukuk Fakültesi öğretim üyesi Prof. Dr. Mehmet Rıfat Tınç, yapay zekanın ayrımcılıktaki rolünü değerlendirdi ve Türkiye ile dünyada bu konuda alınan önlemleri ele aldı.
Yapay zeka algoritmalarının, cinsiyet, yaş, köken gibi kişisel özelliklere dayalı olarak ayrımcılık yapabileceğini belirten Prof. Dr. Tınç, “Teknolojik bir nesnenin ayrımcılık yapması, onu hukuki açıdan bir suç aletine dönüştürebilir. Bu nedenle yapay zekanın nasıl ve neden ayrımcılık yapabileceğini anlamak büyük önem taşıyor” dedi.
Algoritmaların hukuk bilgisi ve toplumsal görgüsü olmadığı için ayrımcılık yapma ihtimali bulunduğunu vurgulayan Tınç, sözlerini şöyle sürdürdü:
“Hatta bir yazılım, hukuk mantığını tamamen benimsemiş olsa bile, ayrımcılık iddialarıyla yargıya taşınacak tartışmalar kaçınılmaz olacaktır. Çünkü ne yazılımlar ne de robotlar, toplumun ve hukukun gelişimini durdurabilir.”
“Hukukçular Çözüm Üretmeli”
Prof. Dr. Mehmet Rıfat Tınç, bu durumda özellikle hukukçuların, yapay zeka ayrımcılığının ortaya çıkaracağı yeni ve kritik sorulara yanıtlar üretmesi gerektiğinin altını çizdi. Prof. Dr. Tınç’a göre yapay zeka, iki farklı şekilde ayrımcılık yapabilir:
Aritmetik Ayrımcılık: Aynı durumda olan kişilere farklı muamele yapılması. Örneğin, aynı iş için aynı performansı gösteren iki kişinin farklı ücret alması.
Geometrik Ayrımcılık: Farklı durumda olan kişilere aynı muamele yapılması. Örneğin, bir sınavda engelli bir kişiye diğerleriyle aynı sürenin verilmesi.”
“Yapay Zeka Hukuk ve Toplum Karşısında Demode Kalabilir”
“Algoritmalar, insanlar gibi ahlâk sahibi olamazlar.” ifadelerini kullanan Tınç, şöyle devam etti:
“Kendilerine dayatılan ahlâk kurallarının dışına çıkamazlar ya da kendi kendilerine bu kuralları geliştiremezler. Dolayısıyla, yapay zekanın mutlaka dışarıdan müdahaleye, insan eliyle revize edilmeye ve güncellenmeye açık olması gerekir. Müdahale edemediğimiz, revize edemediğimiz ve sadece kendi kendini geliştiren bir yapay zeka, ileride istemediğimiz sonuçlar doğurabilir. Bir süre sonra bizi ilerletmek yerine geriletebilir ya da ahlâk anlayışımızın ve bilinç yapımızın gerisinde kalabilir. Bu nedenle, Avrupa ve Japonya’da olduğu gibi, yapay zekanın yol açabileceği hatalar ve suçlar için mevzuatımızda yeni düzenlemeler yapılması gerekecektir.”
Sorumluluk Kimde?
Yapay zekanın bir hukuk kişisi olmaması, sorumluluğun belirlenmesini zorlaştırıyor. Prof. Dr. Tınç, yapay zekayı geliştiren ve kullanan şirketler ile kişilerin, bu teknolojinin yol açtığı zararlar için sorumlu tutulabileceğini vurguladı.
Ayrıca, yapay zekanın ayrımcılık yapmasını önlemek amacıyla şu tedbirlerin alınabileceğini belirtti:
• Algoritmik Önlemler: Algoritmaların düzenli olarak denetlenmesi ve önyargıların giderilmesi. Yazılımlarda sistematikleşme eğilimlerine karşı güncellemeler ve düzeltici formüllerin zorunlu kılınması.
• Kurumsal Önlemler: Yapay zekayı kullanan kurumların belirli aralıklarla denetlenmesi.
• İnsani Önlemler: Yapay zeka sistemlerinin insan denetimi altında tutulması. Örneğin, bir yapay zeka şikâyet birimi ya da “Yapay Zeka Adliyesi” oluşturulabilir.
Tınç, hâlihazırda bilişim suçlarıyla ilgilenen özel yetkili kurumlarımızın mevcut olduğunu hatırlatarak, yapay zeka mağdurlarının da destek alabileceği adli kurumların kurulabileceğini ifade etti.
AB’nin Yaklaşımı
Avrupa Birliği’nin yapay zeka ile ilgili hazırladığı mevzuatın 2 Ağustos 2026 tarihinde tamamen yürürlüğe gireceğini anımsatan Tınç, AB’nin de bu konuda aldığı önlemlerin oldukça yeni olduğuna dikkat çekti.
Prof. Dr. Mehmet Rıfat Tınç, şu değerlendirmelerde bulundu:
“Yapay zekanın sunduğu fırsatların yanı sıra, ayrımcılık gibi ciddi riskleri de bulunuyor. Bu riski minimize etmek için hukuki, teknik ve toplumsal düzeyde önlemler alınması gerekiyor. Yapay zekanın insanlığa hizmet etmesi için etik ve adil bir şekilde geliştirilmesi ve kullanılması büyük önem taşıyor.”