TBMM Yapay Zeka Araştırma Komisyonu toplantısında sunum yapan ABD merkezli Yapay Zeka ve Dijital Politika Merkezi Başkanı Merve Hickok, yapay zeka teknolojilerinin ayrımcı kararlar verebildiğine dair çarpıcı uyarılarda bulundu. Sistemlerin özellikle kadınlar, yaşlılar, engelliler ile etnik ve dini azınlıklar gibi gruplara karşı önyargılı tutumlar sergilediğini belirten Hickok, bu durumun güvenlik ve sağlık gibi kritik alanlarda büyük riskler barındırdığını ifade etti.
Yapay zeka sistemlerinde sistematik önyargı uyarısı
Merve Hickok, yapay zeka sistemlerinin insan hayatının hemen her alanına nüfuz ettiğini, bu nedenle bu sistemlerin hukuki çerçeveye uygun ve etik sorumluluklarla geliştirilmesi gerektiğini vurguladı. Sistemlerin potansiyel faydalarının altını çizen Hickok, teknolojinin faydalarının toplumun geneline yansıyabilmesi için doğru anlaşılması gerektiğini kaydetti.
Özellikle yüz tanıma teknolojilerinde görülen hatalara dikkat çeken Hickok, “Yapay zeka sistemleri, yüz tanıma sistemleri koyu tenli insanlar için halen büyük hatalar yapmaya eğilimli ve bu durum anlaşılmadığı için güvenlik kuvvetleri tarafından kullanıldığında insanların haksız yere tutuklanmasına yol açabiliyor” dedi. Sağlık sektöründe de kontrolsüz yapay zeka kullanımının hasta tedavilerinde ciddi tanı farklılıklarına neden olabileceğini belirtti.
Kamu uygulamalarında yaşanan örnekler endişe veriyor
Hickok, yapay zekanın kamu alanındaki kullanımına dair örnekler vererek, yanlış algoritmaların büyük mağduriyetlere yol açabildiğini ifade etti. Hollanda’da yaşanan bir skandala değinerek, “Hollanda Vergi Kurumu tarafından kullanılan bir algoritma binlerce insanı, ağırlıkla göçmenleri yanlışlıkla vergi kaçakçısı olarak işaretledi. Binlerce insan bu nedenle iflas etti, aileleri parçalandı ve bu skandal sonunda Hollanda Hükümetinin de istifasına kadar gitti” bilgisini paylaştı. Benzer sorunların ABD, Avustralya, İsveç ve Fransa gibi ülkelerdeki kamu kurumlarında da yaşandığını aktardı.
Üretken yapay zeka sistemlerinin sınırları
ChatGPT gibi üretken yapay zeka sistemlerinin çalışma prensiplerine de değinen Merve Hickok, bu sistemlerin verdikleri cevapların bir bilinçle değil, yalnızca istatistiksel tahminlerle oluşturulduğunu ifade etti. “Sistem verdiği cevabın anlamını, sonuçlarını ya da konunun genel anlamını biz insanlar gibi anlayabilecek bir noktada değil” diyen Hickok, mevcut teknik altyapıyla yapay zekanın bilinç kazanmasının mümkün olmadığını savundu.
Bazı teknolojilerin yasaklanması gerektiğini belirtti
Bazı yapay zeka uygulamalarının tamamen yasaklanması gerektiğini savunan Hickok, “Yüz, göz, parmak, yürüyüş şekli veya politik, sosyoekonomik, dini ya da kimlikleri ile ilgili kararlar verebilen sistemler” üzerinde durdu. Özellikle Çin’de Uygur vatandaşlar üzerinde kullanılan “biometric categorisation” sistemlerine ve duyguları analiz etmeye çalışan “emotion analysis” teknolojilerine dikkat çekti.
Bu tür sistemlerin bilimsel bir temelden yoksun olduğunu vurgulayan Hickok, hem şirketlerin hem de bazı devletlerin bu araçları kötü niyetle kullanabileceğini belirtti. Avrupa Birliği’nin bu sistemleri yasakladığını, UNESCO tavsiyelerinde de benzer yaklaşımların yer aldığını ifade etti. Uluslararası ölçekte yapay zeka sistemlerinin sınırlandırılması konusunda bir anlayış birliğinin oluştuğunu belirterek, bunun önemli bir gelişme olduğunu söyledi.