Algoritmaların manipülasyonu yapay zekânın tarafsızlığını zayıflatıyor

MDN İstanbul

Yapay zekâ algoritmaları ve bu teknolojiyi kullanan platformlar, kendisini oluşturanlar tarafından kolaylıkla manipüle edilerek siyasi konular başta olmak üzere birçok alanda yönlendirilebiliyor

Yapay zekâ sistemleri son dönemdeki yanlı tutumlarıyla gündemde.

Meta’nın yapay zekâ aracı Meta AI, Cumhuriyetçi Partiden başkanlık için yarışan eski ABD Başkanı Donald Trump’a yönelik suikast girişimiyle ilgili bilgi talebine cevap vermedi. Buna karşılık başkan adayı olması beklenen ABD Başkan Yardımcısı Kamala Harris’in seçim kampanyasına dair bilgi vermesi istenildiğinde ise detaylı bilgiler paylaştı. Ayrıca Google da çeşitli arama önerilerinde Trump’a yer vermedi.

Öte yandan sosyal medya platformlarındaki bazı içerikler de yapay zekâ tabanlı sistemler kullanılarak sistemden kaldırılıyor. Örneğin, İran’ın başkenti Tahran’da suikasta uğrayan Hamas Siyasi Büro Başkanı İsmail Heniyye için Facebook ve Instagram’da yapılan paylaşımların birçoğu kullanım politikalarını ihlâl ettiği gerekçesiyle kaldırıldı.

Daha önce de Facebook’ta Filistin hakkında içerik paylaşan hesap ve sayfaların, kullanım koşullarını ihlâl ettiği gerekçesiyle kapatıldığı, Filistin’i savunan paylaşımların yapılmasının engellendiği de gündeme gelmişti.

“Yapay zekâ bugün Trump’ı önermiyor, bu durum yarın başka bir isim için yaşanabilir”

Yapay zekâ ve siber güvenlik uzmanı, Pavo Siber Güvenlik Yönetici Direktörü Sercan Okur, yapay zekâ algoritmalarının ayrımcı tutumuna ilişkin bilgi verdi.

Yapay zekâ modelleri oluşturulurken mühendisliğin yanı sıra paylaşılan içeriklerin profillenmesi için profil uzmanlarıyla da yakından çalışıldığını anlatan Okur, “Bu modellerin yönlendirilmesi oldukça mümkün. Algoritmayı oluşturan arkadaki aklın, algoritmayı kullananları nereye doğru yönlendirmek istediğiyle ilgili bir durum. Örneğin yapay zekâ bugün Trump’ı önermiyor, bu durum yarın başka bir isim için yaşanabilir. Trump’ı öne çıkarıp, Kamala Harris’e dair içerikleri geride bırakabilir” diye konuştu.

Okur, yapay zekânın kendisini oluşturanlar tarafından yönlendirilebildiğine dikkati çekerek, şunları kaydetti:

“Yapay zekâyı çocuk yetiştirme sürecine benzetebiliriz. Örneğin bir anne baba, çocuğunu etik çerçevede yetiştirirken, bir diğeri toplumsal ahlak kurallarına dikkat etmeden yetiştirebilir. Her yapay zekâ modelinin arkasında bir şirket var ve bu modeller kolaylıkla manipüle edilebilir.”

“Kapalı kutu algoritmalar manipülasyona açık, açık kaynak kodlu yapay zekâ projeleri daha şeffaf”

Okur, yapay zekâ araçlarının genellikle şeffaf olmadığını belirterek, “Açık kaynak kodlu yapay zekâ projeleri daha şeffaf. Bu projelerde bağımsız denetmenler kodları inceleyebiliyor, kodun herhangi bir yerinde manipülasyon varsa kolay bir şekilde ifşa olabiliyor” ifadesini kullandı.

Kapalı kutu algoritmaların ise tamamen manipülasyona açık olduğunu anlatan Okur, bu algoritmaların siyasi, finansal her türlü amaç için kullanılabileceğinin altını çizdi.

Okur, Avrupa Birliği’nde yapay zekânın etik kullanımına yönelik yasanın olduğuna işaret ederek, “ABD’de buna benzer çalışmalar var. Şu anda yapay zekâ kolaylıkla manipüle edilebilir çünkü bağımsız denetim konusunda bir pratik yok” dedi.

Yapay zekâ etik bir şekilde kullanılırsa toplumsal fayda sağlayabilir

Okur, son dönemde Filistin ile ilgili paylaşımların sosyal medya platformlarından kaldırılmasına yönelik olarak, paylaşım kaldırma sürecinin otomatize edilmiş bir yapısı olduğunu söyledi.

Milyarlarca paylaşım arasından, içinde Filistin geçen bütün paylaşımların silinmesi komutunun verilemeyeceğini anlatan Okur, bu komutun verilmesi hâlinde içinde Filistin geçen, kaldırılmak istenmeyen paylaşımların da silinebileceğini belirtti.

Okur, içeriklerin kaldırılması sürecinde duygu analizinin önem taşıdığına değinerek, sözlerini şöyle sürdürdü:

“Filistin’i öven ya da eleştiren bir paylaşım mı olduğunu, içeriğin kategorize edilmesini, yapay zekâ ile sağlıyorlar. İçeriğin duygularını skorlayan algoritmalar var. Yapay zekâ tüm içerikleri tarıyor, sınıflandırmasını yapıyor. Yapay zekâyı yöneten kurum, Filistin’le ilgili pozitif paylaşımları otomatik sil diyebilir. Böylece sadece Filistin’e destek veren paylaşımlar kaldırılmış olur. Bu noktada arka planda yapay zekâ kullanılıyor.”

Yapay zekânın bir araç olduğunu ve bu araca ne yapması gerektiğini onu yöneten insanların söylediğini aktaran Okur, “Yapay zekâ destekli bu araçlar uygunsuz içeriklerin, dolandırıcılık amaçlı paylaşımların kaldırılmasında da etkin şekilde kullanılıyor. Yapay zekâ etik bir şekilde kullanıldığında toplumsal bir fayda oluşturuluyor” dedi.

AA

İlginizi çekebilir:

Avrupa Birliği’nin “Yapay Zekâ Yasası” yürürlüğe girdi

Bunu Paylaşın