Dijital Leviathan: Yapay zeka

Ali Osman Özdemir/ Yazar
27.11.2024

Yapay zeka, Thomas Hobbes'un “Leviathan” metaforunda olduğu gibi, toplumun üzerinde yükselen devasa bir güç olarak görülebilir. Kendi başına bir otorite hâline gelme potansiyeline sahiptir. Stephen Hawking ve Elon Musk'ın uyarılarında dile getirildiği gibi, yapay zekanın kendi kendini geliştirme yeteneği, onun kontrol edilemez bir Leviathan'a dönüşme riskini taşır.


Dijital Leviathan: Yapay zeka

Ali Osman Özdemir/ Yazar

Yapay zeka, bugün yalnızca teknolojik bir yenilik değil, aynı zamanda modern siyaset için güçlü bir dönüştürücü kuvvet. Ancak bu dönüşümün parlak yüzü kadar karanlık tarafları da dikkatle incelenmeyi hak ediyor. Her büyük dönüşüm gibi, yapay zeka da insanlık için hem fırsatlar hem de tehditler barındırıyor.

Yapay zekanın potansiyeli büyüleyici ama aynı zamanda tedirgin edici. Stephen Hawking 2014 yılında yapay zekaya dair endişelerini dile getirmiş ve "Yapay zekanın gelişmesi, insan ırkının sonunu getirebilir" diyerek yapay zekanın kendi başına hareket edebilme ve hızla kendini yeniden tasarlayabilme potansiyelinin tehlikelerine dikkat çekmişti. Bu görüşü paylaşan Elon Musk ise yapay zekanın "en büyük varoluşsal tehlike" olduğunu belirterek bu teknolojinin kontrol edilemez hâle gelebileceği konusunda uyarıda bulunmuştu. Bu uyarılar, bir soruyu akla getiriyor: Yapay zeka, gerçekten de insanın kendi elleriyle beslediği bir canavara dönüşebilir mi?

Yapay zeka, Thomas Hobbes'un "Leviathan" metaforunda olduğu gibi, toplumun üzerinde yükselen devasa bir güç olarak görülebilir. Kendi başına bir otorite hâline gelme potansiyeline sahiptir. Stephen Hawking ve Elon Musk'ın uyarılarında dile getirildiği gibi, yapay zekanın kendi kendini geliştirme yeteneği, onun kontrol edilemez bir Leviathan'a dönüşme riskini taşır. Bu, bireylerin hatta devletlerin iradesinin, hızla büyüyen ve bağımsız kararlar alabilen bir yapay otoritenin gölgesinde kalabileceğini gösterir. Eğer bu otoriteyi denetlemek için etik ve yasal çerçeveler oluşturulmazsa yapay zekanın insanlık için bir düzen sağlayıcıdan çok, bir tehdit unsuru hâline gelmesi kaçınılmaz olacaktır.

Yapay zekanın gölgesinde günden güne değişiklik gösteren siyasette de bu "canavar"ın olumsuz etkilerinden somut bir şekilde bahsedebilmek mümkün. Bu etkileri analiz edebilmek için, yapay zeka teknolojisinin siyasette nasıl kullanıldığına ve bu kullanımın sonuçlarına dair çeşitli örnekler vermek yerinde olacaktır.

Algoritmaların tahakkümü

Algoritmalar, siyasete karışan yapay zekanın en büyük silahlarından biri olarak tanımlanabilir. Seçmenlerin ilgisini çekebilecek içerik önerileri yapmakla kalmaz, aynı zamanda "öngörü iktidarlarını" da tesis edebilirler.

Algoritmalar tarafından sunulan içerikler kişisel tercihlere göre şekillense de bu süreç bireyin özne konumunu sarsar. Zamanla insanlar bilinçli tercihlerden ziyade, algoritmaların dayattığı tercihler arasında kalır. Algoritmaların, bireylerin seçimlerini şekillendiren gücü, bireyleri nesneleştirebilir; bireyin iradesini algoritmaların tahakkümü altına alabilir ve toplumsal katılımın kalitesini düşürebilir.

Az sayıda teknoloji firmasının elinde toplanan üretken yapay zeka araçları, siyasi bilgi ve içerik denetimi üzerinde büyük bir güç kurabilir. Yapay zekanın taraflı programlanması belirli siyasi grupları avantajlı kılarken diğerlerini dezavantajlı konuma getirebilir. Algoritmalardaki yanlılık, bazı grupların dışlanmasına yol açabilir. Bu durum önyargılar, içerik manipülasyonu ve toplumsal güvensizlik gibi sorunları tetikleyebilir. Üstelik eğer bir yapay zeka sistemi belirli çıkar gruplarının lehine programlanmışsa bu sistem "mançuryalı aday" gibi, dış güçlerin ya da çıkar gruplarının kontrol ettiği bir aktör hâline gelebilir.

ABD seçimleri

Özellikle "deepfake" teknolojisiyle üretilen sahte görüntü ve seslerin seçmen algısını yönlendirme gücü, bu teknolojinin bilinen en görünür etkilerinden biri olarak karşımıza çıkıyor. ABD seçimlerinde de yapay zekanın görünür etkisi daha çok bu yöntemle oldu. Bununla birlikte X platformunun sahibi Elon Musk'ın Trump'a açık destek vermesi ve platformun algoritmalarındaki yanlılığın, seçim sürecinde yapay zekanın manipülasyonuna zemin hazırladığı iddia ediliyor.

Queensland Teknoloji Üniversitesinden Timothy Graham ve Monash Üniversitesinden Mark Andrejevic'in gerçekleştirdiği bir araştırma, X'in algoritmalarının Cumhuriyetçi düşünceye sahip içerikleri öne çıkardığını ortaya koyuyor. Araştırma, Musk'ın Trump'a destek açıklamasının ardından Cumhuriyetçi hesapların görünürlüğünün belirgin şekilde arttığını, buna karşın Demokrat hesapların geri planda kaldığını belirtiyor. Bu durum, yapay zekanın seçmen davranışlarını şekillendirme gücünü kullanarak demokrasiye zarar verebileceğini kanıtlıyor.

Bu araştırmadaki örnekte de görüldüğü gibi seçmenin manipüle edilmesine ve kararlarının şekillenmesine ciddi etkileri olan yapay zeka, teknoloji şirketleri ve onları yönetenlerin siyasi otoritelerinin gücünü artırmalarına pek çok şekilde olanak sağlıyor. Siyasi otoritelerin yapay yollarla elde ettiği güç artarken halkın iradesiyle oynanıyor ve demokrasi günden güne zayıflıyor.

Boston Üniversitesinden Anne Danehy'nin analizine göre, bu süreç yalnızca manipülasyonla sınırlı kalmıyor; aynı zamanda yankı odaları meydana getirerek seçmenlerin inançları ve eylemleri daha fazla kutuplaştırılıyor. Bu yankı odaları, seçmenlerin yalnızca kendi görüşlerini pekiştiren içeriklere maruz kalmalarını sağlayarak öfkeyi artırıyor ve toplumsal bölünmeyi derinleştiriyor.

Filtre balonu ve yankı odası

Yapay zekanın en büyük silahlarından biri olan algoritmalar, bireylerin yalnızca kendi fikirlerini pekiştiren içeriklere maruz kalmasına neden olabilir. Bugün algoritmalar, kullanıcıların hangi içeriği göreceğini belirleyerek insanlara filtrelerinden süzülmüş bir dünya sunuyor. Eli Pariser'in "filtre balonu" olarak adlandırdığı bu süreç, bireyleri dar bir düşünce alanına sıkıştırarak farklı görüşlere erişimi kısıtlıyor. Pariser, algoritmaların kişiselleştirme işlemleriyle kullanıcıları kendi düşünce çemberine hapsedebileceğini ifade eder. Sosyal medya platformları bu izolasyonu daha da güçlendiren yankı odalarını besleyerek toplumsal kutuplaşmayı derinleştirir.

Yankı odası (echo chamber) kavramı, özellikle sosyal medya algoritmalarının etkisiyle bireylerin yalnızca kendi fikirlerini ve inançlarını doğrulayan içeriklere maruz kalmasını ifade eder. İnsanlar, sadece kendi görüşlerini pekiştiren bilgilerle karşılaşır.

Profesör Illah Nourbakhsh'ın da vurguladığı gibi, yankı odaları bireylerin bilgi edinme süreçlerini kısıtlayarak onları daha az bilgili hâle getirebilir. Sosyal medya platformlarında sürekli olarak belirli bir mesajı duymak, kullanıcıları yalnızca bu mesaj doğrultusunda oy vermeye yöneltebilir. Nourbakhsh'ın konferansında belirttiği gibi, bu yankı odalarının "yüksek duvarları" tüm manzarayı görmeyi engelleyebilir, bireylerin daha geniş ve dengeli bir perspektife ulaşmalarını zorlaştırabilir. Bu durum hem bireysel gelişimi hem de toplumsal diyalogu sınırlayabilir. Yalnızca kendi görüşlerimize uygun bilgileri tükettiğimiz bir ekosistem meydana getirir. İnsanların zihinlerinde gri alanlar kaybolur, böylece bireylerin dünya görüşleri daralır ve taraflılık keskinleşir.

Yankı odaları, "bilgi çağlayanı" olarak da adlandırılan bir süreci tetikler. İnsanlar tekrar tekrar aynı bilgilere maruz kaldıklarında bu bilgilerin doğruluğunu sorgulamadan kabul etme eğiliminde olurlar ve bu bilgiyi başkalarına yayarlar.

Astroturfing (herhangi bir konuda gündem oluşturmak için gerçek insan izlenimi veren sahte içerikler ile kalabalık meydana getirmek), yapay zeka teknolojisinin siyasi tercihler üzerinde baskı oluşturabilecek sonuçlarından bir diğeridir. Astroturfing gibi yöntemlerin yanıltıcı etkileri yapay zeka destekli kampanyalarla daha da güçlenebilir ve bu durum gerçek insanların sesini bastırabilir.

Dijital mağara

Gerçekler, algoritmaların sunduğu içeriklerin gölgesinde kaybolabilir. Mustafa Şen'in Eflatun'un mağara felsefesine atıf yaparak belirttiği üzere insanlar dijital bir mağarada gördüklerinin hakikat olduğuna inanacaklar. Fakat asıl hakikat, o mağaranın dışında olacak.

Algoritmaların siyasete, özellikle de seçim kampanyalarına böylesine hükmetmesi başka bir problemi de beraberinde getirir: Geleneksel siyasetteki insan temasının, yerini dijital mesajların soğuk algoritmalarına bırakması riski. Siyasette yeni yöntemlerin geleneksel yöntemlere nazaran ruhsuz olduğu düşünülüyor. Siyaset ve toplum arasındaki ilişkinin daha mekanik ve uzak hâle gelmesi, bu eksikliği hissettiriyor.

Ludizm

Yeni teknolojilerin olumsuz sonuçlarının yanı sıra toplumun nasıl tepki vereceği de önemlidir. Geçmişteki teknolojik dönüşümlere de çeşitli tepkiler ve protestolarla karşı çıkılmıştır. Bu manada akla ilk gelen Ludizm kavramıdır.

Rivayet odur ki Ludd adında biri, bir eve girerek içeride bulunan bütün dokuma makinelerini kırmıştı. Bu makineler, o güne dek el emeğine dayalı geçimini sağlayan işçileri bir çırpıda yerinden etmişti çünkü. Ludd onlara karşı bir nevi savaş açmıştı. O dönemde devletin şiddetle bastırma girişimleri dahi bu dalgayı durdurmaya yetmedi. Makine kırıcı eylemlere katılanların karşısına ölüm cezası bile bir tehdit olarak çıkarıldı; fakat 19.yüzyılda idam edilen işçiler olmasına rağmen makine kırıcı ve tahrip edici eylemlerin gelişmesi engellenemedi.

Yapay zeka dönüşümünden endişeli olan insanlar da birer Ludist gibi davranma eğilimi gösterebilirler... Fakat bu bir çözüm değil. Elbette mantığına ve kullanım biçimlerine çeşitli ahlaki sınırlamalar getirerek dünyayı yakalamak gerekli.