Selen Eren
Groningen Üniversitesi, Doktora Adayı, Bilim ve Teknoloji Çalışmaları
Güncel Teknolojiler ve Siyaset (V)
Güncel Teknolojiler ve Siyaset yazıları serimize Selen Eren’in büyük veri analitiği pratiklerinin insani ve insan-ötesi boyutlarını ele alan kapsamlı tartışmasıyla devam ediyoruz. Eren, Eylül 2019’da İstanbul Teknik Üniversitesi’nde düzenlenen STS Turkey 2019 Konferansı’nda sunduğu bildiriden yola çıkarak kaleme aldığı bu yazıda, yeni nesil büyük veri analitiği sistemlerinin ve onların yapıtaşlarını oluşturan algoritmaların ortaya çıkışıyla daha da görünür hale gelen modern demokrasilerin çıkmazlarından olası çıkış yollarının ‘insan’ ve ‘teknoloji’ tanımlarımızı güncellemekten geçtiğini söylüyor.
Mart 2020 itibariyle hayatımıza zorla girip yerleşen Covid-19, büyük veri analitiğinin hastalık bulaş takibi uygulamaları ve ilaç/aşı araştırma ve geliştirme bilgi altyapı sistemlerine entegrasyonunu da hızlandırdı. Söz konusu ileri teknoloji halk sağlığı ve yaşam bilimleri araştırmalarının çıktılarından ilk turda yerkürenin hangi toplumsal kesimlerinin faydalanacağı tartışıladursun, umuyoruz ki Eren’in bu yazıda yaptığı demokrasiyi agonistik terimlerle yeniden düşünme ve onun için mücadele etme çağrısı, Covid-19’un siyasal ve teknolojik boyutlarını farklı küresel ve yerel ölçeklerde yeni merceklerle inceleyecek çalışmalara ilham kaynağı olur.
Groningen Üniversitesi’nde Bilim ve Teknoloji Çalışmaları alanında, Bilgi Altyapıları araştırma biriminde doktora çalışmalarını sürdüren Selen Eren, aynı zamanda Kitle Kaynaklı Türkçe STS Ansiklopedisi iris’in kurucu üyelerinden.
2018’in ilk aylarından beri sıklıkla karşımıza çıkan ve teknoloji, toplum ve siyasetin birbirine dolandığı anları yansıtan haberler[1][2] dolayısıyla olsa gerek, artık “algoritma”, “büyük veri” ve “politika” terimleri bir arada düşünüldüğünde akla gelen başlıca sorulardan birinin şu olduğunu görüyorum: Büyük teknoloji şirketleri ya da bu teknolojileri kullanan devletler, algoritmik sistemler yoluyla kullanıcıları/vatandaşları ne raddeye kadar manipüle ediyor ve daha ne kadar edebilir? Kimi güç odaklarının algoritma ve büyük veri sistemlerini, toplumu kendi çıkarları doğrultusunda yönlendirme ve kontrol etme aracı olarak kullanıp kullanmadıklarının farklı kesimler tarafından çokça tartışılmakta olduğu doğrudur[3]. Dünyanın Covid-19 pandemisiyle uğraştığı bu son dönemde ‘bile’, hükümetlerin kullandığı ya da kullanmayı planladığı takip uygulamalarının, bireylerin konum bilgileri gibi özel verilerine erişim sağladığı için, kullanıcıların kişisel veri güvenliği ve temel insan hakları açısından ihlallere yol açabileceği; hatta bazı ülkelerde halihazırda var olan gözetim toplumu pratiklerini kullanıcıların gönüllü ya da zorunlu tutulan katılımlarıyla birlikte daha da güçlendirebileceği tartışılmakta.[4] Ancak ben bu yazıda, söz konusu terimlerin kesişiminde yer alan ve en az kitlelerin algoritmalar yoluyla anlamlandırılıp kontrol ve manipüle edilmesinin demokrasiye olan zararları meselesi kadar önem teşkil eden, ancak onun kadar dikkat çekmediğini düşündüğüm, başka bir meseleler kümesine odaklanmak istiyorum: politika yapımında kullanılan büyük veri analitiği, bunun demokrasiler için yarattığı düşünülen problemler ve bu problemler ile nasıl baş edebileceğimiz.

Politika yapımında kullanılan büyük veri analitiği kısaca, toplumların ne gibi politika düzenlemelerine ihtiyacı olduğunun algoritmalar kullanılarak tespit edilmesi şeklinde özetlenebilir. Politikalara uyarlanan algoritmik çıktıların -algoritmaların işleyiş yapısı gereği- barındırabileceği hataların ve/veya eksikliklerin demokratik temsil fikrine verebileceği zararların daha yüksek sesle ve daha etkili yollarla tartışılması gerektiğini düşünüyorum. Bu bağlamda, demokrasiyi algoritmik çıktılara duyulan orantısız güvenin yaratabileceği hasarlardan kurtarmak için, demokrasiyi yeniden tanımlamanın yollarını aramamız gerektiğini savunuyorum. Demokrasiyi yeniden tanımlamanın da, öncelikle ‘insan’ ve ‘teknoloji’lerin oynadığı rolleri sorgulamaktan, onları yeniden tanımlamaktan geçtiğini iddia ediyor ve algoritmik meslektaş kavramını da bu yeniden tanımlanması gereken roller/ilişkiler bağlamında öne sürüyorum.
Argümanımı gerekçelendirmeye başlamadan önce bir noktanın altını özellikle çizmek istiyorum. Bu yazıdaki derdim, algoritmalar geldi politika yapma şeklimiz, dolayısıyla da demokrasi pratiklerimiz değişti, haydi şimdi demokrasi teorilerimizi de buna göre yeniden düzenleyelim gibi bir öneri geliştirmek değil. Asıl savunduğum nokta, teorik demokrasi tanımlarımız ile demokrasilerin pratikte işleme şekillerinin zaten birbirine bugüne kadar hiç uymamış oluşu ve bu uyumsuzluğun da büyük veri analitiğinin demokratik politika yapımına katılımı ile iyice gün yüzüne çıkmış olduğudur. Başka bir deyişle, modern demokrasi teorilerinin[5] varsaydığı insan ve teknoloji tanımlarının, demokrasilerin bugüne kadar nasıl işlediğini açıklamakta yetersiz kaldığını savunuyorum. Buna rağmen, bugün büyük veri analitiğinin demokrasiler için yaratabileceği düşünülen problemleri, hala bu temeli sallanan demokrasi anlayışımız çerçevesinde çözmeye çalışmaktayız. İşte bu yazıda söz konusu yaklaşımın problemli olduğunu ve bizi beklenen çözüme götüremeyeceğini ileri sürüyorum. Bunun yerine, büyük veri analitiğinin yaratabileceği problemleri daha iyi kavramak ve ortaya çıkaracağı istenmeyen sonuçları daha etkili şekilde önleyebilmek için, öncelikle konvansiyonel insan ve teknoloji tanımlarımızı gözden geçirmemiz, pratikteki tezahürlerine daha yakın olacak şekilde yeniden düzenlememiz ve yeni demokrasi teorileri ve pratiklerini tartışmaya da bu yeni insan-teknoloji (ilişkisi) tanımlarıyla başlamamız gerektiğine inanıyorum.
Peki ama konvansiyonel insan ve teknoloji tanımlarımızı pratikteki tezahürlere göre yeniden düzenlemek de ne demek? Ayrıca modern demokrasi teorilerinin temeli neden sallanmakta olsun? Bu soruları cevaplayabilmek için öncelikle demokrasi teorilerinin bugüne kadar verili aldığı insan ve teknoloji tanımlarını sunmalı ve bu tanımların neden sorunlu olduğunu açıklamalıyım. Ardından geriye asıl cevaplanması gereken soru kalıyor: Eğer demokrasi teorilerinin temeli gerçekten problemli ise, büyük veri analitiğinin yaratabileceği potansiyel problemleri çözmek için nasıl bir demokrasiden bahsetmeliyiz? İşte bu yazıda Bilim ve Teknoloji Çalışmaları (BTÇ), günümüz teknoloji felsefesi ve siyaset felsefesindeki çatışmacı (agonistic) demokrasi tartışmalarını bir arada düşünerek bu soruları cevaplandırmak adına bir adım atacağım. Ancak bu sorulara geçmeden önce, mevcut demokratik rejimlerde politika yapımında kullanılan ya da kullanılması planlanan büyük veri analitiğini biraz daha yakından inceleyelim.
Politika yapımında kullanılan büyük veri analitiği: beklentiler, endişeler ve çözüm arayışları
Son dönemde yerel belediyeler ve farklı ulusal ya da uluslar-üstü kurumların etkili politikalar üretebilmek amacıyla, politikalarının hedefi olabilecek vatandaş grupları (ör: 65 yaş üstü vatandaşlar ya da öğrenciler) hakkında büyük veri tabanları oluşturduklarına tanık olmaktayız. Bunun sebebi, vatandaşlar hakkında toplanan büyük verilerin işlenmesi sonucu ortaya çıkan enformasyonları, politikalarının ‘bilimsel temeli’ olarak kullanmayı hedeflemeleridir.[6] Bu kullanıma verilebilecek en güncel örnek, yapay zeka sistemlerinin, SARS-COV-2 virüsünün yayılma hızını öngörmek ve yavaşlatmak amacıyla yöneticiler tarafından kullanılmasıdır. Bazı ülkelerin pandemiyi yönetirken ürettiği politikalar, takip uygulamaları ve merkezileştirilen sağlık veri altyapıları sayesinde tek elde toplanabilen büyük verilerin, yapay zeka sistemleri tarafından işlenmesi sonucu elde edilen çıktılar üzerine kurulmaya çalışılmaktadır.[7] Söz konusu büyük veri, çoğu zaman sadece insanın zihinsel emeğiyle işlenebilecek ölçekleri aştığından dolayı, beraberinde kendisini işleyecek algoritmaları, hatta kimi zaman yapay zekayı, gerektirmektedir. Böylece karşımıza büyük veri analitiği, yani kısaca büyük veri ve onları işlemek için kullanılan algoritmalar çıkmaktadır. Ancak kamu kurumlarının veriye/kanıta dayanan politika yapma yaklaşım ve pratikleri elbette ki emsalsiz olgular değil. Toplumun ihtiyaçlarını anlamak ve onlara uygun politikalar geliştirebilmek amacıyla, özel ya da kamu istatistik kurumlarıyla siyasilerin ve bürokratların işbirliğinin tarihi 19. Yüzyılın ilk yarısından başlatılabilir.[8] Bu bağlamda nihai amacın tarihsel süreklilik gösterdiğinin altını çizmek gerekir. Ancak kimilerine, olguları açıklamak için artık bilimin bile teorilere ve modellere ihtiyacı kalmamıştır dedirten, tarihte eşi görülmemiş miktarda ve çeşitlilikte verinin toplanabilme ve işlenebilme kapasitesi, söz konusu süreklilikte önemli bir kırılmaya da işaret eder.[9]

Büyük veri analitiğini üreten/sağlayan firmaların söylemlerinde ya da bu konuyla ilgilenen Kamu Yönetimi literatüründeki kaynaklarda, belirli bir olgu hakkında (ör: “gençler” arasındaki “suç” eğilimi) toplanabilecek tüm verilerin, algoritmalar tarafından insanlara nazaran daha anlamlı sonuçlar çıkaracak şekilde işlenebileceği iddia edilmektedir.[10] Burada veri işlenmesinden kastım, bir olgu hakkında toplanan verilerden yola çıkarak o olgunun ortaya çıkmasına katkıda bulunan farklı ilişkileri gösteren anlamlı örüntüler çıkartılması ve bunların enformasyonel çıktıya dönüştürülmesidir. Dolayısıyla, insanların algoritmalar yardımıyla, herhangi bir olgu hakkında, algoritma yardımı olmadan ulaşamayacağı düzeyde enformasyon yığınlarına ulaşabileceği iddia edilmektedir. Özellikle bu algoritmaları tasarlayan, üreten ve kullanımını sağlayan teknoloji şirketlerine göre veri analitiği, ortaya çıkardığı toplumsal olgu örüntüleri ve ilgili kanıtlar açısından kamu politikası yapım süreçlerinde başvurulacak en güvenilir araçlardır.[11]
Büyük veri analitiği destekli politikaların, konvansiyonel veri setlerinden edinilen enformasyona dayanan klasik politikalara göre çok daha etkili, verimli ve meşru görülmesinin[12] en önemli nedeni, konvansiyonel veri setlerinin insanlar tarafından işlenmesi sürecinin “politik” ya da “yanlı” olmaktan kurtulamayacağı iddiasıdır.[13] Kısacası bir grup araştırmacıya göre, veri setlerini insanlar işler ve anlamlı bilgi kümelerine çevirirken elde edilen sonuçlar her şekilde yanlı kalmaya mahkûmken aynı verileri algoritmalar işliyorsa elde edilen sonuçlar nötrdür.
Eleştirel Veri Çalışmaları (Critical Data Studies) alanında algoritmalar üzerine çalışan başka sosyal bilimcilerin yayınlarını incelediğimizde ise farklı bir tablo ile karşılaşırız. Bu araştırmacılara göre, algoritma destekli karar alma mekanizmalarındaki en büyük problemi yanlı veriler (baised data) teşkil etmektedir. Dolayısıyla yanlı veri ile beslenmiş algoritmalar kullanılarak üretilmiş politikalar da öncelikle bazı meşruiyet problemlerinin ortaya çıkmasına sebep olurlar, çünkü politikaların dayandığı temellerin, yani kanıtların, sağlam olmadığı iddia edilir.[14]
Bu tarz karar alma mekanizmalarıyla ilgili bir başka mesele de, dayandıkları algoritmaların kara kutulara (black box) benzetilmesidir. Kara kutu benzetmesinin yapılmasının nedeni, komplike algoritmaların, girdi olarak aldığı verileri nasıl işlediğinin, yani verilerdeki ilişki örüntülerini nasıl belirlediğinin, algoritmaları tasarlayanlar tarafından bile tam olarak anlaşılamamasıdır. Literatürde bu durum algoritmalara içkin opaklık (intrinsic opacity) olarak adlandırılmıştır.[15] Algoritma destekli politikaların içerdiği problemlerin nedenlerinin belirlenemediği durumlarda ise siyasetçiler için hesap verilebilirlik (accountability) problemi doğacağı tartışılan konular arasındadır.[16] Son olarak, geliştirilen politikaların dayandırılacağı algoritmik çıktıların rasyonelliğinin –yine algoritmaların kara kutuya benzetilen çalışma şekli sebebiyle- değerlendirilemediği durumlarda ise, siyasetçilerin karar alma süreçlerinin rasyonelliği tartışmaya açılabilir.
Bu ve benzeri endişeleri dile getiren araştırmacılar, algoritmaların, demokrasilerin işleyişi özelinde sebep olabilecekleri sorunların önüne geçmenin yollarını ararken çoğunlukla şu soru etrafında dolanmaktadırlar: Bu algoritmalar ve veriler ne şekilde yeniden tasarlanmalı ki, çıktılar meşruiyet, hesap verilebilir ve rasyonellik gibi demokratik değerlere uygun olsun?
Demokrasiyi söz konusu tehditlerden korumak için, bu soruya karşı sunulan cevapların da büyük oranda tek bir “reçeteye” odaklandığını söyleyebiliriz: Algoritmaların şeffaflığının arttırılması ve böylece algoritmaların beslendiği verilerin problemlerinin tespit edilip düzeltilmesi.[17] Çünkü algoritma tasarım, deneme ve uygulama süreçleri ne kadar şeffaflaşırsa, bu algoritmaları kullanan siyasetçilerin hesap verebilirliklerinin de o kadar artacağı düşünülmektedir. Bununla birlikte şeffaflaşan süreçte görünür kılınan yanlı verilerin düzeltilmesiyle de bu verilere dayanan politikaların meşruiyetinin artacağı öngörülmektedir.
İyi de burada problem nedir, diye sorabilirsiniz. Problem, bu endişelerin ve çözüm önerilerinin altında yatan insan ve teknoloji tanımlarına dair varsayımlar. Eleştirel Veri Çalışmaları alanında karşılaştığım argümanlar her ne kadar kulağa makul gelse de, hem ilgilenilen soru hem de bu soruya verilen cevaplar aslında en az üç farklı varsayım üzerine kurulu:
- Genelde, insanın, insan ve insan-ötesinde (more-than-human) olan her şeye egemen olabildiği, dolayısıyla çevresini kendi amaçları ve ihtiyaçları doğrultusunda şekillendirip yönetmeye muktedir olduğu; özelde ise insanların, algoritma denen kara kutu bir kere açıldığında, kutuda buldukları problemlerin hemen hepsini çözebileceği ve algoritmaları söz konusu demokratik değerlere göre yeniden düzenleyebileceği.
- Algoritmalar söz konusu “demokratik değerler” doğrultusunda düzenlendikten sonra, insanların en ideal (yani en meşru ve rasyonel) politikaları üretebileceği.
- “Demokratik değerler”in, tarihsel olayların akışına rağmen sabit kalan ve tüm toplumsal grupların üzerinde büyük ölçüde anlaşmaya vardığı evrensel tanımları olan değerler olduğu.
Bu üç varsayımda da, toplum ve teknoloji arasındaki dinamiklerin, geçerliliği ilgili araştırmacılar tarafından sorgulanan, araçsalcı bakış açısı ile tanımlandığı görülmektedir.[18] İşte, Eleştirel Veri Çalışmaları alanından araştırmacılar, büyük veri analitiği ve demokrasi ilişkisini, geçerliliği tartışmaya açılmış araçsalcı insan ve teknoloji tanımları etrafında analiz etmekle kalmamış, aynı zamanda bu ilişkinin kötüye giden kısımlarını da yine bu tartışmalı tanımları verili kabul eden reçetelerle onarmaya çalışmışlardır.
Modern demokrasi teorilerinde insan ve teknoloji: araçsalcı yaklaşımlar ve problemleri
Daha önce de bahsettiğim gibi, kanıta dayalı politika yaklaşımına göre algoritmalar, politika yapıcıların hizmetindeki nötr enformasyon sağlayıcısı, dolayısıyla da kamu menfaatini arttırmaya yarayan araçlar olarak görülmektedir. Bu durum, güncel teknoloji felsefesi literatüründe araçsalcılık olarak tanımlanan yaklaşıma bir örnek olarak verilebilir; çünkü bu yaklaşıma göre teknolojiler insanların ihtiyaçları doğrultusunda şekillenen ve bu ihtiyaçlara hizmet eden nötr enstrümanlardan ibarettir. Bununla birlikte araçsalcı yaklaşımlar, kültür/insan/özne ile doğa/şeyler/nesne kategorilerini verili kabul edip, onları keskin sınır çizgileriyle birbirinden ayırırken, ilk grubu ikincinin tahakkümü altına alır.[19]
Bu özcü özne/nesne ikiliği aslında Hans Harbers ve Marcus Popkema’ya göre modern teorilerin altında yatan temel mantıklardan biridir.[20] Bana göre, modern teorilerden biri olan demokrasi teorileri de bu ikilik üreten mantıktan azade değildir. Demokrasi teorilerinin, özne/nesne ikiliğini kabul ettiği ya da araçsalcı yönelimler sonucu inşa edildiğine dair en önemli gösterge, kültüre/politikaya ait olan ne varsa bunları teknolojilerle ya da nesnelerle aynı tarafta tahayyül edememesidir. Bir başka deyişle, teknolojilerin ya da nesnelerin insanlar gibi politik bir özne olabileceğini savunmak, modern demokrasi teorileri için makul bir argüman değildir.
Örneğin siyaset felsefesi, müzakereci demokrasi literatüründe politik edim, sadece özerk ve rasyonel insanlara bahşedilmiştir; çünkü sadece insanların politik ve ahlaki özne olarak çevresini anlamlı bir şekilde değiştirip dönüştürebileceği düşünülür.[21] Bununla birlikte, teknolojiler sadece insanların mümkün olan en iyi yaşam idealine ulaşmak için belirlediği amaçlar doğrultusunda şekil verilmeyi ve hizmet etmeyi bekleyen pasif araçlardır. Dolayısıyla klasik ve modern dönem demokrasi teorileri literatüründe, teknolojilere şekil veren insanların/değerlerin, aynı teknolojiler tarafından karşılıklı dönüştürülebileceği göz önünde bulundurulmaz.
İşte demokrasileri algoritmaların tehditlerinden korumak maksadıyla önerilen reçetelerde de, insanlar ve nesneler araçsalcı ve modern yaklaşımlar üzerinden tanımlanmıştır. Ancak bir grup Bilim ve Teknoloji Çalışmaları (BTÇ) araştırmacısı[22], bu yaklaşımların insanlar ile nesneleri özcü saiklerle birbirinden ayırıp onları dikotomik kategorilerle tanımlamasına şiddetle karşı çıkar ve ikisi arasındaki ayrımın net hatlarla çizilemeyeceğini vurgular. Mark Coeckelbergh’in “insan” yerine kullandığı, teknolojiler-tarafından-şekillendirilmiş/şekillenmekte-olan-insan (humans-as-already-shaped-by-technologies) terimi BTÇ bakış açısına örnek olarak gösterilebilir.[23] Özellikle terimin yazılışında kullandığı tirelerle “insan” ve “teknoloji”yi kağıt üzerinde bile bütünleştirmeye çalışması dikkat çekicidir.
Ayrıca, BTÇ araştırmacılarına göre teknolojiler, insanların amaçları doğrultusunda şekil alan ve üretilme amaçlarını birebir temsil eden nötr araçlar değildirler; aksine o amaçların yeniden üretilmesi süreçlerine bizzat birer özne olarak katılırlar.[24] Yani insanlar teknolojilere şekil verirken, teknolojiler de bir yandan insanlara ve onların olgularına/değerlerine şekil vermektedirler. Bu önermeyi doğru kabul ettiğimizde şu noktaya varırız: Bu yazının konusu olan politika yapımında kullanılan algoritmalar da, bize olguların fotoğrafını objektif bir şekilde çekip vermez; aksine olguların oluşumuna katılır, yani onları belli bir çerçeveden göstererek var ederler. Bu önermeye paralel olarak, Coeckelbergh’e[25] göre politik değerler ve prensipler de, tıpkı arkadaşlık, aile ve benzeri toplumsal ilişkiler ve onlara dair değerler gibi, teknolojilerin etki alanından kurtulamaz. İşte bu sebeplerle, teknolojileri tasarlarken kılavuz alınması gerektiği söylenen, “meşruiyet”, “hesap verilebilirlik”, “rasyonellik” gibi “demokratik değerler” de verili alınmadan sorguya açılmalı, zamanla değişebilecekleri göz önüne alınmalı ve farklı sosyo-teknik bağlamlar içinde gerekirse aktif olarak yeniden tanımlanmalıdır.
Özetle, Bilim ve Teknoloji Çalışmaları ve günümüz teknoloji felsefesi literatüründeki bu argümanlar baz alındığında, politika yapımında kullanılan algoritmaları, insanların isteği doğrultusunda şekil almayı/hizmet etmeyi bekleyen pasif araçlar olarak değerlendirmek ve onları sadece yeniden tasarlayarak demokrasi için yaratabilecekleri problemleri çözeceğimizi iddia etmek pek makul bir çözüm olarak görünmemektedir. Çünkü bu süreçlerde kullanılan algoritmalar, tasarım altyapıları ne kadar kusursuz olursa olsun, kullanıcılarını sadece istediklerine ulaştıran nötr bir araç değil, asıl olarak kullanıcılarının isteklerinin ya da yönetmek istedikleri olguların (ör: “suç ve ceza” ya da “şehir” olgusu) oluşumunda etkin rol oynayan aktörler olacaklardır.
Algoritmalar ya da yapay zeka gibi görece kompleks “yüksek teknolojilere” (high tech) gelmeden, çok daha basit sayılabilecek sayılar, modeller ya da maketler gibi “düşük teknolojilerin” (low tech) bile “suç ve ceza” ya da “şehir” gibi olguların oluşumuna katıldığı iddiasını birkaç örnek ile somutlaştırmak isterim. Öncelikle olguları anlamlandırmak ve temsil etmek için kullandığımız araçların (sayı, bilgisayar, maket, model vb.), olguları ancak kendilerine özgü özelliklerin çerçevesinden tanımlayıp, teknolojik imkanları dolayımında[26] temsil edebildiğini gözden kaçırmamamız lazım. Örneğin “suç ve ceza” olgusunu, sadece nicel olarak yani sayılarla temsil etmeye çalıştığınızı var sayalım. Karşılaştığımız bir edimin bizde yarattığı acı/keder/rahatsızlık eşiğini sayılara indirgeyebildiğimiz pek söylenemez; dolayısıyla söz konusu nicel değerlendirmede bu olguyu denkleme alamayacaksınız. Böylece sayılara indirgeyemediğiniz olguların değişken faktör olabileceği başka olguları – örneğin hangi tarz acı/keder/rahatsızlık yaratan olgunun suç sayılıp ne kadar ceza alacağını – sayılarla temsil etmeye kalktığınızda, o temsilin hep bir eksik ya da fazla olduğunu hissetmeniz olasıdır. Çünkü eğer tüm değerlendirmeyi sayılar üzerinden yapacaksanız ve değerlendirmek için kullandığınız denklemde kimilerince önemli olabilecek bir faktörü sayı ile temsil edemiyorsanız, sonuç olarak elde ettiğiniz sayı istediğiniz olguyu sadece belli bir yönüyle (denkleme katabildiğiniz yani sayıya indirgeyebildiğiniz olgularla) temsil edebilecektir.
Daha da basit anlatmam gerekirse, aynı durum bir “şehri” maket ile temsil etmeye çalıştığınızda da ortaya çıkacaktır. İstanbul’u İstanbul yapan sadece makette gösterebildiğiniz binalar, insanlar, yollar, ağaçlar vb. midir? Yoksa bunların yanında, maketi yaparken kullandığınız malzemelerin maddi özelliklerini aşan deniz kokusu, korna sesleri, simitçi ve bozacıların sesleri, güvensizlik hissi vb. bir bütünü müdür? Maket, İstanbul imgesine kendi teknolojik imkanları sınırında belli bir şekil verirken, diğer olası tezahürlerini görünmez kılacaktır.
Ancak bu örneklerle, suç ve ceza olgusunun sayı ile ya da şehirlerin maket ile temsil edilmemesi gerektiğini savunmuyorum. Varmak istediğim nokta, olguları anlatırken ya da anlamlandırırken kullandığımız her bir metodun, o olguyu ancak kendi özellikleri çerçevesinde temsil edebildiği, yani kendi özellikleri ile o olgunun söz konusu tezahürüne katılacağıdır. Dolayısıyla, her bir metodun sınırları/çerçevesi vardır ve olacaktır. Önemli olan sınırlardan kurtulabileceğimiz illüzyonuna kapılmadan sınırların/çerçevenin farkında olmak, bir metot ile edindiğimiz olgu tezahürünü başka sınırları/çerçeveleri olan metotların ürünü tezahürlerle birlikte değerlendirebilmek ve gerektiğinde bu sınırlara eleştirel olabilmektir.
Bu bağlamda, algoritmalar da mümkün olan en iyi yaşamın gerektirdiği o en rasyonel ve en meşru politikaları üretmek için başvurulabilecek pasif araçlar, insanlar da çevrelerini sadece kendi istekleri doğrultusunda şekillendirmeye muktedir canlılar olmadığı gibi, demokrasiler de otonom insanların kendi çıkarları çevresinde belirlediği o en rasyonel en meşru yaşama söz konusu pasif araçları kullanarak ulaşmasını doğrudan kolaylaştırmaz. Peki o zaman insanları, algoritmaları ve demokrasiyi birbirleri ile olan bu ilişki içinde yeniden nasıl tanımlayabiliriz?

Algoritmik meslektaşlarla mümkün dünyaların oluşturulması, yıkılması ve yeniden oluşturulması
Yazı boyunca, politika yapımında kullanılan büyük veri analitiği demokrasi ile nasıl daha iyi ilişkilendirilmelidir sorusunu teknik bir soru olarak değerlendirdim ve soruyu cevaplarken de algoritmaları yeniden dizayn etmeye odaklanmanın neden bizi istenen sonuca tek başına götürmeyeceğini gerekçelendirdim. Sonuç olarak ise, aynı sorunun (ve tabii olası cevabının), sadece teknik değil, sosyo-teknik ya da tekno-politik bir mesele olarak ele alınması gerektiğini öne sürüyorum. Dolayısıyla, çözüm olarak algoritmaların “demokratik değerlere” daha uygun bir şekilde dizayn edilmesinin yanında, kılavuz kabul edilen bu değerlerin modern olmayan, yani özne/nesne ikiliği üzerinden kurulmayan[27], “insan-teknoloji” tanımları ile birlikte yeniden düzenlenmesi gerektiğini savunuyorum. Yani, siyasi toplulukların, algoritmalar gibi insan-ötesi öznelerden de oluştuğu kabul edildiğinde, pratikte ne tarz yeni demokrasi tahayyüllerinin ortaya çıkabileceği üzerine daha çok düşünmemiz gerekir, diyorum.
Böylesi bir çağrı, en azından iki güncel teorik perspektif ile desteklenip zenginleştirilebilir. İlk olarak, Harbers’ın demokrasiye olan yaklaşımını, modern demokrasi teorilerini sorgulamak için atılmış önemli adımlardan biri olarak görüyorum. Harbers’a göre politika ve demokrasi, modern demokrasi algısında sıkça karşılaştığımız gibi özgür bireylerin mümkün olan en iyi yaşama ulaşmak için kullandığı bir araç değil, aslında insan ve insanın-ötesinde olanlardan oluşan heterojen kolektiflerin alternatif dünyalar oluşturması, yıkması ve yeniden oluşturmasını mümkün kılan bir platformdur[28]. İkinci olarak, modern olmayan bir insan ve teknoloji algısı ile ulaşılabilecek yeni demokrasi formlarının pratikteki izdüşümleri üzerine düşünürken, Harbers’ın demokrasi algısı ile uyumlu olduğunu iddia ettiğim agonistik, yani çatışmacı demokrasi literatürünü önemli buluyorum[29]. Çünkü agonistik teoriye göre de demokrasi mümkün olan en iyi, en rasyonel ve en meşru yaşam biçim(ler)ine ulaşma aracı değil; birbirleriyle çatışan dünya görüşlerinin çoğaltıldığı ve onların bir arada var olabilmesini mümkün kılan bir platformdur.
Son olarak, yaptığım bu çağrının ateşini yakmak için gereken ilk odunları da ortaya atmak adına diyebilirim ki; algoritmalar, demokrasilerde, yani alternatif dünyalar oluşturulurken, yıkılırken ve yeniden oluşturulurken, politika yapıcıların ve vatandaşların, aynı kendileri gibi sorgulanabilir ve yanlışlanabilir birer meslektaşı olmaktan pek fazla ileri gidemezler. Dolayısıyla algoritmaların yeniden tasarlanması gibi teknik düzenlemelerin yanında, en az onun kadar önemli olan sosyo-teknik düzenlemelerin en başında, insan ve insan-ötesi olanlarla kurulan politik kolektifler içinde epistemik otoritenin adil bir şekilde paylaştırılması ve algoritmik meslektaşlarla üretilen politikalara epistemik tevazu[30] ile yaklaşılması gelmelidir.
YAYINA HAZIRLAYAN: MEHMET EKINCI, CORNELL ÜNIVERSITESI, BILIM VE TEKNOLOJI ÇALIŞMALARI, DOKTORA ADAYI
[1] Cambridge Analytica skandalı, 2016 yılındaki Amerika Birleşik Devletleri başkanlık seçimlerinin kampanya sürecinde, belli sosyo-ekonomik ve etnik gruplara mensup olan Facebook kullanıcılarının, hiç doğruluk payı olmayan ya da çarpıtılmış haberlerle, Facebook’un iç algoritma mantığı ve verileri kullanılarak, Donald Trump’un lehine manipüle edildiğinin ortaya çıkarılmasıdır. Bu skandal ismini, oyları kritik öneme sahip olan sosyo-ekonomik ve etnik grupları, Facebook profillerinde paylaştıkları ya da beğeni butonları gibi özelliklerle anlaşılır kıldıkları kişisel verileri üzerinden tespit eden, bu grupların ne tarz manipülatif içeriklerle hedeflenmesi gerektiğinin stratejisini geliştiren ve bunu belli siyasi gruplara satan veri analiz ve danışmanlık firmasının adından almaktadır (Cadwalladr ve Graham-Harrison, 2018).
[2] Google’ın sansürlü arama motoru, Google’ın Çin ile birlikte üzerinde çalıştığı ortaya çıkan, Google’ın CEO’su Pichai’nin “deney” diye adlandırdığı bir projedir. Bu arama motorunun, Çin Halk Cumhuriyeti vatandaşlarının internet aramalarını tek parti rejiminin yararına filtreleyecek bir algoritması olacağı iddia edilmiş ve büyük tartışmalara konu olmuştur (Vynck, 2018: Gallagher, 2018).
[3] Özellikle uluslararası basında gündeme gelen bu meselelere verilebilecek en yakın örneklerden bir tanesi olarak, 2019 yılının Eylül ayında Oxford Internet Enstitüsü’nün yayınladığı rapor ve bu rapor üzerine çıkan haberler gösterilebilir (bkz. Lomas, 2019; Bradshaw ve Howard, 2019). Sosyal medya platformlarının, paylaşılan içerikleri kişiselleştirirken, yani düzenlerken ve filtrelerken kullandığı algoritmaların işleyiş mantığının, belli siyasi gruplar tarafından manipülatif içeriklerin geniş kitlelere yayılması için kullanılması durumu, raporda bilgisayımsal (computational) propoganda terimi ile tanımlamıştır. Aynı zamanda, bu propaganda türünün, otoriter ülkelerin yanında, demokratik olarak nitelendiren 45 ülkedeki farklı siyasi aktörler tarafından da zaman zaman uygulandığı sonucuna varılmıştır.
[4] https://www.bbc.com/turkce/haberler-dunya-52638919; https://www.hrw.org/news/2020/05/13/covid-19-apps-pose-serious-human-rights-risks.; https://www.technologyreview.com/2020/05/07/1001360/india-aarogya-setu-covid-app-mandatory/; https://www.weforum.org/agenda/2020/04/covid-19-coronavirus-tracking-technology/
[5] Bu yazıda modern demokrasi teorileri olarak adlandırdığım teoriler, demokratik katılımı büyük oranda seçimlere indirgeyen liberal demokrasi anlayışına karşı geliştirilmiş, John Rawls, Jurgen Habermas ve Seyla Benhabib gibi isimlerin etkilediği ve/ve ya şekillendirdiği müzakereci demokrasi teorileridir.
[6] Gluckman 2017; “Making policy”, 2017; “Digital Earth Lab”, n.d. ; “AMS algorithm”, 2018; “For job opportunities”, 2018; “Big data”, n.d.
[7] http://www.oecd.org.proxy-ub.rug.nl/coronavirus/policy-responses/using-artificial-intelligence-to-help-combat-covid-19-ae4c5c21/; https://www-sciencemag-org.proxy-ub.rug.nl/news/2020/05/artificial-intelligence-systems-aim-sniff-out-signs-covid-19-outbreaks
[8] Hacking, 1990; Porter, 1986.
[9] “Making policy”, 2017; Anderson, 2008.
[10] Manyika et al 2011; Barbero 2016; Maciejewski 2017; Pencheva et al. 2018; Giest 2018, IBM n.d.
[11] IBM n.d.
[12] Pencheva et al 2018; Maciejewski 2017.
[13] Gluckman, 2017.
[14] Mittelstadt et al. 2016; Danaher 2016; Lepri et al 2017.
[15] Lepri ve diğerleri, 2017, s.12; Lafrance 2015.
[16] Kraemer et al 2011; Mittelstadt et al. 2016.
[17] Helbing et al. 2019; Mittelstadt et al. 2016; Crawford & Schultz 2014.
[18] Verbeek 2005; Feenberg 2009; Latour 1993.
[19] Verbeek 2005; Feenberg 2009.
[20] Popkema ve Harbers, 2005, s.252.
[21] Benhabib 1996 s.69.
[22] Ashmore et al 1994; Latour 1993; Pickering 1995; Callon ve Latour 1995.
[23] Coeckelbergh 2011, s.88.
[24] Law 2004; Verbeek 2005; Crandall, 2010; McQuillan 2017; Lake 2017.
[25] Coeckelbergh 2018.
[27] Latour 1991, Haraway 2003, Barad 2007.
[28] Harbers 2005, s. 268.
[29] Ranciere 2004, Mouffe 1999, 2011.
[30] Bu terimi Jasanoff’un (2005) technologies of humility kavramından yola çıkarak, onun bu terim ile altını çizdiği stratejilerden biri olarak tasarlamaktayım. Jasanoff bu terimi, insanların gelecekte olma potansiyeli olan olayları önceden “hesaplamaya” ve bunların olumsuz etkilerini önleyecek stratejiler geliştirmeye olan takıntısı (buna verilebilecek en güncel örnek olarak öngörücü güvenlik yaklaşımları (predictive policing)) bağlamında tartışmaya dahil etmektedir. Jasanoff’a göre öngörücü yaklaşım çevresinde geliştirilen stratejiler ya da teknolojiler (yani technologies of hubris), ancak tevazu içerenlerle tamamlandığı zaman insanlar karşılaştıkları problemlerle daha etkili bir sekilde ilişkilenebilecektir. Jasanoff’un tevazu içeren yaklaşımlardan kastı ise, insanların öngörme kapasitelerinin limitli olduğunu, öngörülemeyen sonuçların varlığını, insan-ötesi varlıkların normatifliğini ve son olarak birden fazla bakış açısı ile kolektif öğrenmeye duyulan ihtiyacı görünür kılabilen yaklaşımlardır (Jasanoff, 2005, s.384). İşte epistemik tevazu terimini de böylesi bir tartışmaya dayanarak, hâlihazırda üzerinde çalıştığım doktora tezimde geliştirmekteyim.
Kaynakça
AMS algorithm – from view to insight. (2018, November 14). Derstandard. Retrieved from https//derstandard.at/2000091365385/AMS-Algorithmus-von-der-Ansicht-zur-Einsicht
Ashmore, M., R.Wooffit, & S.Harding. (1994). Humans and Others: The Concept of “Agency” and Its Attribution. Special Issue American Behavioral Scientist 37 (6).
Barbero, M., Counter, J., Jackers, R., Moueddene, K., Render, E, Stevens, W., … & Versteele, D. (2016). Big data analytics for policy making. A study prepared for the European Commission DG INFORMATICS by Deloitte.
Barad, K. (2007). Meeting the Universe Halfway. Duke University Press.
Benhabib, S. (1996). Toward a Deliberative Model of Democratic Legitimacy. S. Benhabib (Ed.), Democracy and Difference içinde (s. 67-94), Princeton: Princeton University Press
Big data analytics for the City of Copenhagen. (n.d.). Danish Center for Big Data Analytics driven Innovation (DABAI). Retrieved from https://dabai.dk/en/cases/big-data-analytics-citycopenhagen
Bradshaw, S. ve Howard P. N. (2019). The global disinformation order: 2019 global inventory of organised social media manipulation. Project on Computational Propaganda. Retrieved from https://comprop.oii.ox.ac.uk/wpcontent/uploads/sites/93/2019/09/CyberTroop-Report19.pdf
Cadwalladr, C. & Graham-Harrison, E. (2018, March 17). Revealed: 50 million Facebook profiles harvested Cambridge Analytica in major data breach. The Guardian. Retrieved from https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-election
Callon, M., ve Law, J. (1995). Agency and the hybrid «Collectif». The South Atlantic Quarterly, 94(2), 481-507.
Coeckelbergh, M. (2011). Human development or human enhancement? A methodological reflection on capabilities and the evaluation of information technologies. Ethics and Information Technology, 13(2), 81-92.
Coeckelbergh, M. (2018). Technology and the good society: A polemical essay on social ontology, political principles, and responsibility for technology. Technology in Society, 52, 4-9.
Crandall, J. (2010). The geospatialization of calculative operations: Tracking, sensing and megacities. Theory, Culture & Society, 27(6), 68-90.
Crawford, K., & Schultz, J. (2014). Big data and due process: Toward a framework to redress predictive privacy harms. Boston College Law Review, 55(1), 93-128. Erişim Adresi: https://lawdigitalcommons.bc.edu/cgi/viewcontent.cgi?article=3351&context=bclr
Danaher, J. (2016). The threat of algocracy: Reality, resistance and accommodation. Philosophy & Technology, 29(3), 245-263.
Digital Earth Lab. (t.y.). European Commission. Erişim adresi: http://digitalearthlab.jrc.ec.europa.eu/networks/european-statistical-system-ess-–-big-data-task-force
Eren, S. (2019). Technological affordance: Teknolojik imkan. Ö. Işık (Ed.) iris: Kitle Kaynaklı Türkçe STS Ansiklopedisi içinde. Erişim adresi: https://irisansiklopedi.net/2019/11/27/technological-affordance-teknolojik-imkan/
Feenberg, A. (2009). Critical theory of technology. J.K. Berg Olsen, S. A. Pedersen, V.F. Hendricks (Ed), A Companion to the Philosophy of Technology içinde (s. 146-153), Wiley-Blackwell, Malden: Oxford.
For job opportunities: Austria sorted unemployed soon by algorithm. (2018, November 10). Tellereport. Retrieved from http://www.tellerreport.com/news/–for-job-opportunities–austriasorted-unemployed-soon-by-algorithm-.HyTQVbp97.html
Gallagher, R. (2018, August 1). Google plans to launch censored search engine in China, leaked documents reveal. The intercept. Retrieved from https://theintercept.com/2018/08/01/google-china-search-engine-censorship/
Giest, S. (2017). Big data for policymaking: fad or fasttrack? Policy Sciences, 50(3), 367-382.
Gluckman, P. (2017). Using evidence to inform social policy: The role of citizen-based analytics. Office of the Prime Minister’s chief Science Advisor. Erişim adresi: https://www.pmcsa.org.nz/wp-content/uploads/17-06-19-Citizen-based-analytics.pdf.
Hacking, I. (1990). Taming of Chance. Cambridge University Press.
Haraway, D. (2003). The Companion Species Manifesto: Dogs, People, and Significant Otherness. Vol. 1. Chicago: Prickly Paradigm Press.
Harbers, H. (2005). Epilogue: Political Materials – Material Politics. H. Harbers (Ed.), Inside the Politics of Technology: Agency and Normativity in the Co-Production of Technology and Society içinde (s. 257-272). Amsterdam: Amsterdam University Press.
Helbing, D., Frey, B. S., Gigerenzer, G., Hafen, E., Hagner, M., Hofstetter, Y., … ve Zwitter, A. (2019). Will democracy survive big data and artificial intelligence? D. Helbing (Ed.), Towards Digital Enlightenment: Essays on the dark and light sides of the digital revolution (s. 73-98). Cham: Springer.
IBM builds a smarter planet. (t.y.) IBM. Erişim adresi: https://www.ibm.com/smarterplanet/us/en/.
Jasanoff, Sheila. 2003. ‘Technologies of Humility: Citizen Participation in Governing Science’. Minerva 41 (3): 223–44.
Kraemer, F., van Overveld, K. ve Peterson, M. (2011). Is there an ethics of algorithms? Ethics and Information Technology, 13(3), 251–260.
Lafrance, A. (2015, September 18). Not Even the People Who Write Algorithms Really Know How They Work. The Atlantic. Retrieved from https://www.theatlantic.com/technology/archive/2015/09/not-even-the-people-whowritealgorithms-really-know-how-they-work/406099/.
Lake, R. W. (2017). Big data, urban governance and the ontological politics of hyperindividualism. Big Data & Society, 4(1), 1-10.
Latour, B. (1993). We have never been modern (C. Porter, Çev.). Cambridge, MA: Harvard University Press.
Law, J. (2004). After method: Mess in social science research. London and New York: Routledge.
Lepri, B., Staiano, J., Sangokoya, D., Letouzé, E. ve Oliver, N. (2017). The tyranny of data? The bright and dark sides of data driven decision-making for social good. T. Cerquitelli, D. Quercia ve F. Pasquale (Ed), Transparent Data Mining for Big and Small Data içinde (s. 3-24). Cham: Springer.
Lomas, T. (2019). Voter manipulation on social media now a global problem, report finds. Techcrunch. Retrieved from https://techcrunch.com/2019/09/26/voter-manipulation-on-social-media-now-a-global-problem-report-finds/
Maciejewski, M. (2017). To do more, better, faster and more cheaply: Using big data in public administration. International Review of Administrative Sciences, 83(1_suppl), 120-135.
Making policy with big data, (2017, November 14). Retrieved from https://www.universiteitleiden.nl/en/news/2017/11/making-policy-with-big-data
Manyika, J., Chui, M., Brown, B., Bughin, J., Dobbs, R., Roxburgh, C., & Byers, A.H. (2011) Big data: The next frontier for innovation, competition, and productivity. McKinsey Global Institute.
McQuillan, D. (2017). Data Science as Machinic Neoplatonism. Philosophy & Technology, 31(2), 253-272.
Mittelstadt, B. D., Allo, P., Taddeo, M., Wachter, S. ve Floridi, L. (2016). The ethics of algorithms: Mapping the debate. Big Data & Society, 3(2), 1-21.
Mouffe, C. (1999). Deliberative democracy or agonistic pluralism? Social research, 745-758.
Mouffe, C. (2011). On the political. Abingdon: Routledge.
Pencheva, I., Esteve, M. ve Mikhaylov, S. J. (2018). Big Data and AI–A transformational shift for government: So, what next for research?. Public Policy and Administration, 1-21.
Pickering, A. (1995). The Mangle of Practice. Time, Agency & Science. Chicago: University of Chicago Press.
Popkema, M., ve Harbers, H. (2005). The Cultural Politics of Prenatal Screening. H. Harbers (Ed.), Inside the Politics of Technology: Agency and Normativity in the Co-Production of Technology and Society içinde (s. 229-256). Amsterdam: Amsterdam University Press.
Porter, T. (1988). The Rise of Statistical Thinking, 1820-1990. Princeton University Press.
Rancière, J. (2004). Introducing disagreement. Angelaki: journal of the theoretical humanities, 9(3), 3-9.
Verbeek, P. P. (2005). What things do: Philosophical reflections on technology, agency, and design.
De Vynck, G. (2018, November 2). Google’s China Search Engine Project Was ‘Experiment’, CEO Says. Bloomberg. Retrieved from https://www.bloomberg.com/news/articles/2018-11-01/google-ceo-says-china-search-engine-project-was-experiment