Yapay zekâya ilişkin endişeler artıyor: Hükûmetler müdahil olmaya başladı
20. Yüzyılda hayatlarımıza girmiş olan “yapay zekâ” kavramı, günümüze gelene kadar çeşitli değişimler geçirdi. Günümüzde yapay zekâya ilişkin çalışmaların artmış olmasıyla; yapay zekânın beraberinde gelen etik ve işlevsel sorunlar da gün yüzüne çıktı. Ortama yapay zekânın dost mu düşman mı olduğuyla ilgili fikir ayrılığı hâkimken, hükûmetler de konuya müdahil olmaya başladı.
Yapay zekâ (YZ) ile ilgili ilk aksiyon alan ülkelerden biri, bu teknolojinin yaygın bir biçimde geliştirildiği ABD oldu.
Joe Biden yönetiminin Ekim 2022’de yayımladığı “YZ Hakları Bildirgesi Taslağı” adlı dokümanda, teknolojinin demokrasiye oluşturduğu tehditlere ve bunlara karşı alınması gereken önlemlere yer verilmişti.
Beyaz Saray’ın geçtiğimiz günlerde başlattığı bir girişim, ülke genelinde kurulacak 25 enstitü aracılığıyla OpenAI, Microsoft, Anthropic ve Google'dan oluşan 4 şirketin kamusal denetlemeye tabi tutulmasını öngörüyor.
140 milyon dolar bütçe tahsis edilen bu eforun başına, Başkan Yardımcısı Kamala Harris atandı.
YZ Hakları Bildirgesi; "güvenli ve etkili sistemler"; "algoritmik ayrımcılık korumaları"; "veri gizliliği"; "bilgilendirme ve açıklama"; "insan alternatifleri, değerlendirme ve geri bildirim" adlı beş prensip etrafında şekilleniyor.
Bildirgenin amacı; insanları ve toplumu dizginlenmemiş teknolojik gelişmelere karşı korumak olarak açıklanıyor.
Bu yaz Las Vegas’ta gerçekleşecek bir hacker buluşmasında, 4 şirketin uygulamaları değerlendirilerek YZ Hakları Bildirgesi’ne uygunlukları mercek altına alınacak.
YAPAY ZEKA DURDURULMALI MI?
Bir konsept olarak ortaya atıldığından beri yapay zekânın insan hayatını kolaylaştırıcı mı, yoksa potansiyel bir tehlike mi olduğu konuşuluyor.
YZ’nin tehlike olduğunu ileri düşünenlerden bir kısmı bu teknolojinin bilinç kazanması ve insanlığa yönelik tehlikeli projeler geliştirmesinin mümkün olduğunu öne sürerken; diğer kısmı da güncel olarak daha muhtemel olan iş kayıpları, yanlış bilginin üretimi ve yayılması, kazalar, etik ihlalleri gibi sebepleri referans göstererek geliştirilen YZ uygulamalarının bir tehdit olduğunu savunuyor.
YZ’nin gelişimine en belirgin karşıtlık; aralarında Apple’ın kurucularından Steve Wozniak ve Twitter CEO’su Elon Musk gibi isimlerin de bulunduğu 27 binden fazla kişinin, Future of Life Institution (Hayatın Geleceği Enstitüsü) adlı kuruluşun yazdığı açık mektuba verdiği destekti.
Bu mektup, Chat GPT gibi dil temelli YZ modellerinin gelişiminden ötürü duyulan endişeden yola çıkarak yazıldı ve YZ’nin geliştirilmesine altı ay süreyle ara verilmesi çağrısında bulunuyordu.
Mektubun içerdiği endişelerin temeli, insan zekâsına rakip olabilecek bir YZ’nin üretiminin, bildiğimiz şekliyle insan hayatının sonu anlamına gelebileceğine olan inançtan kaynaklanıyor.
Mektup, GPT-4 sisteminden güçlü bir YZ altyapısının geliştirilmesinin altı ay süreyle durdurulması için laboratuvarlara çağrıda bulunuyor.
YZ alanındaki otoritelerden biri olan ABD’li bilgisayar bilimci Ray Kurzweil’dan bu mektuba bir yanıt geldi.
Kendi kurduğu Singularity Hub adlı web sitesinde paylaştığı yanıt mektubunda Kurzweil, altı ay bu araştırmalara ara vermenin; sağlık, eğitim, yenilenebilir enerji gibi YZ’nin avantaj sağladığı sektörlerde, ara veren ülkeleri geri düşürebileceğini ifade etti.
Kurzweil, mektubu imzalayanların güvenlik endişelerini anladığını, ancak bu endişelerin giderilmesi için başka bir yol bulunması gerektiğini yazdı.
Geçitğimiz günlerde “YZ’nin babası” olarak anılan Geoffrey Hinton’dan da yapay zekânın gelişimine ilişkin bir dizi uyarı gelmişti.
Reuters’a konuşan Hinton; YZ tehdidinin insanlık için “iklim değişikliğinden daha acil” olduğunu, YZ’ye karşı alınabilecek önlemlerin ne olduğu bilinmediği için bu “çok yakın tehdide karşı acil önlem” alınması gerektiğini söylemişti.
YZ araştırmalarının kurucularından biri olarak nitelenen Eliezer Yudkowsky de bu kampta olanlardan.
Verilen mektubu destekleyen ancak imzasını atmayan Yudkowsky, YZ araştırmalarına kökten son verilmesini öneriyor.
Yudkowsky; Time’daki yazısında, insan bilişsel kapasitesini aşmış bilişsel kapasiteye sahip yapay zekâ uygulamalarının ortaya çıktıkları anda insanlığın sonunu getireceğini söylüyor.
Yudkowsky’nin bu çağrıları, YZ programlarının “bilinçli yaşama karşı kayıtsız” olacağına dair düşüncesinden ileri geliyor.
Massachusetts Üniversitesi Uygulamalı Etik Merkezi direktörü ve felsefe profesörü Nir Eisikovits ise The Conversation’daki yazısında üst düzey yapay zekânın hâlâ bilim kurgu ürünleriyle sınırlı olduğunu öne sürdü.
Eisikovits, asıl tehlikenin süper gelişkin YZ robotlarının üretiminde değil, robotların insanlaştırılmasında yattığına vurgu yapıyor.
The Guardian’a yazan James Bridle da paralel bir şekilde robotlara “gerçekten zekâları varmışçasına” muamele edilmesinin asıl tehlike olduğunu belirtiyor.
Çoklu uygulama alanına sahip yapay zekâ teknolojileri, birçok farklı koldan tehlikeleri de beraberinde getiriyor.
Bilim kurgu filmlerindeki gibi, robotların insanlara fiziksel şiddet uygulayarak zarar vermesi şimdi uzak bir ihtimal olarak görünüyor.
Ancak yapay zekânın yanlış kullanımı, hâlihazırda insanlara zarar veriyor. Robotların yaydığı yanlış bilgiler, bilgilerin sorgulanmadan tüketimi ve robotlara insanmışçasına muamele edilmesi, bu zararların en büyük kaynaklarını teşkil ediyor.
Bu çerçevede yapay zekâ insanlara zarar veren bir olgu değil, insanlığın kendine zarar vermesi için yeni bir araç olarak öne çıkıyor.