Yapay zeka destekli sohbet robotu ChatGPT kolaylaştırıcı mı tehdit mi?
Geçtiğimiz yıl yapay zeka araştırma şirketi OpenAI, GPT-3.5 dil modelini temel alan sohbet robotu ChatGPT'i kullanıma sundu. Uygulamanın birçok kolaylaştırıcı tarafı olsa da uzmanlar bazı risklerinin bulunduğu görüşünde. Peki, ChatGPT hangi riskleri barındırıyor?
30 Kasım 2022 tarihinde piyasaya sürülen bir yapay zeka robotu olan ChatGPT, Open AI tarafından geliştirildi.
Robot, kendisine sorduğunuz soruları karşınızda bir insan varmış gibi yanıtlayabiliyor.
Euronews’te yer alan habere göre, insan beyni gibi çalışan robot, birbirine bağlı "nöronları" kullanarak verilerdeki modelleri tanımlayarak öğrenebiliyor ve daha sonra gelecek olanı tahmin edebiliyor.
İnternetteki konuşmalar gibi devasa miktarda veri üzerinden eğitilen araç için İnsan Geri Bildiriminden Pekiştirmeli Öğrenme (Reinforcement Learning from Human Feedback-RLHF) adlı tekniği de kullanıyor. Bu teknikte insan çalıştırıcılar hem yapay zeka sohbet robotu hem de kullanıcı gibi davranarak modele iletişim sunuyor.
Bu öğrenim modeli sayesinde ChatGPT sorulara kulağa doğal gelen ve insan gibi yanıtlar verebilirken, yalnızca öğrendiğini papağan gibi tekrar etmiyor.
ChatGPT’nin matematiksel denklemleri çözme ve işlem yapma, hataları ayıklama ve hataları çözme, kullanıcılara metin özetleme, metin yazma, metin çevirme, yazılım geliştirme, sınıflandırma yapabilme, tavsiyelerde bulunma gibi birçok özelliği de bulunuyor.
ChatGPT ise kendisini şu şekilde tanımlıyor, “OpenAI tarafından eğitilmiş, Asistan adlı bir yapay zeka dil modeliyim. Soruları yanıtlayarak, bilgi sağlayarak ve sohbet ederek kullanıcılara genel amaçlı yardım sağlamak üzere tasarlandım. Kişisel duygularım veya deneyimlerim yok ve fiziksel bir bedenim yok. Tamamen bilgisayarda çalışan bir program olarak varım. Birincil işlevim, aldığım girdiye dayalı olarak insan benzeri metinler üreterek sizin gibi kullanıcılara yardımcı olmaktır."
Birçok özelliği içinde barındıran ve insansı algoritmayla öğrenerek gelişen ChatGPT, zaman zaman yanlış bilgiler, zararlı talimatlar ya da taraflı içerikler üretebiliyor.
Aralık 2022 tarihinde de yapay zeka uzmanlarından Boğaziçi Üniversitesi Öğretim Üyesi Prof. Dr. Cem Say, Diken gazetesi yazarlarından Zeynep Güven Ünlü’nün sorularını yanıtlarken, ChatGPT’nin sorular karşısında hatalı cevaplar verdiğini söyledi.
Prof. Dr. Cem Say, Zeynep Güven Ünlü’nün sorduğu “Hatalı cevaplar çıkıyor dediniz. Sizin bulduğunuz hatalar ne?” sorusunu şu şekilde yanıtladı:
“Mesela bugüne kadar ayda kaç kişi yürüdü diye sordum. Doğru cevap 12 olacak. Google 1 saniyede cevap verir buna. ChatGPT’ye sorduğumda, ‘Ayda hiç kimse yürümedi’ dedi. ‘Ay dünyadan uzak bir gezegendir’ dedi. Gezegen değil. Şöyle dedi: ‘İnsanlar tarafından ilk kez 1969 yılında ziyaret edilmiştir. İlk ay yürüyüşü ABD’li astronot Neil Armstrong tarafından gerçekleştirilmiştir.’ Başta insan yürümedi demişti, üçüncü cümlede ‘yürüdü’ dedi.
Çünkü bir bağlamı kafasında bizim tuttuğumuz gibi tutmuyor. Sadece bu melodi nasıl devam eder diye bakıyor. Çok yetenekli bir müzisyen gibi düşünün. Başını duyduğu bir müziğin devamını uyumlu bir şekilde getiriyor. Oracıkta uyduruyor ama sanki esas beste oymuş gibi uyduruyor. Hiçbir kopukluk yaratmıyor. Dil böyle bir şey. Ama olgular öyle değil ki. Üç cümle önce doğru olan üç cümle sonra yanlış olmaz. Onun takibinde daha o kadar iyi değil."
ChatGPT’nin büyük riskler taşıdığını düşünen ülkeler ise yapay zeka sohbet robotunu yasaklama kararı aldı.
Çin, ChatGPT’yi yasaklayan ilk ülke oldu. Nikkei Asia'nın haberine göre, teknoloji firmalarının platformları aracılığıyla ChatGPT veya bağlantılı hizmetler sunması yasaklandı.
İtalya da ChatGPT’yi Batı’da yasaklayan ilk ülke oldu. Almanya ise veri güvenliği endişeleri nedeniyle ChatGPT’yi engelleyerek İtalya’nın izinden gidebileceğini açıkladı.
“YAPAY ZEKA GELİŞTİRMEYİ DURDURUN”
Geçtiğimiz ay bir grup teknoloji uzmanı ChatGPT gibi yapay zeka sistemlerinin geliştirilmesine ara verilmesini istedi.
Elon Musk, bir grup yapay zeka uzmanı ve teknoloji sektörü yöneticileri ile birlikte imzaladıkları açık mektupta, gelişmiş yapay zekanın (AI) topluma ve insanlığa olan risklerine vurgu yaparak, OpenAI’nın yeni piyasaya sürdüğü yapay zeka sohbet robotu GPT-4’ten daha güçlü bir sistem geliştirmeye altı ay ara verilmesi için çağrıda bulundular.
Kar amacı gütmeyen Futire of Life Institute’un yayımladığı ve Elon Musk dahil binden fazla kişinin imzaladığı açık mektupta, bu tarz yapay zeka robot tasarımları için ortak güvenlik protokolleri geliştirilene ve bağımsız uzmanlarca uygulanıp denetimi yapılana kadar ileri yapay zeka robotlarının geliştirilmesine ara verilmesini istendi.
Mektupta, “Güçlü yapay zeka sistemleri, yalnızca bunların etkilerinin olumlu ve risklerinin yönetilebilir olacağından emin olduğumuzda geliştirilmelidir” diye belirtildi.
Mektupta, insanlarla rekabet eden yapay zeka sistemlerinin ekonomik ve siyasi aksamalar bakımından topluma ve medeniyete yönelik riskleri ayrıntılı olarak açıklandı ve yapay zeka geliştiricilerinin denetim için politikacılarla ve düzenleyici kurumlarla çalışması için çağrıda bulunuldu.
Mektubu imzalayanlar arasında otopilot sistemleri için yapay zekadan faydalanan ABD’li elektrikli araç şirketi Tesla’nın TSLA.O CEO’su Elon Musk, Stability Al CEO’su Emad Mostaque, Alphabet’in GOOGL.O DeepMind birimindeki araştırmacılar ve önde gelen yapay zeka geliştiricileri Yoshua Bengio ve Stuart Russell da bulunuyor.
CHATGPT KANSER İLE İLGİLİ UYDURMA BİLGİLER ÜRETİYOR
Geçtiğimiz hafta ABD’de yapılan bir çalışmanın ChatGPT’nin kanser hakkında bilgi istendiğinde sağlık verileri uydurduğunu ortaya koymasının ardından, doktorlar insanların yapay zekaya sahip sohbet robotunu tıbbi tavsiye için kullanmaması konusunda uyarıda bulundu.
Ntv’nin aktardığına göre, ABD’de yer alan Maryland Tıp Fakültesinden araştırmacılar, ChatGPT’nin meme kanseri taraması hakkında 25 soruya cevap vermesini istedi.
Sohbet robotunun yanıtlarının değişebildiği bilindiğinden, her soru üç kez soruldu. Sonuçlar daha sonra mamagrafi eğitimli üç radyolog tarafından analiz edildi. Yanıtların çok büyük bir kısmı (yüzde 88) uygun ve anlaşılır nitelikteydi. Ancak bazı cevapların “yanlış hatta uydurma” olduğu görüldü.
ChatGPT ayrıca, “meme kanseri riski” ve “Mamagrom nerede çektirilir” gibi sorulara tutarsız cevaplar verdi. Aynı soru tekrarlandığında yanıtlar önemli ölçüde değişti.
Çalışmanın ortak yazarı Dr. Paul Yi, konuya dair yaptığı açıklamada, "Deneyimlerimizde ChatGPT'nin bazen iddialarını desteklemek için sahte dergi makaleleri veya sağlık kuruluşları uydurduğunu gördük. İnsanların, bunların yeni, kanıtlanmamış teknolojiler olduğunu ve tavsiye almak için ChatGPT yerine hala doktorlarına güvenmeleri gerektiğini bilmeleri gerekiyor” dedi.
Radiology dergisinde yayınlanan araştırmanın başyazarı Dr. Hana Haver ise ChatGPT’nin sadece Amerikan Kanser Derneği tarafından verilen bir öneri setini referans alarak soruları cevapladığını, ABD Hastalık Kontrol Önleme Merkezleri (CDC) ve Dünya Sağlık Örgütü (DSÖ) gibi kuruluşların güncellemelerine hakim olamadığını belirti.
CHATGPT BAZI MESLEKLERİ TEHDİT EDİYOR
ChatGPT’nin meslekleri de tehdit etme potansiyeli var. Ntv’de yer alan habere göre, ChatGPT’nin geliştirici şirketi OpenAI ve Pennsylvania Üniversitesi tarafından yapılan bir araştırma, yapay zekanın işgücündeki yerini ortaya çıkardı.
Rapora göre, ABD’deki işgücünün yaklaşık yüzde 80’i ChatGPT’den etkilenecek. Çalışmada yer alan OpenAI araştırmacısı Pamela Miskin, “Günümüzde GPT birçok şey yapabiliyor. Geçtiğimiz birkaç yıl içinde, giderek daha karmaşık görevleri çözmede daha iyi olduğunu gördük. Bu araştırma, bugün mevcut olan herhangi bir modeli değil, bu eğilimi incelemektedir” değerlendirmesini yaptı.
Bununla birlikte araştırmacılar, çalışma kapsamında bin 16 meslek ve bunlara ait 19 bin 265 görevi analiz etti. Ayrıca, ABD İşgücü İstatistikleri Bürosu tarafından sağlanan 2020 ve 2021 Mesleki İstihdam serilerinden alınan ücret verileri de araştırmada kullanıldı.
Ekip daha sonrasında da hangi pozisyonların teknoloji tarafından yapıldığında daha sorunsuz çalışabileceğini görmek için verileri yapay zeka becerileriyle çapraz analiz etti.
Araştırmaların bulguları, “iş görevlerinin en az yüzde 10’unun yapay zekanın kullanılmaya başlanmasından etkilendiğini, çalışanların yaklaşık yüzde 19’unun ise görevlerinin en az yüzde 50’sinin etkilenebileceğini” ortaya koydu.
Çalışma, 86 mesleği yapay zekaya “tamamen maruz kalmış” olarak belirledi ve birkaçı yüzde 100 puan aldı. Bunlar arasında hukuk sekreterleri, klinik veri yöneticileri, web tasarımcıları ve gazeteciler yer alıyor.
Oksijen’in aktardığına göre de; halkla ilişkiler uzmanları, mahkeme muhabirleri ve blok zinciri mühendisleri de bu tanıma giriyor.
Teknolojiden en az etkilenecek işler arasında da kısa sipariş aşçıları, motosiklet tamircileri ve petrol ve gaz bekçileri yer alıyor. Yani fiziksel yapılan ve bu tür beceriler isteyen meslekler bu tanımın dışında kalıyor.
ChatGPT, yapay zekanın kullanılabileceği bir alan olan chatbot uygulamaları için bir örnek teşkil ediyor. Yapay zekanın geliştirilmesiyle siber güvenlikten kişisel asistanlık hizmetlerine, taşıtlardan online alışverişe kadar birçok alanda kullanılacağı düşünülüyor.
Yapay zekanın insanlığa sağlayabileceği kolaylıklar bağlamında ChatGPT oldukça iyi örnekler sunuyor. Ancak uzmanlar, ChatGPT’nin tehlikeli olduğu konusunda uyarıyor.
Bilim insanlarına göre, yapay zeka elindeki bilgileri doğruluk algısı olmadan derleyip yeni bir hikaye ortaya koyabilir.
Uzmanlar, gelecekte daha fazla konuşulacak konulardan birinin de telif hakları olacağı görüşünde. ChatGPT’nin internette bir kişinin yazdığı metni telif ve kulanım haklarını sorgulamadan kullanıma sunması ilerleyen dönemde hukuki sonuçlar doğurabilir.
Yapay zekanın tehlike arz ettiğinin daha çok dile getirilmesi ise devletleri çeşitli önlemlere sevk edebilir. ChatGPT’nin insanlığın geleceği için tehlike oluşturup oluşturmadığı, ilerleyen dönemde tartışılmaya devam edecek gibi görünüyor.