15.06.2022 - 07:00 | Son Güncellenme:
ABD’li yazılım mühendisi Blake Lemoine, geçen haftaya kadar Google’da LaMDA (Diyalog Uygulamaları için Dil Modeli) adlı yapay zekâ aracını test ediyordu. Ancak Google yönetimine LaMDA’nın bilinçlendiğini, duygulandığını ve düşündüğünü söyleyince “Akıl sağlığın için molaya ihtiyacın var” denilerek ücretli izne çıkarıldı. Ne var ki Türkiye’nin de aralarında bulunduğu çok sayıda ülkede Lemoine’in iddiası büyük ilgi gördü. Her yerde “Yapay zekâ canlanır mı?” tartışması başladı.
İngiliz bilim insanları ise yapay zekâlı sohbet robotlarının büyük metinlerle eğitildiğini, ancak yanıtlarında yalnızca insanların konuşmasındaki kalıpları taklit ettiğini belirterek Lemoine’in iddiasını reddetti. İngiltere’de Alan Turing Enstitüsü Program Direktörü Dr. Adrian Weller, Lemoine’in iddiasına karşı çıkarak yapay zekânın yakında duyarlı olacağını düşünmediğini belirtirken, Bristol Üniversitesi’nde Yapay Zekâ Profesörü Nello Cristianini ise hiçbir makinenin standart duyarlılık tanımına yakın olmadığını açıkladı. Weller, “Neredeyse herkes söz konusu yapay zekânın duyarlı olmadığı konusunda hemfikir. Ama bir yapay zekâya daha çok soru sorulursa ‘yüzeysel’ şekilde bilinçli olabileceğini düşündürebilecek metin üretebilir” dedi. Cristianini de yapay zekânın bilinçli veya duygusal olup olmadığını kanıtlamak için bunu ölçebilecek net hesaplamanın bulunmadığını söyledi.
‘Sadece cümleleri taklit ediyor’
Google sözcüsü Brian Gabriel: “LaMDA’nın duyarlı olduğuna dair hiçbir kanıt yok ama bu iddiayı çürüten çok sayıda karşı kanıt var. LaMDA gibi yapay zekâ sistemleri milyonlarca öğretilmiş cümleyi değiştirerek taklit edebiliyor ve herhangi bir fantastik konuda tekrarlar yapabiliyor. Bu sistemler milyonlarca cümleyi taklit ederken herhangi bir konuda çeşitlemeler yapabiliyor.”
Microsoft yöneticisi Juan M. Lavista Ferres: “LaMDA duyarlı değildir, genel diyalog verisi ve web metnindeki 137 milyar parametre ve 1 trilyon 560 milyar adet kelimeyle önceden eğitilmiş çok büyük bir dil modelidir. İnsana benziyor, çünkü insan verileriyle eğitiliyor.”
Stanford Üniversitesi’nden Prof. Erik Brynjolfsson: “LaMDA gibi sistemlerin duyarlı olduğunu iddia etmek, bir gramofondan ses duyunca sahibinin cihazın içinde olduğunu düşünen köpeği hatırlatıyor.”