09.04.2023 - 03:00 | Son Güncellenme:
Ceyda Ulukaya - Son yetenekleriyle gündeme gelen ChatGPT-4 dahil, gelişmiş yapay zeka sistemlerinin insanlığın geleceğine yönelik potansiyel risklerine dikkat çekilen mektupta, gerekli denetim mekanizmaları oluşturmak üzere tüm yapay zeka çalışmalarına en az 6 ay ara verilmesi talep edildi. Teknoloji girişimcisi Elon Musk’tan ‘Sapiens’ yazarı Yuval Noah Harari’ye, farklı disiplinlerden çok sayıda uzmanın imzasını taşıyan mektupta yapılan çağrıyı, sektörün uzmanlarına sorduk.
Zafer Küçükşabanoğlu - Yapay Zeka Politikaları Derneği (AIPA) Kurucusu ve Başkanı
“Lüks değil, stratejik ihtiyaç”
Medeniyet üretmek demek. Üretim makineye geçerse insan rolü ne olacak? Bu sorunun cevabı yok, ki daha buna yönelik hazırlık da yok. Üretme rolü bu kadar erken devredilirse insan makineyle takım olmayı beceremez. Makineyi aşmayı da beceremez. İnsan, nasıl olsa benden daha iyi üreten var diyerek üretkenliğini bir kenara bırakırsa medeniyet çöker. Burada aslında insanın yapay zekaya adapte olamama riskinden bahsediyoruz.
Yapay zekanın hangi bilgiyi, neye göre ürettiğini, kullanıcıdan aldığı veriyi nasıl kullandığının açıklanmasına ihtiyaç var. Üretici yapay zeka yani ChatGPT’ler tıpkı Google gibi adım adım ilerliyor. İnsanlar ChatGPT’nin söylediği şeyleri doğru kabul ediyor. Bu tarafıyla da toplumun eğitilmesi gerekiyor.
Yapay zekanın gücü, bakış açısına bağlı olarak heyecan verici veya korku verici olabilir. Korku ve kaygı duymaktansa, heyecan ve merak tarafında olup, bu konuda bilgi birikimimizi artırmak ve olası olumsuzlara karşı önlemler almaya zaman harcamak en mantıklı adım olacaktır.
Yapay zeka artık geleceğin değil, bugünün teknolojisi. Bunu kabul etmemiz lazım. Aynı zamanda yapay zeka artık kişiler, kurumlar ve özellikle de ülkeler için bir lüks değil, stratejik bir gereksinimdir; hayatı ve insanlığı dönüştürecektir. Bu dönüşümün sağlanması için her alanda net bir yapay zekâ duruşu ve politikası belirlenmeli, toplumun her kesimi için yapay zekâ anlaşılır hâle getirilmelidir.
Yapay Zeka Politikaları Derneği olarak, bahsi geçen mektubu destekliyoruz veya desteklemiyoruz demek doğru olmayacaktır. Mektubun işaret ettiği önemli noktalar elbette var. Bundan yola çıkarak, kendi manifestomuzu da yazabiliriz. Çünkü mektubu imzalayanların coğrafyasındaki endişeler ile bizlerin yaşadığı coğrafyadaki endişeler çok farklı. Onlar teknoloji geliştiren ülkelerin mensupları ve değişimin sert adımlarını bizzat hissediyorlar. Bizim ülkemiz ise henüz böyle bir gelişmeye adım atacak durumda değil ancak bu değişimden etkilenecek.
Av. Gökhan Ahi - Bilişim Hukuku Uzmanı
“Etik kaygılar giderilmeli”
Bu çağrıyı kamuoyunun dikkatini çekmek ve farkındalık uyandırmak bakımından gerekli ve yerinde buluyorum, ancak magazinel bir değerde kalacağını düşünüyorum. Dünyanın her yerinde, başta hukukçular olmak üzere her disiplinden binlerce insanın yapay zekanın etik kısmı ile endişeleri artarak devam ediyor. Bu konuda çok sayıda çalışma yapılıyor ancak ne yazık ki istenilen seviyede ve hızda değil, çünkü yazılımcılar ve mühendisler bu alanda çok hızlı ilerliyorlar ve yapay zekanın kapasitesi gittikçe güçleniyor.
Yapay zeka başta tıp ve mühendislik olmak üzere insanlık yararına imkanlar sunmakla birlikte, endişelerin kaynağı yapay zekanın süzgeçten geçirilmemiş ham bilgi ve veri üretmesi ve bu bilgilerin kötü ellerde dezenformasyona, istismara ve dolandırıcılıklara yol açabiliyor olması. Yanlış bilginin yayılma ve benimsenme hızı ne yazık ki çok yüksek ve bu hızlılık gerçek bilginin değersizleşmesine ve inandırıcılığının yok olmasına yol açabilir. Ayrıca yapay zekanın askeri ve savunma sistemleri üzerinde geldiği nokta oldukça korkutucu, bu durum toplu kıyımlara ve büyük hasarlara yol açabilecek nitelikte. Tüm bunları engellemek için hem ulusal hem de uluslararası düzeylerde etik düzenlemeler ve denetimler yapılması gerekiyor.
Yapay zeka çalışmalarının durdurulması mümkün değil, durdurulması da gerekmiyor. Bilim ve mühendislik bu konuda özgürce ilerlemeli, ancak bu ilerleme sınırsız olmamalı, etik ve güvenlik ile ilgili kaygılar giderilmelidir. Örneğin, genetikçiler kendi alanlarında çok büyük ilerlemeler kaydetti ancak genlere müdahale etmek etik ve hukuki olarak sınırlanmış durumda. Aynı şekilde, yapay zekanın da insanlık için zararlı hale gelmemesi için önlemler almak zorundayız.
Doç. Dr. Nazım Kemal Üre - İTÜ Yapay Zeka ve Veri Mühendisliği Bölümü
“Panik yaratmadan konuşulmalı”
GPT-4’ün arkasındaki teknoloji aslında çok yeni değil. Bu yeteneklere sahip yapay zekâ modelleri araştırmacılar arasında epeydir biliniyordu. Fakat ChatGPT’nin bu modelleri kullanışlı bir arayüz ile halkın kullanımına sunması, sahte resim ve yanlış bilgi içerikli yazıları üretmeyi çok kolay hale getirdi. Bu gibi gelişmeler ve bu algoritmaların gelecekte kazanacakları güç ile daha büyük zarar verme potansiyelleri olduğu düşüncesi ile bu çağrı yapıldı. Bu modeller ne kadar uzun süre eğitilirse o kadar güçleneceği için bu gibi modelleri eğitme gücü olan kurumlara eğitim sürecinin en az 6 aylığına durdurulması ve bu sürede yapay zekâ kullanımı ile ilgili regülasyonlar üzerine çalışılması için çağrı yapılıyor. Açıkçası böyle bir çağrının gerçekçi bir yaptırımı olmayacağı ortada, daha ziyade konuya dikkat çekmek için yapıldığını düşünüyorum.
Mevcut teknolojinin yetenekleri değerlendirilince bu mektubun ve benzer görüşlerin abartılı olduğunu düşünüyorum. Örneğin, benim çalışmalarımın bir kısmı yapay zekâ ile kontrol edilen araba ve uçaklar üzerine. Geliştirdiğimiz yöntemler bu araçların insansız olarak daha kolay çalışmasını sağlıyor. Bu kesinlikle araçların kendi bilinci olduğu ve medeniyeti ele geçirebilecekleri manasına gelmiyor, böyle bir teknolojiden çok uzaktayız. Bu yöntemlerin yapay zekayı gelecekte bu seviyeye getirebileceği konusunda da net bir kanıt yok.
Ayrıca, bütün teknolojilerde olduğu gibi yapay zekâ modelleri de hem insancıl hem de insancıl olmayan amaçlar için kullanılabilir. Bugüne kadar potansiyel olarak tehlikeli birçok teknolojiyi (uçaklar, bilgisayarlar, nükleer enerji) mühendislik, test prosedürleri ve regülasyonlarla minimum zarar maksimum fayda seviyesine getirdik. Yapay zekâ uygulamaları da riskleri arttıkça benzer şekilde kontrol altına alınacaktır diye düşünüyorum.
Mutlaka bir riskten bahsedeceksek en büyük riskin eğitim ve çeşitli iş sektörlerinde yaşanacağını düşünüyorum. Bu anlamda yapılan çağrıyı desteklemiyorum. Tabii ki yapay zekanın riskleri ve ilgili regülasyonlarının konuşulması lazım, ama bunun riskleri olduğundan fazla göstermeden ve halkta panik yaratmadan yapılması gerekiyor.
Ufuk Tarhan (Fütürist, ekonomist)
“Ticarileşmesi büyük hata”
Teknoloji konusunda hemen her yenilik beraberinde riskleri de getiriyor. Bu riskler de bugüne dek insanların işin içine aktif biçimde katılmasıyla çözüldü. Yapay zeka tabii ki daha kapsamlı, hızlı ve büyük ölçekte iş yapabildiği için daha büyük bir risk ama sahaya inmesi de kaçınılmaz.
ChatGPT aslında buzdağının görünen yüzü. Hep diyorduk, yapay zeka ve robotlar yaygınlaşacak, insanların bazı işlerini gereksiz kılacak. Ama bunu nasıl yapacağını fiilen görmemiştik. Şimdi ChatGPT ve türevleriyle gördük. Teknolojilerle yaşam değişirken tehditler ve fırsatlar eş zamanlı olarak görülüyor ve buna göre düzenlemeler yapılıyor. Mektupta da talep edilen bu düzenlemelerin yapılması. Bir de tabii OpenAI’ın ticarileşmesine itiraz var; çünkü bu tür çalışmalar tarafsız olarak insanlığın yararınayapılmalı.
Altı ayda bu sorunların halledilemeyeceği elbette ortada fakat her şey kamuoyu oluşması, bilgi ve bilincin gelişmesiyle oluyor. Bana kalırsa OpenAI’ın ticarileşmesi büyük bir hata oldu. Bu süreci gereksiz hızlandırdı. İnsanları şöyle bir noktaya getirdi, hepimiz mağaradayız ama kapının önüne elektrikli araba koydular, alın kullanın diye. Ama biz insanlık ve sistemler olarak buna kesinlikle hazır değiliz, anlamak ve öğrenmek için kullanmaya başlamamız lazım ama bunun kontrollü ve asgari regülasyonların oluşmasıyla yapılması gerekiyor. Yoksa bu sürüş kazalara yol açar.
Buradaki diğer mesele, bizim yapay zeka alanıyla ilgili fotoğrafı eksik görmemiz. Bakın bu fotoğrafta Çin yok, Rusya yok ve ikisi de bu alanda çok ciddi çalışmalar yürütüyor. ABD ile Avrupa, Çin ile Uzakdoğu ve Rusya olmak üzere bu alanda üç ana oyuncu var, asıl önemli olan da bu oyuncuların yapay zekayı kullanarak neler yapabileceği.
Silah endüstrisine çağrı
Future of Life Institute (Yaşamın Geleceği Enstitüsü) “dönüştürücü teknolojiyi aşırı büyük ölçekli risklerden uzaklaştırarak hayata fayda sağlamaya yönlendirmek” misyonuyla, kâr amacı gütmeyen bir inisiyatif olarak 2015 yılında hayata geçti. Kurucuları arasında MIT’li kozmolog Max Tegmark, Skype kurucularından Jaan Tallinn yer alıyor. Elon Musk’ın danışmanları arasında yer aldığı enstitü, 2018’de yapay zekanın silah endüstrisinde kullanılmasının risklerine karşı bir imza kampanyası başlatmıştı.
Gates “Çözüm değil” dedi
Microsoft’un kurucu ortağı Bill Gates, yapay zeka çalışmalarının bir süreliğine durdurulması yönündeki çağrının konuyla ilgili zorluklara çözüm olacağını düşünmediğini, önerilen duraklamanın uygulanmasının kolay olmayacağını söyledi. Microsoft’un 2019 yılında ChatGPT’nin yaratıcısı OpenAI’e 1 milyar dolar yatırım yaptığı biliniyor.
İtalya bloke etti
Yapay zeka sohbet robotu ChatGPT, kişisel verilerin toplanmasıyla ilgili kuralları ihlal ettiği gerekçesiyle İtalya’da bloke edildi. Karara göre, ChatGPT’yi geliştiren OpenAI şirketine, İtalyan kullanıcıların verilerinin işlenmesini durdurma talimatı verildi. Almanya’nın da veri güvenliği endişeleri nedeniyle Chat-GPT’yi engelleyerek İtalya’nın izinden gidebileceği bekleniyor.