07.09.2024 - 04:34 | Son Güncellenme:
Peki ilham depoları boşaldığında ne olacak? Coğrafi Keşifler döneminde yeni yollar, yeni umutlar bulmak için yola çıkıp denizin ortasında kalakalmış ve erzağı tükenmiş talihsiz denizciler gibi yapay zeka da en son noktada beslenmek için kendi kaynağına yönelmek zorunda kalacak.
Mashable Türkiye’nin Science Alert’ten aktardığı habere göre bu konuda yapılan araştırmalar, YZ’nin YZ tarafından yoğun bir şekilde işlenmiş sonuçları “yemesinin” oldukça endişe verici sonuçlar doğurabileceğini dile getiriyor.
Rice ve Stanford üniversitelerinden araştırmacıların yaptığı yeni çalışmaya göre yapay zeka motorları gerçek insanlar tarafından oluşturulan metin ve görseller yerine “sentetik” (yani aslında yapay) girdilerle eğitildiğinde çıktı kalitesi düşmeye başlıyordu.
Araştırmacılar bu etkiye Model Otofaji Bozukluğu (MAD) adını veriyor. YZ etkili bir şekilde kendini tüketiyor, bu da bir nevi “deli dana hastalığı” ile paralellikler olduğu anlamına geliyor! Bilindiği üzere deli dana hastalığı, diğer sığırların enfekte kalıntılarıyla beslenen ineklerde görülen bir nörolojik bozukluk.
Çalışma YZ tarafından üretilen içeriğin kalite seviyesinde, çeşitlilik seviyesinde ve zaman zaman her ikisinde düşüş yaşadığını gösteriyor. Bu, mevcut üretken YZ modellerinden kaynaklanan dev bir YZ çöplüğüyle karşı karşıya kalacağımıza dair bir uyarı.
Kaç senaryo var?
Rice Üniversitesi’nden bilgisayar mühendisi Richard Baraniuk, “Teorik ve ampirik analizlerimiz, üretken modeller yaygınlaştıkça ve gelecekteki modelleri kendi kendini tüketen döngülerde eğittikçe neler olabileceğini tahmin etmemizi sağladı” diyor ve ekliyor:
“Bazı sonuçlar açık: Yeterli taze gerçek veri olmadan, gelecekteki üretken modeller deliliğe mahkumdur.”
Baraniuk ve meslektaşları görsel bir üretken YZ modeli üzerinde çalıştılar ve onu üç farklı veri türü üzerinde eğittiler: Tamamen sentetik veriler, sabitlenmiş gerçek eğitim verileriyle karıştırılmış sentetik veriler ve sürekli yenilenen gerçek eğitim verileriyle karıştırılmış sentetik veriler.
İlk iki senaryoda döngüler tekrarlandıkça, modelden elde edilen çıktı giderek daha çarpık bir hale geldi. Bunun kendini gösterdiği en açık yol, oluşturulan yüzlerde ızgara benzeri yara izleri şeklindeki görüntülerdi.
Dahası, taze, insan tarafından oluşturulmuş eğitim verileri söz konusu olmadığında yüzler birbirine giderek daha çok benzemeye başladı. El yazısıyla yazılmış sayılar kullanılarak yapılan testlerde, sayılar giderek anlaşılmaz hale geldi.
Gerçek veriler, yeni veriler eklenmeden sabit bir şekilde kullanıldığında, çıktının kalitesi yine bozuldu, sadece parçalanması biraz daha uzun sürdü. Görünüşe göre tazelik çok önemli...
Baraniuk, “Grubumuz bu tür geri bildirim döngüleri üzerinde kapsamlı bir şekilde çalıştı ve kötü haber şu ki, bu tür eğitimlerin birkaç neslinden sonra bile yeni modeller onarılamaz şekilde bozulabiliyor” ifadelerini kullanıyor.
Bu özel araştırma görüntü üretimine odaklanmış olsa da, ekip metin üretmek için tasarlanmış Büyük Dil Modelleri’nin (LLM’ler) aynı şekilde başarısız olacağını söylüyor. Bu durum diğer çalışmalarda da fark edildi.
Veri tükeniyor mu?
Uzmanlar, üretken YZ araçlarının kendilerini eğitmek için kullanabilecekleri verilerin tükenmekte olduğu konusunda uyarılarda bulunuyor ve bu son çalışma “YZ balonuna” karşı bir başka kontrol görevi görüyor. Kesinlikle umut vadeden bir teknoloji ancak ciddi handikaplar da mevcut.
Baraniuk, “Kıyamet senaryolarından biri, MAD’in nesiller boyunca kontrolsüz kalması durumunda tüm internetin veri kalitesini ve çeşitliliğini zehirleyebilmesi” diyor ve devam ediyor:
“Bunun dışında, yakın vadede bile yapay zekanın otofajisinden dolayı şimdiye kadar görülmemiş istenmeyen sonuçların ortaya çıkması kaçınılmaz görünüyor.”
Söz konusu araştırma, Uluslararası Öğrenme Temsilleri Konferansı’nda (ICLR) sunuldu.