Hava Durumu
TR
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文
TR
Türkçe
English
Русский
Français
العربية
Deutsch
Español
日本語
中文

Yapay zekayı besleyen veriler 2026'da tükendiğinde ne olacak?

Yapay zeka, popülaritesinin zirvesine ulaşırken araştırmacılar endüstrinin güçlü sistemleri çalıştırmak için ihtiyaç duyduğu kaliteli eğitim verilerinin tükendiğini belirterek uyarıyor.

Haber Giriş Tarihi: 22.11.2023 17:34
Haber Güncellenme Tarihi: 22.11.2023 17:34
Kaynak: Haber Merkezi
https://www.teknolojihaberleri.com.tr/
Yapay zekayı besleyen veriler 2026'da tükendiğinde ne olacak?

Bu durum, söz konusu teknolojik sistemlerin ve özellikle de ChatGPT gibi büyük dil modellerinin (LLM) gelişimini yavaşlatabilir. Hatta yapay zeka devriminin gidişatını bile değiştirebilir.Avustralya'daki Macquarie Üniversitesi'nde öğretim üyesi Rita Matulionyte, The Conversation'da yayımlanan yazısında hızla tükenen veri sorununa ışık tuttu. "İnternette bu kadar çok veri olduğu göz

önüne alındığında bu eksiklik neden sorun olsun ki?" diyen akademisyen, kaliteli verilerin yapay zeka sistemlerinin eğitimi için zorunluluk olduğunu vurguladı.Akademisyen ayrıca, veri tükenme riskini gidermenin bir yolu olup olmadığını da sorguladı.

Yapay zeka için yüksek kaliteli veriler neden önemli?

Doğru ve işe yarar çıktılar üreten yapay zeka algoritmalarını eğitmek için çok fazla veriye ihtiyaç var. Örneğin ChatGPT, 570 gigabaytlık metin verisi veya yaklaşık 300 milyar kelimeyle eğitildi.

Benzer şekilde, DALL-E, Stable Diffusion ve Midjourney gibi birçok görüntü üretme uygulamasının arkasındaki algoritmaların eğitiminde de, 5,8 milyar görüntü-metin çiftinden oluşan LIAON-5B veri kümesi kullanıldı.

Matulionyte, "Bir algoritma yetersiz miktarda veriyle eğitilirse hatalı veya düşük kaliteli çıktılar üretir" diyor.Eğitim verilerinin kalitesi de önemli. Sosyal medya gönderileri veya bulanık fotoğraflar gibi düşük kaliteli verilere ulaşmak kolay ama yüksek performanslı yapay zeka modellerini eğitmek için bunlar yeterli değil.

Bunun yanı sıra eğitim için sosyal medya platformlarından alınacak metinler yanlış bilgi veya cinsiyetçi, ırkçı ifadeler içerebilir. Örneğin Microsoft, kendi yapay zeka botunu Twitter içeriğini kullanarak eğitmeye çalıştığında ırkçı ve kadın düşmanı çıktılar ürettiği görülmüştü.Akademisyen "Yapay zeka geliştiricilerinin kitaplar, makaleler, Wikipedia yazıları ve belirli filtrelenmiş internet içerikleri gibi yüksek kaliteli şeyleri aramasının nedeni bu" ifadelerini kullanıyor.

Yorum Ekle
Gönderilen yorumların küfür, hakaret ve suç unsuru içermemesi gerektiğini okurlarımıza önemle hatırlatırız!
Yorumlar
En son gelişmelerden anında haberdar olmak için 'İZİN VER' butonuna tıklayınız.