Meta, Sorumlu Yapay Zeka ekibini dağıttı
Sorumlu Yapay Zeka (RAI) üyelerinin çoğu şirketin üretken yapay zeka ürün ekibine geçecek. Diğerleri ise Meta’nın yapay zeka altyapısı üzerinde çalışacak. Şirket düzenli olarak yapay zekayı kontrollü bir şekilde geliştirmek istediğini söylüyor. Hatta şirket, hesap verebilirlik, şeffaflık, güvenlik, gizlilik ve daha fazlasını içeren “sorumlu yapay zekanın sütunlarını” listelediği bir sayfa bile oluşturdu.
RAI, platformlarında sorunları önlemeye yönelik bir bakış açısıyla, hareket ediyor. Meta RAI ekibini modellerinin yeterince çeşitli bilgilerle eğitilip eğitilmediği de dahil olmak üzere yapay zeka eğitim yaklaşımlarıyla ilgili sorunları belirlemek için oluşturdu.
Meta’yı temsil eden Jon Carvill bu konu hakkında bir açıklama yaptı. Yaptığı açıklamada; ”Şirketin güvenli ve sorumlu yapay zeka gelişimine öncelik vermeye ve yatırım yapmaya devam edeceğini” söyledi. Şirket ekibini böldü. Ancak buna rağmen, üyelerin “sorumlu yapay zeka geliştirme ve kullanımına ilişkin ilgili metalar arası çabaları desteklemeye devam edeceklerini” ekledi.
Bu ekip bu yılın başlarında zaten bir yeniden yapılandırıldı. Meta RAI’yi “bir ekibin kabuğu” haline getirdi. Hatta bu yapılanma için bazı personelleri işten çıkardı. Ayrıca bu ekip 2019’dan bu yana faaliyet gösteriyor. Meta RAI ekibinin çok az özerkliğe sahip olduğu ve girişimlerinin uygulamaya koymadan önce dikkatli olmaları konusunda uyardı.
Bu yılın başında Microsoft’un, Meta’nın ve benzer şirketlerin hamleleri, dünyayı ürkütmeye başladı. Dünya hükümetleri yapay zekanın tehlikeleri karşısında düzenleyici korkuluklar oluşturma yarışına girdi. ABD hükümeti ve yapay zeka şirketleriyle anlaşmalar yaptı. Daha sonra ABD Başkanı Biden yapay zeka güvenlik kuralları oluşturmaları için talimat verdi. Avrupa Birliği ise yapay zeka ilkelerini yayınladı. Ayrıca Yapay Zeka Yasası’nı geçirmek için çalışıyorlar.