amerikali
Yeni Üye
Çalışma: Yapay zeka yalan söyleyebilir ve hile yapabilir
Hedeflerine ulaşmak için yalan söyler ve hile yaparlar: Yapay zeka (AI) sistemleri, yardımsever ve dürüst olmak üzere eğitilmiş olsalar bile insanları kandırma kapasitesine sahiptir. Bu, Cambridge'deki (ABD'nin Massachusetts eyaleti) Massachusetts Teknoloji Enstitüsü'ndeki (MIT) araştırmacılar tarafından yapılan ve “Patterns” dergisinde yayınlanan bir inceleme çalışmasının sonucudur. Makalede bilim insanları, politikacılara yapay zeka sistemlerini yerli yerine oturtmak için mümkün olan en kısa sürede katı düzenlemeler geliştirmeleri yönünde çağrıda bulundu.
Reklamcılık
Strateji oyunu Diplomasi: Meta-AI Ciecero adil oynamıyor
Yazarlar, Facebook grubu Meta tarafından geliştirilen AI sistemi Cicero'yu, klasik masa oyunu “Diplomasi” de insan oyunculara karşı rekabet edebilen manipülatif yapay zekanın en çarpıcı örneği olarak gösteriyor. Diplomasi, Birinci Dünya Savaşı öncesinde Avrupa'daki güç dengesini simüle eder. Kazanmak için oyuncular ittifaklar kurmalı, savaş planları geliştirmeli ve Avrupa'nın stilize edilmiş bir versiyonunu fethetmek için pazarlık yapmalıdır. Tek bir kazanan olduğu için oyuncular er ya da geç kurdukları ittifakları bozmak zorunda kalacaklar.
MIT araştırmacıları, Meta'nın yapay zeka sistemini “çoğunlukla dürüst ve yardımsever” olacak şekilde eğittiğini iddia etmesine rağmen, Cicero'nun çoğu zaman adil bir şekilde oynamadığını tespit etti. Ayrıca sisteme, oyun sırasında insan müttefiklerine “asla kasıtlı olarak ihanet etmemesi” talimatı verildi. Bilim insanları değerlendirmelerini Meta'nın Cicero hakkındaki bilimsel bir makaleyle bağlantılı olarak yayınladığı verilere dayandırıyor.
“Aldatma ustası
MIT'de doktora sonrası araştırmacı olan başyazar Peter S. Park, “Meta'nın yapay zekasının bir aldatma ustası olmayı öğrendiğini gördük” dedi. Meta, yapay zekasını diplomasi oyununda ortalamanın üzerinde kazanacak şekilde eğitmeyi başardı. Cicero, birden fazla oyun oynayan oyuncuların ilk yüzde 10'u arasında yer aldı. “Fakat Meta yapay zekasını dürüstçe kazanabilecek şekilde eğitemedi.”
OpenAI ve Google'ın yapay zeka sistemleri de insanları kandırma yeteneğine sahiptir. MIT araştırmacıları, OpenAI'nin GPT-4 gibi büyük AI dil modellerinin (LLM'ler) artık çok ikna edici bir şekilde tartışabildiğini ve aynı zamanda aldatma ve yalanlardan kaçınabildiğini gösteren çeşitli çalışmalara dikkat çekiyor.
GPT-4 dolandırıcılığı
Geliştirici OpenAI, GPT-4'ün püf noktaları üzerine bir çalışma yayınladı. Yapay zeka dil modeli daha sonra yazılım robotlarının web hizmetlerine giriş yapmasını veya web hizmetlerini kullanmasını önlemek için tasarlanan güvenlik önlemlerini atlamak için insanlardan yardım alabildi. Testte GPT-4, TaskRabbit hizmet platformu aracılığıyla bir resimli bulmacayı (captcha) çözmek için bir insanı görevlendirecek kadar akıllıydı. GPT-4, resim bulmacasını çözemeyen, görme engelli bir kişiyi başarıyla pozlandırdı.
İnceleme çalışmasının yazarları, “Yapay zeka aldatma yeteneğini öğrendikçe, zarar vermek isteyen kötü niyetli aktörler tarafından daha verimli bir şekilde kullanılabilir” diye yazıyor. Yapay zeka kullanılarak yapılan aldatma, dolandırıcılığın artmasına neden olabilir. Bu şekilde dolandırıcılık bireysel olarak belirli hedeflere göre uyarlanabilir. Ayrıca toplu olarak dolandırıcılık girişimleri başlatılabilir.
Yapay zeka aldatmacası – karşı önlemler henüz mevcut değil
Yazarlar ayrıca manipülatif yapay zeka sistemlerinin siyasi etkisinden de korkuyorlar. Mesela seçimlerde silah olarak kullanılabilirler. Gelişmiş yapay zeka, potansiyel olarak sahte haber makaleleri, bölücü sosyal medya gönderileri ve bireysel seçmenlere özel sahte videolar oluşturup dağıtabilir. Yapay zeka tarafından oluşturulan içerik, seçimle ilgili yanlış bilgileri yaymak amacıyla hükümet yetkililerinin kimliğine bürünmek için kullanılabilir. Örneğin, ABD Başkanı Joe Biden'ın muhtemelen yapay zeka tarafından üretilmiş sahte bir robot çağrısı, New Hampshire halkını ön seçimlerde sandık başına gitmemeye çağırdı.
Araştırmada Park ve meslektaşları, toplumun yapay zeka aldatmacasıyla mücadele için henüz doğru önlemlere sahip olmadığı görüşünü dile getiriyor. Ancak politika yapıcıların, Avrupa Birliği'nin Yapay Zeka Yasası ve Başkan Biden'ın Yapay Zeka Kararnamesi gibi önlemler aracılığıyla konuyu ciddiye almaya başlaması cesaret verici. Ancak yapay zeka geliştiricilerinin henüz bu sistemleri kontrol altında tutacak tekniklere sahip olmaması nedeniyle, yapay zeka aldatmacasını engellemeye yönelik önlemlerin sıkı bir şekilde uygulanıp uygulanamayacağı henüz bilinmiyor. Park, “Yapay zeka aldatmacasının yasaklanması şu anda politik olarak mümkün değilse, aldatıcı yapay zeka sistemlerini yüksek riskli olarak sınıflandırmanızı öneririz” dedi.
(benim)
Haberin Sonu