amerikali
Yeni Üye
OpenAI ve Google Deepmind'in eski ve mevcut çalışanları, yapay zeka teknolojisinin geliştirilmesiyle ilişkili riskler konusunda kamuya açık bir şekilde uyarıda bulunuyor ve daha fazla şeffaflık ve eleştiriye cevap verme yeteneği çağrısında bulunuyorlar. Sektörden toplam 13 kişi, OpenAI'nin altı anonim çalışanı tarafından da imzalanan açık bir mektupta bunu özetledi. Grup, riskle ilgili endişelerin isimsiz olarak ve sonuçlardan korkmadan ifade edilebilmesi çağrısında bulunuyor. Ayrıca şirketler, yapıcı eleştiri kültürünü desteklemeli ve eğer daha önce iç girişimler başarısız olmuşsa, bunu kamuoyuna açıklayanlara karşı harekete geçmemelidir. Mektup, risklerin fazlasıyla göz ardı edildiği bir sektör imajını güçlendiriyor.
Reklamcılık
OpenAI eleştiriden kaçamaz
Yapay zeka sektörünün güvenlik kaygılarını ele almasına yönelik kamuoyu eleştirisi, OpenAI'de haftalardır süren çalkantılı faaliyetlerin ardından geliyor ve durumu sakinleştirmeye yardımcı olması pek olası değil. Üç hafta önce, ChatGPT'nin arkasındaki şirket, aslında gelecekteki bir süper zekayı kontrol etmek ve izlemekten sorumlu olması gereken Süper Hizalama Ekibi'ni dağıttı. Buna belirgin ayrılıklar eşlik etti ve bunu yeni istifalar izledi. Açık mektuptaki talepler resmi olarak tüm yapay zeka şirketlerine yönelik olsa da, neredeyse yalnızca eski ve mevcut çalışanlar tarafından imzalandığı için odak noktasının yine OpenAI üzerinde olması muhtemel. Şirketin güvenlik sorunlarını göz ardı ettiği yönündeki endişelerin daha da artması bekleniyor.
Açık mektubun imzacıları New York Times'a, OpenAI'nin süper zeka (“Yapay Genel Zeka”) üzerinde yoğun bir şekilde çalışırken kârı ve büyümeyi her şeyin üstünde tuttuğuna inandıklarını söyledi. Eski OpenAI araştırmacısı Daniel Kokotajlo, “OpenAI, AGI'yi geliştirme konusunda gerçekten heyecanlı ve oraya ulaşma yarışında ilk olmaya çalışırken pervasızlar” dedi. Düzenlediği grup, sektöre etkin denetimin engellenmesi için güçlü mali teşviklerin bulunduğuna dikkat çekiyor. Risklerle ilgili bilgilerin aslında hükümetlerle veya halkla paylaşılmasına gerek yoktur. Böyle olduğu sürece içeridekilere bağımlıdırlar ve bu nedenle korunmaları gerekir.
OpenAI yaptığı açıklamada, en güçlü ve en güvenli yapay zeka sistemlerini sağlama konusundaki geçmişinden gurur duyduğunu garanti etti. Risklerden kaçınmanın bilimsel yaklaşımına inanır, tartışmayı destekler ve katılır. New York Times, yan kuruluşu Deepmind'in de açık mektubu imzaladığı iki çalışanının yorum yapmayı reddettiğini yazıyor. Şirket, OpenAI'den farklı olarak şu ana kadar eleştirilerin odağı olmadı. Ve şimdi özellikle OpenAI'nin yeniden ilgi odağı olması muhtemel. Yapay zeka şirketi şu ana kadar tartışmayı sakinleştirmeyi başaramadı. Tam tersi. Koruma ve güvenlik için bir komitenin kurulması bile muhtemelen endişeleri gidermedi.
(mho)
Haberin Sonu
Reklamcılık
OpenAI eleştiriden kaçamaz
Yapay zeka sektörünün güvenlik kaygılarını ele almasına yönelik kamuoyu eleştirisi, OpenAI'de haftalardır süren çalkantılı faaliyetlerin ardından geliyor ve durumu sakinleştirmeye yardımcı olması pek olası değil. Üç hafta önce, ChatGPT'nin arkasındaki şirket, aslında gelecekteki bir süper zekayı kontrol etmek ve izlemekten sorumlu olması gereken Süper Hizalama Ekibi'ni dağıttı. Buna belirgin ayrılıklar eşlik etti ve bunu yeni istifalar izledi. Açık mektuptaki talepler resmi olarak tüm yapay zeka şirketlerine yönelik olsa da, neredeyse yalnızca eski ve mevcut çalışanlar tarafından imzalandığı için odak noktasının yine OpenAI üzerinde olması muhtemel. Şirketin güvenlik sorunlarını göz ardı ettiği yönündeki endişelerin daha da artması bekleniyor.
Açık mektubun imzacıları New York Times'a, OpenAI'nin süper zeka (“Yapay Genel Zeka”) üzerinde yoğun bir şekilde çalışırken kârı ve büyümeyi her şeyin üstünde tuttuğuna inandıklarını söyledi. Eski OpenAI araştırmacısı Daniel Kokotajlo, “OpenAI, AGI'yi geliştirme konusunda gerçekten heyecanlı ve oraya ulaşma yarışında ilk olmaya çalışırken pervasızlar” dedi. Düzenlediği grup, sektöre etkin denetimin engellenmesi için güçlü mali teşviklerin bulunduğuna dikkat çekiyor. Risklerle ilgili bilgilerin aslında hükümetlerle veya halkla paylaşılmasına gerek yoktur. Böyle olduğu sürece içeridekilere bağımlıdırlar ve bu nedenle korunmaları gerekir.
OpenAI yaptığı açıklamada, en güçlü ve en güvenli yapay zeka sistemlerini sağlama konusundaki geçmişinden gurur duyduğunu garanti etti. Risklerden kaçınmanın bilimsel yaklaşımına inanır, tartışmayı destekler ve katılır. New York Times, yan kuruluşu Deepmind'in de açık mektubu imzaladığı iki çalışanının yorum yapmayı reddettiğini yazıyor. Şirket, OpenAI'den farklı olarak şu ana kadar eleştirilerin odağı olmadı. Ve şimdi özellikle OpenAI'nin yeniden ilgi odağı olması muhtemel. Yapay zeka şirketi şu ana kadar tartışmayı sakinleştirmeyi başaramadı. Tam tersi. Koruma ve güvenlik için bir komitenin kurulması bile muhtemelen endişeleri gidermedi.
(mho)
Haberin Sonu