amerikali
Yeni Üye
Yapay zekayı (AI) yapay zeka görüntüleri oluşturmak üzere eğitmek için kullanılan LAION-5B veri kümesi, çocuk istismarı görüntülerine bağlantılar içeriyordu. Stanford İnternet Gözlemevi’ndeki bilim adamlarının keşfettiği şey buydu. Diğerlerinin yanı sıra Stable Diffusion’ın geliştiricisi Stablity AI tarafından kullanılan eğitim seti, zararlı içeriklerin oluşturulmasına yol açabilir.
Reklamcılık
Özellikle LAION-5B veri kümesi, yasa dışı içeriğe sahip görsellere giden toplam 1679 bağlantı içeriyordu. Stanford araştırmacılarına göre görüntüler sosyal medya gönderilerinden ve yetişkinlere yönelik web sitelerinden geliyor. Bu, Eylül 2023’te LAION veri setinin incelenmesi sırasında fark edildi. Bulgular daha sonra PhotoDNA dahil uygun tanıma platformlarına gönderildi. Ayrıca bilim insanları görüntüleri Kanada Çocuk Koruma Merkezi’ne de kontrol ettirdi.
Mesafe zor
Stanford araştırmacılarına göre sorunlu içeriğin tamamen ortadan kaldırılması zor. Özellikle onlarla eğitilen yapay zeka modellerinden bunları çıkarmak. Önerileri, LAION-5B veri seti ile eğitilmiş yapay zeka modellerinin artık dağıtılmaması yönündedir. Kararlı Difüzyon 1.5 etkilenir. Stability AI, ABD teknoloji dergisi The Verge’e verdiği demeçte, daha yeni sürümlerin farklı bir veri seti ile eğitildiğinin söylendiğini söyledi. Ancak şirket bunların ne olduğunu açıklamadı.
Oluşturulan görüntüler üzerindeki gerçek etkinin ne kadar büyük olduğu belli değil. Her halükarda araştırmacılar, modelin çocuk istismarı görüntülerinden bir şeyler öğrendiğini göz ardı etmiyor.
LAION-5B veri kümesini yöneten kar amacı gütmeyen kuruluş LAION, Bloomberg’in yazdığına göre başlangıçta veri kümelerini web’den kaldıracağını söyledi. Stability AI, bu tür fotoğrafların kullanımına karşı iç politikalarının olduğunu söyledi. LAION-5B eğitim için kullanıldı ancak odak noktası veri setinin güvenlik için tasarlanmış bir kısmıydı.
(olb)
Haberin Sonu
Reklamcılık
Özellikle LAION-5B veri kümesi, yasa dışı içeriğe sahip görsellere giden toplam 1679 bağlantı içeriyordu. Stanford araştırmacılarına göre görüntüler sosyal medya gönderilerinden ve yetişkinlere yönelik web sitelerinden geliyor. Bu, Eylül 2023’te LAION veri setinin incelenmesi sırasında fark edildi. Bulgular daha sonra PhotoDNA dahil uygun tanıma platformlarına gönderildi. Ayrıca bilim insanları görüntüleri Kanada Çocuk Koruma Merkezi’ne de kontrol ettirdi.
Mesafe zor
Stanford araştırmacılarına göre sorunlu içeriğin tamamen ortadan kaldırılması zor. Özellikle onlarla eğitilen yapay zeka modellerinden bunları çıkarmak. Önerileri, LAION-5B veri seti ile eğitilmiş yapay zeka modellerinin artık dağıtılmaması yönündedir. Kararlı Difüzyon 1.5 etkilenir. Stability AI, ABD teknoloji dergisi The Verge’e verdiği demeçte, daha yeni sürümlerin farklı bir veri seti ile eğitildiğinin söylendiğini söyledi. Ancak şirket bunların ne olduğunu açıklamadı.
Oluşturulan görüntüler üzerindeki gerçek etkinin ne kadar büyük olduğu belli değil. Her halükarda araştırmacılar, modelin çocuk istismarı görüntülerinden bir şeyler öğrendiğini göz ardı etmiyor.
LAION-5B veri kümesini yöneten kar amacı gütmeyen kuruluş LAION, Bloomberg’in yazdığına göre başlangıçta veri kümelerini web’den kaldıracağını söyledi. Stability AI, bu tür fotoğrafların kullanımına karşı iç politikalarının olduğunu söyledi. LAION-5B eğitim için kullanıldı ancak odak noktası veri setinin güvenlik için tasarlanmış bir kısmıydı.
(olb)
Haberin Sonu