amerikali
Yeni Üye
Internet Watch Foundation (IWF), aylardır, artık yapay zeka (AI) sistemleri kullanılarak kolaylıkla oluşturulabilen, çocuklara yönelik cinsel istismara ilişkin çok sayıda tasvire karşı uyarıda bulunuyor. Yalnızca Eylül ayında İngiliz kuruluşu, tek bir darknet forumunda yapay zeka tarafından oluşturulmuş 11.000'den fazla görsel buldu ve bunların neredeyse 3.000'ini yasa dışı olarak sınıflandırdı. Almanya'da “çocuk veya gençlik pornografisi görüntülerinin” dağıtımı, edinilmesi ve bulundurulması, Ceza Kanununun (StGB) 184b ve c Maddeleri uyarınca prensip olarak yasaklanmıştır ve bu, diğer birçok ülkeye göre daha kapsamlıdır. Bununla birlikte, yerel hukuk politikacıları cezai sorumlulukta potansiyel bir boşluk olduğunu tespit etmişlerdir.
Reklamcılık
Rheinland-Pfalz Adalet Bakanı Herbert Mertin (FDP) SWR'ye şu ana kadar yapay zeka tarafından oluşturulan taciz tasvirlerine ilişkin neredeyse hiçbir içtihat bulunmadığını açıkladı. Bu durum belirsizlik yaratıyor: Yapay zeka söz konusu olduğunda “Sorunlardan biri, onu satmak istemeden üretmenin cezasız kalması olabilir”. Eğer failler bu tür materyalleri gerçek çocuklarla üretmiş olsaydı, bu açıkça cezalandırılabilirdi. Adalet Bakanları Konferansı bu nedenle Federal Adalet Bakanı Marco Buschmann'dan (FDP) uzmanlardan oluşan bir komisyon kurmasını istedi. Bu, yeni teknolojik gelişmeleri ve bunların hukuki sonuçlarını ele almalıdır.
İstismarın hayali tasvirleri cezai açıdan alakalıdır
Prensip olarak, istismarın kurgusal tasvirleri ve ilgili metinler bu ülkede suç açısından da geçerlidir. Gerçekçi çizimlerin yanı sıra çizgi roman formatlarının, manga ve hentai'nin değiştirilmiş temsilleri de buna dahildir. Japonya gibi diğer birçok ülkede, federal hükümetin “engellemek yerine silme” ilkesinin uygulanmasına ilişkin raporlarında düzenli olarak açıkladığı gibi, bu tür sanal görüntüler yasa kapsamında bile yer almıyor. Bu aynı zamanda sözde poz temsilleri için de geçerlidir. Bununla birlikte, Federal Kriminal Polis Dairesi (BKA) ve internet şikâyet büroları çoğu zaman “hizmet sağlayıcılarla doğrudan iletişime geçerek” silme işlemini gerçekleştirebilmektedir. Federal Adalet Bakanlığı, “yapay zeka kullanılarak düzenli olarak üretilen çocuk ve gençlik pornografisinin temsilinin” de cezalandırılabilir olduğunu varsaymaktadır. Yasa dışı içeriğin yurt içinde ve yurt dışında çevrimiçi platformlar aracılığıyla dağıtılması durumunda Dijital Hizmetler Yasası (DSA) geçerli olacaktır.
SWR'ye göre, binlerce yapay olarak oluşturulmuş çocuk ve genç görseli Instagram üzerinden belirli hashtag'ler altında dağıtılıyor. Birçoğu dar iç çamaşırlarıyla, mayolarla veya cinselleştirilmiş pozlarla tasvir ediliyordu. Bu tür görselleri paylaşan bazı hesaplar ticaret, kitlesel fonlama veya Japon web sitesi gibi topluluk platformlarıyla bağlantılıdır. İkincisi BKA tarafından da biliniyor ve kullanıcı yorumlarına göre pedofilik bozukluğu olan kişiler tarafından ağ oluşturmak için kullanılıyor. Buradan birkaç kullanıcı, çocuk istismarının gerçek görüntülerini içeren diğer tekliflere bağlantı verdi. BKA, yapay zeka tarafından üretilen pornografi vakalarını henüz ayrı ayrı kaydetmedi, ancak 2022'de istismar tasvirlerinde genel bir artışa işaret ediyor. Yapay görüntülerin gerçek olanlardan neredeyse ayırt edilmesi mümkün değil. Gerçek fotoğraflar bazen yapay zeka görüntülerinin temelini de oluşturuyordu.
Araştırmacılar yakın zamanda Laion 5B veri setinde yasa dışı olarak sınıflandırdıkları kötüye kullanım kayıtlarına yönelik 1.679 bağlantı keşfettiler. AI görüntü oluşturucu Stable Diffusion'ın geliştiricisi Stablity AI, açık kaynaklı eğitim seti ile çalışır. Laion'un arkasındaki kuruluş daha sonra veri setlerinin web'den kaldırıldığını duyurdu. Stablity AI, eğitimin veri setinin güvenlik odaklı bir kısmına odaklandığını iddia etti. Raporlara göre modelin eski bir versiyonu Darknet'te dolaşıyor ve bu versiyon kolaylıkla kötü amaçlı materyal üretmek için kullanılabilir. Kuzey Ren-Vestfalya'daki Siber Suçlar Merkezi ve İletişim Merkezi'nden (ZAC) kıdemli savcı Markus Hartmann, araştırmacıların yapay zeka tarafından oluşturulan görüntüleri hatalı bir şekilde yeni gerçek kötüye kullanım olarak değerlendirmesinden ve bu nedenle kaynak açısından sınırlarına ulaştıklarından endişe ediyor. Cinsel doktorlar, “yapay” görüntülerin pedofililer arasında algı bozukluklarına da yol açabileceği konusunda uyarıyor.
(olb)
Haberin Sonu
Reklamcılık
Rheinland-Pfalz Adalet Bakanı Herbert Mertin (FDP) SWR'ye şu ana kadar yapay zeka tarafından oluşturulan taciz tasvirlerine ilişkin neredeyse hiçbir içtihat bulunmadığını açıkladı. Bu durum belirsizlik yaratıyor: Yapay zeka söz konusu olduğunda “Sorunlardan biri, onu satmak istemeden üretmenin cezasız kalması olabilir”. Eğer failler bu tür materyalleri gerçek çocuklarla üretmiş olsaydı, bu açıkça cezalandırılabilirdi. Adalet Bakanları Konferansı bu nedenle Federal Adalet Bakanı Marco Buschmann'dan (FDP) uzmanlardan oluşan bir komisyon kurmasını istedi. Bu, yeni teknolojik gelişmeleri ve bunların hukuki sonuçlarını ele almalıdır.
İstismarın hayali tasvirleri cezai açıdan alakalıdır
Prensip olarak, istismarın kurgusal tasvirleri ve ilgili metinler bu ülkede suç açısından da geçerlidir. Gerçekçi çizimlerin yanı sıra çizgi roman formatlarının, manga ve hentai'nin değiştirilmiş temsilleri de buna dahildir. Japonya gibi diğer birçok ülkede, federal hükümetin “engellemek yerine silme” ilkesinin uygulanmasına ilişkin raporlarında düzenli olarak açıkladığı gibi, bu tür sanal görüntüler yasa kapsamında bile yer almıyor. Bu aynı zamanda sözde poz temsilleri için de geçerlidir. Bununla birlikte, Federal Kriminal Polis Dairesi (BKA) ve internet şikâyet büroları çoğu zaman “hizmet sağlayıcılarla doğrudan iletişime geçerek” silme işlemini gerçekleştirebilmektedir. Federal Adalet Bakanlığı, “yapay zeka kullanılarak düzenli olarak üretilen çocuk ve gençlik pornografisinin temsilinin” de cezalandırılabilir olduğunu varsaymaktadır. Yasa dışı içeriğin yurt içinde ve yurt dışında çevrimiçi platformlar aracılığıyla dağıtılması durumunda Dijital Hizmetler Yasası (DSA) geçerli olacaktır.
SWR'ye göre, binlerce yapay olarak oluşturulmuş çocuk ve genç görseli Instagram üzerinden belirli hashtag'ler altında dağıtılıyor. Birçoğu dar iç çamaşırlarıyla, mayolarla veya cinselleştirilmiş pozlarla tasvir ediliyordu. Bu tür görselleri paylaşan bazı hesaplar ticaret, kitlesel fonlama veya Japon web sitesi gibi topluluk platformlarıyla bağlantılıdır. İkincisi BKA tarafından da biliniyor ve kullanıcı yorumlarına göre pedofilik bozukluğu olan kişiler tarafından ağ oluşturmak için kullanılıyor. Buradan birkaç kullanıcı, çocuk istismarının gerçek görüntülerini içeren diğer tekliflere bağlantı verdi. BKA, yapay zeka tarafından üretilen pornografi vakalarını henüz ayrı ayrı kaydetmedi, ancak 2022'de istismar tasvirlerinde genel bir artışa işaret ediyor. Yapay görüntülerin gerçek olanlardan neredeyse ayırt edilmesi mümkün değil. Gerçek fotoğraflar bazen yapay zeka görüntülerinin temelini de oluşturuyordu.
Araştırmacılar yakın zamanda Laion 5B veri setinde yasa dışı olarak sınıflandırdıkları kötüye kullanım kayıtlarına yönelik 1.679 bağlantı keşfettiler. AI görüntü oluşturucu Stable Diffusion'ın geliştiricisi Stablity AI, açık kaynaklı eğitim seti ile çalışır. Laion'un arkasındaki kuruluş daha sonra veri setlerinin web'den kaldırıldığını duyurdu. Stablity AI, eğitimin veri setinin güvenlik odaklı bir kısmına odaklandığını iddia etti. Raporlara göre modelin eski bir versiyonu Darknet'te dolaşıyor ve bu versiyon kolaylıkla kötü amaçlı materyal üretmek için kullanılabilir. Kuzey Ren-Vestfalya'daki Siber Suçlar Merkezi ve İletişim Merkezi'nden (ZAC) kıdemli savcı Markus Hartmann, araştırmacıların yapay zeka tarafından oluşturulan görüntüleri hatalı bir şekilde yeni gerçek kötüye kullanım olarak değerlendirmesinden ve bu nedenle kaynak açısından sınırlarına ulaştıklarından endişe ediyor. Cinsel doktorlar, “yapay” görüntülerin pedofililer arasında algı bozukluklarına da yol açabileceği konusunda uyarıyor.
(olb)
Haberin Sonu