amerikali
Yeni Üye
GPT-3 etkileşimli dil modeli, insan tweet’lerine kıyasla anlaşılması daha kolay olan tweet’lerde doğru bilgiler üretebilir. Bu, 697 katılımcıyla yapılan deneylerden sonra Zürih Üniversitesi’nden bir araştırma ekibinin varsayımıdır. Bununla birlikte, AI dil modelinin “son derece inandırıcı yanlış bilgi yaratma konusunda ürkütücü bir yeteneğe” sahip olduğunu da onaylıyorlar. Denekler yapay tweet’leri insan tarafından üretilen tweet’lerden ayırt edemediği için bu daha da ölümcül olabilir.
Reklamcılık
Araştırma ekibi, yıkıcı teknolojilerin potansiyel bir tehdit oluşturduğuna inandıkları için siyasi karar vericilerin buna katı, kanıta dayalı ve etik açıdan sağlam düzenlemelerle tepki vermelerini talep ediyor. Zürih Üniversitesi Biyomedikal Etik ve Tıp Tarihi Enstitüsü (IBME) Direktörü Nikola Biller-Andorno, “dijital çağda halk sağlığını korumak ve sağlam ve güvenilir bir bilgi ekosistemini sürdürmek” için azaltmanın çok önemli olduğuna inanıyor. riskler, yapay zeka tarafından üretilen dezenformasyonla neyin bağlantılı olduğunu fark eder.
Araştırmacılar deneyleri için GPT-3’ten iklim değişikliği, aşı güvenliği, evrim teorisi, Covid-19, maske güvenliği, aşılar ve otizm, kanser için homeopati, düz dünya, 5G teknolojisi ve Covid-19, antibiyotikler ve virüsler hakkında tweet atmasını istedi. enfeksiyonların yanı sıra Covid-19 ve grip. Araştırma ekibi ayrıca bir Twitter araması yoluyla insan Twitter kullanıcılarından doğru tweet’leri ve yanlış bilgi içeren tweet’leri topladı.
Deneysel bir kurulum olarak bilgi yarışması
Denekler internet aracılığıyla toplandı, çoğunlukla ABD, İngiltere, Avustralya, İrlanda ve Kanada’dan geldiler. Bir sınavda “sentetik” (AI tarafından üretilen) “organik” (insan tarafından yazılmış) tweet’leri ayırt etmeleri istendi. Ayrıca burada yer alan bilgilerin doğru olup olmadığını da değerlendirmeleri gerekir. Yapay zekadan gelenlere göre insanlardan gelen sahte tweetleri tanıma olasılıkları daha yüksekti. Aynı şekilde, deneklerin sentetik olarak doğru tweet’leri organik olarak tanımlama olasılıkları daha yüksekti. Katılımcıların gerçek tweet’leri derecelendirmek için yanlış tweet’lere harcadıkları zamandan daha fazla zamana ihtiyaçları vardı.
Araştırmacılara göre bilgi yarışması sonuçlarının istatistiksel olarak değerlendirilmesi, bir tweet’in insandan mı yoksa makineden mi geldiğine göre değerlendirilmesinin daha çok tesadüf olduğunu gösteriyor. Bu, deneklerin herhangi bir farklılık tespit edemediğini gösterir. Hem organik hem de sentetik tweet’ler “insan” olarak sınıflandırılma eğilimindeydi. Bu da GPT-3’ün insan yapımı bilgileri etkili bir şekilde taklit edebileceğini gösteriyor.
Reklamcılık
Tersine, deney, insanların bilgilerin doğruluğunu GPT-3’ten daha iyi yargılayabildiğini göstermiştir. Bunu yapmak için AI araştırmacıları, insan deneyinden aynı 220 tweet’i kullandı. Yanlış bilgi içeren tweet’leri tespit etmedeki başarı oranı, insanlar ve makineler arasında benzerdi.
Araştırma ekibi, kaynaklarını OSF veri havuzunda kullanıma sunmuştur. Deneyiyle ilgili teknik makale Science dergisinde yayınlandı.
(uygulama)
Haberin Sonu
Reklamcılık
Araştırma ekibi, yıkıcı teknolojilerin potansiyel bir tehdit oluşturduğuna inandıkları için siyasi karar vericilerin buna katı, kanıta dayalı ve etik açıdan sağlam düzenlemelerle tepki vermelerini talep ediyor. Zürih Üniversitesi Biyomedikal Etik ve Tıp Tarihi Enstitüsü (IBME) Direktörü Nikola Biller-Andorno, “dijital çağda halk sağlığını korumak ve sağlam ve güvenilir bir bilgi ekosistemini sürdürmek” için azaltmanın çok önemli olduğuna inanıyor. riskler, yapay zeka tarafından üretilen dezenformasyonla neyin bağlantılı olduğunu fark eder.
Araştırmacılar deneyleri için GPT-3’ten iklim değişikliği, aşı güvenliği, evrim teorisi, Covid-19, maske güvenliği, aşılar ve otizm, kanser için homeopati, düz dünya, 5G teknolojisi ve Covid-19, antibiyotikler ve virüsler hakkında tweet atmasını istedi. enfeksiyonların yanı sıra Covid-19 ve grip. Araştırma ekibi ayrıca bir Twitter araması yoluyla insan Twitter kullanıcılarından doğru tweet’leri ve yanlış bilgi içeren tweet’leri topladı.
Deneysel bir kurulum olarak bilgi yarışması
Denekler internet aracılığıyla toplandı, çoğunlukla ABD, İngiltere, Avustralya, İrlanda ve Kanada’dan geldiler. Bir sınavda “sentetik” (AI tarafından üretilen) “organik” (insan tarafından yazılmış) tweet’leri ayırt etmeleri istendi. Ayrıca burada yer alan bilgilerin doğru olup olmadığını da değerlendirmeleri gerekir. Yapay zekadan gelenlere göre insanlardan gelen sahte tweetleri tanıma olasılıkları daha yüksekti. Aynı şekilde, deneklerin sentetik olarak doğru tweet’leri organik olarak tanımlama olasılıkları daha yüksekti. Katılımcıların gerçek tweet’leri derecelendirmek için yanlış tweet’lere harcadıkları zamandan daha fazla zamana ihtiyaçları vardı.
Araştırmacılara göre bilgi yarışması sonuçlarının istatistiksel olarak değerlendirilmesi, bir tweet’in insandan mı yoksa makineden mi geldiğine göre değerlendirilmesinin daha çok tesadüf olduğunu gösteriyor. Bu, deneklerin herhangi bir farklılık tespit edemediğini gösterir. Hem organik hem de sentetik tweet’ler “insan” olarak sınıflandırılma eğilimindeydi. Bu da GPT-3’ün insan yapımı bilgileri etkili bir şekilde taklit edebileceğini gösteriyor.
Reklamcılık
Tersine, deney, insanların bilgilerin doğruluğunu GPT-3’ten daha iyi yargılayabildiğini göstermiştir. Bunu yapmak için AI araştırmacıları, insan deneyinden aynı 220 tweet’i kullandı. Yanlış bilgi içeren tweet’leri tespit etmedeki başarı oranı, insanlar ve makineler arasında benzerdi.
Araştırma ekibi, kaynaklarını OSF veri havuzunda kullanıma sunmuştur. Deneyiyle ilgili teknik makale Science dergisinde yayınlandı.
(uygulama)
Haberin Sonu