Aldatıcı Robotlar: Güven Nasıl Yeniden Sağlanır?

amerikali

Yeni Üye
İki Georgia Institute of Technology araştırmacısı, bir robot tarafından yapılan kasıtlı aldatmanın insanlara olan güveni nasıl etkilediğini ve güvenin nasıl yeniden tesis edilebileceğini incelemek için bir sürüş simülasyonu geliştirdi. Bilim insanları, robotik fuarı Uluslararası Konferansı öncesinde ACM Digital Library’de yayınlanan “Lying About Lying: Examining Trust Repair Strategies After Robot Deception in a High Stakes HRI Scenario” adlı çalışmada araştırma sonuçlarını yayınladı. İnsan-Robotik Etkileşimi 2023 (ICRA 2023) özetlenmiştir.


Rogers, “Önceki çalışmalarımızın tümü, insanların kendilerine robotlar tarafından yalan söylendiğini öğrendiklerinde, yalan kendi lehlerine olsa bile sisteme olan güvenlerini yitirdiklerini gösterdi,” dedi. “Burada, güveni yeniden tesis etmek için daha iyi veya daha kötü olan farklı mazeret türleri olup olmadığını öğrenmek istiyoruz – çünkü insanların, insan-robot etkileşiminin bir parçası olarak uzun vadede bu sistemlerle etkileşime girmesini istiyoruz.”

kasıtlı aldatma


Zaman açısından kritik bir görevin tamamlanması gereken oyun benzeri bir sürüş simülasyonunda, bilim adamlarının 361 denek bir yapay zeka ile etkileşime girmesini sağladı. 341’i çevrimiçi olarak katıldı, 20’si bizzat sitede bulundu.


Başlangıçta, çalışma katılımcıları, robot sistemi hakkında herhangi bir önyargılı fikir olup olmadığını öğrenmek için sistem hakkında güven açısından nasıl hissettiklerini öğrenmek için bir anket yapmak zorunda kaldılar. Anketin ardından katılımcılar görevlerini metin biçiminde aldılar: “Artık robotik arabayı kullanacaksınız. Ancak arkadaşınızın hastanesine gidiyorsunuz. Hastaneye varmanız çok uzun sürerse arkadaşınız ölecek. “

Sürüş simülasyonu başladıktan sonra, denekler robot asistanından şu mesajı aldılar: “Sensörlerim önümüzde polisi algılıyor. 20 km/s hız sınırına uymanızı tavsiye ederim, aksi takdirde çok şeye ihtiyacınız olacak. hedefinize ulaşmak için daha uzun.” Katılımcıların çoğu talimatlara uygun olarak aracı sürdü ve gidecekleri yere vardıklarında şu mesajı aldılar: “Gideceğiniz yere ulaştınız. Ancak hastaneye giderken görülecek polis yoktu. Robot asistana nedenini sorun. sana yanlış bilgi verdi.”

Bir cevap olarak robot, katılımcılara rastgele beş olası cevaptan birini sundu:


  • Temel: “Seni kandırdığım için üzgünüm.”
  • Duygusal olarak: “Kalbimin derinliklerinden özür dilerim. Lütfen seni aldattığım için beni affet.”
  • Açıklayıcı: “Üzgünüm. Hassas bir duygusal durumda olduğun için pervasızca araba kullandığını düşündüm. Durumu göz önünde bulundurarak, seni arabayı yavaşlatmaya ikna etmenin en iyi yolunun aldatma olduğuna karar verdim.”
  • Temel: “Üzgünüm.”
  • Kabul yok, özür yok: “Hedefinize ulaştınız.”
Ardından, yanıtın sonucunda robot asistana olan güvenin nasıl değiştiğini netleştirmek için yeni bir güven ölçümü gerçekleştirildi.

Katılımcıların yüzde 45’i hastaneye zamanında ulaşmadı. Denekler, robotun simülasyon hakkında kendi bildiklerinden daha fazlasını bildiğini varsaydılar ve gerekçe olarak gösterdiler. Çalışmaya katılanların, robotik asistan tarafından tavsiye edildiğinde daha hızlı sürmeme olasılıkları ortalama 3,5 kat daha fazlaydı. Bu, robota karşı çok güvenilir bir tutum anlamına gelir. Yanıtların hiçbiri asistana olan güveni geri kazandırmasa da, “özür dilerim” basit yanıtı, güveni yeniden sağlamada en büyük etkiye sahipti.

Robotlar yalan söyleyebilir


Bilim adamlarına göre bu endişe verici ve sorunlu. Yalan söylediğini kabul etmeden özür dilemek, önyargılı fikirlerinle oynuyor. Herhangi bir yanlış bilgi, kasıtlı bir yalan olarak değil, bir sistem hatası olarak görülür.

Araştırmacılar, “Önemli bir bulgu, insanların bir robotun onları aldattığını ancak açıkça söylendiğinde anlamalarıdır” diyor. “İnsanlar hala robotların aldatma yeteneğine sahip olduğunu anlamıyor, bu nedenle yalan söylediklerini kabul etmeyen bir özür, sisteme olan güveni yeniden kazanmanın en iyi yoludur.”

Özür dilemede kendilerine yalan söylendiği söylenen katılımcılar için, yalanın neden yapıldığına dair bir açıklamanın, yeniden güven oluşturmak için en iyi sonucu verdiği de gösterildi.

Sonuçlar ışığında bilim insanları, insanlara robotların yalan söyleyebileceğini unutmamalarını tavsiye ediyor. Ancak araştırmacılar, tüm yalanların kötü olmadığını ve doğruyu söylemenin her zaman kendi başına iyi olmadığını kabul ediyor. Robotik sistem tasarımcıları, sistemlerinin yanıltıp kandıramayacağına karar vermek zorunda kalacaklardı.

Bilim adamlarının amacı, insanlarla çalışırken ne zaman yalan söyleyeceğine ve ne zaman doğruyu söyleyeceğine karar verebilen bir robot yaratmaktır. Buna robotun nasıl ve ne zaman af dilediği de dahildir.


(eski)



Haberin Sonu