Otonom arabalar: Etik algoritma kaza riskini tartmalı

amerikali

Yeni Üye
Almanya’dan bir araştırma grubu, önlenemeyen kaza riskini mümkün olduğunca adil bir şekilde dağıtacak şekilde otonom arabaların sürüş manevralarını kontrol edecek bir algoritma önerisi geliştirdi. Bir AB uzman grubunun gereksinimlerini karşılayan ilk etik algoritmadır. Grup, riskli durumlarda beş ilkenin birbirine karşı tartılması gerektiğini önermektedir: bir manevranın maksimum kabul edilebilir riski, en kötü etkilenebilecek olanlar için özel koruma, tüm insanlara eşit muamele, genel riskin en aza indirilmesi ve manevranın kişisel sorumluluğu. yol kullanıcıları. Üçü, ilkelerin tam ağırlığının toplumda açıklığa kavuşturulmasını talep ediyor.


İkilemler çözülemez


Algoritma, Nature Machine Intelligence’ın güncel sayısında sunulmuştur. Münih Teknik Üniversitesi’nden Maximilian Geisslinger liderliğindeki gruba göre otonom araçların etik davranışı, yollarda yaygın kullanım yolunda önemli bir kilometre taşı. Bu nedenle ilkelerinin uygulanabilirliğini binlerce simülasyonda kontrol ettiler, ancak çözülemeyen zayıf noktalara da işaret ettiler. Dikkatsizce sokağa ve muhtemelen bir arabanın önüne koşan bir insan ile hayatından endişe edip sokağa kaçan biri arasında fark vardır. AI bile hiçbir zaman tüm bilgilere sahip olmayacak ve bu nedenle mükemmel bir çözüm olamaz.


Teklif yayınlandığında, Karlsruhe Teknoloji Enstitüsü’nden (KIT) Claudia Brändle, fikrin tamamen yeni olmadığına dikkat çekti. Bir kişiyi kurtarmak için bir kişiyi feda etmenin etik olarak haklı olup olmadığı sorusuyla ilgili olan, sözde tramvay sorunuyla ilgili mevcut düşüncelere atıfta bulunuyor. Ancak, zararı üstlenmek yerine ilgililer için bir risk varsa, bu temel soru çözülemez. Aynı zamanda, kişinin kendi davranışının sorumluluğunu dahil etmesinin ilginç olduğunu, ancak aynı zamanda sorunsuz olmadığını düşünüyor. Sonuçta, bazı sonuçlar ciddidir.

Potsdam’daki Sürdürülebilirlik Araştırma Enstitüsü’nden Ortwin Renn’e göre, otonom sürüş üzerine hiçbir konferans böyle bir karar algoritması sunmadan geçmez. Yapay zekanın dahil edilmesinin ikilemleri çözebileceğinden şüphe ediyor. Bu yüzden iki ilke arasında çelişkiler olduğunda nasıl ilerleneceğini sorar. Teknoloji sorunu daha şeffaf ve plastik hale getirebilir.

Bununla birlikte, her şeyden önce, araştırmalar bu kadar yoğun bir şekilde çalışsa bile, uygulama vakalarının son derece olası olmadığını söylüyor. Örneğin, sigorta şirketleri tek bir özel vakanın farkında değildi. Buna en yakın şey, direksiyon başındaki kişilerin birinden kaçınmak zorunda kaldığı ve dolayısıyla kendilerini tehlikeye attığı durumlar olacaktır. Ama kemerlerini bağlamaları gerektiği için buradaki cevap açık. Araştırmacıların gösterdiği bir örnek de bir ikilemi temsil etmiyor, bu prensipler tartıldıktan sonra yapılmayan riskli bir sollama manevrasıyla ilgili.



(mho)



Haberin Sonu