Kendi kendini süren tramvay sorunu: Gelecekteki yapay zeka sistemleri hepimiz için en etik seçimleri nasıl yapacak?

Kredi bilgileri: Shutterstock

Yapay zeka (AI) zaten iş, sağlık ve üretim alanlarında kararlar alıyor. Ancak AI algoritmaları genellikle hala kontrolleri uygulayan ve son aramayı yapan kişilerden yardım alır.

Yapay zeka sistemleri, insanlar için ölüm kalım anlamına gelebilecek bağımsız kararlar almak zorunda kalsaydı ne olurdu?

Pop kültürü, uzun süredir AI’ya olan genel güvensizliğimizi yansıtıyor. 2004 bilimkurgu filmi “I, Robot”ta, dedektif Del Spooner (Will Smith tarafından canlandırılır), bir araba kazasından biri tarafından kurtarıldıktan sonra robotlardan şüphelenir ve 12 yaşındaki bir kız boğulmaya bırakılır. “Mantıklı bir seçimdim. Hayatta kalma şansımın %45 olduğunu hesapladı. Sarah’nın yalnızca %11 şansı vardı. Bu birinin bebeğiydi – %11 fazlasıyla yeterli. Bir insan bunu bilirdi. “

İnsanlardan farklı olarak, robotlar ahlaki bir vicdandan yoksundur ve kendilerine programlanmış “etiği” takip ederler. Aynı zamanda, insan ahlakı oldukça değişkendir. Herhangi bir durumda yapılacak “doğru” şey, kime sorduğunuza bağlı olacaktır.

Makinelerin bize tam potansiyellerinde yardımcı olmaları için etik davrandıklarından emin olmamız gerekir. Öyleyse soru şu hale geliyor: AI geliştiricilerinin ve mühendislerinin etiği, AI tarafından verilen kararları nasıl etkiler?

Kendi kendine sürüş geleceği

Tamamen otonom olan kendi kendini süren arabalarla bir gelecek hayal edin. Her şey istendiği gibi giderse, sabah işe gidip gelmek, günlük toplantılara hazırlanmak, haberleri takip etmek veya arkanıza yaslanıp rahatlamak için bir fırsat olacaktır.

Ama ya işler ters giderse? Araba bir trafik ışığına yaklaşır, ancak aniden frenler bozulur ve bilgisayarın anlık bir karar vermesi gerekir. Yakındaki bir direğe çarparak yolcuyu öldürebilir veya devam edip öndeki yayayı öldürebilir.

Arabayı kontrol eden bilgisayar, sadece araba sensörleri aracılığıyla toplanan sınırlı bilgilere erişebilecek ve buna göre bir karar vermesi gerekecek. Bu ne kadar dramatik görünse de, potansiyel olarak bu tür ikilemlerle yüzleşmekten sadece birkaç yıl uzaktayız.

Otonom arabalar genellikle daha güvenli sürüş sağlayacaktır, ancak özellikle öngörülebilir gelecekte, bu arabaların yolları insan sürücüler ve diğer yol kullanıcıları ile paylaşacağı zaman kazalar kaçınılmaz olacaktır.

Tesla, planlasa da henüz tam otonom otomobiller üretmiyor. Çarpışma durumlarında, kontrol bir insan sürücüdeyse Tesla arabaları Otomatik Acil Durum Frenleme (AEB) sistemini otomatik olarak çalıştırmaz veya devre dışı bırakmaz.





Başka bir deyişle, çarpışmaya kendileri sebep olsalar bile, sürücünün eylemleri kesintiye uğramaz. Bunun yerine, araç olası bir çarpışma tespit ederse, harekete geçmesi için sürücüye uyarılar gönderir.

Ancak “otomatik pilot” modunda, araç yayalar için otomatik olarak fren yapmalıdır. Bazıları, arabanın bir çarpışmayı önleyip önleyemediğini, o zaman her senaryoda sürücünün eylemlerini geçersiz kılmak için ahlaki bir zorunluluk olduğunu tartışıyor. Ancak bu kararı otonom bir otomobilin vermesini ister miydik?

Bir hayatın değeri nedir?

Ya bir arabanın bilgisayarı, arabasındaki yolcunun ve yayanın göreli “değerini” değerlendirebilseydi? Kararı bu değeri dikkate alsaydı, teknik olarak sadece bir maliyet-fayda analizi yapıyor olurdu.

Bu endişe verici gelebilir, ancak bunun olmasına izin verebilecek teknolojiler zaten geliştirilmektedir. Örneğin, yakın zamanda yeniden markalaştırılan Meta (eski adıyla Facebook), bir sahnedeki kişileri kolayca tanımlayabilen yüz tanıma özelliğini oldukça geliştirdi.

Bu veriler otonom bir aracın AI sistemine dahil edilirse, algoritma her bir yaşam için bir dolar değeri koyabilir. Bu olasılık, Massachusetts Institute of Technology’deki uzmanlar ve meslektaşları tarafından yürütülen kapsamlı bir 2018 çalışmasında tasvir edilmiştir.

Ahlaki Makine deneyi aracılığıyla araştırmacılar, katılımcıları evsiz bir yayayı mı yoksa yönetici bir yayayı mı öldüreceklerine karar vermeye zorlayan çeşitli kendi kendine giden araba senaryoları ortaya koydu.

Sonuçlar, katılımcıların seçimlerinin ülkelerindeki ekonomik eşitsizlik düzeyine bağlı olduğunu ortaya çıkardı, burada daha fazla ekonomik eşitsizlik, evsiz adamı feda etme olasılıklarının daha yüksek olduğu anlamına geliyordu.

Bu kadar gelişmiş olmasa da, bu tür veri toplama, insanların hangi sosyal haklara sahip olduğuna karar veren Çin’in sosyal kredi sisteminde zaten kullanılıyor.

Sağlık sektörü, yapay zekanın insanları kurtarabilecek veya zarar verebilecek kararlar verdiğini göreceğimiz başka bir alandır. Uzmanlar, tıbbi görüntülemedeki anormallikleri tespit etmek ve doktorların tıbbi bakıma öncelik vermelerine yardımcı olmak için yapay zekayı giderek daha fazla geliştiriyor.

Şimdilik son sözü doktorlar söylüyor, ancak bu teknolojiler giderek geliştikçe, bir doktor ve yapay zeka algoritması aynı teşhisi koymazsa ne olacak?






Başka bir örnek, otomatik bir ilaç hatırlatma sistemidir. Bir hasta ilaçlarını almayı reddederse sistem nasıl tepki vermelidir? Ve bu, hastanın özerkliğini ve sistemin genel sorumluluğunu nasıl etkiler?

Yapay zeka destekli insansız hava araçları ve silahlar da öldürme kararını verebildikleri için etik açıdan endişe vericidir. Bu tür teknolojilerin tamamen yasaklanması mı yoksa düzenlenmesi mi gerektiği konusunda çelişkili görüşler var. Örneğin, otonom dronların kullanımı gözetim ile sınırlandırılabilir.

Bazıları askeri robotların etik değerlerle programlanmasını istedi. Ancak bu, bir dronun yanlışlıkla sivilleri öldürmesi durumunda programcının hesap verebilirliği ile ilgili sorunları gündeme getiriyor.

Felsefi ikilemler

Yapay zekanın vermesi gereken etik kararlarla ilgili birçok felsefi tartışma var. Bunun klasik örneği tramvay problemidir.

İnsanlar genellikle hayatlarını değiştirebilecek kararlar vermekte zorlanırlar. Bu tür durumlara nasıl tepki verdiğimizi değerlendirirken, bir çalışmada bildirilen seçenekler, yanıtlayanın yaşı, cinsiyeti ve kültürü gibi bir dizi faktöre bağlı olarak değişebilir.

Yapay zeka sistemleri söz konusu olduğunda, algoritmaların eğitim süreçleri, gerçek dünyada nasıl çalışacakları açısından kritik öneme sahiptir. Bir ülkede geliştirilen bir sistem, o ülkenin görüşlerinden, siyasetinden, etik ve ahlakından etkilenerek başka bir yerde ve zamanda kullanılmaya uygun değildir.

Sistem uçakları kontrol ediyorsa veya bir füzeye rehberlik ediyorsa, kullanıldığı ortamı temsil eden verilerle eğitildiğine yüksek düzeyde güven duymak istersiniz.

Teknoloji uygulamasındaki başarısızlık ve önyargı örnekleri arasında ırkçı sabunluk ve uygunsuz otomatik görüntü etiketleme yer almaktadır.

AI “iyi” veya “kötü” değildir. İnsanlar üzerindeki etkileri, geliştiricilerinin etiğine bağlı olacaktır. Dolayısıyla, bundan en iyi şekilde yararlanmak için, “etik” olarak kabul ettiğimiz şey üzerinde bir fikir birliğine varmamız gerekecek.

Özel şirketler, kamu kuruluşları ve araştırma kurumlarının etik AI için kendi yönergeleri olsa da, Birleşmiş Milletler, küresel bir etik AI çerçevesi sağlamak ve insan haklarının korunmasını sağlamak için “kapsamlı bir küresel standart belirleme aracı” olarak adlandırdıkları şeyi geliştirmeyi önerdi.


Araştırmacılar etik ve yapay zeka çalışmalarını genişletiyor


Konuşma tarafından sağlanan

Bu makale, Creative Commons lisansı altında The Conversation’dan yeniden yayınlanmıştır. Orijinal makaleyi okuyun.Konuşma

Alıntı: Kendi kendine giden tramvay sorunu: Gelecekteki yapay zeka sistemleri hepimiz için en etik seçimleri nasıl yapacak? (2021, 24 Kasım), 24 Kasım 2021’de https://techxplore.com/news/2021-11-self-driving-trolley-problem-future-ai.html adresinden alınmıştır.

Bu belge telif haklarına tabidir. Özel çalışma veya araştırma amaçlı herhangi bir adil işlem dışında, yazılı izin alınmadan hiçbir bölüm çoğaltılamaz. İçerik yalnızca bilgi amaçlı sağlanmıştır.





#Gelecekteki #yapay #zeka #sistemleri #hepimiz #için #etik #seçimleri #nasıl #yapacak