Süreç eksikliği, algoritma tarafından verilen zorlu kararları zorlaştırır

Gönderilen yanıtlara dayalı olarak tartışılabilirliğin nasıl işleyebileceğinin bir özeti. Kredi: DOI: 10.1145/3449180

2020’de, sınavlara şahsen giren öğrencilere yönelik COVID-19 kısıtlamalarının bir sonucu olarak, Birleşik Krallık’ın okul sınav düzenleyicisi Ofqual, son sınıf notlarını belirlemek için bir algoritma kullandı.

Ve öğrenciler bundan hoşlanmadı.

Protestolar ve sosyoekonomik ayrımcılıkla ilgili endişelerin ardından, algoritmik notlar, öğretmen tarafından değerlendirilen derecelendirme lehine hurdaya çıkarıldı. Algoritmik notlandırma sistemine yönelik en önemli eleştirilerden biri, öğrencilerin notlarına itiraz edebilecekleri bir sürecin olmamasıydı.

Ve bu münferit bir olay veya yeni bir sorun değil.

2014 yılında, yedi öğretmen ve Houston Öğretmenler Federasyonu, öğretim sözleşmelerini feshetmek için algoritmik bir performans ölçüm sisteminin kullanılmasının anayasal yargılama haklarını ihlal ettiğini başarılı bir şekilde savundu. “Yeterli bilgi eksikliği nedeniyle” feshedilmelerine “anlamlı bir şekilde itiraz edemediklerini” savundular.

Algoritmik sistemi oluşturan şirket, kullandığı denklemlerin, kaynak kodunun, karar kurallarının ve varsayımların hepsinin özel ticari sırlar olduğunu ve bu nedenle öğretmenlere verilemeyeceğini iddia etti.

Bu, öğretmenlerin sistemin hangi faktörleri hesaba kattığı ve performans puanlarının gerçekte nasıl hesaplandığı konusunda net bir anlayışa sahip olmamasına neden oldu.

Algoritmalarla ilgili opaklıklarının yanı sıra birçok başka zorluk da vardır. Örneğin, gerçekte neyin tartışılabileceği genellikle belirsizdir.

İnsanlar karar vermek için kullanılan verilere itiraz edebilmeli mi? Algoritma, takip etmeye programlandığı süreci takip ederse, karara hangi gerekçelerle itiraz edilebilir? Yoksa ilk etapta algoritmanın kullanımı tartışmalı mı olmalı?

Son yıllarda yapay zeka kullanımını ele almak için çok sayıda kılavuz ve ilke geliştirilmiştir. Bunların çoğu, algoritmik kararlara itiraz etme, itiraz etme veya itiraz etme yeteneğinden bahseder – ancak ne tür bir sürecin sağlanması gerektiği konusunda sınırlı rehberlik sunarlar.

Avrupa Birliği’nin Genel Veri Koruma Yönetmeliği ile ilgili rehber, itirazın karar sonrası dahili bir inceleme gerektirdiğini ileri sürmektedir.

İnsan-bilgisayar etkileşimi içinde, tartışılabilirlik kavramı daha etkileşimli bir süreç olarak görülüyor – bir karardan etkilenen insanların karar verme sürecini şekillendirmek için karar verme sistemi ile etkileşime girebildiği bir süreç.

Rekabet edilebilirliğe yönelik bu farklı yaklaşımlar göz önüne alındığında, ekibimiz, kamu ve işletmeler ve hükümet gibi karar vericiler de dahil olmak üzere paydaşların rekabet etme yeteneğiyle ilgili olarak ne bekledikleri hakkında daha fazla bilgi edinmek istedi.

Araştırmamız, Avustralya hükümeti tarafından 2019’da yayınlanan bir tartışma belgesine yanıt olarak yapılan sunumları analiz etti—Yapay Zeka: Avustralya’nın Etik Çerçevesi.

Bu, “tartışmalılığı” ilke olarak özel olarak içeren türünün ilk çerçevesidir ve şu şekilde tanımlanmıştır: “Bir algoritma bir kişiyi etkilediğinde, o kişinin algoritmanın kullanımına veya çıktısına meydan okumasına izin vermek için verimli bir süreç olmalıdır. “

Sunumlara ilişkin analizimize göre, bazıları bunun “adalet” veya “hesap verebilirlik” gibi üst düzey bir ilkenin bir yönü olarak görülmesinin daha iyi olduğunu düşünmesine rağmen, “tartışmalılık” ilkesinin kendi ilkesi olarak dahil edilmesi genel olarak desteklendi.

Tartışılabilirlik bir koruma biçimi olarak görülse de, şu anda uygulanamaz olduğu göz önüne alındığında, çoğu kişi bunun yararlılığını sorguladı.

Ayrıca, algoritmik kararlardan etkilenen farklı kişilerin farklı rekabet kapasitelerine ve yeteneklerine sahip olacağı da kabul edildi. Bu, herhangi bir itiraz sürecinin mümkün olduğunca açık ve erişilebilir hale getirilmesi gerektiği ve algoritmik karar vermeyi düzenlemek için kullanılan tek araç olmadığı anlamına gelir.

Birçok sunum, bir dizi önemli politika sorusuna ilişkin olarak hükümetten daha fazla netlik ve rehberlik istedi. Örneğin, bir karara kim itiraz edebilir? Neye itiraz edilebilir? Bir inceleme süreci nasıl çalışmalıdır?

Ve sonra kurumsal resim var. Colorado Üniversitesi Hukuk Fakültesi’nde Doçent olan Margot Kaminski, rekabet edilebilirlik konusunda rehberlik eksikliğinin insanları olumsuz etkileyebileceğini belirtiyor:

Doç. Dr. Kaminski, “Bu, çıkarları her zaman kullanıcılarınınkiyle örtüşmeyen bir şirketin yeterli süreç ve adil sonuçlar sağlayıp sağlayamayacağı sorusunu gündeme getiriyor. Bu itiraz hakkının detaylandırılmasında önemli ölçüde daha fazla politika geliştirmeye yer var.” .

Birçok gönderi, şu anda insan kararlarını gözden geçirmek için kullanılanlara benzeyen süreçleri özetledi. Bununla birlikte, insan karar verme, algoritmik karar vermenin çalışma biçiminden çok farklıdır.

Bu nedenle, insan yanlılığını ve hatasını kontrol etmek için tasarlanmış mevcut süreçlerin algoritmik karar vermeyi gözden geçirmek için yeterli olup olmayacağını düşünmek önemlidir.

Bir dizi başvuru, bir insanın kararı gözden geçirmesi gereğini de vurguladı. Ancak bu, daha sonra insan incelemesinin ölçeklenebilirliği konusunda endişelere yol açar; bu, bir grup insan için çok fazla iş olabilir.

Tamamen post-hoc karar inceleme süreçlerine güvenmek yerine, kendi anlayışlarından dolayı çekişebilirliği dikkate alan algoritmik karar verme sistemleri oluşturmanın değeri vardır.

Avrupalı ​​araştırmacı Marco Almada’nın “tasarım yoluyla tartışılabilirlik” adlı bir yaklaşımı, katılımcı tasarımın değerini vurgular: bir karar verme sisteminden en çok etkilenmesi muhtemel olanlar sistemin tasarımına dahil olur.

Bu tür bir süreç, sistemle ilgili sorunları vurgulamaya ve potansiyel olarak gelecekteki itiraz ihtiyacını azaltmaya yardımcı olacaktır.

Bir sistemle etkileşime girme, sistemin dikkate aldığı bilgileri kontrol etme, gerektiğinde düzeltmeler yapma veya anlaşmazlıklarda bulunma becerisine sahip olmak, insanların bir sistemin nasıl çalıştığını anlamalarına ve sonuç üzerinde bir miktar kontrol sahibi olmalarına yardımcı olabilir; hoc yarışma süreçleri.

Sonuç olarak, algoritmik karar verme, insan karar vermesinden çok farklıdır. Yalnızca yarışma yeteneğini desteklemekle kalmayıp aynı zamanda herhangi birinin bir karara itiraz etme ihtiyacını en başta azaltan sistemlerin nasıl tasarlanacağını dikkatlice düşünmemiz gerekiyor.


Algoritmalar notlarınıza, iş beklentilerinize ve finansal güvenliğinize karar verebilir. Adil olduklarını nereden biliyorsun?


Daha fazla bilgi:
Henrietta Lyons ve diğerleri, Contestability Kavramsallaştırma, ACM’nin İnsan-Bilgisayar Etkileşimi ile ilgili Bildirileri (2021). DOI: 10.1145/3449180

Melbourne Üniversitesi tarafından sağlanmaktadır

Alıntı: Süreç eksikliği, algoritma tarafından verilen zorlu kararları zorlaştırıyor (2021, 24 Kasım) https://techxplore.com/news/2021-11-lack-decisions-algorithm-difficult.html adresinden alındı ​​24 Kasım 2021

Bu belge telif haklarına tabidir. Özel çalışma veya araştırma amaçlı herhangi bir adil işlem dışında, yazılı izin alınmadan hiçbir bölüm çoğaltılamaz. İçerik yalnızca bilgi amaçlı sağlanmıştır.





#Süreç #eksikliği #algoritma #tarafından #verilen #zorlu #kararları #zorlaştırır