Yapay zeka aslında sahte haberlerin yayılmasını durdurmanın çözümü olmayabilir

Yapay zeka, sahte haberleri tespit etmek için gereken sağduyuyu henüz geliştirmedi. Kredi bilgileri: Shutterstock

Dezenformasyon, zaman içinde savaşlarda ve askeri stratejilerde kullanılmıştır. Ancak akıllı teknolojilerin ve sosyal medyanın kullanımıyla inkar edilemez bir şekilde yoğunlaşıyor. Bunun nedeni, bu iletişim teknolojilerinin bilgiyi temelde herhangi bir yere yaymak için nispeten düşük maliyetli, düşük bariyerli bir yol sağlamasıdır.

O halde milyon dolarlık soru şudur: Teknolojik olarak üretilen bu ölçek ve erişim sorunu, teknoloji kullanılarak da çözülebilir mi?

Gerçekten de, yapay zeka (AI) gibi yeni teknolojik çözümlerin sürekli geliştirilmesi, çözümün bir kısmını sağlayabilir.

Teknoloji şirketleri ve sosyal medya kuruluşları, doğal dil işleme, makine öğrenimi ve ağ analizi yoluyla sahte haberlerin otomatik tespiti üzerinde çalışıyor. Buradaki fikir, bir algoritmanın bilgiyi “sahte haber” olarak tanımlaması ve kullanıcıların onunla karşılaşma olasılığını azaltmak için daha düşük sıraya koymasıdır.

Tekrarlama ve maruz kalma

Psikolojik bir bakış açısından, aynı bilgi parçasına tekrar tekrar maruz kalmak, birinin buna inanmasını sağlar. AI dezenformasyonu tespit ettiğinde ve dolaşım sıklığını azalttığında, bu, güçlendirilmiş bilgi tüketim kalıpları döngüsünü kırabilir.

Ancak, AI tespiti hala güvenilmez olmaya devam ediyor. İlk olarak, mevcut algılama, güvenilirliğini belirlemek için metnin (içeriğin) ve sosyal ağının değerlendirilmesine dayanmaktadır. Kaynakların kökenini ve sahte haberlerin yayılma modelini belirlemesine rağmen, temel sorun AI’nın içeriğin gerçek doğasını nasıl doğruladığıdır.

Teorik olarak, eğitim verilerinin miktarı yeterliyse, AI destekli sınıflandırma modeli, bir makalenin sahte haber içerip içermediğini yorumlayabilecektir. Ancak gerçek şu ki, bu tür ayrımlar yapmak, doğal dil işleme algoritmalarının hala eksik olduğu, önceden siyasi, kültürel ve sosyal bilgi veya sağduyu gerektirir.

Ek olarak, bir ön baskı çalışmasının gösterdiği gibi, sahte haberler kasıtlı olarak “gerçek haber gibi görünecek, ancak yanlış veya manipülatif bilgiler içerecek” şekilde değiştirildiğinde oldukça nüanslı olabilir.






Derin sahtelerin tehlikeleri hakkında bir BBC raporu.

İnsan-AI ortaklıkları

Sınıflandırma analizi aynı zamanda temadan da büyük ölçüde etkilenir; AI, özgünlüğünü belirlemek için konunun içeriğinden ziyade genellikle konuları farklılaştırır. Örneğin, COVID-19 ile ilgili makalelerin diğer konulara göre sahte haber olarak etiketlenmesi daha olasıdır.

Bir çözüm, bilgilerin gerçekliğini doğrulamak için AI ile birlikte çalışacak insanları istihdam etmek olacaktır. Örneğin, 2018’de Litvanya savunma bakanlığı, “yayınlanmasından sonraki iki dakika içinde dezenformasyonu işaretleyen ve bu raporları daha fazla analiz için insan uzmanlarına gönderen” bir AI programı geliştirdi.

Kanada’da dezenformasyonla mücadele için ulusal bir özel birim veya departman kurarak veya sahte haberler için yapay zeka çözümlerini araştırmak üzere düşünce kuruluşlarını, üniversiteleri ve diğer üçüncü tarafları destekleyerek benzer bir yaklaşım izlenebilir.

sansürden kaçınmak

Sahte haberlerin yayılmasını kontrol etmek, bazı durumlarda sansür ve konuşma ve ifade özgürlüğüne yönelik bir tehdit olarak değerlendirilebilir. Bir insan bile bilginin sahte olup olmadığına karar vermekte zorlanabilir. Ve belki de daha büyük soru şudur: Sahte haberin tanımını kim ve ne belirler? Yapay zeka filtrelerinin bizi yanlış pozitif tuzağa sürüklememesini ve ilişkili verilerden dolayı bilgileri yanlış olarak sahte olarak etiketlememesini nasıl sağlarız?

Sahte haberleri tespit etmeye yönelik bir AI sistemi, uğursuz uygulamalara sahip olabilir. Örneğin otoriter hükümetler, herhangi bir maddenin kaldırılmasını haklı çıkarmak veya yetkililerin lehine olmayan kişileri kovuşturmak için AI’yı bir bahane olarak kullanabilir. Bu nedenle, herhangi bir AI dağıtımı ve uygulamasından kaynaklanan ilgili yasalar veya ölçümler, üçüncü bir tarafın onu izlemesi için şeffaf bir sistem gerektirecektir.

Gelecekteki zorluklar, dezenformasyon olarak kalmaya devam ediyor – özellikle dış müdahale ile ilişkili olduğunda – devam eden bir konu. Bugün icat edilen bir algoritma, gelecekteki sahte haberleri tespit edemeyebilir.

Örneğin, “son derece gerçekçi ve algılanması zor ses veya video dijital manipülasyonu” olan derin sahtekarlıklar, gelecekteki bilgi savaşında muhtemelen daha büyük bir rol oynayacaktır. WhatsApp ve Signal gibi mesajlaşma uygulamaları aracılığıyla yayılan dezenformasyon, uçtan uca şifreleme nedeniyle izlenmesi ve ele geçirilmesi daha zor hale geliyor.

Yakın tarihli bir araştırma, Kanadalı katılımcıların yüzde 50’sinin özel mesajlaşma uygulamaları aracılığıyla düzenli olarak sahte haberler aldığını gösterdi. Bunu düzenlemek, mahremiyet, bireysel güvenlik ve dezenformasyonun engellenmesi arasında bir denge kurulmasını gerektirecektir.

Yapay zeka kullanarak dezenformasyonla mücadeleye kaynak ayırmaya kesinlikle değer olsa da, olası sonuçları göz önüne alındığında dikkatli ve şeffaf olmak gerekir. Yeni teknolojik çözümler maalesef gümüş bir kurşun olmayabilir.


Çalışma, sahte haberlerin paylaşılması söz konusu olduğunda doğrulanmış kullanıcıların en büyük suçlular arasında olduğunu gösteriyor


Konuşma tarafından sağlanan

Bu makale, Creative Commons lisansı altında The Conversation’dan yeniden yayınlanmıştır. Orijinal makaleyi okuyun.Konuşma

Alıntı: Yapay zeka, 29 Kasım 2021’de https://techxplore.com/news/2021-11-artificial-intelligence-solution-fake-news adresinden alınan sahte haberlerin (2021, 29 Kasım) yayılmasını durdurmak için bir çözüm olmayabilir. .html

Bu belge telif haklarına tabidir. Özel çalışma veya araştırma amaçlı herhangi bir adil işlem dışında, yazılı izin alınmadan hiçbir bölüm çoğaltılamaz. İçerik yalnızca bilgi amaçlı sağlanmıştır.





#Yapay #zeka #aslında #sahte #haberlerin #yayılmasını #durdurmanın #çözümü #olmayabilir