Yapay Zeka Sistemlerindeki Hatalar Sivil Ölümlere Neden Olabilir İsrail ordusu tarafından Gazze soykırımında kullanılan yapay zeka sistemlerinin sivil ölümlerine yol açabilecek hataları ortaya kondu. İsrail’in Gazze’ye yönelik 7 Ekim 2023’ten bu yana sürdürdüğü soykırımın yanı sıra Lübnan’a yönelik saldırılarında yapay zekanın kullanımı, “sivil ve askeri hedef ayrımı yapılmadığı ve savaş suçu ihtiva ettiği” sebebiyle eleştiriliyor….
İsrail ordusu tarafından Gazze soykırımında kullanılan yapay zeka sistemlerinin sivil ölümlerine yol açabilecek hataları ortaya kondu. İsrail’in Gazze’ye yönelik 7 Ekim 2023’ten bu yana sürdürdüğü soykırımın yanı sıra Lübnan’a yönelik saldırılarında yapay zekanın kullanımı, “sivil ve askeri hedef ayrımı yapılmadığı ve savaş suçu ihtiva ettiği” sebebiyle eleştiriliyor.
Sivilleri “gözetleme ve hedef almak” için “Habsora”, “Lavender” ve “Where is Daddy?” isimli yapay zeka destekli teknolojileri kullanan İsrail, Amerikan merkezli yapay zeka şirketlerinin desteğiyle çalışmalarını sürdürüyor.
İnsan zekası dahil olmak üzere pek çok başka zeka biçimiyle birlikte kullanılan yapay zeka sistemlerinin ne zaman hata yaptığını tespit etmenin son derece güç olduğu belirtiliyor. Bu durumun “haksız ölümlere” sebep olabileceği vurgulanıyor.
İsrail ordusu, Microsoft Azure kullanarak “kitlesel gözetleme” yoluyla toplanan verileri derliyor. Bu veriler arasında telefon görüşmeleri, metinler ve sesli mesajlar da bulunuyor. Ancak, yapay zekanın yapabileceği hatalar ve yanlış tercümeler söz konusu.
Araştırmalara göre, İsrail ordusu tarafından kullanılan yapay zeka sistemlerinin sayısında 7 Ekim’den önceki döneme göre 200 kat artış yaşandığı belirlendi.
Bu verilere göre, Microsoft ve OpenAI gibi şirketlerin desteğiyle kullanılan yapay zeka sistemlerinin sivil hedeflere zarar verme riski büyük oranda artıyor. Yapay zeka teknolojilerinin savaş alanında nasıl kullanılacağı ve bu kullanımın sivil ölümlere etkisi üzerinde daha fazla tartışma yapılması bekleniyor.
Reklam & İşbirliği: [email protected]