İsrail’in Gazze ve Lübnan’daki Yapay Zeka Kullanımı Eleştiriliyor İsrail ordusu tarafından Gazze ve Lübnan’a yönelik sürdürülen soykırımda kullanılan yapay zeka sistemlerinin sivil ölümlerine yol açabilecek hataları ortaya çıktı. Sivilleri hedef alan “Habsora”, “Lavender” ve “Where is Daddy?” isimli yapay zeka destekli teknolojilerin kullanımı eleştiriliyor. Yapay Zeka Sistemlerinin Hataları İnsanlar İçin Tehlike Oluşturabilir Yapay zeka sistemlerinin…
İsrail ordusu tarafından Gazze ve Lübnan’a yönelik sürdürülen soykırımda kullanılan yapay zeka sistemlerinin sivil ölümlerine yol açabilecek hataları ortaya çıktı. Sivilleri hedef alan “Habsora”, “Lavender” ve “Where is Daddy?” isimli yapay zeka destekli teknolojilerin kullanımı eleştiriliyor.
Yapay zeka sistemlerinin hatalarının tespitinin zor olabileceği ve bu durumun haksız ölümlere neden olabileceği belirtiliyor. İsrail ordusu, Microsoft ve OpenAI gibi şirketlerin yapay zeka sistemlerinden destek alıyor ancak bu durum sivil kayıplara neden olabilir.
İsrail ordusunun yapay zeka kullanımının ele alındığı araştırmada, bu sistemlerin sivil ölümlerine yol açabilecek hataları ortaya konuldu. Özellikle tercümelerde ve hedef belirlemede yaşanan hataların tehlikeli sonuçlara yol açabileceği vurgulanıyor.
Araştırmalara göre, İsrail ordusunun yapay zeka kullanımı giderek artıyor. Özellikle Microsoft ve OpenAI şirketlerine ait yapay zeka modellerinin yoğun bir şekilde kullanıldığı belirtiliyor. Bu durum, sivil kayıpların artmasına neden olabilir.
Microsoft’un İsrail ordusuyla yakın ilişkisinin yanı sıra şirketin İsrail’in en büyük ikinci askeri müşterisi olduğu bilgisi ortaya çıktı. İki taraf arasındaki sözleşmeler ve teknik destek talepleri incelendiğinde, yapay zeka sistemlerinin askeri amaçlarla kullanılmasının yarattığı riskler gözler önüne seriliyor.
Reklam & İşbirliği: [email protected]