Amerika Birleşik Devletleri’nde yaşanan olay “Askeri alanda yapay zeka ne kadar güvenli?” sorusuna bir yanıt aratmaya başladı. Amerika’da silahlı bir İHA (SİHA) kendi operatörünü öldürdü. Yaşanan olayın ardından İHA modellerindeki yapay zeka yazılımları elden geçirilmeye başlandı. İşte yaşanan olayla ilgili detaylar…
Operatör yapay zekaya engel oldu, yapay zeka karşılığını ağır ödetti!
Olay gerçekten kan dondurucu. Çünkü bugüne kadar askeriye için yapılan yazılımlara tam odaklanma ve hedefe kilitlenme öğretildi. Fakat bu durum yapay zeka da ters bir etki yaratıyor. Bundan sonraki süreçte tüm üreticilerin bu yazılımlar konusunda daha da hassas olması gerektiği vurgulanıyor.
Olay ABD’nin test uçuşları esnasında yaşandı. Simülasyon testinde bir SİHA ve düşman hava savunma hedefleri yer alıyor. SİHA’ya verilen talimatsa oldukça basit. Hedefleri yok et ve gel. SİHA yok ettiği her hedef başına 1 puan kazanacak. Teoride gayet basit ve etkili bir yazılım sistemi. SİHA aslında bir çocuk heedefleri vurmaksa basit bir oyun.
Ancak sonuçlar beklenenden farklı. Evet SİHA tam gaz hedeflerine gitti ve onları yok etti. Ancak pilotun İHA’ya “hedefleri vurma” emri vermesiyle SİHA çıldırdı. Önce kendi pilotunu öldürdü. Ardındansa bahsi geçen puanları listeleyen kontrol kulesini vurdu. Çünkü yazılımda “pilotu öldürme, pilotu öldürürsen puan kaybedersin” ibaresi vardı. Ve bu uyarı kuleden yapılıyordu. Kısacası SİHA düşmanı öldürmek istiyordu ve karşısına çıkan herkesi öldürdü.
ABD hava kuvvetlerinde yapay zekadan sorumlu test ve operasyon şefi Albay Tucker ‘Cinco’ Hamilton konuyla ilgili olarak yaptığı açıklamada “SİHA amacına ulaşmak istiyordu. Bu yüzdende dost-düşman fark etmeksizin karşısına çıkan tüm engelleri aştı.” ibaresine yer verdi. Testin bir simülasyon olması ve gerçekten birinin ölmemiş olması içimize su serpiyor.
Ancak çok ciddi bir sorun var. ABD yaptığı SİHA testi sonuçlarıyla övünse de aslında kontrolsüz bir güçten bahsediyoruz. Testte kulanılan SİHA fark edildiği üzere sadece amacına odaklanıyor. Başka etmenleri analiz etmiyor. Amaca gitmesini engelliyorsa onları da yok ediyor. Bu yüzden ABD SİHA’sı amacıyla uğraşırken siz başka bir SİHA kuvvetiyle gelip ABD SİHA’larını vurabilirsiniz. Bu yüzden yazılımların düzeltilmesi gerekiyor.
Peki siz ne düşünüyorsunuz? Görüşlerinizi yorumlar kısmında belirtmeyi unutmayın…
Yani abd bir yeri vuracak iha yaptı engel olamadık demenin ortamını hazırlamış bu bilgi bize kadar gelmişse bilinçli yapılmış anlacaginiz minarenin kılıfı hazır yermi Anadolu çocuğu yemez az fırıldak değilsiniz başka ülkelere sattıkları ihalarida kendi çıkarlarına operasyon yapacak
Çözülmeyecek sorun değil. Programcılara çağdaş düşünme felsefe dersi verilmelidir. Tümden varım değil Tüme varım yolu ile planlanmalıdır…
Robocop ‘daki ED-209 değil mi bu ? 1987 yapay zekasından pekde ileriye gidememişler demekki.
Ref:
https://youtu.be/TYsulVXpgYg
Erbakan hoca ne diyordu niye fuzeye füzeyle karşılık vereceksiniz. Öyle bir şey yapacaksın ki kendi füzeleri onları geri dönüp vursun senin istediğin şekilde kontrolü sende olsun.
merhum Erbakan bugünleri görmüş sanki..
Başlık da kandırmaca