
美國MQ-9察打一體無人機
裝備狙擊步槍的機器狗。
可遠程操控的無人坦克。
(資料圖片)
最近,隨著ChatGPT等聊天機器人的發展,人工智能及其前景再次受到全球關注。但對于人工智能在戰爭中的應用及其對平民的影響,人們則關注較少。在俄烏沖突前線,無人機、無人艇、巡飛彈、智能地雷等武器的大量使用,可能預示著一個人類使用自主武器系統進行戰爭的未來。
據報道,近日,一家英國智庫發布了一份報告,稱盡管公眾對AI的興趣大增主要是由于ChatGPT的發布,但各國軍方早已將注意力投向AI未來在戰場上的應用,尤其是能夠進行深度學習的自主武器系統。
現狀
目前仍受人類監控
未來或有更多行動自由
自主武器系統是指在“重要功能”方面具有自主性的武器系統,也就是說這種武器可以在沒有人為干預的情況下選擇(搜索或監測、確定、跟蹤)和攻擊(攔截、使用武力對抗、抵消、損毀或破壞)目標。
在最初由人啟動或發射后,自主武器系統根據從傳感器接收到的環境信息,并基于概括性的“目標描述”,自行啟動或觸發攻擊。這意味著使用者并未選擇自主武器系統使用武力攻打的具體目標以及精確的時間和地點,甚至對此一無所知。
在各國現有的裝備中,許多遙控武器系統具有自主模式,但只能在短期內自主運行。而且這些武器在所執行的任務、攻擊目標的類型及其被使用的環境方面都極其受限。大部分系統依然受到人類操作員的實時監控。
隨著軍事科技的發展,未來的自主武器系統可能在確定攻擊目標時擁有更多的行動自由,行動時不受空間和時間的嚴格限制,并應對迅速變化的情況。
觀點
國際社會需采取措施
減少AI武器風險
近日,國際紅十字會在其網站上刊發文章認為,自主武器系統的運作過程可能會給受武裝沖突影響的人(無論是平民還是戰斗員)帶來傷害,而且具有導致沖突升級的危險。它還會對遵守國際人道法等國際法規則特別是保護平民的敵對行動規則等提出挑戰。另外,用傳感器、軟件和機器程序取代了人類對生死的決定,將引發人類的根本道德關切。
專家認為,迄今為止,聯合國已有《禁止核武器條約》《不擴散核武器條約》《關于禁止發展、生產、儲存和使用化學武器及銷毀此種武器的公約》等條約,唯獨沒有禁止AI武器的國際法。因此,國際社會應采取以人為本的方式來處理在受沖突影響地區使用人工智能的問題。需要設立防護措施,以幫助加強現有保護措施并減少其他風險。
目前,國際社會對于致命性自主武器系統的討論集中在其是否能夠清晰區分戰斗人員與非戰斗人員,以及它是否會模糊化擊殺行為的行為主體等幾個問題上。已有一些非政府組織或游說組織,如“阻止殺手機器人運動”等,主張國際社會完全禁止致命性自主武器系統。不同的意見則認為可以加強國際法和國內法方面的監管。
據央視新聞
【鏈接】
AI武器
可分為三類
根據對人工智能的分類,目前的AI武器可以分為三類。
第一類是完全由人類決定并由人遠程操作的無人機,美國的MQ-1“捕食者”偵察機就是代表。
第二類是機器人可以自己做一定的判斷,但在執行任務期間,人類可以中斷或取消任務,如以色列的“哈比”自殺式無人機。
第三類是人類完全不參與決策過程的自主型無人機或機器人。這類機器本質上還是要由人來決定,即由人編程并在一定程度上讓無人機自己決策。這類無人機的最大隱患在于,可能出現程序錯誤而導致誤傷,自主判斷做出人類意想不到或不會讓其進行的行動,如擴大打擊范圍和強度等。
AI武器的這三種分類也源于人工智能的三種分類:弱人工智能,只能完成某一項特定任務或者解決某一特定問題;強人工智能或通用人工智能,可以像人一樣勝任任何智力性任務的智能機器;超人工智能或超級智能,可以像人類實現智能上的生物進化,對自身進行重編程和改進,即“遞歸自我改進功能”。
據中新網
來源:廈門日報
關鍵詞: