軍事機器人拯救士兵性命 調查顯示官兵卻不買單

面對基層官兵對AI機器人的反感,採取「交互式機器學習」或許是解決人類對AI不信任的方法。圖爲美陸軍國民兵利用遊戲機學習操作AI機器人。(圖/DVIDS)

隨着「人工智慧」(AI)不斷髮展,各國軍隊無不期盼將機器人納入作戰行動中,讓士兵從「笨拙、骯髒與危險的體力活中解放出來」;但是,根據《印太事務》的調查卻顯示,基層的官兵卻對「人機結合」感到相當反彈。

《印太事務》針對800名澳洲國防軍事學院的學生見習官進行問卷調查,結果發現大部分人不願意與「致命自主武器系統」(lethal autonomous weapons systems, LAWS)一同部署;甚至不認同LAWS的準確性可靠性,以及可減少對平民盟軍等的傷害。

「Defense One」認爲,對於急着將LAWS引入演習與作戰中的五角大廈而言,這恐怕有點刺耳。多年來美軍高層推動的新戰術都圍繞在「人機結合」之上;不論是運用地面機器人、無人機,來協助士兵搬運軍品、探測周遭環境或是迴應威脅,甚至是利用武裝機器人,其目的不外乎是增強士兵能力。

然而,最後卻面臨高層一頭熱,基層卻無感窘境陸戰隊尤爾科維奇認爲(Daniel Yurkovich),無法理解AI與不能在每日訓練中結合機器人,造成基層軍官對「人機結合」的不信賴感

尤爾科維奇認爲,比起「公發」機器人給士兵;建立模擬的環境,讓官兵在訓練過程中引導、訓練AI機器人,使它成爲真正的隊友,才能建立更好的信任感

這種稱爲「交互式機器學習」(interactive machine learning)的模式,不僅是讓操作者帶入訓練過程,更是投入後續的設計更新。這樣的做法讓操作者可回顧每次對AI機器人採取行動的影響,並在後續更新中調整做法好讓機器人做出自己想要的行動。即使是非本科系的使用者,也能透過低成本的反覆嘗試修正錯誤結果,進而指導機器人的學習與行動。

當然,這樣做法必然花費較長時間。因此,尤爾科維奇認爲可先透過虛擬遊戲環境訓練AI的大腦;等到相關訓練成熟後,在移轉實體機器人身上,如此便可節省成本。

例如,陸戰隊的步兵單位就有「活動式AI裝置」(RAID)與相容遊戲機檯。RAID預先灌進在陸戰隊學校至下部隊後的首個步兵營所學到的一切基礎知識,而遊戲機檯則讓RAID連線至各種虛擬環境

接下來士兵就像在玩電動一樣,透過機臺讓操作者在虛擬的遊戲環境中,和他的機器夥伴進行交互式機器學習。當要展開現實環境操作時,陸戰隊就將RAID插入實體機器人。

這時,機器人和士兵已「人機一體」,在模擬環境的訓練中培養出來得信賴感,以及經過矯正的一系列動作,足以讓他們完成任何任務

這聽起來像天方夜譚。事實上,日前伊朗核武之父遭遙控機關槍射殺,「伊斯蘭國」也多次使用武裝無人機,俄國更是在敘利亞部署地面機器人。雖然這些機器人都非完全自主,但前述案例證實使用上只剩技術障礙,而非道德障礙。