近日,在英國(guó)皇家航空學(xué)會(huì)倫敦“未來(lái)空戰(zhàn)和空間能力”研討會(huì)上,美國(guó)空軍負(fù)責(zé)AI測(cè)試和運(yùn)營(yíng)的漢密爾頓上校披露,在美國(guó)空軍進(jìn)行的無(wú)人自主武器攻擊試驗(yàn)中,無(wú)人機(jī)出現(xiàn)違背指令并攻擊操作員的事例。隨后,美國(guó)空軍方面否認(rèn)進(jìn)行了此類試驗(yàn)。6月2日,英國(guó)皇家航空學(xué)會(huì)發(fā)表聲明,稱漢密爾頓透露的相關(guān)測(cè)試只是“假設(shè)性的思想試驗(yàn)”,漢密爾頓的發(fā)言“被斷章取義了”。
在人類社會(huì)主要由自然力主導(dǎo)的低技術(shù)時(shí)代,人們對(duì)大自然充滿敬畏、恐懼和無(wú)邊的想象。當(dāng)技術(shù)進(jìn)步到?jīng)Q定性地影響社會(huì)發(fā)展的現(xiàn)代,人們開(kāi)始對(duì)具有顛覆性作用的新技術(shù)產(chǎn)生了類似的恐懼和聯(lián)想。
的確,人工智能產(chǎn)生的能力已經(jīng)在某些方面超過(guò)了人類,例如,“深藍(lán)”戰(zhàn)勝國(guó)際象棋大師卡斯帕羅夫,“阿法狗”戰(zhàn)勝人類一流圍棋選手柯潔、李世石。這樣的能力來(lái)自人類對(duì)人工智能系統(tǒng)的硬件賦能、軟件和數(shù)據(jù)賦能。
(相關(guān)資料圖)
人工智能在某一項(xiàng)具體功能、能力上超越人類,并不證明人工智能系統(tǒng)已經(jīng)具有威脅人類的能力。人工智能的數(shù)學(xué)模型、智能算法等都是人類設(shè)計(jì),人工智能據(jù)此進(jìn)行反復(fù)迭代的數(shù)據(jù),都來(lái)自人類的“投喂”。人類能夠?qū)⒆陨砟芰x予智能系統(tǒng)的前提,是人對(duì)自身的能力,尤其是思維能力的完全掌握,并且以技術(shù)方式賦予計(jì)算機(jī)系統(tǒng)。然而,人類對(duì)自身,尤其是大腦的思維活動(dòng)至今并沒(méi)有完全搞清楚,未知部分是不可能賦予計(jì)算機(jī)系統(tǒng)的。
科幻作家泰德·姜認(rèn)為,目前人工智能的本質(zhì)僅是應(yīng)用統(tǒng)計(jì)學(xué),即其思維邏輯僅僅是在大量數(shù)據(jù)統(tǒng)計(jì)的基礎(chǔ)上,選擇可能性最大的選項(xiàng)。這個(gè)判斷或許比較文藝,但并非妄言。如圍棋人工智能“阿法狗”,不管其算法如何復(fù)雜,它的下一步行棋,確實(shí)是選擇棋盤中相對(duì)“價(jià)值最大”的位置。而這,離自主意志還有很遠(yuǎn)的距離。
人與武器實(shí)現(xiàn)最佳契合是達(dá)成最佳戰(zhàn)場(chǎng)效果的基礎(chǔ)。在人工智能出現(xiàn)之前,人與武器的契合度主要表現(xiàn)為人對(duì)武器裝備的嫻熟使用。在武器裝備系統(tǒng)日益復(fù)雜化、技術(shù)化之后,偵、判、打、評(píng)或觀察、定向、決策、行動(dòng)的作戰(zhàn)過(guò)程,每個(gè)環(huán)節(jié)都形成相對(duì)獨(dú)立的裝備和系統(tǒng)。信息化、智能化的加入,武器系統(tǒng)不僅可以發(fā)揮破壞作用,而且可以取代人的部分思維。這就產(chǎn)生人與武器系統(tǒng)之間怎樣區(qū)分功能、作用,最關(guān)鍵的是人與武器系統(tǒng)怎樣分配權(quán)限。
在區(qū)分人與武器的權(quán)限之前,要搞清楚“自動(dòng)”與“自主”之間的區(qū)別。所謂“自動(dòng)”是指原有機(jī)械化過(guò)程的全自動(dòng)完成。過(guò)程的步驟和每個(gè)步驟的先后順序,以及每一步的結(jié)果都是確定的。按照既定的流程、方式,無(wú)需施加人的控制,全過(guò)程自動(dòng)完成。
所謂“自主”,是指整體程序、主要流程、大的節(jié)點(diǎn)是確定的,但過(guò)程中存在一定的不確定性。遇到突發(fā)意外情況時(shí),其應(yīng)對(duì)策略來(lái)自確定的模型和算法,但在某些細(xì)節(jié)上允許系統(tǒng)依據(jù)數(shù)據(jù)自主作出決策。
到底是操作員啟動(dòng)攻擊,還是無(wú)人機(jī)自主攻擊,或在什么條件下人工啟動(dòng)攻擊,在什么條件下無(wú)人機(jī)自主攻擊,這就是操作員與無(wú)人機(jī)權(quán)限的分配問(wèn)題。
2004年以來(lái),美國(guó)軍方和中央情報(bào)局在海外的無(wú)人機(jī)空襲造成9000人至1.7萬(wàn)人死亡。2021年7月,美國(guó)前空軍情報(bào)分析員和無(wú)人機(jī)操作員黑爾透露,在他執(zhí)行無(wú)人機(jī)“定點(diǎn)清除”任務(wù)時(shí),有不少人是無(wú)辜的。黑爾因?yàn)槭艿搅夹牡募灏?,向媒體透露了一些事實(shí),他這樣做的代價(jià)是因“泄密罪”被判刑45個(gè)月。在面對(duì)輿論譴責(zé)時(shí),美國(guó)軍方拒絕為無(wú)人機(jī)誤殺平民道歉。
事實(shí)上,在得到一些“恐怖分子”混雜在平民之中活動(dòng)的情報(bào)后,無(wú)人機(jī)操作員控制無(wú)人機(jī)找到目標(biāo),不管無(wú)人機(jī)的偵察器材還是操作員本人,都很難將“恐怖分子”從平民中分離出來(lái)。操作員面臨為了確保平民安全放棄攻擊,還是將平民和“恐怖分子”都作為攻擊對(duì)象的嚴(yán)酷選擇。美國(guó)軍方如果承認(rèn)這樣的攻擊是錯(cuò)誤的,將只能今后放棄用無(wú)人機(jī)執(zhí)行此類攻擊任務(wù)。
既然人工智能沒(méi)有自主意識(shí),也不會(huì)本質(zhì)性威脅人類,那么,為什么還有那么多重量級(jí)人物發(fā)聲對(duì)此表示警惕,甚至要求限制人工智能的研發(fā)和應(yīng)用?美國(guó)前國(guó)務(wù)卿基辛格在2018年《大西洋》月刊上的一篇文章中稱:核武器具有毀滅性,人工智能的能力有過(guò)之而無(wú)不及。馬斯克和包括圖靈獎(jiǎng)得主在內(nèi)的近千名科學(xué)家、企業(yè)家,聯(lián)名呼吁叫停大規(guī)模人工智能研究。
破壞力由能力與意愿構(gòu)成。人工智能本身不具有破壞意愿和自主意志,但是,它所具有的巨大破壞能力,一旦與人的破壞意愿相結(jié)合,就會(huì)導(dǎo)致毀滅性后果。核武器本身同樣不具有破壞意愿,但它與人的破壞意愿結(jié)合的結(jié)果,在二戰(zhàn)末期已經(jīng)小試牛刀、令人驚駭。
為此,對(duì)人工智能的研發(fā)和應(yīng)用,尤其是在軍事領(lǐng)域的應(yīng)用進(jìn)行管理、控制和規(guī)范,就顯得尤其重要。2019年10月,美國(guó)國(guó)防創(chuàng)新委員會(huì)發(fā)布《人工智能原則:國(guó)防部人工智能應(yīng)用倫理的若干建議》,為人工智能軍事應(yīng)用提出了“負(fù)責(zé)、公平、可追蹤、可靠、可控”五大原則,這從理論上構(gòu)成了人工智能軍事應(yīng)用的基本規(guī)范。
2021年12月,中國(guó)發(fā)布《關(guān)于規(guī)范人工智能軍事應(yīng)用的立場(chǎng)文件》,呼吁各國(guó)秉持“智能向善”的原則,遵守國(guó)家或地區(qū)倫理道德準(zhǔn)則,包括不通過(guò)人工智能技術(shù)謀求絕對(duì)軍事優(yōu)勢(shì),防止損害全球戰(zhàn)略平衡與穩(wěn)定。2022年11月,中國(guó)向聯(lián)合國(guó)《特定常規(guī)武器公約》締約國(guó)大會(huì)提交《關(guān)于加強(qiáng)人工智能倫理治理的立場(chǎng)文件》。今年4月,中國(guó)提出《生成式人工智能服務(wù)管理辦法》草案,強(qiáng)調(diào)收集、處理個(gè)人信息應(yīng)當(dāng)具有明確、合理的目的等。
技術(shù)與倫理的矛盾一直都存在,如果不對(duì)核武器的使用施加嚴(yán)格限制,人類或許早已滅絕。對(duì)于被認(rèn)為破壞性比核武器更厲害的人工智能,為其研發(fā)、應(yīng)用樹(shù)立道德倫理規(guī)范,更加不可或缺。
(作者單位:國(guó)防科技大學(xué)信息通信學(xué)院)
吳敏文 來(lái)源:中國(guó)青年報(bào)
責(zé)任編輯: