殺手機(jī)器人現(xiàn)在看起來不像這樣。圖片來源:Denis Starostin/Shutte
你可能從電影和書籍中聽說過殺手機(jī)器人、屠宰機(jī)器人或終結(jié)者--官方稱為致命自主武器(LAWs)。而超級(jí)智能武器橫行的想法仍然是科幻小說。但是,隨著人工智能武器變得越來越復(fù)雜,公眾對(duì)缺乏責(zé)任感和技術(shù)故障風(fēng)險(xiǎn)的擔(dān)憂也在增加。
我們已經(jīng)看到所謂的中立人工智能是如何做出性別歧視的算法和無能的內(nèi)容審核系統(tǒng)的,主要是因?yàn)樗鼈兊膭?chuàng)造者不了解這項(xiàng)技術(shù)。但在戰(zhàn)爭中,這些類型的誤解可能會(huì)殺死平民或破壞談判。
例如,一個(gè)目標(biāo)識(shí)別算法可以被訓(xùn)練為從衛(wèi)星圖像中識(shí)別坦克。但是,如果用于訓(xùn)練該系統(tǒng)的所有圖像都以坦克周圍的士兵編隊(duì)為特征,那該怎么辦?它可能會(huì)把穿過軍事封鎖線的民用車輛誤認(rèn)為是目標(biāo)。
我們?yōu)槭裁葱枰灾魑淦鳎?/strong>
由于全球超級(jí)大國建造和使用日益先進(jìn)的武器的方式,許多國家(如越南、阿富汗和也門)的平民遭受了痛苦。許多人會(huì)認(rèn)為它們造成的傷害多于好處,最近的一次是指2022年初俄羅斯入侵烏克蘭的事件。
在另一個(gè)陣營中,有人說一個(gè)國家必須有能力保護(hù)自己,這意味著要跟上其他國家的軍事技術(shù)。人工智能已經(jīng)可以在國際象棋和撲克上勝過人類。它在現(xiàn)實(shí)世界中的表現(xiàn)也超過了人類。例如,微軟聲稱其語音識(shí)別軟件的錯(cuò)誤率為1%,而人類的錯(cuò)誤率約為6%。因此,軍隊(duì)正在慢慢地把韁繩交給算法,這并不令人驚訝。
但是,我們?nèi)绾伪苊鈱⑹謾C(jī)器人加入我們希望從未發(fā)明過的一長串東西中呢?首先:了解你的敵人。
什么是致命的自主武器(LAWs)?
美國國防部將自主武器系統(tǒng)定義為:“一種武器系統(tǒng),一旦啟動(dòng),就可以選擇和攻擊目標(biāo),而不需要人類操作員進(jìn)一步干預(yù)?!?/p>
許多戰(zhàn)斗系統(tǒng)已經(jīng)符合這一標(biāo)準(zhǔn)。無人機(jī)和現(xiàn)代導(dǎo)彈上的計(jì)算機(jī)擁有的算法可以探測目標(biāo),并以遠(yuǎn)比人類操作員更精確的方式向其開火。以色列的 "鐵穹 "是幾個(gè)主動(dòng)防御系統(tǒng)中的一個(gè),可以在沒有人類監(jiān)督的情況下攻擊目標(biāo)。
雖然是為導(dǎo)彈防御而設(shè)計(jì),但鐵穹可能會(huì)意外殺人。但這種風(fēng)險(xiǎn)在國際政治中被認(rèn)為是可以接受的,因?yàn)殍F穹在保護(hù)平民生命方面通常有著可靠的歷史。
也有設(shè)計(jì)用于攻擊人的人工智能武器,從機(jī)器人哨兵到在烏克蘭戰(zhàn)爭中使用的閑逛的神風(fēng)無人機(jī)。LAWs已經(jīng)在這里了。因此,如果我們想影響致命性武器的使用,我們需要了解現(xiàn)代武器的歷史。
戰(zhàn)爭的規(guī)則
國際協(xié)議,如《日內(nèi)瓦公約》,規(guī)定了沖突期間對(duì)待戰(zhàn)俘和平民的行為。它們是我們控制戰(zhàn)爭方式的少數(shù)工具之一。不幸的是,美國在越南和俄羅斯在阿富汗使用化學(xué)武器,證明這些措施并不總是成功的。
更糟糕的是,關(guān)鍵參與者拒絕簽字。國際禁止地雷運(yùn)動(dòng)(ICBL)自1992年以來一直在游說政治家禁止地雷和集束彈藥(在大范圍內(nèi)隨機(jī)散布的小型炸彈)。1997年,渥太華條約包括禁止這些武器,122個(gè)國家簽署了該條約。但美國、中國和俄羅斯并不買賬。
自2015年以來,地雷每年至少使5000名士兵和平民受傷和死亡,2017年多達(dá)9440人。2022年地雷和集束彈藥監(jiān)測報(bào)告》說。
“傷亡人數(shù)......在過去七年里一直令人不安地居高不下,此前有十多年歷史性的減少。2021年也不例外。這一趨勢主要是由于2015年以來觀察到的沖突和簡易地雷污染的增加。平民占記錄的受害者的大部分,其中一半是兒童。”
盡管國際禁雷運(yùn)動(dòng)作出了最大努力,但有證據(jù)表明,俄羅斯和烏克蘭(渥太華條約的成員)在俄羅斯入侵烏克蘭期間都在使用地雷。烏克蘭還依靠無人機(jī)來指導(dǎo)炮擊,或者最近對(duì)俄羅斯的基礎(chǔ)設(shè)施進(jìn)行 "神風(fēng)攻擊"。
以色列導(dǎo)彈防御系統(tǒng)
我們的未來
但更先進(jìn)的人工智能武器呢?阻止殺手機(jī)器人運(yùn)動(dòng)列出了致命武器的九個(gè)關(guān)鍵問題,重點(diǎn)是缺乏問責(zé)制,以及隨之而來的固有的非人性化殺戮。
雖然這種批評(píng)是有效的,但全面禁止致命性武器是不現(xiàn)實(shí)的,原因有二。首先,和地雷一樣,潘多拉的盒子已經(jīng)被打開了。另外,自主武器、致命性武器和殺人機(jī)器人之間的界限非常模糊,很難區(qū)分它們。軍方領(lǐng)導(dǎo)人總是能夠從禁令的措辭中找到漏洞,將殺手機(jī)器人作為防御性自主武器偷偷投入使用。他們甚至可能在不知不覺中這樣做。
我們幾乎肯定會(huì)在未來看到更多啟用人工智能的武器。但這并不意味著我們必須另眼相看。更加具體和細(xì)微的禁令將有助于讓我們的政治家、數(shù)據(jù)科學(xué)家和工程師負(fù)責(zé)任。
例如,通過禁止。
人工智能的黑匣子:用戶除了輸入和輸出之外沒有關(guān)于算法的信息的系統(tǒng)。
不可靠的人工智能:經(jīng)過不良測試的系統(tǒng)(如前面提到的軍事封鎖的例子)。
而且,你不必成為人工智能專家,也可以對(duì)LAWs有自己的看法。保持對(duì)新的軍事人工智能發(fā)展的了解。當(dāng)你讀到或聽到人工智能被用于戰(zhàn)斗時(shí),問問自己:它是合理的嗎?它是否保護(hù)了平民的生命?如果不是,請(qǐng)與正在努力控制這些系統(tǒng)的社區(qū)接觸。團(tuán)結(jié)起來,我們就有機(jī)會(huì)防止人工智能造成更大的傷害。
2025-09-18 11:24
2025-09-17 10:55
2025-09-16 09:27
2025-09-12 11:30
2025-09-11 10:41
2025-09-09 10:52
2025-09-04 21:58
2025-08-28 11:13
2025-08-27 14:14
2025-08-26 13:50