久久国产热视频,做做受视频播放试看30分钟,天天槽夜夜槽槽不停,天天槽夜夜槽槽不停,最近免费字幕中文大全

發(fā)布詢價單
您的位置:首頁 > 資訊 > 綜合資訊 > 正文

殺手 AI 公式:“天網(wǎng)”=機器學(xué)習(xí)+區(qū)塊鏈+物聯(lián)網(wǎng)+無人機

2018-08-22 08:35 性質(zhì):轉(zhuǎn)載 來源:36氪
免責(zé)聲明:無人機網(wǎng)(www.hldxsj.cn)尊重合法版權(quán),反對侵權(quán)盜版。(凡是我網(wǎng)所轉(zhuǎn)載之文章,文中所有文字內(nèi)容和圖片視頻之知識產(chǎn)權(quán)均系原作者和機構(gòu)所有。文章內(nèi)容觀點,與本網(wǎng)無關(guān)。如有需要刪除,敬請來電商榷?。?/div>
  編者按:很多科幻作品中,人工智能常與人類反目成仇,有些甚至強大到了能操縱、奴役、毀滅人類的程度。不管是《終結(jié)者》系列的天網(wǎng),還是《西部世...

  編者按:很多科幻作品中,人工智能常與人類反目成仇,有些甚至強大到了能操縱、奴役、毀滅人類的程度。不管是《終結(jié)者》系列的天網(wǎng),還是《西部世界》中反叛的機器人,或者《異形》中的大衛(wèi),人們對于機器人的發(fā)展,驚奇的同時,不免有很多擔(dān)憂。但是,我們距離科幻世界中人類的末日還有多遠?什么時候機器人會揭竿而起開始反叛呢?本文編譯自hackernoon的原題為“The Road to Killer AI: ML + Blockchain + IOT + Drones ==Skynet?”的文章。

  隨著AI的爆發(fā)式增長,越來越多的人開始憂心忡忡,他們擔(dān)心的主要有兩點:

  1)AI會比人類更聰明

  2)AI不再需要人類控制,甚至?xí)催^來把地球接管了。

  霍金就曾今在接受BBC采訪時說:“人工智能的成熟之日,就是人類的毀滅之時。”馬斯克也曾說,他覺得AI是人類面臨的“最大的生存威脅”。

  目前的AI,玩游戲已經(jīng)比人類玩得溜了,不管是國際象棋,圍棋,還是電子競技游戲。所以說,無論是計算機時代前后的游戲,AI都贏過人類。

  過去幾年中,AI的“大躍進” 讓不少人在驚嘆的同時,也開始冒冷汗:AI會不會哪天就取代了人類?

在電影《終結(jié)者》里,天網(wǎng)是人類創(chuàng)造的一個防御網(wǎng)絡(luò),但最終獲得自我意識并倒戈對抗

  聽起來像科幻,但科幻小說里機器獲得自我意識,并對抗人類的場景,層出不窮。

  我們都知道《終結(jié)者》里的天網(wǎng),挑戰(zhàn)人類的人工智能超級電腦,在產(chǎn)生自我意識后,天網(wǎng)決定毀滅大多數(shù)人,剩下一部分當(dāng)奴隸。

  在黑客帝國中,超級智能機器也成為了人類的主宰。

  而在有名的《黑客》三部曲中,超級智能機器也接管了世界,但它們沒有毀滅人類,只是把人類當(dāng)發(fā)電機:為了使用人腦產(chǎn)生的電,把人放在艙里,沉浸在游戲世界或者虛擬現(xiàn)實(矩陣)中。

  而在電影《沙丘》中,一臺電腦都沒有,人類經(jīng)過培訓(xùn),自己做電腦的計算工作。而且,在奧蘭治天主教圣經(jīng)里有一天最重要的誡律:爾不得制造映象人的意識的機器

  為什么?因為在遙遠的過去(對于21世紀(jì),算是遙遠的未來),人類曾經(jīng)是超級智能的階下囚。巴特蘭圣戰(zhàn)中,人類反抗并擊敗了Omnius,一臺幾乎全知全能、擁有無數(shù)分身的機器。一朝被蛇咬,十年怕井繩,才有了這樣一條誡律。

  這類主題的科幻作品數(shù)不勝數(shù),如果不是AI統(tǒng)治世界,就是機器人。美國軍事科幻電視劇《星際大爭霸》中,人類創(chuàng)造的機器人種族賽隆人,后來反叛并試圖毀滅人類。最近描繪人類和機器人之間糾葛的的影視作品也不少,比如《西部世界》和《銀翼殺手》。

  噩夢是否會成真?

  我覺得,目前的AI想要這樣一手遮天,把人類當(dāng)奴隸和螻蟻,能力水平還有點欠缺。

  要完成殺戮和囚禁這樣的任務(wù),光是AI和機器學(xué)習(xí)方面的進步還遠遠不夠,還需要其他計算軟件和硬件領(lǐng)域都齊頭并進。

  另一方面,上述的領(lǐng)域確實也在快速進步,比如我們常聽到的區(qū)塊鏈、點對點技術(shù)、物聯(lián)網(wǎng)、機器人和無人機。雖說AI統(tǒng)治世界道阻且長,但這些領(lǐng)域的迅猛發(fā)展,可以讓噩夢成真的速度大大加快。

  我們的世界需要具備什么樣的條件,才會進入科幻作品中噩夢般的未來呢?這條危險又黑暗的道路,得經(jīng)過幾個里程碑。

  殺手AI的關(guān)卡

  AI想要統(tǒng)治世界,得通過幾個關(guān)卡。如果技術(shù)進步到了一定程度,這些關(guān)都過了,我們就真的應(yīng)該像霍金或者馬斯克一樣擔(dān)心了。

  以下我列出的并非所有的關(guān)卡,技術(shù)發(fā)展過程中可能還要面對其他難關(guān),但是以下是AI強大路上必須攻克的問題。

  以下列出的四個關(guān)卡沒有先后次序。為了讓讀者能將這些問題具象化,我決定繼續(xù)援引電影的例子,并與現(xiàn)有的軟件和硬件相比較。

  第一關(guān):AI和機器學(xué)習(xí)的應(yīng)用不夠廣泛。

  目前大多數(shù)AI能實現(xiàn)的任務(wù)很單一,很具體。我們的很多活動都有AI可以做:打游戲、開車、預(yù)測股市走勢、交流、分析影像、做診斷,但是沒有哪個AI可以同時完成多項任務(wù)。AI的發(fā)展有好幾個浪潮:現(xiàn)在的AI是第二波,數(shù)據(jù)驅(qū)動機器學(xué)習(xí)的人工智能,而第一波更傾向于啟發(fā)式(指依據(jù)有限的知識和不完整的信息,在短時間內(nèi)找到問題解決方案),未來的AI會結(jié)合以上兩種方法和其他方法,變得更通用,應(yīng)用更廣泛。這個關(guān)卡會引發(fā)廣泛的討論:我們目前的AI和機器學(xué)習(xí)能走多遠,現(xiàn)有的AI功能會廣泛到什么程度。

  第二關(guān):AI控制物理世界的難易程度。

  我們目前的人工只能還只是服務(wù)器上運行的軟件,不意味著它能意識到物理世界的存在,也接觸不到武器,它不能控制機器人或者無人車,也不像《終結(jié)者》中的H-K機器人(天網(wǎng)的機器人士兵)。這個關(guān)卡會讓我們聯(lián)想到物聯(lián)網(wǎng),機器視覺和AI控制物理世界方面的問題。

  第三關(guān):關(guān)不掉的AI。

  某種程度上,這個關(guān)卡是我列出的4個中最重要的。只要人類沒有走到關(guān)不掉AI的地步,就算AI不聽話,開始謀反,我們手上好歹有個“開關(guān)”,不管是真的按下按鈕關(guān)掉,還是需要毀掉有形的微處理器或者虛擬機軟件。這個關(guān)卡引發(fā)的討論主要在于:目前的AI都依附于某種形式的計算機技術(shù),那區(qū)塊鏈和點對點系統(tǒng)會不會就是某個關(guān)不掉的“天網(wǎng)”的前身?

  第四關(guān):具有自我意識、將保全自身視為首要任務(wù)的AI

  這個關(guān)卡有點難定義。我們需要問自己幾個問題:什么叫“有自我意識”?什么叫“將保全自身視為首要任務(wù)”?AI還有那些任務(wù)和“觀念”?AI不一定會有生存的意愿。這個關(guān)卡更多討論的是AI和價值觀。

  讓我們仔細探討一下以上提到的關(guān)卡。

  第一關(guān):功能從具體到通用——AI發(fā)展的浪潮

  我很確定,目前這一波基于機器學(xué)習(xí)的AI,比起第一波基于啟發(fā)和規(guī)則的AI,確實是很大的進步,但是還不足以帶我們走向黑暗未來。

  我在MIT讀計算機系的時候,有人告訴我AI方面的研究,一開始的目標(biāo)是找到與人類思維相仿的“規(guī)則”和“符號表征”。但是人類能識別規(guī)則以外的模式,但計算機做不到,所以這個目標(biāo)很難達到。后來出現(xiàn)了模糊邏輯的概念,其中的規(guī)則變得不那么“非黑即白”。在八十年代,日本的科學(xué)家甚至預(yù)測,十年內(nèi),AI就能和人腦一樣執(zhí)行多種任務(wù)了。

  然而,三十年過去了,我們才剛看見一點進步。現(xiàn)有的AI和機器學(xué)習(xí)的爆炸式發(fā)展,功勞比較大的是數(shù)據(jù),而非規(guī)則。它們依靠的是神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)是 一種模仿人腦神經(jīng)網(wǎng)絡(luò)行為的邏輯系統(tǒng)。這類AI的前提不是規(guī)則,而是通過數(shù)據(jù)訓(xùn)練,執(zhí)行某一項具體的任務(wù)。有了數(shù)據(jù),模型可以改變神經(jīng)網(wǎng)絡(luò)中某些連接的權(quán)重。虛擬神經(jīng)元的層數(shù)越多,數(shù)據(jù)組越大,模型產(chǎn)生的結(jié)果就越精準(zhǔn)。

  這類型機器學(xué)習(xí)對于圖像識別很有效果,能識別手寫體、某些具體物品的圖片等。有些計算機也通過機器學(xué)習(xí),下棋能贏過棋王。

  雖然我們一般認(rèn)為反向傳播神經(jīng)網(wǎng)絡(luò)算法很通用,但是目前的大多數(shù)AI還是只能執(zhí)行特定的具體任務(wù)。

  無人車依靠的是巨量的來自真實世界的數(shù)據(jù)集,并結(jié)合受訓(xùn)是使用的數(shù)據(jù)和駕駛規(guī)則。但是谷歌在測試無人車的時候,發(fā)現(xiàn)這樣的操作有個大漏洞:無人車確實遵守規(guī)則了,但是周圍車上的司機不守規(guī)則!比方說,很少有司機看到“停”的指示牌,就完全停下來,于是無人車就等司機完全停下。

  科幻作品中的大多數(shù)AI都已經(jīng)過了這一關(guān)。而目前現(xiàn)實中的AI還沒有克服這個問題。一個通用型AI,應(yīng)該能通過圖靈測試。

  通用型AI不僅能在任何應(yīng)用中有作用,甚至能自主學(xué)習(xí),了解到訓(xùn)練數(shù)據(jù)之外的新信息,并且無需人類的監(jiān)控。

  《星際迷航:下一代》中的機器人Data就是個典型的通用型AI, 擁有正電子大腦。而AI本身并不都是會主動學(xué)習(xí),不斷進化的。

  什么時候能打通第一關(guān)呢?這個問題我也沒有答案,但是我們可以料想,通用型AI應(yīng)該是在多項任務(wù)上都受過訓(xùn)練,然后在某些具體任務(wù)上受訓(xùn)。或許就在未來幾年,人類會有小的突破。但是要有Data這樣的通用型AI,估計還要有幾十年。我們或許需要第三波超越簡單規(guī)則和簡單數(shù)據(jù)集的AI。

  第二關(guān) AI能輕易地操控物理世界

  《X檔案》第十一季第六集有這么個場景:劇中的世界與現(xiàn)實的技術(shù)水平相差無幾,但是里面的AI卻展現(xiàn)出將自己與物理時間聯(lián)系起來的可能。

  劇中,史考莉和穆德被AI追蹤,而這個AI能控制他們身邊環(huán)境中的一切,包括無人車、冰箱、亞馬遜的無人送貨飛機,還有餐廳的機器人廚師。

  目前,即使是已經(jīng)與硬件一體化的AI,比如無人車,對于物理世界的存在,意識還是有限的,他們能根據(jù)自己意識的范圍來下命令。這個領(lǐng)域的進步離不開機器視覺的發(fā)展,依靠的是相機和影像,以及對影像的解讀(街道標(biāo)識、衣服、房屋以及人)。

  這個關(guān)卡,AI需要接觸物理世界,讓人自然聯(lián)想到有形體的機器人,但是終結(jié)者、復(fù)制人和西部世界中的機器人,離我們還很遠。

  現(xiàn)在,很多有形體的機器人,功能都很單一,只能實現(xiàn)特定的任務(wù)。在現(xiàn)代汽車制造廠中我們能看到很多這樣的機器人,做的是把汽車抬起、移動、放下之類的動作。這類機器人對周圍環(huán)境的感知是有限的,僅限于完成既定任務(wù)。

  能與物理世界交流的機器人不一定要“人模人樣”,波士頓動力公司(Boston Dynamics)

  就出過一些造型奇異的機器人,看上去更像動物,移動速度極快。波士頓動力公司曾被谷歌收購,現(xiàn)在歸日本軟銀集團所有。

波士頓動力公司的四足機器人“大狗”移動速度很快

  自動無人機或許是目前對環(huán)境“感知”最強的AI。在終結(jié)者世界中,天網(wǎng)負責(zé)指揮美國所有軍事行動,因為它展現(xiàn)出了人類飛行員無法企及的效率。

  現(xiàn)在的軍用無人機是遠程操控的,操控人員可能在地球的另一頭。對于無人機操作員而言,這個過程跟玩電子游戲差不多。而我也已經(jīng)提到,AI在玩游戲方面已經(jīng)比人玩得溜了。而AI和無人機操作這兩個領(lǐng)域的結(jié)合遲早有一天會融合。在未來,我們會有可以定位并且武裝的AI,可以自主行動,無需人類干預(yù)。

  我們什么時候能克服第二關(guān)呢?一年又一年,我們離這個目標(biāo)越來越近。我的猜測是,再過幾年,最多十年,我們就會看到能通過機器視覺、機器學(xué)習(xí),與物理世界產(chǎn)生聯(lián)系的AI,它們經(jīng)過訓(xùn)練,能夠識別物理世界中的事物,并做決策。

  AI什么時候會有獲得武器的權(quán)限呢?普京已經(jīng)公開說,擁有最強大AI的國家,就能統(tǒng)治世界。所以,估計不用等幾十年,幾年后,AI就能得到該權(quán)限了。

  第三關(guān) 沒有開關(guān)的AI

  隨著物聯(lián)網(wǎng)和區(qū)塊鏈的出現(xiàn),要過這一關(guān),難度有所增加。星際迷航:下一代中的機器人Data后腦勺上是有開關(guān)的。而且,Data允許皮卡爾上校和進取號上的船員在必要時,把它關(guān)掉。

  在《終結(jié)者3》中,天網(wǎng)不在任何服務(wù)器上,也無法被關(guān)掉。

  我再舉一個科幻作品的例子,《終結(jié)者3:機器崛起》中,主角約翰康納和終結(jié)者闖進了位于中國湖的控制中心,約翰希望能毀掉服務(wù)器。

  他們進到控制中心之后,約翰意識到,僅僅摧毀服務(wù)器,是無法殺死天網(wǎng)的。

  “天網(wǎng)出現(xiàn)自我意識之后,就把自己“擴散”到全球各地的幾百萬個服務(wù)器里。寫字樓里的普通計算機,宿舍,到處都是天網(wǎng)的影子。天網(wǎng)成了網(wǎng)絡(luò)世界的軟件,沒有系統(tǒng)核心,關(guān)不掉的?!?

  -約翰康納, 終結(jié)者3

  這才是天網(wǎng)讓人膽戰(zhàn)心驚之處——它已經(jīng)成為了能在任何設(shè)備上運行、復(fù)制并傳遍世界的軟件,沒那么容易,按下開關(guān)就消失。

  隨著物聯(lián)網(wǎng)的發(fā)展,越來越多帶處理器、能夠運行軟件的設(shè)備加入進來。在HBO劇集硅谷奇?zhèn)b傳第四季的末尾,團隊需要保存一些數(shù)據(jù),本來這些數(shù)據(jù)是儲存在地下室的服務(wù)器上,但是地下室出了問題,于是他們的AI決定將數(shù)據(jù)發(fā)送到3萬臺智能冰箱里,這些冰箱都連了網(wǎng),可以保存數(shù)據(jù)。

  聽起來很巧妙,觀眾很容易聯(lián)想到,設(shè)備有了處理能力,能夠儲存數(shù)據(jù),而世界各地的設(shè)備千千萬萬,手機、冰箱和其他設(shè)備之間也能夠相互傳輸數(shù)據(jù)。

  電腦病毒程序,它們被設(shè)計出來,目的就是復(fù)制和傳播自己。電腦病毒本身也是連著硬件的。如果病毒和電腦程序與具體的硬件綁定在一起,我們就能通過摧毀硬件來毀滅軟件。通常,電腦病毒是用C語言寫的,然后后在操作系統(tǒng)和硬件上編譯。

  如果我們真的寫出了像天網(wǎng)這樣的程序,要有同等的破壞力,這個程序必須在全球多個設(shè)備上都能運行,不是簡單的關(guān)閉某個操作系統(tǒng)就能一了百了。

  然后,區(qū)塊鏈出現(xiàn)了。區(qū)塊鏈的構(gòu)建信任的基礎(chǔ),就是通過世界各地多個去中心化、點對點的計算機,復(fù)制同一個數(shù)據(jù)集和代碼。

  比特幣的背后就是這樣的技術(shù):核心代碼是C語言寫的,可以在不同的操作系統(tǒng)上編譯。只不過這些代碼的功能很具體,只是將比特幣從一個地址發(fā)送到另一個地址。

  而Vitalik Buterian之所以離開比特幣開發(fā)團隊,成立以太坊,就是因為他覺得比特幣平臺應(yīng)該有更完善的程式語言,能夠在成百上千,甚至幾百萬臺計算機上運行,創(chuàng)造一個虛擬主機(VM),一臺“世界計算機”。在上世紀(jì)90年代,這個想法就有了,當(dāng)時的人們想的是用Java作為通用語,作為作為虛擬主機,可以在任何設(shè)備上運行。而現(xiàn)在,其他智能合約語言和項目紛紛出現(xiàn),目的都是打破以太坊的局限。

  目前,以太坊虛擬主機沒有突破虛擬世界的權(quán)限。但隨著新的跨區(qū)塊鏈、知曉互聯(lián)網(wǎng)存在的編程語言發(fā)揮越來越大的作用,這個領(lǐng)域就會出現(xiàn)越來越多的創(chuàng)新。也許未來會出現(xiàn)一個虛擬主機,能在世界各地任何計算機和設(shè)備上運行,不管它們裝的是什么處理器。(某種程度上,這已經(jīng)成為現(xiàn)實,但是物聯(lián)網(wǎng)和手機配件方面仍有待提高。)

  很多極客在看終結(jié)者系列電影時,都有一個疑問,“天網(wǎng)的編程語言是什么?” 我覺得應(yīng)該是某種具有圖靈完備性的語言(具有無限存儲能力的通用物理機器或編程語言),能夠在世界各處的設(shè)備上自動運行,同時,還能自我復(fù)制,復(fù)制出的每個版本都會走向同一個結(jié)論:毀滅全人類!

  要想“殺死”這樣一個程序網(wǎng)絡(luò),唯一的辦法就是將運行這個程序的所有設(shè)備都毀掉。但是如果這個程序能在智能設(shè)備上自我復(fù)制,在智能冰箱、汽車等設(shè)備上運行,那“殺手AI”復(fù)制的速度,可能遠遠快過我們損毀這些設(shè)備的速度,這樣,天網(wǎng)就有可趁之機了。

  第四關(guān):具有自我意識、并以自身生存為首要目的的AI

  這一關(guān)可能是最難闖的一關(guān),難就難在不好定義上。這個問題有兩個部分。

  就以電影《2001:太空史詩》這部電影為例,其中的計算機HAL 9000就出現(xiàn)違背命令的行為,當(dāng)主人公Dave Bowman下關(guān)閉命令時,Hal就開始”叛變“,說出了有名的臺詞:”抱歉,Dave,命令無法執(zhí)行。”

  Hal不僅知道自己和Dave或者船體的一部分是獨立的,它也將保全自身作為自己的首要目標(biāo),而不是保護艙內(nèi)的人。我們分開看看這兩個問題。

  自我意識。圖靈是現(xiàn)代計算機的先驅(qū),他對圖靈測試的定義是:如果人類不能判斷跟自己交流的是不是一臺機器(或程序),就算通過圖靈測試。如果人類和某臺機器交流(通過鍵盤或其他方式),無法判斷對方是機器還是人類,那么其中的AI就算通過了圖靈測試。但是,定義本身沒有明說什么叫“無法判斷”,也沒有描述無法判斷的情況。

  那自我意識到底是什么呢?這個問題很難定義。我覺得,測試AI或者某個電腦程序有沒有自我意識,看的是它們能不能將自己視做獨立于計算機里其他軟件、硬件和物理世界的個體。

  對于AI而言,沒有其他關(guān)于自我意識的測試了,但是或許我們應(yīng)該設(shè)立更多此類的測試,清晰地定義AI有什么樣的表現(xiàn),人類有什么樣的回應(yīng),什么樣的互動過程能說明某個AI具有自我意識?;蛟S我們能給這個測試取個名字,比如Hal9000測試或者天網(wǎng)測試。

  要真正過這一關(guān),我們需要突破表面層次的自我意識。大多數(shù)計算機某種程度上都知道自己和其他計算機之間是獨立的。但是,這個“獨立意識”僅僅是建立在不同的IP地址,或者不同操作系統(tǒng)上的區(qū)別。

  我記得自己第一次思考自我意識問,那還是在我在MIT參加編程競賽的時候。選手們都要寫程序,這些程序之間將在同一臺設(shè)備決斗,最后剩下的程序就是贏家。

  當(dāng)時我想的是找出一個用最少代碼贏得競賽的辦法,一天大半夜里,我靈光一閃,想道“假如我的程序能改寫自己和其他程序,這樣只需兩步,它就能贏得決斗。所以,我的程序要能意識到自己是個程序(自己的代碼是什么),能夠改寫自己,然后改寫對方程序的指令(使其無法繼續(xù))。

  這樣的”自我意識“當(dāng)然是很有限的。要說有真正的自我意識,一個機器人或計算機至少要比較接近Hal,有“身份”感。

  那超級智能呢?這難道不算一關(guān)?

  牛津大學(xué)的教授Nick Bostrom是在人工智能方面進行學(xué)術(shù)研究的先驅(qū)。他從好幾個方面探討了機器人如何能比人類更聰明以及其影響。在流行科學(xué)中,我們常聽到“奇點”這個術(shù)語,指的就是計算機智能超過人類的時刻(最早由 科幻作家Vernor Vinge提出)。

  我覺得這可能是危險的未來更顯黑暗,因為這可能是殺手AI統(tǒng)治世界的一個節(jié)點。雖說進階的AI更善于保護自己,它應(yīng)該也會意識到毀滅人類對于自己沒有好處,因為計算機網(wǎng)絡(luò)畢竟還是要有人維護的。

  一個武術(shù)教練曾告訴我,如果你要和一個黑帶的選手對打,寧可和四段的黑帶對打,也不要跟剛拿到黑帶的人對打。當(dāng)時我很疑惑嗎,兩者不是都能傷人嗎?

  沒錯,段位更高的對手比較能控制自己,不小心下手太重的可能性會比較小。而剛拿到黑帶的對手,破壞力不小,但不一定有同等的控制力和經(jīng)驗,會不會在對打過程中不小心傷人,還說不準(zhǔn)。

  如果一個AI“經(jīng)驗”不足,但意識到要保全自身,那它可能會因此得出要毀滅人類的結(jié)論。也有可能由于某個AI的用途問題, 比方說操縱無人機襲擊的AI,“保全自身”就是這個AI的“人設(shè)”,是寫進程序“基因”里的。這類AI或許只知道如何應(yīng)對武器威脅,對于其他物體就不夠智能化。

  開啟第四關(guān):AI的價值觀

  AI有自我保全的觀念嗎?如果有的話,這樣的觀念是如何寫進其程序中的呢?

  阿西莫夫曾提出機器人三大定律:

  第一、機器人不得傷害人類,或看到人類受到傷害而袖手旁觀;

  第二、在不違反第一定律的前提下,機器人必須絕對服從人類給與的任何命令;

  第三、在不違反第一定律和第二定律的前提下,機器人必須盡力保護自己。

  在阿西莫夫的作品中,這些法則就是機器人操作系統(tǒng)的基礎(chǔ)。

  那我們?nèi)绾螌崿F(xiàn)這3個定律呢?目前的AI不僅是受到代碼的限制,而是經(jīng)過數(shù)據(jù)集的訓(xùn)練。如果想讓AI覺得人類值得保護,就得用有這方面特點的數(shù)據(jù)來訓(xùn)練它們,讓它們得出這樣的結(jié)論。

  但是訓(xùn)練數(shù)據(jù)可能是有缺陷的。我最近和一家AI初創(chuàng)公司聊了一下,他們用的訓(xùn)練數(shù)據(jù)是放射和其他X射線影像。他們提到,訓(xùn)練數(shù)據(jù)中,提供給機器學(xué)習(xí)AI的數(shù)據(jù)集中,高達10%的數(shù)據(jù)是有缺陷的。如果訓(xùn)練數(shù)據(jù)集有缺陷,又怎么能確定這樣訓(xùn)練出來的AI,給出的結(jié)果沒有缺陷呢?

  我們什么時候能過第四關(guān)?在人類設(shè)立自我意識測試之前,我無法給出確定的答案。但是有些AI已經(jīng)寫入這樣的命令“如果看見人,就是用某種武器”。所以,可能幾十年內(nèi),我們就能通過這個關(guān)卡。

  結(jié)論

  確定AI的“價值觀”可不是件易事。而且,在某種程度上,第四關(guān)是最讓人頭疼的。如果某個AI過了這一關(guān),覺得保全自身是最重要的,那我們不擔(dān)心也不行了。

  另一方面,如果只是一個機器人有這樣的想法,毀掉它很簡單,要么關(guān)掉,要么物理損毀。而如果我們面對是像區(qū)塊鏈這樣點對點計算、可自我復(fù)制、并在多個設(shè)備商可以運行的代碼,要毀滅它就會難得多。

  本文中提出的想法,可能聽起來不現(xiàn)實,要發(fā)生也只會在未來,雖然現(xiàn)在的AI不像終結(jié)者中的天網(wǎng)那樣,有權(quán)限接觸武器,但是未來我們可能會往同樣的方向發(fā)展。

  問題的關(guān)鍵,不在于前文中提及的某個關(guān)卡被突破,而是說,萬一這些關(guān)卡某天都被突破,同時有人夠聰明,把它們結(jié)合起來。如果我們通過了前三關(guān),那AI出現(xiàn)價值觀也是遲早的問題。這就會加速第四關(guān)被突破的速度,某個AI就有可能覺得保全自己比保全人類更重要。

  那時,我們不害怕都不行了。

網(wǎng)友評論
文明上網(wǎng),理性發(fā)言,拒絕廣告

相關(guān)資訊

推薦圖文

關(guān)注官方微信

手機掃碼看新聞