在人工智能方面遇到的一個主要的難題(好吧,多個主要的難題之一)是教會機器人識別哪些是正常的行為。假如你有一個情感機器人管家,一天晚上你在外面喝了很多 Future Beer?(一種啤酒),很晚才回家,你讓它幫你去商店買一些 Alka-Seltzer(一種泡騰劑式的消食片藥品,用于治療消化不良)。如果這個機器人決定滿足你的這個明確的需求,接到指令以后以最快的速度去搶劫商店,殺死了所有擋道的人,當(dāng)它把你需要的藥片放到你手里時,你指責(zé)這個血腥的機器人:“機器人已經(jīng)不分對與錯了?!?
美國佐治亞理工學(xué)院的人工智能研究人員稱:避免出現(xiàn)這種混亂,教會機器人去識別正常的人類行為就像教會他們閱讀故事一樣。在最近發(fā)表的論文中,他們指出 “故事中編碼了很多類型的社會文化知識:通用共享的知識、社交禮儀和正確行為與不正確行為的示例等。我們相信計算機可以閱讀并理解故事,如果在既定的文化中提供充足的案例故事,文化中的價值觀也會潛移默化地存在他們心中?!?當(dāng)然,人類在這個過程中經(jīng)歷了幾千年。想一想我們曾經(jīng)閱讀過的《伊索寓言》、古希臘和羅馬的神話、《圣經(jīng)》等。這些文字旨在傳遞社會的價值觀,教會未來的一代如何做人。
使用文字傳播價值觀是一種古老的文明。
這是一個很讓人著迷的概念,但是 Riedl 和 Harrison 的工作只是如何讓機器進行學(xué)習(xí)的一小部分內(nèi)容。他們的提案還有很多局限和挑戰(zhàn),包括實際上大部分細節(jié)性的故事與計算機的自身學(xué)習(xí)有一定的差距,即使是一些道德上批準(zhǔn)和社會接受的行為轉(zhuǎn)化為真正的身體活動時也是很難處理的。(想象一下,所有這些昂貴的 DARPA(美國國防部高級研究計劃局)機器人在不摔倒的情況下努力開門的情景。)在研究過程中也會有一些不詳?shù)穆曇簦嵝涯闳绻麢C器人的一些行為不小心給出了錯誤的 “獎勵信號”,它可能會出現(xiàn) “精神失常”。
這就引發(fā)了疑問:我們該如何判定哪些故事值得信任?并不是所有的敘事故事都有值得稱贊的主角,即使我們可以直截了當(dāng)?shù)叵皭?,但是仍然會有大量的模棱兩可的角色在做一些模棱兩可的行為。Riedl 和 Harrison 的理論認(rèn)為邪惡的故事占少數(shù),如果圖書的樣本量足夠大(他們建議使用可用的所有故事),那么 “顛覆性的或反向性的故事就會被符合社會和文化規(guī)范的的故事淹沒?!?有這種可能?;蛘哂锌赡芎芏鄡e幸的文學(xué)統(tǒng)計——例如,20 世紀(jì)上半葉過剩的紙質(zhì)平裝書——就會完全完全扭曲整個體驗,留給我一批說話和行動都像偵探的人工智能機器人。
如果這樣的話,真是太糟糕了,但是這樣的機器人愿意出門給你買藥嗎?
2025-09-16 09:27
2025-09-12 11:30
2025-09-11 10:41
2025-09-09 10:52
2025-09-04 21:58
2025-08-28 11:13
2025-08-27 14:14
2025-08-26 13:50
2025-08-23 20:37
2025-08-22 10:33