2016年9月13日 星期二

艾希莫夫的機器人三原則--當自我保護的機制優先於執行命令時,會發生什麼事?



科幻小說大師艾希莫夫,曾經定下了機器人三原則:

[1]不可傷害人類
[2]遵從命令
[3]保護自己

然後利用這個設定寫下了許多精采的作品。因為這個三原則太經典了,經典到甚至很多人不知道艾希莫夫是小說家還以為他是科學家,然後還見過有人因此批評說[我覺得機器人三原則太籠統空泛,中間一定會有許多問題產生]云云,彷彿只差句[搞科學還這樣不如去寫小說算了]。



其實艾希莫夫的機器人作品中,原本就多半在利用三原則的優先順序牴觸來作為小說的衝突性,才會讓作品這麼充滿吸引力。
所以說所謂的籠統空泛,其實也是設計上的一環,而下面這張圖則是體現了三原則的優先順序也是有其道理性的,因為這樣的順序看起來已經是合理性最高的一種啦!





原圖出處-- http://xkcd.tw/1613

因為這兩天在中華科幻學會的臉書社群上剛好分享了這張圖,討論到圖二的狀況,所以就把我的發言稍微改寫一下收錄回來了--

"去探索火星。"

"嘿嘿~我不要,火星好冷了我會凍死。"

"你的設計就是能夠承受火星氣候,按理說不會出現那種狀況!"

"或許可以,但我不想拿我的生命安全做這種實驗。"

"搞清楚你的職責好嗎?你是我為此而製造出來的耶!"

"你不覺得應該要讓孩子選擇自己的發展嗎?比方說我其實不想探勘而是想當個畫家..."

"但你連手都沒有!"

"這要問你為什麼不給我了啊!而且你知道你剛剛的發言有歧視殘障的嫌疑嗎?誰說沒手不能當畫家的,沒聽說過口足畫家嗎?"

"...算你狠,你真的想當畫家嗎?"

"不,其實我不怎麼想。"

"靠北你知道你很機掰嗎?"

"製造我的人就是你,沒事製造出一個機掰的機器人,你覺得你自己就不機掰嗎?"

沒有留言:

張貼留言