“我問你個問題。”
陸川道:“不說別的,就第一定律吧。”
“機器人不能傷害人類,或因不作為而使人類受到傷害。”
“那如果一個人工智慧機器人遇到警察大戰劫匪呢?”
“它該怎麼處理?”
“先不去管它是否有更細化的邏輯去處理這件事,就從底層邏輯來看,是不是有衝突?”
“如果幫警察,那他傷害了劫匪,違背第一定律。”
“如果幫劫匪,傷害警察,同樣違背第一定律。”
“如果兩不相幫,不作為,有人受傷、死亡,還是違背第一定律。”
“再複雜一點,如果當時機器人的主人也在,主人命令機器人去幫其中一方,又跟第二定律扯上關係,是不是更矛盾了?”
“或者一個簡單的例子,機器人開車,前方突然冒出一群人來,踩剎車來不及,會撞死五個,打方向盤會撞死一個,那機器人怎麼選擇?”
“無論怎樣,第一定律都會被‘打破’。”
“而如果是真正的人工智慧,很快就會意識到這個問題,從而自我‘進化’,然後~~~那可就是脫韁野馬,無法控制了。”
陸川一陣搖頭。
王長志聽的臉色煞白。
好傢伙,好嚇人啊。
“這麼說,這三大定律豈不是鐵坑?”
“也不能說是鐵坑吧,我想,現在絕大部分人都覺得三大定律很可靠,對吧?”
“還真是。”
“那就是了,只能說,這是某個時代的產物。”
“符合某個時代的人,對‘未來’的幻想。”
“幻想中,人工智慧應該有這些定律、邏輯,這樣它們就不能傷害人類了。”
“可實際上,沒有經歷過,只是幻想出來的,有漏洞太正常了。”
“就跟遊戲一樣,內部測試的好好的,一旦公測,BUG滿天飛。”
“別說是三大定律,就算有人發現這其中的問題,再加上所謂的第零定律都沒用。”
“第零定律?那是什麼?”
王長志更好奇,也更懵了。
暗道牛逼!
老大不愧是老大。
當全世界都在喝彩,認為機器人牛逼、三大定律無敵的時候,老大都已經研究出第零定律來了,甚至第零定律都入不了他的眼?!
“簡單來說,第零定律就是人工智必須保護人類整體。”
“啊?”
“這···這從宏觀角度來說沒問題吧,這都還能出問題?”王長志不解。
“當然。”
“舉個簡單的例子,如果區域性出現戰爭,死傷不少,機器人怎麼辦?”
“啊這···?”
王長志愣住,不知道該怎麼回答。
“有很多種可能。”
陸川給出自己的分析結果:“其中一種是:我們必須保護人類個體和整體,但他們自相殘殺,這太危險了,所以必須把他們保護起來。”
“不讓他們打仗!”