可以肯定的說,到現在各國政府更多的是鼓勵人工智能的研發,希望可以促進人工智能科技的進展,以及與產業的結合。例如2017年7月21日 ,中國國務院就發布了《新一代人工智能發展規劃》的報告這個規劃是這樣說的:
到2020年,人工智能總體技術和應用與世界先進水平同步,人工智能產業成為新的重要經濟增長點,人工智能技術應用成為改善民生的新途徑;到2025年,人工智能基礎理論實現重大突破,部分技術與應用達到世界領先水平,人工智能成為我國產業升級和經濟轉型的主要動力,智能社會建設取得積極進展;到2030年未來機器人,人工智能理論、技術與應用總體達到世界領先水平,成為世界主要人工智能創新中心。
在這個規劃中,看不到任何對“機器人統治”人類的擔憂,而是希望人工智能研發取得重大進展。世界各國的報告也都如此,沒有哪國政府報告忽然發神經說要小心人工智能機器人。但是在學者以及公眾層面,對這個問題還是比較關心的,特別是這兩年人工智能忽然火爆之后。
《人類簡史》的作者赫拉利在續作《未來簡史》中,對人工智能在未來將如何改變人類社會進行了深入探討。
值得注意的是,赫拉利并沒有去分析,有自我意識的人工智能出來會如何。有自我意識的人工智能就能算是另一種生命物種了,但是這個理論基礎還不完備,再怎么討論也和科幻差不多。而科幻的可能性就太多了,可以寫無數種人類的結局,人工智能統治或者監管是常見的一種”設定“。例如科幻巨著《海伯利安》,里面種種奇奇怪怪事,最后就歸結為超級人工智能搞的事,用這種方式來填坑。
赫拉利分析的是,即使人工智能沒有自我意識,只是一些程序在執行人類的指令,人類社會也會大受影響,甚至人本身作為一個物種都會發生大的改變。例如人類將自己的身體指標交給計算機系統監管,按機器的建議生活,而且發現這樣好處很多。再例如人類放棄自己開車,讓機器自動駕駛。慢慢的人類就放棄了對社會的控制權,而是由機器去控制。也許到某一天,人類就發現,有實質控制權的就是機器了,人類已經沒有辦法回頭了。即使機器沒有自我意識,但人類也只能讓它控制了。這算是機器統治人類的一種方式。
當然也有其它可能性,特別是當計算機與腦科學專家發現了機器自我意識的內在秘密,生成了”強人工智能“的原型之后,這個問題會忽然一下變得非常現實。可以預測,到時世界各國政府并不會歡呼人工智能研發取得巨大突破,而是真的會坐下來討論人工智能的發展路徑,象控制核武器一樣控制”強人工智能“的研發。例如要求人工智能研究團隊必須遵守安全規則,保證計算機中的人工智能按物理安全隔絕方法,絕對不可能跑出來危害社會。
之前也有不少人擔心人類社會被核戰爭毀滅。但現在人類社會看上去還是控制了核武器的最壞影響,反而極大促進了社會和平。那么人類能不能控制強人工智能,又是將來值得討論的問題。
如果只是說可能性,就象人類社會可能幾個大國互相扔核彈,人類全部滅絕,人類被人工智能統治這種可能性是存在的。但是也應該存在好的可能性,人類社會找到了辦法,既發展人工智能未來機器人,又不被它統治。
可以肯定,人工智能的安全問題會比核武器更復雜,值得討論的技術細節更多。正如科幻小說中,人工智能比核武器是更常見的題材。