國際視野 - 王冠一 2015年3月26日
人工智能 惠民害民?2015-03-26
科學家發明機械人,目標十分明確:改善人類生活,協助人類解決問題。但正如一些電影都曾經探討過:假如機械人變得愈來愈聰明,人類的生存可能受到威脅。從機械人以至人工智能(AI)必然會衍生出一個問題:到底人工智能是人類的朋友?還是人類的敵人?
近期不少科學家與科技界名人,表明對人工智能的發展存有好大戒心。當中,探索宇宙的專家霍金(Stephen Hawking)警告,人類繼續研發人工智能,最終會證明是致命的錯誤,因為人工智能終有一天有能力消滅人類;當人工智能進化至懂得自我完善的地步時,這種進化的速度就會愈來愈快。人類礙於生物進化(Biological Evolution)的限制,絕對贏不過擁有高智慧的機器。
企業老闆馬斯克(Elon Musk,Tesla與 SpaceX創辦人)認為,人工智能甚至較核武更為危險,情況就像召喚了惡魔一樣,人工智能將會是人類有史以來最大的威脅。人類最終如果能逃過被人工智能消滅的可能性只有一個,就是反過來成為人工智能的寵物。
因此,馬斯克建議,從國家層面或國際層面規範人工智能的開發,確保不會有人愚蠢地胡亂研發,開啟了潘朵拉盒子。
現今科技進化的速度,似乎預示著人類變成人工智能的奴隸的日子為期不遠。不過,原來人工智能的進化速度與效率,視乎電腦運算的速度而定。電腦運算速度能夠愈來愈快,全賴矽電阻(Silicon Transistors)能夠愈造愈細。蘋果創辦人之一沃茲尼克(Steve Wozniak)推斷,當矽電阻的體積發展至「細無可細」的時候(理論上體積的極限只能相當於一粒原子),人工智能的進化就會處於瓶頸。屆時人工智能的進化,將會因電腦運算速度到達極限而放慢甚至停止)。只要當時人工智能的智慧水平尚未超越人類,那麼人類的命運尚算安全!
然而,電腦運算的速度,仍有機會出現突破性的發展,例如正式掌握到量子(Quantum)技術,屆時電腦運算的速度不再受到限制,人工智能就會如脫韁野馬般發展,遠遠拋離人類智力的水平。
雖然人工智能遲早會超越人類,但沃茲尼克竟然叫人用平常心去面對。他認為,如果人類能製造出一種超越自己的物種,人類就會接觸到更多科學的未知領域。
其實,除了AI的發展有機會威脅人類的生存之外,目前科學界正全力發展一套稱之為超智能(Superintelligence)的理論與技術,但相信會遇上不少道德與科學的考驗。
王冠一財經頻道
國際視野 - 王冠一 舊文