低頭不是容易事,如果對方還是你的創(chuàng)造物,只怕更窘。但科學家現(xiàn)已開始不斷提醒我們,要為這件事做點準備了——如果說此前的警告是還有一兩個世紀的光景,現(xiàn)在已經(jīng)銳減為不到50年。
美國科學家?guī)炱濏f爾,被主流商業(yè)報刊《Inc.》評為“愛迪生的合法繼承人”,他作出的推算是:在2045年,人工智能(AI)將超越人類大腦,從而社會劇烈轉(zhuǎn)型,跨入高智能機器時代。
他不算最夸張的。美國“生存研究實驗室”創(chuàng)始人波林一直試圖在讓他手下的機械生物們自治,也就是把控制權(quán)主動交給機器。天賦的權(quán)利,是波林“尊敬它們的方式”。
再翻翻看近兩年關(guān)于計算機和機器人感知方面的進展報道,你都會以為鐵皮軍團馬上就要被宣布是有意識的了。
可我們顯然還不夠了解“智能”和“機器”到底勾搭到了什么程度。這二者的組合物,在你家里時會掃地,見著樓梯還繞著走;在阿富汗山區(qū)會反恐,翻找出人眼看不到的火力;在國際空間站還能幫太空行走的宇航員遞個鉗子什么的;在復(fù)雜計算這一塊,它們更是一直讓人類飽嘗敗績。
但很有一批科學哲學家對“電腦超越人腦論”持強烈否定態(tài)度。他們不以為電腦與其他任何傳遞信號的機械有何本質(zhì)區(qū)別——水流其實也能制造出有運算功能的機器,難道因為電流跑得更快些,就讓機器們學會了“理解”嗎?
物理學家當然能舉出很多因速度快產(chǎn)生截然不同事件的例子。但問題是,你是否真的認為:只要一個機器的算法足夠復(fù)雜精妙,它的自由意志就會涌現(xiàn)出來,變得善良或邪惡,兼有痛苦、愉悅、饑渴甚至還懂得幽默?
“容易的事都很難。”領(lǐng)域內(nèi)先驅(qū)馬文·閔斯基如此總結(jié)人工智能的悖論。意思是需要超高智商的事它們會處理得又快又好,而許多稚子可為之事,人工智能卻不可為。譬如說,產(chǎn)生哪怕一小點自己的思維意識。
但這也不太好判斷。
在今天,考慮人工智能的實現(xiàn)程度,通常需精準地用強人工智能和弱人工智能來劃分。“強”是指計算機不僅作為一種工具,只要運行適當程序,其本身就是有思維的。這樣的機器有知覺、有自我意識——就像科幻電影里快泛濫了的機器人元素。
而“弱”則是認為不可能制造出真正進行推理和解決問題的機器,其終是沒有自主意識的工具。
近年的主流研究正是圍繞“工具”展開的,成就還算可觀;強人工智能則處于停滯不前的狀態(tài)——有趣的是,結(jié)論其實可能截然相反,強人工智能或已經(jīng)發(fā)展到徹底蒙蔽人類的程度。因為我們怎能敲定其他個體是否具有自主思維呢?只要足夠狡猾,“它”或“他”完全可以裝作只是個無辜的鐵盒子。
這就是機器們的優(yōu)勢,如果要一般人類來偽裝成機器,只要指令是30秒心算一個8位數(shù)乘法就露餡了。
幾十年以來,我們用以定義電腦智慧程度的,都是自己的主觀定論——著名的圖靈檢驗就從1950年執(zhí)行到現(xiàn)在。“人工智能之父”阿蘭·圖靈認為:如果你隔著一個屏障與機器問答,長時間內(nèi)仍無法分辨對方是機器還是人,此機就達到了智能階段——這也是“人機大戰(zhàn)”之所以會成為歷代人工智能試金石的源頭。
但無論是2011年與人類鏖戰(zhàn)智力問答的沃森,還是1997年每秒狂算2億步棋的深藍,亦或近年冒出的那些會使詐、會學習、會后悔的一群——現(xiàn)已問世的這些家伙,沒有一個本身是能自主思考的。2010年世界誕生了首款能產(chǎn)生并表達感情的機器人Nao,更深層次地發(fā)掘了人機交互,但短期內(nèi)技術(shù)只能停留于讓其擁有一種類似人的性格上,通過設(shè)置某種特殊的電腦程序使機器人學會主人的情感、喜好,增進人類對它的信賴度。
說到底,它們舉手投足間反映的都是主人家的高明,與一般機器的區(qū)別,僅在于模仿技巧的高低優(yōu)劣罷了。
人工智能的皇帝沒穿衣服,被認為“坐在距離人工智能領(lǐng)導(dǎo)者三排遠”的羅杰·彭羅斯這樣認為。機械與生命體的重疊確實在逐年增加,但電腦們目前還都是沒頭腦(不高興們請暫不要考慮被害妄想癥一樣的蒙蔽論)。你可以把“電腦取代人腦”當做還原主義的歷史重復(fù),或是科學研究中發(fā)展出來的一項合理的聳人聽聞。
如果50年內(nèi)太夸張,那在很久的未來,人工智能究竟有無發(fā)展出獨立意識的可能?我覺著吧,現(xiàn)在就得為這么崇高的問題尋求答案,任誰都會覺得是個很無理的要求。
評論列表(已有條評論)
最新評論