你是否曾經(jīng)產(chǎn)生過懷疑,你身邊的某個人可能是個機器人呢?畢竟現(xiàn)在由于技術(shù)的發(fā)展,機器人的外觀、行為都有可能被設(shè)置得和人類十分相像。這似乎有些荒謬和匪夷所思,但是你如何能百分之百確定,某個人就是他看上去的那樣,而不是一個“擬人”的機器。你沒法打開他的身體零部件去進行判斷,沒法透視他的大腦、身體或是五臟六腑。
所以你如何確定你所面對的是人類,還是一個非常智能的機器?今天就來對這個問題一探究竟吧。我們將討論“非生命的存在”,也就是說,“機器人”,是否也可以成為“人”,如果它們擁有了符合“人”的標準,我們由會怎樣界定機器人。
這個問題并不是科幻小說家才關(guān)心的問題,而是哲學領(lǐng)域、人工智能領(lǐng)域、認知領(lǐng)域都廣泛關(guān)注的共同話題。它的重要性不言而喻,因為科技無時無刻不在迅猛地發(fā)展著,所以我們需要梳理清楚我們?nèi)绾螌Υ碌奈锓N。如果我們創(chuàng)造出了符合我們對于“人類”標準設(shè)定的存在(機器、克隆、仿真等),它們應(yīng)當用哪種存在的標準去定義?
人工智能這個概念最早于1956年8月的達特茅斯會議上由約翰·麥卡錫(John McCarthy)、馬文·明斯基(Marvin Minsky)、克勞德·香農(nóng)(Claude Shannon)、納撒尼爾·羅切斯特(Nathaniel Rochester)等人提出。在此之前,具有人工智能特性的處理形式會被稱為“自動機理論”“復雜數(shù)據(jù)處理”等。
我們經(jīng)常會產(chǎn)生一種疑問——“我們已經(jīng)擁有了人工智能了,我的手機、電腦以及其他電子設(shè)備都是人工智能”。但是,這些用來進行信息傳遞、工作交流的設(shè)備,在技術(shù)層面上仍然是機器功能的。這類模仿人類智力活動的某些方面的機器,叫做“弱人工智能(Weak AI)”。,弱人工智能也被稱為狹隘人工智能(Narrow AI)或應(yīng)用人工智能(Applied AI)。它指的是只能完成某一項特定任務(wù)或者解決某一特定問題的人工智能。所以“弱人工智能”的特點是它的思考能力相對不足,并且能夠思考的范圍也有限。比如我們現(xiàn)在常用的Siri等,就是典型的弱人工智能,它只能執(zhí)行一些預設(shè)的功能,并不具備智力或者自我意識。
與之相對的“強人工智能(Strong AI)”,是可以向我們?nèi)祟愐粯铀伎嫉臋C器或者系統(tǒng)。無論人類做什么,“強人工智能”也能用它無生命的系統(tǒng)做相同的事。強人工智能(Strong AI)又被稱為通用人工智能(Artificial General Intelligence)或全人工智能(Full AI)。它指的是可以像人一樣勝任任何智力性任務(wù)的智能機器。類似如此的人工智能是一部分人工智能領(lǐng)域研究的最終目標,并且這也成了一個經(jīng)久不衰的話題出現(xiàn)在許多科幻小說、電影之中。
早在1950年,英國數(shù)學家艾倫圖靈就思考了這一問題。他設(shè)計了一個測驗,叫做“圖靈測驗”,他認為這個測驗可以演示出一個機器是否已經(jīng)發(fā)展出了像我們一樣的智能和思考能力。當然,在圖靈那個時代還沒有計算機的出現(xiàn),如果他在我們這個時代描述這個測驗,大概會是這樣的:
你正在手機上同時和兩個“對象”聊天,其中一個是人類,另一個是計算機程序或者一個AI,你并不知道哪一個是人類,哪一個是AI。在聊天過程中,你可以向這兩位對話者提出任何想要詢問的問題,它們可以按照你的喜好回答你,它們甚至可以說謊。你認為你能分辨出這兩者嗎?你用什么方法進行分辨,或是說你會提出什么樣的問題呢?另一方面,你期待的答案又會是什么樣的呢?
一個足夠復雜的機器有很大可能可以欺騙人類,會讓你相信你正在和一個人類聊天。圖靈認為,如果一個機器可以騙過人類,那么這就是“強人工智能”。所以在圖靈看來,一個物體如果能夠像人類一樣思考,就意味著它能夠使我們相信它正在像人類一樣思考。如果我們分辨不出其中的區(qū)別,那么就認為它確實沒有差別。所以,這是一個嚴格基于“行為”的測試。
基于“行為”的測試本身沒有問題,因為我們經(jīng)常以此判斷我們身邊的人的行為是否符合我們的預期。例如,我們身邊的人會表現(xiàn)出諸如意向性、理解力的內(nèi)容,那么我們假設(shè)他們擁有“意向性”和“意志力”。
美國當代哲學家威廉·萊肯在很多觀點上對圖靈表示認同,但是萊肯意識到許多人仍然認為,即便可以制作出一個類似人類的機器,也永遠無法制造出一個就是“人”的機器。對于著一些觀點,萊肯舉了一個例子——哈利。哈利是一個人形機器人,他有和人類極其相似的皮膚,他可以打球、彈琴、運動,也會緊張,會有情緒,也有弱點。哈利在各方面都給人以一種“人”的印象。他有意向也有情感。如果哈利被割傷,他流出的是機油而不是血,你一定會很吃驚。
萊肯認為,這樣的情況不應(yīng)該導致你改變對哈利的認知狀態(tài),如果你認為哈利不是“人”,那么哈利缺少了什么?一個可能的回答是“他是一個由編程制造出的機器”。萊肯對此會回應(yīng)“我們難道不是嗎?”我們每一個人出生時都帶著遺傳密碼,它給我們預設(shè)了諸多不同的特性,比如性格、喜好、血型。我們成長的過程中也被家長、老師影響著,這也是一種不同的“編程”,還有你的行為、語言學習等,都是編程的過程。萊肯認為,你擁有超越程序的能力,而哈利也有。
事實證明,人類可以跳出自身的框架進行思考,而機器卻無法做到這一點。許多人認為,即使有機器能夠通過圖靈測試,也并不能認為他們就是“強AI”。學界對于強人工智能所需要擁有的智力水平,尚且沒有準確的定義,但人工智能研究人員認為強人工智能需要具備以下的能力。
1.思考能力,運用策略去解決問題,并且可以在不確定情況下做出判斷;
2.展現(xiàn)出一定的知識量;
3.計劃能力;
4.學習能力;
5.交流能力;
6.利用自身所有能力達成目的的能力。
人工智能的問題也涉及到心靈哲學的領(lǐng)域,哲學家約翰·塞爾構(gòu)想了一個著名的思想實驗“中文屋”,同樣來證明即便騙過了人類,也不能成為“強AI”。
想象你是一個不會說中文的人,你被關(guān)在一個房間里,這個房間里到處都是漢字。另外你還有一本英文編碼本,上面指示著每個輸入對應(yīng)著什么漢字。中文母語的人把用中文寫的信息送到房間中,你使用編碼本,就可以搞清楚如何回答你收到的漢字。這樣,你就可以把合適的中文內(nèi)容送出房間。但是,你完全不知道這些漢字是什么意思,卻仍然能夠根據(jù)編碼進行回答。你很熟練地依照這個程序進行,以至于中文母語的人相信,你是懂得中文的。這也意味著你通過了說中文的“圖靈測試”。
顯然,你并不懂中文,你只是知道如何操控符號,卻完全不理解它們的意思。你只是能夠欺騙人們相信,你知道你并不真正懂得的東西。同樣,根據(jù)塞爾的觀點,機器能夠欺騙人類,認為它是“人類”,也并不意味著它就是“強AI”。強人工智能應(yīng)該要求機器具備真正的理解力,而計算機似乎永遠不可能實現(xiàn)這一點。
在“弱人工智能”和“強人工智能”之外,哲學家、牛津大學人類未來研究院院長尼克·波斯特洛姆(Nick Bostrom)還定義了一種“超級智能”,那就是“在幾乎所有領(lǐng)域都大大超過人類認知表現(xiàn)的任何智力”。超人工智能(Artificial Super Intelligence,ASI)正是超級智能的一種。
首先,超人工智能能實現(xiàn)與人類智能等同的功能,即可以像人類智能實現(xiàn)生物上的進化一樣,對自身進行重編程和改進,這也就是“遞歸自我改進功能”。
其次,波斯特洛姆還提到:
“生物神經(jīng)元的工作峰值速度約為200 Hz,比現(xiàn)代微處理器(約2 GHz)慢了整整7個數(shù)量級”,同時,“神經(jīng)元在軸突上120 m/s的傳輸速度也遠遠低于計算機比肩光速的通信速度”。
這使得超人工智能的思考速度和自我改進速度將遠遠超過人類,人類作為生物上的生理限制將統(tǒng)統(tǒng)不適用于機器智能。
現(xiàn)在,我們只能在電影和小說之中看到“強人工智能”和“超人工智能”,但是這并不妨礙哲學家、科學家對這一問題進行持續(xù)的研究和探討。這一問題的豐富程度遠遠超過我們的想象,如果你對此感興趣,也可以閱讀更多相關(guān)的內(nèi)容,并且提出自己的思考和看法。