物理學(xué)能統(tǒng)領(lǐng)萬物嗎?心理學(xué)可以還原成腦科學(xué)嗎?筆者認(rèn)為,各層面的理論自有其獨特價值,不可以互相完全替代,因為一個特定的現(xiàn)象往往只能在某個層次上討論。一個常見的誤區(qū)是,許多人認(rèn)為某個層次比其它層次更基本甚至更真實,而其它層次只不過是建筑在其上的近似描述,因此原則上可以都“還原”到這個基本層。筆者之所以不同意很多人堅信的“意識是從腦中涌現(xiàn)出來的”,因為這隱含著“神經(jīng)層描述是基本的(或真實的),而意識層描述是導(dǎo)出的(或虛構(gòu)的)”的預(yù)設(shè)。
提示:本文是一篇嚴(yán)肅的書評。閱讀本文發(fā)表您的感想至留言區(qū),并點擊“在看”,截至9月7日中午12點,我們會選出5條留言,每人送一本《腦與人工智能》。
撰文 | 王培(美國天普大學(xué)計算機(jī)與信息科學(xué)系)
顧凡及和卡爾·施拉根霍夫(注:考慮到中西方不同的習(xí)慣,我下面分別稱二位為顧先生和卡爾,而不考慮二者不屬于同一個稱謂體系這一問題)合著的《腦與人工智能:一位德國工程師與一位中國科學(xué)家之間的對話》[1](以下簡稱《對話》)從許多方面來說都是獨特的。即使不提其中英文對照的形式,兩位專業(yè)和文化背景都迥然不同的資深專家通了幾年的電郵來討論共同關(guān)心的問題,這本身就是很罕見的。像各國的腦模型計劃、深度學(xué)習(xí)在圍棋等領(lǐng)域的成功這類話題,近年來已經(jīng)成媒體新寵,各路專家也都登臺亮相過了,但不同觀點的深入交鋒并不多見,還不要說這種交鋒還是在惺惺相惜的氣氛下進(jìn)行的了。我覺得《對話》首先可以被看成科學(xué)討論的范本,尤其是青年科技工作者們可以從中學(xué)到如何既保持開放心態(tài)又不淪為隨聲附和,既不放棄自己的原則又尊重對方的觀點等等“基本對話禮儀”。這種對話本應(yīng)是科學(xué)研究的重要形式,但又是在媒體中和教科書中看不到的。二位作者在各自的領(lǐng)域中都已是功成名就了,但仍能愿意認(rèn)真地考慮不同意見,并不恥于承認(rèn)自己的缺失和疏漏之處,這是難能可貴的。能夠保持赤子之心和君子風(fēng)度,這只有在對話目的純粹是滿足求知欲和推動科學(xué)發(fā)展(而非眼前的功利或證明自己的高明)時才能做到。《對話》的另一個特點是話題的廣度。圍繞腦科學(xué)和人工智能這兩個核心領(lǐng)域,書中以通信文本和背景專欄兩種方式介紹了大量相關(guān)知識,并不時將討論提升到科學(xué)哲學(xué)、科學(xué)政策的層面,而又緊扣當(dāng)前的問題,絕無賣弄學(xué)識之嫌。這不僅將有關(guān)思考置于更大的背景之上,也增加了閱讀體驗的生動和愉悅。比如說卡爾在榮升外祖父之際開始意識到“祖父母在系統(tǒng)化、匯總和篩選知識以及教授相關(guān)知識和技能方面做了大部分工作”,生動地表現(xiàn)出一個思想者時時處處都不忘“理論抽象”的特質(zhì),令人忍俊不禁。由于《對話》中談到了大量話題,在這篇短文中無法逐個加以評論。下面我僅選幾點加以討論。《對話》的源頭是顧先生對歐盟“人腦計劃”(HBP,用計算機(jī)模擬整個人腦)的質(zhì)疑(可參閱《歐盟人腦項目:有錢有大計劃,就能做出基礎(chǔ)科學(xué)突破性成果嗎?》),而卡爾也恰有同感,故二人相互補(bǔ)充,對這個當(dāng)時炙手可熱的計劃進(jìn)行了剖析,而其主要預(yù)測已被后面的歷史發(fā)展所證實。我個人在這個問題上的觀點和二位作者高度一致,即認(rèn)為1. 我們對腦的認(rèn)識尚不足以支持全腦范圍的計算機(jī)仿真,
2. 智能計算機(jī)未必要在細(xì)節(jié)上復(fù)制人腦。
這兩個論斷都是關(guān)于人腦和計算機(jī)的功能等價性的,只是關(guān)注的方向恰好相反。
從計算機(jī)被發(fā)明出來那天起,其和人腦的等價性就是個被反復(fù)探討的問題。由于計算機(jī)就是被造出來完成人腦的某些任務(wù)的,功能與人腦自然有重合。而在另一方面,由于計算機(jī)是個機(jī)電設(shè)備而人腦是個生物組織,這二者顯然又有根本差別。因此,計算機(jī)和人腦的關(guān)系不是“相似還是不似”的問題,而是“在哪些方面相似,相似到什么程度”的問題。這聽上去像是常識,但在討論中人們往往會注重于這個關(guān)系的一個方面,而有意無意地忽略了相反的證據(jù)。從原則上講,任何對象或過程都可以在計算機(jī)中被模擬或仿真,而結(jié)果的逼真程度會隨著計算機(jī)模擬技術(shù)的發(fā)展和對模擬對象的認(rèn)識加深而不斷提高。對于人腦這個對象及其內(nèi)部過程當(dāng)然也不例外,因此我并不懷疑腦模型研究的理論和實用潛力。這里需要注意的是,除了當(dāng)前計算技術(shù)的限制之外,腦模擬主要受限于模型本身的精確程度,因此囿于當(dāng)前腦科學(xué)的水平。一個不正確的模型對腦科學(xué)的價值就相當(dāng)有限了,不管它工程上如何宏大。卡爾反復(fù)強(qiáng)調(diào)“模型”和“理論”的差別,顧先生指出不能把人腦當(dāng)作人造物件,理由都在這里。這不是靠砸錢就能解決的,而“大科學(xué)”的運(yùn)作方式在此類情形下反而會阻礙科學(xué)進(jìn)步,包括集中資源時對其它研究思路的抑制和失敗后的殃及池魚。即使腦模型尚不能準(zhǔn)確模擬人腦,它能否為智能機(jī)器的設(shè)計提供思路呢?原則上這當(dāng)然是可能的。像我在《當(dāng)你談?wù)撊斯ぶ悄軙r,到底在談?wù)撌裁?》中所分析的,從廣義上說所有人工智能的研究路線都是對人類智能的某種模仿,其差別只是在抽象程度和覆蓋范圍上。目前的“類腦智能”把智能看作腦的產(chǎn)物,進(jìn)而在神經(jīng)元水平上模擬腦結(jié)構(gòu),這自然不無道理,但認(rèn)為這是實現(xiàn)通用智能的唯一途徑就未免至少是想象力不足了。近期關(guān)于“類腦智能新突破”的報導(dǎo)都忽略了所謂的“新功能”在人工智能歷史上大多已經(jīng)被其它技術(shù)用更簡單的辦法做到了,當(dāng)然那些技術(shù)有別的弱點,因此現(xiàn)在不常被提起了。比如說所謂“災(zāi)難性遺忘”就是人工神經(jīng)元網(wǎng)絡(luò)獨有的問題,因此這里的進(jìn)展是不能被用來證明這條技術(shù)路線的優(yōu)點的。二位作者在《對話》里提出了相當(dāng)充分的論據(jù),來說明智能機(jī)器不一定是越“類腦”越好,而且除了腦結(jié)構(gòu)之外,身體的作用和社會環(huán)境對智能系統(tǒng)也是不能忽略的,所以即使有理由走這條路,現(xiàn)在考慮到的因素也遠(yuǎn)遠(yuǎn)不夠。我完全同意顧先生的下述結(jié)論:“探索腦功能機(jī)制和開發(fā)智能機(jī)器是兩個不同的任務(wù),雖然它們是相互關(guān)聯(lián)的,但不應(yīng)該混淆兩者?!备鞣N腦模型的支持者常常聲稱這種研究有一石二鳥之效,但很少為這個結(jié)論提供超出直覺之外的論據(jù)。而一旦分別討論這兩個目標(biāo),評價標(biāo)準(zhǔn)就不一樣了。如果腦模型主要服務(wù)于腦科學(xué),則其主要標(biāo)準(zhǔn)就是它在多大程度上相似于大腦;如果是作為實現(xiàn)智能的手段,那就要在功能和效率等方面論證其優(yōu)于其它手段之處,而不能只靠“類腦”來說事。《對話》后期的核心議題是“意識”,包括它如何在人腦中出現(xiàn)和能否在計算機(jī)中出現(xiàn)。顧先生和其他一些學(xué)者一樣,認(rèn)為這個現(xiàn)象的根本特征是主觀性和私密性,因而和科學(xué)研究所要求的客觀性和公共性不相容。即使我們可以(從第三人稱的角度)透徹地描述一個認(rèn)知過程,但這和(從第一人稱的角度)直接感受它畢竟不同,因此“討論人工意識的問題還為時尚早”??栒J(rèn)為人工智能在未來可能會有意識,但承認(rèn)這是個非常困難的問題,目前還看不出如何解決。
這個問題大概是我和《對話》作者們觀點差異最大之處了。我同意意識的主觀性和私密性,但不認(rèn)為這為對意識的科學(xué)研究和計算機(jī)實現(xiàn)設(shè)置了不可逾越的障礙。在直接討論意識之前,讓我們先看看精神活動的主觀性、私密性和對這種活動的科學(xué)研究之間的關(guān)系。首先,主觀性和私密性不限于(狹義的)意識,而是普遍存在于各種精神、心理活動之中。以感覺為例,正像卡爾說的:“我們永遠(yuǎn)都不能確定你所看到的紅色究竟是否就是我看到的紅色”,這不僅因為感覺的結(jié)果只直接呈現(xiàn)于感官屬于的認(rèn)知主體之中,也因為感官的微小差異也會造成感覺能力和結(jié)果上的差異。比如說某人也許對某種顏色(或味道)比其他人更敏感。當(dāng)討論范圍從感知移至認(rèn)知,私密性依舊,而主觀性更甚。像我在《“意思”是什么意思?》中所說的:“由于概念和語詞的意義均由相關(guān)的經(jīng)驗決定,而不同的系統(tǒng)總是有不同的經(jīng)驗,所以意義從根本上說是私人的和主觀的。”我們的觀念取決于我們的軀體、和環(huán)境相互作用的歷史、從語言和經(jīng)驗中習(xí)得的概念體系,等等,因此我們之間的觀念差異既不是任意的,也不簡單地總有個誰對誰錯。這就好像我們都是帶著一副有色眼鏡看世界,而每個人的眼鏡又不完全一樣。請注意這里不存在“摘下眼鏡看世界的本來面目”的可能性。盡管我們?nèi)匀豢梢哉f世界獨立于所有認(rèn)知主體而存在,但對世界的任何描述必須依賴于一個概念體系,而不同的體系用不同的方式“分割”世界,使我們得以聚焦于具體事物。比如說《對話》中討論到的翻譯問題。嚴(yán)格地說,完全精確的翻譯是不可能的,因為不同的人類語言自帶不同的概念體系,因此對應(yīng)于一副特定的“眼鏡”。這也就是有些語言學(xué)家主張“不同的語言對應(yīng)不同的世界觀”的根據(jù)。和很多人想象的相反,并不存在一種“上帝的語言”可以描述世界的“本來面目”。所謂“裸眼”其實也是一種眼鏡,否則如果連聚焦功能都沒有,怎么“看到”事物?如果是這樣,科學(xué)理論的客觀性又如何可能呢?在這里“客觀性”實際上是指“公共性”而非“無主體”。我在《“意思”是什么意思?》中解釋過,“意義的客觀性成分主要是通訊和社會化的產(chǎn)物,因為這些過程為不同系統(tǒng)提供了相似的言語經(jīng)驗和社會經(jīng)驗,并促使它們按照約定和習(xí)俗使用語詞”,而軀體、自然環(huán)境、社會環(huán)境的相似性越高,這種約定和習(xí)俗也就越容易建立和保持。在書中,卡爾也提到了“通訊”和“共情”在消除主觀性上的作用。就此說來,即使某個心理現(xiàn)象具有主觀性和私密性,這也不妨礙我們建立相關(guān)的科學(xué)理論和計算機(jī)實現(xiàn)。比如說關(guān)于大腦是如何辨認(rèn)色彩的,我們已經(jīng)有相當(dāng)好的理論(盡管不是十全十美),而且可以在計算機(jī)上實現(xiàn)同樣的功能(盡管細(xì)節(jié)上與人腦不同)。當(dāng)然,計算機(jī)仍然不能享受到卡爾看到他喜愛的那種藍(lán)色時的感覺,但我們其他人也不能呀。這里科學(xué)技術(shù)所需要的并不是卡爾的那一副不可分享的“私用眼鏡”,而是大家都可以用的“共用眼鏡”,盡管用這種眼鏡看不到某些用“私用眼鏡”才能看到的東西。把理論當(dāng)作“眼鏡”這個比喻還可以進(jìn)一步展開。即使都是“共用眼鏡”,也仍可以有“度數(shù)”(放大倍數(shù))之差,而度數(shù)不同的眼鏡會使我們看到不同的景象。對應(yīng)到科學(xué)領(lǐng)域中,不同的學(xué)科使用不同的概念體系,以此確定了其中的理論的描述層次。一個“低層理論”就像高度數(shù)的眼鏡(或者說顯微鏡、望遠(yuǎn)鏡),可以看清更多的微觀細(xì)節(jié);一個“高層理論”則提供了更大的視野,適合于描述系統(tǒng)的整體或宏觀特征。
在多種描述層次共存的情況下,各層上的理論自有其獨特價值,是不可以互相完全替代的,因為一個特定的現(xiàn)象往往只能在某個層次上討論。比如在某個觀察距離上能看到的一條山谷,在離得太近或太遠(yuǎn)時就看不到?!爸灰姌淠静灰娚帧币彩钦f的這個理。這些層次之間當(dāng)然有關(guān)系?!巴七M(jìn)鏡頭”(至下一個層次)往往可以更好地了解某個成分的內(nèi)部結(jié)構(gòu)和過程;“拉開鏡頭”(至上一個層次)往往可以更好地了解某個成分的外部功能和聯(lián)系。說不同的學(xué)科(物理、化學(xué)、生物等等)對應(yīng)用不同的描述層次,這可以算是常識,但相關(guān)討論中有兩個常見的誤區(qū)。一是認(rèn)為某個層次比其它層更基本甚至更真實,而其它層次只不過是建筑在其上的近似描述,因此原則上可以都“還原”到這個基本層。這種觀點的極端形式就是“物理主義”,即認(rèn)為唯有物理學(xué)有可能提供一個“萬物理論”。在和本文直接相關(guān)的討論中,這種還原論對應(yīng)于“心理學(xué)可以還原成腦科學(xué)”的假設(shè),同時也是“只有類腦計算才能完全實現(xiàn)人工智能”的信心來源。在科學(xué)哲學(xué)中關(guān)于還原論的討論已經(jīng)有很多,《對話》中也有涉及,我這里只補(bǔ)充兩個不常被提到的分析角度。其一是以往討論的重點常常是“哪種理論準(zhǔn)確地描述了對象”,因此低層理論會以其細(xì)節(jié)的豐富而勝出。這里被忽略的是理論的使用者在信息加工能力上的限制和要說明的現(xiàn)象。包括過多無關(guān)細(xì)節(jié)的理論常常是不好用甚至沒法用的,而這正是上升到更高的描述層次的主因之一。另一個因素就是同一個高層過程常常與多個低層過程相對應(yīng),而對很多目的而言,區(qū)分這些低層過程毫無必要。舉例來說,一棟建筑物當(dāng)然是由原子組成的,但我們不會在原子水平上進(jìn)行建筑結(jié)構(gòu)設(shè)計。為什么?不是因為不可能,而是沒必要和太麻煩。在討論理論層次關(guān)系時常犯的另一個錯誤就是認(rèn)為不同層次上的描述之間有因果關(guān)系,比如說某個心理層面上的事件A是由某個神經(jīng)層面上的事件B“造成的”,而實際上A和B是在用兩組不同的語匯描述同一個過程,所以不存在因果關(guān)系。比如說我們可以用“大量分子碰撞”來解釋“熱運(yùn)動”,而不能說前者是后者的“原因”。不管怎么定義“因果關(guān)系”,說的總是不同事件之間的關(guān)系,所以如果A和B根本上是被不同的語匯所描述的同一個過程,那么在二者之間是無因果可言的。基于上述分析,我不同意《對話》作者們(以及很多其他科學(xué)家)“意識是從腦中涌現(xiàn)出來的”的說法,因為這隱含著“神經(jīng)層描述是基本的(或真實的),而意識層描述是導(dǎo)出的(或虛構(gòu)的)”的預(yù)設(shè)。我認(rèn)為神經(jīng)層描述(甚至物理層描述)仍然是使用特定概念完成的,因此和意識層描述并無本質(zhì)不同,都是一個觀察者以一種特定的觀察方式得到的。和很多重要概念一樣,“意識”并沒有一個公認(rèn)的定義。但盡管如此,其核心含義仍是關(guān)于一個認(rèn)知主體的自我認(rèn)識,因此這種“內(nèi)向”的自我感知和“外向”的環(huán)境感知有很多共同點。其差別我認(rèn)為主要在兩點:1. 內(nèi)部環(huán)境是獨享的,而外部環(huán)境是共享的,這就強(qiáng)化了意識的主觀性和私密性。但如前面分析的,外向的感知也不是完全沒有主觀性和私密性,所以這個差別是相對的程度之差,而不是絕對的本質(zhì)之差。盡管我們無法直接體驗他人的內(nèi)心感受,共情、推理等機(jī)制還是使我們有一定的“設(shè)身處地”、“推己及人”的能力。2. 我們對自身認(rèn)知活動的感知是直接實現(xiàn)在概念層上的。比如說如果我問你“你剛才在想什么?”你對這個問題的答案當(dāng)然在你“腦?!敝袑?yīng)著相關(guān)神經(jīng)元的活動,但你直接“感到”的是“念頭”。這和視覺、聽覺等從物理信號開始的多層抽象有根本不同。我們的“內(nèi)心感受器”直接感受到“意義”,而不像其它感官那樣只提供信號,將對其“意義”的獲取留給后面的知覺、識別、理解等過程。其結(jié)果就是我們描述內(nèi)心感受與活動的“心理語言”和描述外部感知的“物理語言”(廣義的,也包括化學(xué)、生物等層面的詞匯)使用不同的概念語匯。即使我們有辦法借助某種設(shè)備精確地在神經(jīng)元層面觀察一個過程,從中得到的“第三人稱”描述也和當(dāng)事人的“第一人稱”描述不同??梢哉f我們觀照內(nèi)心時所用的“眼鏡”和觀察世界時所用的不是同一副,它們產(chǎn)生的結(jié)果甚至都不在同一個描述層次上,因此不可以精確互譯。由于上述原因,當(dāng)我們由于想法A采取了行動B,然后看到外顯后果C的時候,A是用心理語言描述的,C是用物理語言描述的,而它們之間的關(guān)系被描述為“A是C的原因”。這往往被看成“精神變物質(zhì)”,而外界事件引發(fā)的心理活動則成了“物質(zhì)變精神”。但這種跨層次的因果關(guān)系所造成的“解釋鴻溝”可以更自然地被歸因于兩種不可直接互譯的語言被分別用來描述這兩個被聯(lián)系的事件。上述的情景完全可能在人工智能系統(tǒng)中出現(xiàn)。在[2]中,我們描述了一個具有簡單自我感知和自我控制能力的智能推理系統(tǒng),其中的“自我”概念的基本內(nèi)容是“我在什么條件下可以采取何種行動來導(dǎo)致何種后果”,即上述的“ABC”關(guān)系。雖然目前還非常簡單,這一機(jī)制已經(jīng)具有產(chǎn)生上述意識現(xiàn)象的能力,即系統(tǒng)本身有“內(nèi)部心理經(jīng)驗”(某種“意識流”),并可以根據(jù)過去的經(jīng)驗和當(dāng)前目標(biāo)選擇行動。這就是說某種人工智能系統(tǒng)完全可能有意識,盡管和人類的意識內(nèi)容不會一樣。當(dāng)然,這并不是說現(xiàn)在所有自稱“人工智能”的系統(tǒng)都會有意識,因為它們的行為基本與經(jīng)驗無關(guān),更不必提內(nèi)部經(jīng)驗了。一個可以預(yù)料的反對意見是說這仍僅僅解決了查默斯所謂的“簡單問題”,而沒有解決“困難問題”,后者是說明主觀感受如何能從神經(jīng)元活動中產(chǎn)生出來(《對話》中對這個區(qū)分有詳細(xì)介紹)。我認(rèn)為這里有兩個要點。一是在人工智能系統(tǒng)中只要是由感官直接提供給系統(tǒng)的信號構(gòu)成的輸入流就是系統(tǒng)的“主觀經(jīng)驗”。這種經(jīng)驗的私密性就在于即使我們可以將其復(fù)制或解釋成我們可以理解的形式,對于我們這些外界觀察者而言這也不再是第一人稱的主觀經(jīng)驗,而是第三人稱的客觀經(jīng)驗,但這不能作為系統(tǒng)自身沒有主觀經(jīng)驗的理由(“子非魚,安知魚之樂?”)。另一個要點就是主觀感受本來就不是“從神經(jīng)元活動中產(chǎn)生出來的”,而是系統(tǒng)自身的直接觀察結(jié)果,而其中所用的感官是根本“看不到”神經(jīng)元(或電子線路)的。我們對相應(yīng)神經(jīng)元活動(或電信號活動)的描述只是在另一個層次上從另一個視角對同一個過程的描述,因此二者之間并無“生成”關(guān)系可言。這就是說查默斯的“困難問題”本來就不是個正確的問題。我在這個問題上的看法與顧先生在《對話》中表達(dá)的看法不同,雖然我完全同意他對意識的主觀性和私密性的強(qiáng)調(diào),以及“意識活動不能被還原成腦活動”的結(jié)論。盡管有這些不同意見,我仍然確信在近年出版的大量關(guān)于人腦和人工智能的書籍中,《對話》應(yīng)該算是最深刻的之一。讀者們一定可以從中受益,并被激發(fā)出更深入的思考與研究。1. 顧凡及,卡爾·施拉根霍夫.《腦與人工智能:一位德國工程師與一位中國科學(xué)家之間的對話》(含三冊: 《腦研究的新大陸》《意識之謎和心智上傳的迷思》《人工智能的第三個春天》)[M]. 上海教育出版社,2019
2. Pei Wang, Xiang Li, and Patrick Hammer. Self in NARS, an AGI System, Frontiers in Robotics and AI, Volume 5, Article 20, 2018
注:本文所提到之作者其他文章,可進(jìn)入公眾號底部菜單“精品專欄-AI那廝”查閱。點擊https://cis.temple.edu/~wangp/Chinese.html,可查閱作者所有科普文章和科普視頻。
本站僅提供存儲服務(wù),所有內(nèi)容均由用戶發(fā)布,如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請
點擊舉報。