因為我們不是很了解大腦,所以總是想用最新的技術作為一個模式去試圖了解它。在我的童年裏,我們總是確信大腦是一個電話交換機(“還能是什麽呢”)。我很開心地看到,偉大的英國神經學家謝林頓認為大腦就像一個電報係統一樣工作。弗洛伊德經常將大腦比做電磁液壓係統。萊布尼茲把它比做一個工廠。據我所知,古希臘人有些人認為大腦功能像一個彈射器。很明顯,目前大家認為它像數字計算機。
——約翰·r·塞爾,《minds,brains,and science》
計算機(非生物智能)可以有意識嗎?當然,首先我們必須弄懂這個問題的含義是什麽。正如我前麵所討論的關於簡明的問題是什麽這一點,大家普遍存在著不同的觀點。不管我們想如何定義這個概念,我們都必須承認,人們廣泛地認為意識是人類至關重要(如果不是必須的)的屬性。<small>34</small>
加州大學伯克利分校傑出的哲學家約翰·塞爾深受他的追隨者喜愛,他們堅信人類意識十分神秘,並且堅定抵製像我這樣的“強大人工智能還原論者”將人類意識平凡化。盡管我一直覺得塞爾在其著名的“中文房間”論點中的邏輯是同義反複的,但是我盼望有一篇關於意識悖論的高深論文。因此,當我發現塞爾寫的以下句子時,我有點意外:
“人通過大腦中一係列特定的神經生物過程產生意識”;
“最重要的事情是要認識到意識是一個生物過程,就像消化、哺乳、光合作用、有絲分裂”;
大腦是一台機器,確切說是一個生物機器。因此第一步是弄清楚大腦如何運作,然後製造一個人造機器,也可以用同樣有效的機製產生意識;
“我們知道,大腦通過特定的生物機製產生意識”。<small>35</small>
那麽,究竟誰是還原論者?塞爾顯然希望我們能夠衡量另一實體的主觀性就像我們測量光合作用的氧氣輸出一樣容易。
塞爾說我“經常引用ibm的深藍電腦作為高級智能的例子”。當然,情況是相反的:我引用深藍不是為了抨擊象棋問題,而是檢驗它闡明的人和機器解決遊戲問題的對比。正如我之前指出的,因為國際象棋程序的模式識別能力正不斷增長,所以國際象棋機器開始將傳統機器的分析能力和更加類似人類的模式識別能力結合起來。人類範式(自我組織的無序過程)提供了深厚的優勢,我們可以識別和應對非常微妙的模式,而且我們可以製造出具有相同能力的機器。這確實也是我自己感興趣的技術領域。
塞爾最著名的理論就是“中文房間模擬”,在過去的20年間,塞爾對這個模擬發表了各種闡釋。在他1992年的著作《the rediscovery of the mind》中,我們可以看到比較完整的描述:
我相信,最有名的反對強人工智能的觀點就是我的中文房間論點了……它表明,係統可以實例化一個程序,以便讓係統完美地模擬人的一些認知能力,如理解中文的能力,哪怕該係統完全不了解中文。設想一下,將一個完全不懂中文的人鎖在一個房間裏,這個房間有很多中文符號,以及一個用中文回答問題的計算機程序。這個係統的輸入是用中文問一些問題,係統的輸出是用中文來回答這些問題。我們可以假設該程序非常好,好到難以區分答案是由係統回答的還是由普通的中國人回答的。但是,無論是屋內的人還是這個係統的任何其他部分都不能從字麵上理解中文;由於編程計算機有的東西係統都有,因此這個編程的計算機也並不懂中文。因為程序是完全正規的語法,而思想有精神內容和語義內容,所以任何試圖用計算機程序產生思想的行為都偏離了思維的本質<small>36</small>。
塞爾的描述闡述了不能評價大腦處理和能夠複製本身的非生物過程的本質。他從開始就假設在房間裏的“人”不懂得任何事情,因為畢竟“他隻是一個計算機”,從而闡釋自己的偏見。塞爾得出了計算機(由人執行)不理解的結論毫不奇怪。塞爾把這種同義重複和基本的矛盾結合在一起:電腦並不懂中文,但(根據塞爾)能用中文令人信服地回答問題。但是,如果一個實體(生物或非生物的)真不明白人類的語言,它很快就會被聰明的對話者揭露。此外,該程序能令人信服地響應,那麽它必須和人腦一樣複雜。房間裏的人若按照幾百萬頁的程序執行,這要花費了數百萬年時間,到那時這些觀察員已經死了。
最重要的是,這個人的地位就像cpu,隻是一個係統的一小部分。雖然這個人可能看不見理解能力,但是理解能力將會分散到程序本身的整個模式,而這個人必須做很多筆記來跟進程序。我理解英語,但我的神經元不理解。我的理解能力表現在神經遞質、突觸裂隙和神經元之間連接的巨大模式中。塞爾沒能對信息的分布模式和它們表現出的性質的意義做出解釋。
從塞爾和其他唯物主義哲學家對人工智能前景的批判中,我們看不到計算過程可以是無序、不可預測、雜亂、短暫、自然發生的,就像人腦一樣。塞爾不可避免地回到了對“符號計算”(symbolic)的批判:對有序連續的符號處理無法重新創建真實想法。我認為這是正確的(當然這取決於我們對智能過程建模的水平),但符號的處理(塞爾暗示的意義)並不是建立機器或電腦的唯一方法。
所謂的計算機(問題的一部分是“計算機”這個單詞,因為機器能做的不止“計算”)並不局限於符號處理。非生物實體也可以使用出現的自組織範式,這是一個正在進行的趨勢,而且在未來幾十年將會變得更加重要。計算機將不必隻使用0和1,也不必全是數字的。即使電腦是全數字式的,數字算法可以在任何精度上(或無精度)對模擬過程進行模擬。機器可以大規模並行,機器可以使用無序的應急技術,就像大腦一樣。
我們用於模式識別係統的主要計算技術並沒有使用符號處理,而是用了自組織方法,就像在第5章描述的(神經網絡、馬爾可夫模型、遺傳算法、基於大腦逆向工程的更複雜的範式)。一個機器如果能真正做到塞爾在中文房間論點中描述的那樣,那麽它不會是僅僅處理語言符號的,因為這種做法行不通。這是中文房間背後的哲學花招。計算的性質不僅局限於處理邏輯符號。人類大腦正在進行一些事情,而且沒有什麽能防止這些生物過程被逆向設計以及在非生物實體中複製。
看起來,塞爾的追隨者相信塞爾的中文房間論證證明了機器(非生物實體)不可能真正理解事物的意義,比如說中文。首先,很重要的一點是確認係統中的人與電腦,就像塞爾所說那樣,“能完美地模擬人的認知能力,譬如理解中文的能力”,而且能用中文令人信服地回答問題,還必須通過中文的圖靈測試。請注意,我們所說的回答問題,不是回答一個固定問題列表中的問題(因為這是一個不重要的任務),而是回答任何意料之外的問題,或者是來自一個知識淵博的審判官的一係列問題。
現在,在中文房間的“人”幾乎沒有任何意義。他隻是把東西放到電腦中,然後機械地傳遞電腦的輸出(或者是執行程序的規則)。房間裏既不需要計算機也不需要人。對塞爾描述的解釋暗含了執行程序的人並沒有改變任何事,除了讓係統時間變慢很多和讓係統非常容易出錯外。人和房子都不重要。唯一重要的是計算機(電子計算機或由執行程序的人組成的計算機)。
計算機要想真正實現“完美的模擬”,它就必須理解中文。由於前提是該計算機必須具有理解中文的能力,所以“編程的計算機並不懂中文”的說法是完全與之矛盾的。
現在我們所知道的計算機和計算機程序並不能成功地執行上麵描述的任務。因此,如果我們把上麵提到的計算機理解成現在普通的電腦,那就不能滿足上述的前提。計算機能完成這個任務的唯一辦法就是它具有和人一樣的複雜度和深度。圖靈認為圖靈測試敏銳的洞察力在於能否令人信服地回答來自一個聰明的人類提問者的所有可能問題,並且是用人類的語言回答,而且考查點要涉及人類智能的方方麵麵。能夠實現這個任務的計算機未來幾十年將出現,它需要具有像人類一樣的複雜性甚至更複雜,還要深刻理解中文,否則就算它宣稱能完成這樣的任務,也沒人信服。
那麽,僅僅聲稱“計算機不能從字麵上理解中文”是沒有意義的,因為它和這個論證的大前提相悖。聲稱計算機沒有意識也不是一個引人關注的論點。為了和塞爾的其他陳述保持一致,我們必須斷定我們真的不知道計算機是否有意識。對於相對簡單的機器,包括普通的計算機,即使我們不能肯定地說這些實體沒有意識,但是起碼它們的行為,包括其內部運作,並沒有給我們留下它們有意識的印象。這樣的計算機能夠真正在中文房間裏做需要的事情,肯定是假的。能做到這種任務的機器至少應該看起來有意識,哪怕我們不能絕對地說它有意識。所以,“計算機(計算機、人、房間的整個係統)顯然沒有意識”遠非一個引人關注的論點。
在上述的引述中,塞爾說“程序是完全正規的或符合語法的”。但是正如我之前指出的,這是一個不成立的假設,因為塞爾並沒有對這樣一種技術的要求做出解釋。這個假設隱藏在很多塞爾對人工智能的批評中。一個正規的或符合語法的程序無法理解中文,也不會“完美地模擬人的認知能力”。
不過,我們並不一定要使用那種方式來製造機器,我們可以采用與人腦性質相同的形式來製造它們:使用大規模並行的無序應急方法。此外,機器的概念並不一定將其專長限製在隻能理解語法層次的東西,而不能掌握語義層次的東西。事實上,如果塞爾中文房間概念中的機器沒有掌握語義,就不能令人信服地用中文回答問題,這與塞爾自己的前提相矛盾。
在第4章中曾討論過,人們一直在努力逆向設計人腦,並將這些方法應用於有充足動力的計算平台。所以,像人腦一樣,如果我們教計算機中文,它就會理解中文。這似乎是一個顯而易見的事實,但這也是塞爾提出的問題之一。用他的話說,我談論的不是模擬本身,而是組成大腦的大量神經元簇的因果動力的副本,至少這種因果動力與思想顯著相關。
這樣的副本有意識嗎?我認為關於這個問題,中文房間沒有給我們任何答案。
同樣重要的是,塞爾的中文房間論證也可以應用於人類大腦本身。雖然這不是他所希望的,但是他的推理卻暗含了人腦沒有理解力。他寫道:“計算機成功地處理正規符號。符號本身是毫無意義的,隻有和我們發生聯係時,它們才有意義。計算機對此一無所知,它隻是隨機地給出符號。”塞爾承認生物神經元是機器,那麽,如果我們隻是將“計算機”替換為“人類大腦”,“正式符號”替換為“神經遞質含量和相關機製”,就會得到下列信息:
[人腦]成功處理[神經遞質含量和有關機製]。[神經遞質含量及有關機製]本身毫無意義,隻有和我們發生聯係時,它們才有意義。[人腦]對此一無所知,它隻是隨機給出[神經遞質含量及有關機製]。
當然,神經遞質濃度和其他神經細節(例如神經元之間的連接和神經遞質模式)本身沒有意義。實際出現在人腦的意義和理解力是這樣的:一個活動的複雜模式的性質。機器也是同樣的道理。雖然“隨機符號”本身沒有意義,但是緊急模式(emergent pattern)在非生物係統中可能有同樣的作用,就像它們在生物係統(如大腦)中一樣。漢斯·莫拉維茨曾寫道:“塞爾在錯誤的地方尋找理解力……(他)似乎不能接受真正的意義可能存在於模式中的事實。”<small>37</small>
讓我們來看看中文房間的第二個版本。在這一概念中,房間裏沒有計算機模擬人的計算機,但是房間裏有很多人,這些人都在處理寫著中文符號的紙——本質上,就像很多人在模擬計算機。這個係統將用中文令人信服地回答問題,但所有的參與者都不懂中文,我們也不能說整個係統真正理解中文,至少不是有意識的。所以塞爾嘲笑認為這個“係統”有意識的想法。他問道:我們所說的意識是什麽呢?是紙條還是房間?
這個版本的一個問題是,它遠遠沒有解決用中文回答問題這一具體難題。實際上,它更像是一個對機器式過程的描述,這個過程使用了類似表查詢的算法,用一些可能比較簡單的邏輯處理來回答問題。它也許能回答一些錄音問題,不過數量有限。而且如果它能回答任何可能被問到的問題,那麽它必須要能理解中文,用中國人說話的方式。另外,如果它想通過中文圖靈測試,那麽它一定要像人腦一樣聰明和複雜。簡單的表查詢算法太過簡單,不足以完成這種任務。
如果我們要重建一個理解中文的大腦,在這個過程中使用功能跟齒輪一樣少的人,我們還確實需要幾億人才能模擬人腦中的過程(本質上是人們將模擬一台計算機,這個計算機能模擬人類大腦的方法)。這將需要相當大的空間。即使組織效率非常高,這個係統的運行也會比它試圖重建的說中文的大腦慢幾千倍。
事實是,現在這幾十億人不需要知道中文,也不需要知道在這個精心設計的係統中正在進行什麽。對於人腦的神經元連接來說,也是這樣的。這百萬個神經元連接對我現在寫的這本書一無所知,它們也不懂英語,也不理解我知道的其他事情。它們不關心本章的內容,也不關心我所關心的事情。也許它們完全沒有意識。但是它們的整體係統,也就是我本人,是有意識的。至少我能說我是有意識的(到目前為止,這個說法沒有遇到挑戰)。
因此,如果我們將塞爾的中文房間擴大成一個它需要成為的相當大的空間,那麽誰能說整個係統沒有意識?這個係統包含了幾十億模擬懂中文的大腦的人。這個係統懂中文的說法當然是正確的。我們不能說它比別的大腦過程的意識少。我們不知道別的實體的主觀感受(至少在塞爾的一些其他著作裏,他看起來承認這個限製),而這個龐大的、具有數十億人的“房間”就是這樣一個實體,也許它是有意識的。塞爾隻是宣稱和鼓吹它沒有意識,還說這個結論是顯而易見的。如果你認為它隻是一個房間,隻能和處理少數符號的少數人談論,那也許是這樣的。但是我會說這種係統遠遠不能工作。
另一個隱藏在中文房間論證中的哲學疑惑與係統的複雜度和規模有關。塞爾說,雖然他無法證明他的打字機或錄音機沒有意識,但是他認為它們沒有意識是顯而易見的。為什麽顯而易見?至少有一個原因是因為打字機或錄音機是相對簡單的實體。
但是,一個像人腦一樣複雜的係統是否存在意識並不是顯而易見的。事實上,這個係統可能是對真正人腦的組織和因果動力的直接複製。如果這樣的一個係統表現得像人一樣,並且能用人類的方式來理解中文,那麽它是否有意識?答案已經不再那麽顯而易見。塞爾在中文房間論證中說道,我們討論的是一個簡單機器,然後認為這樣一個簡單的機器有意識,他覺得我們非常荒唐。這個謬論和係統的規模還有複雜度非常相關。僅僅隻有複雜度並一定賦予我們意識,但是中文房間完全沒有告訴我們係統是否有意識。
庫茲韋爾的中文房間。我將自己對中文房間的概念稱為庫茲威爾的中文房間。
在我想象的實驗裏,房間裏有一個人。房間被裝飾成明朝風格,在一個基座上麵放了一台機械打字機。打字機被改造過,因此它的鍵盤是中文符號,而不是英文字母。並且這個機械聯動裝置也被巧妙地修改了,當一個人用中文輸入一個問題時,打字機打出的不是該問題,而是該問題的答案。現在,房間裏的人收到中文字符的問題,然後如實在打印機上按下適當的鍵。打字機打出的不是問題,而是合適的答案。然後人將答案傳到房間外麵。
這裏我們描述的情景是:有一個房間,房間裏有個人;在外界看來,這個人看起來懂中文,其實顯然不是;很顯然打字機也不懂中文,因為它隻是一個普通的打字機,僅僅是它的機械聯動裝置被修改過。那麽,畢竟事實是房間裏的人能用中文回答問題,那麽我們能說誰或什麽東西懂中文?難道是裝飾品嗎?
現在,你可能對於我的中文房間有一些反對意見。
你可能會指出,裝飾品似乎沒有任何意義。
是的,這是事實。底座也沒有意義。人和房間也可以被認為同樣沒有意義。
您可能還會指出這個前提是荒謬的。僅僅改變打字機的機械聯動裝置不可能使它能夠用中文令人信服地回答問題(更別提我們不能把數千個漢字符號放在一台打字機的鍵盤上)。
是的,這也是一個有根據的反對。關於中文房間的概念,我和塞爾唯一的不同是,在我的概念中它顯然不會工作,而且性質是非常荒謬的。可能對許多讀者來說,塞爾的中文房間理論不那麽明顯。不過,事實上都是一樣的。
然而,我們可以按照我的觀念展開工作,正如我們可以按照塞爾的概念工作一樣。你所必須做的是讓打字機的連接如同人的大腦一樣複雜。這就是理論上(不是實際上的)的可能。但是“打字機的聯動裝置”並不擁有如此巨大的複雜性。同樣是塞爾的一個操縱人的描述紙條或以下的規則或預定計算機程序。這些都是同樣可能會引起誤導的觀點。
塞爾寫道:“人類大腦造成的實際作用是通過一係列具體的神經生物學的意識在大腦的進程中運行。”但他尚未提供任何這樣一個令人信服的觀點作為基礎。為了說明塞爾的觀點,我引述了他給我的信件:
結果可能會像白蟻或蝸牛,而不是簡單的生物體的基本意識……事情的本質是認識到:一個意識是一個生物過程,如消化、哺乳、光合作用,還有有絲分裂,你應該尋找特定的生物就像你尋找其他生物過程的特定生物。<small>38</small>
我回答說:
是的,意識從大腦和身體的生物過程中產生,這是個事實,但至少有一個區別。如果我提出這個問題,“特定實體排放二氧化碳嗎”,通過客觀的測量,我可以明確地回答。如果我提出這個問題,“這是實體意識嗎”,我可能能夠提供推理論據,並且可能是強有說服力的,但是不清楚客觀的測量會是什麽結果。
關於蝸牛,我說:
現在,當你說一個蝸牛可能有意識的時候,我想你所說的是以下幾點:我們可能發現了為人類的意識提供特定的神經生理依據(稱為"x"),如果它不存在,人類就沒有意識。因此,我們大概有一個為意識提供了客觀衡量的依據。然後,如果我們發現,對於蝸牛來說,我們可以得出結論,這是意識。但是這個推理的結論是,隻有一個強大的建議,但不是主觀的經驗證明蝸牛具有意識。它可能是人類意識的,因為它們有"x"以及其他一些物質基本上所有的人分享,這種稱為"y"。"y"可能與人類的複雜程度相關,或跟我們是有組織存在某種相關性,或與量子方式有關,我們的微觀的性能(雖然這可能是部分的"x")或者完全是其他的什麽東西。那個蝸牛有"x",但並沒有"y"型,所以可能沒有意識。
將如何解決這樣的說法?你顯然不能問蝸牛。即使我們可以想出辦法提出了這個問題,它的回答是,這仍然不能證明它具有意識。你情不自禁地說其相當簡單的或多或少的預測行為。指出它有"x"可能是個好論據,很多人可能會被它說服。但是這隻是一個爭論,而不是直接測量蝸牛的主觀經驗。而且客觀測量是不符合主觀體驗的概念。
現在正在發生許多這樣的爭論,雖然沒有這麽多的蝸牛以及更高級的動物。對於我來說,很顯然狗和貓的意識是有意識的(而且塞爾曾經說過他也承認這點)。但是,並非所有的人接受這點。我可以猜想加強論據的科學方法,通過指出與這些動物和人類有許多相似之處,但同樣這些隻是爭論,卻沒有科學證據。
塞爾希望能夠找到意識的一些清晰的生物上的“原因”,他自己似乎都無法承認這點,要麽理解力要麽意識可能來自一個總體的活動模式。其他哲學家如丹尼爾·代尼特已闡明了這樣的“模式出現”的理論意識。但無論是“引發的”通過一個特定的生物過程或一個活動模式,塞爾都沒有為我們提供如何衡量或偵測意識的基礎。在人類中尋找一個與神經相關的意識並不證明意識在相同的關聯的其他生物體也會必然出現,也沒有證明據表明在沒有這種關聯的情況下表示就沒有意識。這種推理的論點必然被中斷,因為缺少直接的測量。通過這種方式我們很清楚地知道,例如由哺乳和光合作用客觀衡量的過程所反映的意識就會不同。
正如在第4章討論的,對人類和其他一些靈長類動物來說,我們已經發現了一個獨特的生物學功能:梭形細胞。它們的細胞具有深厚的分支結構,這些細胞看起來大量參與意識反應,特別是情感的反應。難道梭形細胞結構是為人類意識打下神經生理基礎的"x"?什麽類型的實驗可以證明?貓與狗沒有梭形細胞,這是否能夠證明它們沒有意識的經驗?
塞爾曾寫道:單純從神經生物學的角度是不可能推斷出椅子或計算機有意識。“我同意椅子看起來沒有意識,但是對於計算機未來可能會具有和人類相同的複雜性、深度和微妙的變化並具備人類的能力,我不認為我們可以排除這一可能性。塞爾隻是假定它們沒有意識,然而卻是用一句”不可能“來支持這個論點。塞爾的”論據與這種同義反複相比,實在是沒有更多實質性的內容了。
目前,塞爾反對計算機有意識的部分立場認為,現在的計算機隻是看起來沒有意識。它們的行為是靠不住的、公式化的,甚至它們有時還不可預測。但正如我前麵指出的,今天在計算機上即使進步了一萬倍,也遠遠比不上人類的大腦,至少有一個原因,它們不具備簡單人類思維的品質。但差距正在迅速縮小,並最終在幾十年後發生逆轉。我在書中討論到的21世紀早期的計算機即將出現,這些計算機的運作與現在相對簡單的計算機有很大不同。
塞爾闡明自己的觀點:非生物實體隻能處理邏輯符號,但他似乎不知道其他的範例。處理符號盡管是法則式專家係統和人機博弈程序的主要工作方式,但目前的趨勢是朝著其相反方向自組織混沌係統發展,自組織混沌係統采用生物激勵方法,其中包括來源於人腦的數千萬神經元的反向工程的進程。
塞爾認識到生物神經元就是一些機器,事實上,整個大腦就是一台機器。如第4章所說的,我們已經十分詳細地創造了與實際神經元團簇一樣的因果動力個體神經元。將我們努力的結果擴大到全人類,理論上是沒有障礙的。
——約翰·r·塞爾,《minds,brains,and science》
計算機(非生物智能)可以有意識嗎?當然,首先我們必須弄懂這個問題的含義是什麽。正如我前麵所討論的關於簡明的問題是什麽這一點,大家普遍存在著不同的觀點。不管我們想如何定義這個概念,我們都必須承認,人們廣泛地認為意識是人類至關重要(如果不是必須的)的屬性。<small>34</small>
加州大學伯克利分校傑出的哲學家約翰·塞爾深受他的追隨者喜愛,他們堅信人類意識十分神秘,並且堅定抵製像我這樣的“強大人工智能還原論者”將人類意識平凡化。盡管我一直覺得塞爾在其著名的“中文房間”論點中的邏輯是同義反複的,但是我盼望有一篇關於意識悖論的高深論文。因此,當我發現塞爾寫的以下句子時,我有點意外:
“人通過大腦中一係列特定的神經生物過程產生意識”;
“最重要的事情是要認識到意識是一個生物過程,就像消化、哺乳、光合作用、有絲分裂”;
大腦是一台機器,確切說是一個生物機器。因此第一步是弄清楚大腦如何運作,然後製造一個人造機器,也可以用同樣有效的機製產生意識;
“我們知道,大腦通過特定的生物機製產生意識”。<small>35</small>
那麽,究竟誰是還原論者?塞爾顯然希望我們能夠衡量另一實體的主觀性就像我們測量光合作用的氧氣輸出一樣容易。
塞爾說我“經常引用ibm的深藍電腦作為高級智能的例子”。當然,情況是相反的:我引用深藍不是為了抨擊象棋問題,而是檢驗它闡明的人和機器解決遊戲問題的對比。正如我之前指出的,因為國際象棋程序的模式識別能力正不斷增長,所以國際象棋機器開始將傳統機器的分析能力和更加類似人類的模式識別能力結合起來。人類範式(自我組織的無序過程)提供了深厚的優勢,我們可以識別和應對非常微妙的模式,而且我們可以製造出具有相同能力的機器。這確實也是我自己感興趣的技術領域。
塞爾最著名的理論就是“中文房間模擬”,在過去的20年間,塞爾對這個模擬發表了各種闡釋。在他1992年的著作《the rediscovery of the mind》中,我們可以看到比較完整的描述:
我相信,最有名的反對強人工智能的觀點就是我的中文房間論點了……它表明,係統可以實例化一個程序,以便讓係統完美地模擬人的一些認知能力,如理解中文的能力,哪怕該係統完全不了解中文。設想一下,將一個完全不懂中文的人鎖在一個房間裏,這個房間有很多中文符號,以及一個用中文回答問題的計算機程序。這個係統的輸入是用中文問一些問題,係統的輸出是用中文來回答這些問題。我們可以假設該程序非常好,好到難以區分答案是由係統回答的還是由普通的中國人回答的。但是,無論是屋內的人還是這個係統的任何其他部分都不能從字麵上理解中文;由於編程計算機有的東西係統都有,因此這個編程的計算機也並不懂中文。因為程序是完全正規的語法,而思想有精神內容和語義內容,所以任何試圖用計算機程序產生思想的行為都偏離了思維的本質<small>36</small>。
塞爾的描述闡述了不能評價大腦處理和能夠複製本身的非生物過程的本質。他從開始就假設在房間裏的“人”不懂得任何事情,因為畢竟“他隻是一個計算機”,從而闡釋自己的偏見。塞爾得出了計算機(由人執行)不理解的結論毫不奇怪。塞爾把這種同義重複和基本的矛盾結合在一起:電腦並不懂中文,但(根據塞爾)能用中文令人信服地回答問題。但是,如果一個實體(生物或非生物的)真不明白人類的語言,它很快就會被聰明的對話者揭露。此外,該程序能令人信服地響應,那麽它必須和人腦一樣複雜。房間裏的人若按照幾百萬頁的程序執行,這要花費了數百萬年時間,到那時這些觀察員已經死了。
最重要的是,這個人的地位就像cpu,隻是一個係統的一小部分。雖然這個人可能看不見理解能力,但是理解能力將會分散到程序本身的整個模式,而這個人必須做很多筆記來跟進程序。我理解英語,但我的神經元不理解。我的理解能力表現在神經遞質、突觸裂隙和神經元之間連接的巨大模式中。塞爾沒能對信息的分布模式和它們表現出的性質的意義做出解釋。
從塞爾和其他唯物主義哲學家對人工智能前景的批判中,我們看不到計算過程可以是無序、不可預測、雜亂、短暫、自然發生的,就像人腦一樣。塞爾不可避免地回到了對“符號計算”(symbolic)的批判:對有序連續的符號處理無法重新創建真實想法。我認為這是正確的(當然這取決於我們對智能過程建模的水平),但符號的處理(塞爾暗示的意義)並不是建立機器或電腦的唯一方法。
所謂的計算機(問題的一部分是“計算機”這個單詞,因為機器能做的不止“計算”)並不局限於符號處理。非生物實體也可以使用出現的自組織範式,這是一個正在進行的趨勢,而且在未來幾十年將會變得更加重要。計算機將不必隻使用0和1,也不必全是數字的。即使電腦是全數字式的,數字算法可以在任何精度上(或無精度)對模擬過程進行模擬。機器可以大規模並行,機器可以使用無序的應急技術,就像大腦一樣。
我們用於模式識別係統的主要計算技術並沒有使用符號處理,而是用了自組織方法,就像在第5章描述的(神經網絡、馬爾可夫模型、遺傳算法、基於大腦逆向工程的更複雜的範式)。一個機器如果能真正做到塞爾在中文房間論點中描述的那樣,那麽它不會是僅僅處理語言符號的,因為這種做法行不通。這是中文房間背後的哲學花招。計算的性質不僅局限於處理邏輯符號。人類大腦正在進行一些事情,而且沒有什麽能防止這些生物過程被逆向設計以及在非生物實體中複製。
看起來,塞爾的追隨者相信塞爾的中文房間論證證明了機器(非生物實體)不可能真正理解事物的意義,比如說中文。首先,很重要的一點是確認係統中的人與電腦,就像塞爾所說那樣,“能完美地模擬人的認知能力,譬如理解中文的能力”,而且能用中文令人信服地回答問題,還必須通過中文的圖靈測試。請注意,我們所說的回答問題,不是回答一個固定問題列表中的問題(因為這是一個不重要的任務),而是回答任何意料之外的問題,或者是來自一個知識淵博的審判官的一係列問題。
現在,在中文房間的“人”幾乎沒有任何意義。他隻是把東西放到電腦中,然後機械地傳遞電腦的輸出(或者是執行程序的規則)。房間裏既不需要計算機也不需要人。對塞爾描述的解釋暗含了執行程序的人並沒有改變任何事,除了讓係統時間變慢很多和讓係統非常容易出錯外。人和房子都不重要。唯一重要的是計算機(電子計算機或由執行程序的人組成的計算機)。
計算機要想真正實現“完美的模擬”,它就必須理解中文。由於前提是該計算機必須具有理解中文的能力,所以“編程的計算機並不懂中文”的說法是完全與之矛盾的。
現在我們所知道的計算機和計算機程序並不能成功地執行上麵描述的任務。因此,如果我們把上麵提到的計算機理解成現在普通的電腦,那就不能滿足上述的前提。計算機能完成這個任務的唯一辦法就是它具有和人一樣的複雜度和深度。圖靈認為圖靈測試敏銳的洞察力在於能否令人信服地回答來自一個聰明的人類提問者的所有可能問題,並且是用人類的語言回答,而且考查點要涉及人類智能的方方麵麵。能夠實現這個任務的計算機未來幾十年將出現,它需要具有像人類一樣的複雜性甚至更複雜,還要深刻理解中文,否則就算它宣稱能完成這樣的任務,也沒人信服。
那麽,僅僅聲稱“計算機不能從字麵上理解中文”是沒有意義的,因為它和這個論證的大前提相悖。聲稱計算機沒有意識也不是一個引人關注的論點。為了和塞爾的其他陳述保持一致,我們必須斷定我們真的不知道計算機是否有意識。對於相對簡單的機器,包括普通的計算機,即使我們不能肯定地說這些實體沒有意識,但是起碼它們的行為,包括其內部運作,並沒有給我們留下它們有意識的印象。這樣的計算機能夠真正在中文房間裏做需要的事情,肯定是假的。能做到這種任務的機器至少應該看起來有意識,哪怕我們不能絕對地說它有意識。所以,“計算機(計算機、人、房間的整個係統)顯然沒有意識”遠非一個引人關注的論點。
在上述的引述中,塞爾說“程序是完全正規的或符合語法的”。但是正如我之前指出的,這是一個不成立的假設,因為塞爾並沒有對這樣一種技術的要求做出解釋。這個假設隱藏在很多塞爾對人工智能的批評中。一個正規的或符合語法的程序無法理解中文,也不會“完美地模擬人的認知能力”。
不過,我們並不一定要使用那種方式來製造機器,我們可以采用與人腦性質相同的形式來製造它們:使用大規模並行的無序應急方法。此外,機器的概念並不一定將其專長限製在隻能理解語法層次的東西,而不能掌握語義層次的東西。事實上,如果塞爾中文房間概念中的機器沒有掌握語義,就不能令人信服地用中文回答問題,這與塞爾自己的前提相矛盾。
在第4章中曾討論過,人們一直在努力逆向設計人腦,並將這些方法應用於有充足動力的計算平台。所以,像人腦一樣,如果我們教計算機中文,它就會理解中文。這似乎是一個顯而易見的事實,但這也是塞爾提出的問題之一。用他的話說,我談論的不是模擬本身,而是組成大腦的大量神經元簇的因果動力的副本,至少這種因果動力與思想顯著相關。
這樣的副本有意識嗎?我認為關於這個問題,中文房間沒有給我們任何答案。
同樣重要的是,塞爾的中文房間論證也可以應用於人類大腦本身。雖然這不是他所希望的,但是他的推理卻暗含了人腦沒有理解力。他寫道:“計算機成功地處理正規符號。符號本身是毫無意義的,隻有和我們發生聯係時,它們才有意義。計算機對此一無所知,它隻是隨機地給出符號。”塞爾承認生物神經元是機器,那麽,如果我們隻是將“計算機”替換為“人類大腦”,“正式符號”替換為“神經遞質含量和相關機製”,就會得到下列信息:
[人腦]成功處理[神經遞質含量和有關機製]。[神經遞質含量及有關機製]本身毫無意義,隻有和我們發生聯係時,它們才有意義。[人腦]對此一無所知,它隻是隨機給出[神經遞質含量及有關機製]。
當然,神經遞質濃度和其他神經細節(例如神經元之間的連接和神經遞質模式)本身沒有意義。實際出現在人腦的意義和理解力是這樣的:一個活動的複雜模式的性質。機器也是同樣的道理。雖然“隨機符號”本身沒有意義,但是緊急模式(emergent pattern)在非生物係統中可能有同樣的作用,就像它們在生物係統(如大腦)中一樣。漢斯·莫拉維茨曾寫道:“塞爾在錯誤的地方尋找理解力……(他)似乎不能接受真正的意義可能存在於模式中的事實。”<small>37</small>
讓我們來看看中文房間的第二個版本。在這一概念中,房間裏沒有計算機模擬人的計算機,但是房間裏有很多人,這些人都在處理寫著中文符號的紙——本質上,就像很多人在模擬計算機。這個係統將用中文令人信服地回答問題,但所有的參與者都不懂中文,我們也不能說整個係統真正理解中文,至少不是有意識的。所以塞爾嘲笑認為這個“係統”有意識的想法。他問道:我們所說的意識是什麽呢?是紙條還是房間?
這個版本的一個問題是,它遠遠沒有解決用中文回答問題這一具體難題。實際上,它更像是一個對機器式過程的描述,這個過程使用了類似表查詢的算法,用一些可能比較簡單的邏輯處理來回答問題。它也許能回答一些錄音問題,不過數量有限。而且如果它能回答任何可能被問到的問題,那麽它必須要能理解中文,用中國人說話的方式。另外,如果它想通過中文圖靈測試,那麽它一定要像人腦一樣聰明和複雜。簡單的表查詢算法太過簡單,不足以完成這種任務。
如果我們要重建一個理解中文的大腦,在這個過程中使用功能跟齒輪一樣少的人,我們還確實需要幾億人才能模擬人腦中的過程(本質上是人們將模擬一台計算機,這個計算機能模擬人類大腦的方法)。這將需要相當大的空間。即使組織效率非常高,這個係統的運行也會比它試圖重建的說中文的大腦慢幾千倍。
事實是,現在這幾十億人不需要知道中文,也不需要知道在這個精心設計的係統中正在進行什麽。對於人腦的神經元連接來說,也是這樣的。這百萬個神經元連接對我現在寫的這本書一無所知,它們也不懂英語,也不理解我知道的其他事情。它們不關心本章的內容,也不關心我所關心的事情。也許它們完全沒有意識。但是它們的整體係統,也就是我本人,是有意識的。至少我能說我是有意識的(到目前為止,這個說法沒有遇到挑戰)。
因此,如果我們將塞爾的中文房間擴大成一個它需要成為的相當大的空間,那麽誰能說整個係統沒有意識?這個係統包含了幾十億模擬懂中文的大腦的人。這個係統懂中文的說法當然是正確的。我們不能說它比別的大腦過程的意識少。我們不知道別的實體的主觀感受(至少在塞爾的一些其他著作裏,他看起來承認這個限製),而這個龐大的、具有數十億人的“房間”就是這樣一個實體,也許它是有意識的。塞爾隻是宣稱和鼓吹它沒有意識,還說這個結論是顯而易見的。如果你認為它隻是一個房間,隻能和處理少數符號的少數人談論,那也許是這樣的。但是我會說這種係統遠遠不能工作。
另一個隱藏在中文房間論證中的哲學疑惑與係統的複雜度和規模有關。塞爾說,雖然他無法證明他的打字機或錄音機沒有意識,但是他認為它們沒有意識是顯而易見的。為什麽顯而易見?至少有一個原因是因為打字機或錄音機是相對簡單的實體。
但是,一個像人腦一樣複雜的係統是否存在意識並不是顯而易見的。事實上,這個係統可能是對真正人腦的組織和因果動力的直接複製。如果這樣的一個係統表現得像人一樣,並且能用人類的方式來理解中文,那麽它是否有意識?答案已經不再那麽顯而易見。塞爾在中文房間論證中說道,我們討論的是一個簡單機器,然後認為這樣一個簡單的機器有意識,他覺得我們非常荒唐。這個謬論和係統的規模還有複雜度非常相關。僅僅隻有複雜度並一定賦予我們意識,但是中文房間完全沒有告訴我們係統是否有意識。
庫茲韋爾的中文房間。我將自己對中文房間的概念稱為庫茲威爾的中文房間。
在我想象的實驗裏,房間裏有一個人。房間被裝飾成明朝風格,在一個基座上麵放了一台機械打字機。打字機被改造過,因此它的鍵盤是中文符號,而不是英文字母。並且這個機械聯動裝置也被巧妙地修改了,當一個人用中文輸入一個問題時,打字機打出的不是該問題,而是該問題的答案。現在,房間裏的人收到中文字符的問題,然後如實在打印機上按下適當的鍵。打字機打出的不是問題,而是合適的答案。然後人將答案傳到房間外麵。
這裏我們描述的情景是:有一個房間,房間裏有個人;在外界看來,這個人看起來懂中文,其實顯然不是;很顯然打字機也不懂中文,因為它隻是一個普通的打字機,僅僅是它的機械聯動裝置被修改過。那麽,畢竟事實是房間裏的人能用中文回答問題,那麽我們能說誰或什麽東西懂中文?難道是裝飾品嗎?
現在,你可能對於我的中文房間有一些反對意見。
你可能會指出,裝飾品似乎沒有任何意義。
是的,這是事實。底座也沒有意義。人和房間也可以被認為同樣沒有意義。
您可能還會指出這個前提是荒謬的。僅僅改變打字機的機械聯動裝置不可能使它能夠用中文令人信服地回答問題(更別提我們不能把數千個漢字符號放在一台打字機的鍵盤上)。
是的,這也是一個有根據的反對。關於中文房間的概念,我和塞爾唯一的不同是,在我的概念中它顯然不會工作,而且性質是非常荒謬的。可能對許多讀者來說,塞爾的中文房間理論不那麽明顯。不過,事實上都是一樣的。
然而,我們可以按照我的觀念展開工作,正如我們可以按照塞爾的概念工作一樣。你所必須做的是讓打字機的連接如同人的大腦一樣複雜。這就是理論上(不是實際上的)的可能。但是“打字機的聯動裝置”並不擁有如此巨大的複雜性。同樣是塞爾的一個操縱人的描述紙條或以下的規則或預定計算機程序。這些都是同樣可能會引起誤導的觀點。
塞爾寫道:“人類大腦造成的實際作用是通過一係列具體的神經生物學的意識在大腦的進程中運行。”但他尚未提供任何這樣一個令人信服的觀點作為基礎。為了說明塞爾的觀點,我引述了他給我的信件:
結果可能會像白蟻或蝸牛,而不是簡單的生物體的基本意識……事情的本質是認識到:一個意識是一個生物過程,如消化、哺乳、光合作用,還有有絲分裂,你應該尋找特定的生物就像你尋找其他生物過程的特定生物。<small>38</small>
我回答說:
是的,意識從大腦和身體的生物過程中產生,這是個事實,但至少有一個區別。如果我提出這個問題,“特定實體排放二氧化碳嗎”,通過客觀的測量,我可以明確地回答。如果我提出這個問題,“這是實體意識嗎”,我可能能夠提供推理論據,並且可能是強有說服力的,但是不清楚客觀的測量會是什麽結果。
關於蝸牛,我說:
現在,當你說一個蝸牛可能有意識的時候,我想你所說的是以下幾點:我們可能發現了為人類的意識提供特定的神經生理依據(稱為"x"),如果它不存在,人類就沒有意識。因此,我們大概有一個為意識提供了客觀衡量的依據。然後,如果我們發現,對於蝸牛來說,我們可以得出結論,這是意識。但是這個推理的結論是,隻有一個強大的建議,但不是主觀的經驗證明蝸牛具有意識。它可能是人類意識的,因為它們有"x"以及其他一些物質基本上所有的人分享,這種稱為"y"。"y"可能與人類的複雜程度相關,或跟我們是有組織存在某種相關性,或與量子方式有關,我們的微觀的性能(雖然這可能是部分的"x")或者完全是其他的什麽東西。那個蝸牛有"x",但並沒有"y"型,所以可能沒有意識。
將如何解決這樣的說法?你顯然不能問蝸牛。即使我們可以想出辦法提出了這個問題,它的回答是,這仍然不能證明它具有意識。你情不自禁地說其相當簡單的或多或少的預測行為。指出它有"x"可能是個好論據,很多人可能會被它說服。但是這隻是一個爭論,而不是直接測量蝸牛的主觀經驗。而且客觀測量是不符合主觀體驗的概念。
現在正在發生許多這樣的爭論,雖然沒有這麽多的蝸牛以及更高級的動物。對於我來說,很顯然狗和貓的意識是有意識的(而且塞爾曾經說過他也承認這點)。但是,並非所有的人接受這點。我可以猜想加強論據的科學方法,通過指出與這些動物和人類有許多相似之處,但同樣這些隻是爭論,卻沒有科學證據。
塞爾希望能夠找到意識的一些清晰的生物上的“原因”,他自己似乎都無法承認這點,要麽理解力要麽意識可能來自一個總體的活動模式。其他哲學家如丹尼爾·代尼特已闡明了這樣的“模式出現”的理論意識。但無論是“引發的”通過一個特定的生物過程或一個活動模式,塞爾都沒有為我們提供如何衡量或偵測意識的基礎。在人類中尋找一個與神經相關的意識並不證明意識在相同的關聯的其他生物體也會必然出現,也沒有證明據表明在沒有這種關聯的情況下表示就沒有意識。這種推理的論點必然被中斷,因為缺少直接的測量。通過這種方式我們很清楚地知道,例如由哺乳和光合作用客觀衡量的過程所反映的意識就會不同。
正如在第4章討論的,對人類和其他一些靈長類動物來說,我們已經發現了一個獨特的生物學功能:梭形細胞。它們的細胞具有深厚的分支結構,這些細胞看起來大量參與意識反應,特別是情感的反應。難道梭形細胞結構是為人類意識打下神經生理基礎的"x"?什麽類型的實驗可以證明?貓與狗沒有梭形細胞,這是否能夠證明它們沒有意識的經驗?
塞爾曾寫道:單純從神經生物學的角度是不可能推斷出椅子或計算機有意識。“我同意椅子看起來沒有意識,但是對於計算機未來可能會具有和人類相同的複雜性、深度和微妙的變化並具備人類的能力,我不認為我們可以排除這一可能性。塞爾隻是假定它們沒有意識,然而卻是用一句”不可能“來支持這個論點。塞爾的”論據與這種同義反複相比,實在是沒有更多實質性的內容了。
目前,塞爾反對計算機有意識的部分立場認為,現在的計算機隻是看起來沒有意識。它們的行為是靠不住的、公式化的,甚至它們有時還不可預測。但正如我前麵指出的,今天在計算機上即使進步了一萬倍,也遠遠比不上人類的大腦,至少有一個原因,它們不具備簡單人類思維的品質。但差距正在迅速縮小,並最終在幾十年後發生逆轉。我在書中討論到的21世紀早期的計算機即將出現,這些計算機的運作與現在相對簡單的計算機有很大不同。
塞爾闡明自己的觀點:非生物實體隻能處理邏輯符號,但他似乎不知道其他的範例。處理符號盡管是法則式專家係統和人機博弈程序的主要工作方式,但目前的趨勢是朝著其相反方向自組織混沌係統發展,自組織混沌係統采用生物激勵方法,其中包括來源於人腦的數千萬神經元的反向工程的進程。
塞爾認識到生物神經元就是一些機器,事實上,整個大腦就是一台機器。如第4章所說的,我們已經十分詳細地創造了與實際神經元團簇一樣的因果動力個體神經元。將我們努力的結果擴大到全人類,理論上是沒有障礙的。