在研究如何製造存儲程序計算機的過程中,艾倫·圖靈將注意力轉向了埃達·洛夫萊斯在一個世紀之前所做出的斷言。埃達在巴貝奇分析機論文的最後一條“注解”中提出“機器不可能真正地思考”這一觀點。圖靈對此產生了這樣的疑問:如果一台機器可以根據已處理的數據調整自己的程序,難道這不是某種形式的學習嗎?這種方式可以發展成為人工智能嗎?


    關於人工智能和人類意識的問題都可以追溯到非常久遠的曆史。對於這個領域的大多數問題,笛卡兒都能夠運用現代的語言進行表述。“我思故我在”這個著名的哲學觀點正是出自他在1637年出版的《談談方法》(discourse on the method )一書中。笛卡兒在這本書中寫道:  <blockquote>


    如果存在一些跟我們的身體類似的機器,它們能夠在各個方麵盡可能接近地模仿我們的動作,我們還是可以利用兩條非常可靠的標準來判明它們並不是真正的人類。第一條是……這種機器絕不能對自己接收到的任何內容都做出條理清晰的回應,而這是最愚蠢的人都能辦到的。第二條是,雖然某些機器在完成某些工作的時候可以做得跟我們一樣好,甚至可以做得更好,但是它們肯定做不好其他的事情,這點表明它們的行為並非建立在理解的基礎上。  </blockquote>


    圖靈長期以來都醉心於思考計算機可以如何模仿人類大腦的活動,在參與了加密文字破解機器的研發工作之後,他對這方麵的興趣變得更加濃厚。1943年年初,正當巨人計算機在布萊切利園進行設計的時候,圖靈遠渡重洋來到位於下曼哈頓區的貝爾實驗室。這次訪問的目的是與一支研究電子語音加密技術的團隊進行交流,這項技術可以利用電子方式對電話通話內容進行加密和解密。


    圖靈在那裏遇到了一位為人風趣的天才克勞德·香農。這位曾經的麻省理工學院研究生在1937年完成了一篇影響深遠的碩士論文,他在這篇論文當中展示了利用電子電路執行布爾代數(由邏輯命題轉換而成的代數方程)的方式。香農和圖靈開始在下午茶的時候聚在一起進行長時間的討論。他們兩位都對腦科學很感興趣,而且他們發現各自在1937年發表的論文之間存在一個共同點:它們都證明了采用簡單二進製指令操作的機器不僅可以用於解決數學問題,同時也適用於所有的邏輯問題。由於邏輯是人腦思維的基礎,因此機器在理論上可以模仿人類的智能。


    “香農不僅想(向機器)輸入數據,他還想輸入文藝的東西!”圖靈在一天吃午飯的時候向貝爾實驗室的同事們說道,“他想對機器放音樂!”在另一天的午餐時,圖靈繼續滔滔不絕地發表自己的言論,他高亢的聲線讓餐廳裏的高管人員都聽得一清二楚:“不對,我沒有興趣做出一個超級大腦。我所追求的隻是一個平庸的大腦,就像是美國電話電報公司(at&t)的總裁一樣。”89


    圖靈在1943年4月返回布萊切利園,這時他與一位叫作唐納德·米基(donald michie)的同事成為好友,他們經常會在晚上到附近的一家酒吧下象棋。他們討論了製作一台會下象棋的計算機的可能性。圖靈沒有打算利用強大的處理能力來計算出每一步棋可能的走法,他關注的焦點是能否讓機器通過不斷重複的練習“學會”如何下象棋。換句話說,機器也許可以嚐試不同的開局走法,然後從每次的勝利或失敗中完善自己的策略。如果這種方法是可行的話,這將會是一個足以令埃達·洛夫萊斯感到震驚的重大飛躍:機器不僅可以按照人類給出的指令進行工作,還可以從經驗中學習,同時不斷完善自己的指令。


    “人們一直都說計算機器隻能用於執行指令,”圖靈在1947年2月的一場演講中向倫敦數學學會的成員講解道,“但是它們必須按照這種方式使用嗎?”然後他談論到了能夠調整自身指令表的新型存儲程序計算機的前景。“它就像是一個學徒一樣,不僅掌握了師傅的大部分技藝,還在其中加入了更多自己的心得。我認為當這種情況出現的時候,我們應當把它看成是機器擁有智能的表現。”90


    在聽完圖靈的演講之後,在座的聽眾陷入了一片沉默,他們都被圖靈的想法震驚了。圖靈當時在英國國家物理實驗室工作,他的同事也無法理解他對製作會思考的機器的執著。國家物理實驗室的主管查爾斯·達爾文爵士(sir charles darwin,進化生物學家達爾文的孫子)在1947年向圖靈的上司寫信道:“圖靈想要將自己對機器的研究拓展到生物學的領域”,並嚐試解決“機器能否從經驗中學習”這一問題。91


    “機器也許有一天能夠像人類一樣思考”這個令人不安的想法在當時激起了強烈的反對,而且這個問題從出現以來就一直爭議不斷。在這些反對的聲音當中,既有來自宗教方麵的抗議(這是意料之中的事情),也有從內容和語氣上表現出來的情感抵觸。李斯特獎章得主、知名腦外科醫生傑弗裏·傑斐遜爵士(sir geoffrey jefferson)在1949年的著名獲獎致辭中提出了這樣的觀點:“除非機器能夠憑借思想和情感寫出一首十四行詩,或者做出一部協奏曲,而且這些作品都不是符號的隨意拚湊,否則我們是不會承認機器可以等同於人腦的。”92 作為回應,圖靈向《泰晤士報》的記者說道:“這種比較也許有失公允,因為由一台機器寫成的十四行詩,其他機器大概會比我們更能欣賞。”93 這個回應似乎有些無禮,但同時也是耐人尋味的。


    之前的研究為圖靈的下一篇重要論文打下了基礎,這篇題為《計算機器與智能》的論文在1950年10月發表於哲學期刊《心靈》(mind )上。94 他在其中提出了一個被稱為“圖靈測試”(turing test)的概念。論文的開篇是一條明確的聲明:“我準備探討‘機器能思考嗎’這個問題。”然後,童心未泯的圖靈設計了一個遊戲(目前還有人在實踐和爭論這個遊戲)來解釋這個問題的實證含義。他為人工智能給出了一個完全可操作的定義:如果一台機器輸出的內容和人類大腦別無二致的話,那麽我們就沒有理由堅持認為這台機器不是在“思考”。


    圖靈測試,也就是圖靈所說的“模仿遊戲”(the imitation game)的操作很簡單:一位詢問者將自己的問題寫下來,發給處於另外一個房間之中的一個人和一台機器,然後根據他們給出的答案確定哪個是真人。圖靈給出了一個問答過程的示例:  <blockquote>


    問:請以“福斯橋”(forth bridge)為主題寫一首十四行詩。


    答:我不會回答這道題,我從來沒有寫過詩。


    問:34 957加70 764等於多少?


    答:(在經過大概30秒之後給出答案)105 621。


    問:你會下象棋嗎?


    答:會的。


    問:我在k1處有棋子k,而且沒有其他棋子。你在k6處有棋子k,在r1處有棋子r。現在輪到你了,你要下哪一步棋?


    答:(在經過15秒之後)棋子r走到r8處,將軍。  </blockquote>


    圖靈在這個示例對話中做了一些手腳。如果仔細查看上麵的答案的話,我們可以發現回答者在計算加法的時候出現了一個小錯誤(正確答案是105 721)。這點就足以證明該回答者是真人了嗎?也許可以。但這也有可能是一台狡猾的機器正在冒充人類。圖靈也輕易地反駁了傑弗裏關於機器不能寫作十四行詩的異議,因為給出上述答案的有可能是一個承認自己不會寫詩的人類。圖靈認為利用能否寫作十四行詩作為判斷是否為人類的標準是很難操作的。為了證明這點,他繼續在論文中設計了如下的詢問對話:  <blockquote>


    問:你的十四行詩的第一行寫著“我怎能將你與夏日相比”,如果將“夏日”換成“春日”會不會更好?


    答:這樣就不押韻了[6] 。


    問:那如果換成“冬日”呢?這樣就正好押韻了。


    答:的確如此,但是沒有人喜歡被比喻成冬日。


    問:匹克威克先生(mr. pickwick)會讓你想起聖誕節嗎?


    答:有點兒。


    問:但聖誕節就是一個冬日啊,而且我認為匹克威克先生應該不會介意這個比喻。


    答:我覺得你是在開玩笑。人們所說的冬日是指一個普通的冬日,而不是像聖誕節這樣的特殊節日。  </blockquote>


    在圖靈看來,僅憑這樣的回答幾乎不可能判斷出回答者是人類還是冒充人類的機器。


    至於何時會出現能夠通過圖靈測試的計算機,圖靈給出了自己的預測:“我相信在50年左右的時間內,計算機編程技術將可能……實現可以順利通過模仿遊戲的計算機,普通詢問者在經過5分鍾的詢問之後的判斷準確率將不高於70%。”


    圖靈預想到自己對思考的定義將會引來許多質疑,所以他嚐試在論文中逐一反駁它們。針對來自神學方麵的質疑,也就是上帝隻將靈魂和思考能力賜給了人類,圖靈表示這種觀點實際上是對“上帝的全知全能的嚴重限製”。他提出了一個問題:上帝是否“有自由向一頭合適的大象授予靈魂”?想必他是可以這樣做的,那麽按照同樣的邏輯,上帝當然也可以隨心所欲地向一台機器授予靈魂。這番話從不信仰上帝的圖靈口中說出還是有些諷刺意味的。


    其中最為有趣的一個異議(特別是從本書的內容來看)來自埃達·洛夫萊斯。“分析機不會主動創造任何東西,”她在1843年寫道,“它可以根據我們能夠給出的任何指令完成任務。它可以遵循分析,但它沒有能力預見任何的分析關係和事實。”換句話說,跟人類大腦不一樣的是,機械裝置無法擁有自由意誌,也不能產生自主性,它隻能按照既定的程序執行任務。圖靈在自己1950年的論文中將這個觀點稱為“洛夫萊斯夫人的異議”,並專門安排了一節的內容來討論它。


    對於這個異議,圖靈提出了一個極具獨創性的反駁觀點:機器也許可以進行學習,從而逐漸發展出自己的主動性,並掌握產生新想法的能力。“與其嚐試編寫一個可以模擬成人大腦的程序,為什麽不嚐試模擬兒童的大腦呢?”他問道,“在經過適當的教育之後,它將有可能成長為成人的大腦。”他承認機器的學習過程會跟人類兒童不一樣:“舉個例子,它不會有雙腳,所以老師不能叫它幫忙裝滿教室外麵的煤鬥。也許它也沒有眼睛……所以如果把這個怪物帶到學校的話,它肯定會被其他小朋友過分地取笑。”因此這台“兒童機器”將需要使用其他的方式進行教導。圖靈提出了一種獎勵和懲罰機製,它可以促使機器重複或者避免某些行為,最終這台機器將會培養出自己對於思考的概念。


    圖靈的批評者提出的另外一個異議是,就算機器可以模仿思考,它也不會具有真正的意識。當參加圖靈測試的人類在遣詞造句的時候,他會將這些單詞與現實世界的意義、情感、經驗、感覺和觀念聯係起來。機器卻不會這樣做。如果沒有這些聯係的話,語言也隻是一個脫離實際意義的遊戲。


    這個異議為圖靈測試帶來了一輪持續時間最長的質疑——哲學家約翰·希爾勒(john searle)在1980年提出了一個叫作“中文房間”(chinese room)的思維實驗。這個實驗的內容是,在一個房間裏麵有一個以英語為母語,而且對中文一竅不通的人,他手上有一本詳細列出所有中文搭配規則的手冊。他會從房間外收到一些以中文寫成的問題,然後根據這本手冊寫出中文的回答。隻要有一本足夠好的指導手冊,房間裏的回答者就可以讓房間外的詢問者相信他的母語是中文。盡管如此,他不會理解自己給出的任何一個回答,也不會表現出任何的意向性。按照埃達·洛夫萊斯的話來說,他不會主動地創造任何東西,隻是根據得到的任何指令完成任務。同樣地,對於參加圖靈測試的機器來說,無論它可以如何成功地模仿人類,也不會理解或者意識到自己所說的東西。我們不能因此認為這台機器可以“思考”,正如我們不能認為使用一本大型指導手冊的人可以理解中文一樣。95


    有人對希爾勒的異議提出了反駁:雖然房間中的人本身不是真正理解中文,但是這個房間包含的完整係統——人(處理器)、指導手冊(程序)以及寫滿中文的文件(數據),這三者作為一個整體是確實能夠理解中文的。這兩種觀點的爭議到目前還沒有定論。時至今日,圖靈測試及其相關的異議仍然是認知科學領域中最具爭議性的一個話題。


    在《計算機器與智能》發表之後的幾年時間裏,圖靈似乎很喜歡參與到自己惹出的爭論當中。他以自己帶有諷刺性的幽默感取笑了那些關於十四行詩和人類高等意識的主張。“終有一天,女士們會帶著她們的計算機到公園散步,並且互相訴說‘我的寶貝計算機在今天早上跟我說了這麽一件有趣的事情’!”他在1951年調侃道。正如他的導師麥克斯·紐曼後來所說的:“他在解釋自己的想法時會提出一些引人發笑的比喻,但它們又是恰到好處的,這點讓他成為一位討人喜歡的同事。”96


    在圖靈參與的討論之中有一個反複出現的主題——性欲和情感對人類思考的影響,而機器是不會受到這些影響的,這個主題也體現在圖靈後來經曆的悲劇當中。針對這個主題的一次公開討論出現在1952年1月,當時圖靈和腦外科醫生傑弗裏·傑斐遜爵士參加了由bbc(英國廣播公司)舉行的一場辯論會,擔任辯論主持的是麥克斯·紐曼和科學哲學家理查德·布雷斯韋特(richard braithwatie)。“一般而言,一個人的喜好是由他的欲望、衝動和本能決定的。”布雷斯韋特表示如果要做出一台真正會思考的機器,“它似乎需要配備一些可以對應各種欲望的東西”。紐曼補充說機器“隻有相當有限的欲望,而且它們在感到尷尬的時候也不會臉紅”。傑斐遜甚至說出了更為出格的言論,他多次以“性衝動”作為例子,並反複提到了人類的“情感和本能,比如性欲”。他指出人類會受製於“性衝動”,而且“有可能會因此而變得愚蠢”。他談到了太多關於性欲對人類思考的影響的內容,以至於bbc的編輯們不得不在廣播的內容中剪掉他的部分言論,其中包括他表示自己是不會相信機器能思考的,除非他親眼看到一台機器撫摸另外一台女性機器的大腿。97


    當時圖靈還不想向外界透露自己身為同性戀者的事實,所以他在這部分的討論當中保持了沉默。這場辯論會在1952年1月10日完成錄製。在隨後的幾個星期裏,圖靈卷入了一係列可能讓機器無法理解的事件當中。圖靈在一篇小故事中提到了他打算如何慶祝自己剛剛完成了一篇科學論文:“自從去年夏天在巴黎遇到那位士兵之後,他已經維持了一段時間的單身生活。現在既然他的論文已經完成,他也應當去找另外一位男同誌了。他知道在哪裏可以找到合適的對象。”98


    在曼徹斯特的牛津街上,他偶然遇到了一位19歲的工人階級流浪者阿諾德·穆雷(arnold murray)。在完成了bbc的節目錄製之後,他邀請穆雷搬到他家一起居住。一天晚上,圖靈向年輕的穆雷講到了自己做過的一個夢,他夢到自己在和一台邪惡的計算機下象棋,他先激怒了它,然後逗它開心,最後在它麻痹大意的時候擊敗了它。他們兩人的關係在隨後的日子裏變得越來越複雜,直到有一天,圖靈在回家之後發現自己的住處遭竊,犯人正是穆雷的一個朋友。在向警方陳述這起案件的時候,他最終承認了自己和穆雷的同性戀關係,於是警方以“嚴重猥褻”的罪名逮捕了圖靈。99


    在1952年3月的庭審上,圖靈承認了自己的罪名,但他明確表示自己不會為此感到後悔。麥克斯·紐曼也作為圖靈的品行證人出席了這場審訊。在被宣判有罪和剝奪參加機密工作的權限之後,[7] 圖靈麵臨著兩個選擇:坐牢或者緩刑,而第二個選擇的條件是需要接受荷爾蒙治療,也就是通過注射合成的雌激素來抑製性欲,這種治療方法就像是把人當成由化學藥物控製的機器一樣。他選擇了後者,這項治療持續了一年的時間。


    圖靈起初似乎能夠從容麵對這些罪責,然而在1954年6月7日,他在咬下一口浸染過氰化物的蘋果之後便與世長辭了。按照他的好友的說法,他一直以來都對《白雪公主》當中惡毒的王後將蘋果浸在毒藥裏麵的情景十分著迷。他的屍體最後被發現躺在床上,口吐白沫,他的體內被檢測出了氰化物,身邊還放著一個被咬過的蘋果。


    這是一台機器會做出的事情嗎?


    約翰·巴丁(1908——1991)、威廉·肖克利(1910——1989)和沃爾特·布拉頓(1902——1987)在貝爾實驗室,照片攝於1948年


    貝爾實驗室的首個晶體管


    威廉·肖克利(坐在主座)在獲得諾貝爾獎當天的慶功宴上,前來祝賀的同事包括戈登·摩爾(坐在左側)和羅伯特·諾伊斯(站在中間的舉杯者),照片攝於1956年


    [1] 斯特林公式(stirling’s form),用於求出某個數字的階乘結果的近似值。


    [2] 之前在哈佛大學科學中心舉行的馬克一號展覽和相關的展品解釋都沒有提及格雷斯·霍珀,也沒有展出任何女性程序員的照片。後來這個展覽在2014年經過重新設計,開始強調霍珀和其他程序員的曆史地位。


    [3] 馮·諾依曼的研究取得了成功。這種采用鈈元素的內爆式原子彈設計促成了世界上首次原子彈引爆試驗——三一核試驗(trinity test,1945年7月),這場試驗在新墨西哥州阿拉莫戈多附近進行。這種設計也被用於在1945年8月9日投向長崎的原子彈,在三天之前投向廣島的是一顆鈾核彈。馮·諾依曼成為核武器的堅定支持者,他參與了三一核試驗和後來在太平洋比基尼環礁進行的多次核試驗,他還提出為了讓美國取得核優勢,即使有上千人因為核輻射而死亡也是一個可以接受的代價。12年後,他由於身患骨癌和胰腺癌而病逝,終年53歲,他的癌症可能是由核試驗產生的輻射引致的。


    [4] 1967年,年逾60歲的格雷斯·霍珀被美國海軍召回服役,負責標準化cobol語言的應用和驗證cobol編譯器的任務。美國國會的投票通過了延長她的服役年限的決議。在獲得了海軍準將的軍銜之後,她最終在1986年8月以79歲的高齡退役,成為海軍服役期最長的軍官。


    [5] 根據美國憲法,美國國會有權“為了促進科學和技術的發展而保護作者和發明者在一定時間內對各自著作和發現的專有權”。在20世紀70年代,對於那些與現有技術的唯一區別隻是采用了新的軟件算法的創新,美國專利商標局通常都不會向它們授予專利。到了20世紀80年代,專利授權資格的界定方式開始變得模糊,因為上訴法院和最高法院之間出現了一些不一致的判決。相關的專利政策在20世紀90年代中期得到改革,哥倫比亞特區巡回上訴法院在當時頒布了一係列的規定,正式允許向可以生產“有益、具體和實際的成果”的軟件授予專利,而且比爾·克林頓總統還將軟件出版行業的一位首席遊說者任命為美國專利局的局長。


    [6] 此處指英文的押韻。——編者注


    [7] 2013年聖誕節,伊麗莎白女王二世向圖靈追授了正式的赦免。

章節目錄

閱讀記錄

創新者:一群技術狂人和鬼才程序員如何改變世界所有內容均來自互聯網,uu小說網隻為原作者沃爾特·艾薩克森的小說進行宣傳。歡迎各位書友支持沃爾特·艾薩克森並收藏創新者:一群技術狂人和鬼才程序員如何改變世界最新章節