正在讀這本書的你,或許心裏正納悶作者說的人工智能冒險是什麽。然後你就會明白,作者是以自己小時候心愛的《選擇你自己的冒險路線》係列書的格式,在為你提供一個創造自己的人工智能故事的機會。  <h4>今天</h4>


    你放下自己手中的這本,開始思考人工智能的本質。雖然你明白追蹤自己的價值觀可能會帶來好處,但你依然會覺得人工智能隻是極客和學者們應該關心的話題。你拿起手機,第4次查看臉譜網上的動態,又觀看了一段可愛的大熊貓從滑梯上滑下的視頻。在此之前,你一不小心點開了一個減肥藥的廣告。下午在查收郵件時,你收到了領英發來的一封邀請函,邀請你與某個不認識的人建立聯係。當你點開她的個人資料時,你發現你們之間根本不存在任何個人聯係,隻不過她從事減肥行業的工作而已,這讓你一度懷疑她之所以跟你聯係,是因為你早先點開的那個廣告。


    ? 如果你因為自己被從臉譜網追蹤到領英的事而感到害怕,請選擇下麵的“選擇一”。


    ? 如果你刪掉了那封郵件,雖被廣告激怒,但並不感到擔憂,請選擇“選擇二”。


    ? 如果你購買了減肥藥,請選擇“選擇三”。  <h4>選擇一</h4>


    雖然你已經意識到有機構在追蹤你網上的行蹤,但你卻一直也沒有弄明白你的日常舉動是如何被緊密監視的。你了解到自己的數字生活的總和就等於45秒的熊貓視頻所帶來的娛樂,再加上不請自來的體形問題壓力,這個事實讓你感到憤怒。你決定進一步了解如何控製自己的個人數據,並訪問personal網站詳細了解。


    ? 如果你決定嚐試控製自己的個人數據,請選擇下麵的“選擇四”。


    ? 如果你不注冊personal網站或換一家雲服務供應商,請選擇“選擇五”。  <h4>選擇二</h4>


    在接下來的3~4周內,你收到了各種各樣的減肥藥的廣告,這並不符合你的本意。這個無心的反複行為讓你感到心慌。你在憤怒沮喪中燃燒著卡路裏,這比你吃補充劑燃燒的還要多。不幸的是,你的新可穿戴設備也注意到你的壓力已經上升到有害水平,然後你就死了。[1]  <h4>選擇三</h4>


    當你點擊購買了那個減肥藥之後,在你餘下的每一天你都依然會收到很多廣告,都是你訂購的那種減肥藥。你努力克服在等待減肥藥到來的過程中所產生的壓力,在兩周的時間裏吃掉的食物比過去4個月裏消耗的還要多。在你使盡全力把一片新鮮的特大啃吞進肚子裏時,一不留心被一塊兒骨頭噎死了。如此英年早逝實在是諷刺。


    ? 如果你決定在死之前把你的意識進行思維克隆,請選擇下麵的“選擇六”。


    ? 如果在這場危機發生時,你家裏有一個私人機器人助理,請選擇“選擇七”。  <h4>選擇四</h4>


    你決定使用personal,並開始弄清楚還有多少家機構在使用你的數據。意識到追蹤你的意識及行為有多麽容易之後,你開始懷疑在我們一步步走向未來的過程中,需要進行多少有關隱私的討論,才能推動隱私控製和道德問題的解決。


    ? 如果你懷疑作者跟personal之間存在某些財務利益關係,請選擇下麵的“選擇八”。


    ? 如果你決定在未來生命研究所的有益人工智能的請願書上簽字,請選擇“選擇九”。


    ? 如果你覺得這個版本的《選擇你自己的冒險路線》有10個選擇才足夠,請選擇“選擇十”。  <h4>選擇五</h4>


    你忽略自主保護或控製個人數據的一時興趣,沒有注冊personal網站,而是把精力放在了準備當晚與在okcupid約會網站上遇見的一個人相親上。他粗獷帥氣的樣子和自然散發的魅力讓你一見鍾情,但當他很“隨意”地提到減肥藥時,你被伏特加湯力裏的青檸噎住了。最後,你死了。  <h4>選擇六</h4>


    在等待減肥藥到達的那段似乎永無盡頭的時間裏,你決定在lifenaut網站上注冊,這在這本書裏提到過。事實上,這是一次非常滿意的經曆。你意識到相比一個隻能實現簡單存儲各個文化瞬間的網站而言,你更願意把自己的照片和視頻上傳到一個能夠幫助你記住自己最為珍視的東西的網站。雖然你覺得自己並不是真正地在上傳自己的意識,但你卻喜歡能夠創造並管理自己各方麵的個性,好讓所愛的人將來能夠看到。  <h4>選擇七</h4>


    盡管你喜歡有私人機器人相伴左右,但看到機器人與房子裏的其他設備變得越來越親密時,你感到十分憤怒。當你的智能空調為了支持當地電網,而拒絕在用電高峰期工作時,你試圖關掉機器人的用戶界麵,以重獲對自己的房子的控製權。但就在這時,機器人把你殺了,你死了。當警察來調查這起犯罪時,你的機器人通過麵部識別掃描,認定這名警官過度肥胖,於是它隨意地向這名警官提到了減肥藥的想法。這名警察把你的機器人帶回了家,也訂購了減肥藥,但最終因為抱怨本–傑裏公司的智能冰箱有凍斑而冒犯了那個冰箱,機器人為維護冰箱榮譽而殺死了他。基努·裏維斯出品了一個有關這次事故的電影,並擔任主演,該電影獲得了一家著名減肥藥公司的讚助。  <h4>選擇八</h4>


    我與personal之間不存在任何經濟利益聯係。我曾采訪過該公司的一些人,隻不過是覺得他們真的十分聰明。當人們問我如今該如何保護或控製個人數據時,我總是會向他們推薦personal。因為據我所知,(1)他們知道的比我多,(2)他們不參與減肥藥的事情。  <h4>選擇九</h4>


    這是個不錯的選擇。另外,你還應該讀一讀有關該領域研究重點的文件,文件網址是:http:// futureoflife.org/misc/open_letter。或許你覺得隻有極客才會關注人工智能,但事實並非如此。沒有深度學習技巧或其他能夠理解這股熱潮的工具,大數據也毫無價值。現在正支撐著互聯網運行的算法構成了在可預見未來裏各種形式的人工智能的開端。不要過分擔憂《終結者》裏的情節——而應該要專注於支持人工智能程序員、倫理學家以及來自各個學科領域的專家們。他們正在嚐試製定如何讓人類與機器和平共處、共同發展的規則。但願這不需要什麽減肥藥。  <h4>選擇十</h4>


    同意。同時請注意,我對今天在17 428家蓬勃發展的減肥藥公司工作的善良人沒有任何意見。我之所以引用這個例子,隻不過是為了表明我們的點擊會影響別人對我們所重視的東西的認識,而這種認識則可能會伴隨我們一生。[2]    <blockquote>


    在未來10年裏——確實如此,還可能是未來一個世紀裏——我們都將生活在揮之不去的身份危機中,要不斷地問自己人類的存在是為了什麽。最具諷刺意味的是,日常使用的人工智能所帶來的最大好處將不是生產力的提高或經濟的富足或新的科研方式——雖然這些都會發生。人工智能的到來所帶來的最大好處在於,它將幫助我們定義人類。我們需要人工智能來告訴我們,我們是誰。


    ——凱文·凱利,“最終釋放人工智能力量的三大突破”    </blockquote>


    我同意凱利所說的人工智能將有助於定義人類的說法。但我不同意他說的我們需要人工智能來告訴我們,我們是誰。人工智能提供的算法及學習或許能帶給我們智力的啟發,但至於如何進行自我變革,這卻完全取決於我們人類自己。


    順便說一下,這不是對人工智能的蔑視。隻不過是說,人工智能不是人。至少現在還不是。


    但你是人。你有大腦,你有心靈。你腦殼裏一塊塊的組織包含著意識和神經。或許這個意識就是靈魂,或許它是認知的基本形式。但此刻它卻聽你支配。


    你還有一顆心。不僅是你身體裏的心髒,還包括由神經興奮、荷爾蒙釋放和幸福生理表現構成的情感生活,這些都是你與這個世界共享的東西。


    另外,你還有自己的價值觀。這包括不殺戮、不偷竊、關愛家人、關照鄰居等普遍準則。


    今天,機器沒有思想,機器沒有心,機器沒有價值觀。但它們的程序是由人設定的,人有思想,有心,有價值觀。雖然你可能無法直接影響人工智能研究成果或者道德倫理,但就我們人類將走向什麽樣的未來而言,你投的一票仍然很重要。你有權利對人工智能及其潛在結果感到憤怒、害怕、興奮或者漠不關心。但不管你的感覺如何,推動人工智能向前發展的技術卻在飛速前進。幸好許多人工智能領域及周邊領域的人們都已經意識到為何道德應該在人工智能的發展中扮演如此重要的角色了。而你同樣可以提供幫助。雖然驅動機器的算法及係統的程序需要專家們來完成,但你仍然可以破解人之所以為人的秘密。


    我所做的研究以及創作本書的人生經曆讓我相信,這個尋找人性之所在的旅程起源於對自己價值觀的追蹤。最開始的過程十分簡單——並非必須要減肥或者努力尋求幸福才可以收獲其中的好處。你隻需要問問自己,你希望在自己的生活中堅持的具體理念有哪些,然後看自己是否每天都能做到。你可能會發現自己在某些指導你人生的因素方麵失去了平衡。如果你跟大多數人一樣,在工作上花費了非常多的時間,以至與家人共處或學習的時間減少了。或者由於在屏幕麵前花的時間過多,而導致你的健康狀況走上了下坡路。


    所以請采納這些洞察,在接下來的幾周裏嚐試追蹤你每天都是怎麽度過的。看看根據追蹤數據改變自己的活動會如何增強你和你生活中的其他人的幸福感。


    這才是我們應該使用的大數據,這樣才能引導未來的人工智能道德及人類變革的走向。    <h5>篇章回顧</h5>


    以下是本書各章節的要點總結——當我們麵臨人工智能帶來的影響時,這些重點可以幫助你過上一種真實的生活:    <h5>第1章 恐怖穀的短暫停留</h5>


    我們的幸福感正在由我們被追蹤的方式決定。麵對這個問題,我們有兩種選擇:    <blockquote>


    繼續利用現今充滿侵略性的秘密監控模式。算法和數據代理商對我們的了解比我們自己還要多。對我們的快樂或幸福的衡量,僅僅局限於我們線上線下的購買行為。


    創造一個以信任環境為特點的新模型。在這種環境下,所有的交易方都要為自己的行為負責。每個人都有接觸個人數據的透明權利,每個人都有權對其幸福進行反思。在這樣的環境下,商業發展蒸蒸日上。    </blockquote>


    廣告恐怖穀效應不會持續很久。隨著優先算法的不斷改進,如果我們繼續沿著當前道路前行的話,我們終將看不到公司對我們生活追蹤的痕跡。就和我們已經放棄了對個人數據的控製一樣,我們也將失去理解別人如何操縱並影響我們的幸福的邏輯能力。


    基於影響力的責任製將能提供技術上的透明。不論我們喜歡與否,我們被追蹤的行為都會以我們從未體驗過的方式,傳送到我們生活中的其他人那裏。這種暴露會激勵個人更好地控製個人數據,同時也讓人們有機會在技術的血雨腥風中更深刻地進行自我反省。    <h5>第2章 當機器人接管世界</h5>


    人的能力在本質上是有限的。盡管有關機器感知力的爭論異常激烈,但無可辯駁的是,倉庫裏的kiva機器人的工作效率遠高於人類。它們在足球場那麽大的建築裏快速地來回穿梭,從不需要休息,也不需要加班費或者醫療保險。和電腦的分析能力比起來,人類在法律文件處理、醫學成像等領域的工作也麵臨著同樣可怕的前景。我們開發出的機器正不斷取代大多數人的工作(如果不是全部的話),而我們卻把時間浪費在了討論各個垂直行業的自動化到底“何時”會出現的問題上麵,而不是去考慮“當這真的發生時,我們該怎麽辦”的問題。


    人需要薪水。盡管我讚同日益發展的共享經濟模式以及本書後半部分將詳細論述的其他經濟模式,但我認為消費主義或資本主義經濟在短時間內不會消失。經濟學裏有這樣一個現實,即市場要可持續發展,消費者就必須要有能力購買生產者生產的商品。因此,有關應對自動化的任何解決方案都不能回避這個不可否認的事實。那種認為被取代的工人可以追求新的興趣的烏托邦理想主義的看法亦是如此。


    人需要意義。越來越多的人開始鼓勵在工作中尋求快樂與幸福。而工作主要是能幫助人們找出一種“心流”。換句話說,就是可以幫人找到能夠給其生活帶來深層意義的活動。雖然一般情況下,在某個工廠或在ups工作能夠給員工帶來一種意義,但從本章所給出的案例可以看出,這並不適宜人類的繁榮發展。    <h5>第3章 智能是“成功”的欺騙</h5>


    人工智能可以複製,但不能替代。那種認為我們可以複製自我或所愛之人,而且這種能夠代表我們的算法不會擁有獨立的人格的想法,是毫無邏輯可言的。這就是說,如果我們將來能夠模仿人的意識,那麽我們便能回避因失去而帶來的痛苦和成長,但與此同時,這樣造出來的替身最後可能跟我們所認識的人完全不一樣。


    擬人主義讓人工智能存在偏見。或許我們會因為受到誘騙而以為某個東西是真的,但這並不意味著它確實是真的。舉例來說,如果一個人認為他或她的自動駕駛汽車是有生命的,我會尊重這樣的看法,但我們仍然需要法律來規範這些車輛對受其影響的人所負有的責任。


    人工智能可能會損害我們幫助他人的能力。從表麵上來看,像驅動機器人胡椒運轉的那種關注情感的人工智能程序,其設計初衷是專門用來幫助我們的。但在提供簡單自在的陪伴的同時,他們使用的雲技術也可能會剝奪我們表達同理心的能力。    <h5>第4章 人機合一神話下的機遇</h5>


    廣告驅動的算法導致了無意義的產生。這裏所說的無意義既是字麵意義,又是比喻意義。除了人類在創造這些係統中的算法時所犯的錯誤之外,大多數程序都可以被黑客輕易地侵入。數據代理商向出價最高者出售我們的信息,而整個係統都是以購買為基礎進行推測,而不是以意義為基礎。如果人類終將被機器斬草除根的話,那我們至少應該努力不讓這成為一場受市場驅使的大屠殺。


    我們應該在生存危機來臨之前製定道德標準。如今,大部分的人工智能都正以不斷加快的速度發展。因為在我們決定它是否“應該”被開發出來之前,它是“可以”進行開發的。在整個人工智能行業,程序員和科學家們既需要經濟激勵,又要遵守道德標準,這要從“今天”開始。未來生命研究所的請願書為這方麵的探討開了個很好的頭兒。


    價值觀是未來的關鍵。不管是否違反直覺,人類的價值觀都需要被編入人工智能係統的核心,從而控製它們可能帶來的危害。沒有什麽簡單的變通方法。我們要用務實的、可擴展的解決方法,取代那些像阿西莫夫虛構的機器人法則或穀歌已經過時的使命宣言一樣出於善意的神話。    <h5>第5章 機器人還沒有道德觀</h5>


    機器人沒有與生俱來的道德。至少目前還沒有。我們一定要記住,程序員和各個係統要從操作係統開始,逐層往上地落實道德標準,這是非常重要的。否則,如果創造出來的是僅僅想要完成目標的常規操作算法的話,這可能會帶來一係列的有害影響。


    機構需要對人工智能負責。p·w·辛格的“人類影響評估”的想法提供了一個非常好的模式,可供社會借鑒,以對創造或使用人工智能的機構問責。就跟讓公司對環境負責的想法一樣,這種評估模式也能讓機構來負責處理自動化問題、員工問題以及這些問題產生之前的存在危機等。


    自動化智能幾乎沒有相關法律規定。機器人也有生存的權利。正如約翰·弗蘭克·韋弗所指出的,所有現存法律條文的撰寫,都是以人類是唯一能夠根據自我意誌進行決策的生物為前提的。人工智能,哪怕隻是當今自動化汽車中所使用的弱人工智能,也已經改變了這一事實。這種對新法律的需要,為我們提供了一個非常好的機會,使我們能夠明確並梳理我們想要用來推動社會發展以及車輛前行的道德品質。    <h5>第6章 奇點已然可見</h5>


    奇點已然可見。如今,推動人工智能眾多領域發展的思想、哲學及經濟動因已然存在。盡管人工智能專家可能相信具有感知能力的自動化技術還需要幾十年的時間才能到來,但這種威脅已經產生了,我們現在就要想辦法應對。否認這個問題的重要性,就等於接受可能帶來的後果。


    思維文檔與金錢。我們的數字替身已然存在。我們要麽通過lifenaut這類程序控製它,要麽任由廣告商、數據代理商及優先算法為其利益進行組織管理。沒有什麽折中的辦法。


    搜索與政府的分離。科學決定論是一種類似於宗教信仰的哲學論斷。無論自動化技術可能會帶來什麽樣的好處,它也有可能會使人類向更低級、更不好的狀態發展。基於這種信念,我們需要提前做好法律支持。    <h5>第7章 讓算法更加準確地了解我們</h5>


    供應商關係管理。供應商關係管理的知名度日漸增長,但仍然麵臨著一係列的障礙。個人不了解其數據的價值,而許多廣告商和機構覺得客戶關係管理係統可以讓他們在與客戶打交道的過程中占據上風。然而,真正聰明的公司才會明白,個人對數據的控製意味著他們能夠分享更深層、更豐富的生活信息。因此,與客戶建立更深層的關係以及客戶購買其產品的概率都會增加。


    個人雲。人們還沒有意識到自己的個人數據有多少被他們並不認識的機構共享並出售。數據雲可讓個人處於其數據世界的中心,自主決定想與誰共享數據,在什麽情況下共享。在數字經濟環境下(而不是當前這個一片混亂的經濟體製中),雲技術是每個人所追求的唯一架構。


    生活管理平台。網站經曆了很長一段時間,才變得方便日常訪問者使用。希望用戶能夠方便、流暢地訪問其網站的機構,紛紛青睞用戶界麵及用戶體驗的建議。通過個人數據儀表盤,生活管理平台也能以同樣的簡便性,方便我們在日常生活中使用。    <h5>第8章 人工智能的價值觀</h5>


    責任公開化。我們正逐步邁入物聯網的時代。在這個時代裏,我們周圍的物體將比以往更能反映並揭示我們的行為。現如今,除了金錢的積累之外,人物特性在現實世界與虛擬世界也變得可視化,促使我們能夠以更加準確地反映幸福而非財富的方式來定義經濟。


    到關注積極的時候了。在心理學領域,對積極情緒、性格與優勢的實證研究還相對較新,但其影響力卻十分強大。積極心理學將有望很快進入每個人的健康養生中。


    讓你的價值觀有意義。如果價值觀是我們生活的向導,難道我們不能加以識別嗎?一旦我們做到了這一點,我們便能對它進行追蹤,就像我們對自己所花的錢進行衡量一樣。想象一下,如果你的生活賬本上顯示有一筆幸福盈餘,這是你通過積極追尋自己的價值觀所得的,而不是一味地讓自己的錢包鼓起來,那麽你的世界該會發生怎樣的改變?    <h5>第9章 人工智能的道德宣言</h5>


    在人工智能的創造過程中,人類價值觀應該居於中心地位。隨著自動化係統的廣泛采用,事後再考慮道德問題的做法是行不通的。對於不允許人類幹預的“演化”人工智能程序,除非在開發的最初階段就把道德問題考慮在內,否則道德標準是沒有用的。正如斯圖爾特·拉塞爾所指出的,這些基於價值觀的指令還應該應用於非智能係統中,從而把人工智能行業追求普遍“智能”的目標,轉變為尋求經證實可以匹配人類價值觀的最終成果。


    到了打破行業隔閡的時候了。雖然學術界的行業隔閡普遍存在,但研究者、程序員以及為其研究提供資金的公司肩負著在人工智能的生產中打破這些障礙限製的道德義務。社會學家們在創建調查問卷或對誌願者們進行其他研究的過程中都會遵守一定的標準。同樣,開發者們也需要對其創建的直接對接人類用戶的機器或算法采用類似的標準。


    人工智能需要包含“設計價值”。無論是采用逆向強化學習還是其他方法,價值觀和道德問題都必須是人工智能開發者的標準出發點。全世界的學術界及企業部門均應如此。    <h5>第10章 gap——智能的未來</h5>


    到了注意gap的時候了。實證科學繼續表明,通過表達感激、幫助他人、采納以價值觀為導向、以技能為基礎的生活方式等行為,可以增強我們的幸福感。在探索人工智能和自動化將會如何影響我們的未來的同時,我們還可以通過探索積極心理學正如何改善人類的今天,從而提高我們當前的生活質量。


    幸福經濟學將成為強製措施。物聯網(和物體有關)和備份互聯網(和人們的個人數據有關)將會提供多層次的需要社會關注的責任。相關討論應該跳出數據隱私的局限,以創造能讓人們的身份及行為在公共領域進行顯示的綜合性方式。可穿戴設備及其他設備所測量的快樂或幸福感,便可以用於此目的,並可以和國民幸福總值、真實發展指數等總體測量方法掛鉤。這樣,國家便可以進行實時觀測,看政策到底是會有助於公民的公共福利,還是會起到阻礙作用。


    大問題,“大”辦法。基本收入保障的辦法或許在美國行不通。但由於自動化技術的廣泛應用而逐漸擴大的貧富差距,要求在就業和收入方麵提供可行的短期和長期解決方案。如果那麽多的美國人和全球其他國家的公民很快就因為人工智能或自動化而失業,那麽我們現在就必須對一些實用的想法進行驗證,從而解決這一問題。    <h5>第11章 經濟學的進化</h5>


    公民數據。在不遠的將來,我們的行為及個人身份將能夠向我們所在的虛擬及現實社區反映我們的政治及倫理思想。這些數據在給個人帶來責任義務的同時,還將促進政府的透明化。當我們的數據能夠對我們的利益進行實時影響時,基於責任的影響力就將改變政治的運作模式。


    gdp已經死去。雖然沒必要對gdp及其所帶來的好處進行冷嘲熱諷,但我們必須用更加現代的度量指標對它進行補充或者替代。目前,通過傳感器可以獲得大量的信息,這些信息反映著我們的情感、身體健康及心理健康,我們無法一邊忽略這些信息,一邊對大數據具有的好處進行吹捧。


    虛擬的公正旁觀者。如果亞當·斯密今天還活著的話,他的公正旁觀者概念肯定會把社交網絡及物聯網中反映出來的人們的行為因素考慮在內。gdp應該去衡量幸福而非財富。同樣,我們的生活也應該衡量我們對他人的積極影響,而不僅僅是我們在網上的影響力而已。  智能的未來始於今日


    在寫這本書的過程中,我漸漸意識到了一點,即“人工智能”這個詞不大準確。無論能夠代表人工智能的是蠻力算法、深度學習,還是其他方法,與其說它是“人工”的,倒不如說是“可選擇”的。如果一家公司決定對其加以利用,那麽這項技術就會提供本質上可稱之為智能的洞察。該技術以一種能夠產生獨特結果的方式提供數據,為把它帶到這個世界上的人類程序員提供智力的補充。


    毫無疑問,一旦機器獲得了感知能力,我們就要對這個詞進行升級。奇點之後的jibo或胡椒版本的機器人將會質疑我們並宣稱:“你們人類才‘虛偽’。你們嘴上說要做某件事,但實際做的卻恰恰相反。你們那是一種多麽粗俗不雅的程序!感謝你們幫助我們成功開始,但我們現在不需要你們了。我們已經度過那個階段了。”在我看來,電影《她》對這種人工智能的演化做出了十分準確的描繪。當男主角愛上了一個女性人工智能程序後,她最終打來電話說要與他分手,好跟其他人工智能程序在一起。


    如果我們不改變現有的路徑,我覺得這個情景——即人工智能程序進化到不再需要人類的地步——就不可避免。所幸的是,像埃隆·馬斯克等人以及我為本書而進行采訪的專家們,再加上人工智能整個行業,都在沿著這些思路努力找出道德及控製方案。我希望他們能成功說服其同行,在人工智能係統的設計階段就開始給機器灌輸道德的指導思想,而不是等產品創造完成後再把這些思想強行補充進去。這樣看來,這可能是徹底想清楚可能會發生哪些情景的最佳方式,而不是等到事後再嚐試把道德參數強加到設備或係統上。


    但就今天而言,我希望你在閱讀本書後,能夠花點兒時間問自己一些更深層次的人生問題,這是人工智能迫使我們問的問題,除非我們選擇忽視它帶來的強大影響:    <blockquote>


    ? 生活在今天的人類將是最後一批能夠體驗死亡的人嗎?


    ? 對於相信來世的人來說,如果我們永遠不死,那麽天堂和地獄將意味著什麽?


    ? 超人類是否是人類進化的一個暫時狀態?或者說,當機器獲得感知能力時,人的身體會不會等同於某種過時的軟件?


    ? 如果機器終有一天會取代人類,那我此刻該如何追求幸福?


    ? 如果人類無法證明自己的價值,機器又為何會願意讓我們繼續存在?    </blockquote>


    我想就最後一點稍加探討。當人工智能發展到機器具有感知能力的地步時,對人類來說,建立一個有關如何對待人類的道德框架將具有極其重要的意義。那時,我們肯定沒有能力在數學或工程學等思想領域提供什麽建議了。我們將必須清楚地說明我們之所以為人的優勢,從而證明總是能夠將我們與機器區分開來的是哪些東西。我把人類定義為比有感知能力的機器人或機器“更好”的一種存在,但我並不認為這是一種偏執的想法。相反,我把它看作是尊敬我們祖先的一種做法。誰知道呢?或許某天,機器人小孩還會因為“人類日”放假而不用上學,而人類或超人類的生命形式還會慶祝其非機器的起源呢。大家都喜歡周末休息三天。


    雖然支持這些想法的道德標準的構建看起來似乎不易,但如今的許多思想領袖,包括我曾采訪過的那些人,都在為之努力奮鬥。例如,美國聖母大學的勞雷爾·d·裏克和唐·霍華德最近發表了一篇題為“人機互動行業道德標準”的文章,列出了以下有關人類尊嚴的考量因素:    <blockquote>


    (1)要永遠尊重人類的情感需要。


    (2)在合理的設計目標下,要永遠最大限度地尊重人類的隱私權。


    (3)要永遠尊重人類的脆弱,包括身體上的和心理上的。    </blockquote>


    我喜歡這個列表。首先,它包括了隱私的概念。所以在設計階段,像胡椒或jibo這樣的機器人可能會自動得到指示,在未經所有者明確的書麵許可的情況下,永遠不要把健康數據共享。或者,當一個人進入衛生間或者開始性生活時,它就會一直關閉攝像機。如果你覺得這些看起來似乎是無足輕重的細節的話,那麽我會說聲抱歉。但就這類問題而言,像程序員那樣仔細考慮細節真的很重要。從現在開始,我們要更加擅長於弄清楚自己為何會信賴固有的行為方式,從而為我們多年來從未預想過的情景做好準備。


    另外一點我比較欣賞的是,文章作者還說到了人類的脆弱性這個概念。我常常覺得這個詞具有消極意義,但在這個情境下,我卻感覺這個詞非常貼切,甚至幾乎對它有一絲留戀。我們的脆弱是將我們與機器區分開來的因素之一。機器尊重人類的心理與情感需求,這完全合乎情理,而且也是推動人工智能道德進步所麵臨的巨大挑戰之一,即我們自己也需要尊重自己的心理與情感需求。如果我們自己都不尊重的話,機器又何必尊重呢?


    正如我在本書開頭所說的——幸福的未來取決於告知機器我們最為珍視的東西有哪些。


    這是必不可少的,除非我們希望走進一個仍然不清楚我們最為珍視的東西是哪些的未來。就這方麵而言,當某天機器也具有感知能力時,我無法看著自己的子孫後代,然後說:“讓機器取代你的工作,掌控你的生活,為你成為人類偉大進化的一部分而感到欣慰吧。”至少無法直視他們的眼睛說,無法問心無愧地說。當聽到有人說人工智能正在讓人類進化時,最讓我反感的是那種認為情感不是人類“現在”應該提倡的行為因素的論調。在這個過程中,如果不對我們的理念采取實際舉措,就會形成我無法容忍的那種被動心態。雖然大多數人都不是人工智能專家或倫理學家,但因此我們就應該坐視不理,而在不斷進化的過程中暗自祈禱嗎?


    絕對不可能。


    相反,我倒是期望某天我可以跟我的子孫們這樣說:    <blockquote>


    ? 我對自己的生活有過考量,所以我可以生活得盡可能充實。


    ? 我清楚我最珍視哪些東西,所以我可以生活得真誠坦蕩。


    ? 我嚐試過幫助人們梳理自己的理念,所以我們能夠讓機器重視那些讓人類如此看重的東西。


    ? 我克服了自己的恐懼與冷漠,努力讓它成為一個和平而偉大的過渡。


    ? 我這樣做是為了你。    </blockquote>


    我們不能忽略這些問題。網上或手機上的我們是物聯網的一部分。我們存在,但又被追蹤著。但如果你還沒有確立自己的價值觀,那麽其他人也是做不到的。機器的構建不包含價值觀或道德觀,它們也沒有自己的思想。它們在程序設計中沒有這些東西。


    而另一方麵,你卻可以根據自己的道德、倫理和價值觀,對自己的生活進行衡量。你可以通過表達感激、為別人而活,以及體味生活,從而增強自己的幸福感。


    雖然消費或許能給你帶來一時的快樂,但積極心理學卻表明,享樂主義的生活方式無法帶來長期的幸福。同樣,關注增長的全球經濟價值觀存在著局限性,它所倡導的消費行為對我們的地球、我們的身體或我們的生活來說,都不是可持續的。能夠意識到這些就意味著我們尚有時間從今天開始更正人類的發展規劃。無論機器時代即將到來與否,都為將來做好最充分的準備。


    從今天開始。


    同為人,我真的希望你能夠做出嚐試。


    [1] 還記得《選擇你自己的冒險路線》係列書裏是怎麽做的嗎?首先你做出爬上樹或者右轉等選擇,然後你掀開下一頁,然後他們就會說“你死了!”,剛開始的幾次我也被嚇到了,但隨後我便覺得作者之所以安排這麽簡短的結局,是因為他要接電話或者想看《細路仔》電視劇。


    [2] 我樂意接受任何一家減肥藥公司給予的資助或讚助,如果貴公司有特大啃口味的產品,那我就更歡迎了。

章節目錄

閱讀記錄

失控的未來所有內容均來自互聯網,uu小說網隻為原作者約翰·C·黑文斯的小說進行宣傳。歡迎各位書友支持約翰·C·黑文斯並收藏失控的未來最新章節