第九章 通往有意識的機器之路
我希望到目前為止,這本書能夠成功地讓你明白一件事情,雖然近年來人工智能和深度學習方麵取得了真實的、令人興奮的突破,但它們並不是構建通用人工智能的法寶。深度學習可能是通用人工智能的一個重要組成部分,但它絕不是唯一的組成部分。實際上,我們並不清楚還缺失了哪些關鍵部分,更不知道通用人工智能的秘方究竟是怎麽組成的。我們開發出的所有令人印象深刻的人工智能係統——圖像識別、語言翻譯、無人駕駛汽車,都無法構成通用人工智能。從這個意義上來講,我們仍然麵臨羅德尼·布魯克斯在20世紀80年代強調的問題:我們有一些智能組件,但不知道如何將它們組成一個真正的通用智能係統。無論如何,某些關鍵的組件仍然缺失,正如我們在第五章所看到的,即便是當代最好的人工智能係統也無法展示出它們對自己所做的事情有著真正意義上的理解。盡管它們非常擅長自己的工作,但它們仍然隻是為了執行特定的、狹隘領域的任務而構建和優化的軟件組合而已。
因為我相信,我們離通用人工智能還有十分漫長的道路要走,所以對於強人工智能的目標——構建跟人類一樣有自我意識的,真正能夠自主存在的機器,我自然是表示懷疑的。不過,這是最後一章了,讓我們放縱一下吧,即使強人工智能前景渺茫,我們仍然可以從探索中尋找到樂趣,也仍然可以思考如何朝著它前進。所以,讓我們一起沿著通往有意識的機器的道路旅行吧,讓我們想象這裏的風景是什麽樣子的,又可能會遭遇哪些障礙。並且,最重要的是,我們如何知道即將接近這條道路的終點。
意識、思想和其他奧秘
1838年,英國科學家約翰·赫歇爾(John Herschel)進行了一個簡單的實驗,試圖測量太陽輻射有多少能量。他把一個裝有水的容器暴露在陽光下,測量了太陽能使容器中水溫升高1攝氏度所需的時間。通過一個簡單的計算,赫歇爾可以估算出我們的恒星每秒發射多少能量。結果令人難以理解:在一秒鍾內,太陽輻射出難以想象的能量,這一數量遠遠超過地球上一年所產生的能量。這就給當時的科學界出了難題:新出現的地質證據表明,我們生活的地方至少有幾千萬年的曆史(所以太陽至少也有這麽長的曆史),但還沒有已知的物理過程可以為太陽在那麽長的時間裏提供能量。任何已知的能源都會導致太陽最多在幾千年內就燒毀。當時的科學家們天馬行空,發明出令人著迷的難以置信的理論,試圖將赫歇爾簡單、易於重複的實驗證據與地質記錄的證據相協調。直到19世紀末,核物理學誕生,科學家才開始了解原子核中潛在的龐大能量。在赫歇爾實驗出現整整一個世紀之後,物理學家漢斯·貝特(Hans Bethe)最終提出了目前被廣泛接受的關於恒星能量產生的解釋,即核聚變[144]。
現在我們回到強人工智能的話題,我們的目標是建造真正具有意識、具有思維,能夠擁有自我意識和理解力的機器,與我們自身非常相似。而目前的我們就跟當年的赫歇爾處在同樣的位置,因為人類思維和意識這種現象——它們是如何進化的,如何工作的,甚至它們是如何在我們的行為中扮演控製角色的——對我們而言,就像在赫歇爾時代為太陽提供能量的物理機製,是完全神秘的。這些問題我們不知道答案,連尋求答案的方式都不太清楚。目前,我們隻有一些線索,以及大量的猜測。事實上,如果這些問題有了明確的、令人滿意的答案,我們就能夠從科學意義上理解宇宙的起源和命運。正是這種根本性的缺乏使得強人工智能離我們如此遙遠——我們都不知道該從什麽地方著手。
實際上的情況更加糟糕,因為我們甚至不知道到底該處理什麽。我也提到過好多次“意識”“思想”和“自我意識”之類的術語,但事實上,我們都不知道它們具體是什麽東西。看上去這些概念都很容易理解——畢竟我們都擁有它們——但我們沒有辦法用科學的方式來定義或者衡量它們。從科學意義來講,我們無法證明它們真實存在,但根據個人經驗和常識,它們確實存在。赫歇爾能夠用一個實驗來解決他的問題,使用了很好理解、可以量化的物理概念:溫度、能量,等等。我們根本沒有這樣的測試來研究思想或者意識:它們不適合被客觀觀察或測量。沒有標準的科學單位來衡量思想或者主觀意識,甚至沒有直接的方法來確定如何衡量它們——我看不出你在想什麽,我也無法明白你的感受。從曆史上看,我們對人腦結構和運作的大部分了解都是通過研究那些因疾病或創傷而大腦受損的人獲得的,但這很難成為一個係統的研究項目。雖然像核磁共振成像之類的神經成像技術給我們提供了大腦結構和運作的重要見解,但它們並不能讓我們了解個人的主觀體驗。
當然,盡管沒有精確定義,我們還是可以確定一些在討論意識時出現的共同特征。
我們需要先確定一個重要的觀點,意識產生於有主觀感受的智能體,擁有主觀上的內在感受性。重點就在於對內在心理現象的感知,哲學上稱之為感受性。這個名字挺別致,不過含義其實很簡單:感受性是指所有人都會經曆的精神感覺,比如咖啡的味道。讓我們暫停一下,先想一想這個香味,或者,幹脆去給自己煮上一杯,吸入那個香氣。你所經曆的那種感覺,就是感受性的實例。在炎熱的夏天喝一杯冰啤酒的經曆,從冬天到春天氣候開始轉暖的經曆,我的孩子們在探索新事物上取得成功讓我感覺到開心的經曆……這些感受都是定性的:你能夠了解它們,並且自己也很享受其中,但矛盾的是,盡管我們談論的是相同的經曆,但我並不確定你的感受是否跟我一樣。因為感受性——以及其他心理體驗——本質上都是私人的。我聞到咖啡香時候的精神體驗隻有我自己能理解,我無法判斷你是否有過類似經曆,即使我們可以用同樣的詞句來描述它。
1974年,美國哲學家托馬斯·內格爾(Thomas Nagel)對意識的爭論做出了最著名的貢獻[145],內格爾提出了一種測試方法,通過這個測試,人們可以分辨出某個事物是否具有意識。假設你想知道下方列表中的事物是否是有意識的:
·一個人
·一隻猩猩
·一條狗
·一隻老鼠
·一條蚯蚓
·一個烤麵包機
·一塊石頭
內格爾提出的測試是對上述實體思考問題“成為一個X是什麽樣的感覺”。如果我們認為成為一個X是有感受的(這裏的X可能是人,可能是猩猩),那麽內格爾就認為,這個智能體X是有意識的。看看上麵的列表,這個問題應用到人身上,結論是肯定的。猩猩呢?我想成為一隻猩猩應該也是有感受的,狗和老鼠也一樣。因此,根據內格爾的測試,猩猩、狗和老鼠都是有意識的。當然,這並非它們確實有意識的“證據”,我們在這個問題上不得不依賴常識而不是客觀事實。
蚯蚓呢?在這裏,我認為我們可能拿不準了。蚯蚓是一種很簡單的生物,根據內格爾的測試,成為一條蚯蚓會有感覺嗎?我很懷疑這一點,因此,根據內格爾的論點,蚯蚓是沒有意識的。當然,也有人會認為,蚯蚓也應該有一些簡單的意識,但我不得不堅持說,那跟人類的意識比起來,實在是太簡單了。不過,在烤麵包機和石頭的問題上,我不接受任何質疑:顯然它們都是無意識的。成為一個烤麵包機,可真的是毫無感覺。
內格爾的測試提出了一些重要的論點。
首先,意識並不是一個有或者無的東西,它是有層次的,從極端的成熟的人類意識,到另一個極端的蚯蚓的簡單意識。即使是人與人之間,也存在差異,一個人有意識的程度也會不同,取決於他們是否受酒精等外部因素的影響,或者僅僅是因為太過疲憊。
其次,意識對不同的實體而言是不同的。內格爾的論文是《成為一隻蝙蝠是怎樣的感受》,他選擇蝙蝠作為標題,是因為蝙蝠和人類差異非常大。內格爾的測試在蝙蝠這個實體上肯定是有意義的,根據內格爾的理論,蝙蝠具有意識。但是蝙蝠有我們沒有的感覺,尤其是聲呐,它們在飛行的時候發出超聲波,根據超聲波的回音來感知周圍環境。有些蝙蝠甚至能探測到地球磁場,並利用它進行導航——它們的體內自帶羅盤。人類沒有這項感知,因此,我們無法想象成為一隻蝙蝠的具體感受,盡管在內格爾測試中這個答案是肯定的。蝙蝠的意識與人類的意識完全不同,事實上,內格爾相信它超出了人類能夠理解的範疇,盡管我們仍可以確定它的存在。
內格爾研究的主要目的是對意識進行測試(“成為一個X是什麽樣的感覺”),並得出結論,有些意識超越了我們能夠理解的範疇(我們無法想象成為蝙蝠是什麽樣的感覺)。但他的測試也可以應用於電腦,大多數人似乎都相信成為一個電腦沒什麽感覺,就像烤麵包機一樣。
基於這個原因,有人用內格爾測試的論點來證明了強人工智能是不可能的,因為成為一個計算機是沒有感覺的。我個人並不接受這個結論,在我看來,“成為一個X是什麽感覺”不過是基於直覺的回答,直覺能夠很容易區分顯而易見的案例(比如猩猩和烤麵包機),但我不明白,在更微妙的情況下,或者在我們對自然界的體驗之外(比如人工智能領域),我們怎樣將直覺當作可靠的指引。也許我們無法想象成為一台計算機是什麽感受,僅僅是因為它與我們完全不同,但這並不意味著(至少對我來說)機器意識是不可能存在的——機器意識隻是跟人類意識不同而已。
試圖證明強人工智能不可能實現的觀點有許多,內格爾的觀點隻是其中之一,我們再來看看其中最著名的幾種。
強人工智能不可能存在嗎
內格爾的觀點基於一種常識,即人類是有生命的物體,這是人類特殊的地方。而計算機不同於人,它是沒有生命的,所以,強人工智能是不可能出現的。根據這一論點,我和老鼠的共同點比我和電腦的共同點更多,電腦和烤麵包機的共同點比它和我的更多。
對此我有異議。在我的觀念裏,不管人類有多麽了不起,最終也就是由一群原子組成的物體。人類和人類的大腦都是物理實體,遵守物理定律——即使我們目前並不太清楚這些物理定律是什麽。人類是非凡的、奇妙的、不可思議的生物,但從宇宙及其規律來看,我們並沒有什麽特殊性。當然,這不能回答一個難題,即一堆特定的原子是怎麽產生意識的——我們稍後會回到這個問題上。
美國哲學家休伯特·德雷福斯(Hubert Dreyfus)提出了“人類是特殊生命體”的變體理論。德雷福斯在批判人工智能的時候有一個主要觀點,人工智能的實際成就實在是配不上人工智能這個名字。在這方麵,他並非完全沒有道理。但他有一個具體的論點,用以否定強人工智能存在的可能性。即人類的許多行為和決策建立在“直覺”的基礎上,他認為直覺不像計算機要求的那樣精準。簡言之,德雷福斯認為,人類的直覺不能夠簡化為計算機程序那樣的步驟。
現在確實有大量的證據表明我們的許多決策不是基於明確或者嚴密的推理[146],我們經常做出決定,但無法闡明自己的理由。事實上,我們大多數決策都是這一類型。從這個意義上來說,我們確實依靠某種直覺。但這種直覺肯定是源自我們隨著時間推移獲取的經驗(要麽是通過進化獲得的經驗,要麽是通過基因傳遞給我們的經驗),即使我們無法在意識層麵上表達出來,這也並非什麽神秘的事情。而且,正如我們所看到的,計算機可以在經驗中學習,並成為有效的決策者,即使它們也無法清楚地表達自己決策的基本原理。
反對強人工智能存在的最著名論斷,來自哲學家約翰·希爾勒(Joln Searle),正是他創造了強人工智能和弱人工智能的術語,我們在第一章就了解過。他發明了一個名叫“中文房間”的場景,試圖證明強人工智能是不可能實現的。中文房間場景如下:
想象一個人被反鎖在一個房間裏,房門上有一個卡槽,他可以通過卡槽收到卡片,上麵寫著中文的問題。他自己不懂中文,但是房間裏有規則書,可以指導房間裏的人如何按照規則用中文寫一個答案,然後把它傳遞出去。此時此刻,這個房間(包括裏麵的一切)實際上正在進行一個“理解中文”的圖靈測試,房間裏提供的答案讓測試員相信測試對象是一個理解中文的人。
接下來,捫心自問:房間裏的人真正懂得中文嗎?希爾勒不這麽認為,房間裏的人不懂中文,房間本身也不懂中文,不管從什麽角度來看,整個處理過程都沒有表現出對中文的理解。這個人所做的一切不過是精確仔細地按照規則書的步驟給出問題的答案。他的人類智慧在這個場景裏麵僅僅用在盡職盡責遵守規則回答問題上。
顯然這個人所做的就是計算機的工作:簡單地按照一係列指令執行一係列步驟。他所執行的“步驟”就是計算機的指令。因此,根據希爾勒的觀點,按照同樣的道理,即使通過圖靈測試的計算機,也沒有表現出理解力。
如果希爾勒的觀點是正確的,那就意味著理解這種能力——強人工智能所需要的能力——是不能夠通過遵循步驟執行命令產生的。因此,用傳統計算機是無法實現強人工智能的。如果認可這一點,這個簡單的論點將扼殺人工智能的宏偉夢想。不管你的程序看上去擁有多麽出色的理解力,這都隻是一種錯覺:在程序的背後,沒有半點理解可言。
對於希爾勒的批評,人們提出了許多反對意見。
一個明顯的基於常識的反對意見就是中文房間根本不可能實現。除此之外,讓人去扮演計算機處理器的角色,也就意味著要花費上千年的時間來完成計算機一秒鍾之內能執行的指令。把相關的程序編碼成書麵指令的想法也是荒謬的:當今典型的大規模計算機程序將涉及大約一億行計算機代碼(以人類可以閱讀的方式印刷出來,恐怕得好幾萬冊書卷)。計算機可以在微秒級的時間內從內存中檢索指令,而中文房間的人的運算速度恐怕要慢數十億倍。考慮到這些實際情況,中文房間以及它所包含的一切,無法讓圖靈測試的詢問者相信它是一個懂得中文的人:也就是說,實際上它根本無法通過圖靈測試。
還有一種對中文房間的說法是,雖然房間裏的人沒有表現出對中文的理解,房間本身也沒有,但包含房間、人、說明書等的整個係統卻有著理解。事實上,我們如果在人腦中四處挖掘,試圖找到理解,也會一無所獲。雖然人類的大腦某些區域負責語言理解,但在這些區域中,我們也找不到希爾勒所定義的理解力。
我對希爾勒巧妙的思維實驗有著另一種解讀。中文房間難題,如果從圖靈測試的角度來看,是一種作弊,因為它沒有把房間當作一個黑盒。隻能說當我們往房間內部看的時候,在中文房間裏不存在理解。而圖靈測試要求我們隻看輸入和輸出,從輸入和輸出來判斷跟我們對話的是否真人。在我看來,爭辯一個計算機係統是否“真正”理解,這是沒有意義的。隻要事實上它所做的事情與理解中文的人類所做的事情毫無區別,即可。
另一種反對意見是說,也許智能無法用傳統的計算機實現,因為傳統計算機在數學上已經被證明了具有局限性。或許你還記得,圖靈的工作已經證明計算機能做什麽和不能做什麽——有些問題是計算機從根本上就無法解決的,但它們可以被明確界定。那麽,如果人工智能所追求的智能行為在以圖靈機為原型的計算機上都是無法實現的呢?圖靈本人將這個觀點作為強人工智能無法存在的一個可能性論據。大多數人工智能研究人員並不關心它,但是,正如我們之前經常看到的,什麽是可計算問題,這一直是人工智能發展曆程中的一大攔路虎。
身體還是心靈
現在我們轉向意識研究中最著名的難題:身體還是心靈問題。人體和大腦中的某些物理過程會產生意識思維,但它們究竟是怎麽形成的,為什麽會出現呢?神經元、突觸和軸突的物理世界與我們有意識的主觀體驗之間,到底存在什麽關係?這是科學和哲學中最古老也是最艱難的問題之一。澳大利亞哲學家大衛·查爾莫斯(David Chalmers)稱之為意識的難題。
有關這個課題的研究至少可以追溯到柏拉圖。在《斐德羅篇》一書中,他提出一種人類行為模型,大腦中的某個控製推理的部分就像馬車夫一樣,控製著兩匹馬的韁繩——其中一匹馬代表理性、高尚的渴望,另一匹代表不合理或者無意義的欲望。一個人一生的道路取決於他的馬車夫是如何控製這兩匹馬的。印度哲學經典《奧義書》裏也出現過類似觀點[147]。
把理性的自我視為馬車夫是一個很好的比喻,毫無疑問,它挺可愛的——我更傾向接受控製自我內心高尚和卑劣的部分這個理論——不過它也遇到了一個常見的心靈理論上的問題。柏拉圖把馬車夫想象成某種“心靈”,但他所得出的結論說,人類的心靈是由另一個心靈(即馬車夫)控製的,哲學上稱之為侏儒問題(侏儒的意思是“小個子的人”,在這個例子中,侏儒就是馬車夫)這樣的解釋是存在問題的,因為它實際上沒有解釋任何東西——隻是把心靈的問題用另一個心靈問題來描述而已。
不管怎麽說,“馬車夫”模型是存疑的,因為它指出推理是我們行為的主要驅動力,而有大量證據表明事實並非如此。例如,在一係列著名實驗中,神經科學家約翰-迪倫·海恩斯(Joln-Dylan Haynes)顯然能夠探測到受試者意識到自己做出最終決定的10秒前內心所做的決定[148]。
這個結果引發了各種各樣的問題,但最重要的一點是,如果有意識的思考和推理並不是我們決定做什麽的機製,那到底什麽才是呢?
進化理論告訴我們,人體擁有的各種特征都會給我們帶來進化優勢。所以,按照這個理論,我們可以捫心自問,意識思維給了我們怎樣的進化優勢?因為根據推測,如果它沒有給我們帶來進化優勢的話,它就不應該存在。
有一種理論認為,有意識的頭腦隻不過是我們身體產生各種行為的一種毫無意義的副產品,這一理論被稱為副現象論。如果有意識的心靈是一種副產物,那麽你的意識就不再是如柏拉圖所說的,掌控韁繩的馬車夫,它隻是一個坐在車上的乘客,幻想自己是馬車夫而已。
也有稍微中立一些的觀點,認為意識並不像柏拉圖說的那樣在我們的行為中起主導作用,而是我們大腦進行其他活動過程中以某種方式產生的——大概是一些在低等動物大腦中不存在的過程。畢竟,據我們所知,它們並不像人類那樣享受豐富的精神生活。
在接下來的內容中,我們將討論人類意識體驗的一個關鍵組成部分:我們的社會性,即我們理解自己和他人作為社會群體一部分的能力,以及能夠思考他人和他人如何看待我們的能力。這一關鍵能力很可能演變成在大型複雜社會群體中共同生活和工作的需要。為了理解這一點,我們將從英國進化心理學家羅賓·鄧巴(Robin Dunbar)進行的一項著名社交大腦研究開始。
社交大腦
鄧巴對一個簡單的問題很感興趣:為什麽人類(以及其他靈長類生物)的大腦比其他動物都大[149]?歸根結底,大腦是一個信息處理設備,它消耗了人體所產生能量的相當大一部分——通常的估算為20%。因此,靈長類生物會進化出更大的大腦,是因為它們需要處理更重要的信息。而考慮到龐大的能量需求,大腦必須產生一些實質性的進化優勢。但究竟是怎樣的信息處理需求,以及什麽樣的進化優勢呢?
鄧巴研究了一些靈長類生物,尋找它們可能需要增強信息處理能力的因素。例如,靈長類生物可能需要追蹤環境中的食物來源,或者靈長類生物需要更大的生活範圍以及覓食區域。然而,鄧巴發現,和靈長類生物大腦體積關係最密切的因素是平均社會群體規模,即靈長類生物社會群體中動物的平均數量。這就表明,靈長類生物需要更發達的大腦來成功維持龐大的社交群體,更準確地說,是尋找、維持和利用群體中的社會關係。
鄧巴的研究提出了一個有意思的問題:鑒於我們所知的人類大腦的平均大小,可以分析預測人類的平均群體規模是多少。通過分析,人們得出一個數值,被稱為鄧巴數,公認為150。也就是說,考慮到人腦的平均大小以及對其他靈長類生物的分析,我們估計人類社會群體的平均規模大約是150人,即一個人擁有穩定社交的上限人數大約是150人。鄧巴數是一個能引起人好奇心的數字,隨後的各種研究發現,這個數字在人類社會群體實際規模計算中反複出現。例如,新石器時代的農業村莊通常大約有150名居民。最近發現的一個有趣事實是,鄧巴數可以解釋我們在臉書等社交網站上積極接觸的朋友數量。
鄧巴數可以理解為人類大腦能夠管理的人際關係的最大數量。當然,不少人互動的人數是大於這個數字的,但鄧巴數是我們能夠真正保持的關係數量。
簡言之,如果這個分析是正確的,那麽人腦的不同之處在於它是一個社會性的大腦。與其他靈長類動物相比,人腦的容量更大,因為我們生活在龐大的社會群體中,這就要求我們有能力維持和管理大量的社會關係。
接下來的問題浮出水麵了,維持和管理這些社會關係到底意味著什麽?為了回答這個問題,我們將探討一個由著名美國哲學家丹尼爾·丹尼特(Daniel Dennett)提出的觀點,即我們如何用他所謂的意向立場的層麵來理解和預測人們的行為。
意向立場
我們環顧四周,試圖弄清楚我們看到的一切,似乎我們自然而然就能區分出智能體和其他對象。我們已經在本書中看到過智能體這個詞:在之前,它指代的是構建一個人工智能程序,代表我們獨立行動,理性地實現我們的偏好;而我們現在討論的智能體,從某種意義上來說,似乎是一種跟我們有著相似屬性的實體,就像有自主能力的演員。當一個孩子思考從一堆巧克力中選擇哪一塊,並仔細地選出時,我們看到了智能體的存在:有選擇,還有有思考、有目的性、有自主性的行為。相反,當一株植物從岩石底下冒頭,隨著時間推移,它掀開了岩石,我們卻看不到任何智能體性質:它是在以某種形式進行活動,但在活動中我們看不到思考,也看不到有意識的目的。
那麽,為什麽我們會把孩子挑選巧克力解釋為智能體性質的行為,而把植物生長解釋為一個無意識的行為呢?
為了理解這個問題的答案,想一想我們試圖解釋改變世界的過程時,可以從不同的層麵得到不同的解釋。其中之一是丹尼特所說的物理立場,它可以解釋一個實體行為。在物理立場中,我們使用自然法則(物理、化學等)來預測係統的行為結果。例如,丹尼特指出,當他釋放手裏的一塊石頭時,可以使用簡單的物理原理成功地預測石頭會落在地上,因為石頭有質量,它受到重力的作用。現在,雖然物理立場在解釋這種行為的時候非常有效,但無法應用於理解或者預測人類行為,這當然是不可行的,因為人類的行為太過複雜,無法用這種方式去理解。也許原則上可行(畢竟我們最終隻是一堆原子),但應用在實踐中是行不通的。就這一點而言,物理立場也不是理解計算機或者計算機程序行為的一種切實可靠的方法——典型的現代計算機操作係統的源代碼長達數億行。
另一種層麵是設計立場,在這種立場下,我們根據係統應該實現的目的進行理解,並預測係統行為,即它的設計目的。丹尼特舉了一個鬧鍾的例子,我們不需要使用物理定律去理解鬧鍾的行為,我們知道它是時鍾,就明白它顯示的數字指的是時間,因為時鍾就是用來顯示時間的。同樣,如果這個時鍾發出刺耳的鬧鈴聲,我們就明白它是被設定為在這個特殊時間點上開啟鬧鍾。因為在指定時間發出刺耳的噪音也是鬧鍾設計的目的。這種解釋不需要了解時鍾的內部機製,不需要了解鬧鍾的具體物質構成方式、力學作用等,隻需要了解它被設計出來的目的即可。
第三種層麵,也是我們最感興趣的,丹尼特稱之為意向立場[150]。從這個層麵看,我們將心理狀態——諸如信念、欲望等歸因為實體,然後使用與心理狀態有關的常識去預測實體將如何行動,假設它根據自己的信念和欲望做出選擇。最明顯的地方在於,我們解釋人類活動的時候,通常需要做出如下陳述:
珍妮認為天要下雨了,她希望自己能不被淋濕。
皮特想完成他的評分。
如果珍妮認為天要下雨了,又不想淋濕,我們可以預測她會穿雨衣或者帶把傘,或者壓根不外出。這些都是擁有上述信念和願望的理性智能體會采取的行為。因此,意向立場是具有解釋力的,它允許我們解釋人們做了什麽,以及他們將(可能)做什麽。
請注意,與設計立場一樣,意向立場對實際產生這些行為的內部構造是不關心的。這個理論同樣適用於機器和人類,我們將在下麵詳細討論。
丹尼特創造了意向係統這個術語,用來描述那些行為可以被有效理解和預測的實體,這些實體的行為可以歸因於它們的信念、欲望和理性選擇。
意向係統有著自然的層級結構,越往上越複雜。一階意向係統有著自己的信念和欲望,但沒有關於任何有關信念和欲望的信念和欲望。相比之下,二階意向係統能夠對信念和欲望產生信念和欲望。講起來很拗口,我們舉例說明:
一階意向係統:珍妮相信天要下雨了。
二階意向係統:邁克爾想要珍妮相信天要下雨了。
三階意向係統:皮特認為邁克爾想要珍妮相信天要下雨了。
在我們日常生活中,幾乎不會用到超過三階的意向立場等級(除非我們研究人工智能的活動,比如解決一個謎題),而且對我們大多數人而言,似乎超過五階就很難厘清了。
社會生物的屬性與我們使用意向立場密切相關,理由是它似乎能夠讓我們理解和預測社會中其他智能體的行為。當我們身處複雜的社會關係中,會陷入更高層次的意向思維中,於是個體的計劃(不管是我們自己還是我們觀察到的人)會受到其他智能體行為的影響,這裏的行為可以定義為可預期的有意識的行為。因而很明顯,意識思維在人類社會中普遍存在,我們也依靠它進行社交。回想一下我們在第一章中看到的愛麗絲和鮑勃的八字對話:
鮑勃:“我要離開你。”
愛麗絲:“她是誰?”
對於這個場景,用意向立場去解釋就很簡單,毫無爭議,也富有說服力:愛麗絲認為鮑勃移情別戀了,並且想采取相應措施(離開她),愛麗絲想知道那個人是誰(也許她希望挽回他),她相信詢問鮑勃會得到這個問題的答案。如果不從信念或者欲望的角度去分析,要在這種交流模式中解釋清楚愛麗絲和鮑勃的角色,以及他們的思維和計劃的明確特征,那會很難。
鄧巴研究了人類和其他動物的大腦體積與高階意向推理能力之間的關係。結果表明,高階意向推理能力大致上是大腦額葉相對大小的線性函數。由於大腦的體積與社會群體的大小密切相關,因此,對於大腦自然進化的解釋是為了滿足在複雜社會體係中對社交推理(高階意向推理)的需要。無論是集體狩獵、與敵對部落戰鬥、追求配偶(或許包括擊敗對手),或是獲得對盟友的影響力和領導權,理解和預測別人想法的價值不言而喻。回到鄧巴的論點,更大的社會群體會對更高階的社交推理提出更高的要求,從而解釋了鄧巴所確定的大腦體積和社會群體規模之間的關係。
回到我們最初的話題,意向層次似乎與意識程度密切相關。正如我們之前討論過的,典型的一階意向係統確實廣泛存在,但更高層次的意向性就意味著更高的門檻。人類擁有高階意向係統,但我不會接受任何人說服我相信蚯蚓也有。那麽,狗呢?你也許會說,狗能夠理解我的欲望(例如,它會相信我想讓它坐下來),但如果一隻狗能夠進行高層次的意向性推理,那也隻是一種相當有限或者經過專門訓練才能獲得的能力。有跡象表明,某些靈長類動物存在有限的高階意向性推理能力。例如,長尾猴會用警告聲向其他猴子表示有豹子前來襲擊(威脅到了猴群的生存)。有人觀察到它們也會發出欺騙性的警告聲,讓其他長尾猴相信自己正在被豹子攻擊[151]。這種伎倆的自然解釋似乎涉及更高層次的意向性推理:“如果我發出警告聲,其他猴子就會相信我正在被豹子攻擊,然後它們就會逃跑……”當然,人們也可以提出其他解釋來反駁這不代表高層次意向性推理。但是,盡管如此,這則逸事還是提供了某些非人類靈長類動物存在高階意向性推理的可能性的證據。
以高階意向性形式表現的社交推理似乎與意識相關。社交推理的進化足以支持複雜的社會網絡和大型社會群體。但為什麽社交推理需要意向性呢?我的同事彼得·米利肯(Peter Millican)提出,答案可能恰恰在於意向立場的計算效率。如果我有意識地利用自己的功能性動機——以欲望、信仰等形式,並且能夠把自己想象成別人,那麽這就使得我能夠比其他人更有效地預測他們的行為(在實際情況和想象的情況下)。例如,如果我偷了你的食物,而我站在你的立場上去思考,可以本能地感覺到(沒有經過計算)你會產生的那種憤怒,並預見你可能會采取報複措施,就會激發我去抵製偷東西的**。這是一個有趣的推測,但不管人類社交推理能力和意識之間的關係如何,我們不太可能很快得到明確的答案。所以現在讓我們回到我們的主題——人工智能,並考慮機器是否有能力進行社交推理。
機器有信仰和欲望嗎
意向立場在人類社會中扮演著重要的角色,但它也適用於其他實體。例如,針對一個傳統的開關,意向立場為我們提供了一個非常有意思的描述性解釋:當開關認為我們想傳輸電流的時候,開關會傳輸電流。我們通過輕觸開關來達成意願[152]。
然而,意向立場並不是理解和預測電燈開關行為最合適的方式,在這種情況中,采用物理立場或者設計立場要簡單得多。相反,對於開關的行為,是否能用意向立場進行合理的解釋,這取決於它對於有電流或者沒有電流的狀態認知,以及我們是否有打開電燈的欲望。雖然意向立場的解釋提供了關於開關電燈的準確預測,但是將它作為電燈開關與否的解釋,確實不切實際。
對於是否應該用意向立場來解釋機器行為,似乎存在兩個主要問題:意向立場的解釋是否具有合理性,以及是否具有可用性。約翰·麥卡錫是該領域頗富影響力的思想家,他對這兩個問題有如下看法[153]:
將某些信仰、知識、自由意誌、意圖、意識、能力或者願望歸屬於一台機器或者計算機程序是合理的,如果這種歸屬所表達的關於機器的信息和關於人的信息相同的話……對於已知結構的機器,比如恒溫器或者計算機操作係統,智力屬性的歸屬是最直接的。但應用於結構未知的實體,它同樣有用。
這段話太難理解了,所以我們試著展開解釋一下。首先,麥卡錫認為,對一台機器的意向立場的解釋應該表達出關於機器的信息,就如對人的意向立場會表達出關於人的信息一樣。當然,這是一個很高的要求——讓人想起圖靈測試的不可區分性。套用我們之前舉過的例子,如果我們聲稱一個機器人相信天在下雨,並且機器人想保持自身幹燥,那麽,如果機器人表現出理性智能體應該表現的行為,就跟人一樣,那麽這種聲稱(即歸屬)就是合理的。所以,如果機器人能夠做到的話,它會采取適當的措施避免自己淋雨受潮。如果機器人沒有采取措施,我們會認為,要麽它不相信在下雨,要麽它不想保持自身幹燥,要麽它就不合理。
最後,麥卡錫指出,當我們不了解一個實體的內部構造時,意向立場是最適用於解釋它的。意向立場提供了一種獨立於內部結構和操作(例如,它是人、是狗還是一台機器)來解釋和預測行為的方法。如果你是一個理性的智能體,有保持幹爽的願望,並且相信正在下雨,那麽我可以解釋和預測你的行為,而不需要了解你的任何其他信息。
通往有意識的機器之路
以上講述的一切,跟人工智能的宏偉夢想有什麽關係呢?現在,請讓我冒昧地提出一些具體的建議,展望一下通往有意識的機器之路,以及我們將如何製造它。(我期待著自己年老的時候再重讀這一節,看看預測是否準確。)
這是一項令人著迷的研究,取得的進展也是令人驚歎的,但是,我們很難看到這項研究通過一些簡單的進展或者突破就能製造出有意識的機器。因為這些研究正在解決的似乎不是跟意識有關的問題(當然,我不是在批評深度思維的研究,畢竟解決有意識的機器問題並不是他們研究的要點)。
鑒於以上討論,我對如何實現這個目標提出一些初步建議。假設我們有一個機器學習程序,它可以獨立學習,就像深度思維的智能體學習打磚塊遊戲一樣。它被放在一個需要有意義的、複雜的高階意向推理的場景中進行學習;或者是一個需要智能體說出複雜謊言的場景,這也意味著需要高階意向推理能力。又或者是在一個場景中,智能體學會了交流,並且能夠有意向地表達出自己和其他實體的意識狀態。我認為,如果一個人工智能的智能體係統能夠學會有意義地去做這些事情,那就是通往有意識的機器之路[155]。
我在這裏想到的是莎莉-安妮測試(Sally-Anne test),這個測試被用來幫助診斷兒童自閉症[156]。自閉症是一種嚴重而常見的精神疾病,在兒童時期就會表現出來[157]:
在兒童時期,自閉症的主要症狀表現為社交和交流的發育明顯不正常,典型表現是缺乏正常的靈活性、想象力和偽裝本能……自閉症的社交異常主要特征表現……包括缺乏眼神交流、缺乏正常的社交意識或者適當的社交行為,即“孤獨”,在互動中表現出片麵性以及無法加入社交團體。
典型的莎莉-安妮測試是給被測試的孩子講述或者表演一個小故事,通常是這樣的:
莎莉和安妮同在一間屋子裏,屋子裏有一個籃子,一個盒子和一顆彈珠。莎莉把彈珠放在籃子裏,然後離開了房間。當莎莉不在房間時,安妮從籃子裏把彈珠拿出來,放進盒子裏。後來,莎莉回到了房間,想玩彈珠。
然後孩子們會被問到一個問題:
“莎莉會去哪裏尋找彈珠?”
比較合理的答案是“去籃子裏找”,但要得出這個答案,受試者需要能夠對其他人的信念做一些推理:莎莉沒有看到安妮把彈珠放到盒子裏,所以莎莉相信彈珠就在她放置的地方——籃子裏。絕大多數自閉症兒童都會回答錯誤,而適齡的正常兒童幾乎總能正確回答。
在撰寫本書之時,人們已經開始研究機器學習程序如何學習原始的心智理論能力[158]。研究人員最近開發了一個名叫ToMnet(心智理論網絡)的神經網絡係統,它能夠學習如何對其他智能體建模,並在類似莎莉-安妮測試的情況下選擇正確的行為。然而,這項研究還處於一個非常原始的階段,解決莎莉-安妮測試問題還不足以證明人工智能擁有意識。但我認為,這是朝著正確方向邁出的第一步。它給了我們一個目標:能夠通過自主學習達到人類心智理論水平的人工智能係統。
它會像我們一樣嗎
討論人工智能和人類的共通之處,我們通常談及的是大腦。這是理所當然的:大腦是人體主要的信息處理器官,當我們執行諸如解決問題、理解故事等任務時,大腦起著很重要的作用。所以我們自然會把大腦類比成無人駕駛汽車的電腦,從我們的眼睛、耳朵和其他感覺器官接收和解析感官信息,並告訴我們的手、胳膊和腿應該做什麽。但這是一個極其簡化的模擬過程,因為真實的大腦是一個由各種組件緊密結合在一起的係統,這個係統包含的組件極其複雜,自從生命第一次出現在這個蔚藍色的星球上,這個係統作為一個單獨的有機體已經進化了數十億年。從進化的角度看,我們和類人猿也沒什麽區別——隻是有意向感知的類人猿而已。所謂的人類意識,應該在這個背景下做如此理解。
我們目前擁有的能力——包括意識思維——是進化推動了原始祖先的結果[159]。正如我們的手、眼睛、耳朵的進化一樣,人類的意識也在進化。人類成熟的意識並非一夜之間突現的,不像電燈那樣可以突然開或者關。我們祖先的最初意識大概與蚯蚓無異,慢慢地進化成了莎士比亞。遠古的祖先並沒有像我們這樣享受全方位的意識體驗,我們也不太可能像後代那樣享受到更為全方位的意識體驗。進化發展的過程沒有終結。
有趣的是,曆史記錄可以給我們一些線索,關於意識的某些元素是如何以及為何出現的。當然,有關的曆史記錄很少,我們不得不在大部分時間使用猜測的方式。但無論如何,這些線索很有意思。
雖然早在100萬年前我們的祖先就開始零星地利用火,但在大約50萬年前,原始人才開始普遍使用它。火給我們的祖先帶來了許多好處——它給了我們光明和溫暖,嚇跑了潛在的捕食者,擴大了食物的範圍。然而,為了避免火災,火的使用需要管理和維護,這就需要人們有合作的能力,以便輪流看管火堆、收集燃料等。這種合作或許促使了高階意向推理能力(為了理解彼此的願望和想法)的出現,還有可能催生出了語言能力。智人的語言能力似乎都是在同一時期內進化出來的,語言能力出現後,它的發展為人類進化帶來的好處自然是不言而喻的。
我們無法精準地重建進化的先後順序,以及它們帶來了哪些新的能力。但普遍的研究似乎很清楚,我認為我們可以找到隨著時間推移而出現的某些組成意識的部分。當然,這並不能回答意識是什麽這個難題,但至少給了我們一些可能有用的線索,可以解讀人類成熟的意識中一些必要的組成部分是如何以及為何出現的。它們也有可能進入死胡同,但最終,猜想也能引領我們走向更深入的理解。比起僅僅把意識當作一個無解之謎,它們總歸是提供了更多的線索。
在未來的某個時刻,我們會了解意識,就像我們現在了解驅動太陽的能量一樣。在那個時候,目前關於意識的各種辯論,可能會像核物理學家正確解釋太陽能量來源之前的各種理論一樣有趣。
假設我們完成了我提出的假說研究,即建造出有人類心智理論能力的機器,它能夠自主地學習處理複雜的高階意向推理,能夠建立和維持複雜的社會關係,能夠表達自己和他人心理狀態的複雜特性,那麽這些機器真的會有“心智”,能夠出現自我意識嗎?在目前的階段,我們無法解答這個問題。隻有當我們成功建造出這樣的機器以後,才能離答案更進一步。當然前提是,如果,我們有能力建造它的話。
[1] 1英裏≈1.61千米。
[2] 蛋白質折疊問題被列為21世紀的生物物理學的重要課題,它是分子生物學中心法則尚未解決的一個重大生物學問題。蛋白質可在短時間中從一級結構折疊至立體結構,研究者卻需要花大量時間從氨基酸序列計算出蛋白質結構,而且難以得到準確的三維結構。
[3] 一部禁止使用、儲存、生產和轉讓對人具有殺傷力的地雷,及銷毀、完全禁止一切殺傷地雷的公約[160]。