詞匯表
A*:人工智能中使用最廣泛的啟發式搜索方法,是斯坦福研究所SHAKEY項目的一部分,於20世紀70年代早期開發。在A*之前,啟發式搜索是一種相當特殊的技術。A*讓啟發式搜索建立在堅實的數學基礎上。
AlexNet:一個突破性的圖像識別係統。該係統在2012年實現了圖像識別的巨大改進,是一個具有裏程碑意義的深度學習係統。
AlphaGo:一個突破性的圍棋遊戲係統,由深度思維的團隊開發。2016年3月,在韓國首爾舉行的一場比賽中,AlphaGo以4∶1的成績擊敗世界圍棋冠軍李世石。
ceteris paribus preferences:即“盡可能保持其他條件不變”,這個概念是指我們在給人工智能係統說明自己的偏好時,希望它執行任務的前提是“盡量保持其他事物不變”(即盡可能讓其他的事物保持原來的狀態)。
Cyc工程:基於知識的人工智能時代中,最著名也是得到負麵評價最多的實驗。它試圖通過提供一個受過合理教育的人類所擁有的關於世界的一切知識來構建一個通用人工智能係統,但最終失敗了。
Cyc假說:一種假設,即人工智能主要的問題是知識問題。一個擁有全麵知識庫的人工智能係統可以等同於通用人工智能。
DENDRAL:一個經典的早期專家係統,幫助用戶識別未知的有機化合物。
ELIZA:20世紀60年代由約瑟夫·魏岑鮑姆開發的會話式人工智能開創性實驗,ELIZA用簡單的封裝腳本來模擬心理醫生。
HOMER:20世紀80年代開發的一種智能體,它在模擬的“海洋世界”環境中運行。HOMER可以使用(一部分)英語與人交互,被指派在海洋世界完成任務,並對自己的行為有一些常識性的理解。
ImageNet:一個由李飛飛開發的帶有標簽的大型在線圖像檔案庫,在訓練深度學習程序為圖像添加標簽的領域有著深遠影響。
LISP:在符號人工智能時代被廣泛應用的編程語言,由約翰·麥卡錫開發。LISP機器是專門設計來運行LISP編程語言的計算機。另請參見PROLOG。
MYCIN:20世紀70年代出現的經典專家係統,它充當醫生的助手,診斷人類血液疾病。
NP完全問題:一類無法有效解決的計算問題。NP完全性理論是20世紀70年代發展起來的,在此期間許多人工智能問題被發現是NP完全問題。另請參見P與NP問題。
PROLOG:一種基於一階邏輯的編程語言,在基於邏輯的人工智能時代特別流行。
P與NP問題:P代表“多項式時間”, NP代表“非確定性多項式時間”,從技術上講,P與NP問題指的是在非確定性多項式時間內可以解決的問題是否可以在多項式時間內解決。NP完全問題是否一定能夠在多項式時間內解決?這是當今數學中最大的難題之一,在短期內可能無法解決。
R1/XCON:20世紀70年代美國數字設備公司開發的經典專家係統,旨在幫助他們配置VAX係列計算機。這是早期人工智能的盈利案例。
SHAKEY:20世紀60年代末,斯坦福研究院在自主機器人方麵進行的有重大意義的實驗,開創了幾項關鍵的人工智能技術。
SHRDLU:人工智能黃金時代出現的著名係統,後來因為專注於模擬的微觀世界而廣受非議。
STANLEY:贏得2005年美國國防高級研究計劃局頂級挑戰賽冠軍的無人駕駛汽車,由斯坦福大學開發,自動駕駛大約140英裏,平均時速19英裏。
STRIPS:一個影響深遠的計劃係統,在斯坦福研究院的人工智能項目中使用。
阿西洛瑪人工智能準則:2015年和2017年,人工智能科學家和評論員在加利福尼亞州阿西洛瑪舉行了兩次會議,製定了一套關於人工智能倫理的準則。
包容式體係結構:一種行為人工智能時代的機器人體係結構,將機器人可能的行為組織成一個層次結構,越是底層的行為,優先級就越高。
貝葉斯定理/貝葉斯推斷:貝葉斯定理是概率論的一個核心概念,在人工智能中,它為我們提供了一種在得到新數據或者證據時調整人工智能信念庫的方法。最關鍵的是,新的數據可能隻是“噪音”或者不夠確定的數據。貝葉斯定理為我們提供了處理此類不確定信息的正確方法。
貝葉斯網絡:一種知識表述方案,用於捕獲基於概率的數據之間產生的複雜網絡。使用基於貝葉斯定理的貝葉斯推斷來構成。
本體工程:在一個專家係統中(更普遍地說是在一個基於知識的人工智能係統中),這是一個定義概念詞匯表的任務,這些詞匯表被用來表示係統中的知識。
博弈論:一種基於全局的推理理論,在人工智能中被廣泛用於構造人工智能係統和其他係統交互的框架。
不可判定問題:從精確的數學意義上來講,某個問題無法用計算機(或者更確切地說,圖靈機)來解決,即為不可判定問題。
不確定性:人工智能普遍存在的一個問題。我們接收到的信息很少是確定的(即確切為真或者為假),通常會具有不確定性。同樣,當我們做決策的時候,也很少確切地知道決策後果是什麽:通常有多種可能性結果,隻是每種結果出現的概率不同。因此,處理不確定性是人工智能的一個基本主題。另請參見貝葉斯定理及附錄C。
不確定性選擇:在這種情況下,我們所做的選擇可能有多種結果,而我們所知的,是對於每一個可能的選擇,其結果發生的概率。參見預期效用。
不通情理的實例化:人工智能係統按照使用者的要求達成任務,但並沒有按照使用者預期的方式去做。
(神經網絡的)不透明性:神經網絡的專業知識都被編碼在一係列的權重數字中,我們無法分辨這些權重的“含義”。這意味著目前的神經網絡不能解釋或者證明它們的決策。
常識推理:這是一個寬泛的術語,基本上人類都有能力做出有關世界的常識性的推斷,但這對基於邏輯的人工智能來說非常困難。
城市挑戰賽:2007年美國國防高級研究計劃局頂級挑戰賽的後續挑戰賽,在城市挑戰賽中,無人駕駛汽車必須能夠自主穿越城市環境。
觸發:在基於知識的人工智能係統中,如果在工作存儲器中的信息與規則的前因條件正確匹配,那麽規則就會被觸發,從而允許我們將規則的後果結論添加到工作存儲器中。
觸發閾值:即人工神經元被觸發的臨界值。人工神經元接收大量的信號輸入,其中可能隻有一部分輸入被激活,當被激活的輸入的權重值超過觸發閾值時,神經元會被“觸發”(即產生一個輸出)。
初始狀態:在解決問題中,初始狀態描述了我們在執行任務之前呈現的狀態。另請參見目標狀態。
傳感器:給機器人提供原始感知數據的裝置。典型的傳感器有攝像機、激光雷達、超聲波測距儀和碰撞探測器。解釋原始感知數據是人工智能的重大挑戰之一。
道德機器:一個在線實驗,在這個實驗中,用戶被問及在各種電車難題中應該做出什麽樣的選擇。
道德智能體:如果一個實體能夠理解其行為的結果以及有是非的觀念,並且能夠因此對其行為負責,那它就是一個道德智能體。主流觀點認為,人工智能係統不應該,事實上也不可能被視為道德智能體。道德責任在於構建和運行人工智能係統的人,而不是係統本身。
電車難題:倫理學中的一個問題,最早出現於20世紀60年代:如果你無作為,有5個人會死亡,而如果你采取行動,那麽另外1個人會死亡。你應該行動嗎?通常在無人駕駛汽車背景下討論,盡管大部分人工智能研究員認為無關緊要。
頂級挑戰賽:美國國防高級研究計劃局組織的無人駕駛汽車競賽,2005年10月,由STANLEY機器人獲得勝利,標誌著無人駕駛汽車時代的到來。
對抗性機器學習:機器學習的一個分支,人們給程序輸入容易導致錯誤輸出的數據,試圖欺騙機器學習程序,雖然這些輸入的結果對人類而言是“顯而易見”的。
多層感知器:多層神經網絡的早期形式。
多層神經網絡:將神經網絡組織成一係列多層級網絡的標準方法,每層的輸出作為下一層的輸入。早期神經網絡研究的一個關鍵問題是沒有辦法訓練多層神經網絡,而單層神經網絡的能力又十分有限。
多智能體係統:多個智能體相互作用的係統。
反向傳播:訓練神經網絡的一種重要算法。
反向推理:在基於知識的人工智能係統中,我們從試圖建立的目標(例如“該動物是食肉動物”)開始,試圖通過使用我們所掌握的數據來驗證目標是否合理(例如“如果動物會吃肉,那麽該動物是食肉動物”)。與正向推理相對。
分支因子:在解決問題的時候,每次做決定時必須考慮的備選方案的數量。在玩遊戲的時候,分支因子即你在任何棋盤位置上平均可能移動的次數。在井字棋遊戲中,分支因子約為4;在國際象棋中,約為35;在圍棋中,約為250。較大的分支因子會導致搜索樹很快變得龐大到難以想象,因此需要使用啟發式搜索來優化。
符號人工智能:一種人工智能類型,包括明確的推理建模和規劃過程。
副現象論:一種意識研究的觀念,即意識是身體內部機械運動的結果,是物質運動之後伴隨出現的次生現象。
感受性:個人心理體驗。比如聞到咖啡味,或者在熱天喝冷飲之類。
感知:了解周圍環境的過程。它是符號人工智能的根本症結所在。
感知器/感知器模型:一種神經網絡,起源於20世紀60年代,但至今仍是有價值的。對感知器的研究在20世紀70年代早期就逐漸停止,因為當時有研究表明單層感知器模型所能學習的東西有著嚴重局限性。
高級編程語言:一種隱藏程序運行時實際計算機底層操作的編程語言。高級編程語言至少在原則上是獨立於機器的:同一個程序可以在不同類型的計算機上運行,比如Python和Java。約翰·麥卡錫開發的LISP就是早期的高級編程語言例子。
功利主義:應該選擇讓社會福利最大化的行動的觀點。在電車難題中,功利主義者會選擇殺死一個人來挽救五個人的生命。另請參見美德倫理學。
工作存儲器:在專家係統中,工作存儲器裏包含了正在解決問題的信息(與編碼在規則中的知識相對)。
規則:一種離散的知識。以“如果……那麽……”的形式表示,例如,規則“如果動物有**,那麽該動物為哺乳動物。”它告訴我們,如果我們知道某動物是有**的,那麽我們可以據此得到新的信息,即該動物為哺乳動物。
後果結論:專家係統的“如果……那麽……”規則中,“那麽”後麵跟隨的部分即為後果結論。例如,在規則“如果動物有**,那麽該動物是哺乳動物”中,後果結論是“該動物是哺乳動物”。
極大極小值搜索:遊戲開發使用的關鍵搜索技術之一,在遊戲中,你試圖使自己的利益最大化,而你的對手會試圖使你的利益最小化。另請參見搜索樹。
積木世界:一個模擬的“微觀世界”,人工智能在其中的任務是擺放各式各樣的物體,如方塊或者盒子。其中最著名的是SHRDLU所在的積木世界,隨後因為抽象了人工智能係統在現實世界中所麵臨的諸多真正困難的問題——尤其是感知問題——而廣受批評。
機器人三定律:科幻作家艾薩克·阿西莫夫在20世紀30年代提出的三條定律,是一種規範人工智能行為的倫理框架。雖然它們非常巧妙,但實際上不可能直接在人工智能編碼中實現,甚至無法被明確定義。
機器學習:智能係統的核心功能之一。機器學習程序學習輸入和輸出之間的關聯,而不需要明確告訴它按照怎樣的步驟去執行。神經網絡和深度學習是機器學習的常用方法。
基於邏輯的人工智能:一種人工智能係統構建方法,其中的智能決策被簡化為邏輯推理,例如一階邏輯。
基於行為的人工智能:1985年至1995年期間,一種獲得了廣泛關注的取代符號人工智能的係統。該係統在構建的時候更為關注係統應該表現出的行為,再去考慮這些行為是如何關聯的。包容式架構是構建基於行為的人工智能係統最流行的方法。
基於知識的人工智能:1975年至1985年間,人工智能的主流範式。使用明確的知識來解決問題,通常以規則的方式編碼。
基於智能體的交互界麵:通過人工智能驅動的軟件智能體來實現計算機界麵操作的想法。軟件智能體與使用者共同工作,智能體是一個主動的助手,而不是像常規計算機應用程序那樣隻能被動地等待使用者告訴它做什麽工作。
監督式學習:機器學習最簡單的形式,通過向程序展示輸入和期望輸出的實例來訓練程序。另請參見訓練。
獎勵:強化學習程序對其行動的反饋,獎勵可能是正麵的,也可能是負麵的。
腳本:20世紀70年代發展起來的一種知識表述方案,旨在捕捉常見情況下常規事件的序列。
精神狀態:意識的一個重要組成部分,包括欲望、信念和偏好等。另請參見意向立場。
可判定問題:即可以使用算法解決的問題。
萊特希爾報告:20世紀70年代初,英國的一份關於人工智能的報告,對當時的人工智能研究提出了嚴重的質疑。該報告直接導致了人工智能研究經費大幅削減,普遍認為該報告是導致人工智能寒冬出現的因素之一。
邏輯:推理使用的正規框架。另請參見一階邏輯和基於邏輯的人工智能。
邏輯編程:一種編程方法,我們簡單地陳述對問題的了解和我們的目標,然後剩下的由機器去執行。另請參見PROLOG。
旅行機:20世紀90年代中期出現的一種典型的智能體設計。它將智能體的控製係統分為三層,分別負責反應、計劃和建模。
美德倫理學:當麵臨倫理問題時,確定一個道德智能體,他體現了我們所注重的道德原則,然後他的選擇就是我們應該去做的選擇。
目標狀態:在問題解決中,目標狀態描述了我們成功完成任務時希望看到的狀態。
納什均衡:博弈論裏的一個核心概念,如果任意一位參與者在其他所有參與者的策略確定的情況下,其選擇的策略都是最優的,那麽這個組合就被定義為納什均衡。
逆向強化學習:機器學習程序觀察人類的行為,試圖從觀察中學習到獎勵係統。
判定問題:判定問題是指答案可以用是/否來回答的數學問題。例如“16的平方根是4嗎?”和“7920是質數嗎?”之類。艾倫·圖靈解決了判定問題,即是否所有的數學判定問題都是可判定的。他指出有一些判定問題(尤其是停機問題)無法用算法來解決,這種類型的問題即是不可判定問題。
偏好/偏好關係:對於所有可供選擇的事物,你按照偏好程度進行排序。如果想要一個智能體代表你行事,它需要知道你的偏好,才能為你做出最佳選擇。
普羅米修斯工程:20世紀80年代歐洲無人駕駛汽車技術的開創性實驗。
奇點:機器智能超越人類智能的假設節點。
啟發式搜索:一種利用“經驗法則”來決定集中搜索方向的方法,啟發式搜索是基於經驗法則的,所以無法保證搜索方向一定正確。另請參見A*。
嵌入(智能體):行為人工智能時代的一個中心思想,大意是指人工智能的進步需要開發真正嵌入某個環境中並且能夠作用於該環境中的智能體,而不是脫離實體開發(專家係統通常就是這樣)。
前提:在邏輯上,前提是你最初掌握的知識,你要使用邏輯推理等方式從前提中得出結論。
前因條件:專家係統的“如果……那麽……”規則中,“如果”後麵跟隨的部分即為前因條件。例如,在規則“如果動物有**,那麽該動物是哺乳動物”中,前因條件是“動物有**”。
強化學習:一種機器學習的形式,讓智能體在環境中進行活動,並以獎勵的形式接受對其行為的反饋。
強人工智能:強人工智能的目標是建立一個真正有思維和意識等的人工智能係統,另請參見弱人工智能和通用人工智能。沒有人知道強人工智能是否能實現,以及它會是什麽樣子。
(神經網絡中的)權重:在神經網絡中,神經元之間的連接(軸突)被賦予了權重數字。權重越大,連接對神經元的影響就越大。神經網絡最終歸結於這些權重值,而訓練神經網絡的目的就是找到合適的權重值。
人工智能的黃金年代:人工智能研究的早期,大約從1956年到1975年(緊接著就是人工智能寒冬)。這一時期的主要研究集中在“分而治之”的方法上:構造能夠展示智能行為組成部分的係統,希望它們在以後能夠被集成為通用人工智能。
人工智能寒冬:指20世紀70年代早期,萊特希爾報告發表後的一段時間。該報告對人工智能極盡批判之事。在人工智能寒冬中,研究經費大幅削減,整個人工智能領域都遭受質疑。人工智能寒冬出現在基於知識的人工智能係統興盛之後。
軟件智能體:在軟件環境中而不是像機器人那樣在物理環境中存在的智能體。可以把軟件智能體視為軟件機器人。
弱人工智能:構造雖然沒有具備人類的理解力(意識、思維、自我意識等),但是可以模擬出相應能力的程序,即為弱人工智能。另請參見強人工智能和通用人工智能。
莎莉-安妮測試:一種心理測試,目的是確定被測試者是否有心智理論能力,即對他人的欲望和信念進行推理的能力。這項研究最初是為了測試自閉症。
社會福利:“社會的總體幸福感”,社會整體狀況如何,是社會福利的一種衡量方式。
設計立場:試圖根據某個實體的設計意圖來理解和預測它的行為。例如,時鍾是用來顯示時間的,所以我們可以把它顯示的數字理解為時間。與物理立場和意向立場形成對比。
實體程序:人工智能程序中表示偏好的標準技術。給所有可能出現的結果附加數值表示偏好程度,稱為實體程序。然後,人工智能係統試圖計算行動過程,得出效用最大化的結果,即偏好程度最高的結果。另請參見預期效用和預期效用最大化。
深度學習:21世紀出現的推動機器學習研究興起的突破性技術。其特點是使用更深層次結構、互聯性更高的神經網絡,以及更龐大、更精心策劃的訓練數據和一些新技術。
深度優先搜索:一種用於解決問題的搜索技術,在深度優先搜索中,並非逐層展開搜索樹,而是沿著搜索樹的一個分支向深度展開。
神經網絡:一種利用“人工神經元”進行機器學習的網絡構造,深度學習中的基本技術。另請參見感知器。
神經元:即神經細胞。神經元彼此相連,並通過軸突傳導信息。大腦的基本信息處理單元,也是神經網絡的靈感來源。
身體還是心靈問題:科學中最基本的問題之一,即大腦/身體中的物理過程如何與意識體驗相關聯?
搜索/搜索樹:一種基本的人工智能問題解決技術,計算機程序試圖從初始狀態開始,采用有限的步驟,尋找如何轉化成目標狀態的方法。
算法偏見:人工智能係統在做決策的時候可能會表現出偏見。其原因可能是使用了有偏見的數據集進行訓練,或者是軟件設計不當。偏見可能以分配傷害或代表性傷害的形式出現。
特征:分段的數據組成,機器學習程序依賴它進行學習以做決策。
特征提取:在機器學習中,決定在一個數據集中選擇哪些屬性作為訓練數據。
梯度下降:訓練神經網絡時使用到的一種技術。
通用人工智能:這是個宏偉的目標,即建立一個擁有人類所擁有的全部智能能力的人工智能係統:計劃、推理、參與自然語言對話、開玩笑、講故事、理解故事、玩遊戲——所有的一切。
通用圖靈機:現代計算機的原型。雖然圖靈機通常隻能編碼一種特定的步驟或者算法,但通用圖靈機可以執行任意的算法。
突觸:神經元之間的“連接點”,讓它們能夠交流信息。
圖靈測試:由艾倫·圖靈提出的一種測試,用來解決機器是否能“思考”的問題。如果你與一個實體互動一段時間後,你不能分辨出它是一台機器還是一個真人,你就應該接受它具有類似人類智能的結論。它很有創意,也很有影響力,但是在人工智能測試領域,不必把它奉若圭臬。
圖靈機:一種包含著解決特定數學問題的特殊步驟的機器。任何可以用計算機解決的問題都可以用圖靈機解決。由艾倫·圖靈發明,用來解決判定問題。另請參見通用圖靈機。
(不完備的)推理:在邏輯學中,得出的結論並不是前提所能保證得出的。另請參見(完備的)推理。
(完備的)推理:如果從前提中能夠正確得出結論,那麽推理就是完備的。
推理機:專家係統中負責推理的部分,從工作存儲器的規則和事實中獲得新知識。
維度詛咒:在機器學習中,包含更多特征的訓練數據會導致訓練數量劇增。
危害評估風險工具:一個機器學習係統,用來幫助英國杜倫的警察決定是否應該拘留某人。
威諾格拉德模式:圖靈測試中的一種模式。兩個句子隻有一個單詞不同,但卻具有完全不同的意思。這項測試需要被測試者理解不同之處。威諾格拉德模式中,必須理解文本以後才能正確回答,旨在識別出在圖靈測試中使用一些小伎倆來欺騙詢問者的被測試者。
問題解決:在人工智能中,問題解決意味著尋找到正確的行動順序,將問題從初始狀態轉換為目標狀態。搜索是人工智能中問題解決的標準方法。
物理立場:試圖通過物理結構和物理定律來預測和解釋一個實體的行為。與設計立場和意向立場形成對比。
烏托邦主義者:相信人工智能和其他新技術將帶領我們走向一個烏托邦式的未來的人(技術將使人們從工作中解脫等)。
狹義人工智能:和通用人工智能相對,構建專注於解決非常具體問題的人工智能係統,而不是試圖讓人工智能係統擁有人類全部的智能能力。這個詞主要見諸媒體,人工智能研究界極少使用。
先驗概率:在得到進一步信息之前,你先假設一個概率。在這個意義上,“先驗”意味著“在得到更多信息之前”。
信念:人工智能所掌握的有關其環境的信息。在基於邏輯的人工智能中,係統所擁有的信念即知識庫和工作存儲器中的信息。
信用分配:機器學習中出現的一個問題:決定機器學習程序的哪些動作是好的,哪些是壞的。例如,你的機器學習程序輸掉了一盤棋,它如何得知具體哪一步是導致輸棋的關鍵步驟呢?
心智理論:臨**表現正常的成年人對他人的精神狀態(信念、欲望、意圖等)進行推理的普遍能力。另請參見意向立場和莎莉-安妮測試。
(機器學習中的)訓練:機器學習程序的任務是學習輸入和輸出之間的關聯,而無須被告知它們之間是如何關聯的。為了做到這一點,程序通常是通過給出輸入和相應輸出的示例來進行訓練。另請參見監督式學習。
演繹:即邏輯推理,從現有的知識中獲取新的知識。
易處理:如果某個問題能夠被一種有效算法所解決,這個問題可以被認為是易處理的。NP完全問題就不是易處理問題:我們沒有有效算法解決它們。另請參見P與NP問題。
一階邏輯:一種通用的語言和推理係統,為數學推理提供了精確的基礎。在基於邏輯的人工智能範式中得到廣泛研究。
意識的難題:理解物理過程如何以及為何會導致主觀意識體驗的問題。另請參見感受性。
意向立場:預測和解釋某個實體的思想,將其歸因到實體的心理狀態上,如信念或者欲望,並假定該實體根據這些信念和欲望理性地行動。與物理立場和設計立場形成對比。
意向係統:任何可以使用意向立場來描述的係統。
湧現性質:組成係統的每個組件都會表現出某種特性,當這些特性發生交互的時候,通常會以一種意外的或者不可預測的方式產生新的特性。
預期效用:在不確定條件下的判定問題中,某一特定決策方案的預期效用是指在此選擇下平均獲得的收益。
預期效用最大化:在不確定條件下的決策中,當在多個方案中做出選擇時,理性的智能體將選擇平均收益最大的方案,即預期效用最大化方案。
語義網:一種知識表述方案,使用圖形表示法來捕獲概念和實體之間的關係。
正向推理:在基於知識的人工智能係統中,從信息中推理得出結論。與反向推理相對。
製訂計劃:即尋找到將初始狀態轉變成目標狀態的一係列操作。另請參見搜索。
知識表述:以計算機可以處理的形式顯示編碼知識的問題。在專家係統時代,主要的方法是使用規則,盡管邏輯也被廣泛應用於知識表述。
知識導航器:蘋果公司在20世紀80年代推出的一款概念視頻,引入了基於智能體的交互界麵的思想。
知識工程師:受過構建知識係統訓練的專業人士,知識工程師致力於研究如何進行知識獲取。
知識獲取:在建立專家係統時,從相關人類專家中提取和編碼專家知識的過程。
知識庫:在專家係統中,知識庫由人類專家的知識組成,通常以規則的方式編碼。
知識圖譜:穀歌開發的一個龐大的基於知識的係統,自動從萬維網上獲取知識構建。
中文房間:哲學家約翰·希爾勒提出的一種設想,試圖以此證明強人工智能不可能存在。
軸突:神經元與其他神經元連接的組成部分。另見突觸。
侏儒問題:心理理論中的一個經典問題,當我們不經意間將心智的問題用另一個心智來解釋的時候,就會出現這個問題。
智能體:一種功能比較完善的人工智能係統,通常集成了多種不同的人工智能功能,以便代表使用者自主工作。智能體通常被假定嵌入某個環境中,並在該環境中積極工作。
專家係統:一種使用人類專家知識來解決嚴格限製範圍內問題的係統。典型的專家係統有MYCIN、DENDRAL和R1/XCON。從20世紀70年代末到80年代中期,構建專家係統是人工智能研究的重點。
自然語言理解:程序可以用人類的自然語言(如英語)進行交互。
組合爆炸:在連續選擇中,選擇的可能性等於選擇的次數與備選可能性相乘。這是人工智能所麵臨的一個基本問題,在搜索中出現,它會導致搜索樹以極快的速度增長。