第八章 現實中的人工智能會導致什麽問題
雖然我對出現奇點的可能性持懷疑態度,但這並不意味著我認為人工智能安全無虞。畢竟,人工智能是一門通用技術:它的應用僅僅受限於我們的想象。所有的技術都可能產生意想不到的效果,未來幾十年甚至幾百年內都存在可能性。而且所有的技術都可能被濫用。我們的無名氏祖先率先用上了火,我們不可能因為他沒預料到燃燒化石燃料將導致氣候變化而怪罪於他。英國科學家邁克爾·法拉第(Michael Faraday)於1831年發明了電動機,他也沒預料到會產生電椅這種刑具。1886年獲得汽車專利的卡爾·本茨(Karl Benz)肯定無法預言,他的發明在未來的一個世紀裏會造成數百萬人的死亡。互聯網的發明者溫頓·瑟夫(Vint Cerf)可能也沒想到恐怖組織會利用他的發明分享可怕的殺人視頻。
就像這些技術一樣,人工智能也會產生負麵的影響,甚至可能會波及全球。像這些技術一樣,人工智能也有可能被濫用。這些後果或許不會像上一章我們提到的試圖消滅人類的《終結者》場景那麽富有戲劇性,但卻是我們以及我們的後代在未來幾十年中需要解決的問題。
因此,在本章中,我們會討論一些我認為在人工智能領域真正值得人們擔憂的東西,以及它們對未來的影響。最後,我希望你們會認同,人工智能領域可能會出現問題,但不是像好萊塢影片中那樣的問題。
我們將從就業和失業開始:人工智能將取代我們工作,這值得我們思考人工智能的存在和發展將如何改變人們的工作結構,以及人工智能擔任的職能和人類之間存在異化的可能性。這反過來促使我們思考人工智能技術的應用對人權的影響,還有致命性自主武器出現的可能性。然後我們將考慮算法偏見的問題,以及人工智能缺乏多樣性的問題,還有假新聞和假人工智能現象。
就業和失業
機器人會取代我們的工作,我們最好從現在開始早做打算,以免為時已晚。
——《衛報》, 2018年
除了《終結者》式的毀滅場景,有關人工智能最廣泛和令人恐懼的問題就是它將如何影響未來的職業結構,特別是它擁有使人失業的潛力。電腦不會疲憊、不會宿醉、不會吵架、不會抱怨、不會要求成立工會,也許最重要的是,它們不要工資。這就是它會讓雇主開心、雇員緊張的原因。
盡管類似“人工智能會讓你變成無用階層”的頭條新聞在過去幾年裏層出不窮,但這種恐慌並不是史上第一次出現。人類勞動的大規模自動化至少可以追溯到1760年至1840年之間發生的工業革命。工業革命代表商品製造方式的徹底改變,從小規模生產經營(家庭手工業)轉向我們今天熟悉的大規模工廠生產。
工業革命並不是由單一的技術突破推動的,而是一係列的技術進步,加上獨特的曆史和地理環境促成。英國通常被視為工業革命的發源地,大量本地和從美洲等殖民地運送來的棉花,集中在英格蘭北部的工廠進行加工。大英帝國不僅盛產棉花原料,還提供了龐大的成品市場,這為英國紡織工業的繁榮提供了經濟條件。從17世紀30年代開始,紡織品加工方麵的一係列技術革新使得人們可以製造出更大型、更快捷的紡織加工機器,它能夠穩定製造出高質量的紡織品,並且達到家庭手工業無法望其項背的規模。原材料通過利物浦和曼徹斯特大量進口,被帶到新興發展的工業城鎮。最初,紡織廠采用水動力,但煤動力蒸汽機的改良讓這項技術迅速得到廣泛應用,使工廠不再需要依賴普及性和穩定性都不好的水動力源。而因地製宜的英格蘭北部正好有著豐富的煤礦藏,為發動機提供燃料,煤礦城鎮和工業城鎮並駕齊驅,成為工業革命發展的有力支撐。
工業革命開創的工廠形式,使大多數人的工作性質發生了根本性的變化。工業革命前,大多數人直接服務於農業,工業革命把人們從農村帶到了工廠所在的城鎮,把他們的工作地點從田地和農舍搬到了廠房。他們的工作性質也變成了到今天仍然廣泛存在的類型:在工廠從事一項專業化、高度重複性的工作,作為涉及高度自動化生產流水線的一部分。
家庭手工業無法在價格、質量和商品一致性上與新技術競爭,手工業者隻能另謀高就(許多勞動力流入了新工廠),否則就會麵臨失業。社會發生了巨大的變動,但並不是所有人都喜歡這種改變。在19世紀初期,盧德派運動興起,盧德派是組織鬆散的團體,他們反抗工業化,焚燒和粉碎了工廠的機器——他們認為這些機器剝奪了他們的生計。但那隻是曇花一現的運動,很快就被英國政府扼殺。在1812年,英國政府將破壞機器定為可判死刑的重罪。
當然,1760年至1840年發生的隻是第一次工業革命,自那以後,技術一直在穩步發展,盧德派反抗工業化的兩個世紀以來,發生過好幾次類似的巨大變化。具有諷刺意味(並且悲哀)的是,在第一次工業革命中繁榮起來的工業城鎮,在20世紀70年代末80年代初又被另一次工業革命摧毀。這一時期傳統產業衰落的原因有很多,國際經濟全球化意味著,在歐洲和北美傳統工業地區製造的商品,現在正被世界另一邊新興經濟體的商品所取代——因為更加低廉的生產成本。美國和英國倡導的自由市場經濟政策對傳統製造業十分不利,但是,最關鍵的技術“貢獻”應該是微處理器的發展,它讓工業裏麵大量非技術性工作得以全麵自動化。
微處理器發展是今天計算機技術得以實現的根本,它是一種係統部件,將計算機中央處理器的所有關鍵部件組合成單一、小型、便宜的單元。在微處理器出現之前,計算機體積龐大,價格昂貴,運行不穩定。微處理器使得計算機變得更便宜、更迅速、更可靠,而且體積縮小了許多,這讓自動化生產成為可能,特別是製造業。但英格蘭北部的工業城鎮因此遭受了致命打擊——40年前遭遇製造業寒冬後,它們至今仍未恢複元氣。
雖然自動化生產讓英國北部傳統製造業中心遭受滅頂之災,但我們必須明白,微處理器等新技術的發展總體是讓經濟活動淨值增長的。新技術創造了新機遇,創造了更多的企業、更多的服務和更多的財富。微處理器發展的情況也確實如此:新興技術創造的就業機會和財富比毀掉的多,隻是不在英格蘭北部而已。
勞動自動化也不是什麽新鮮事了,但現在令人擔憂的事情,就像以前自動化和機械化奪走了非技術工作一樣,人工智能可能會從我們手上奪走技術工作的機會。如果人工智能廣泛應用,留給我們人類的機會還有多少?
人工智能會改變現有的工作結構和性質,這一點是毋庸置疑的。我們隻是不清楚,這種改變是否會像工業革命那樣,具有戲劇性和顛覆性,還是會以更溫和的方式進行。
2013年,我在牛津大學的兩位同事卡爾·弗雷(Carl Frey)和邁克爾·奧斯本(Michael Osborne)撰寫了題為“就業的未來”的報告〈[113],引發了對這個問題的爭論。報告令人震驚地預測:在不久的將來,美國會有高達47%的工作崗位受到人工智能和相關自動化技術的影響。
弗雷和奧斯本將702種職業按照他們所認為的自動化程度進行分類。報告指出,被取代風險最高的職業包括電話銷售員、下水道疏通工、保險業務員、數據錄入員(實際上還有許多類似職業)、電話接線員、銷售員、雕刻工和出納員。有一定風險的職業包括治療師、牙醫、顧問、醫生(包括外科醫生)以及教師。他們的結論是:
我們的模型預測,大多數從事運輸和物流行業的工人,連同大部分辦公室和行政後勤人員,以及生產性職業的勞動者,都處於危險之中。
弗雷和奧斯本還總結出三個不會輕易被人工智能取代工作的特點。
首先,也許是理所當然的,需要創造性思維的工作被認為是安全的。創造性思維職業包括藝術類、媒體類和科學類。
其次,需要較強社交能力的工作也是比較安全的。那些需要理解和管理人際互動和微妙人際關係的工作,不會輕易被人工智能取代。
最後,他們指出,涉及靈敏感知和靈巧手工的工作也很難被自動化。在這裏,人工智能麵臨的問題是,雖然機器感知領域一直在進步,但在這方麵和人類相比還差得遠。我們可以快速理解高度複雜化和非結構化的環境,而機器人隻能應付規則的、結構化的環境,一旦超出機器學習訓練的範疇,就會麵臨重重困難。另外,人類的手還是比機械手靈活得多——2018年,羅德尼·布魯克斯預測,恐怕要到20年後才能出現一隻跟人類一樣靈活的機械手[114]。至少在那之前,那些從事需要大量靈巧手工的人是安全的——木匠、電工或者管子工今晚可以睡個踏實覺了。
弗雷和奧斯本的報告受到了廣泛的質疑和批評,許多評論員指出了報告中他們所認為的方法論缺陷和不合理假設,並強烈表示這個結果太過籠統。雖然我也認為報告中最悲觀的預測在一段時間內不會成為現實,但我堅信人工智能以及先進的自動化、機器人等相關技術將在不久的將來讓很多人失業。如果你的工作是分析數據然後做出決策(比如是否提供貸款),那我不敢說人工智能是否會取代你的角色。但如果你的工作隻是用程序化的腳本跟客戶對話(就像許多呼叫中心接線員的工作),那麽我很抱歉,人工智能會很快讓你變成無用階層。如果你的工作隻是在一個受限製的、地圖清晰的城市地區進行日常駕駛,那麽我也很抱歉,人工智能注定會取代你,隻不過別問我那是什麽時候。
然而,對於我們大多數人來說,新技術主要改變的是我們的工作性質。大多數人不會被人工智能係統取代,反之,使用人工智能工具可以讓我們在工作中變得更高效、更優秀。畢竟,拖拉機的發明沒有取代農夫,隻是讓他們成為效率更高的農夫;文字處理機的發明也沒有取代秘書,隻是讓他們成為效率更高的秘書而已。我們可以通過軟件智能體來簡化工作,提升效率,這樣我們可以從無窮無盡的文書表格工作中解脫出來。人工智能將嵌入日常工作的所有工具中,給我們帶來難以想象的益處——甚至有很多是以無聲無息的方式。用吳恩達的話來說,“如果一項腦力工作,普通人隻需要不到一秒鍾就能完成,那麽,我們可以用人工智能實現它,無論是現在還是將來[115]”。這可是一長串任務列表。
雖然許多人擔心人工智能會奪走人類的工作機會,帶來全球失業和加速不平等的嚴重後果。但技術樂觀主義者希望人工智能、機器人技術和先進的自動化技術將引領我們走向一個截然不同的未來。這些烏托邦主義者相信人工智能最終會將全人類從枯燥乏味的工作中解脫出來——在未來,所有工作(或者說,至少所有肮髒、危險、無聊或其他不受歡迎的工作)都將由機器完成。人類可以自由自在地寫小說、討論柏拉圖、四處遊玩或做其他事情。這是一個誘人的夢想,盡管它也是老調重彈——烏托邦式的人工智能在科幻小說中出現得可真不少。(不過,更有趣的是,科幻小說中更頻繁出現的是反烏托邦式的人工智能——也許把背景放在人人幸福、人人健康、人人快樂的未來中,要寫出一個有意思的故事難度會更大吧。)
在這一點上,反思一下20世紀70到80年代出現的微處理器技術發展是很有必要的。正如我們前文討論過的,微處理器的出現引發了大規模的工廠自動化浪潮,當時微處理器技術在社會各界引發了各種爭論,跟現在人工智能引起的爭論頗為相似。彼時,樂觀主義者們預測,在不遠的將來,我們用來工作的時間將大大減少,每周工作三天或者類似的工作製度將成為常態,休閑時間會大大增加。
隻可惜事實並非如此。為什麽呢?有一種觀點認為,與其享受計算機、自動化和其他技術進步為我們騰出來的休閑時間,不如把時間更多地用在努力工作上,賺更多的錢,享受更好的商品和服務。比如我們想買彩電、錄像機、CD播放機、DVD播放機、家用電腦、手機,我們也想去海外度假,想要更大更快的汽車、更華麗的衣服、更精美的食物,為了支付這一切,我們必須付出更多的努力。有人認為,隻有全社會都沒有過多欲望,都甘於接受簡單的生活方式,沒有太多消費品,隻需要維持基本生活,我們的工作時間才可能大大縮減。另一種觀點認為,技術進步帶來的經濟利益並沒有被平均分配:富人變得更富有,貧富差距越來越大。不管確切的原因是什麽,從20世紀70年代的經曆中,我們能夠得出一個明顯而略讓人覺得沮喪的結論,至少在不久的將來,技術可能不會為所有人創造一個悠閑的烏托邦。
這就巧妙地為我們引入了全民基本收入的概念:即社會上的每個人都應該獲得一定的保障性收入,不管他們是否工作,也不需要任何考核或者測試。全民基本收入並不是一個新出現的概念,但最近的技術發展,特別是人工智能的發展,使它重新成為人們關注的焦點。有一種設想,人工智能/機器人/自動化技術將創造足夠的財富,使得全民基本收入成為可能(因為機器可以完成工作),以及必要(因為,在這種設想下,人們可能沒有工作了:機器把人類的工作機會奪走了)。
我也很想相信烏托邦式的未來,但由人工智能推動的大規模全民基本收入計劃在短期內實現似乎並不合理[116]。首先,人工智能所產生的經濟效益必須是巨大的,才能使全民基本收入得以實現,因此就需要遠遠超過以往的技術創新來支撐龐大的項目,而沒有任何跡象表明目前的人工智能發展會帶來如此規模的經濟效益。其次,要想推行全民基本收入計劃,將需要前所未有的強烈政治意願:可能會在社會環境極其緊張的情況下才能迫使政府接受這樣的行動方針。我的猜測是,恐怕需要出現大規模的失業潮,這個想法才有可能被提上議程。最後,全民基本收入將從根本上破壞社會的結構,畢竟在當今社會中,工作占據著核心的社會地位。目前同樣沒有任何跡象表明社會做好了接受這種變化的準備。
雖然人工智能是導致工作環境變化的一個重要因素,但它不是唯一因素,甚至可能並不是最重要的。一方麵,無情的全球化進程尚未走到終點,在此之前,它將繼續以我們無法想象的方式震撼整個世界。計算機本身也沒有達到進化的終點——在可預見的未來,計算機將會繼續變得越來越便宜、小巧,以及擁有更高的交互性能。光是這些發展就足以持續改變我們的世界,還有生活與工作的方式。在這個背景下,我們的世界相互聯係日益緊密,全世界的社會、經濟和政治格局也在不斷變化:化石燃料資源減少、氣候變化和民粹主義政治抬頭。所有的因素都將對就業和社會產生影響,對我們產生影響,而這些影響比人工智能大得多。
算法異化以及改變工作性質
在一本人工智能科普書裏看到卡爾·馬克思(Karl Marx)的名字時,你可能會感到驚訝,但是,這位《共產黨宣言》的合著者所關注的問題,與當前人工智能如何改變工作和社會現狀的爭論密切相關。特別在19世紀中葉第一次工業革命以後建立起來的異化理論——當時資本主義社會才初具形態。馬克思的異化理論關注的是工人與工作和社會的關係,以及資本主義製度是如何影響這種關係的。他指出,工業革命出現了工廠係統,工人們在工廠中從事重複性的、無聊的、最終毫無成就感的工作,以換取微薄的收入。他們沒有機會籌備安排自己的工作,事實上,他們根本沒有控製工作的權利。馬克思認為,這是一種非自然的生活方式。工人們的工作,從真正的意義上來說是沒有意義的,但是工人們別無選擇,隻能從事這種毫無成就感、沒有意義的工作。
可能這些工作狀態也會讓你點頭認同,不過人工智能和相關技術的迅速發展將馬克思的理論推向了一個新的維度:在未來,我們的老板可能隻是一段算法。
我們又一次看到了異化現象,特別是在所謂“零工經濟”領域——這是工作模式發生改變的另一個方麵。半個世紀前,你或許會在一家公司從畢業幹到退休,這很常見。長期雇傭關係是一種常態,那些頻繁跳槽的員工會受到質疑。
但現在,長期雇傭關係已經越來越少見,取而代之的是短期工作、計件工作和臨時工作——這就是零工經濟。在過去20年裏,移動計算機技術的發展是全球化零工經濟迅速騰飛的主要原因,工作人員可以通過移動設備協調和參與工作。手機內置的GPS係統可以隨時定位和監控工作人員的位置,還可以隨時向他們傳達工作指示。人們日常工作所做的每一件事,甚至在鍵盤上按鍵的次數,發送電子郵件的習慣語氣,都可以被電腦程序記錄和監控。
網絡購物巨頭亞馬遜因為對員工要求嚴格、監控嚴密、工作環境嚴苛而時常遭受批評,以下是2013年英國《金融時報》的一篇報道,描述了一名倉庫工人的工作[117]:
亞馬遜的軟件會計算出最高效的配送貨物步行線路,指導工人裝滿手推車,然後通過手持衛星導航設備屏幕的指示,指導工人從一個貨架走到另一個貨架。即使路線如此高效,依然有許多需要步行的地方……“你就像個機器一樣,不過是人形的,”亞馬遜的工人說,“如果你樂意的話,可以管這叫作人類自動化。”
如果馬克思今天還活著,我想,他會用這篇報道作為異化概念的完美解釋例證。這就是人工智能造就的自動化噩夢:人類的勞動被係統地簡化為那些不能被機器或軟件自動化的任務,工人被細致地監控和監督著,沒有創造力、沒有創新性、沒有個性,甚至沒有思考的空間。想象一下,如果你的年度考核是由電腦程序來決定,甚至是否決定錄用你,也是由電腦程序來判斷,你會有什麽感受。有點憤世嫉俗地說,我們也許不應該太關心這些問題,因為這些工作不會存在很長時間了:很快它們就會被人工智能和機器人自動化技術完全替代(亞馬遜正在大力投資倉庫機器人技術)。
世界上很大一部分勞動人口從事這樣的工作,這個前景一點都不誘人。不過,我想現在已經說得很清楚了,這並不是什麽新鮮事——隻是從工業革命時期就存在的趨勢,人工智能隻是擴展了它的維度。當然,當今職場上還有許多人的工作條件遠比亞馬遜的倉庫工人差得多。這不應該歸罪於技術,技術是中立的。雇主、政府、工會和監管者應該思考人工智能在這些方麵對社會的影響——它將如何改變人類工作的性質,以及什麽樣才算體麵的工作環境和條件,還有失業問題。迄今為止,人工智能所引起的焦慮和爭議,大多集中在失業問題上。
人權
上述討論顯示了控製我們工作狀況的人工智能係統是如何讓現代職場人異化的,但是,人們對人工智能的使用的更大擔憂,是它影響了最基本的人權。擁有一個人工智能係統做老板已經很讓人頭疼了,它告訴你什麽時候可以休息,什麽時候應該工作,給你設定目標,並對你的工作狀況隨時監控和批評……但是,如果人工智能係統有權決定你是否應該進監獄,這種情況又會如何?
再一次聲明,這可不是臆想——現在已經有類似的人工智能係統正在投入使用。例如,英國杜倫的警察部隊於2017年5月宣布,他們將啟用危害評估風險工具(Harm Assessment Risk Tool, HART)[118],這是旨在幫助警察決定應該釋放還是拘留涉案嫌犯的人工智能係統。HART是機器學習的經典應用,它的訓練庫包括2008至2013年獲得的所有拘捕數據(約104 000起拘捕事件),並用2013年的全年拘捕數據進行測試(測試用的數據未納入訓練庫)[119]。最終結果是,在低風險案例中該係統的準確率高達98%,而在高風險案例中為88%。有趣的是,係統設計的時候考慮到了謹慎處理高風險案例(例如涉嫌暴力犯罪的案件),或者這能解釋最終結果的區別。係統使用34種不同的案例特征進行訓練,其中大部分與嫌犯的犯罪史有關,不過也包括年齡、性別和住址特征。
沒有跡象表明,杜倫的警察把所有決定嫌犯是否拘留的決定權都交給了HART,該係統隻是作為決策支持工具,輔助監管人員做決策而已。但是,盡管如此,當社會各界得知HART投入使用時,仍然引起了很大的不安。
主要問題在於HART隻關心獨立案件的一係列特征,它不會像一個有經驗的監管人員那樣,會綜合考慮嫌犯背景和案件流程,所以它的重要決定是基於相當狹窄的數據基礎做出的。決策缺乏透明度也是一個令人擔憂的問題(這是機器學習的經典問題,人工智能程序無法給出決策的解釋)。當然,培訓所使用的數據特征可能存在偏差,也有人提出這一點(尤其是將嫌疑人的住址作為特征之一,這更令人擔憂,該係統的決策可能涉嫌歧視底層區域的人)。
還有一點,盡管HART隻是一個決策支持工具,但可能在未來的某一天,我們會發現它成了主要的決策者:監管人員有可能太過疲憊、太過迷糊或者太過懶惰,放棄了自己來做決策的權利,於是不加任何思考地全盤接受HART的建議。
我認為,所有這些擔憂都指向一點:HART這樣的係統侵蝕了人類判斷的地位。歸根結底,對一個人做出重大影響的決策者是人類,比起別的東西,更讓人感覺自在。畢竟,我們享有基本的人權,例如接受同儕審判的權利,而這項權利來之不易,理應受到高度重視。讓類似HART的電腦程序對人類做出判決,也許會讓人感覺我們在放棄這些來之不易的權利。對這樣的趨勢我們不應當掉以輕心。
這些擔憂是合理的,盡管我不認為應該簡單粗暴地全麵禁用類似HART的係統,但在使用它的時候,應當遵循非常重要的注意事項。
首先,誠如HART案例中明確指出的,這些工具隻能用於為人類決策者提供支持,而不能取代人類進行決策。機器學習決策並非十全十美,它們難免會做出一些明顯毫無意義的決策。而當前機器學習還有一個令人沮喪的現狀,就是很難確認它什麽時候的決策會出錯。因此,在給人們帶來重大影響的決策方麵,盲目遵循人工智能的建議是非常不明智的。
另一個問題涉及對機器學習技術不成熟地開發和利用。HART是由經驗豐富的研究團隊開發的,他們應該全麵周到地考慮過這款軟件可能麵臨的各類問題。並不是所有開發者都有如此豐富的經驗,或者會如此深入思考。因此,令人擔憂的是,代替人類做決策的係統,是否在開發環節考慮得足夠謹慎和全麵。
HART隻是備受人權組織關注的應用於執法係統的軟件之一,倫敦警察廳因使用一款名為“幫派矩陣”的工具而飽受批評。該係統有數千人的記錄,並將數據代入一些簡單的數學公式中,以預測這些人參加幫派的可能性[120]。幫派矩陣係統大部分似乎都建立在傳統計算機技術上,不太涉及人工智能領域,但有這方麵的趨勢。國際特赦組織稱該係統是一個“種族偏見數據庫,將某個年代的黑人全部定罪”。有人聲稱,如果你表現出隻偏好某一類音樂的傾向,就會被列入數據庫。美國一家名為PredPol的公司銷售支持“預測警務”的軟件,用以預測犯罪熱點區域[121]。同樣,該軟件的使用引發了人權方麵的爭議:如果數據有偏差怎麽辦?如果軟件設計不合理怎麽辦?如果警察開始過度依賴它該怎麽辦?另一個係統,COMPAS,旨在預測一個人再次犯罪的可能性[122],該係統用於量刑參考[123]。
有一個極端的案例說明這種錯誤的想法是如何走向絕境的。2016年,兩名研究人員發表了一篇文章,聲稱隻需要讓人工智能係統識別一下人臉就可以發現潛在的犯罪行為。這樣的係統讓我們回到了一個世紀前那些武斷的犯罪理論。隨後的研究表明,他們的係統大概是根據一個人是否微笑來判斷犯罪行為:係統訓練使用的是警方拍攝的罪犯麵部照片,而這些照片往往都不會麵帶微笑[124]。
機器人殺手
希望你會認同我的想法,我認為人工智能係統當我們的老板會導致員工異化,而讓人工智能係統來決定一個人是否應該被警方拘留,這是對人權的一種侮辱。那麽,對於一個有能力決定你生死的人工智能係統,人們又將如何看待呢?隨著人工智能的迅猛發展,人們對這一前景的擔憂開始見諸報端,其中至少有一部分原因是我們提到過很多次的《終結者》場景。
關於自主武器的話題總是帶有強烈的煽動性,許多人會本能地厭惡它,認為這樣的係統是不道德的,永遠不該被建立。對於持有這樣觀點的人而言,若是有品行端正的人持有相反觀點,會讓他們感到驚訝。因為我知道這個主題有多麽震撼,所以我會盡可能輕描淡寫地帶領你深入研究潛在的人工智能自主武器所引發的問題。
自主武器的討論大多源於戰爭中使用得越來越頻繁的無人機。無人機,顧名思義,就是無人駕駛的飛機,在軍用領域,它可以攜帶導彈等武器。因為無人機不用搭載人類飛行員,所以它比傳統飛機更小巧、更輕便、造價更低。而且無人機的飛行不會給遙控它的人帶來風險,因此它可以被用於飛往危險區域執行任務。對於軍事組織來說,這自然是一個富有吸引力的選擇。
在過去的50年裏,無人機的軍用開發經曆了數次嚐試,不過直到21世紀才成為現實。自2001年以來,美國一直在對阿富汗、巴基斯坦和也門的軍事行動中使用軍用無人機。盡管我們不知道具體數量,但似乎美國已經投入了數百架無人機,可能導致了數千人死亡。
遙控無人機本身就引發了各種嚴重的倫理爭議,例如,由於控製無人機的駕駛員沒有親身涉險,他們可能會采取一些實際在場的情況下不會采取的行為。而且,最重要的是,人們不會像自己親臨現場那樣認真對待行為的後果。
出於以上以及更多的原因,使用遙控無人機引起了極大爭議。然而,自主無人機出現的可能性將人們的擔憂提升到了更高層麵。無人機不再被遙控,意味著很大程度上,它們不再需要人類的引導或者說幹預來執行任務。而且,作為執行任務的一部分,它們可能有權決定是否奪走人類的性命。
自主無人機和其他種類自主武器的構想,立刻會讓你聯想到非常熟悉的電影場景:機器人大軍無情地、精準地使用致命武器屠殺人類,沒有任何對人類的憐憫、同情或理解。我們已經了解到為什麽這樣的《終結者》式末日場景不值得我們今晚就擔憂得失眠,但是自主武器出問題的可能性,以及致命的後果,仍然是人們反對其發展和應用的一個重要論據。但是,關注自主武器也有許多其他原因。其中之一是擁有自主武器的國家可能不太介意發動戰爭,因為他們的部隊不需要親自上前線。因此,自主武器可能使得發動戰爭的決定變得更加容易,使得戰爭更加普遍化。但是,最常見的反對意見是,自主武器是不道德的:人們不能製造能夠決定奪走人類性命的武器,這是錯誤的。
值得指出的是,在目前的技術條件下,人工智能驅動自主武器是完全可能實現的。請考慮如下場景[125]:
現在有一種廉價的小型無人機型,配備了攝像頭和GPS導航係統,機載小型電腦和一塊手榴彈大小的炸藥。這架無人機被設計成可以在城市道路巡航,尋找人類。它不需要精準識別特定的人,隻需要識別人類的形態,當它識別出人體時,會飛到人類的位置,引爆炸藥。
這種設想十分可怕,人工智能隻需要能夠在街道上空導航、識別人體並飛向他們就可以了。我認為,任何一個合格的人工智能研究生,隻要有合適的資源,就能夠構造一個這樣的無人機原型,而且它們可以以低廉的價格大量生產。現在想象一下,若是成千上萬的無人機被投放到倫敦、巴黎、紐約、德裏或者東京街頭,將會發生什麽。想象一下大屠殺,想象一下恐怖的畫麵。據我所知,這樣的無人機已經有人製造出來了[126]。
對許多人而言,關於人工智能自主武器是否應該存在,根本無須爭議,然而,有關的爭議確實存在。
這場爭辯中最著名的主角之一,是美國佐治亞理工學院的羅恩·阿爾金(Ron Arkin)教授,他認為自主武器的出現肯定是不可避免的(總會有某個人,或者某個機構將它們最終製造出來),因此,最好的對策是思考如何設計它們,使它們的行為比普通人類士兵更合乎道德[127]。畢竟,他指出,人類士兵在道德方麵並沒有很好的記錄。當然,他也承認,不可能出現擁有“完美道德”的人工智能自主武器,盡管如此,阿爾金教授仍然相信,我們能夠製造出比人類士兵更有道德的自主武器。
還有其他支持自主武器的觀點,例如,有人認為,讓機器人去從事卑鄙的戰爭事業,總比讓人類去打仗更好:戰爭的贏家往往是擁有更優秀機器人的一方(當然,問題就變成了如何確保我們擁有更好的機器人)。
我還聽過這樣的論點,即反對自主武器比反對常規戰爭更沒有道德。例如,當一架B-52轟炸機在5萬英尺的高空飛行,釋放炸彈的時候,負責釋放炸彈的投彈手並不清楚他們投下的32噸的炸彈將落到何處,也不知道它會落到誰身上。那麽,為什麽人們要反對能夠精準殺人的自主武器,而不反對這樣隨意殺戮的常規武器轟炸?我想,答案是我們應該同時反對它們。但實際上,常規轟炸確實沒有像自主武器那樣引起這麽多的道德爭議。
不管人們試圖構建什麽有利的論據,我必須堅定地說,國際人工智能界的大多數研究人員都強烈反對開發致命的自主武器。關於自主武器可能被設計成比人類士兵更合乎道德的論點並沒有被廣泛接受。理論上這是一個有建設性的想法,但實際上我們根本不知道怎麽去做,而且也不可能很快成為現實(見上一章的討論)。雖然我敢說,提出這一論點的初衷是最好的,但令人擔心的是,它已被那些想現在就製造自主武器的人所劫持。
在過去十年裏,科學家、人權組織和其他組織聯合開展了一場旨在阻止自主武器研發的運動。“禁止機器人殺手運動”成立於2012年,得到了國際特赦組織等主要國際人權組織的支持[128]。該運動的既定目標是實現全球禁止研發、生產和使用完全自主武器。這項運動得到了人工智能研究界大部分人的支持。2015年7月,近4000名人工智能科學家和2萬多人簽署了一封公開信,支持禁令;除此之外還有許多其他類似的倡議。有跡象表明,政府組織聽到了人們的呼聲。2018年4月,中國駐聯合國代表團提議禁止使用致命的自主武器;英國政府最近的一份報告也明確建議,永遠不要給人工智能係統以傷害或殺人的權力[129]。
顯然,致命的自主武器既危險又不道德,因此,在我看來,按照《渥太華禁雷公約》[3]的思路,實施一項禁令是有必要的。但這可能比較難:不僅要考慮到致力於製造這類武器的組織會施加阻力,另外,製定一項禁令本身不是容易的事情。英國上議院人工智能特別委員會在2018年的報告中指出,給致命自主武器下一個清晰的定義相當困難,這將是立法的一個主要障礙。從純粹實際的角度來看,僅僅試圖在武器開發領域禁用人工智能技術基本上不太現實(我鬥膽猜測許多常規武器已經在某種形式上使用人工智能係統控製)。此外,立法禁止某種特定的人工智能技術使用,比如神經網絡,那就更不現實了,因為軟件開發人員可以很輕易地在代碼中掩飾使用的技術。
因此,即使公眾和政府都願意控製或禁止發展和使用致命自主武器,製定和執行相關立法也是困難重重。但是,有跡象表明,各國政府正在嚐試,這未嚐不是一個好的開始。
算法偏見
我們也許希望人工智能係統能夠做到公正和公平,擺脫困擾人類世界良久的偏見和成見,但恐怕事實並非如此。在過去十年裏,隨著機器學習係統被推廣到越來越多的應用領域,我們開始了解到自動決策係統也會表現出算法偏見。現在它已經成為一個主流研究領域,許多團體都在努力理解算法偏見帶來的問題,以及如何避免。
算法偏見,顧名思義,是指計算機程序——不僅僅是人工智能係統,而是任意計算機程序——在其決策過程中表現出某種形式的偏見的情況。該領域的主要研究者之一凱特·克勞福德(Kate Crawford)指出,存在算法偏見的程序可能會造成兩方麵的傷害問題[130]。
首先是分配傷害,分配傷害體現在某個群體在某些資源方麵被拒絕(或優待)的時候。例如,銀行可能會使用人工智能係統來預測潛在客戶的優劣——優質客戶意味著會按時還貸,而劣質客戶則更可能拖欠貸款。他們可以使用優質客戶和劣質客戶的相關資料來訓練人工智能係統,經過訓練的係統可以查看潛在客戶的詳細信息,並預測客戶可能是優質還是劣質客戶,這是一個經典的機器學習程序的案例。但如果程序存在偏見,那麽它可能會拒絕向某個群體提供貸款,或者偏袒某個群體,更可能放款給他們。在這裏,偏見導致了相關群體明顯可識別的經濟障礙(或優待)。
但是,正如我們在第一章裏了解到的那樣,計算機不過是執行指令的機器而已,它怎麽會存在偏見呢?
因為機器最重要也是單一的獲取信息途徑是數據,偏見就是通過數據引入的。機器學習程序使用數據進行訓練,如果數據本身就存在偏差,那麽程序也將學習數據中隱含的偏見,而訓練數據本身就可能存在不同程度的偏差。
最簡單的可能性是,構建數據集的人本身就是帶有偏見的。在這種情況下,他們會在數據集中嵌入這類偏見,可能不會太明確,也可能是無意識的。事實上,無論每個人認為自己多麽公平公正,我們都存在某種形式的偏見。這些偏見將不可避免地在我們創建的訓練數據中體現出來。
雖然這些問題是人為的,但是機器學習也會不知不覺地成為幫凶。例如,如果機器學習程序的訓練數據不具有代表性,那麽該程序的決策將不可避免地被扭曲。例如,假設銀行根據一個地理區域的數據集對貸款軟件進行了訓練,那麽這個程序很可能最終會對其他地區的個人產生偏見。
設計拙劣的程序也會產生偏見,舉個例子,假設在上麵提到的銀行案例中,你選擇用種族血統作為關鍵特征來訓練銀行的人工智能係統,最終,你的程序毫無疑問會在衡量發放貸款的時候帶有明顯的種族歧視。(你不會真的覺得銀行能蠢到這個地步吧?等著看唄。)
算法偏見是目前存在的一個突出問題,我們之前就了解過,當前人工智能係統大多采用機器學習的方式構建,機器學習的特點是“黑盒”:它無法用人類能夠理解的方式解釋或者說明它的決策。如果我們過於信任人工智能係統,這個問題就會更加嚴重——有跡象表明已經存在這樣的趨勢了。銀行建立了人工智能係統,使用包含幾千個案例的數據集訓練它,訓練結果是看上去它能夠得出和人類專家相同的結果,所以人們就武斷地相信人工智能係統不會出錯,並且毫不猶豫地信任它的決策,而不進行深入思考。
有時候,你會感覺到似乎世界上的每一家公司都在瘋狂地將機器學習應用到他們的業務中,但在這種瘋狂浪潮中,他們有可能創造出更多帶有偏見的程序,因為他們根本沒意識到這其中的致命問題,最關鍵的是,要用正確的方式獲取數據。
多樣性缺乏
1956年,當約翰·麥卡錫向洛克菲勒研究所提交了關於人工智能達特茅斯暑期學校的提案時,他列出了擬邀請參加會議的47人名單。“並非所有人都能來參加這次會議,”他在1996年寫道,“隻有那些我認為會對人工智能產生興趣的人,才會被列入名單。”
答案是:零。我非常懷疑,任何一個有聲望的當代研究資助機構會考慮讚助這樣一場連基本的多樣性測試都通不過的活動。事實上,現在的標準做法是要求申請人確保如何解決平等性和多樣性問題。但是,在當時男女就是這麽不平等。如果你一直關注本書,很難忽略的一個事實就是,人工智能長期以來似乎都是一個由男性主導的學科。
事後來看,我們可以意識到當時普遍存在的不平等現象,並對此感到遺憾。我同樣認為,用我們今天還沒有徹底實現的標準去評判20世紀中葉舉行的一次活動也沒多大意義。更重要的問題在於,今天的人工智能研究本質是否有所不同。在這裏,雖然有一些好消息,但總體情況隻能說喜憂參半。一方麵,你不管參加哪一個有聲望的國際人工智能會議,都會看到許多女性研究人員的身影。但是,另一方麵,人工智能領域的男性主導現象仍然存在:缺乏多樣性仍然是人工智能現階段麵臨的一個棘手問題,就如科學和工程學科諸多領域一樣[132]。
人工智能研究領域的性別構成很重要,原因有很多。一方麵,男性主導的研究領域將使潛在的女性科學家感到反感,從而扼殺了這一領域潛在的寶貴人才。而且,也許更重要的是,如果人工智能完全是由男性設計的,那麽我們最終得到的結果將是——找不到更好的術語來形容了:男性人工智能。我的意思是,這樣建立的體係必然會體現出特定的世界觀,而這種世界觀不能夠代表女性,甚至對女性根本不友好。如果你不相信,那麽請你讀一本讓我對這個問題大開眼界的書:《看不見的女人》,卡羅琳·克裏亞多·佩雷斯(Caroline Criado Perez)所著[133]。她提出的關鍵問題在於:我們這個世界上幾乎所有的東西都是由隻考慮單一性別的人設計和製造的——男性。她認為,造成這種情況的根本原因是她所說的“數據缺口”:通常用於製造和設計的曆史數據集絕大多數是以男性為導向的:
大部分曆史記錄的數據都是有缺陷的……古時候狩獵都是由男性來完成的,以往的曆史寫作者根本沒有給女性留下多少空間……相反,人們默認男人的生活方式代表了人類的生活方式,當談到人類另一半的生活時,通常隻有沉默和空白……這些沉默,這些缺陷,都會產生後果。它們每天都影響著女性的生活。這種影響都發生在細微處。例如,辦公室空調溫度標準是為男性設定的,讓女性在辦公室裏瑟瑟發抖;或者,女性在超市裏掙紮著想夠到按照男性身高標準設計的貨架頂層等……它們不危及生命,不像一輛汽車的安全設施沒有考慮到女性的身體尺寸,不像心髒病發作的時候得不到救治和診斷,所以你的這些煩惱都是“非典型的”。這樣的現狀,即女性每天都生活在圍繞著男性的數據構建的世界中,帶來的後果可能是致命的。
有時候,這種偏見簡直是根深蒂固。一個臭名昭著的案例發生在2017年,有人發現穀歌翻譯公司在翻譯文本的過程中,有時候會篡改文本中的性別[134]。如果你將下列文字從英語翻譯成土耳其語:
他是一名護士
她是一名醫生
再將翻譯好的土耳其語翻譯成英語,就變成了:
她是一名護士
他是一名醫生
還真是沒有性別的刻板印象啊,是吧?
偏見本來就是人工智能中存在的問題,對女性而言,這個問題更具有特殊性。因為新的人工智能係統建立在有著強烈男性偏見的數據基礎上,而建造新人工智能係統的團隊壓根沒注意到這一點,因為他們自己也有男性偏見。
人工智能麵臨的終極挑戰之一,就是如果我們構建某些體現真人特性的係統,例如,當我們構建Siri和Cortana這樣的軟件智能體時,可能會無意中以強化某種刻板的性別認知方式來構建。如果我們要構建一個具有服從性的人工智能係統,讓它看上去或者聽上去都像女人,那麽就等於在無意中宣傳女性的仆從地位[135]。
假新聞
顧名思義,假新聞就是將虛假的、不準確的或者誤導性的消息當作事實,並以新聞的方式呈現。當然,在數字時代之前,世界上就存在大量的假新聞源,但是互聯網,尤其是影響巨大的社交媒體,卻成了傳播假新聞的完美渠道。
社交媒體的存在是讓人們可以方便地彼此聯係,現代社交媒體平台在這方麵取得了驚人的成功——西方的臉書和推特,還有中國的微信,都有著大量的用戶基礎。21世紀初,社交媒體應用首次出現的時候,它們似乎都是關於朋友、家人和日常生活的:有很多小孩子的照片,還有貓狗等寵物的。但社交媒體作為一個非常強大的工具,很快就被應用於其他目的。互聯網假新聞頻發的現象已經在2016年登上了頭條,這一現象證明了社交媒體有多強大,以及多麽輕易就能造成嚴重影響。
人工智能是假新聞的重要組成部分,因為它對假新聞的傳播方式至關重要。所有的社交媒體平台都依賴於你在它們上麵消磨了多少時間——這就給了平台向你展示廣告的機會,而這也是平台最終盈利的方式。如果你喜歡在平台上看到的內容,那麽你就會花更多的時間在它上麵。因此,社交媒體平台就有動機向你展現你喜歡的東西,而不是真相。它們怎麽知道你喜歡什麽呢?因為你會告訴它們。每一次你的點讚,都會讓平台去查找類似的消息,即你可能會喜歡的消息。一個運行良好的平台都會建立一張有關你偏好的關係圖(這就是殘酷的事實),並以此來決定給你推送什麽內容[136]。例如,約翰·多伊(John Doe)是一名白人男性,喜歡暴力視頻,有種族主義傾向……如果某個平台想要約翰·多伊喜歡它,那麽,它會向這位用戶推送什麽樣的新聞呢?
人工智能在其中所起的作用是根據你的點讚、評論,以及你點擊的相關閱讀鏈接等行為去分析你的偏好,然後尋找到你也許會喜歡的新消息。這些都是很典型的人工智能應用,所有社交媒體平台公司都會有專門的研究和開發團隊來解決這些問題。
但是,如果所有社交媒體平台都這樣——弄清楚你喜歡什麽,向你展示你喜歡的東西,隱藏你不喜歡的——那麽,它們呈現在約翰·多伊麵前的是怎麽樣的世界?一個充滿了暴力視頻和種族主義新聞的世界,他不會得到多渠道的、公正的信息,他將深陷於自己的社交氣泡中,對自己的世界也會存在偏見,並且偏見還會因此得到加強:這被稱為證實性偏見。而這種現象如此令人擔憂的原因是它的規模:社交媒體正在全球範圍內操縱人們的信仰,無論這種操縱是蓄意的,還是純粹偶然,這無疑是值得警惕的。
從長遠來看,我們看待世界的根本角度有可能被人工智能改變。每個人都通過自己的感官(視覺、聽覺、觸覺、嗅覺和味覺)獲取關於世界的信息,並利用這些信息建立對現實的一致看法:對世界實際情況的描述和可以被廣泛接受的看法。如果你和我都以同樣的方式見證了一個特定的事件,那麽我們會得到同樣的信息,我們可以利用這個信息表達對共識現實的一致看法。但是,假如這個世界沒有了共識現實,沒有共同看法,會發生什麽呢?如果我們每個人都以完全不同的方式看待世界,又會發生什麽呢?人工智能可能會讓這些假設成為現實。
這種類型的應用被作為增強現實(Augmented Reality, AR)應用:它們獲取真實的世界,並在其上覆蓋計算機生成的信息或圖像。但是,如果應用程序不僅僅是增強現實,而是完全改變現實,甚至使用戶根本察覺不到這種改變,又會如何?在撰寫本書的時候,我的兒子湯姆已經13歲了,他是托爾金(Tolkien)的著作《指環王》的超級粉絲,也特別熱衷於這本巨著衍生的電影。想象一下,穀歌眼鏡應用程序可能會改變他對學校的認知,讓他的同學看上去像是精靈,老師看上去像是獸人。你可能也想要一款類似的星球大戰主題的應用程序,等等。這會很有趣,但問題是:如果我們都居住在自己的私人世界裏,那共識現實又有什麽意義呢?你和我不再有相同的、共通的經驗來建立共識。另外,這樣的應用程序也容易被黑客入侵。想象一下,如果有一天湯姆的眼鏡被黑了,從根本上改變了他認知世界的方式,從而操縱他的信仰,那會發生多麽恐怖的事情。
盡管目前這樣的應用還不能實現,但在未來二三十年內,這類增強現實應用很有可能成為現實。我們已經開發出了人工智能係統,它能夠生成對人類而言完全真實的圖像,但其實圖像是由神經網絡構建的。例如,在撰寫本書時,人們就表示了對DeepFakes的擔憂[137]。DeepFakes是一款人工智能換臉工具,可以通過換臉技術,讓圖片或者視頻中出現根本沒有出現過的人。負麵影響最大的案例發生在2019年,美國眾議院議長南希·佩洛西(Nancy Pelosi)的一段講話被篡改,讓人覺得她有語言障礙,或者可能受到毒品或酒精的影響[138]。DeepFakes也被用來修改色情視頻,在視頻中加入實際上沒有參與的“演員”[139]。
目前,DeepFakes修改過的視頻質量還很差,但它正在慢慢變好,或許很快我們就完全無法分辨照片或者視頻是真的,還是DeepFakes篡改過的。到那時,照片和視頻將不再是對某一事件的原始可靠記錄。如果我們每個人都居住在自己特有的、由人工智能驅動的數字世界裏,那麽建立在共同價值觀和原則之上的社會將麵臨真正的危險。社交媒體上的假新聞,隻是一個開始。
我們在第四章中看到了類似Siri、Alexa和Cortana這樣的軟件智能體是如何在21世紀開始的十年裏,作為20世紀90年代智能體研究的直係“後裔”出現的。在Siri問世後不久,一些大眾媒體就報道過Siri存在未經記錄的功能。你可以對Siri說:“你好,Siri,你是我最好的朋友。”Siri會給出一個看上去很有意義的回應(雖然我嚐試的結果是“好的,邁克,不管天氣好壞,我們都會成為好朋友的”)。媒體們很興奮,他們想知道,這是通用人工智能嗎?好吧,不是。Siri所做的隻是針對某些關鍵詞和語句在常備回答中選擇回應,這和幾十年前的ELIZA沒有太大差別。在這個問答裏麵沒有什麽智能可言,顯然,這個有意義的答案不過是假的人工智能而已。
蘋果並不是唯一一家使用假人工智能的公司,2018年10月,英國宣布一款名為Pepper的機器人將參加下議院聽證會[140],但這隻是無稽之談。Pepper機器人當然出席了聽證會(而且,根據記錄,它是一個很了不起的機器人,是許多幕後精彩研究的結晶),但它隻是用預先寫好的答案回答預先確定的問題而已,甚至還不到ELIZA的水平。
在Siri和Pepper的案例中,沒有任何欺騙的意圖——它們隻是一點善意的小樂趣。但許多人工智能研究界人士對此感到很惱火,因為這些小樂趣描繪了一幅完全錯誤的人工智能遠景圖。首先,如果有人真的相信Pepper可以回答人們提出的問題,他們就會對目前人工智能問答係統產生不切實際的期望,這完全是誤導性的。不過我想應該不會有太多人上當吧——畢竟很容易就能看出問題。那麽問題就在於,人們可能會認為這些胡說八道作秀才是人工智能的真正目的:造假。
類似的事件發生在2018年12月,在俄羅斯雅羅斯拉夫爾的青年科學論壇上,一個“高科技機器人”表演了令人震驚的舞蹈。結果證明,這是一個穿著機器人服裝的真人[141]。目前尚不清楚活動的組織者是蓄意欺騙還是作秀,我姑且認為這隻是一個善意的玩笑。但是俄羅斯國家電視台報道稱,這個“機器人”看上去跟真人一樣。任何觀看了這場舞蹈的人都會得出一個合理的結論,這應該能代表目前機器人技術和人工智能所能達到的最高水準。
不幸的是,這樣的造假在人工智能的邊緣領域太普遍了,這讓人工智能研究人員非常沮喪。2017年10月,沙特阿拉伯宣布將公民身份授予一個名叫索菲亞的機器人,這毫無意外地引起了媒體的廣泛關注[142]。鑒於沙特阿拉伯在人權方麵不太理想的記錄,尤其是在婦女權益方麵,許多評論員強調了這個宣布(賦予機器人公民身份)的諷刺意味。但許多人也想知道,這個機器人是否存在一些全新的東西:它是通往通用人工智能的起點嗎?
你的感受和喜好是什麽?
你有沒有讓機器人住進你的家裏,或者跟你一起工作過?
沒有。
你知道,或許現在已經有不少機器人進入你的生活,而你並沒有意識到。你希望有一天能夠和機器人一起生活嗎?
那現在我的身邊出現的是什麽樣的機器人呢?
確實。
當你不知道怎麽回答的時候,你默認的答案就是“確實”嗎?
是的。
臉書的人工智能研究主管亞恩·勒庫恩(Yann Lecun)對此嗤之以鼻。2018年1月,他在推特上寫道:“這些把戲對比真正的人工智能,就跟變戲法對比真正的魔法一樣天差地別。這些簡直就是胡說八道。”這恰好概括了人工智能研究界對這種廉價宣傳噱頭的不屑。
人工智能造假,主要是人們被誤導了,相信他們看到的就是真正的人工智能,而事實上,這些幕後都隻是一些把戲而已。我聽到有傳言說,如果人工智能初創公司不能讓他們的技術在關鍵的成果展示中發揮作用,他們就會在幕後使用假人工智能來糊弄。我不清楚這種做法有多普遍,但人工智能造假對每個人來說都是實實在在的問題,也是對人工智能研究界的莫大傷害。