OBOL 項目分享活動開啓!調研 Obol (OBOL) 項目,在Gate.io動態發布您的看法觀點,瓜分 $100 OBOL!
💰️ 選取10名優質發帖用戶,每人輕鬆贏取 $10 OBOL 獎勵!
項目簡介:
Obol 致力於分布式、去中心化和民主化未來的數字基礎設施——從以太坊開始,並擴展到整個 Web3 平台。作爲 Layer 1 區塊鏈和去中心化基礎設施網路的基礎,Obol Collective 擁有全球最大的去中心化運營商生態系統。目前,全球超過 800 個去中心化運營商運行 Obol 分布式驗證器 (DV),保障主網超過 10 億的資產安全,Obol 正在賦能下一代去中心化系統。
參與方式:
1.調研$OBOL項目,發表你對項目的見解。具體可包含但不限於:
🔹 Obol 是什麼?
🔹 Obol 去中心化驗證器有何優點?
🔹 $OBOL 代幣經濟模型如何運作?
2.帶上$OBOL現貨交易連結:https://www.gate.io/trade/OBOL_USDT
3.推廣$OBOL Launchpool 質押挖礦活動,分享OBOL Launchpool 參與步驟及質押福利,質押$GT、$BTC、$OBOL 免費瓜分2,250,000 $OBOL空投獎勵,年華收益率高達168%:https://www.gate.io/launchpool/OBOL?pid=291
基辛格談人工智能:如何看待人工智能時代的國際秩序?
原文:新京報
從谷歌AlphaGo擊敗人類棋手,到ChatGpt引發科技界熱議,人工智能科技的每一次進展都牽動著人們的神經。毋庸置疑的是,人工智能正深刻改變著我們的社會、經濟、政治甚至是外交政策,而對於解釋這一切的影響來說,過往傳統的理論往往失靈。在《人工智能時代與人類未來》一書中,著名外交家基辛格、谷歌前CEO施密特和麻省理工學院蘇世民計算機學院院長胡滕洛赫爾從不同角度梳理了人工智能的前世今生,並全面探討了其發展可能給個人、企業、政府、社會、國家帶來的種種衝擊。幾位頂尖的思想者認為,隨著人工智能的能力越來越強,如何定位人類的角色,將是我們在未來的時間中必須長期思考的命題。以下內容經過出版社授權摘編自《人工智能時代與人類未來》,有刪改,小標題為摘編者所加。
原作者| [美]亨利·基辛格/ [美]埃里克·施密特/ [美]丹尼爾·胡滕洛赫爾
**通用人工智能會帶來什麼? **
人類和人工智能是否從不同的角度接近同一個現實,並且可以優勢互補、相輔相成呢?還是說,我們會感知到兩種不同但部分重疊的現實:一種是人類可以通過理性闡述的,另一種則是人工智能可以通過算法說明的?如果答案是後一種,那麼人工智能就能感知我們尚未感知也無法感知的事物——不僅因為我們沒有足夠的時間以我們的方式去推理它們,還因為它們存在於一個我們的心智無法概念化的領域之中。人類對“完全了解世界”的追求將會發生改變,人們會意識到,為了獲得某些知識,我們可能需要委託人工智能為我們獲取知識,並向我們回禀消息。無論答案是哪一個,隨著人工智能追求的目標愈加全面和廣泛,它在人類看來都將越來越像一個體驗和了解世界的“生靈”—— 一種結合了工具、寵物和心智的存在。
當研究人員接近或已然實現通用人工智能時,這個謎題只會顯得越發深邃。正如我們在第三章所述,通用人工智能將不會局限於學習和執行特定的任務;相反,根據其定義,通用人工智能將能夠學習並執行範圍極廣的任務,一如人類所為。開發通用人工智能將需要巨大的算力,這可能導致只有少數資金充足的組織有能力創建此類人工智能。與目前的人工智能一樣,儘管通用人工智能可能隨時被分散部署,但鑑於其能力,其應用有必要受到限制。可以通過只允許經批准的組織運營通用人工智能來對其施加限制。那麼問題將變成:誰來控制通用人工智能?誰來授權對其的使用?在一個少數“天才”機器由少數組織操縱的世界裡,民主還是可能的嗎?在這種情況下,人類與人工智能的合作會是何種模樣?
如果通用人工智能真的出現在世上,這將是智力、科學和戰略上的重大成就。但即便未能如此,人工智能也同樣能為人類事務帶來一場革命。人工智能在應對突發事件(或者說意外事件)及提供解決方案方面展現出的動力和能力使其有別於以往的技術。如果不受監管,人工智能可能會偏離我們的預期,進而偏離我們的意圖。到底是限制它、與它合作還是順從它的決定,將不僅僅由人類做出。在某些情況下,這將由人工智能本身決定;在其他情況下,則取決於各種助力因素。人類可能參與一場“逐底競爭”。
隨著人工智能實現流程自動化、允許人類探索大量數據,並組織和重構物質和社會領域,那些先行者可能獲得先發優勢。競爭壓力可能會迫使各方在沒有足夠時間評估風險或乾脆無視風險的情況下競相部署通用人工智能。關於人工智能的倫理道德是必不可少的。每個個體的決定—— 限制、合作或順從——也許會產生戲劇性的後果,也許不會,但當它們匯合起來,影響就會倍增。
這些決定不可能是孤立的。如果人類想要塑造未來,需要就指導每一個選擇的共同原則達成一致。確實,集體行動很難實現,有時甚至不可能,但缺乏共同道德規範指導的個人行動只會讓人類整體陷入更大的動盪與變亂。那些設計、訓練人工智能並與人工智能合作的人所能夠實現的目標,將達到迄今人類無法企及的規模和復雜程度,比如新的科學突破、新的經濟效率、新的安全形式,以及社會監控的新維度。而在擴展人工智能及其用途的過程中,那些未能獲得主導權的人卻可能會感到,他們正在被自己不了解, 而且並非由自身設計或選擇的力量所監視、研究和採取行動。這種力量的運作是不透明的,在許多社會中,這是傳統的人類行為者或機構不能容忍的。人工智能的設計者和部署者應該準備好解決這些問題,首先要做的是向非技術人員解釋人工智能在做什麼、它“知道”什麼,又會如何去做。人工智能的動態性和新興性至少令其在兩個方面產生了模糊性。首先,人工智能可能按照我們的預期運行,但會產生我們無法預見的結果。這些結果可能會把人類引入其創造者也始料未及的境地,就像1914 年的政治家沒有認識到軍事動員的舊邏輯加上新技術會把歐洲拖入戰爭一樣。如果不加審慎的考慮就部署和運用人工智能,也可能會造成嚴重後果。
這些後果可能是小範圍的,比如自動駕駛汽車做出的決定危及生命;也可能是極其重大的,比如嚴重軍事衝突。其次,在某些應用領域中,人工智能可能是不可預測的,它的行動完全出人意料。以AlphaZero 為例,它只是根據“贏棋”的指示,就發展出一種人類在幾千年的國際象棋歷史中從未設想過的棋風。雖然人類可能會小心規定人工智能的目標,但隨著我們賦予其更大的自由度,其實現目標的路徑可能會讓我們感到驚訝,甚至感到恐慌。因此,對人工智能的目標和授權都需要謹慎地設計,尤其是在其決策可能致命的領域。我們既不應將人工智能視為自動運作、無須照管的存在,也不應允許其在無人監督、監視或直接控制的情況下採取不可撤銷的行動。人工智能由人類創造,故也應由人類來監管。但在我們這個時代,人工智能面臨的挑戰之一是,具備了創造人工智能所需的技能和資源的人並非必然具有理解其更廣泛內涵的哲學視角。許多人工智能的創造者主要關注的是他們試圖實現的應用和他們想要解決的問題:他們可能不會停下來考慮這個解決方案是否會產生一場歷史性的革命,或者他們的技術將如何影響不同的人群。人工智能時代需要它自己的笛卡兒和康德,來解釋我們創造了什麼及其對人類有何意義。
我們有必要組織政府、大學和私營行業創新者均參與其中的理性討論和協商,其目標應該是對實際行動建立限制就像今天管理個人和組織行動的那些限制一樣。人工智能具有的屬性,部分與目前受監管的產品、服務、技術和實體相同,但在一些重要方面又與它們不同, 其缺乏自身完全界定的概念和法律框架。例如,人工智能不斷演變、推陳出新的特性給監管帶來了挑戰:它在世界上的運作對象和方式可能因不同領域而異,並隨著時間的推移而演變,而且並不總是以可預測的方式呈現。對人的治理是以道德準則為指導的。人工智能需要一種自己的道德準則,這種準則不僅反映了技術的本質,也反映了它所帶來的挑戰。
通常,既有原則並不適用於此處。在信仰時代,當神明裁判中的被告面臨戰鬥裁決時,法院可以判定罪行,但上帝決定誰獲得勝利。在理性時代,人類根據理性的戒律來確定罪責,並根據因果關係和犯罪意圖等概念來判罪和施以懲罰。但是人工智能並不依靠人類的理性運作,也沒有人類的動機、意圖或自我反省。因此,人工智能的引入將使適用於人類的現有正義原則更為複雜化。
當一個自主系統基於自己的感知和決策行動時,其創造者承擔責任嗎?還是說,人工智能的行為不可與其創造者相混同,至少在罪責方面不應連坐?如果人工智能被用來監測犯罪行為的跡象,或者幫助判斷某人是否有罪,那麼人工智能必須能夠“解釋”它是如何得出結論的,以便人類官員對此加以採信嗎?此外,在技術發展的哪個時點、何種背景之下,人工智能應該受到國際協商的限制?這是另一個重要的辯論主題。如果試探過早,這項技術的發展可能會受到阻礙,或者可能誘使其隱藏自身能力;而如果拖延太久,則可能會造成破壞性後果,尤其是在軍事方面。對於一種虛無縹緲、晦澀難懂且易於傳播的技術,難以對其設計有效的核查機制使得這一挑戰更加複雜。官方的協商者必然是政府,但也需要為技術專家、倫理學家、創造和運營人工智能的公司以及其他領域外人士搭建發聲平台。
對不同社會來說,人工智能帶來的兩難困境均具有深遠意義。如今,我們的社會和政治生活很大程度上是在人工智能賦能的網絡平台上發生的,民主國家尤其如此,它們依靠這些信息空間進行辯論和交流,形成公眾輿論並賦予其合法性。誰,或者什麼機構,應該界定技術的角色?誰又應該監管它?使用人工智能的個人應該扮演什麼樣的角色?生產人工智能的公司呢?部署使用它的社會政府呢?作為這些問題解決方案的一部分,我們應該設法使其可審核,即使其過程和結論既是可檢查的又是可糾正的。反過來,糾正能否實施,將取決於能否將針對人工智能感知和決策形式的原則加以細化。道德、意志甚至因果關係都不能很好地契合自主人工智能的世界。從交通運輸到金融再到醫藥,社會的大多數層面都會出現類似的問題。
想想人工智能對社交媒體的影響吧。借助最近的創新,這些平台已迅速成為我們公共生活的重要方面。正如我們在第四章中所討論的,推特和臉書用以突顯、限製或完全禁止內容或個人的功能全都仰仗人工智能,這便是其力量的證明。使用人工智能進行單邊的、通常不透明的內容和概念推廣或刪除,這對各國尤其是民主國家來說都是一個挑戰。隨著我們的社會和政治生活越來越多地轉向由人工智能管理的領域,並且我們只能依靠這種管理來駕馭這些領域,我們是否有可能保留主導權?
使用人工智能處理大量信息的做法也帶來了另一挑戰:人工智能加大了對世界的扭曲,以迎合人類的本能偏好。在這一領域,人工智能可以輕易地放大我們的認知偏差,而我們卻還與之共鳴。伴隨著這些聲音,面對選擇的多樣性,又被賦予了選擇和篩選的權力,人們接受的錯誤信息將會氾濫。社交媒體公司不會通過新聞推送來推動極端和暴力的政治極化,但顯而易見的是,這些服務也沒有導致開明話語的最大化。
人工智能、自由信息和獨立思考
那麼,我們與人工智能的關係應該是怎樣的呢?在管理這些領域時,它應該被約束、被授權,還是被當作夥伴?某些信息的傳播,尤其是故意製造的虛假信息,會造成損害、分裂和煽動,這是毋庸置疑的。因此一些限制是需要的。然而,現在對“有害信息”的譴責、打擊和壓制顯得過於寬鬆,這也應該引起反思。
在一個自由社會裡,有害信息和虛假信息的界定不應該被囿於公司的職權範圍。但是,如果將此類職責委託給一個政府小組或機構,該小組或機構應該根據確定的公共標準並通過可核查的程序來運作,以避免被當權者利用。如果將其委託給人工智能算法,則該算法的目標函數、學習、決策和行動必須清晰並接受外部審查,而且至少要有某種形式的人類訴求。
當然,不同的社會會對此得出不同的答案。有些社會可能會強調言論自由,強調程度可能因其對個人表達的相對理解差異而有所不同,並且可能因此限制人工智能在調和內容方面的作用。每個社會都會選擇各自重視的觀念,這可能會導致其與跨國網絡平台運營商之間的複雜關係。人工智能就像海綿一樣善於吸收,它向人類學習,甚至在我們設計和塑造它的時候也是如此。
因此,不僅每個社會的選擇是不同的,每個社會與人工智能的關係、對人工智能的感知,及其人工智能模仿人類、向人類老師學習的模式也是各不相同的。但有一點是確定的,那就是人類對事實和真理的追求不應該使一個社會通過一個輪廓不明、無法檢驗的過濾器來體驗生活。對現實的自發體驗儘管有其矛盾性和復雜性,卻是人類境況的一個重要方面,即使這種體驗導致了低效或錯誤。
人工智能和國際秩序
在全球範圍內,有無數問題正亟待解答。如何對人工智能網絡平台進行監管,而不會引發擔心其安全性的國家之間的緊張關係?這些網絡平台是否會侵蝕傳統的國家主權觀念?由此產生的變化會給世界帶來自蘇聯解體以來從未有過的兩極分化嗎?小國會反對嗎?試圖調解這些後果的努力會成功嗎?或者有成功的希望嗎?
隨著人工智能的能力不斷增強,如何定位與人工智能合作時人類的角色將變得愈加重要和復雜。我們可以設想這樣一個世界:在這個世界裡,人類在日益重要的問題上越發尊重人工智能的意見。在一個進攻對手成功部署人工智能的世界裡,防禦方的領導人能否決定不部署自己的人工智能並為此擔責嗎?即使他們也不確定這種部署將帶來怎樣的演變。而如果人工智能擁有推荐一種行動方案的優越能力,那麼決策者是否有理由接受它,即使該行動方案需要做出一定程度的犧牲?人類怎能知道這種犧牲是否對勝利必不可少呢?如果確實必不可少,那麼決策者真的願意否決它嗎?換句話說,我們可能別無選擇,而只能選擇扶植人工智能。但我們也有責任以一種與人類未來相容的方式來對它加以塑造。不完美是人類經驗中的常態之一,尤其是在領導力方面。
通常,決策者會因偏狹的擔憂而杯弓蛇影。有時,他們的行動基於錯誤的假設;有時,他們的行動純粹是出於感情用事;還有一些時候,意識形態扭曲了他們的視野。無論用何種策略來構建人類與人工智能的伙伴關係,它們都必須適應人類。如果人工智能在某些領域顯示出超人的能力,則其使用必須能夠被不完美的人類環境所兼容並包。
在安全領域,人工智能賦能係統響應速度非常快,使得對手可能會在系統運行之前嘗試攻擊。結果是可能造就一種內在不穩定的局勢,堪比核武器所造成的局勢。然而,核武器被置於國際安全和軍備控制概念的框架中,這些概念是由各國政府、科學家、戰略家和倫理學家通過不斷的提煉、辯論和談判,在過去幾十年裡發展起來的。人工智能和網絡武器沒有類似的框架。
事實上,政府可能並不願意承認它們的存在。各國——可能還有科技公司——需要就如何與武器化的人工智能共存達成一致。人工智能通過政府防務職能的擴散,將改變國際平衡以及在我們這個時代維持這種平衡所依賴的計算。核武器代價高昂,而且由於其規模和結構而難以被隱藏。與之相反,人工智能卻可以在隨處可見的計算機上運行。由於訓練機器學習模型需要專業知識和計算資源,因此創造一個人工智能需要大公司或國家級的資源;而由於人工智能的應用是在相對較小的計算機上進行的,因此其必將被廣泛使用,包括以我們意想不到的方式。任何擁有筆記本電腦、連接到互聯網並致力於窺探人工智能黑暗面的人,最終都能獲得人工智能賦能的武器嗎?政府是否會允許與其關係若即若離或毫無關係的行為者使用人工智能來騷擾他們的對手?恐怖分子會策劃人工智能襲擊嗎?他們是否能夠將這些活動嫁禍給國家或其他行為者?
過去,外交在一個有組織、可預測的舞台上進行;如今,其信息獲取和行動範圍將獲得極大的擴展。以往因地理和語言差異而形成的清晰界線將逐漸消失。人工智能翻譯將促進對話,而且不用像以往的譯者那樣不僅要有語言造詣,還要精通文化。人工智能賦能的網絡平台將促進跨境交流,而黑客攻擊和虛假信息將繼續扭曲人們的認知和評估。隨著形勢愈加複雜,制定具有可預測結果的可執行協議將變得更加困難。
將人工智能功能與網絡武器相結合的可能性加深了這一困境。人類通過明確區分常規武器(被認為與傳統戰略相調和)和核武器(被認為是例外)而迴避了核悖論。核武器的破壞力量一旦釋放就是無差別的,不分對象;而常規武器可以辨別打擊目標。但是,既能辨別目標又能進行大規模破壞的網絡武器消除了這一區分。
如果再有人工智能推波助瀾,這些武器將如虎添翼,變得更加不可預測,潛在的破壞性也更大。同時,當這些武器在網絡中伺機游弋時,是無法確定歸屬的。它們無法被察覺,因為它們不像核武器那麼笨重;它們還可以通過U 盤攜帶,而這有利於擴散。在某些形式下,這些武器一旦被運用就難以控制,如果考慮到人工智能的動態和新興特性就更加如此。
這種形勢挑戰了以規則為基礎的世界秩序的前提。此外,它還讓發展人工智能軍備控制的相關概念成了當務之急。在人工智能時代,威懾將不再依照歷史上的準則, 它也做不到這一點。在核時代之初,依據哈佛大學、麻省理工學院和加州理工學院的領軍教授、學者(有政府工作經驗)在討論中形成的真知灼見,人們搭建了一個核軍備控制的概念框架,繼而又促成了一個制度(以及在美國和其他國家實施該制度的機構)的建立。
儘管學術界的思想很重要,但它與五角大樓對常規戰爭的考量是分開實施的—— 它是一種新的補充,而非對原有的修改。但人工智能的潛在軍事用途比核武器更廣泛,而且至少目前其進攻和防禦還談不上涇渭分明。在一個如此復雜、內在又如此叵測的世界裡,人工智能成了另一種誤解和錯誤的可能來源,擁有高科技能力的大國遲早將不得不就此進行一場持續對話。
這種對話應聚焦於一個根本問題:避免災難,並以此求得生存。人工智能和其他新興技術(比如量子計算)似乎正在讓超越人類感知範圍的現實變得更加觸手可及。然而,最終我們可能會發現,即使是這些技術也有其局限性。我們的問題是,我們尚未領會它們的哲學蘊含。我們正在被它們不由自主地推動向前,而非有意識的。
上一次人類意識發生重大變化是在啟蒙運動時期,這一轉變的發生是因為新技術產生了新的哲學見解,而這些見解又通過技術(以印刷機的形式)傳播開來。在我們這個時代,新技術已經發展起來,但相應的指導性的哲學理念卻暫付闕如。人工智能是一項具有深遠潛在利益的宏大事業。人類正在努力開發人工智能,但我們是用它來讓我們的生活變得更好還是更糟?它允諾帶來更強力的藥物、更高效公平的醫療保健、更可持續的環境實踐,以及其他種種進步圖景。然而與此同時,它也可以使信息失真,或者至少使信息的消費和真相識別的過程變得更加錯綜複雜,並由此令一部分人的獨立推理和判斷能力日漸萎落。
最後,一個“元”問題浮現出來:在對世界有著不同解釋和理解的人工智能的“輔助”下,人類能否滿足對哲學的需求?人類並不完全了解機器,但我們最終將與它們和平共處,並以此改變世界?伊曼努爾·康德在他的《純粹理性批判》一書的序言中以這樣一個觀點開篇:
人類理性具有此種特殊運命,即在其所有知識之一門類中,為種種問題所困,此等問題以其為理性自身之本質所加之於其自身者,故不能置之不顧,但又因其超越理性所有之一切能力, 故又不能解答之也。
在此後的幾個世紀裡,人類對這些問題進行了深入的探索,其中一些問題涉及心靈、理性乃至現實的本質。人類已取得了重大突破,但也遇到了康德提出的許多限制:一個其無法回答的問題領域,一個其無法完全了解的事實領域。人工智能的出現,帶來了人類僅憑理性無法實現的學習和處理信息的能力,其可能會讓我們在那些已被證明超出我們回答能力的問題上取得進展。但是,成功將產生新的問題,其中一些問題我們已經試圖在本書中闡明。人類智能和人工智能正值風雲際會,兩者將彼此融匯於國家、大洲,甚至全球範圍內的各種追求之中。理解這一轉變,並為之發展一種指導性道德準則,需要社會各個階層,包括科學家和戰略家、政治家和哲學家、神職人員和首席執行官們,群策群力、各抒己見並做出共同的承諾。不僅各國內部應有此承諾,國與國之間也同樣如此。我們與人工智能究竟能建立何種夥伴關係,由此又會產生什麼樣的現實呢?現在,是時候對此加以界定了。
作者:/[美]亨利·基辛格/ [美]埃里克·施密特/ [美]丹尼爾·胡滕洛赫爾
摘編/劉亞光
編輯/劉亞光
校對/趙琳