研究者が汎用人工知能に近づいたり、それを実現したりするにつれて、謎は深まるばかりです。第 3 章で説明したように、AGI は特定のタスクの学習と実行に限定されず、定義上、人間と同じように非常に幅広いタスクを学習して実行できるようになります。汎用人工知能の開発には膨大なコンピューティング能力が必要となるため、そのような AI を作成できるのは資金豊富な少数の組織だけになる可能性があります。現在の AI と同様に、AGI は容易に分散化して展開できますが、その機能を考慮すると、その用途は必然的に制限されます。承認された組織のみに AGI の運用を許可することで、AGI に制限を課すことができます。そこで問題となるのは、誰が AGI を制御するのかということです。誰がその使用を認可するのでしょうか?少数の「天才」マシンが少数の組織によって運営されている世界で、民主主義はまだ可能でしょうか?この場合、人間とAIの協力はどのようなものになるでしょうか?
もし汎用人工知能が世界に出現すれば、それは知的、科学的、戦略的な大きな成果となるでしょう。しかし、たとえそれが失敗したとしても、人工知能は人類情勢に革命をもたらす可能性もあります。 AI の推進力と、緊急事態 (または予期せぬ出来事) に対応し、ソリューションを提供する能力は、これまでのテクノロジーとは一線を画しています。 AI が規制されないまま放置されると、私たちの期待、ひいては私たちの意図から逸脱する可能性があります。それを制限するのか、それに協力するのか、それに従うのかを決めるのは人間だけではありません。これは AI 自体によって決定される場合もあれば、さまざまな実現要因に依存する場合もあります。人類は「底辺への競争」に参加しているのかもしれない。
AI がプロセスを自動化し、人間が膨大な量のデータを探索できるようになり、物理的および社会的領域を組織化して再構築することで、先行者が先行者利益を得る可能性があります。競争の圧力により、各当事者はリスクを評価する十分な時間がないまま、または単純にリスクを無視することなく、AGI の導入を競うことになる可能性があります。人工知能に関する倫理は不可欠です。制限するか、協力するか、遵守するかといった個々の決定は劇的な結果をもたらす場合もあれば、そうでない場合もありますが、組み合わせるとその影響は倍増します。
これらの決定は単独で行うことはできません。人類が未来を形作りたいのであれば、あらゆる選択の指針となる共通原則に同意する必要があります。確かに、集団行動は困難であり、場合によっては不可能ですらありますが、共通の道徳規範の導きのない個人の行動は、人類全体にとってより大きな混乱と混乱を招くだけです。 AI を設計、トレーニング、および操作する人々は、新たな科学の進歩、新たな経済効率、新たな形態のセキュリティ、新たな次元の社会監視など、これまで人間が達成できなかった規模と複雑さの目標を達成できるようになります。そして、人工知能とその利用が拡大する中で、権限を与えられていない人々は、理解できない、自分で計画したり選択したりしたものではない力によって監視され、研究され、行動されていると感じるかもしれません。この権力は不透明な方法で機能しており、多くの社会では伝統的な人間の主体や組織が容認することができません。 AI の設計者と導入担当者は、技術者以外の人々に AI が何をしているのか、AI が何を「知っている」のか、そしてどのように実行するのかを説明することから始めて、これらの問題に対処する準備をしておく必要があります。 AI の動的かつ新たな性質は、少なくとも 2 つの点で曖昧さを生み出します。まず、人工知能は私たちが期待するとおりに動作するかもしれませんが、私たちが予測できない結果を生み出す可能性があります。これらの結果は、1914年の政治家たちが軍事動員という古い論理と新しい技術が結びついてヨーロッパを戦争に引きずり込むことを認識できなかったのと同じように、人類をその創造者が予期しなかった場所に導くかもしれない。人工知能は、慎重に検討せずに導入および使用すると、重大な結果を招く可能性もあります。
映画『アリータ:バトル・エンジェル』のスチール写真。
これらの影響は、自動運転車による生命を脅かす意思決定などの小規模な場合もあれば、深刻な軍事紛争などの非常に重大な場合もあります。第 2 に、一部のアプリケーション ドメインでは、AI が予測不能で、まったく予期しない動作をする可能性があります。 AlphaZeroを例に挙げると、「勝つチェス」の指示に従って、数千年のチェスの歴史の中で人類が想像したこともなかったチェスのスタイルを開発しました。人間は AI の目標を慎重に規定するかもしれませんが、AI に自由度を与えると、その目標に至るまでの道のりに驚かされ、パニックに陥ることさえあるかもしれません。したがって、特に AI の決定が致命的となる可能性がある分野では、AI のターゲットと使命の両方を慎重に設計する必要があります。 AI は自律的で無人であるとみなされるべきではなく、監督、監視、または直接制御なしで取り消し不能なアクションを実行することを許可されるべきではありません。人工知能は人間によって作られたものであるため、それも人間によって監視される必要があります。しかし、現代における AI の課題の 1 つは、AI を作成するためのスキルとリソースを持っている人が、その広範な意味を理解するための哲学的視点を必ずしも持っていないことです。人工知能の作成者の多くは、主に、達成しようとしているアプリケーションと解決したい問題に焦点を当てています。彼らは、そのソリューションが歴史的な革命を生み出すかどうか、あるいは自分たちのテクノロジーがさまざまな群衆にどのような影響を与えるかについて、立ち止まって考えることはないかもしれません。人工知能の時代には、私たちが何を生み出したのか、そしてそれが人間にとって何を意味するのかを説明するために、独自のデカルトとカントが必要です。
私たちは、政府、大学、民間業界のイノベーターを巻き込んだ合理的な議論と交渉を組織する必要があり、その目標は、今日の個人および組織の行動を規制しているような実際的な行動に対する制限を確立することであるべきです。 AI は、現在規制されている製品、サービス、技術、エンティティと一部共通する属性を持っていますが、独自の完全に定義された概念および法的枠組みを欠いているという点で、いくつかの重要な点で異なります。たとえば、AI の絶え間なく進化する挑発的な性質は、規制上の課題を引き起こします: 世界で誰がどのように動作するかはドメイン間で異なり、時間の経過とともに進化する可能性があり、常に予測可能な形で表現されるわけではありません。人々の統治は倫理規定によって導かれます。 AI には、テクノロジーの性質だけでなく、それがもたらす課題も反映する独自の道徳的な羅針盤が必要です。
自律システムが自らの認識と決定に基づいて行動するとき、その作成者は責任をとりますか?それとも、少なくとも責任の観点において、AI の行為をその作成者の行為と混同すべきではないでしょうか?犯罪行為の兆候を検出したり、誰かが有罪かどうかを判断するために AI を使用する場合、AI は人間の役人が信頼できるように、どのように結論に至ったかを「説明」できなければなりませんか?さらに、AIは技術開発のどの時点で、どのような文脈で国際交渉の対象となるのでしょうか。これも重要な議論のテーマです。調査が早すぎると、テクノロジーの開発が妨げられたり、その能力を隠そうとしたりする可能性があり、遅すぎると、特に軍事において壊滅的な結果をもたらす可能性があります。この課題は、幻想的で曖昧で容易に普及するテクノロジーの効果的な検証メカニズムを設計することが難しいことによってさらに複雑になります。正式な交渉者は必然的に政府となるが、技術者、倫理学者、AIを開発・運用する企業など、分野外の人々の声も必要となるだろう。
アメリカのドラマ「ウエスタンワールド」の静止画です。
AI によって引き起こされるジレンマは、さまざまな社会に広範な影響を及ぼします。今日、私たちの社会生活や政治生活の多くは AI 対応のオンライン プラットフォーム上で行われており、特に民主主義国家は議論やコミュニケーションのためにこれらの情報空間に依存し、世論を形成し、それに正当性を与えています。誰が、あるいはどの機関がテクノロジーの役割を定義すべきでしょうか?誰がそれを規制すべきでしょうか? AIを活用する個人はどのような役割を果たすべきでしょうか?人工知能を生産する企業はどうでしょうか?社会政府がそれを導入する場合はどうなるでしょうか?これらの問題の解決策の一環として、それを監査可能にする、つまり、そのプロセスと結論の両方を検査可能かつ修正可能にするように努めるべきです。次に、修正を実装できるかどうかは、AI の認識と意思決定の形式に関する原則を洗練できるかどうかにかかっています。自律型人工知能の世界には、道徳、意志、さらには因果関係さえも適合しません。同様の問題は、交通機関から金融、医療に至るまで、社会のほとんどのレベルで発生しています。
人工知能がソーシャルメディアに与える影響を考えてみましょう。最近の技術革新により、これらのプラットフォームは急速に私たちの公共生活の重要な側面になりました。第 4 章で説明したように、Twitter と Facebook がコンテンツや個人を強調したり、制限したり、完全に禁止したりするために使用している機能はすべて人工知能に依存しており、その威力の証拠です。コンテンツやコンセプトの一方的かつ不透明なプロモーションや削除に AI を使用することは、すべての国、特に民主主義国にとっての課題です。私たちの社会生活や政治生活が人工知能によって統治される領域にますます移行しており、人工知能をナビゲートするにはそのような管理にのみ依存するしかない中で、私たちが優位性を維持することは可能でしょうか?
では、私たちと AI の関係はどのようなものであるべきでしょうか?これらの領域を管理する上で、制約を与えるべきか、権限を与えるべきか、それともパートナーとして扱うべきでしょうか?特定の情報、特に意図的に作成された虚偽の情報の流布が、損害、分裂、扇動を引き起こす可能性があることは疑いの余地がありません。したがって、いくつかの制限が必要です。しかし、今は「有害情報」に対する非難、攻撃、弾圧が緩すぎることも反省につながるはずだ。
自由社会では、有害な情報や偽情報の定義は企業の範囲に限定されるべきではありません。ただし、そのような責任が政府のグループまたは政府機関に委ねられている場合、そのグループまたは政府機関は、権力者による搾取を避けるために、確立された公的基準に従って、検証可能な手順に従って運営されるべきです。 AI アルゴリズムに任せる場合、アルゴリズムの目的関数、学習、決定、およびアクションは明確であり、外部の監視を受け、少なくとも何らかの形で人間の訴えを受ける必要があります。
もちろん、社会が異なれば、これに対する答えも異なります。一部の社会では、おそらく個々の表現に対する相対的な理解に基づいて程度の差はあるものの、表現の自由を重視するため、コンテンツの調整における AI の役割が制限される可能性があります。各社会はどのアイデアを重視するかを選択しており、それが多国籍ネットワーク プラットフォーム オペレーターとの複雑な関係につながる可能性があります。 AI はスポンジのように吸収力があり、私たちが設計して形を整えているときでも、人間から学びます。
人工知能の能力が向上し続けるにつれて、人工知能と協力して人間の役割をどのように位置付けるかは、ますます重要かつ複雑になります。重要性が増している問題に関して、人間が人工知能の意見をますます尊重する世界を私たちは想像できます。攻撃側の敵が AI の導入に成功している世界において、防御側のリーダーは独自の AI を導入しないことを決定し、それに責任を負うことができるでしょうか?彼らでさえ、この展開がどのように展開するかはわかりません。そして、AI が行動方針を推奨する優れた能力を持っている場合、たとえその行動方針がある程度の犠牲を必要とするとしても、意思決定者がそれを受け入れる理由はあるのでしょうか?そのような犠牲が勝利に不可欠であるかどうかを人はどうやって知ることができるでしょうか?それが不可欠である場合、政策立案者は本当に拒否権を発動するつもりなのでしょうか?つまり、人工知能を育てていくしかないのかもしれません。しかし、私たちには人類の将来に適合する形でそれを形作る責任もあります。不完全さは人間の経験の規範の 1 つであり、特にリーダーシップに関してはそうです。
多くの場合、政策立案者は耐え難い懸念に圧倒されます。彼らの行動は誤った仮定に基づいている場合もあれば、純粋な感情から行動している場合もあり、また、イデオロギーによってビジョンが歪められている場合もあります。人間と AI のパートナーシップを構築するためにどのような戦略が使用されるとしても、それらは人間に適応する必要があります。人工知能が特定の領域で超人的な能力を発揮する場合、その使用は不完全な人間環境に適合するものでなければなりません。
実際、政府はその存在を認めることに消極的かもしれません。各国、そしておそらくテクノロジー企業は、兵器化された AI とどのように共存するかについて合意する必要があります。政府の防衛機能を通じた AI の普及は、現代の国際バランスとそれを維持するコンピューティングを変えるでしょう。核兵器は高価であり、その大きさと構造のために隠蔽するのが困難です。対照的に、人工知能はどこにでもあるコンピューター上で実行できます。機械学習モデルのトレーニングには専門知識とコンピューティング リソースが必要であるため、人工知能の作成には大企業または国レベルのリソースが必要であり、人工知能の適用は比較的小型のコンピューターで実行されるため、広く使用されるはずです。 、私たちが予想していなかった方法も含めて。ラップトップとインターネット接続を持ち、AI の暗い側面を覗き見しようと決意している人が、ついに AI を活用した兵器にアクセスできるようになるでしょうか?政府は、自分たちと密接な関係がある、またはまったく関係のない主体が AI を使用して敵対者に嫌がらせをすることを許可するのでしょうか?テロリストはAI攻撃を計画するのでしょうか?彼らはこれらの活動を国家や他の主体のせいにすることができるだろうか?
かつて、外交は組織化され予測可能な舞台で行われていましたが、今日では情報へのアクセスと行動範囲が大幅に拡大されるでしょう。地理的、言語的違いによって形成されていた明確な境界線は徐々に消えていきます。 AI 翻訳は、これまでの翻訳者のように言語的知識だけでなく文化的知識も必要とせず、対話を促進します。 AI を活用したオンライン プラットフォームは国境を越えたコミュニケーションを促進する一方、ハッキングや偽情報により認識や評価が歪み続けます。状況がより複雑になるにつれて、結果が予測可能な強制力のある合意を作成することはより困難になります。
AI 機能とサイバー兵器を組み合わせる可能性が、このジレンマをさらに悪化させます。人類は、通常兵器(従来の戦略と調和すると考えられる)と核兵器(例外と考えられる)を明確に区別することによって、核のパラドックスを回避している。通常兵器が標的を区別できるのに対し、核兵器の破壊力はひとたび放出されると、標的に関わらず無差別に破壊されます。しかし、標的を特定し、大規模な破壊を引き起こすことができるサイバー兵器は、その区別を消し去ります。
それ以来何世紀にもわたって、人類はこれらの疑問を深く調査してきましたが、その中には心、理性、さらには現実の性質に関わるものもあります。人類は大きな進歩を遂げてきましたが、カントが提示した多くの限界にも直面しました。それは、人類が答えることのできない疑問の領域、完全には理解できない事実の領域です。人間が理性だけでは達成できない情報を学習して処理する能力をもたらす人工知能の出現により、私たちの回答能力を超えていることが証明されている質問について進歩できるようになるかもしれません。しかし、成功すると新たな疑問が生じ、そのいくつかについては本書で明らかにしようとしました。人間の知能と人工知能は、国家、大陸、さらには地球規模での追求において収束する岐路にあります。この変化を理解し、それを中心とした指針となる倫理規定を策定するには、科学者や戦略家、政治家や哲学者、聖職者や CEO を含む社会のあらゆる層の集合的な知恵、声、そして共通の取り組みが必要となります。この約束は国内だけでなく国家間でも行われるべきです。人工知能と私たちはどのようなパートナーシップを築くことができ、そこからどのような現実が生まれるのでしょうか?ここでこれを定義します。
キッシンジャー氏、人工知能について語る:人工知能時代の国際秩序をどう見ていますか?
原文:北京ニュース
人間のチェスプレイヤーを破った Google の AlphaGo から、テクノロジー コミュニティでの激しい議論を引き起こした ChatGpt まで、人工知能テクノロジーのあらゆる進歩は人々の神経に影響を与えます。人工知能が私たちの社会、経済、政治、さらには外交政策さえも大きく変えていることは疑いの余地がなく、過去の伝統的な理論ではこれらすべての影響を説明できないことがよくあります。 『人工知能の時代と人類の未来』という本の中で、有名な外交官キッシンジャー、グーグル元最高経営責任者シュミット、マサチューセッツ工科大学シュワルツマンコンピューターサイエンス学部長ハッテンロッカーはこう述べている。さまざまな視点から人工知能の過去と今を振り返り、その開発が個人、企業、政府、社会、国家にもたらす可能性のあるさまざまな影響を包括的に議論しました。何人かの一流の思想家は、人工知能の能力がますます強力になるにつれて、人間の役割をどのように位置づけるかは、将来的に長い間考えなければならない命題になると信じています。以下の内容は、『人工知能の時代と人類の未来』より出版社の許可を得て抜粋し、編集者が削除・修正し、字幕を付けたものです。
原著者 | [米国] ヘンリー・キッシンジャー / [米国] エリック・シュミット / [米国] ダニエル・ハッテンロッカー
**一般的な人工知能は何をもたらすのでしょうか? **
人間と人工知能は、異なる視点から同じ現実にアプローチし、相互に補い合い、補完し合うことができるのでしょうか?それとも、私たちは、人間が合理的に説明できるものと、人工知能がアルゴリズム的に説明できるものという、2 つの異なる、しかし部分的に重複する現実を認識しているのでしょうか?答えが後者である場合、人工知能は、私たちがまだ認識していないもの、または認識できないものを認識できることになります。それは、私たちがそれらについて推論するのに十分な時間が私たちのやり方ではないからだけでなく、それらは私たちの心が認識できる場所に存在しているためです。現場では概念化できない。人類の「世界の完全な理解」の追求は変化し、特定の知識を得るには、人工知能に知識を委ねて報告してもらう必要があるかもしれないことに人々は気づくでしょう。答えが何であれ、人工知能がより包括的かつ広範な目標を追求するにつれて、人間にとって人工知能はますます世界を経験し、理解する、道具、ペット、心の組み合わせである「生き物」のように見えるでしょう。
研究者が汎用人工知能に近づいたり、それを実現したりするにつれて、謎は深まるばかりです。第 3 章で説明したように、AGI は特定のタスクの学習と実行に限定されず、定義上、人間と同じように非常に幅広いタスクを学習して実行できるようになります。汎用人工知能の開発には膨大なコンピューティング能力が必要となるため、そのような AI を作成できるのは資金豊富な少数の組織だけになる可能性があります。現在の AI と同様に、AGI は容易に分散化して展開できますが、その機能を考慮すると、その用途は必然的に制限されます。承認された組織のみに AGI の運用を許可することで、AGI に制限を課すことができます。そこで問題となるのは、誰が AGI を制御するのかということです。誰がその使用を認可するのでしょうか?少数の「天才」マシンが少数の組織によって運営されている世界で、民主主義はまだ可能でしょうか?この場合、人間とAIの協力はどのようなものになるでしょうか?
もし汎用人工知能が世界に出現すれば、それは知的、科学的、戦略的な大きな成果となるでしょう。しかし、たとえそれが失敗したとしても、人工知能は人類情勢に革命をもたらす可能性もあります。 AI の推進力と、緊急事態 (または予期せぬ出来事) に対応し、ソリューションを提供する能力は、これまでのテクノロジーとは一線を画しています。 AI が規制されないまま放置されると、私たちの期待、ひいては私たちの意図から逸脱する可能性があります。それを制限するのか、それに協力するのか、それに従うのかを決めるのは人間だけではありません。これは AI 自体によって決定される場合もあれば、さまざまな実現要因に依存する場合もあります。人類は「底辺への競争」に参加しているのかもしれない。
AI がプロセスを自動化し、人間が膨大な量のデータを探索できるようになり、物理的および社会的領域を組織化して再構築することで、先行者が先行者利益を得る可能性があります。競争の圧力により、各当事者はリスクを評価する十分な時間がないまま、または単純にリスクを無視することなく、AGI の導入を競うことになる可能性があります。人工知能に関する倫理は不可欠です。制限するか、協力するか、遵守するかといった個々の決定は劇的な結果をもたらす場合もあれば、そうでない場合もありますが、組み合わせるとその影響は倍増します。
これらの決定は単独で行うことはできません。人類が未来を形作りたいのであれば、あらゆる選択の指針となる共通原則に同意する必要があります。確かに、集団行動は困難であり、場合によっては不可能ですらありますが、共通の道徳規範の導きのない個人の行動は、人類全体にとってより大きな混乱と混乱を招くだけです。 AI を設計、トレーニング、および操作する人々は、新たな科学の進歩、新たな経済効率、新たな形態のセキュリティ、新たな次元の社会監視など、これまで人間が達成できなかった規模と複雑さの目標を達成できるようになります。そして、人工知能とその利用が拡大する中で、権限を与えられていない人々は、理解できない、自分で計画したり選択したりしたものではない力によって監視され、研究され、行動されていると感じるかもしれません。この権力は不透明な方法で機能しており、多くの社会では伝統的な人間の主体や組織が容認することができません。 AI の設計者と導入担当者は、技術者以外の人々に AI が何をしているのか、AI が何を「知っている」のか、そしてどのように実行するのかを説明することから始めて、これらの問題に対処する準備をしておく必要があります。 AI の動的かつ新たな性質は、少なくとも 2 つの点で曖昧さを生み出します。まず、人工知能は私たちが期待するとおりに動作するかもしれませんが、私たちが予測できない結果を生み出す可能性があります。これらの結果は、1914年の政治家たちが軍事動員という古い論理と新しい技術が結びついてヨーロッパを戦争に引きずり込むことを認識できなかったのと同じように、人類をその創造者が予期しなかった場所に導くかもしれない。人工知能は、慎重に検討せずに導入および使用すると、重大な結果を招く可能性もあります。
これらの影響は、自動運転車による生命を脅かす意思決定などの小規模な場合もあれば、深刻な軍事紛争などの非常に重大な場合もあります。第 2 に、一部のアプリケーション ドメインでは、AI が予測不能で、まったく予期しない動作をする可能性があります。 AlphaZeroを例に挙げると、「勝つチェス」の指示に従って、数千年のチェスの歴史の中で人類が想像したこともなかったチェスのスタイルを開発しました。人間は AI の目標を慎重に規定するかもしれませんが、AI に自由度を与えると、その目標に至るまでの道のりに驚かされ、パニックに陥ることさえあるかもしれません。したがって、特に AI の決定が致命的となる可能性がある分野では、AI のターゲットと使命の両方を慎重に設計する必要があります。 AI は自律的で無人であるとみなされるべきではなく、監督、監視、または直接制御なしで取り消し不能なアクションを実行することを許可されるべきではありません。人工知能は人間によって作られたものであるため、それも人間によって監視される必要があります。しかし、現代における AI の課題の 1 つは、AI を作成するためのスキルとリソースを持っている人が、その広範な意味を理解するための哲学的視点を必ずしも持っていないことです。人工知能の作成者の多くは、主に、達成しようとしているアプリケーションと解決したい問題に焦点を当てています。彼らは、そのソリューションが歴史的な革命を生み出すかどうか、あるいは自分たちのテクノロジーがさまざまな群衆にどのような影響を与えるかについて、立ち止まって考えることはないかもしれません。人工知能の時代には、私たちが何を生み出したのか、そしてそれが人間にとって何を意味するのかを説明するために、独自のデカルトとカントが必要です。
私たちは、政府、大学、民間業界のイノベーターを巻き込んだ合理的な議論と交渉を組織する必要があり、その目標は、今日の個人および組織の行動を規制しているような実際的な行動に対する制限を確立することであるべきです。 AI は、現在規制されている製品、サービス、技術、エンティティと一部共通する属性を持っていますが、独自の完全に定義された概念および法的枠組みを欠いているという点で、いくつかの重要な点で異なります。たとえば、AI の絶え間なく進化する挑発的な性質は、規制上の課題を引き起こします: 世界で誰がどのように動作するかはドメイン間で異なり、時間の経過とともに進化する可能性があり、常に予測可能な形で表現されるわけではありません。人々の統治は倫理規定によって導かれます。 AI には、テクノロジーの性質だけでなく、それがもたらす課題も反映する独自の道徳的な羅針盤が必要です。
多くの場合、確立された原則はここでは適用されません。信仰の時代、異端審問の被告が戦闘評決に直面したとき、裁判所は犯罪を決定することができましたが、どちらが勝利するかは神が決定しました。理性の時代、人類は理性の戒律に従って罪を定め、因果関係や犯意などの概念に従って犯罪を裁き、処罰するようになった。しかし、人工知能は人間の理性に基づいて動作するわけではなく、人間の動機、意図、内省もありません。したがって、AIの導入は、人間に適用される既存の正義の原則を複雑にするでしょう。
自律システムが自らの認識と決定に基づいて行動するとき、その作成者は責任をとりますか?それとも、少なくとも責任の観点において、AI の行為をその作成者の行為と混同すべきではないでしょうか?犯罪行為の兆候を検出したり、誰かが有罪かどうかを判断するために AI を使用する場合、AI は人間の役人が信頼できるように、どのように結論に至ったかを「説明」できなければなりませんか?さらに、AIは技術開発のどの時点で、どのような文脈で国際交渉の対象となるのでしょうか。これも重要な議論のテーマです。調査が早すぎると、テクノロジーの開発が妨げられたり、その能力を隠そうとしたりする可能性があり、遅すぎると、特に軍事において壊滅的な結果をもたらす可能性があります。この課題は、幻想的で曖昧で容易に普及するテクノロジーの効果的な検証メカニズムを設計することが難しいことによってさらに複雑になります。正式な交渉者は必然的に政府となるが、技術者、倫理学者、AIを開発・運用する企業など、分野外の人々の声も必要となるだろう。
AI によって引き起こされるジレンマは、さまざまな社会に広範な影響を及ぼします。今日、私たちの社会生活や政治生活の多くは AI 対応のオンライン プラットフォーム上で行われており、特に民主主義国家は議論やコミュニケーションのためにこれらの情報空間に依存し、世論を形成し、それに正当性を与えています。誰が、あるいはどの機関がテクノロジーの役割を定義すべきでしょうか?誰がそれを規制すべきでしょうか? AIを活用する個人はどのような役割を果たすべきでしょうか?人工知能を生産する企業はどうでしょうか?社会政府がそれを導入する場合はどうなるでしょうか?これらの問題の解決策の一環として、それを監査可能にする、つまり、そのプロセスと結論の両方を検査可能かつ修正可能にするように努めるべきです。次に、修正を実装できるかどうかは、AI の認識と意思決定の形式に関する原則を洗練できるかどうかにかかっています。自律型人工知能の世界には、道徳、意志、さらには因果関係さえも適合しません。同様の問題は、交通機関から金融、医療に至るまで、社会のほとんどのレベルで発生しています。
人工知能がソーシャルメディアに与える影響を考えてみましょう。最近の技術革新により、これらのプラットフォームは急速に私たちの公共生活の重要な側面になりました。第 4 章で説明したように、Twitter と Facebook がコンテンツや個人を強調したり、制限したり、完全に禁止したりするために使用している機能はすべて人工知能に依存しており、その威力の証拠です。コンテンツやコンセプトの一方的かつ不透明なプロモーションや削除に AI を使用することは、すべての国、特に民主主義国にとっての課題です。私たちの社会生活や政治生活が人工知能によって統治される領域にますます移行しており、人工知能をナビゲートするにはそのような管理にのみ依存するしかない中で、私たちが優位性を維持することは可能でしょうか?
人工知能を使用して大量の情報を処理するという実践には、別の課題も伴います。人工知能は、人間の本能的な好みに応えるために世界の歪みを増大させます。これは、人工知能が私たちの認知バイアスを簡単に増幅してしまう領域ですが、それでも私たちはその認知バイアスに共鳴します。こうした声があり、多様な選択肢に直面し、選択し選別する権限を与えられた人々は、誤った情報の洪水を受け取ることになるでしょう。ソーシャルメディア企業は、ニュースフィードを通じて極端で暴力的な政治的二極化を促進しませんが、これらのサービスが啓発的な言説の最大化にもつながらないことは明らかです。
人工知能、無料の情報、独立した思考
では、私たちと AI の関係はどのようなものであるべきでしょうか?これらの領域を管理する上で、制約を与えるべきか、権限を与えるべきか、それともパートナーとして扱うべきでしょうか?特定の情報、特に意図的に作成された虚偽の情報の流布が、損害、分裂、扇動を引き起こす可能性があることは疑いの余地がありません。したがって、いくつかの制限が必要です。しかし、今は「有害情報」に対する非難、攻撃、弾圧が緩すぎることも反省につながるはずだ。
自由社会では、有害な情報や偽情報の定義は企業の範囲に限定されるべきではありません。ただし、そのような責任が政府のグループまたは政府機関に委ねられている場合、そのグループまたは政府機関は、権力者による搾取を避けるために、確立された公的基準に従って、検証可能な手順に従って運営されるべきです。 AI アルゴリズムに任せる場合、アルゴリズムの目的関数、学習、決定、およびアクションは明確であり、外部の監視を受け、少なくとも何らかの形で人間の訴えを受ける必要があります。
もちろん、社会が異なれば、これに対する答えも異なります。一部の社会では、おそらく個々の表現に対する相対的な理解に基づいて程度の差はあるものの、表現の自由を重視するため、コンテンツの調整における AI の役割が制限される可能性があります。各社会はどのアイデアを重視するかを選択しており、それが多国籍ネットワーク プラットフォーム オペレーターとの複雑な関係につながる可能性があります。 AI はスポンジのように吸収力があり、私たちが設計して形を整えているときでも、人間から学びます。
したがって、各社会の選択が異なるだけでなく、各社会とAIとの関係、AIに対する認識、AIが人間を模倣し、人間の教師から学ぶ方法も異なります。しかし、一つ確かなことは、人間による事実と真実の探求によって、社会が不明確で検証不可能なフィルターを通して人生を体験するようなことがあってはいけないということです。現実の自発的な経験は、そのあらゆる矛盾や複雑さにもかかわらず、たとえそれが非効率や間違いにつながるとしても、人間の状態の重要な側面です。
人工知能と国際秩序
世界中で数え切れないほどの質問が答えを待っています。安全性を懸念する国々の間で緊張を引き起こすことなく、人工知能のオンライン プラットフォームを規制するにはどうすればよいでしょうか?これらのオンライン プラットフォームは国家主権の伝統的な概念を侵食するのでしょうか?その結果生じる変化は、ソ連崩壊以来見られなかった二極化を世界にもたらすのだろうか?小さな議会は反対しますか?こうした結果を調停する試みは成功するでしょうか?それとも成功の見込みはあるのでしょうか?
人工知能の能力が向上し続けるにつれて、人工知能と協力して人間の役割をどのように位置付けるかは、ますます重要かつ複雑になります。重要性が増している問題に関して、人間が人工知能の意見をますます尊重する世界を私たちは想像できます。攻撃側の敵が AI の導入に成功している世界において、防御側のリーダーは独自の AI を導入しないことを決定し、それに責任を負うことができるでしょうか?彼らでさえ、この展開がどのように展開するかはわかりません。そして、AI が行動方針を推奨する優れた能力を持っている場合、たとえその行動方針がある程度の犠牲を必要とするとしても、意思決定者がそれを受け入れる理由はあるのでしょうか?そのような犠牲が勝利に不可欠であるかどうかを人はどうやって知ることができるでしょうか?それが不可欠である場合、政策立案者は本当に拒否権を発動するつもりなのでしょうか?つまり、人工知能を育てていくしかないのかもしれません。しかし、私たちには人類の将来に適合する形でそれを形作る責任もあります。不完全さは人間の経験の規範の 1 つであり、特にリーダーシップに関してはそうです。
多くの場合、政策立案者は耐え難い懸念に圧倒されます。彼らの行動は誤った仮定に基づいている場合もあれば、純粋な感情から行動している場合もあり、また、イデオロギーによってビジョンが歪められている場合もあります。人間と AI のパートナーシップを構築するためにどのような戦略が使用されるとしても、それらは人間に適応する必要があります。人工知能が特定の領域で超人的な能力を発揮する場合、その使用は不完全な人間環境に適合するものでなければなりません。
セキュリティ分野では、AI 対応システムは非常に迅速に反応するため、システムが稼働する前に敵対者が攻撃を試みる可能性があります。その結果、核兵器によって引き起こされる状況に匹敵する本質的に不安定な状況が生じる可能性があります。しかし、核兵器は、過去数十年にわたって政府、科学者、戦略家、倫理学者によって継続的な改良、議論、交渉を通じて開発されてきた国際安全保障と軍備管理の概念の中に組み込まれています。人工知能とサイバー兵器には同様の枠組みがありません。
実際、政府はその存在を認めることに消極的かもしれません。各国、そしておそらくテクノロジー企業は、兵器化された AI とどのように共存するかについて合意する必要があります。政府の防衛機能を通じた AI の普及は、現代の国際バランスとそれを維持するコンピューティングを変えるでしょう。核兵器は高価であり、その大きさと構造のために隠蔽するのが困難です。対照的に、人工知能はどこにでもあるコンピューター上で実行できます。機械学習モデルのトレーニングには専門知識とコンピューティング リソースが必要であるため、人工知能の作成には大企業または国レベルのリソースが必要であり、人工知能の適用は比較的小型のコンピューターで実行されるため、広く使用されるはずです。 、私たちが予想していなかった方法も含めて。ラップトップとインターネット接続を持ち、AI の暗い側面を覗き見しようと決意している人が、ついに AI を活用した兵器にアクセスできるようになるでしょうか?政府は、自分たちと密接な関係がある、またはまったく関係のない主体が AI を使用して敵対者に嫌がらせをすることを許可するのでしょうか?テロリストはAI攻撃を計画するのでしょうか?彼らはこれらの活動を国家や他の主体のせいにすることができるだろうか?
かつて、外交は組織化され予測可能な舞台で行われていましたが、今日では情報へのアクセスと行動範囲が大幅に拡大されるでしょう。地理的、言語的違いによって形成されていた明確な境界線は徐々に消えていきます。 AI 翻訳は、これまでの翻訳者のように言語的知識だけでなく文化的知識も必要とせず、対話を促進します。 AI を活用したオンライン プラットフォームは国境を越えたコミュニケーションを促進する一方、ハッキングや偽情報により認識や評価が歪み続けます。状況がより複雑になるにつれて、結果が予測可能な強制力のある合意を作成することはより困難になります。
AI 機能とサイバー兵器を組み合わせる可能性が、このジレンマをさらに悪化させます。人類は、通常兵器(従来の戦略と調和すると考えられる)と核兵器(例外と考えられる)を明確に区別することによって、核のパラドックスを回避している。通常兵器が標的を区別できるのに対し、核兵器の破壊力はひとたび放出されると、標的に関わらず無差別に破壊されます。しかし、標的を特定し、大規模な破壊を引き起こすことができるサイバー兵器は、その区別を消し去ります。
人工知能の燃料が加わると、これらの兵器はさらに予測不可能になり、より破壊的なものになる可能性があります。同時に、これらの兵器がネットワーク上を巡回している場合、その帰属を特定することは不可能です。核兵器のようにかさばらないため検出できませんが、USB メモリに入れて持ち運ぶこともできるため、拡散が促進されます。一部の形式では、これらの兵器は一度配備されると制御が困難になりますが、人工知能の動的で新たな性質を考慮すると、なおさらです。
この状況は、ルールに基づいた世界秩序の前提に疑問を投げかけています。さらに、AI 軍備管理に関連する概念を開発することが不可欠となっています。人工知能の時代には、抑止力はもはや歴史的な規範に従わないし、従わないだろう。核時代の幕開けに、ハーバード大学、マサチューセッツ工科大学、カリフォルニア工科大学の主要な教授や学者(政府での経験を持つ)間の議論から得た洞察に基づいて、核軍備管理の概念的枠組みが開発され、それがシステムの創設につながりました(およびそれを米国およびその他の国で実施する機関)。
学術的思考は重要であるのと同じくらい重要であるが、それは通常の戦争に関する国防総省の考察とは別に実施され、修正ではなく新たな追加である。しかし、人工知能の軍事利用の可能性は核兵器よりも広く、少なくとも現時点では攻撃と防御の区別は明確ではない。非常に複雑で本質的に予測不可能な世界では、人工知能が誤解や誤りのさらなる原因となる可能性があり、遅かれ早かれハイテク能力を持つ大国は継続的な対話に参加する必要があるでしょう。
このような対話では、災害を回避し、災害から生き残るという、1 つの基本的な問題に焦点を当てる必要があります。人工知能や量子コンピューティングなどのその他の新興テクノロジーにより、人間の認識を超えた現実がよりアクセスしやすくなっているようです。しかし、最終的には、これらの手法にも限界があることが判明するかもしれません。私たちの問題は、それらの哲学的意味を理解していないことです。私たちは意識的にではなく、無意識のうちにそれらによって前に推進されています。
最後に人間の意識に大きな変化があったのは啓蒙時代であり、この変化は新しいテクノロジーが新しい哲学的洞察を生み出し、それがテクノロジー(印刷機の形で)を通じて広められたために起こりました。現代では、対応する指針となる哲学を持たずに新しいテクノロジーが開発されてきました。人工知能は、広範囲にわたる潜在的な利益をもたらす大事業です。人間は人工知能の開発に熱心に取り組んでいますが、それを私たちの生活を良くするために使っているのでしょうか、それとも悪くしているのでしょうか?それは、より強力な医薬品、より効率的で公平な医療、より持続可能な環境実践、その他の進歩のビジョンを約束します。しかし同時に、それは情報を歪めたり、少なくとも情報を消費して真実を特定するプロセスを複雑化し、それによって一部の人々の独立した推論と判断の能力を弱める可能性もあります。
最終的には、「メタ」な疑問が浮かび上がります。人間は、世界について異なる解釈や理解を行う人工知能の「支援」によって、哲学の必要性を満たすことができるのでしょうか?人間は機械を完全には理解していませんが、最終的には機械と和解し、世界を変えることができるでしょうか?イマヌエル・カントは、『純粋理性批判』の序文を次の点から始めています。
人間の理性は、その知識のすべての部門の一つにおいて、理性そのものの本質によって自らに課せられる無視できない問題に悩まされるという奇妙な運命を持っていますが、それは理性のあらゆる能力を超えているからです。 、解決できません。
それ以来何世紀にもわたって、人類はこれらの疑問を深く調査してきましたが、その中には心、理性、さらには現実の性質に関わるものもあります。人類は大きな進歩を遂げてきましたが、カントが提示した多くの限界にも直面しました。それは、人類が答えることのできない疑問の領域、完全には理解できない事実の領域です。人間が理性だけでは達成できない情報を学習して処理する能力をもたらす人工知能の出現により、私たちの回答能力を超えていることが証明されている質問について進歩できるようになるかもしれません。しかし、成功すると新たな疑問が生じ、そのいくつかについては本書で明らかにしようとしました。人間の知能と人工知能は、国家、大陸、さらには地球規模での追求において収束する岐路にあります。この変化を理解し、それを中心とした指針となる倫理規定を策定するには、科学者や戦略家、政治家や哲学者、聖職者や CEO を含む社会のあらゆる層の集合的な知恵、声、そして共通の取り組みが必要となります。この約束は国内だけでなく国家間でも行われるべきです。人工知能と私たちはどのようなパートナーシップを築くことができ、そこからどのような現実が生まれるのでしょうか?ここでこれを定義します。
著者: / [米国] ヘンリー キッシンジャー / [米国] エリック シュミット / [米国] ダニエル ハッテンロッカー
抜粋 / 劉亜光
編集者/劉亜光
校正 / 趙林