De l'AlphaGo de Google battant les joueurs d'échecs humains au ChatGpt déclenchant des discussions animées dans la communauté technologique, chaque avancée de la technologie de l'intelligence artificielle affecte les nerfs des gens. Il ne fait aucun doute que l'intelligence artificielle modifie profondément notre société, notre économie, notre politique et même notre politique étrangère, et les théories traditionnelles du passé échouent souvent à expliquer l'impact de tout cela. Dans le livre "The Era of Artificial Intelligence and the Future of Humanity", Kissinger, le célèbre diplomate, Schmidt, l'ancien PDG de Google, et Huttenlocher, le doyen de la Schwarzman School of Computer Science du Massachusetts Institute of Technology, sortent sur la vie passée de l'intelligence artificielle sous différents angles. Cette vie, et discuté de manière approfondie des divers impacts que son développement peut avoir sur les individus, les entreprises, les gouvernements, les sociétés et les pays. Plusieurs grands penseurs pensent qu'à mesure que les capacités de l'intelligence artificielle deviennent de plus en plus fortes, comment positionner le rôle des êtres humains sera une proposition à laquelle nous devrons réfléchir pendant longtemps à l'avenir. Le contenu suivant est extrait de "L'ère de l'intelligence artificielle et l'avenir de l'humanité" avec l'autorisation de l'éditeur, avec des suppressions et des révisions, les sous-titres sont ajoutés par l'éditeur.
Auteur original | [États-Unis] Henry Kissinger / [États-Unis] Eric Schmidt / [États-Unis] Daniel Huttenlocher
Les humains et l'intelligence artificielle peuvent-ils aborder la même réalité sous des angles différents, et peuvent-ils se compléter et se compléter ? Ou percevons-nous deux réalités différentes mais partiellement superposées : l'une que les humains peuvent expliquer rationnellement, et l'autre que l'intelligence artificielle peut expliquer de manière algorithmique ? Si la réponse est la dernière, alors l'intelligence artificielle peut percevoir des choses que nous n'avons pas encore perçues et que nous ne pouvons pas percevoir, non seulement parce que nous n'avons pas assez de temps pour en raisonner à notre manière, mais parce qu'elles existent à un endroit que nos esprits ne peut pas conceptualiser sur le terrain. La poursuite par l'humanité d'une "compréhension complète du monde" changera, et les gens se rendront compte que pour obtenir certaines connaissances, nous devrons peut-être confier à l'intelligence artificielle le soin d'obtenir des connaissances pour nous et de nous en faire rapport. Quelle que soit la réponse, à mesure que l'intelligence artificielle poursuit des objectifs plus complets et plus étendus, elle apparaîtra de plus en plus aux humains comme une "créature" qui expérimente et comprend le monde - une combinaison d'outils, d'animaux de compagnie et d'esprits.
Au fur et à mesure que les chercheurs approchent ou atteignent l'intelligence artificielle générale, le puzzle ne fera que s'approfondir. Comme nous l'avons vu au chapitre 3, l'IAG ne se limitera pas à l'apprentissage et à l'exécution de tâches spécifiques ; au lieu de cela, par définition, l'IAG sera capable d'apprendre et d'effectuer un éventail extrêmement large de tâches, tout comme le font les humains. Le développement de l'intelligence artificielle générale nécessitera une énorme puissance de calcul, ce qui pourrait se traduire par seulement quelques organisations bien financées capables de créer une telle IA. Comme pour l'IA actuelle, bien que l'AGI puisse facilement être déployée de manière décentralisée, compte tenu de ses capacités, ses applications seront nécessairement limitées. Des limitations pourraient être imposées à l'AGI en autorisant uniquement les organisations agréées à l'exploiter. La question devient alors : Qui contrôlera AGI ? Qui autorisera son utilisation ? La démocratie est-elle encore possible dans un monde où quelques machines "géniales" sont dirigées par quelques organisations ? Dans ce cas, à quoi ressemblera la coopération homme-IA ?
Si l'intelligence artificielle générale émerge dans le monde, ce sera une réalisation intellectuelle, scientifique et stratégique majeure. Mais même si elle ne le fait pas, l'intelligence artificielle peut aussi révolutionner les affaires humaines. Le dynamisme et la capacité de l'IA à répondre aux urgences (ou aux événements inattendus) et à fournir des solutions la distinguent des technologies précédentes. Si elle n'est pas réglementée, l'IA pourrait s'écarter de nos attentes et, par extension, de notre intention. La décision de le limiter, de coopérer avec lui ou de lui obéir ne sera pas prise uniquement par les humains. Dans certains cas, cela sera déterminé par l'IA elle-même ; dans d'autres, cela dépendra de divers facteurs favorables. Les humains peuvent être engagés dans une "course vers le bas".
Alors que l'IA automatise les processus, permet aux humains d'explorer de grandes quantités de données et organise et restructure les domaines physique et social, ces premiers arrivés peuvent acquérir un avantage de premier arrivé. Les pressions concurrentielles pourraient obliger les parties à se précipiter pour déployer l'AGI sans avoir suffisamment de temps pour évaluer les risques ou simplement les ignorer. L'éthique de l'intelligence artificielle est essentielle. Chaque décision individuelle - limiter, coopérer ou se conformer - peut ou non avoir des conséquences dramatiques, mais lorsqu'elle est combinée, l'impact est multiplié.
Ces décisions ne peuvent être prises isolément. Si l'humanité veut façonner l'avenir, elle doit s'entendre sur des principes communs qui guident chacun de ses choix. Il est vrai que l'action collective est difficile, et parfois même impossible, mais les actions individuelles sans la direction d'une norme morale commune ne feront que conduire à plus de troubles et de chaos pour l'humanité dans son ensemble. Ceux qui conçoivent, forment et travaillent avec l'IA seront en mesure d'atteindre des objectifs d'une ampleur et d'une complexité jusqu'ici inaccessibles pour les humains, tels que de nouvelles percées scientifiques, de nouvelles efficacités économiques, de nouvelles formes de sécurité et une nouvelle dimension de surveillance sociale. Et dans l'expansion de l'intelligence artificielle et de ses utilisations, ceux qui ne sont pas habilités peuvent avoir l'impression d'être surveillés, étudiés et agis par des forces qu'ils ne comprennent pas et qui ne sont pas de leur propre conception ou choix. Ce pouvoir opère d'une manière opaque qui, dans de nombreuses sociétés, ne peut être tolérée par les acteurs ou institutions humains traditionnels. Les concepteurs et les déployeurs d'IA doivent être prêts à résoudre ces problèmes, en commençant par expliquer aux personnes non techniques ce que fait l'IA, ce qu'elle « sait » et comment elle le fait. La nature dynamique et émergente de l'IA crée une ambiguïté d'au moins deux façons. Premièrement, l'intelligence artificielle peut fonctionner comme nous l'attendons, mais produire des résultats que nous ne pouvons pas prévoir. Ces résultats peuvent conduire l'humanité dans des endroits auxquels ses créateurs ne s'attendaient pas, tout comme les politiciens de 1914 n'ont pas reconnu que l'ancienne logique de mobilisation militaire associée aux nouvelles technologies entraînerait l'Europe dans la guerre. L'intelligence artificielle peut également avoir de graves conséquences si elle est déployée et utilisée sans mûre réflexion.
Photos du film Alita : Battle Angel.
Ces conséquences peuvent être minimes, comme une décision mettant la vie en danger prise par une voiture autonome, ou extrêmement importantes, comme un grave conflit militaire. Deuxièmement, dans certains domaines d'application, l'IA peut être imprévisible, agissant de manière totalement inattendue. En prenant AlphaZero comme exemple, il a développé un style d'échecs que les humains n'ont jamais imaginé dans des milliers d'années d'histoire des échecs, juste selon les instructions de "gagner aux échecs". Alors que les humains peuvent faire attention à prescrire les objectifs d'une IA, comme nous lui donnons une plus grande latitude, son chemin vers cet objectif pourrait nous surprendre, et même nous paniquer. Par conséquent, le ciblage et le mandat de l'IA doivent être soigneusement conçus, en particulier dans les domaines où ses décisions peuvent être mortelles. L'IA ne doit pas être considérée comme autonome, sans surveillance, ni autorisée à prendre des mesures irrévocables sans supervision, surveillance ou contrôle direct. L'intelligence artificielle a été créée par des humains, elle devrait donc également être supervisée par des humains. Mais l'un des défis de l'IA à notre époque est que les personnes disposant des compétences et des ressources nécessaires pour la créer n'ont pas nécessairement la perspective philosophique nécessaire pour comprendre ses implications plus larges. De nombreux créateurs d'intelligence artificielle se concentrent principalement sur les applications qu'ils essaient de réaliser et les problèmes qu'ils veulent résoudre : ils peuvent ne pas s'arrêter pour se demander si la solution produira une révolution historique, ou comment leur technologie affectera différentes foules. L'ère de l'intelligence artificielle a besoin de ses propres Descartes et Kant pour expliquer ce que nous avons créé et ce que cela signifie pour les humains.
Nous devons organiser des discussions et des négociations rationnelles impliquant le gouvernement, les universités et les innovateurs de l'industrie privée, et l'objectif devrait être d'établir des limites à l'action pratique comme celles qui régissent l'action individuelle et organisationnelle aujourd'hui. L'IA a des attributs qui partagent certains des mêmes, mais diffèrent d'eux à certains égards importants, des produits, services, technologies et entités actuellement réglementés, en ce sens qu'il lui manque un cadre conceptuel et juridique entièrement défini. Par exemple, la nature provocatrice en constante évolution de l'IA pose un défi réglementaire : qui et comment elle opère dans le monde peut varier selon les domaines et évoluer dans le temps, et pas toujours d'une manière prévisible. La gouvernance des personnes est guidée par un code d'éthique. L'IA a besoin d'une boussole morale qui reflète non seulement la nature de la technologie, mais aussi les défis qu'elle présente.
Souvent, les principes établis ne s'appliquent pas ici. À l'ère de la foi, lorsque les accusés de l'Inquisition faisaient face à un verdict de bataille, le tribunal pouvait décider du crime, mais Dieu décidait qui était victorieux. À l'ère de la raison, les êtres humains déterminaient la culpabilité selon les préceptes de la raison, jugeaient les crimes et les punissaient selon des concepts tels que la causalité et l'intention criminelle. Mais l'intelligence artificielle ne fonctionne pas sur la raison humaine, pas plus qu'elle n'a de motivation, d'intention ou d'autoréflexion humaine. Ainsi, l'introduction de l'IA compliquera les principes de justice existants qui s'appliquent aux humains.
Lorsqu'un système autonome agit en fonction de ses propres perceptions et décisions, ses créateurs assument-ils la responsabilité ? Ou ne faut-il pas confondre les actions de l'IA avec celles de ses créateurs, du moins en termes de culpabilité ? Si l'IA doit être utilisée pour détecter des signes de comportement criminel, ou pour aider à déterminer si quelqu'un est coupable, l'IA doit-elle pouvoir « expliquer » comment elle est arrivée à ses conclusions afin que les responsables humains puissent lui faire confiance ? Par ailleurs, à quel moment et dans quel contexte de développement technologique l'IA doit-elle faire l'objet de négociations internationales ? C'est un autre sujet de débat important. Si elle est sondée trop tôt, le développement de la technologie pourrait être entravé, ou elle pourrait être tentée de cacher ses capacités ; retardée trop longtemps, elle pourrait avoir des conséquences dévastatrices, en particulier dans le domaine militaire. Ce défi est aggravé par la difficulté de concevoir des mécanismes de vérification efficaces pour une technologie qui est éthérée, obscure et facilement disséminée. Les négociateurs officiels seront nécessairement les gouvernements, mais il faudra aussi que les technologues, les éthiciens, les entreprises qui créent et exploitent l'IA et d'autres en dehors du domaine aient une voix.
Images tirées du drame américain "Western World".
Les dilemmes posés par l'IA ont des implications profondes pour différentes sociétés. Une grande partie de notre vie sociale et politique se déroule aujourd'hui sur des plateformes en ligne basées sur l'IA, et les démocraties en particulier s'appuient sur ces espaces d'information pour le débat et la communication, façonnant l'opinion publique et leur donnant une légitimité. Qui ou quelle agence devrait définir le rôle de la technologie ? Qui doit le réglementer ? Quel rôle les individus utilisant l'IA devraient-ils jouer ? Qu'en est-il des entreprises qui produisent de l'intelligence artificielle ? Qu'en est-il des gouvernements sociaux qui le déploient ? Dans le cadre de la solution à ces problèmes, nous devrions essayer de le rendre auditable, c'est-à-dire que ses processus et ses conclusions sont à la fois inspectables et corrigeables. À son tour, la possibilité de mettre en œuvre des corrections dépendra de la capacité à affiner les principes de la forme de perception et de prise de décision de l'IA. La moralité, la volonté et même la causalité ne s'intègrent pas bien dans le monde de l'intelligence artificielle autonome. Des problèmes similaires se posent à la plupart des niveaux de la société, des transports aux finances en passant par la médecine.
Considérez l'impact de l'intelligence artificielle sur les médias sociaux. Avec les innovations récentes, ces plateformes sont rapidement devenues un aspect important de notre vie publique. Comme nous l'avons vu au chapitre 4, les fonctionnalités que Twitter et Facebook utilisent pour mettre en évidence, limiter ou interdire purement et simplement du contenu ou des individus reposent toutes sur l'intelligence artificielle, un témoignage de sa puissance. L'utilisation de l'IA pour la promotion ou la suppression unilatérale et souvent opaque de contenus et de concepts est un défi pour toutes les nations, en particulier les démocraties. Est-il possible pour nous de conserver une domination alors que notre vie sociale et politique se déplace de plus en plus vers des domaines régis par l'intelligence artificielle, et nous ne pouvons compter que sur une telle gestion pour les naviguer ?
La pratique consistant à utiliser l'intelligence artificielle pour traiter de grandes quantités d'informations présente également un autre défi : l'intelligence artificielle augmente la distorsion du monde pour répondre aux préférences instinctives humaines. C'est un domaine où l'intelligence artificielle peut facilement amplifier nos biais cognitifs, mais nous résonnons toujours avec eux. Avec ces voix, confrontées à une diversité de choix et habilitées à choisir et à passer au crible, les gens recevront un flot de désinformation. Les entreprises de médias sociaux ne favorisent pas une polarisation politique extrême et violente à travers leurs fils d'actualité, mais il est clair que ces services ne conduisent pas non plus à la maximisation d'un discours éclairé.
Intelligence artificielle, information gratuite et pensée indépendante
Alors, à quoi devrait ressembler notre relation avec l'IA ? Doit-il être contraint, habilité ou traité comme un partenaire dans la gouvernance de ces domaines ? Il ne fait aucun doute que la diffusion de certaines informations, en particulier de fausses informations délibérément créées, peut causer des dommages, des divisions et des incitations. Certaines restrictions sont donc nécessaires. Cependant, la condamnation, l'attaque et la suppression des "informations nuisibles" sont désormais trop lâches, et cela devrait également conduire à la réflexion.
Dans une société libre, la définition de nuisible et de désinformation ne devrait pas être confinée à la compétence des entreprises. Cependant, si de telles responsabilités sont confiées à un groupe ou à une agence gouvernementale, ce groupe ou cette agence devrait fonctionner selon des normes publiques établies et à travers des procédures vérifiables pour éviter l'exploitation par ceux qui sont au pouvoir. S'il est confié à un algorithme d'IA, la fonction objective, l'apprentissage, les décisions et les actions de l'algorithme doivent être clairs et soumis à un examen externe, et au moins une certaine forme d'appel humain.
Bien sûr, différentes sociétés apporteront des réponses différentes à cela. Certaines sociétés peuvent mettre l'accent sur la liberté d'expression, peut-être à des degrés divers en fonction de leur compréhension relative des expressions individuelles, et peuvent ainsi limiter le rôle de l'IA dans la modération du contenu. Chaque société choisit les idées qu'elle valorise, ce qui peut conduire à des relations complexes avec les opérateurs multinationaux de plateformes de réseaux. L'IA est aussi absorbante qu'une éponge, apprenant des humains, même lorsque nous la concevons et la façonnons.
Images tirées du drame américain "Western World".
Par conséquent, non seulement les choix de chaque société sont différents, mais la relation de chaque société avec l'IA, la perception de l'IA et la façon dont l'IA imite les humains et apprend des enseignants humains sont également différentes. Mais une chose est certaine, c'est que la recherche humaine des faits et de la vérité ne doit pas amener une société à vivre la vie à travers un filtre mal défini et invérifiable. L'expérience spontanée de la réalité, malgré toutes ses contradictions et complexités, est un aspect important de la condition humaine, même si elle conduit à des inefficacités ou à des erreurs.
Intelligence Artificielle et Ordre International
Partout dans le monde, d'innombrables questions attendent une réponse. Comment réguler les plateformes d'intelligence artificielle en ligne sans susciter de tensions entre pays soucieux de leur sécurité ? Ces plateformes en ligne vont-elles éroder les notions traditionnelles de souveraineté nationale ? Les changements qui en résulteront apporteront-ils au monde une polarisation sans précédent depuis l'effondrement de l'Union soviétique ? Le petit Congrès s'y oppose-t-il ? Les tentatives de médiation de ces conséquences seront-elles couronnées de succès ? Ou y a-t-il un espoir de succès?
Alors que les capacités de l'intelligence artificielle continuent d'augmenter, la façon de positionner le rôle des humains en coopération avec l'intelligence artificielle deviendra de plus en plus importante et complexe. Nous pouvons imaginer un monde dans lequel les humains respecteront de plus en plus les opinions de l'intelligence artificielle sur des questions d'importance croissante. Dans un monde où les adversaires offensifs déploient avec succès l'IA, les dirigeants défensifs peuvent-ils décider de ne pas déployer leur propre IA et d'en assumer la responsabilité ? Même eux ne savent pas comment ce déploiement va évoluer. Et si l'IA a la capacité supérieure de recommander un plan d'action, y a-t-il une raison pour que les décideurs l'acceptent, même si ce plan d'action nécessite un certain niveau de sacrifice ? Comment l'homme peut-il savoir si un tel sacrifice est essentiel à la victoire ? S'il est essentiel, les décideurs politiques sont-ils vraiment disposés à y opposer leur veto ? En d'autres termes, nous n'aurons peut-être pas d'autre choix que de favoriser l'intelligence artificielle. Mais nous avons aussi la responsabilité de le façonner d'une manière compatible avec l'avenir de l'humanité. L'imperfection est l'une des normes de l'expérience humaine, en particulier en matière de leadership.
Souvent, les décideurs politiques sont submergés par des préoccupations intolérables. Parfois, leurs actions sont basées sur de fausses hypothèses ; parfois, ils agissent par pure émotion ; et d'autres fois encore, l'idéologie déforme leur vision. Quelles que soient les stratégies utilisées pour structurer les partenariats homme-IA, elles doivent être adaptées à l'homme. Si l'intelligence artificielle présente des capacités surhumaines dans certains domaines, son utilisation doit être compatible avec l'environnement humain imparfait.
Dans le domaine de la sécurité, les systèmes activés par l'IA réagissent si rapidement que les adversaires peuvent tenter des attaques avant que les systèmes ne soient opérationnels. Le résultat pourrait être une situation intrinsèquement instable comparable à celle créée par les armes nucléaires. Pourtant, les armes nucléaires sont encadrées par des concepts de sécurité internationale et de contrôle des armements qui ont été développés au fil des décennies par des gouvernements, des scientifiques, des stratèges et des éthiciens à travers des raffinements, des débats et des négociations continus. L'intelligence artificielle et les cyberarmes n'ont pas un cadre similaire.
En fait, les gouvernements peuvent être réticents à reconnaître leur existence. Les pays - et éventuellement les entreprises technologiques - doivent s'entendre sur la manière de coexister avec l'IA militarisée. La prolifération de l'IA à travers les fonctions de défense du gouvernement modifiera l'équilibre international et l'informatique sur laquelle il est maintenu à notre époque. Les armes nucléaires sont coûteuses et difficiles à dissimuler en raison de leur taille et de leur structure. En revanche, l'intelligence artificielle peut fonctionner sur des ordinateurs que l'on trouve partout. Étant donné que la formation d'un modèle d'apprentissage automatique nécessite une expertise et des ressources informatiques, la création d'une intelligence artificielle nécessite des ressources au niveau d'une grande entreprise ou d'un pays ; et puisque l'application de l'intelligence artificielle est effectuée sur des ordinateurs relativement petits, elle est vouée à être largement utilisée , y compris d'une manière à laquelle nous ne nous attendions pas. Toute personne disposant d'un ordinateur portable, d'une connexion Internet et d'un engagement à pénétrer le côté obscur de l'IA aura-t-elle enfin accès à une arme alimentée par l'IA ? Les gouvernements permettront-ils à des acteurs ayant des liens étroits ou inexistants avec eux d'utiliser l'IA pour harceler leurs adversaires ? Les terroristes planifieront-ils des attaques par IA ? Pourront-ils imputer ces activités à des États ou à d'autres acteurs ?
Autrefois, la diplomatie se déroulait dans une arène organisée et prévisible, aujourd'hui, son accès à l'information et son champ d'action seront largement élargis. Les frontières claires qui étaient autrefois formées par les différences géographiques et linguistiques disparaîtront progressivement. La traduction par IA facilitera le dialogue sans exiger non seulement des connaissances linguistiques mais aussi culturelles comme le faisaient les traducteurs précédents. Les plateformes en ligne alimentées par l'IA faciliteront la communication transfrontalière, tandis que le piratage et la désinformation continueront de fausser les perceptions et les évaluations. À mesure que la situation devient plus complexe, il deviendra plus difficile d'élaborer des accords exécutoires avec des résultats prévisibles.
La possibilité de combiner des capacités d'IA avec des cyberarmes ajoute à ce dilemme. L'humanité contourne le paradoxe nucléaire en distinguant clairement les armes conventionnelles (considérées en harmonie avec la stratégie conventionnelle) et les armes nucléaires (considérées comme l'exception). Une fois que la puissance destructrice des armes nucléaires est libérée, elle est aveugle et quelle que soit la cible, tandis que les armes conventionnelles peuvent distinguer la cible. Mais les cyber-armes qui peuvent à la fois identifier des cibles et faire des ravages à grande échelle effacent cette distinction.
Ajoutées au carburant de l'intelligence artificielle, ces armes deviendront encore plus imprévisibles et potentiellement plus destructrices. En même temps, lorsque ces armes circulent sur le réseau, il est impossible de déterminer leur attribution. Elles ne sont pas détectables car elles ne sont pas encombrantes comme les armes nucléaires ; elles peuvent aussi être emportées sur des clés USB, ce qui facilite leur prolifération. Sous certaines formes, ces armes sont difficilement contrôlables une fois déployées, d'autant plus compte tenu du caractère dynamique et émergent de l'intelligence artificielle.
Cette situation remet en question les prémisses de l'ordre mondial fondé sur des règles. En outre, il est devenu impératif de développer des concepts liés à la maîtrise des armements par IA. À l'ère de l'intelligence artificielle, la dissuasion ne suivra plus les normes historiques, et elle ne le fera pas non plus. À l'aube de l'ère nucléaire, un cadre conceptuel pour le contrôle des armements nucléaires a été développé sur la base des idées issues de discussions entre d'éminents professeurs et universitaires (ayant une expérience au sein du gouvernement) à Harvard, au MIT et à Caltech, qui à leur tour ont conduit à la création d'un système ( et les institutions pour le mettre en œuvre aux États-Unis et dans d'autres pays).
Aussi importante que soit la pensée académique, elle est mise en œuvre séparément des considérations du Pentagone sur la guerre conventionnelle – un nouvel ajout, pas une modification. Mais les utilisations militaires potentielles de l'intelligence artificielle sont plus larges que les armes nucléaires, et la distinction entre attaque et défense n'est pas claire, du moins pour l'instant. Dans un monde si complexe, intrinsèquement imprévisible, l'intelligence artificielle devient une autre source possible d'incompréhension et d'erreur, et tôt ou tard les grandes puissances dotées de capacités de haute technologie devront engager un dialogue permanent.
Un tel dialogue devrait se concentrer sur une question fondamentale : éviter la catastrophe et y survivre. L'intelligence artificielle et d'autres technologies émergentes, telles que l'informatique quantique, semblent rendre plus accessibles des réalités au-delà de la perception humaine. En fin de compte, cependant, nous pouvons constater que même ces techniques ont leurs limites. Notre problème est que nous n'avons pas saisi leurs implications philosophiques. Nous sommes propulsés par eux involontairement, pas consciemment.
La dernière fois qu'il y a eu un changement majeur dans la conscience humaine, c'était au siècle des Lumières, et ce changement s'est produit parce que les nouvelles technologies ont produit de nouvelles idées philosophiques qui ont été à leur tour diffusées par la technologie (sous la forme de l'imprimerie). À notre époque, de nouvelles technologies ont été développées sans philosophies directrices correspondantes. L'intelligence artificielle est une entreprise énorme avec des avantages potentiels considérables. Les humains travaillent dur pour développer l'intelligence artificielle, mais l'utilisons-nous pour rendre nos vies meilleures ou pires ? Il promet des médicaments plus puissants, des soins de santé plus efficaces et équitables, des pratiques environnementales plus durables et d'autres visions du progrès. Dans le même temps, cependant, cela peut également déformer les informations, ou du moins compliquer le processus de consommation d'informations et d'identification de la vérité, et affaiblir ainsi la capacité de raisonnement et de jugement indépendants de certaines personnes.
Au final, une "méta" question émerge : les humains peuvent-ils satisfaire le besoin de philosophie avec "l'assistance" de l'intelligence artificielle avec différentes interprétations et compréhensions du monde ? Les humains ne comprennent pas complètement les machines, mais finirons-nous par faire la paix avec elles et changerons-nous le monde ? Immanuel Kant commence sa préface à sa Critique de la raison pure par ce point :
La raison humaine a ce destin particulier que, dans l'une des branches de toutes ses connaissances, elle est assaillie par des problèmes qui ne peuvent être ignorés car ils s'imposent à elle-même par la nature même de la raison, mais qui, parce qu'ils surpassent toutes les capacités de la raison , il ne peut pas être résolu.
Au cours des siècles qui ont suivi, les humains ont exploré ces questions en profondeur, dont certaines touchent à la nature de l'esprit, de la raison et même de la réalité. L'humanité a fait de grandes percées, mais elle s'est également heurtée à bon nombre des limitations posées par Kant : un domaine de questions auquel il ne peut pas répondre, un domaine de faits auquel il ne peut pas pleinement comprendre. L'émergence de l'intelligence artificielle, qui apporte la capacité d'apprendre et de traiter des informations que les humains ne peuvent pas atteindre avec la seule raison, peut nous permettre de progresser sur des questions qui se sont avérées au-delà de notre capacité à répondre. Mais le succès soulèvera de nouvelles questions, dont certaines que nous avons essayé d'éclairer dans ce livre. L'intelligence humaine et l'intelligence artificielle sont à un moment où les deux vont converger dans des activités à l'échelle nationale, continentale ou même mondiale. Comprendre ce changement et développer un code éthique directeur autour de celui-ci nécessitera la sagesse collective, la voix et l'engagement partagé de tous les segments de la société, y compris les scientifiques et les stratèges, les politiciens et les philosophes, le clergé et les PDG . Cet engagement ne doit pas seulement être pris à l'intérieur des pays, mais aussi entre les pays. Quel partenariat peut-on avoir avec l'intelligence artificielle, et quelle réalité en sortira ? Maintenant, il est temps de définir cela.
Auteur : / [États-Unis] Henry Kissinger / [États-Unis] Eric Schmidt / [États-Unis] Daniel Huttenlocher
Extrait / Liu Yaguang
Editeur/Liu Yaguang
Relecture / Zhao Lin
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Kissinger parle d'intelligence artificielle : Comment voyez-vous l'ordre international à l'ère de l'intelligence artificielle ?
Original : Les nouvelles de Pékin
De l'AlphaGo de Google battant les joueurs d'échecs humains au ChatGpt déclenchant des discussions animées dans la communauté technologique, chaque avancée de la technologie de l'intelligence artificielle affecte les nerfs des gens. Il ne fait aucun doute que l'intelligence artificielle modifie profondément notre société, notre économie, notre politique et même notre politique étrangère, et les théories traditionnelles du passé échouent souvent à expliquer l'impact de tout cela. Dans le livre "The Era of Artificial Intelligence and the Future of Humanity", Kissinger, le célèbre diplomate, Schmidt, l'ancien PDG de Google, et Huttenlocher, le doyen de la Schwarzman School of Computer Science du Massachusetts Institute of Technology, sortent sur la vie passée de l'intelligence artificielle sous différents angles. Cette vie, et discuté de manière approfondie des divers impacts que son développement peut avoir sur les individus, les entreprises, les gouvernements, les sociétés et les pays. Plusieurs grands penseurs pensent qu'à mesure que les capacités de l'intelligence artificielle deviennent de plus en plus fortes, comment positionner le rôle des êtres humains sera une proposition à laquelle nous devrons réfléchir pendant longtemps à l'avenir. Le contenu suivant est extrait de "L'ère de l'intelligence artificielle et l'avenir de l'humanité" avec l'autorisation de l'éditeur, avec des suppressions et des révisions, les sous-titres sont ajoutés par l'éditeur.
Auteur original | [États-Unis] Henry Kissinger / [États-Unis] Eric Schmidt / [États-Unis] Daniel Huttenlocher
**Qu'apportera l'intelligence artificielle générale ? **
Les humains et l'intelligence artificielle peuvent-ils aborder la même réalité sous des angles différents, et peuvent-ils se compléter et se compléter ? Ou percevons-nous deux réalités différentes mais partiellement superposées : l'une que les humains peuvent expliquer rationnellement, et l'autre que l'intelligence artificielle peut expliquer de manière algorithmique ? Si la réponse est la dernière, alors l'intelligence artificielle peut percevoir des choses que nous n'avons pas encore perçues et que nous ne pouvons pas percevoir, non seulement parce que nous n'avons pas assez de temps pour en raisonner à notre manière, mais parce qu'elles existent à un endroit que nos esprits ne peut pas conceptualiser sur le terrain. La poursuite par l'humanité d'une "compréhension complète du monde" changera, et les gens se rendront compte que pour obtenir certaines connaissances, nous devrons peut-être confier à l'intelligence artificielle le soin d'obtenir des connaissances pour nous et de nous en faire rapport. Quelle que soit la réponse, à mesure que l'intelligence artificielle poursuit des objectifs plus complets et plus étendus, elle apparaîtra de plus en plus aux humains comme une "créature" qui expérimente et comprend le monde - une combinaison d'outils, d'animaux de compagnie et d'esprits.
Au fur et à mesure que les chercheurs approchent ou atteignent l'intelligence artificielle générale, le puzzle ne fera que s'approfondir. Comme nous l'avons vu au chapitre 3, l'IAG ne se limitera pas à l'apprentissage et à l'exécution de tâches spécifiques ; au lieu de cela, par définition, l'IAG sera capable d'apprendre et d'effectuer un éventail extrêmement large de tâches, tout comme le font les humains. Le développement de l'intelligence artificielle générale nécessitera une énorme puissance de calcul, ce qui pourrait se traduire par seulement quelques organisations bien financées capables de créer une telle IA. Comme pour l'IA actuelle, bien que l'AGI puisse facilement être déployée de manière décentralisée, compte tenu de ses capacités, ses applications seront nécessairement limitées. Des limitations pourraient être imposées à l'AGI en autorisant uniquement les organisations agréées à l'exploiter. La question devient alors : Qui contrôlera AGI ? Qui autorisera son utilisation ? La démocratie est-elle encore possible dans un monde où quelques machines "géniales" sont dirigées par quelques organisations ? Dans ce cas, à quoi ressemblera la coopération homme-IA ?
Si l'intelligence artificielle générale émerge dans le monde, ce sera une réalisation intellectuelle, scientifique et stratégique majeure. Mais même si elle ne le fait pas, l'intelligence artificielle peut aussi révolutionner les affaires humaines. Le dynamisme et la capacité de l'IA à répondre aux urgences (ou aux événements inattendus) et à fournir des solutions la distinguent des technologies précédentes. Si elle n'est pas réglementée, l'IA pourrait s'écarter de nos attentes et, par extension, de notre intention. La décision de le limiter, de coopérer avec lui ou de lui obéir ne sera pas prise uniquement par les humains. Dans certains cas, cela sera déterminé par l'IA elle-même ; dans d'autres, cela dépendra de divers facteurs favorables. Les humains peuvent être engagés dans une "course vers le bas".
Alors que l'IA automatise les processus, permet aux humains d'explorer de grandes quantités de données et organise et restructure les domaines physique et social, ces premiers arrivés peuvent acquérir un avantage de premier arrivé. Les pressions concurrentielles pourraient obliger les parties à se précipiter pour déployer l'AGI sans avoir suffisamment de temps pour évaluer les risques ou simplement les ignorer. L'éthique de l'intelligence artificielle est essentielle. Chaque décision individuelle - limiter, coopérer ou se conformer - peut ou non avoir des conséquences dramatiques, mais lorsqu'elle est combinée, l'impact est multiplié.
Ces décisions ne peuvent être prises isolément. Si l'humanité veut façonner l'avenir, elle doit s'entendre sur des principes communs qui guident chacun de ses choix. Il est vrai que l'action collective est difficile, et parfois même impossible, mais les actions individuelles sans la direction d'une norme morale commune ne feront que conduire à plus de troubles et de chaos pour l'humanité dans son ensemble. Ceux qui conçoivent, forment et travaillent avec l'IA seront en mesure d'atteindre des objectifs d'une ampleur et d'une complexité jusqu'ici inaccessibles pour les humains, tels que de nouvelles percées scientifiques, de nouvelles efficacités économiques, de nouvelles formes de sécurité et une nouvelle dimension de surveillance sociale. Et dans l'expansion de l'intelligence artificielle et de ses utilisations, ceux qui ne sont pas habilités peuvent avoir l'impression d'être surveillés, étudiés et agis par des forces qu'ils ne comprennent pas et qui ne sont pas de leur propre conception ou choix. Ce pouvoir opère d'une manière opaque qui, dans de nombreuses sociétés, ne peut être tolérée par les acteurs ou institutions humains traditionnels. Les concepteurs et les déployeurs d'IA doivent être prêts à résoudre ces problèmes, en commençant par expliquer aux personnes non techniques ce que fait l'IA, ce qu'elle « sait » et comment elle le fait. La nature dynamique et émergente de l'IA crée une ambiguïté d'au moins deux façons. Premièrement, l'intelligence artificielle peut fonctionner comme nous l'attendons, mais produire des résultats que nous ne pouvons pas prévoir. Ces résultats peuvent conduire l'humanité dans des endroits auxquels ses créateurs ne s'attendaient pas, tout comme les politiciens de 1914 n'ont pas reconnu que l'ancienne logique de mobilisation militaire associée aux nouvelles technologies entraînerait l'Europe dans la guerre. L'intelligence artificielle peut également avoir de graves conséquences si elle est déployée et utilisée sans mûre réflexion.
Ces conséquences peuvent être minimes, comme une décision mettant la vie en danger prise par une voiture autonome, ou extrêmement importantes, comme un grave conflit militaire. Deuxièmement, dans certains domaines d'application, l'IA peut être imprévisible, agissant de manière totalement inattendue. En prenant AlphaZero comme exemple, il a développé un style d'échecs que les humains n'ont jamais imaginé dans des milliers d'années d'histoire des échecs, juste selon les instructions de "gagner aux échecs". Alors que les humains peuvent faire attention à prescrire les objectifs d'une IA, comme nous lui donnons une plus grande latitude, son chemin vers cet objectif pourrait nous surprendre, et même nous paniquer. Par conséquent, le ciblage et le mandat de l'IA doivent être soigneusement conçus, en particulier dans les domaines où ses décisions peuvent être mortelles. L'IA ne doit pas être considérée comme autonome, sans surveillance, ni autorisée à prendre des mesures irrévocables sans supervision, surveillance ou contrôle direct. L'intelligence artificielle a été créée par des humains, elle devrait donc également être supervisée par des humains. Mais l'un des défis de l'IA à notre époque est que les personnes disposant des compétences et des ressources nécessaires pour la créer n'ont pas nécessairement la perspective philosophique nécessaire pour comprendre ses implications plus larges. De nombreux créateurs d'intelligence artificielle se concentrent principalement sur les applications qu'ils essaient de réaliser et les problèmes qu'ils veulent résoudre : ils peuvent ne pas s'arrêter pour se demander si la solution produira une révolution historique, ou comment leur technologie affectera différentes foules. L'ère de l'intelligence artificielle a besoin de ses propres Descartes et Kant pour expliquer ce que nous avons créé et ce que cela signifie pour les humains.
Nous devons organiser des discussions et des négociations rationnelles impliquant le gouvernement, les universités et les innovateurs de l'industrie privée, et l'objectif devrait être d'établir des limites à l'action pratique comme celles qui régissent l'action individuelle et organisationnelle aujourd'hui. L'IA a des attributs qui partagent certains des mêmes, mais diffèrent d'eux à certains égards importants, des produits, services, technologies et entités actuellement réglementés, en ce sens qu'il lui manque un cadre conceptuel et juridique entièrement défini. Par exemple, la nature provocatrice en constante évolution de l'IA pose un défi réglementaire : qui et comment elle opère dans le monde peut varier selon les domaines et évoluer dans le temps, et pas toujours d'une manière prévisible. La gouvernance des personnes est guidée par un code d'éthique. L'IA a besoin d'une boussole morale qui reflète non seulement la nature de la technologie, mais aussi les défis qu'elle présente.
Souvent, les principes établis ne s'appliquent pas ici. À l'ère de la foi, lorsque les accusés de l'Inquisition faisaient face à un verdict de bataille, le tribunal pouvait décider du crime, mais Dieu décidait qui était victorieux. À l'ère de la raison, les êtres humains déterminaient la culpabilité selon les préceptes de la raison, jugeaient les crimes et les punissaient selon des concepts tels que la causalité et l'intention criminelle. Mais l'intelligence artificielle ne fonctionne pas sur la raison humaine, pas plus qu'elle n'a de motivation, d'intention ou d'autoréflexion humaine. Ainsi, l'introduction de l'IA compliquera les principes de justice existants qui s'appliquent aux humains.
Lorsqu'un système autonome agit en fonction de ses propres perceptions et décisions, ses créateurs assument-ils la responsabilité ? Ou ne faut-il pas confondre les actions de l'IA avec celles de ses créateurs, du moins en termes de culpabilité ? Si l'IA doit être utilisée pour détecter des signes de comportement criminel, ou pour aider à déterminer si quelqu'un est coupable, l'IA doit-elle pouvoir « expliquer » comment elle est arrivée à ses conclusions afin que les responsables humains puissent lui faire confiance ? Par ailleurs, à quel moment et dans quel contexte de développement technologique l'IA doit-elle faire l'objet de négociations internationales ? C'est un autre sujet de débat important. Si elle est sondée trop tôt, le développement de la technologie pourrait être entravé, ou elle pourrait être tentée de cacher ses capacités ; retardée trop longtemps, elle pourrait avoir des conséquences dévastatrices, en particulier dans le domaine militaire. Ce défi est aggravé par la difficulté de concevoir des mécanismes de vérification efficaces pour une technologie qui est éthérée, obscure et facilement disséminée. Les négociateurs officiels seront nécessairement les gouvernements, mais il faudra aussi que les technologues, les éthiciens, les entreprises qui créent et exploitent l'IA et d'autres en dehors du domaine aient une voix.
Les dilemmes posés par l'IA ont des implications profondes pour différentes sociétés. Une grande partie de notre vie sociale et politique se déroule aujourd'hui sur des plateformes en ligne basées sur l'IA, et les démocraties en particulier s'appuient sur ces espaces d'information pour le débat et la communication, façonnant l'opinion publique et leur donnant une légitimité. Qui ou quelle agence devrait définir le rôle de la technologie ? Qui doit le réglementer ? Quel rôle les individus utilisant l'IA devraient-ils jouer ? Qu'en est-il des entreprises qui produisent de l'intelligence artificielle ? Qu'en est-il des gouvernements sociaux qui le déploient ? Dans le cadre de la solution à ces problèmes, nous devrions essayer de le rendre auditable, c'est-à-dire que ses processus et ses conclusions sont à la fois inspectables et corrigeables. À son tour, la possibilité de mettre en œuvre des corrections dépendra de la capacité à affiner les principes de la forme de perception et de prise de décision de l'IA. La moralité, la volonté et même la causalité ne s'intègrent pas bien dans le monde de l'intelligence artificielle autonome. Des problèmes similaires se posent à la plupart des niveaux de la société, des transports aux finances en passant par la médecine.
Considérez l'impact de l'intelligence artificielle sur les médias sociaux. Avec les innovations récentes, ces plateformes sont rapidement devenues un aspect important de notre vie publique. Comme nous l'avons vu au chapitre 4, les fonctionnalités que Twitter et Facebook utilisent pour mettre en évidence, limiter ou interdire purement et simplement du contenu ou des individus reposent toutes sur l'intelligence artificielle, un témoignage de sa puissance. L'utilisation de l'IA pour la promotion ou la suppression unilatérale et souvent opaque de contenus et de concepts est un défi pour toutes les nations, en particulier les démocraties. Est-il possible pour nous de conserver une domination alors que notre vie sociale et politique se déplace de plus en plus vers des domaines régis par l'intelligence artificielle, et nous ne pouvons compter que sur une telle gestion pour les naviguer ?
La pratique consistant à utiliser l'intelligence artificielle pour traiter de grandes quantités d'informations présente également un autre défi : l'intelligence artificielle augmente la distorsion du monde pour répondre aux préférences instinctives humaines. C'est un domaine où l'intelligence artificielle peut facilement amplifier nos biais cognitifs, mais nous résonnons toujours avec eux. Avec ces voix, confrontées à une diversité de choix et habilitées à choisir et à passer au crible, les gens recevront un flot de désinformation. Les entreprises de médias sociaux ne favorisent pas une polarisation politique extrême et violente à travers leurs fils d'actualité, mais il est clair que ces services ne conduisent pas non plus à la maximisation d'un discours éclairé.
Intelligence artificielle, information gratuite et pensée indépendante
Alors, à quoi devrait ressembler notre relation avec l'IA ? Doit-il être contraint, habilité ou traité comme un partenaire dans la gouvernance de ces domaines ? Il ne fait aucun doute que la diffusion de certaines informations, en particulier de fausses informations délibérément créées, peut causer des dommages, des divisions et des incitations. Certaines restrictions sont donc nécessaires. Cependant, la condamnation, l'attaque et la suppression des "informations nuisibles" sont désormais trop lâches, et cela devrait également conduire à la réflexion.
Dans une société libre, la définition de nuisible et de désinformation ne devrait pas être confinée à la compétence des entreprises. Cependant, si de telles responsabilités sont confiées à un groupe ou à une agence gouvernementale, ce groupe ou cette agence devrait fonctionner selon des normes publiques établies et à travers des procédures vérifiables pour éviter l'exploitation par ceux qui sont au pouvoir. S'il est confié à un algorithme d'IA, la fonction objective, l'apprentissage, les décisions et les actions de l'algorithme doivent être clairs et soumis à un examen externe, et au moins une certaine forme d'appel humain.
Bien sûr, différentes sociétés apporteront des réponses différentes à cela. Certaines sociétés peuvent mettre l'accent sur la liberté d'expression, peut-être à des degrés divers en fonction de leur compréhension relative des expressions individuelles, et peuvent ainsi limiter le rôle de l'IA dans la modération du contenu. Chaque société choisit les idées qu'elle valorise, ce qui peut conduire à des relations complexes avec les opérateurs multinationaux de plateformes de réseaux. L'IA est aussi absorbante qu'une éponge, apprenant des humains, même lorsque nous la concevons et la façonnons.
Par conséquent, non seulement les choix de chaque société sont différents, mais la relation de chaque société avec l'IA, la perception de l'IA et la façon dont l'IA imite les humains et apprend des enseignants humains sont également différentes. Mais une chose est certaine, c'est que la recherche humaine des faits et de la vérité ne doit pas amener une société à vivre la vie à travers un filtre mal défini et invérifiable. L'expérience spontanée de la réalité, malgré toutes ses contradictions et complexités, est un aspect important de la condition humaine, même si elle conduit à des inefficacités ou à des erreurs.
Intelligence Artificielle et Ordre International
Partout dans le monde, d'innombrables questions attendent une réponse. Comment réguler les plateformes d'intelligence artificielle en ligne sans susciter de tensions entre pays soucieux de leur sécurité ? Ces plateformes en ligne vont-elles éroder les notions traditionnelles de souveraineté nationale ? Les changements qui en résulteront apporteront-ils au monde une polarisation sans précédent depuis l'effondrement de l'Union soviétique ? Le petit Congrès s'y oppose-t-il ? Les tentatives de médiation de ces conséquences seront-elles couronnées de succès ? Ou y a-t-il un espoir de succès?
Alors que les capacités de l'intelligence artificielle continuent d'augmenter, la façon de positionner le rôle des humains en coopération avec l'intelligence artificielle deviendra de plus en plus importante et complexe. Nous pouvons imaginer un monde dans lequel les humains respecteront de plus en plus les opinions de l'intelligence artificielle sur des questions d'importance croissante. Dans un monde où les adversaires offensifs déploient avec succès l'IA, les dirigeants défensifs peuvent-ils décider de ne pas déployer leur propre IA et d'en assumer la responsabilité ? Même eux ne savent pas comment ce déploiement va évoluer. Et si l'IA a la capacité supérieure de recommander un plan d'action, y a-t-il une raison pour que les décideurs l'acceptent, même si ce plan d'action nécessite un certain niveau de sacrifice ? Comment l'homme peut-il savoir si un tel sacrifice est essentiel à la victoire ? S'il est essentiel, les décideurs politiques sont-ils vraiment disposés à y opposer leur veto ? En d'autres termes, nous n'aurons peut-être pas d'autre choix que de favoriser l'intelligence artificielle. Mais nous avons aussi la responsabilité de le façonner d'une manière compatible avec l'avenir de l'humanité. L'imperfection est l'une des normes de l'expérience humaine, en particulier en matière de leadership.
Souvent, les décideurs politiques sont submergés par des préoccupations intolérables. Parfois, leurs actions sont basées sur de fausses hypothèses ; parfois, ils agissent par pure émotion ; et d'autres fois encore, l'idéologie déforme leur vision. Quelles que soient les stratégies utilisées pour structurer les partenariats homme-IA, elles doivent être adaptées à l'homme. Si l'intelligence artificielle présente des capacités surhumaines dans certains domaines, son utilisation doit être compatible avec l'environnement humain imparfait.
Dans le domaine de la sécurité, les systèmes activés par l'IA réagissent si rapidement que les adversaires peuvent tenter des attaques avant que les systèmes ne soient opérationnels. Le résultat pourrait être une situation intrinsèquement instable comparable à celle créée par les armes nucléaires. Pourtant, les armes nucléaires sont encadrées par des concepts de sécurité internationale et de contrôle des armements qui ont été développés au fil des décennies par des gouvernements, des scientifiques, des stratèges et des éthiciens à travers des raffinements, des débats et des négociations continus. L'intelligence artificielle et les cyberarmes n'ont pas un cadre similaire.
En fait, les gouvernements peuvent être réticents à reconnaître leur existence. Les pays - et éventuellement les entreprises technologiques - doivent s'entendre sur la manière de coexister avec l'IA militarisée. La prolifération de l'IA à travers les fonctions de défense du gouvernement modifiera l'équilibre international et l'informatique sur laquelle il est maintenu à notre époque. Les armes nucléaires sont coûteuses et difficiles à dissimuler en raison de leur taille et de leur structure. En revanche, l'intelligence artificielle peut fonctionner sur des ordinateurs que l'on trouve partout. Étant donné que la formation d'un modèle d'apprentissage automatique nécessite une expertise et des ressources informatiques, la création d'une intelligence artificielle nécessite des ressources au niveau d'une grande entreprise ou d'un pays ; et puisque l'application de l'intelligence artificielle est effectuée sur des ordinateurs relativement petits, elle est vouée à être largement utilisée , y compris d'une manière à laquelle nous ne nous attendions pas. Toute personne disposant d'un ordinateur portable, d'une connexion Internet et d'un engagement à pénétrer le côté obscur de l'IA aura-t-elle enfin accès à une arme alimentée par l'IA ? Les gouvernements permettront-ils à des acteurs ayant des liens étroits ou inexistants avec eux d'utiliser l'IA pour harceler leurs adversaires ? Les terroristes planifieront-ils des attaques par IA ? Pourront-ils imputer ces activités à des États ou à d'autres acteurs ?
Autrefois, la diplomatie se déroulait dans une arène organisée et prévisible, aujourd'hui, son accès à l'information et son champ d'action seront largement élargis. Les frontières claires qui étaient autrefois formées par les différences géographiques et linguistiques disparaîtront progressivement. La traduction par IA facilitera le dialogue sans exiger non seulement des connaissances linguistiques mais aussi culturelles comme le faisaient les traducteurs précédents. Les plateformes en ligne alimentées par l'IA faciliteront la communication transfrontalière, tandis que le piratage et la désinformation continueront de fausser les perceptions et les évaluations. À mesure que la situation devient plus complexe, il deviendra plus difficile d'élaborer des accords exécutoires avec des résultats prévisibles.
La possibilité de combiner des capacités d'IA avec des cyberarmes ajoute à ce dilemme. L'humanité contourne le paradoxe nucléaire en distinguant clairement les armes conventionnelles (considérées en harmonie avec la stratégie conventionnelle) et les armes nucléaires (considérées comme l'exception). Une fois que la puissance destructrice des armes nucléaires est libérée, elle est aveugle et quelle que soit la cible, tandis que les armes conventionnelles peuvent distinguer la cible. Mais les cyber-armes qui peuvent à la fois identifier des cibles et faire des ravages à grande échelle effacent cette distinction.
Ajoutées au carburant de l'intelligence artificielle, ces armes deviendront encore plus imprévisibles et potentiellement plus destructrices. En même temps, lorsque ces armes circulent sur le réseau, il est impossible de déterminer leur attribution. Elles ne sont pas détectables car elles ne sont pas encombrantes comme les armes nucléaires ; elles peuvent aussi être emportées sur des clés USB, ce qui facilite leur prolifération. Sous certaines formes, ces armes sont difficilement contrôlables une fois déployées, d'autant plus compte tenu du caractère dynamique et émergent de l'intelligence artificielle.
Cette situation remet en question les prémisses de l'ordre mondial fondé sur des règles. En outre, il est devenu impératif de développer des concepts liés à la maîtrise des armements par IA. À l'ère de l'intelligence artificielle, la dissuasion ne suivra plus les normes historiques, et elle ne le fera pas non plus. À l'aube de l'ère nucléaire, un cadre conceptuel pour le contrôle des armements nucléaires a été développé sur la base des idées issues de discussions entre d'éminents professeurs et universitaires (ayant une expérience au sein du gouvernement) à Harvard, au MIT et à Caltech, qui à leur tour ont conduit à la création d'un système ( et les institutions pour le mettre en œuvre aux États-Unis et dans d'autres pays).
Aussi importante que soit la pensée académique, elle est mise en œuvre séparément des considérations du Pentagone sur la guerre conventionnelle – un nouvel ajout, pas une modification. Mais les utilisations militaires potentielles de l'intelligence artificielle sont plus larges que les armes nucléaires, et la distinction entre attaque et défense n'est pas claire, du moins pour l'instant. Dans un monde si complexe, intrinsèquement imprévisible, l'intelligence artificielle devient une autre source possible d'incompréhension et d'erreur, et tôt ou tard les grandes puissances dotées de capacités de haute technologie devront engager un dialogue permanent.
Un tel dialogue devrait se concentrer sur une question fondamentale : éviter la catastrophe et y survivre. L'intelligence artificielle et d'autres technologies émergentes, telles que l'informatique quantique, semblent rendre plus accessibles des réalités au-delà de la perception humaine. En fin de compte, cependant, nous pouvons constater que même ces techniques ont leurs limites. Notre problème est que nous n'avons pas saisi leurs implications philosophiques. Nous sommes propulsés par eux involontairement, pas consciemment.
La dernière fois qu'il y a eu un changement majeur dans la conscience humaine, c'était au siècle des Lumières, et ce changement s'est produit parce que les nouvelles technologies ont produit de nouvelles idées philosophiques qui ont été à leur tour diffusées par la technologie (sous la forme de l'imprimerie). À notre époque, de nouvelles technologies ont été développées sans philosophies directrices correspondantes. L'intelligence artificielle est une entreprise énorme avec des avantages potentiels considérables. Les humains travaillent dur pour développer l'intelligence artificielle, mais l'utilisons-nous pour rendre nos vies meilleures ou pires ? Il promet des médicaments plus puissants, des soins de santé plus efficaces et équitables, des pratiques environnementales plus durables et d'autres visions du progrès. Dans le même temps, cependant, cela peut également déformer les informations, ou du moins compliquer le processus de consommation d'informations et d'identification de la vérité, et affaiblir ainsi la capacité de raisonnement et de jugement indépendants de certaines personnes.
Au final, une "méta" question émerge : les humains peuvent-ils satisfaire le besoin de philosophie avec "l'assistance" de l'intelligence artificielle avec différentes interprétations et compréhensions du monde ? Les humains ne comprennent pas complètement les machines, mais finirons-nous par faire la paix avec elles et changerons-nous le monde ? Immanuel Kant commence sa préface à sa Critique de la raison pure par ce point :
La raison humaine a ce destin particulier que, dans l'une des branches de toutes ses connaissances, elle est assaillie par des problèmes qui ne peuvent être ignorés car ils s'imposent à elle-même par la nature même de la raison, mais qui, parce qu'ils surpassent toutes les capacités de la raison , il ne peut pas être résolu.
Au cours des siècles qui ont suivi, les humains ont exploré ces questions en profondeur, dont certaines touchent à la nature de l'esprit, de la raison et même de la réalité. L'humanité a fait de grandes percées, mais elle s'est également heurtée à bon nombre des limitations posées par Kant : un domaine de questions auquel il ne peut pas répondre, un domaine de faits auquel il ne peut pas pleinement comprendre. L'émergence de l'intelligence artificielle, qui apporte la capacité d'apprendre et de traiter des informations que les humains ne peuvent pas atteindre avec la seule raison, peut nous permettre de progresser sur des questions qui se sont avérées au-delà de notre capacité à répondre. Mais le succès soulèvera de nouvelles questions, dont certaines que nous avons essayé d'éclairer dans ce livre. L'intelligence humaine et l'intelligence artificielle sont à un moment où les deux vont converger dans des activités à l'échelle nationale, continentale ou même mondiale. Comprendre ce changement et développer un code éthique directeur autour de celui-ci nécessitera la sagesse collective, la voix et l'engagement partagé de tous les segments de la société, y compris les scientifiques et les stratèges, les politiciens et les philosophes, le clergé et les PDG . Cet engagement ne doit pas seulement être pris à l'intérieur des pays, mais aussi entre les pays. Quel partenariat peut-on avoir avec l'intelligence artificielle, et quelle réalité en sortira ? Maintenant, il est temps de définir cela.
Auteur : / [États-Unis] Henry Kissinger / [États-Unis] Eric Schmidt / [États-Unis] Daniel Huttenlocher
Extrait / Liu Yaguang
Editeur/Liu Yaguang
Relecture / Zhao Lin