Kissinger habla de inteligencia artificial: ¿Cómo ve el orden internacional en la era de la inteligencia artificial?

Original: Las noticias de Pekín

Fuente de la imagen: Generada por Unbounded AI

Desde AlphaGo de Google que derrota a jugadores de ajedrez humanos hasta ChatGpt que desencadena discusiones acaloradas en la comunidad tecnológica, cada avance en la tecnología de inteligencia artificial afecta los nervios de las personas. No hay duda de que la inteligencia artificial está cambiando profundamente nuestra sociedad, economía, política e incluso política exterior, y las teorías tradicionales del pasado a menudo no logran explicar el impacto de todo esto. En el libro "La era de la inteligencia artificial y el futuro de la humanidad", Kissinger, el famoso diplomático, Schmidt, ex director general de Google, y Huttenlocher, decano de la Escuela de Ciencias de la Computación Schwarzman del Instituto Tecnológico de Massachusetts, ordenan La vida pasada de la inteligencia artificial desde diferentes perspectivas Esta vida, y discutió exhaustivamente los diversos impactos que su desarrollo puede traer a las personas, empresas, gobiernos, sociedades y países. Varios pensadores importantes creen que a medida que las capacidades de la inteligencia artificial se vuelven cada vez más fuertes, cómo posicionar el papel de los seres humanos será una propuesta en la que debemos pensar durante mucho tiempo en el futuro. El siguiente contenido es un extracto de "La era de la inteligencia artificial y el futuro de la humanidad" con la autorización del editor, con eliminaciones y revisiones, los subtítulos son agregados por el editor.

Autor original | [EE. UU.] Henry Kissinger / [EE. UU.] Eric Schmidt / [EE. UU.] Daniel Huttenlocher

**¿Qué traerá la inteligencia artificial general? **

¿Pueden los humanos y la inteligencia artificial acercarse a la misma realidad desde diferentes perspectivas, y pueden complementarse y complementarse? ¿O percibimos dos realidades diferentes pero parcialmente superpuestas: una que los humanos pueden explicar racionalmente y otra que la inteligencia artificial puede explicar algorítmicamente? Si la respuesta es la última, entonces la inteligencia artificial puede percibir cosas que aún no hemos percibido y no podemos percibir, no solo porque no tenemos suficiente tiempo para razonar sobre ellas a nuestro modo, sino porque existen en un lugar que nuestra mente no puede conceptualizar en el campo. La búsqueda de la humanidad de una "comprensión completa del mundo" cambiará, y las personas se darán cuenta de que para obtener cierto conocimiento, es posible que debamos confiar en la inteligencia artificial para obtener conocimiento para nosotros e informarnos. Independientemente de la respuesta, a medida que la inteligencia artificial persigue objetivos más completos y extensos, a los humanos les parecerá cada vez más una "criatura" que experimenta y comprende el mundo: una combinación de herramientas, mascotas y mentes.

A medida que los investigadores se acercan o logran la inteligencia artificial general, el rompecabezas se vuelve más profundo. Como discutimos en el Capítulo 3, AGI no se limitará a aprender y realizar tareas específicas; en cambio, por definición, AGI podrá aprender y realizar una gama extremadamente amplia de tareas, tal como lo hacen los humanos. El desarrollo de la inteligencia general artificial requerirá una enorme potencia informática, lo que puede resultar en que solo unas pocas organizaciones bien financiadas sean capaces de crear dicha IA. Al igual que con la IA actual, si bien AGI puede implementarse fácilmente de forma descentralizada, dadas sus capacidades, sus aplicaciones serán necesariamente limitadas. Se podrían imponer limitaciones a AGI al permitir que solo las organizaciones aprobadas lo operen. La pregunta entonces es: ¿Quién controlará AGI? ¿Quién autorizará su uso? ¿Sigue siendo posible la democracia en un mundo en el que unas pocas organizaciones manejan unas pocas máquinas "geniales"? En este caso, ¿cómo será la cooperación humano-IA?

Si la inteligencia general artificial emerge en el mundo, será un gran logro intelectual, científico y estratégico. Pero incluso si no lo hace, la inteligencia artificial también puede provocar una revolución en los asuntos humanos. El impulso y la capacidad de AI para responder a emergencias (o eventos inesperados) y brindar soluciones la distinguen de las tecnologías anteriores. Si no se regula, la IA podría desviarse de nuestras expectativas y, por extensión, de nuestra intención. La decisión de limitarlo, cooperar con él u obedecerlo no la tomarán únicamente los humanos. En algunos casos, esto lo determinará la propia IA; en otros, dependerá de varios factores habilitantes. Los seres humanos pueden participar en una "carrera hacia el fondo".

A medida que la IA automatiza los procesos, permite a los humanos explorar grandes cantidades de datos y organiza y reestructura los ámbitos físicos y sociales, los pioneros pueden obtener la ventaja de ser los primeros en actuar. Las presiones competitivas podrían obligar a las partes a correr para implementar AGI sin tiempo suficiente para evaluar los riesgos o simplemente ignorarlos. La ética sobre la inteligencia artificial es fundamental. Cada decisión individual —limitar, cooperar o cumplir— puede o no tener consecuencias dramáticas, pero cuando se combinan, el impacto se multiplica.

Estas decisiones no se pueden tomar de forma aislada. Si la humanidad quiere dar forma al futuro, debe acordar principios comunes que guíen cada elección. Es cierto que la acción colectiva es difícil y, a veces, incluso imposible, pero las acciones individuales sin la guía de un código moral común solo conducirán a una mayor confusión y caos para la humanidad en su conjunto. Quienes diseñen, entrenen y trabajen con IA podrán lograr objetivos de una escala y complejidad hasta ahora inalcanzables para los humanos, como nuevos avances científicos, nuevas eficiencias económicas, nuevas formas de seguridad y una nueva dimensión de vigilancia social. Y en la expansión de la IA y sus usos, aquellos que no están empoderados pueden sentir que están siendo observados, estudiados y actuados por fuerzas que no entienden y que no son de su propio diseño o elección. Este poder opera de una manera opaca que en muchas sociedades no puede ser tolerada por los actores o instituciones humanos tradicionales. Los diseñadores e implementadores de IA deben estar preparados para abordar estos problemas, comenzando por explicar a las personas sin conocimientos técnicos qué está haciendo la IA, qué "sabe" y cómo lo hace. La naturaleza dinámica y emergente de la IA crea ambigüedad en al menos dos formas. Primero, la inteligencia artificial puede funcionar como esperamos, pero producir resultados que no podemos prever. Estos resultados pueden llevar a la humanidad a lugares que sus creadores nunca esperaron, al igual que los políticos en 1914 no reconocieron que la vieja lógica de la movilización militar junto con la nueva tecnología arrastraría a Europa a la guerra. La inteligencia artificial también puede tener graves consecuencias si se implementa y utiliza sin una consideración cuidadosa.

Fotogramas de la película Alita: Ángel de combate.

Estas consecuencias pueden ser pequeñas, como una decisión que pone en peligro la vida tomada por un automóvil autónomo, o extremadamente significativas, como un conflicto militar grave. En segundo lugar, en algunos dominios de aplicaciones, la IA puede ser impredecible y actuar de manera completamente inesperada. Tomando AlphaZero como ejemplo, desarrolló un estilo de ajedrez que los humanos nunca han imaginado en miles de años de historia del ajedrez, solo de acuerdo con las instrucciones de "ganar ajedrez". Si bien los humanos pueden tener cuidado al prescribir los objetivos de una IA, a medida que le damos mayor libertad, su camino hacia ese objetivo podría sorprendernos e incluso asustarnos. Por lo tanto, tanto la focalización como el mandato de AI deben diseñarse cuidadosamente, especialmente en áreas donde sus decisiones pueden ser letales. La IA no debe ser vista como autónoma, desatendida, ni debe permitirse que tome acciones irrevocables sin supervisión, vigilancia o control directo. La inteligencia artificial fue creada por humanos, por lo que también debe ser supervisada por humanos. Pero uno de los desafíos de la IA en nuestro tiempo es que las personas con las habilidades y los recursos para crearla no necesariamente tienen la perspectiva filosófica para comprender sus implicaciones más amplias. Muchos creadores de inteligencia artificial se enfocan principalmente en las aplicaciones que intentan lograr y los problemas que quieren resolver: es posible que no se detengan a considerar si la solución producirá una revolución histórica o cómo su tecnología afectará a diferentes multitudes. La era de la inteligencia artificial necesita de su propio Descartes y Kant para explicar lo que hemos creado y lo que significa para los humanos.

Necesitamos organizar discusiones y negociaciones racionales que involucren a gobiernos, universidades e innovadores de la industria privada, y el objetivo debe ser establecer límites a la acción práctica como los que gobiernan la acción individual y organizacional en la actualidad. La IA tiene atributos que comparten algunos de los mismos, pero difieren de ellos en algunos aspectos importantes, de los productos, servicios, tecnologías y entidades actualmente regulados, en el sentido de que carece de un marco conceptual y legal propio completamente definido. Por ejemplo, la naturaleza provocativa y en constante evolución de la IA presenta desafíos regulatorios: quién y cómo opera en el mundo puede variar entre dominios y evolucionar con el tiempo, y no siempre de una manera predecible. El gobierno de las personas está guiado por un código de ética. La IA necesita una brújula moral propia que refleje no solo la naturaleza de la tecnología sino también los desafíos que presenta.

A menudo, los principios establecidos no se aplican aquí. En la Era de la Fe, cuando los acusados en la Inquisición enfrentaban un veredicto de batalla, la corte podía decidir el crimen, pero Dios decidía quién salía victorioso. En la era de la razón, el ser humano determinaba la culpa según los preceptos de la razón, y juzgaba y castigaba los delitos según conceptos como la causalidad y la dolo. Pero la inteligencia artificial no opera sobre la razón humana, ni tiene motivación, intención o autorreflexión humana. Por lo tanto, la introducción de la IA complicará los principios de justicia existentes que se aplican a los humanos.

Cuando un sistema autónomo actúa en base a sus propias percepciones y decisiones, ¿sus creadores asumen la responsabilidad? ¿O no deberían confundirse las acciones de AI con las de sus creadores, al menos en términos de culpabilidad? Si la IA se va a utilizar para detectar signos de comportamiento delictivo o para ayudar a determinar si alguien es culpable, ¿debe la IA poder "explicar" cómo llegó a sus conclusiones para que los funcionarios humanos puedan confiar en ella? Además, ¿en qué momento y en qué contexto del desarrollo tecnológico la IA debe ser objeto de negociaciones internacionales? Este es otro tema importante de debate. Si se investiga demasiado pronto, el desarrollo de la tecnología podría verse obstaculizado o podría verse tentado a ocultar sus capacidades; si se retrasa demasiado, podría tener consecuencias devastadoras, especialmente en el ámbito militar. Este desafío se ve agravado por la dificultad de diseñar mecanismos de verificación efectivos para una tecnología que es etérea, oscura y de fácil difusión. Los negociadores oficiales serán necesariamente los gobiernos, pero también se necesitará una voz para los tecnólogos, especialistas en ética, las empresas que crean y operan la IA y otros fuera del campo.

Fotogramas del drama estadounidense "Western World".

Los dilemas que plantea la IA tienen implicaciones de gran alcance para diferentes sociedades. Gran parte de nuestra vida social y política actual tiene lugar en plataformas en línea habilitadas para IA, y las democracias en particular dependen de estos espacios de información para el debate y la comunicación, moldeando la opinión pública y dándoles legitimidad. ¿Quién o qué organismo debería definir el papel de la tecnología? ¿Quién debe regularlo? ¿Qué papel deberían desempeñar las personas que utilizan la IA? ¿Qué pasa con las empresas que producen inteligencia artificial? ¿Qué pasa con los gobiernos sociales desplegándolo? Como parte de la solución a estos problemas, debemos intentar que sea auditable, es decir, que sus procesos y conclusiones sean tanto inspeccionables como corregibles. A su vez, si se pueden implementar correcciones dependerá de la capacidad de refinar los principios para la forma de percepción y toma de decisiones de la IA. La moralidad, la voluntad e incluso la causalidad no encajan bien en el mundo de la inteligencia artificial autónoma. Problemas similares surgen en la mayoría de los niveles de la sociedad, desde el transporte hasta las finanzas y la medicina.

Considere el impacto de la inteligencia artificial en las redes sociales. Con innovaciones recientes, estas plataformas se han convertido rápidamente en un aspecto importante de nuestra vida pública. Como discutimos en el Capítulo 4, las funciones que Twitter y Facebook usan para resaltar, limitar o prohibir por completo el contenido o las personas dependen de la inteligencia artificial, un testimonio de su poder. El uso de la IA para la promoción o eliminación unilateral y a menudo opaca de contenido y conceptos es un desafío para todas las naciones, especialmente las democracias. ¿Es posible que retengamos el dominio a medida que nuestra vida social y política se desplaza cada vez más hacia dominios gobernados por inteligencia artificial, y solo podemos confiar en dicha gestión para navegar por ellos?

La práctica de usar inteligencia artificial para procesar grandes cantidades de información también presenta otro desafío: la inteligencia artificial aumenta la distorsión del mundo para satisfacer las preferencias instintivas humanas. Esta es un área en la que la inteligencia artificial puede amplificar fácilmente nuestros sesgos cognitivos, pero aún resonamos con ellos. Con estas voces, frente a una diversidad de opciones y facultadas para elegir y tamizar, las personas recibirán una avalancha de información errónea. Las empresas de redes sociales no promueven la polarización política extrema y violenta a través de sus fuentes de noticias, pero está claro que estos servicios tampoco conducen a la maximización del discurso ilustrado.

Inteligencia artificial, información libre y pensamiento independiente

Entonces, ¿cómo debería ser nuestra relación con la IA? ¿Debe ser restringida, empoderada o tratada como un socio en el gobierno de estos dominios? No hay duda de que la difusión de cierta información, especialmente la información falsa creada deliberadamente, puede causar daño, división e incitación. Por lo tanto, se necesitan algunas restricciones. Sin embargo, la condena, el ataque y la supresión de la "información nociva" ahora son demasiado laxos, y esto también debería llevar a la reflexión.

En una sociedad libre, la definición de información dañina y desinformación no debe limitarse al ámbito de las corporaciones. Sin embargo, si tales responsabilidades se encomiendan a un grupo o agencia gubernamental, ese grupo o agencia debe operar de acuerdo con estándares públicos establecidos y mediante procedimientos verificables para evitar la explotación por parte de quienes están en el poder. Si se confía a un algoritmo de IA, la función objetiva, el aprendizaje, las decisiones y las acciones del algoritmo deben ser claros y estar sujetos a escrutinio externo, y al menos alguna forma de atractivo humano.

Por supuesto, diferentes sociedades llegarán a diferentes respuestas a esto. Algunas sociedades pueden enfatizar la libertad de expresión, quizás en diversos grados según su comprensión relativa de las expresiones individuales y, por lo tanto, pueden limitar el papel de la IA en la moderación del contenido. Cada sociedad elige qué ideas valora, lo que puede dar lugar a relaciones complejas con los operadores de plataformas de redes multinacionales. La IA es tan absorbente como una esponja, aprende de los humanos, incluso mientras la diseñamos y le damos forma.

Fotogramas del drama estadounidense "Western World".

Por lo tanto, no solo son diferentes las elecciones de cada sociedad, sino que la relación de cada sociedad con la IA, la percepción de la IA y la forma en que la IA imita a los humanos y aprende de los maestros humanos también son diferentes. Pero una cosa es cierta, y es que la búsqueda humana de hechos y verdades no debe hacer que una sociedad experimente la vida a través de un filtro mal definido e incomprobable. La experiencia espontánea de la realidad, con todas sus contradicciones y complejidades, es un aspecto importante de la condición humana, aunque conduzca a ineficiencias o errores.

Inteligencia Artificial y Orden Internacional

En todo el mundo, innumerables preguntas esperan ser respondidas. ¿Cómo se pueden regular las plataformas en línea de inteligencia artificial sin generar tensiones entre los países preocupados por su seguridad? ¿Estas plataformas en línea erosionarán las nociones tradicionales de soberanía nacional? ¿Traerán los cambios resultantes una polarización al mundo no vista desde el colapso de la Unión Soviética? ¿El pequeño Congreso se opone? ¿Tendrán éxito los intentos de mediar estas consecuencias? ¿O hay alguna esperanza de éxito?

A medida que las capacidades de la inteligencia artificial continúen aumentando, la forma de posicionar el papel de los humanos en cooperación con la inteligencia artificial será cada vez más importante y compleja. Podemos imaginar un mundo en el que los humanos respeten cada vez más las opiniones de la inteligencia artificial en temas de creciente importancia. En un mundo en el que los adversarios ofensivos implementan con éxito la IA, ¿pueden los líderes del lado defensivo decidir no implementar su propia IA y asumir la responsabilidad de ello? Incluso ellos no están seguros de cómo evolucionará esta implementación. Y si la IA tiene la capacidad superior de recomendar un curso de acción, ¿hay alguna razón para que los tomadores de decisiones lo acepten, incluso si ese curso de acción requiere cierto nivel de sacrificio? ¿Cómo puede saber el hombre si tal sacrificio es esencial para la victoria? Si es esencial, ¿están los políticos realmente dispuestos a vetarlo? En otras palabras, es posible que no tengamos más remedio que fomentar la inteligencia artificial. Pero también tenemos la responsabilidad de darle forma de manera que sea compatible con el futuro de la humanidad. La imperfección es una de las normas de la experiencia humana, especialmente cuando se trata de liderazgo.

A menudo, los formuladores de políticas se ven abrumados por preocupaciones intolerables. A veces, sus acciones se basan en suposiciones falsas, a veces, actúan por pura emoción, y aún otras veces, la ideología distorsiona su visión. Cualesquiera que sean las estrategias que se utilicen para estructurar las asociaciones humano-IA, deben adaptarse a los humanos. Si la inteligencia artificial exhibe habilidades sobrehumanas en ciertos dominios, su uso debe ser compatible con el entorno humano imperfecto.

En el ámbito de la seguridad, los sistemas habilitados para IA responden tan rápido que los adversarios pueden intentar ataques antes de que los sistemas estén operativos. El resultado podría ser una situación intrínsecamente inestable comparable a la creada por las armas nucleares. Sin embargo, las armas nucleares se enmarcan dentro de los conceptos de seguridad internacional y control de armas que han sido desarrollados durante las últimas décadas por gobiernos, científicos, estrategas y especialistas en ética a través del refinamiento, el debate y la negociación continuos. La inteligencia artificial y las ciberarmas no tienen un marco similar.

De hecho, los gobiernos pueden ser reacios a reconocer su existencia. Los países, y posiblemente las empresas tecnológicas, deben ponerse de acuerdo sobre cómo coexistir con la IA armada. La proliferación de la IA a través de las funciones de defensa del gobierno alterará el equilibrio internacional y la informática sobre la que se mantiene en nuestro tiempo. Las armas nucleares son costosas y difíciles de ocultar debido a su tamaño y estructura. Por el contrario, la inteligencia artificial puede ejecutarse en computadoras que se pueden encontrar en todas partes. Dado que entrenar un modelo de aprendizaje automático requiere experiencia y recursos informáticos, crear una inteligencia artificial requiere recursos al nivel de una gran empresa o país; y dado que la aplicación de la inteligencia artificial se lleva a cabo en computadoras relativamente pequeñas, seguramente tendrá un uso generalizado. , incluso de maneras que no esperábamos. ¿Alguien con una computadora portátil, una conexión a Internet y una dedicación para entrometerse en el lado oscuro de la IA finalmente tendrá acceso a un arma impulsada por IA? ¿Permitirán los gobiernos que actores con vínculos estrechos o sin ellos utilicen IA para hostigar a sus adversarios? ¿Los terroristas planearán ataques de IA? ¿Serán capaces de atribuir estas actividades a los Estados u otros actores?

En el pasado, la diplomacia se desarrollaba en un escenario organizado y predecible; hoy, su acceso a la información y su campo de acción se ampliarán considerablemente. Los límites claros que solían estar formados por diferencias geográficas y lingüísticas desaparecerán gradualmente. La traducción de IA facilitará el diálogo sin requerir no solo conocimientos lingüísticos sino también culturales como lo hicieron los traductores anteriores. Las plataformas en línea impulsadas por IA facilitarán la comunicación transfronteriza, mientras que la piratería y la desinformación seguirán distorsionando las percepciones y evaluaciones. A medida que la situación se vuelve más compleja, será más difícil desarrollar acuerdos exigibles con resultados predecibles.

La posibilidad de combinar capacidades de IA con armas cibernéticas se suma a este dilema. La humanidad elude la paradoja nuclear al hacer una clara distinción entre las armas convencionales (consideradas en armonía con la estrategia convencional) y las armas nucleares (consideradas la excepción). Una vez que se libera el poder destructivo de las armas nucleares, es indiscriminado e independientemente del objetivo, mientras que las armas convencionales pueden distinguir el objetivo. Pero las armas cibernéticas que pueden identificar objetivos y causar estragos a gran escala borran esa distinción.

Agregadas al combustible de la inteligencia artificial, estas armas se volverán aún más impredecibles y potencialmente más destructivas. Al mismo tiempo, cuando estas armas circulan por la red, es imposible determinar su atribución. No se pueden detectar porque no son voluminosos como las armas nucleares, también se pueden llevar en memorias USB, lo que facilita la proliferación. En algunas formas, estas armas son difíciles de controlar una vez desplegadas, más aún dada la naturaleza dinámica y emergente de la inteligencia artificial.

Esta situación desafía las premisas del orden mundial basado en reglas. Además, ha hecho imperativo desarrollar conceptos relacionados con el control de armas de la IA. En la era de la inteligencia artificial, la disuasión ya no seguirá las normas históricas, ni lo hará. En los albores de la era nuclear, se desarrolló un marco conceptual para el control de armas nucleares basado en ideas de discusiones entre profesores y académicos destacados (con experiencia en el gobierno) en Harvard, MIT y Caltech, que a su vez condujo a la creación de un sistema ( y las instituciones para implementarlo en los Estados Unidos y otros países).

A pesar de lo importante que es el pensamiento académico, se implementa por separado de las consideraciones del Pentágono sobre la guerra convencional: una nueva adición, no una modificación. Pero los posibles usos militares de la inteligencia artificial van más allá de las armas nucleares, y la distinción entre ataque y defensa no está clara, al menos por ahora. En un mundo tan complejo, inherentemente impredecible, la inteligencia artificial se convierte en otra posible fuente de malentendidos y errores, y tarde o temprano, las grandes potencias con capacidades de alta tecnología tendrán que entablar un diálogo continuo.

Dicho diálogo debe centrarse en un tema fundamental: evitar el desastre y sobrevivir a él. La inteligencia artificial y otras tecnologías emergentes, como la computación cuántica, parecen estar haciendo que las realidades más allá de la percepción humana sean más accesibles. En última instancia, sin embargo, podemos encontrar que incluso estas técnicas tienen sus limitaciones. Nuestro problema es que no hemos captado sus implicaciones filosóficas. Estamos siendo impulsados por ellos involuntariamente, no conscientemente.

La última vez que hubo un cambio importante en la conciencia humana fue durante la Ilustración, y este cambio ocurrió porque las nuevas tecnologías produjeron nuevos conocimientos filosóficos que, a su vez, se difundieron a través de la tecnología (en forma de imprenta). En nuestro tiempo, las nuevas tecnologías se han desarrollado sin las correspondientes filosofías rectoras. La inteligencia artificial es una empresa enorme con beneficios potenciales de gran alcance. Los humanos estamos trabajando duro para desarrollar inteligencia artificial, pero ¿la estamos usando para mejorar o empeorar nuestras vidas? Promete medicamentos más fuertes, atención médica más eficiente y equitativa, prácticas ambientales más sostenibles y otras visiones de progreso. Al mismo tiempo, sin embargo, también puede distorsionar la información, o al menos complicar el proceso de consumo de información e identificación de la verdad, debilitando así la capacidad de razonamiento y juicio independientes de algunas personas.

Al final, surge una "meta" pregunta: ¿Pueden los humanos satisfacer la necesidad de la filosofía con la "asistencia" de la inteligencia artificial con diferentes interpretaciones y comprensiones del mundo? Los humanos no entienden del todo a las máquinas, pero ¿haremos finalmente las paces con ellas y cambiaremos el mundo? Immanuel Kant comienza su prefacio a su Crítica de la razón pura con este punto:

La razón humana tiene este peculiar destino, que en una de las ramas de todo su conocimiento se ve acosada por problemas que no pueden ser desatendidos ya que se los impone la propia naturaleza de la razón misma, pero que por sobrepasar todas las capacidades de la razón. , no se puede solucionar.

En los siglos transcurridos desde entonces, los humanos han explorado estas preguntas en profundidad, algunas de las cuales tocan la naturaleza de la mente, la razón e incluso la realidad. La humanidad ha logrado grandes avances, pero también se ha encontrado con muchas de las limitaciones que planteó Kant: un reino de preguntas que no puede responder, un reino de hechos que no puede comprender completamente. El surgimiento de la inteligencia artificial, que brinda la capacidad de aprender y procesar información que los humanos no pueden lograr solo con la razón, puede permitirnos avanzar en preguntas que han demostrado estar más allá de nuestra capacidad de respuesta. Pero el éxito planteará nuevas preguntas, algunas de las cuales hemos tratado de aclarar en este libro. La inteligencia humana y la inteligencia artificial se encuentran en una coyuntura en la que ambas convergerán en actividades a escala nacional, continental o incluso mundial. Comprender este cambio y desarrollar un código ético rector en torno a él requerirá la sabiduría colectiva, la voz y el compromiso compartido de todos los segmentos de la sociedad, incluidos científicos y estrategas, políticos y filósofos, clérigos y directores ejecutivos. Este compromiso no solo debe hacerse dentro de los países, sino también entre países. ¿Qué tipo de asociación podemos tener con la inteligencia artificial y qué tipo de realidad surgirá de ella? Ahora, es hora de definir esto.

Autor: / [EE.UU.] Henry Kissinger / [EE.UU.] Eric Schmidt / [EE.UU.] Daniel Huttenlocher

Extracto / Liu Yaguang

Editor/Liu Yaguang

Corrección / Zhao Lin

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)