Kissinger fala sobre inteligência artificial: Como você vê a ordem internacional na era da inteligência artificial?

Original: The Beijing News

Fonte da imagem: Gerada por Unbounded AI

Do AlphaGo do Google derrotando jogadores de xadrez humanos ao ChatGpt desencadeando discussões acaloradas na comunidade de tecnologia, cada avanço na tecnologia de inteligência artificial afeta os nervos das pessoas. Não há dúvida de que a inteligência artificial está mudando profundamente nossa sociedade, economia, política e até política externa, e as teorias tradicionais do passado muitas vezes não conseguem explicar o impacto de tudo isso. No livro "A Era da Inteligência Artificial e o Futuro da Humanidade", Kissinger, o famoso diplomata, Schmidt, ex-CEO do Google, e Huttenlocher, reitor da Schwarzman School of Computer Science do Massachusetts Institute of Technology, classificam a vida passada da inteligência artificial sob diferentes perspectivas. Esta vida, e discutiu de forma abrangente os vários impactos que seu desenvolvimento pode trazer para indivíduos, empresas, governos, sociedades e países. Vários pensadores importantes acreditam que, à medida que as capacidades da inteligência artificial se tornam cada vez mais fortes, como posicionar o papel dos seres humanos será uma proposição sobre a qual devemos pensar por muito tempo no futuro. O conteúdo a seguir foi extraído de "A Era da Inteligência Artificial e o Futuro da Humanidade" com a autorização do editor, com exclusões e revisões, legendas adicionadas pelo editor.

Autor Original | [EUA] Henry Kissinger / [EUA] Eric Schmidt / [EUA] Daniel Huttenlocher

**O que a inteligência artificial geral trará? **

Os seres humanos e a inteligência artificial podem abordar a mesma realidade de diferentes perspectivas, e eles podem se complementar e se complementar? Ou percebemos duas realidades diferentes, mas parcialmente sobrepostas: uma que os humanos podem explicar racionalmente e a outra que a inteligência artificial pode explicar algoritmicamente? Se a resposta for a última, então a inteligência artificial pode perceber coisas que ainda não percebemos e não podemos perceber - não apenas porque não temos tempo suficiente para raciocinar sobre elas à nossa maneira, mas porque elas existem em um lugar que nossas mentes não pode conceituar.no campo. A busca da humanidade pela "compreensão completa do mundo" mudará e as pessoas perceberão que, para obter certo conhecimento, talvez precisemos confiar na inteligência artificial para obter conhecimento para nós e nos reportar. Independentemente da resposta, à medida que a inteligência artificial persegue objetivos mais abrangentes e extensos, ela aparecerá para os humanos cada vez mais como uma "criatura" que experimenta e compreende o mundo - uma combinação de ferramentas, animais de estimação e mentes.

À medida que os pesquisadores se aproximam ou alcançam a inteligência geral artificial, o quebra-cabeça só se torna mais profundo. Como discutimos no Capítulo 3, a AGI não se limitará a aprender e executar tarefas específicas; em vez disso, por definição, a AGI será capaz de aprender e executar uma gama extremamente ampla de tarefas, assim como os humanos. O desenvolvimento de inteligência geral artificial exigirá um enorme poder de computação, o que pode resultar em apenas algumas organizações bem financiadas capazes de criar tal IA. Assim como a IA atual, embora a AGI possa ser facilmente implantada de forma descentralizada, dadas suas capacidades, suas aplicações serão necessariamente limitadas. Limitações podem ser impostas ao AGI, permitindo apenas que organizações aprovadas operem. A questão então se torna: Quem controlará a AGI? Quem vai autorizar seu uso? A democracia ainda é possível em um mundo onde algumas máquinas "geniais" são dirigidas por algumas organizações? Nesse caso, como será a cooperação humano-IA?

Se a inteligência geral artificial surgir no mundo, será uma grande conquista intelectual, científica e estratégica. Mas mesmo que não consiga, a inteligência artificial também pode provocar uma revolução nos assuntos humanos. O impulso e a capacidade da IA de responder a emergências (ou eventos inesperados) e fornecer soluções a diferenciam das tecnologias anteriores. Se não for regulamentada, a IA pode se desviar de nossas expectativas e, por extensão, de nossa intenção. A decisão de limitá-lo, cooperar com ele ou obedecê-lo não será feita apenas por humanos. Em alguns casos, isso será determinado pela própria IA; em outros, dependerá de vários fatores facilitadores. Os seres humanos podem estar envolvidos em uma "corrida para o fundo".

À medida que a IA automatiza os processos, permite que os humanos explorem grandes quantidades de dados e organiza e reestrutura os domínios físicos e sociais, os pioneiros podem obter uma vantagem pioneira. As pressões competitivas podem forçar as partes a correr para implantar AGI sem tempo suficiente para avaliar os riscos ou simplesmente ignorá-los. Ética sobre inteligência artificial é essencial. Cada decisão individual – limitar, cooperar ou obedecer – pode ou não ter consequências dramáticas, mas quando combinadas, o impacto é multiplicado.

Essas decisões não podem ser tomadas isoladamente. Se a humanidade deseja moldar o futuro, precisa concordar com princípios comuns que norteiam todas as escolhas. É verdade que a ação coletiva é difícil e às vezes até impossível, mas as ações individuais sem a orientação de uma norma moral comum só levarão a uma maior turbulência e caos para a humanidade como um todo. Aqueles que projetam, treinam e trabalham com IA serão capazes de atingir objetivos de escala e complexidade até então inatingíveis para humanos, como novos avanços científicos, novas eficiências econômicas, novas formas de segurança e uma nova dimensão de vigilância social. E na expansão da inteligência artificial e seus usos, aqueles que não são capacitados podem sentir que estão sendo observados, estudados e influenciados por forças que não entendem e que não são de seu próprio projeto ou escolha. Esse poder opera de maneira opaca que, em muitas sociedades, não pode ser tolerado por atores ou instituições humanas tradicionais. Os projetistas e implementadores de IA devem estar preparados para abordar essas questões, começando explicando para pessoas não técnicas o que a IA está fazendo, o que ela “sabe” e como o faz. A natureza dinâmica e emergente da IA cria ambiguidade de pelo menos duas maneiras. Primeiro, a inteligência artificial pode funcionar como esperamos, mas produzir resultados que não podemos prever. Esses resultados podem levar a humanidade a lugares que seus criadores nunca esperaram, assim como os políticos em 1914 falharam em reconhecer que a velha lógica da mobilização militar aliada à nova tecnologia arrastaria a Europa para a guerra. A inteligência artificial também pode ter sérias consequências se for implantada e usada sem consideração cuidadosa.

Imagens do filme Alita: Battle Angel.

Essas consequências podem ser pequenas, como uma decisão com risco de vida tomada por um carro autônomo, ou extremamente significativas, como um conflito militar sério. Em segundo lugar, em alguns domínios de aplicação, a IA pode ser imprevisível, agindo de forma totalmente inesperada. Tomando o AlphaZero como exemplo, desenvolveu um estilo de xadrez que os humanos nunca imaginaram em milhares de anos de história do xadrez, apenas de acordo com as instruções do "xadrez vencedor". Embora os humanos possam ter o cuidado de prescrever os objetivos de uma IA, à medida que damos a ela maior latitude, seu caminho para esse objetivo pode nos surpreender e até nos deixar em pânico. Portanto, tanto o direcionamento quanto o mandato da IA precisam ser cuidadosamente projetados, especialmente em áreas onde suas decisões podem ser letais. A IA não deve ser vista como autônoma, desacompanhada, nem autorizada a tomar ações irrevogáveis sem supervisão, vigilância ou controle direto. A inteligência artificial foi criada por humanos, por isso também deve ser supervisionada por humanos. Mas um dos desafios da IA em nosso tempo é que as pessoas com habilidades e recursos para criá-la não têm necessariamente a perspectiva filosófica para entender suas implicações mais amplas. Muitos criadores de inteligência artificial se concentram principalmente nos aplicativos que estão tentando alcançar e nos problemas que desejam resolver: eles podem não parar para considerar se a solução produzirá uma revolução histórica ou como sua tecnologia afetará diferentes públicos. A era da inteligência artificial precisa de seu próprio Descartes e Kant para explicar o que criamos e o que isso significa para os humanos.

Precisamos organizar discussões e negociações racionais envolvendo governos, universidades e inovadores da indústria privada, e o objetivo deve ser estabelecer limites para ações práticas como as que governam ações individuais e organizacionais hoje. A IA tem atributos que compartilham alguns dos mesmos, mas diferem deles em alguns aspectos importantes, de produtos, serviços, tecnologias e entidades atualmente regulamentados, na medida em que carece de uma estrutura conceitual e legal totalmente definida. Por exemplo, a natureza provocativa e em constante evolução da IA apresenta desafios regulatórios: quem e como ela opera no mundo pode variar entre os domínios e evoluir com o tempo, e nem sempre de maneira previsível. A governança das pessoas é pautada por um código de ética. A IA precisa de uma bússola moral própria que reflita não apenas a natureza da tecnologia, mas também os desafios que ela apresenta.

Freqüentemente, os princípios estabelecidos não se aplicam aqui. Na Era da Fé, quando os réus da Inquisição enfrentavam um veredicto de batalha, o tribunal podia decidir o crime, mas Deus decidia quem sairia vitorioso. Na era da razão, os seres humanos determinavam a culpa de acordo com os preceitos da razão, e julgavam os crimes e os puniam de acordo com conceitos como causalidade e dolo. Mas a inteligência artificial não opera na razão humana, nem tem motivação, intenção ou autorreflexão humana. Assim, a introdução da IA complicará os princípios de justiça existentes que se aplicam aos humanos.

Quando um sistema autônomo age com base em suas próprias percepções e decisões, seus criadores assumem a responsabilidade? Ou as ações da IA não devem ser confundidas com as de seus criadores, pelo menos em termos de culpabilidade? Se a IA for usada para detectar sinais de comportamento criminoso ou para ajudar a determinar se alguém é culpado, a IA deve ser capaz de "explicar" como chegou à sua conclusão para que os funcionários humanos possam confiar nela? Além disso, em que ponto e em que contexto de desenvolvimento tecnológico a IA deve ser objeto de negociações internacionais? Este é outro importante tema de debate. Se investigado muito cedo, o desenvolvimento da tecnologia pode ser bloqueado, ou pode ser tentado a esconder suas capacidades; adiado demais, pode ter consequências devastadoras, especialmente nas forças armadas. Esse desafio é agravado pela dificuldade de projetar mecanismos de verificação eficazes para uma tecnologia que é etérea, obscura e facilmente disseminada. Os negociadores oficiais serão necessariamente governos, mas também haverá necessidade de voz para tecnólogos, eticistas, empresas que criam e operam IA e outros fora do campo.

Stills do drama americano "Western World".

Os dilemas colocados pela IA têm implicações de longo alcance para diferentes sociedades. Grande parte de nossa vida social e política hoje ocorre em plataformas online habilitadas para IA, e as democracias, em particular, dependem desses espaços de informação para debate e comunicação, moldando a opinião pública e dando-lhes legitimidade. Quem ou qual agência deve definir o papel da tecnologia? Quem deve regulamentar? Que papel os indivíduos que usam IA devem desempenhar? E as empresas que produzem inteligência artificial? E quanto aos governos sociais implantando-o? Como parte da solução desses problemas, devemos tentar torná-lo auditável, ou seja, seus processos e conclusões sejam tanto inspecionáveis quanto corrigíveis. Por sua vez, se as correções podem ser implementadas dependerá da capacidade de refinar os princípios para a forma de percepção e tomada de decisão da IA. Moralidade, vontade e até causalidade não se encaixam bem no mundo da inteligência artificial autônoma. Problemas semelhantes surgem na maioria dos níveis da sociedade, desde transporte até finanças e medicina.

Considere o impacto da inteligência artificial nas mídias sociais. Com inovações recentes, essas plataformas rapidamente se tornaram um aspecto importante de nossa vida pública. Conforme discutimos no Capítulo 4, os recursos que o Twitter e o Facebook usam para destacar, limitar ou banir totalmente o conteúdo ou os indivíduos dependem da inteligência artificial, uma prova de seu poder. O uso de IA para promoção unilateral e muitas vezes opaca ou remoção de conteúdo e conceitos é um desafio para todas as nações, especialmente as democracias. É possível mantermos o domínio à medida que nossa vida social e política muda cada vez mais para domínios governados por inteligência artificial, e só podemos confiar em tal gerenciamento para navegá-los?

A prática de usar inteligência artificial para processar grandes quantidades de informação também apresenta outro desafio: a inteligência artificial aumenta a distorção do mundo para atender às preferências instintivas humanas. Esta é uma área em que a inteligência artificial pode facilmente amplificar nossos vieses cognitivos, mas ainda ressoamos com eles. Com essas vozes, diante de uma diversidade de escolhas e com poder para escolher e filtrar, as pessoas receberão uma enxurrada de desinformação. As empresas de mídia social não promovem polarização política extrema e violenta por meio de seus feeds de notícias, mas é claro que esses serviços também não levam à maximização do discurso esclarecido.

Inteligência artificial, informação livre e pensamento independente

Então, como deve ser nosso relacionamento com a IA? Deve ser restringido, autorizado ou tratado como um parceiro no governo desses domínios? Não há dúvida de que a divulgação de certas informações, especialmente informações falsas criadas deliberadamente, pode causar danos, divisão e incitação. Portanto, algumas restrições são necessárias. No entanto, a condenação, ataque e supressão de "informações prejudiciais" agora são muito soltas e isso também deve levar à reflexão.

Em uma sociedade livre, a definição de nociva e desinformação não deve ser confinada ao alcance das corporações. No entanto, se tais responsabilidades forem confiadas a um grupo ou agência do governo, esse grupo ou agência deve operar de acordo com padrões públicos estabelecidos e por meio de procedimentos verificáveis para evitar a exploração por aqueles que estão no poder. Se for confiada a um algoritmo de IA, a função objetiva, aprendizado, decisões e ações do algoritmo devem ser claras e sujeitas a escrutínio externo e, pelo menos, alguma forma de apelo humano.

Claro, sociedades diferentes chegarão a respostas diferentes para isso. Algumas sociedades podem enfatizar a liberdade de expressão, talvez em graus variados com base em sua compreensão relativa de expressões individuais e, assim, limitar o papel da IA na moderação de conteúdo. Cada sociedade escolhe quais ideias valoriza, o que pode levar a relacionamentos complexos com operadoras de plataformas de redes multinacionais. A IA é tão absorvente quanto uma esponja, aprendendo com os humanos, mesmo enquanto a projetamos e moldamos.

Stills do drama americano "Western World".

Portanto, não apenas as escolhas de cada sociedade são diferentes, mas o relacionamento de cada sociedade com a IA, a percepção da IA e a maneira como a IA imita os humanos e aprende com os professores humanos também são diferentes. Mas uma coisa é certa: a busca humana por fatos e verdades não deve levar uma sociedade a experimentar a vida por meio de um filtro mal definido e não testável. A experiência espontânea da realidade, com todas as suas contradições e complexidades, é um aspecto importante da condição humana, mesmo que conduza a ineficiências ou erros.

Inteligência Artificial e Ordem Internacional

Em todo o mundo, inúmeras perguntas estão esperando para serem respondidas. Como as plataformas online de inteligência artificial podem ser regulamentadas sem provocar tensões entre os países preocupados com sua segurança? Essas plataformas online irão corroer as noções tradicionais de soberania nacional? As mudanças resultantes trarão uma polarização ao mundo não vista desde o colapso da União Soviética? O pequeno Congresso se opõe? As tentativas de mediar essas consequências serão bem-sucedidas? Ou há alguma esperança de sucesso?

À medida que as capacidades da inteligência artificial continuam a aumentar, como posicionar o papel dos humanos em cooperação com a inteligência artificial se tornará cada vez mais importante e complexo. Podemos imaginar um mundo em que os humanos respeitem cada vez mais as opiniões da inteligência artificial em questões de importância crescente. Em um mundo onde adversários ofensivos estão implantando IA com sucesso, os líderes do lado defensivo podem decidir não implantar sua própria IA e assumir a responsabilidade por ela? Mesmo eles não têm certeza de como essa implantação evoluirá. E se a IA tem a capacidade superior de recomendar um curso de ação, há razão para os tomadores de decisão aceitá-la, mesmo que esse curso de ação exija algum nível de sacrifício? Como pode o homem saber se tal sacrifício é essencial para a vitória? Se for essencial, os formuladores de políticas estão realmente dispostos a vetá-lo? Em outras palavras, podemos não ter escolha a não ser promover a inteligência artificial. Mas também temos a responsabilidade de moldá-lo de forma compatível com o futuro da humanidade. A imperfeição é uma das normas da experiência humana, especialmente quando se trata de liderança.

Muitas vezes, os formuladores de políticas são sobrecarregados por preocupações intoleráveis. Às vezes, suas ações são baseadas em suposições erradas; às vezes, eles agem por pura emoção; e outras vezes, a ideologia distorce sua visão. Quaisquer que sejam as estratégias usadas para estruturar as parcerias humano-IA, elas devem ser adaptadas aos humanos. Se a inteligência artificial exibe habilidades sobre-humanas em certos domínios, seu uso deve ser compatível com o ambiente humano imperfeito.

Na área de segurança, os sistemas habilitados para IA respondem tão rapidamente que os adversários podem tentar ataques antes que os sistemas estejam operacionais. O resultado pode ser uma situação inerentemente instável, comparável àquela criada por armas nucleares. No entanto, as armas nucleares são enquadradas nos conceitos de segurança internacional e controle de armas que foram desenvolvidos nas últimas décadas por governos, cientistas, estrategistas e especialistas em ética por meio de refinamento, debate e negociação contínuos. A inteligência artificial e as armas cibernéticas não têm uma estrutura semelhante.

Na verdade, os governos podem relutar em reconhecer sua existência. Os países – e possivelmente as empresas de tecnologia – precisam concordar sobre como coexistir com a IA armada. A proliferação da IA por meio de funções de defesa do governo alterará o equilíbrio internacional e a computação sobre a qual é mantida em nosso tempo. As armas nucleares são caras e difíceis de esconder devido ao seu tamanho e estrutura. Por outro lado, a inteligência artificial pode ser executada em computadores que podem ser encontrados em qualquer lugar. Como o treinamento de um modelo de aprendizado de máquina requer experiência e recursos de computação, a criação de uma inteligência artificial requer recursos no nível de uma grande empresa ou país; e como a aplicação da inteligência artificial é realizada em computadores relativamente pequenos, ela deve ser amplamente utilizada , inclusive de maneiras que não esperávamos. Será que alguém com um laptop, uma conexão com a Internet e uma dedicação para investigar o lado negro da IA finalmente terá acesso a uma arma alimentada por IA? Os governos permitirão que atores com laços próximos ou inexistentes usem IA para assediar seus adversários? Os terroristas planejarão ataques de IA? Eles poderão atribuir essas atividades aos Estados ou a outros atores?

No passado, a diplomacia ocorria em uma arena organizada e previsível; hoje, seu acesso à informação e seu escopo de ação serão amplamente ampliados. As fronteiras claras que costumavam ser formadas por diferenças geográficas e linguísticas irão gradualmente desaparecer. A tradução de IA facilitará o diálogo sem exigir não apenas conhecimentos linguísticos, mas também culturais, como os tradutores anteriores faziam. As plataformas online com IA facilitarão a comunicação transfronteiriça, enquanto o hacking e a desinformação continuarão a distorcer as percepções e avaliações. À medida que a situação se torna mais complexa, torna-se mais difícil desenvolver acordos executáveis com resultados previsíveis.

A possibilidade de combinar recursos de IA com armas cibernéticas aumenta esse dilema. A humanidade contorna o paradoxo nuclear fazendo uma clara distinção entre armas convencionais (consideradas em harmonia com a estratégia convencional) e armas nucleares (consideradas a exceção). Uma vez que o poder destrutivo das armas nucleares é liberado, ele é indiscriminado e independentemente do alvo; enquanto as armas convencionais podem distinguir o alvo. Mas as armas cibernéticas que podem identificar alvos e causar estragos em grande escala eliminam essa distinção.

Somadas ao combustível da inteligência artificial, essas armas se tornarão ainda mais imprevisíveis e potencialmente mais destrutivas. Ao mesmo tempo, quando essas armas circulam pela rede, é impossível determinar sua atribuição. Eles não podem ser detectados porque não são volumosos como as armas nucleares; também podem ser carregados em pendrives, o que facilita a proliferação. Em algumas formas, essas armas são difíceis de controlar uma vez implantadas, ainda mais devido à natureza dinâmica e emergente da inteligência artificial.

Esta situação desafia as premissas da ordem mundial baseada em regras. Além disso, tornou imperativo o desenvolvimento de conceitos relacionados ao controle de armas por IA. Na era da inteligência artificial, a dissuasão não seguirá mais as normas históricas, nem o fará. No alvorecer da era nuclear, uma estrutura conceitual para o controle de armas nucleares foi desenvolvida com base em ideias de discussões entre os principais professores e acadêmicos (com experiência no governo) em Harvard, MIT e Caltech, que por sua vez levaram à criação de um sistema ( e as instituições para implementá-lo nos Estados Unidos e em outros países).

Por mais importante que seja o pensamento acadêmico, ele é implementado separadamente das considerações do Pentágono sobre a guerra convencional — uma nova adição, não uma modificação. Mas os potenciais usos militares da inteligência artificial são mais amplos do que as armas nucleares, e a distinção entre ataque e defesa não é clara, pelo menos por enquanto. Em um mundo tão complexo, inerentemente imprevisível, a inteligência artificial se torna mais uma possível fonte de mal-entendidos e erros e, mais cedo ou mais tarde, grandes potências com recursos de alta tecnologia terão que se engajar em um diálogo contínuo.

Esse diálogo deve se concentrar em uma questão fundamental: evitar o desastre e sobreviver a ele. A inteligência artificial e outras tecnologias emergentes, como a computação quântica, parecem estar tornando as realidades além da percepção humana mais acessíveis. Em última análise, porém, podemos descobrir que mesmo essas técnicas têm suas limitações. Nosso problema é que não compreendemos suas implicações filosóficas. Estamos sendo impulsionados por eles involuntariamente, não conscientemente.

A última vez que houve uma grande mudança na consciência humana foi durante o Iluminismo, e essa mudança aconteceu porque novas tecnologias produziram novos insights filosóficos que, por sua vez, foram disseminados por meio da tecnologia (na forma da imprensa). Em nosso tempo, novas tecnologias foram desenvolvidas sem filosofias orientadoras correspondentes. A inteligência artificial é um grande empreendimento com benefícios potenciais de longo alcance. Os humanos estão trabalhando duro para desenvolver a inteligência artificial, mas a estamos usando para melhorar ou piorar nossas vidas? Promete medicamentos mais fortes, cuidados de saúde mais eficientes e equitativos, práticas ambientais mais sustentáveis e outras visões de progresso. Ao mesmo tempo, porém, também pode distorcer informações, ou pelo menos complicar o processo de consumir informações e identificar a verdade, enfraquecendo assim a capacidade de raciocínio e julgamento independente de algumas pessoas.

No final, surge uma “meta” questão: os humanos podem satisfazer a necessidade de filosofia com o “auxílio” da inteligência artificial com diferentes interpretações e entendimentos do mundo? Os humanos não entendem totalmente as máquinas, mas será que eventualmente faremos as pazes com eles e mudaremos o mundo? Immanuel Kant começa seu prefácio à sua Crítica da Razão Pura com este ponto:

A razão humana tem esse destino peculiar, que em um dos ramos de todo o seu conhecimento é assediada por problemas que não podem ser ignorados, pois são impostos a si mesmos pela própria natureza da própria razão, mas que porque supera todas as habilidades da razão , não pode ser resolvido.

Nos séculos seguintes, os humanos exploraram essas questões em profundidade, algumas das quais tocam na natureza da mente, da razão e até da realidade. A humanidade fez grandes avanços, mas também encontrou muitas das limitações que Kant postulou: um reino de questões que não pode responder, um reino de fatos que não pode entender completamente. O surgimento da inteligência artificial, que traz a capacidade de aprender e processar informações que os humanos não conseguem alcançar apenas com a razão, pode nos permitir avançar em questões que se mostraram além de nossa capacidade de resposta. Mas o sucesso levantará novas questões, algumas das quais tentamos esclarecer neste livro. A inteligência humana e a inteligência artificial estão em uma conjuntura em que as duas convergirão em atividades em escala nacional, continental ou mesmo global. Compreender essa mudança e desenvolver um código ético orientador sobre ela exigirá sabedoria coletiva, voz e compromisso compartilhado de todos os segmentos da sociedade, incluindo cientistas e estrategistas, políticos e filósofos, clérigos e CEOs. Este compromisso não deve ser feito apenas dentro dos países, mas também entre os países. Que tipo de parceria podemos ter com a inteligência artificial e que tipo de realidade emergirá dela? Agora, é hora de definir isso.

Autor: / [EUA] Henry Kissinger / [EUA] Eric Schmidt / [EUA] Daniel Huttenlocher

Trecho / Liu Yaguang

Editor/Liu Yaguang

Revisão / Zhao Lin

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)