Elon Musk, fundador da Tesla e primeiro DOGE, irá financiar xAI, uma subsidiária sua, com uma avaliação de mercado de 50 bilhões de dólares e um financiamento de 6 bilhões de dólares. De acordo com a CNBC, esse financiamento será concluído na próxima semana, com 5 bilhões de dólares provenientes de um fundo soberano do Oriente Médio e 1 bilhão de dólares de outros investidores. Esse montante será usado para adquirir 100.000 chips da NVIDIA.
A startup de inteligência artificial xAI de Elon Musk escolheu Memphis, Tennessee para construir um supercomputador chamado Colossus. Os chips de IA da Nvidia desempenham um papel fundamental, atualmente composto por 100.000 GPUs Nvidia H100, cada um custando cerca de $30.000. Musk planeja continuar usando os chips da Nvidia e atualizar as instalações com a GPU Nvidia H200, que possui maior capacidade de memória, mas custa quase $40.000 por unidade. No próximo verão, Musk planeja adquirir mais 300.000 GPUs Nvidia Blackwell B200.
Em novembro do ano passado, xAI lançou o robô de bate-papo Grok, preparando-se para competir no mercado de IA com o ChatGPT de Sam Altman. Musk era originalmente um Investidor Anjo inicial da Open AI, mas saiu depois de entrar em conflito com Sam Altman, e agora se tornou um concorrente de IA de Sam Altman.
Sobre xAI Grok
Grok é a inteligência artificial desenvolvida pelo xAI que pode fornecer respostas úteis e verdadeiras para uma variedade de problemas. O conceito do Grok foi inspirado no Guia do Mochileiro das Galáxias e no sistema de inteligência artificial J.A.R.V.I.S. criado por Tony Stark de Homem de Ferro, com o objetivo de ajudar os usuários a entender a ciência do universo e responder a qualquer pergunta. Segundo o próprio Grok, esta explicação vem do Grok, que fornece informações honestas e não-críticas aos usuários, com foco na compreensão e explicação detalhada, até mesmo abordando os problemas humanos com humor ou perspectivas externas.
Como usar os chips Nvidia para construir supercomputadores
xAI utiliza o chip H100 GPU para construir o supercomputador Colossus com o objetivo de treinar inteligência artificial. xAI não só obtém poder de computação com a GPU da Nvidia, mas também pode usar uma infraestrutura especializada para acelerar a inteligência artificial e aprendizado de máquina, permitindo que xAI ultrapasse os limites da pesquisa e desenvolvimento de inteligência artificial.
Seis principais cenários de aplicação do Nvidia X Grok
Processamento Paralelo Maciço (Massive Parallel Processing): A GPU da Nvidia (H100) é projetada especificamente para processamento paralelo, sendo crucial para operações complexas necessárias para treinar modelos de IA. Esses chips podem processar milhares de operações simultaneamente, acelerando o processo de treinamento do modelo de linguagem grande (LLM) Grok.
Escalabilidade: O supercomputador Colossus, inicialmente composto por 100.000 GPUs Nvidia H100, permite ao xAI gerenciar uma carga de trabalho computacional muito superior às capacidades típicas de um CPU e planeja dobrar essa quantidade para 200.000 GPUs (incluindo o chip H200).
Eficiência Energética: A operação em grande escala requer uma alta demanda de energia, mas em comparação com as CPUs tradicionais, as GPUs da Nvidia são mais eficientes em termos de carga de trabalho para operações de xAI.
Infraestrutura de rede (Network Infrastructure): O supercomputador Colossus utiliza a plataforma de rede Spectrum-X ETH da Nvidia para fornecer conexões de baixa latência e alta largura de banda para suportar vários inquilinos.
Recursos Avançados de IA da Nvidia: Os chips H100 e H200 da Nvidia possuem recursos personalizados para IA, incluindo memória de alta velocidade (HBM3 e HBM3e), reduzindo o tempo de transferência de dados entre a memória e os núcleos de processamento da GPU. Esses recursos são especialmente úteis para cargas de trabalho de inteligência artificial em que a movimentação de dados pode ser um gargalo.
Suporte de software: A Nvidia fornece a plataforma de computação paralela CUDA e o modelo de programação, xAI usa CUDA para desenvolver algoritmos de IA.
Este artigo, Musk arrecada 6 bilhões de dólares para a startup de inteligência artificial Grok para comprar chips da Nvidia, foi originalmente publicado na ChainNews ABMedia.
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
Elon Musk levanta 6 bilhões de dólares para financiar a nova startup de inteligência artificial Grok e adquirir chips da Nvidia.
Elon Musk, fundador da Tesla e primeiro DOGE, irá financiar xAI, uma subsidiária sua, com uma avaliação de mercado de 50 bilhões de dólares e um financiamento de 6 bilhões de dólares. De acordo com a CNBC, esse financiamento será concluído na próxima semana, com 5 bilhões de dólares provenientes de um fundo soberano do Oriente Médio e 1 bilhão de dólares de outros investidores. Esse montante será usado para adquirir 100.000 chips da NVIDIA.
A startup de inteligência artificial xAI de Elon Musk escolheu Memphis, Tennessee para construir um supercomputador chamado Colossus. Os chips de IA da Nvidia desempenham um papel fundamental, atualmente composto por 100.000 GPUs Nvidia H100, cada um custando cerca de $30.000. Musk planeja continuar usando os chips da Nvidia e atualizar as instalações com a GPU Nvidia H200, que possui maior capacidade de memória, mas custa quase $40.000 por unidade. No próximo verão, Musk planeja adquirir mais 300.000 GPUs Nvidia Blackwell B200.
Em novembro do ano passado, xAI lançou o robô de bate-papo Grok, preparando-se para competir no mercado de IA com o ChatGPT de Sam Altman. Musk era originalmente um Investidor Anjo inicial da Open AI, mas saiu depois de entrar em conflito com Sam Altman, e agora se tornou um concorrente de IA de Sam Altman.
Sobre xAI Grok
Grok é a inteligência artificial desenvolvida pelo xAI que pode fornecer respostas úteis e verdadeiras para uma variedade de problemas. O conceito do Grok foi inspirado no Guia do Mochileiro das Galáxias e no sistema de inteligência artificial J.A.R.V.I.S. criado por Tony Stark de Homem de Ferro, com o objetivo de ajudar os usuários a entender a ciência do universo e responder a qualquer pergunta. Segundo o próprio Grok, esta explicação vem do Grok, que fornece informações honestas e não-críticas aos usuários, com foco na compreensão e explicação detalhada, até mesmo abordando os problemas humanos com humor ou perspectivas externas.
Como usar os chips Nvidia para construir supercomputadores
xAI utiliza o chip H100 GPU para construir o supercomputador Colossus com o objetivo de treinar inteligência artificial. xAI não só obtém poder de computação com a GPU da Nvidia, mas também pode usar uma infraestrutura especializada para acelerar a inteligência artificial e aprendizado de máquina, permitindo que xAI ultrapasse os limites da pesquisa e desenvolvimento de inteligência artificial.
Seis principais cenários de aplicação do Nvidia X Grok
Processamento Paralelo Maciço (Massive Parallel Processing): A GPU da Nvidia (H100) é projetada especificamente para processamento paralelo, sendo crucial para operações complexas necessárias para treinar modelos de IA. Esses chips podem processar milhares de operações simultaneamente, acelerando o processo de treinamento do modelo de linguagem grande (LLM) Grok.
Escalabilidade: O supercomputador Colossus, inicialmente composto por 100.000 GPUs Nvidia H100, permite ao xAI gerenciar uma carga de trabalho computacional muito superior às capacidades típicas de um CPU e planeja dobrar essa quantidade para 200.000 GPUs (incluindo o chip H200).
Eficiência Energética: A operação em grande escala requer uma alta demanda de energia, mas em comparação com as CPUs tradicionais, as GPUs da Nvidia são mais eficientes em termos de carga de trabalho para operações de xAI.
Infraestrutura de rede (Network Infrastructure): O supercomputador Colossus utiliza a plataforma de rede Spectrum-X ETH da Nvidia para fornecer conexões de baixa latência e alta largura de banda para suportar vários inquilinos.
Recursos Avançados de IA da Nvidia: Os chips H100 e H200 da Nvidia possuem recursos personalizados para IA, incluindo memória de alta velocidade (HBM3 e HBM3e), reduzindo o tempo de transferência de dados entre a memória e os núcleos de processamento da GPU. Esses recursos são especialmente úteis para cargas de trabalho de inteligência artificial em que a movimentação de dados pode ser um gargalo.
Suporte de software: A Nvidia fornece a plataforma de computação paralela CUDA e o modelo de programação, xAI usa CUDA para desenvolver algoritmos de IA.
Este artigo, Musk arrecada 6 bilhões de dólares para a startup de inteligência artificial Grok para comprar chips da Nvidia, foi originalmente publicado na ChainNews ABMedia.