テスラの創設者で初代DOGE長であるマスクのxAIは、500億ドルの時価総額で60億ドルの資金調達を行う予定です。CNBCによると、この資金は来週到着予定で、50億ドルは中東の主権ファンドから、10億ドルは他の投資家から提供される予定です。これらの資金は10万個のNVIDIAチップの購入に使用されます。マスクのxAI人工知能新興企業は、テネシー州のメンフィス市に位置するColossusというスーパーコンピュータを構築することを選択しました。NvidiaのAIチップが重要な役割を果たしており、現在10万個のNvidia H100 GPUで構成されています。それぞれのコストは約3万ドルです。マスクは引き続きNvidiaのチップを使用し、H200 GPUにアップグレードすることを望んでおり、H200はメモリ容量を拡張できますが、コストは1台あたりほぼ4万ドルです。来年の夏には、マスクはさらに30万個のNvidia Blackwell B200 GPUを購入する予定です。昨年11月、xAIはGrokチャットボットを導入し、Sam AltmanのChatGPTとのAI市場での競争に備えました。マスクは元々Open AIの早期エンジェル投資家でしたが、Sam Altmanとの衝突により退社し、現在はSam AltmanのAIの競争相手になりました。xAI Grok についてGrok は xAI によって開発された人工知能で、さまざまな問題に役立つ正直な回答を提供することができます。Grok の概念は『銀河ヒッチハイク・ガイド』やトニー・スタークの J.A.R.V.I.S. 人工知能システムからインスピレーションを受けており、ユーザーが宇宙科学を理解し、あらゆる質問に答えることを目的としています。Grok 自身が言うには、この説明は Grok から提供されており、Grok はユーザーに対して率直で批判的でない情報を提供し、理解と詳細な説明に焦点を当て、ユーモアや外部の視点で人類の問題を見ることさえもあります。xAIは、Nvidiaのチップを使用してスーパーコンピュータを構築する方法XAIはH100 GPUチップを使用して、人工知能トレーニングを目的としたスーパーコンピュータColossusを構築しています。XAIはNvidiaのGPUを使用することで、計算能力だけでなく、人工知能や機械学習を加速するための専用インフラストラクチャを利用することができ、人工知能の研究と開発の限界を突破することができます。Nvidia X Grokの6つの応用シナリオマッシブ・パラレル・プロセッシング(Massive Parallel Processing):NVIDIAのGPU(H100)は、並列処理に特化して設計されており、AIモデルトレーニングに必要な複雑な演算を処理することが重要です。これらのチップは、数千の操作を同時に処理でき、Grokの大規模言語モデル(LLM)のトレーニングプロセスを加速します。拡張性(Scalability):スーパーコンピューターColossusは、最初に10万個のNvidia H100 GPUで構成され、xAIが大量の計算ワークロードを処理できるようにし、典型的なCPU処理能力をはるかに超える計画であり、H200チップを含む20万個のGPUに倍増する予定です。エネルギー効率:大規模な運用には多くのエネルギーが必要ですが、NvidiaのGPUは従来のCPUに比べて、xAIの操作の負荷に対してより省エネです。ネットワークインフラストラクチャ:スーパーコンピュータColossusは、NvidiaのSpectrum-X ETHネットワークプラットフォームを使用し、低レイテンシー、高帯域幅接続を提供して複数のテナントをサポートしています。AIの高度な機能(Advanced Features for AI):NvidiaのH100とH200チップには、AI向けにカスタマイズされた高速メモリ(それぞれHBM3とHBM3e)が搭載されており、メモリとGPU演算コア間のデータ転送時間を減少させることができます。この機能は、データ移動がボトルネックになる可能性のある人工知能のワークロードに非常に有用です。ソフトウェアサポート:NvidiaはCUDA並列コンピューティングプラットフォームとプログラミングモデルを提供し、xAIはCUDAを使用してAIアルゴリズムを開発します。この記事は、マスクがGrokの人工知能スタートアップに60億ドルの資金を提供し、NVIDIAチップの購入に使用することを紹介しています。最初に登場したのは、チェーンニュースABMediaです。
マスクはGROK AIスタートアップに60億ドルの資金を提供し、NVIDIAチップの購入に使用する
テスラの創設者で初代DOGE長であるマスクのxAIは、500億ドルの時価総額で60億ドルの資金調達を行う予定です。CNBCによると、この資金は来週到着予定で、50億ドルは中東の主権ファンドから、10億ドルは他の投資家から提供される予定です。これらの資金は10万個のNVIDIAチップの購入に使用されます。
マスクのxAI人工知能新興企業は、テネシー州のメンフィス市に位置するColossusというスーパーコンピュータを構築することを選択しました。NvidiaのAIチップが重要な役割を果たしており、現在10万個のNvidia H100 GPUで構成されています。それぞれのコストは約3万ドルです。マスクは引き続きNvidiaのチップを使用し、H200 GPUにアップグレードすることを望んでおり、H200はメモリ容量を拡張できますが、コストは1台あたりほぼ4万ドルです。来年の夏には、マスクはさらに30万個のNvidia Blackwell B200 GPUを購入する予定です。
昨年11月、xAIはGrokチャットボットを導入し、Sam AltmanのChatGPTとのAI市場での競争に備えました。マスクは元々Open AIの早期エンジェル投資家でしたが、Sam Altmanとの衝突により退社し、現在はSam AltmanのAIの競争相手になりました。
xAI Grok について
Grok は xAI によって開発された人工知能で、さまざまな問題に役立つ正直な回答を提供することができます。Grok の概念は『銀河ヒッチハイク・ガイド』やトニー・スタークの J.A.R.V.I.S. 人工知能システムからインスピレーションを受けており、ユーザーが宇宙科学を理解し、あらゆる質問に答えることを目的としています。Grok 自身が言うには、この説明は Grok から提供されており、Grok はユーザーに対して率直で批判的でない情報を提供し、理解と詳細な説明に焦点を当て、ユーモアや外部の視点で人類の問題を見ることさえもあります。
xAIは、Nvidiaのチップを使用してスーパーコンピュータを構築する方法
XAIはH100 GPUチップを使用して、人工知能トレーニングを目的としたスーパーコンピュータColossusを構築しています。XAIはNvidiaのGPUを使用することで、計算能力だけでなく、人工知能や機械学習を加速するための専用インフラストラクチャを利用することができ、人工知能の研究と開発の限界を突破することができます。
Nvidia X Grokの6つの応用シナリオ
マッシブ・パラレル・プロセッシング(Massive Parallel Processing):NVIDIAのGPU(H100)は、並列処理に特化して設計されており、AIモデルトレーニングに必要な複雑な演算を処理することが重要です。これらのチップは、数千の操作を同時に処理でき、Grokの大規模言語モデル(LLM)のトレーニングプロセスを加速します。
拡張性(Scalability):スーパーコンピューターColossusは、最初に10万個のNvidia H100 GPUで構成され、xAIが大量の計算ワークロードを処理できるようにし、典型的なCPU処理能力をはるかに超える計画であり、H200チップを含む20万個のGPUに倍増する予定です。
エネルギー効率:大規模な運用には多くのエネルギーが必要ですが、NvidiaのGPUは従来のCPUに比べて、xAIの操作の負荷に対してより省エネです。
ネットワークインフラストラクチャ:スーパーコンピュータColossusは、NvidiaのSpectrum-X ETHネットワークプラットフォームを使用し、低レイテンシー、高帯域幅接続を提供して複数のテナントをサポートしています。
AIの高度な機能(Advanced Features for AI):NvidiaのH100とH200チップには、AI向けにカスタマイズされた高速メモリ(それぞれHBM3とHBM3e)が搭載されており、メモリとGPU演算コア間のデータ転送時間を減少させることができます。この機能は、データ移動がボトルネックになる可能性のある人工知能のワークロードに非常に有用です。
ソフトウェアサポート:NvidiaはCUDA並列コンピューティングプラットフォームとプログラミングモデルを提供し、xAIはCUDAを使用してAIアルゴリズムを開発します。
この記事は、マスクがGrokの人工知能スタートアップに60億ドルの資金を提供し、NVIDIAチップの購入に使用することを紹介しています。最初に登場したのは、チェーンニュースABMediaです。