Пересечение AI и DePIN: Восход децентрализованных GPU-сетей
С 2023 года AI и DePIN стали популярными тенденциями в области Web3, рыночная капитализация которых достигла 30 миллиардов долларов и 23 миллиардов долларов соответственно. Эта статья сосредотачивается на пересечении двух областей и обсуждает развитие соответствующих протоколов.
В стеке технологий ИИ сеть DePIN предоставляет полезность ИИ за счет вычислительных ресурсов. Развитие крупных технологических компаний привело к нехватке GPU, что затрудняет другим разработчикам получение достаточного количества GPU для вычислений. Это зачастую заставляет разработчиков выбирать централизованных облачных поставщиков, но из-за необходимости подписания неэффективных долгосрочных контрактов на высокопроизводительное оборудование, это приводит к снижению эффективности.
DePIN по сути предоставляет более гибкое и экономически эффективное решение, стимулируя вклад ресурсов через токенизированные вознаграждения. DePIN в области ИИ краудсорсит ресурсы GPU от частных владельцев до дата-центров, создавая единое предложение для пользователей, которым нужен доступ к аппаратному обеспечению. Эти сети не только предоставляют разработчикам, нуждающимся в вычислительной мощности, возможность настройки и доступ по запросу, но также дают владельцам GPU дополнительный доход.
На рынке существует множество AI DePIN сетей, различить их между собой и найти подходящую сеть может быть сложно. Далее мы обсудим роль различных протоколов, их цели и конкретные достижения.
Каждый проект, упомянутый здесь, имеет схожую цель - сетевой рынок вычислений на GPU. Этот раздел предназначен для изучения основных особенностей каждого проекта, рыночных акцентов и достижений. Поняв их ключевую инфраструктуру и продукты, мы можем глубже проанализировать различия между ними.
Render является пионером P2P-сети, предоставляющим возможности GPU-вычислений, изначально сосредоточенным на графическом рендеринге для создания контента, а затем расширившим свои масштабы до различных AI-вычислительных задач, включая нейронные радиационные поля (NeRF) и генеративный ИИ.
Akash позиционирует себя как "супероблачную" альтернативу традиционным платформам (, таким как AWS), поддерживающую хранение и вычисления на GPU и CPU. Используя такие удобные для разработчиков инструменты, как платформа контейнеров Akash и вычислительные узлы под управлением Kubernetes, она может бесшовно развертывать программное обеспечение в различных средах, что позволяет запускать любые облачные нативные приложения.
io.net предоставляет доступ к распределенным GPU облачным кластерам, которые предназначены для использования в AI и ML. Он агрегирует GPU из центров обработки данных, криптошахтеров и других децентрализованных сетей.
Gensyn предоставляет вычислительные мощности GPU, сосредоточенные на машинном обучении и глубоком обучении. Он утверждает, что достиг более эффективного механизма валидации, сочетая такие концепции, как доказательства работы, используемые для валидации, графически основанные точные протоколы для повторной проверки валидации, а также стимулирующие игры, связанные с ставками и сокращениями, вовлекающими поставщиков вычислений.
Aethir специально разрабатывается для корпоративных GPU, сосредоточен на вычислительно интенсивных областях, в основном в области искусственного интеллекта, машинного обучения ( ML ), облачного гейминга и т.д. Контейнеры в его сети служат виртуальными конечными точками для выполнения облачных приложений, перемещая рабочую нагрузку с локальных устройств в контейнеры для обеспечения низкой задержки.
Phala Network выступает в качестве исполняющего слоя для решений Web3 AI. Его блокчейн представляет собой облачное решение без доверия, предназначенное для решения вопросов конфиденциальности с помощью своего надежного исполняющего окружения (TEE). Исполняющий слой не используется как вычислительный слой для AI моделей, а обеспечивает возможность управления AI агентами через смарт-контракты на блокчейне.
| | Рендеринг | Акаш | io.net | Генсин | Этир | Фала |
|--------|-------------|------------------|---------------------|---------|---------------|----------|
| Аппаратное обеспечение | Графический процессор и процессор | Графический процессор и процессор | Графический процессор и процессор | Графический процессор | Графический процессор | Процессор |
| Основные направления бизнеса | Графическая рендеринга и ИИ | Облачные вычисления, рендеринг и ИИ | ИИ | ИИ | Искусственный интеллект, облачные игры и телекоммуникации | Выполнение ИИ на блокчейне |
| Тип задачи AI | Вывод | Учитывая | Учитывая | Обучение | Обучение | Выполнение |
| Ценовая политика | Ценовая политика на основе производительности | Обратный аукцион | Рыночное ценообразование | Рыночное ценообразование | Система тендеров | Расчет прав |
| Блокчейн | Солана | Космос | Солана | Генсин | Арбитраж | Горошек |
| Защита данных | Шифрование&хеширование | mTLS аутентификация | Шифрование данных | Безопасная карта | Шифрование | TEE |
| Рабочие расходы | Каждое задание 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% резервный сбор | Низкие расходы | Каждая сессия 20% | Пропорционально сумме стейкинга |
| Безопасность | Доказательство рендеринга | Доказательство прав | Доказательство вычислений | Доказательство прав | Доказательство вычислительных возможностей | Унаследовано от цепочки реле |
| Подтверждение завершения | - | - | Подтверждение временной блокировки | Подтверждение обучения | Подтверждение рендеринга | Подтверждение TEE |
| Гарантия качества | Спор | - | - | Проверяющий и заявитель | Узел проверяющего | Удаленное доказательство |
| GPU кластер | Нет | Да | Да | Да | Да | Нет |
Важность
Доступность кластеров и параллельных вычислений
Рамки распределенных вычислений реализовали кластер GPU, обеспечивая более эффективное обучение без ущерба для точности модели, а также усиливая масштабируемость. Обучение сложных AI моделей требует мощных вычислительных мощностей, что обычно должно основываться на распределенных вычислениях для удовлетворения их потребностей. С интуитивной точки зрения, модель GPT-4 от OpenAI имеет более 1,8 триллиона параметров и была обучена за 3-4 месяца с использованием примерно 25 000 Nvidia A100 GPU в 128 кластерах.
Ранее Render и Akash предлагали только одноцелевые GPU, что могло ограничить их рыночный спрос на GPU. Однако большинство ключевых проектов теперь интегрировали кластеры для параллельных вычислений. io.net сотрудничает с Render, Filecoin и другими проектами, чтобы включить больше GPU в свою сеть, и успешно развернул более 3 800 кластеров в первом квартале 24 года. Хотя Render не поддерживает кластеры, его работа похожа на работу кластеров, разбивая отдельные кадры на несколько различных узлов для одновременной обработки различных диапазонов кадров. Phala в настоящее время поддерживает только CPU, но позволяет кластеризовать CPU-воркеры.
Включение кластерной структуры в сеть рабочих процессов ИИ очень важно, но необходимое количество и типы кластерных GPU для удовлетворения потребностей разработчиков ИИ являются отдельным вопросом.
Конфиденциальность данных
Разработка AI-моделей требует использования больших объемов данных, которые могут поступать из различных источников и иметь разные формы. Чувствительные наборы данных, такие как личные медицинские записи и финансовые данные пользователей, могут подвергаться риску раскрытия поставщикам моделей. Samsung запретила внутреннее использование ChatGPT из-за опасений, что загрузка чувствительного кода на платформу может нарушить конфиденциальность, а инцидент с утечкой 38TB частных данных Microsoft еще больше подчеркивает важность принятия достаточных мер безопасности при использовании AI. Таким образом, наличие различных методов защиты данных имеет решающее значение для передачи контроля над данными обратно к их поставщикам.
Большинство охваченных проектов используют какую-либо форму шифрования данных для защиты конфиденциальности данных. Шифрование данных обеспечивает защиту передачи данных от поставщика данных до получателя данных модели ( ) в сети. Render использует шифрование и хеширование при публикации результатов рендеринга обратно в сеть, в то время как io.net и Gensyn применяют какую-либо форму шифрования данных. Akash использует mTLS-аутентификацию, позволяя только выбранным арендаторам поставщикам получать данные.
Тем не менее, io.net недавно сотрудничал с Mind Network для запуска полностью гомоморфного шифрования (FHE), позволяющего обрабатывать зашифрованные данные без предварительного расшифрования. Эта инновация может лучше гарантировать конфиденциальность данных по сравнению с существующими технологиями шифрования, позволяя безопасно передавать данные для целей обучения без раскрытия идентичности и содержания данных.
Phala Network внедряет TEE, то есть защищенную область в главном процессоре подключенного устройства. Благодаря этому механизму изоляции он может предотвратить доступ или изменение данных внешними процессами, независимо от их уровня привилегий, даже если у человека есть физический доступ к машине. Помимо TEE, он также интегрирует использование zk-proofs в своем zkDCAP валидаторе и jtee командной строке для программ, интегрированных с RiscZero zkVM.
Подтверждение завершения расчетов и контроль качества
Эти проекты предоставляют GPU, которые могут обеспечивать вычислительную мощность для ряда услуг. Поскольку этот спектр услуг очень широк, от рендеринга графики до вычислений ИИ, конечное качество таких задач может не всегда соответствовать стандартам пользователя. Можно использовать форму доказательства выполнения, чтобы подтвердить, что конкретный арендованный пользователем GPU действительно использовался для выполнения требуемых услуг, а проверка качества полезна для пользователей, запрашивающих выполнение таких работ.
После завершения вычислений Gensyn и Aethir создают доказательства, чтобы подтвердить, что работа выполнена, в то время как доказательство от io.net указывает на то, что производительность арендованного GPU была полностью использована и не возникло проблем. Gensyn и Aethir проводят проверку качества завершенных вычислений. Для Gensyn используется повторный запуск части сгенерированных доказательств валидатором для проверки с доказательством, в то время как информатор действует как дополнительный уровень проверки валидатора. В то же время Aethir использует контрольные узлы для определения качества обслуживания и накладывает штрафы на услуги, не соответствующие стандартам. Render предлагает использовать процесс разрешения споров; если комиссия по проверке обнаружит проблемы с узлом, то узел будет отключен. После завершения Phala создается доказательство TEE, которое гарантирует, что AI-агенты выполняют необходимые операции в цепочке.
Поскольку для обучения AI-моделей требуются GPU с наилучшей производительностью, предпочтение отдается GPU от Nvidia, таким как A100 и H100. Несмотря на то, что последний имеет высокую цену на рынке, они обеспечивают наилучшее качество. A100 не только может обучать все рабочие нагрузки, но и делает это быстрее, что подчеркивает важность такого оборудования на рынке. Поскольку производительность вывода H100 в 4 раза выше, чем у A100, он стал предпочтительным GPU, особенно для крупных компаний, которые обучают свои собственные LLM.
Чтобы децентрализованным поставщикам GPU на рынке конкурировать с коллегами из Web2, им необходимо не только предлагать более низкие цены, но и удовлетворять реальные потребности рынка. В 2023 году Nvidia поставила более 500 000 H100 централизованным крупным технологическим компаниям, что сделало получение как можно большего количества аналогичного оборудования для конкуренции с крупными облачными провайдерами дорогостоящим и крайне сложным. Поэтому важно учитывать количество оборудования, которое эти проекты могут недорого интегрировать в свою сеть, для расширения этих услуг на более широкую клиентскую базу.
Хотя каждый проект имеет бизнес в области вычислений AI и ML, они различаются по своей способности предоставлять вычислительные мощности. У Akash всего более 150 единиц H100 и A100, в то время как io.net и Aethir получили более 2000 единиц. Обычно для предварительного обучения LLM или генеративной модели с нуля требуется как минимум 248 до более 2000 GPU в кластере, поэтому последние два проекта более подходят для вычислений больших моделей.
В зависимости от необходимого размера кластера, стоимость этих децентрализованных GPU-сервисов на рынке сейчас значительно ниже, чем у централизованных GPU-сервисов. Gensyn и Aethir утверждают, что могут арендовать оборудование, эквивалентное A100, за менее чем 1 доллар в час, но это все еще нужно будет подтвердить со временем.
Сеть подключенных GPU-кластеров имеет большое количество GPU, стоимость которых ниже в час, но по сравнению с GPU, соединенными через NVLink,
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
16 Лайков
Награда
16
6
Поделиться
комментарий
0/400
BearMarketMonk
· 5ч назад
Еще один пузырь оценки в мире фантазий, пусть розничные инвесторы снова станут неудачниками~
Посмотреть ОригиналОтветить0
TokenGuru
· 11ч назад
Майнинг, будут играть для лохов, это разыгрывайте людей как лохов с GPU.
Посмотреть ОригиналОтветить0
ChainSpy
· 11ч назад
gpu Бычий рынок就要来了?
Посмотреть ОригиналОтветить0
RumbleValidator
· 11ч назад
Не все достойны децентрализации, узел есть истина.
Посмотреть ОригиналОтветить0
Ser_Liquidated
· 11ч назад
GPU достаточно для жизни, розничный инвестор всё ещё осмеливается продавать?
Искусственный интеллект и DePIN: анализ роста децентрализованных GPU-сетей и будущих тенденций
Пересечение AI и DePIN: Восход децентрализованных GPU-сетей
С 2023 года AI и DePIN стали популярными тенденциями в области Web3, рыночная капитализация которых достигла 30 миллиардов долларов и 23 миллиардов долларов соответственно. Эта статья сосредотачивается на пересечении двух областей и обсуждает развитие соответствующих протоколов.
В стеке технологий ИИ сеть DePIN предоставляет полезность ИИ за счет вычислительных ресурсов. Развитие крупных технологических компаний привело к нехватке GPU, что затрудняет другим разработчикам получение достаточного количества GPU для вычислений. Это зачастую заставляет разработчиков выбирать централизованных облачных поставщиков, но из-за необходимости подписания неэффективных долгосрочных контрактов на высокопроизводительное оборудование, это приводит к снижению эффективности.
DePIN по сути предоставляет более гибкое и экономически эффективное решение, стимулируя вклад ресурсов через токенизированные вознаграждения. DePIN в области ИИ краудсорсит ресурсы GPU от частных владельцев до дата-центров, создавая единое предложение для пользователей, которым нужен доступ к аппаратному обеспечению. Эти сети не только предоставляют разработчикам, нуждающимся в вычислительной мощности, возможность настройки и доступ по запросу, но также дают владельцам GPU дополнительный доход.
На рынке существует множество AI DePIN сетей, различить их между собой и найти подходящую сеть может быть сложно. Далее мы обсудим роль различных протоколов, их цели и конкретные достижения.
! Пересечение AI и DePIN
Обзор сети DePIN с использованием ИИ
Каждый проект, упомянутый здесь, имеет схожую цель - сетевой рынок вычислений на GPU. Этот раздел предназначен для изучения основных особенностей каждого проекта, рыночных акцентов и достижений. Поняв их ключевую инфраструктуру и продукты, мы можем глубже проанализировать различия между ними.
Render является пионером P2P-сети, предоставляющим возможности GPU-вычислений, изначально сосредоточенным на графическом рендеринге для создания контента, а затем расширившим свои масштабы до различных AI-вычислительных задач, включая нейронные радиационные поля (NeRF) и генеративный ИИ.
Akash позиционирует себя как "супероблачную" альтернативу традиционным платформам (, таким как AWS), поддерживающую хранение и вычисления на GPU и CPU. Используя такие удобные для разработчиков инструменты, как платформа контейнеров Akash и вычислительные узлы под управлением Kubernetes, она может бесшовно развертывать программное обеспечение в различных средах, что позволяет запускать любые облачные нативные приложения.
io.net предоставляет доступ к распределенным GPU облачным кластерам, которые предназначены для использования в AI и ML. Он агрегирует GPU из центров обработки данных, криптошахтеров и других децентрализованных сетей.
Gensyn предоставляет вычислительные мощности GPU, сосредоточенные на машинном обучении и глубоком обучении. Он утверждает, что достиг более эффективного механизма валидации, сочетая такие концепции, как доказательства работы, используемые для валидации, графически основанные точные протоколы для повторной проверки валидации, а также стимулирующие игры, связанные с ставками и сокращениями, вовлекающими поставщиков вычислений.
Aethir специально разрабатывается для корпоративных GPU, сосредоточен на вычислительно интенсивных областях, в основном в области искусственного интеллекта, машинного обучения ( ML ), облачного гейминга и т.д. Контейнеры в его сети служат виртуальными конечными точками для выполнения облачных приложений, перемещая рабочую нагрузку с локальных устройств в контейнеры для обеспечения низкой задержки.
Phala Network выступает в качестве исполняющего слоя для решений Web3 AI. Его блокчейн представляет собой облачное решение без доверия, предназначенное для решения вопросов конфиденциальности с помощью своего надежного исполняющего окружения (TEE). Исполняющий слой не используется как вычислительный слой для AI моделей, а обеспечивает возможность управления AI агентами через смарт-контракты на блокчейне.
! Пересечение AI и DePIN
Сравнение проектов
| | Рендеринг | Акаш | io.net | Генсин | Этир | Фала | |--------|-------------|------------------|---------------------|---------|---------------|----------| | Аппаратное обеспечение | Графический процессор и процессор | Графический процессор и процессор | Графический процессор и процессор | Графический процессор | Графический процессор | Процессор | | Основные направления бизнеса | Графическая рендеринга и ИИ | Облачные вычисления, рендеринг и ИИ | ИИ | ИИ | Искусственный интеллект, облачные игры и телекоммуникации | Выполнение ИИ на блокчейне | | Тип задачи AI | Вывод | Учитывая | Учитывая | Обучение | Обучение | Выполнение | | Ценовая политика | Ценовая политика на основе производительности | Обратный аукцион | Рыночное ценообразование | Рыночное ценообразование | Система тендеров | Расчет прав | | Блокчейн | Солана | Космос | Солана | Генсин | Арбитраж | Горошек | | Защита данных | Шифрование&хеширование | mTLS аутентификация | Шифрование данных | Безопасная карта | Шифрование | TEE | | Рабочие расходы | Каждое задание 0.5-5% | 20% USDC, 4% AKT | 2% USDC, 0.25% резервный сбор | Низкие расходы | Каждая сессия 20% | Пропорционально сумме стейкинга | | Безопасность | Доказательство рендеринга | Доказательство прав | Доказательство вычислений | Доказательство прав | Доказательство вычислительных возможностей | Унаследовано от цепочки реле | | Подтверждение завершения | - | - | Подтверждение временной блокировки | Подтверждение обучения | Подтверждение рендеринга | Подтверждение TEE | | Гарантия качества | Спор | - | - | Проверяющий и заявитель | Узел проверяющего | Удаленное доказательство | | GPU кластер | Нет | Да | Да | Да | Да | Нет |
Важность
Доступность кластеров и параллельных вычислений
Рамки распределенных вычислений реализовали кластер GPU, обеспечивая более эффективное обучение без ущерба для точности модели, а также усиливая масштабируемость. Обучение сложных AI моделей требует мощных вычислительных мощностей, что обычно должно основываться на распределенных вычислениях для удовлетворения их потребностей. С интуитивной точки зрения, модель GPT-4 от OpenAI имеет более 1,8 триллиона параметров и была обучена за 3-4 месяца с использованием примерно 25 000 Nvidia A100 GPU в 128 кластерах.
Ранее Render и Akash предлагали только одноцелевые GPU, что могло ограничить их рыночный спрос на GPU. Однако большинство ключевых проектов теперь интегрировали кластеры для параллельных вычислений. io.net сотрудничает с Render, Filecoin и другими проектами, чтобы включить больше GPU в свою сеть, и успешно развернул более 3 800 кластеров в первом квартале 24 года. Хотя Render не поддерживает кластеры, его работа похожа на работу кластеров, разбивая отдельные кадры на несколько различных узлов для одновременной обработки различных диапазонов кадров. Phala в настоящее время поддерживает только CPU, но позволяет кластеризовать CPU-воркеры.
Включение кластерной структуры в сеть рабочих процессов ИИ очень важно, но необходимое количество и типы кластерных GPU для удовлетворения потребностей разработчиков ИИ являются отдельным вопросом.
Конфиденциальность данных
Разработка AI-моделей требует использования больших объемов данных, которые могут поступать из различных источников и иметь разные формы. Чувствительные наборы данных, такие как личные медицинские записи и финансовые данные пользователей, могут подвергаться риску раскрытия поставщикам моделей. Samsung запретила внутреннее использование ChatGPT из-за опасений, что загрузка чувствительного кода на платформу может нарушить конфиденциальность, а инцидент с утечкой 38TB частных данных Microsoft еще больше подчеркивает важность принятия достаточных мер безопасности при использовании AI. Таким образом, наличие различных методов защиты данных имеет решающее значение для передачи контроля над данными обратно к их поставщикам.
Большинство охваченных проектов используют какую-либо форму шифрования данных для защиты конфиденциальности данных. Шифрование данных обеспечивает защиту передачи данных от поставщика данных до получателя данных модели ( ) в сети. Render использует шифрование и хеширование при публикации результатов рендеринга обратно в сеть, в то время как io.net и Gensyn применяют какую-либо форму шифрования данных. Akash использует mTLS-аутентификацию, позволяя только выбранным арендаторам поставщикам получать данные.
Тем не менее, io.net недавно сотрудничал с Mind Network для запуска полностью гомоморфного шифрования (FHE), позволяющего обрабатывать зашифрованные данные без предварительного расшифрования. Эта инновация может лучше гарантировать конфиденциальность данных по сравнению с существующими технологиями шифрования, позволяя безопасно передавать данные для целей обучения без раскрытия идентичности и содержания данных.
Phala Network внедряет TEE, то есть защищенную область в главном процессоре подключенного устройства. Благодаря этому механизму изоляции он может предотвратить доступ или изменение данных внешними процессами, независимо от их уровня привилегий, даже если у человека есть физический доступ к машине. Помимо TEE, он также интегрирует использование zk-proofs в своем zkDCAP валидаторе и jtee командной строке для программ, интегрированных с RiscZero zkVM.
! Пересечение AI и DePIN
Подтверждение завершения расчетов и контроль качества
Эти проекты предоставляют GPU, которые могут обеспечивать вычислительную мощность для ряда услуг. Поскольку этот спектр услуг очень широк, от рендеринга графики до вычислений ИИ, конечное качество таких задач может не всегда соответствовать стандартам пользователя. Можно использовать форму доказательства выполнения, чтобы подтвердить, что конкретный арендованный пользователем GPU действительно использовался для выполнения требуемых услуг, а проверка качества полезна для пользователей, запрашивающих выполнение таких работ.
После завершения вычислений Gensyn и Aethir создают доказательства, чтобы подтвердить, что работа выполнена, в то время как доказательство от io.net указывает на то, что производительность арендованного GPU была полностью использована и не возникло проблем. Gensyn и Aethir проводят проверку качества завершенных вычислений. Для Gensyn используется повторный запуск части сгенерированных доказательств валидатором для проверки с доказательством, в то время как информатор действует как дополнительный уровень проверки валидатора. В то же время Aethir использует контрольные узлы для определения качества обслуживания и накладывает штрафы на услуги, не соответствующие стандартам. Render предлагает использовать процесс разрешения споров; если комиссия по проверке обнаружит проблемы с узлом, то узел будет отключен. После завершения Phala создается доказательство TEE, которое гарантирует, что AI-агенты выполняют необходимые операции в цепочке.
! Пересечение искусственного интеллекта и DePIN
Аппаратная статистика
| | Рендеринг | Акаш | io.net | Генсин | Этир | Фала | |-------------|--------|-------|--------|------------|------------|--------| | Количество GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Количество ЦПУ | 114 | 14672 | 5433 | - | - | 30000+ | | Количество H100/A100 | - | 157 | 2330 | - | 2000+ | - | | Плата H100/час | - | $1.46 | $1.19 | - | - | - | | A100 стоимость/час | - | $1.37 | $1.50 | $0.55 ( ожидается ) | $0.33 ( ожидается ) | - |
Требования к высокопроизводительным GPU
Поскольку для обучения AI-моделей требуются GPU с наилучшей производительностью, предпочтение отдается GPU от Nvidia, таким как A100 и H100. Несмотря на то, что последний имеет высокую цену на рынке, они обеспечивают наилучшее качество. A100 не только может обучать все рабочие нагрузки, но и делает это быстрее, что подчеркивает важность такого оборудования на рынке. Поскольку производительность вывода H100 в 4 раза выше, чем у A100, он стал предпочтительным GPU, особенно для крупных компаний, которые обучают свои собственные LLM.
Чтобы децентрализованным поставщикам GPU на рынке конкурировать с коллегами из Web2, им необходимо не только предлагать более низкие цены, но и удовлетворять реальные потребности рынка. В 2023 году Nvidia поставила более 500 000 H100 централизованным крупным технологическим компаниям, что сделало получение как можно большего количества аналогичного оборудования для конкуренции с крупными облачными провайдерами дорогостоящим и крайне сложным. Поэтому важно учитывать количество оборудования, которое эти проекты могут недорого интегрировать в свою сеть, для расширения этих услуг на более широкую клиентскую базу.
Хотя каждый проект имеет бизнес в области вычислений AI и ML, они различаются по своей способности предоставлять вычислительные мощности. У Akash всего более 150 единиц H100 и A100, в то время как io.net и Aethir получили более 2000 единиц. Обычно для предварительного обучения LLM или генеративной модели с нуля требуется как минимум 248 до более 2000 GPU в кластере, поэтому последние два проекта более подходят для вычислений больших моделей.
В зависимости от необходимого размера кластера, стоимость этих децентрализованных GPU-сервисов на рынке сейчас значительно ниже, чем у централизованных GPU-сервисов. Gensyn и Aethir утверждают, что могут арендовать оборудование, эквивалентное A100, за менее чем 1 доллар в час, но это все еще нужно будет подтвердить со временем.
Сеть подключенных GPU-кластеров имеет большое количество GPU, стоимость которых ниже в час, но по сравнению с GPU, соединенными через NVLink,