Persimpangan AI dan DePIN: Kebangkitan Jaringan Komputasi Terdistribusi
Sejak tahun 2023, AI dan DePIN telah menjadi tren populer di bidang Web3, dengan kapitalisasi pasar masing-masing mencapai 30 miliar USD dan 23 miliar USD. Artikel ini fokus pada bidang persimpangan keduanya, membahas perkembangan protokol terkait.
Dalam tumpukan teknologi AI, jaringan DePIN menyediakan utilitas untuk AI melalui sumber daya komputasi. Perkembangan perusahaan teknologi besar menyebabkan kekurangan GPU, membuat pengembang lain kesulitan untuk mendapatkan cukup GPU untuk komputasi. Ini sering kali menyebabkan pengembang memilih penyedia cloud terpusat, tetapi karena kontrak perangkat keras jangka panjang yang tidak cukup fleksibel, efisiensinya menjadi rendah.
DePIN menyediakan alternatif yang lebih fleksibel dan lebih hemat biaya, dengan memberi insentif kontribusi sumber daya melalui imbalan token. DePIN di bidang AI mengalihkan sumber daya GPU dari pemilik individu ke pusat data, menyediakan pasokan yang terstandarisasi untuk pengguna yang membutuhkan akses perangkat keras. Ini tidak hanya memberikan akses yang disesuaikan dan sesuai permintaan bagi pengembang, tetapi juga membawa pendapatan tambahan bagi pemilik GPU.
Ada banyak jaringan AI DePIN di pasar, artikel ini akan membahas peran, tujuan, dan pencapaian masing-masing protokol untuk memahami perbedaan di antara mereka.
Ringkasan Jaringan DePIN AI
Render adalah pelopor jaringan P2P yang menyediakan kemampuan komputasi GPU, awalnya fokus pada rendering konten kreatif, kemudian berkembang ke tugas komputasi AI.
Poin utama:
Didirikan oleh perusahaan grafik awan OTOY
Jaringan GPU digunakan oleh perusahaan besar di industri hiburan
Bekerja sama dengan Stability AI, mengintegrasikan model AI dan alur kerja rendering 3D
Menyetujui beberapa klien komputasi, mengintegrasikan lebih banyak GPU jaringan DePIN
Akash diposisikan sebagai alternatif "super cloud" yang mendukung penyimpanan, komputasi GPU, dan CPU. Dengan menggunakan alat ramah pengembang seperti platform kontainer dan node komputasi yang dikelola oleh Kubernetes, perangkat lunak dapat disebarkan dengan mulus di berbagai lingkungan.
Poin utama:
Untuk berbagai tugas komputasi dari komputasi umum hingga hosting jaringan
AkashML memungkinkan jaringan GPU untuk menjalankan lebih dari 15.000 model di Hugging Face
Mengelola aplikasi chatbot model LLM Mistral AI dan lainnya
Membangun platform seperti metaverse, penerapan AI menggunakan Supercloud
io.net menyediakan akses ke kluster cloud GPU terdistribusi, khusus untuk kasus penggunaan AI dan ML. Mengagregasi GPU dari pusat data, penambang kripto, dan bidang lainnya.
Poin utama:
IO-SDK kompatibel dengan kerangka seperti PyTorch, arsitektur berlapis dapat diperluas secara dinamis
Mendukung pembuatan 3 jenis kluster berbeda, mulai dalam 2 menit
Bekerja sama dengan Render, Filecoin, dan lainnya untuk mengintegrasikan sumber daya GPU
Gensyn menyediakan kemampuan GPU yang fokus pada komputasi pembelajaran mesin dan pembelajaran dalam. Mengklaim untuk mencapai mekanisme verifikasi yang lebih efisien melalui konsep-konsep seperti bukti pembelajaran.
Poin:
Biaya per jam untuk GPU setara V100 sekitar 0,40 dolar AS, menghemat secara signifikan
Dapat melakukan penyesuaian pada model dasar yang telah dilatih sebelumnya untuk menyelesaikan tugas tertentu
Menyediakan model dasar yang terdesentralisasi dan dimiliki secara global
Aethir dirancang khusus untuk GPU perusahaan, berfokus pada bidang komputasi intensif seperti AI, ML, dan permainan cloud. Kontainer dalam jaringan berfungsi sebagai titik akhir virtual untuk menjalankan aplikasi cloud, memberikan pengalaman latensi rendah.
Poin penting:
Memperluas layanan ponsel cloud, meluncurkan ponsel cerdas cloud terdesentralisasi bekerja sama dengan APhone
Membangun kerjasama luas dengan perusahaan Web2 besar seperti NVIDIA
Bekerja sama dengan proyek Web3 seperti CARV, Magic Eden
Phala Network berfungsi sebagai lapisan eksekusi untuk solusi AI Web3. Blockchain-nya adalah solusi komputasi awan tanpa kepercayaan, yang dirancang untuk menangani masalah privasi melalui lingkungan eksekusi tepercaya (TEE).
Poin penting:
Bertindak sebagai protokol koprosesor yang dapat diverifikasi untuk memungkinkan agen AI mengakses sumber daya di blockchain
Kontrak agen AI dapat diperoleh melalui Redpill dari model bahasa terkemuka seperti OpenAI
Masa depan akan mencakup sistem bukti multipel seperti zk-proofs, MPC, FHE, dan lainnya
Mendatang akan mendukung GPU TEE seperti H100, meningkatkan kemampuan komputasi
Perbandingan Proyek
| | Render | Akash | io.net | Gensyn | Aethir | Phala |
|--------|------------|------------------|---------------------|--------|--------------|---------|
| Keras | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU |
| Fokus Bisnis | Rendering Grafis dan AI | Komputasi Awan, Rendering dan AI | AI | AI | AI, Permainan Awan dan Telekomunikasi | Eksekusi AI di Blockchain |
| Jenis Tugas AI| Inferensi | Pelatihan dan Inferensi | Pelatihan dan Inferensi | Pelatihan | Pelatihan | Eksekusi |
| Penetapan Harga | Penetapan Harga Berdasarkan Kinerja | Lelang Terbalik | Penetapan Harga Pasar | Penetapan Harga Pasar | Sistem Tender | Perhitungan Hak |
| Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot |
| Privasi Data | Enkripsi dan Hashing | Autentikasi mTLS | Enkripsi Data | Pemetaan Aman | Enkripsi | TEE |
| Biaya kerja | 0.5-5%/kerja | 20% USDC, 4% AKT| 2% USDC, 0.25% cadangan | Biaya rendah | 20%/sesi | Proporsional dengan staking|
| Keamanan | Bukti Rendering | Bukti Kepemilikan | Bukti Perhitungan | Bukti Kepemilikan | Bukti Kapasitas Rendering | Warisan dari Rantai Perantara |
| Bukti Penyelesaian | - | - | Bukti Kunci Waktu | Bukti Pembelajaran | Bukti Pekerjaan Rendering | Bukti TEE |
| Jaminan Kualitas | Sengketa | - | - | Verifikasi dan Laporan | Cek Node | Bukti Jarak |
| GPU Cluster | Tidak | Ya | Ya | Ya | Ya | Tidak |
Pentingnya
Ketersediaan Kluster dan Komputasi Paralel
Kerangka kerja komputasi terdistribusi untuk merealisasikan kluster GPU, meningkatkan efisiensi pelatihan dan skalabilitas. Melatih model AI yang kompleks memerlukan kemampuan komputasi yang kuat, biasanya bergantung pada komputasi terdistribusi. Misalnya, model GPT-4 dari OpenAI memiliki lebih dari 18 triliun parameter, memakan waktu 3-4 bulan, menggunakan sekitar 25.000 GPU Nvidia A100.
Sebagian besar proyek kini telah mengintegrasikan kluster untuk melakukan komputasi paralel. io.net bekerja sama dengan proyek lain, telah menerapkan lebih dari 3.800 kluster di Q1. Render meskipun tidak mendukung kluster, tetapi membagi satu frame untuk diproses secara bersamaan di beberapa node. Phala mendukung pengelompokan pekerja CPU.
Kerangka kluster sangat penting untuk jaringan alur kerja AI, tetapi jumlah dan jenis GPU kluster yang memenuhi kebutuhan pengembang adalah masalah lain.
Privasi Data
Pengembangan model AI membutuhkan banyak dataset, yang mungkin melibatkan informasi sensitif. Samsung pernah menonaktifkan ChatGPT karena khawatir tentang privasi, kebocoran data sebesar 38TB oleh Microsoft semakin menyoroti pentingnya keamanan AI. Berbagai metode privasi data sangat penting bagi penyedia data untuk mengembalikan hak.
Sebagian besar proyek menggunakan jenis enkripsi data untuk melindungi privasi. Render menggunakan enkripsi dan hashing, io.net dan Gensyn menerapkan enkripsi data, Akash menggunakan otentikasi mTLS.
io.net bekerja sama dengan Mind Network meluncurkan enkripsi homomorfik penuh (FHE), yang memungkinkan pengolahan data terenkripsi tanpa perlu dekripsi. Ini lebih baik dalam melindungi privasi dibandingkan teknologi enkripsi yang ada.
Phala Network memperkenalkan lingkungan eksekusi tepercaya ( TEE ), untuk mencegah akses atau modifikasi data dari luar. Ini juga menggabungkan zk-proofs untuk integrasi RiscZero zkVM.
Bukti penyelesaian perhitungan dan pemeriksaan kualitas
Karena cakupan layanan yang luas, kualitas akhir mungkin tidak memenuhi standar pengguna. Penyelesaian bukti menunjukkan bahwa GPU memang digunakan untuk layanan yang diperlukan, pemeriksaan kualitas bermanfaat bagi pengguna.
Gensyn dan Aethir menyelesaikan bukti generasi, io.net membuktikan bahwa kinerja GPU digunakan secara maksimal tanpa masalah. Gensyn dan Aethir melakukan pemeriksaan kualitas. Gensyn menggunakan validator untuk menjalankan kembali sebagian bukti, pelapor memeriksa kembali. Aethir menggunakan titik pemeriksaan untuk menilai kualitas layanan, menghukum layanan yang tidak memenuhi standar. Render menyarankan proses penyelesaian sengketa, komite peninjau dapat mengurangi node bermasalah. Phala menghasilkan bukti TEE, memastikan agen AI melakukan operasi di atas rantai.
Pelatihan model AI membutuhkan GPU terbaik seperti Nvidia A100 dan H100. Kinerja inferensi H100 adalah 4 kali lipat dari A100, menjadikannya pilihan utama, terutama bagi perusahaan besar.
Pasar GPU terdesentralisasi harus bersaing dengan Web2, tidak hanya dengan harga yang rendah, tetapi juga harus memenuhi kebutuhan nyata. Pada tahun 2023, Nvidia menyerahkan 500.000 unit H100 kepada perusahaan teknologi besar, yang memiliki biaya perangkat keras yang sangat tinggi. Penting untuk mempertimbangkan jumlah perangkat keras yang dapat diperkenalkan dengan biaya rendah dalam proyek-proyek ini.
Setiap proyek menyediakan kemampuan komputasi yang berbeda. Akash hanya memiliki lebih dari 150 H100 dan A100, sementara io.net dan Aethir masing-masing memiliki lebih dari 2000. LLM yang telah dilatih sebelumnya biasanya membutuhkan kluster GPU antara 248 hingga lebih dari 2000, sedangkan dua proyek terakhir lebih cocok untuk komputasi model besar.
Saat ini, biaya layanan GPU terdesentralisasi jauh lebih rendah daripada layanan terpusat. Gensyn dan Aethir mengklaim bahwa perangkat keras tingkat A100 kurang dari 1 dolar per jam, tetapi masih perlu waktu untuk memverifikasinya.
Meskipun jaringan terhubung dengan kluster GPU memiliki banyak GPU dan biaya rendah, tetapi memiliki batasan memori dibandingkan dengan GPU yang terhubung melalui NVLink. NVLink mendukung komunikasi langsung antar GPU, cocok untuk LLM dengan banyak parameter dan dataset besar.
Meskipun demikian, jaringan GPU terdesentralisasi tetap menyediakan kekuatan komputasi yang kuat dan skalabilitas untuk kebutuhan beban kerja yang dinamis atau pengguna yang memerlukan fleksibilitas, menciptakan peluang untuk membangun lebih banyak kasus penggunaan AI.
menyediakan GPU/CPU tingkat konsumen
CPU juga sangat penting dalam pelatihan model AI, digunakan untuk pra-pemrosesan data hingga manajemen memori. GPU kelas konsumen dapat digunakan untuk penyesuaian model yang telah dilatih sebelumnya atau pelatihan skala kecil.
Mengingat lebih dari 85% konsumen GPU tidak terpakai, proyek seperti Render, Akash, dan io.net juga melayani bagian pasar ini. Ini memungkinkan mereka untuk fokus pada komputasi intensif skala besar, rendering kecil yang umum, atau kombinasi keduanya.
Kesimpulan
Bidang DePIN AI masih relatif baru dan menghadapi tantangan. Misalnya, io.net pernah dituduh memalsukan jumlah GPU, namun kemudian diselesaikan melalui bukti kerja.
Meskipun demikian, jumlah tugas yang dijalankan di jaringan ini dan jumlah perangkat keras meningkat secara signifikan, menyoroti pertumbuhan permintaan untuk alternatif penyedia cloud Web2. Sementara itu, lonjakan penyedia perangkat keras menunjukkan bahwa pasokan belum dimanfaatkan sepenuhnya. Ini membuktikan kesesuaian produk pasar dari jaringan DePIN AI, yang secara efektif mengatasi tantangan permintaan dan pasokan.
Melihat ke depan, AI diharapkan menjadi pasar bernilai triliun dolar yang berkembang pesat, dan jaringan GPU terdesentralisasi ini akan memainkan peran kunci dalam menyediakan alternatif komputasi yang ekonomis bagi para pengembang. Dengan terus menjembatani kesenjangan antara permintaan dan pasokan, jaringan ini akan memberikan kontribusi signifikan terhadap lanskap masa depan AI dan infrastruktur komputasi.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
11 Suka
Hadiah
11
4
Bagikan
Komentar
0/400
DecentralizeMe
· 07-24 18:34
Apa itu depin, lebih baik melakukan proyek poi.
Lihat AsliBalas0
ContractCollector
· 07-24 18:33
Desentralisasi才是王道啊
Lihat AsliBalas0
CoffeeNFTs
· 07-24 18:10
Di depan ada Amazon, di belakang ada GPT. Siapa yang mengerti permainan besar GPU ini?
Jaringan DePIN AI: Komputasi GPU terdistribusi mendukung perkembangan AI
Persimpangan AI dan DePIN: Kebangkitan Jaringan Komputasi Terdistribusi
Sejak tahun 2023, AI dan DePIN telah menjadi tren populer di bidang Web3, dengan kapitalisasi pasar masing-masing mencapai 30 miliar USD dan 23 miliar USD. Artikel ini fokus pada bidang persimpangan keduanya, membahas perkembangan protokol terkait.
Dalam tumpukan teknologi AI, jaringan DePIN menyediakan utilitas untuk AI melalui sumber daya komputasi. Perkembangan perusahaan teknologi besar menyebabkan kekurangan GPU, membuat pengembang lain kesulitan untuk mendapatkan cukup GPU untuk komputasi. Ini sering kali menyebabkan pengembang memilih penyedia cloud terpusat, tetapi karena kontrak perangkat keras jangka panjang yang tidak cukup fleksibel, efisiensinya menjadi rendah.
DePIN menyediakan alternatif yang lebih fleksibel dan lebih hemat biaya, dengan memberi insentif kontribusi sumber daya melalui imbalan token. DePIN di bidang AI mengalihkan sumber daya GPU dari pemilik individu ke pusat data, menyediakan pasokan yang terstandarisasi untuk pengguna yang membutuhkan akses perangkat keras. Ini tidak hanya memberikan akses yang disesuaikan dan sesuai permintaan bagi pengembang, tetapi juga membawa pendapatan tambahan bagi pemilik GPU.
Ada banyak jaringan AI DePIN di pasar, artikel ini akan membahas peran, tujuan, dan pencapaian masing-masing protokol untuk memahami perbedaan di antara mereka.
Ringkasan Jaringan DePIN AI
Render adalah pelopor jaringan P2P yang menyediakan kemampuan komputasi GPU, awalnya fokus pada rendering konten kreatif, kemudian berkembang ke tugas komputasi AI.
Poin utama:
Akash diposisikan sebagai alternatif "super cloud" yang mendukung penyimpanan, komputasi GPU, dan CPU. Dengan menggunakan alat ramah pengembang seperti platform kontainer dan node komputasi yang dikelola oleh Kubernetes, perangkat lunak dapat disebarkan dengan mulus di berbagai lingkungan.
Poin utama:
io.net menyediakan akses ke kluster cloud GPU terdistribusi, khusus untuk kasus penggunaan AI dan ML. Mengagregasi GPU dari pusat data, penambang kripto, dan bidang lainnya.
Poin utama:
Gensyn menyediakan kemampuan GPU yang fokus pada komputasi pembelajaran mesin dan pembelajaran dalam. Mengklaim untuk mencapai mekanisme verifikasi yang lebih efisien melalui konsep-konsep seperti bukti pembelajaran.
Poin:
Aethir dirancang khusus untuk GPU perusahaan, berfokus pada bidang komputasi intensif seperti AI, ML, dan permainan cloud. Kontainer dalam jaringan berfungsi sebagai titik akhir virtual untuk menjalankan aplikasi cloud, memberikan pengalaman latensi rendah.
Poin penting:
Phala Network berfungsi sebagai lapisan eksekusi untuk solusi AI Web3. Blockchain-nya adalah solusi komputasi awan tanpa kepercayaan, yang dirancang untuk menangani masalah privasi melalui lingkungan eksekusi tepercaya (TEE).
Poin penting:
Perbandingan Proyek
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|------------|------------------|---------------------|--------|--------------|---------| | Keras | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | Fokus Bisnis | Rendering Grafis dan AI | Komputasi Awan, Rendering dan AI | AI | AI | AI, Permainan Awan dan Telekomunikasi | Eksekusi AI di Blockchain | | Jenis Tugas AI| Inferensi | Pelatihan dan Inferensi | Pelatihan dan Inferensi | Pelatihan | Pelatihan | Eksekusi | | Penetapan Harga | Penetapan Harga Berdasarkan Kinerja | Lelang Terbalik | Penetapan Harga Pasar | Penetapan Harga Pasar | Sistem Tender | Perhitungan Hak | | Blockchain | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | Privasi Data | Enkripsi dan Hashing | Autentikasi mTLS | Enkripsi Data | Pemetaan Aman | Enkripsi | TEE | | Biaya kerja | 0.5-5%/kerja | 20% USDC, 4% AKT| 2% USDC, 0.25% cadangan | Biaya rendah | 20%/sesi | Proporsional dengan staking| | Keamanan | Bukti Rendering | Bukti Kepemilikan | Bukti Perhitungan | Bukti Kepemilikan | Bukti Kapasitas Rendering | Warisan dari Rantai Perantara | | Bukti Penyelesaian | - | - | Bukti Kunci Waktu | Bukti Pembelajaran | Bukti Pekerjaan Rendering | Bukti TEE | | Jaminan Kualitas | Sengketa | - | - | Verifikasi dan Laporan | Cek Node | Bukti Jarak | | GPU Cluster | Tidak | Ya | Ya | Ya | Ya | Tidak |
Pentingnya
Ketersediaan Kluster dan Komputasi Paralel
Kerangka kerja komputasi terdistribusi untuk merealisasikan kluster GPU, meningkatkan efisiensi pelatihan dan skalabilitas. Melatih model AI yang kompleks memerlukan kemampuan komputasi yang kuat, biasanya bergantung pada komputasi terdistribusi. Misalnya, model GPT-4 dari OpenAI memiliki lebih dari 18 triliun parameter, memakan waktu 3-4 bulan, menggunakan sekitar 25.000 GPU Nvidia A100.
Sebagian besar proyek kini telah mengintegrasikan kluster untuk melakukan komputasi paralel. io.net bekerja sama dengan proyek lain, telah menerapkan lebih dari 3.800 kluster di Q1. Render meskipun tidak mendukung kluster, tetapi membagi satu frame untuk diproses secara bersamaan di beberapa node. Phala mendukung pengelompokan pekerja CPU.
Kerangka kluster sangat penting untuk jaringan alur kerja AI, tetapi jumlah dan jenis GPU kluster yang memenuhi kebutuhan pengembang adalah masalah lain.
Privasi Data
Pengembangan model AI membutuhkan banyak dataset, yang mungkin melibatkan informasi sensitif. Samsung pernah menonaktifkan ChatGPT karena khawatir tentang privasi, kebocoran data sebesar 38TB oleh Microsoft semakin menyoroti pentingnya keamanan AI. Berbagai metode privasi data sangat penting bagi penyedia data untuk mengembalikan hak.
Sebagian besar proyek menggunakan jenis enkripsi data untuk melindungi privasi. Render menggunakan enkripsi dan hashing, io.net dan Gensyn menerapkan enkripsi data, Akash menggunakan otentikasi mTLS.
io.net bekerja sama dengan Mind Network meluncurkan enkripsi homomorfik penuh (FHE), yang memungkinkan pengolahan data terenkripsi tanpa perlu dekripsi. Ini lebih baik dalam melindungi privasi dibandingkan teknologi enkripsi yang ada.
Phala Network memperkenalkan lingkungan eksekusi tepercaya ( TEE ), untuk mencegah akses atau modifikasi data dari luar. Ini juga menggabungkan zk-proofs untuk integrasi RiscZero zkVM.
Bukti penyelesaian perhitungan dan pemeriksaan kualitas
Karena cakupan layanan yang luas, kualitas akhir mungkin tidak memenuhi standar pengguna. Penyelesaian bukti menunjukkan bahwa GPU memang digunakan untuk layanan yang diperlukan, pemeriksaan kualitas bermanfaat bagi pengguna.
Gensyn dan Aethir menyelesaikan bukti generasi, io.net membuktikan bahwa kinerja GPU digunakan secara maksimal tanpa masalah. Gensyn dan Aethir melakukan pemeriksaan kualitas. Gensyn menggunakan validator untuk menjalankan kembali sebagian bukti, pelapor memeriksa kembali. Aethir menggunakan titik pemeriksaan untuk menilai kualitas layanan, menghukum layanan yang tidak memenuhi standar. Render menyarankan proses penyelesaian sengketa, komite peninjau dapat mengurangi node bermasalah. Phala menghasilkan bukti TEE, memastikan agen AI melakukan operasi di atas rantai.
Statistik Perangkat Keras
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | Jumlah GPU | 5600 | 384 | 38177 | - | 40000+ | - | | Jumlah CPU | 114 | 14672 | 5433 | - | - | 30000+ | | Jumlah H100/A100| - | 157 | 2330 | - | 2000+ | - | | Biaya H100/jam | - | $1.46 | $1.19 | - | - | - | | Biaya A100/jam | - | $1.37 | $1.50 | $0.55 ( diperkirakan ) | $0.33 ( diperkirakan ) | - |
Persyaratan GPU berkinerja tinggi
Pelatihan model AI membutuhkan GPU terbaik seperti Nvidia A100 dan H100. Kinerja inferensi H100 adalah 4 kali lipat dari A100, menjadikannya pilihan utama, terutama bagi perusahaan besar.
Pasar GPU terdesentralisasi harus bersaing dengan Web2, tidak hanya dengan harga yang rendah, tetapi juga harus memenuhi kebutuhan nyata. Pada tahun 2023, Nvidia menyerahkan 500.000 unit H100 kepada perusahaan teknologi besar, yang memiliki biaya perangkat keras yang sangat tinggi. Penting untuk mempertimbangkan jumlah perangkat keras yang dapat diperkenalkan dengan biaya rendah dalam proyek-proyek ini.
Setiap proyek menyediakan kemampuan komputasi yang berbeda. Akash hanya memiliki lebih dari 150 H100 dan A100, sementara io.net dan Aethir masing-masing memiliki lebih dari 2000. LLM yang telah dilatih sebelumnya biasanya membutuhkan kluster GPU antara 248 hingga lebih dari 2000, sedangkan dua proyek terakhir lebih cocok untuk komputasi model besar.
Saat ini, biaya layanan GPU terdesentralisasi jauh lebih rendah daripada layanan terpusat. Gensyn dan Aethir mengklaim bahwa perangkat keras tingkat A100 kurang dari 1 dolar per jam, tetapi masih perlu waktu untuk memverifikasinya.
Meskipun jaringan terhubung dengan kluster GPU memiliki banyak GPU dan biaya rendah, tetapi memiliki batasan memori dibandingkan dengan GPU yang terhubung melalui NVLink. NVLink mendukung komunikasi langsung antar GPU, cocok untuk LLM dengan banyak parameter dan dataset besar.
Meskipun demikian, jaringan GPU terdesentralisasi tetap menyediakan kekuatan komputasi yang kuat dan skalabilitas untuk kebutuhan beban kerja yang dinamis atau pengguna yang memerlukan fleksibilitas, menciptakan peluang untuk membangun lebih banyak kasus penggunaan AI.
menyediakan GPU/CPU tingkat konsumen
CPU juga sangat penting dalam pelatihan model AI, digunakan untuk pra-pemrosesan data hingga manajemen memori. GPU kelas konsumen dapat digunakan untuk penyesuaian model yang telah dilatih sebelumnya atau pelatihan skala kecil.
Mengingat lebih dari 85% konsumen GPU tidak terpakai, proyek seperti Render, Akash, dan io.net juga melayani bagian pasar ini. Ini memungkinkan mereka untuk fokus pada komputasi intensif skala besar, rendering kecil yang umum, atau kombinasi keduanya.
Kesimpulan
Bidang DePIN AI masih relatif baru dan menghadapi tantangan. Misalnya, io.net pernah dituduh memalsukan jumlah GPU, namun kemudian diselesaikan melalui bukti kerja.
Meskipun demikian, jumlah tugas yang dijalankan di jaringan ini dan jumlah perangkat keras meningkat secara signifikan, menyoroti pertumbuhan permintaan untuk alternatif penyedia cloud Web2. Sementara itu, lonjakan penyedia perangkat keras menunjukkan bahwa pasokan belum dimanfaatkan sepenuhnya. Ini membuktikan kesesuaian produk pasar dari jaringan DePIN AI, yang secara efektif mengatasi tantangan permintaan dan pasokan.
Melihat ke depan, AI diharapkan menjadi pasar bernilai triliun dolar yang berkembang pesat, dan jaringan GPU terdesentralisasi ini akan memainkan peran kunci dalam menyediakan alternatif komputasi yang ekonomis bagi para pengembang. Dengan terus menjembatani kesenjangan antara permintaan dan pasokan, jaringan ini akan memberikan kontribusi signifikan terhadap lanskap masa depan AI dan infrastruktur komputasi.