الذكاء الاصطناعي والبلوكتشين: تحليل شامل من سلسلة الصناعة إلى اقتصاد العملة

الذكاء الاصطناعي والبلوكتشين: من الصفر إلى القمة

يُعتبر التطور المزدهر في صناعة الذكاء الاصطناعي مؤخرًا الثورة الصناعية الرابعة. لقد أدى ظهور نماذج اللغة الكبيرة إلى تحسين كفاءة مختلف الصناعات بشكل ملحوظ، حيث يُقدر أنها حققت زيادة بنحو 20% في كفاءة العمل الإجمالية في الولايات المتحدة. في الوقت نفسه، تعتبر قدرة النماذج الكبيرة على التعميم نموذج تصميم برمجي جديد، حيث تعتمد البرمجيات الحالية على إطار نموذج كبير عمومي أكثر من تصميم الشيفرة الدقيق في الماضي، مما يدعم أنماط الإدخال والإخراج الأوسع. لقد جلبت تقنية التعلم العميق بالفعل جولة جديدة من الازدهار لصناعة الذكاء الاصطناعي، وقد امتدت هذه الموجة إلى صناعة العملات المشفرة.

ستتناول هذه المقالة بالتفصيل تاريخ تطور صناعة الذكاء الاصطناعي، وتصنيفات التكنولوجيا، بالإضافة إلى التأثير العميق للتعلم العميق على الصناعة. سنقوم بتحليل عميق لسلسلة قيمة التعلم العميق من الجانبين، بما في ذلك وحدات معالجة الرسوميات، والحوسبة السحابية، ومصادر البيانات، والأجهزة الطرفية، وتحليل وضعها الحالي والاتجاهات. علاوة على ذلك، سنستكشف بشكل جوهري العلاقة بين العملات المشفرة وصناعة الذكاء الاصطناعي، وسنقوم بتوضيح بنية سلسلة القيمة المتعلقة بالذكاء الاصطناعي المرتبطة بالتشفير.

! علم الوافد الجديد 丨 الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة

تاريخ تطور صناعة الذكاء الاصطناعي

بدأت صناعة الذكاء الاصطناعي في خمسينيات القرن العشرين. لتحقيق رؤية الذكاء الاصطناعي، طورت الأوساط الأكاديمية والصناعية مسارات تنفيذ متعددة في سياقات زمنية مختلفة.

تستخدم تقنيات الذكاء الاصطناعي الحديثة بشكل أساسي مصطلح "تعلم الآلة"، حيث إن الفكرة الأساسية هي السماح للآلات بتحسين أداء النظام من خلال تكرار البيانات. تشمل الخطوات الرئيسية إدخال البيانات إلى الخوارزمية، تدريب النموذج، اختبار نشر النموذج، وأخيرًا استخدامه في مهام التنبؤ الآلي.

توجد ثلاثة توجهات رئيسية في تعلم الآلة: الاتصاليات، الرمزية، والسلوكية، والتي تحاكي على التوالي النظام العصبي البشري، والتفكير، والسلوك. في الوقت الحالي، تهيمن الاتصاليات التي تمثلها الشبكات العصبية، وتسمى أيضاً التعلم العميق. تتضمن بنية الشبكة العصبية طبقة إدخال، وطبقة إخراج، والعديد من الطبقات المخفية، وعندما تكون عدد الطبقات وعدد الخلايا العصبية كافياً، يمكن أن تتناسب مع المهام العامة المعقدة.

تكنولوجيا التعلم العميق المستندة إلى الشبكات العصبية قد شهدت أيضًا عدة تكرارات، بدءًا من الشبكات العصبية الأولى، وصولاً إلى الشبكات العصبية التغذوية للأمام، RNN، CNN، GAN، وأخيرًا تطورت إلى النماذج الكبيرة الحديثة مثل تقنية Transformer المستخدمة في GPT وغيرها. تقنية Transformer هي اتجاه تطوري في الشبكات العصبية، حيث تضيف محولًا لتحويل أنواع مختلفة من البيانات مثل الصوت والفيديو والصور إلى تمثيل عددي مناسب، ثم تُدخل إلى الشبكة العصبية، مما يتيح القدرة على معالجة متعددة الوسائط.

! [الوافد الجديد Science Popular 丨الذكاء الاصطناعي x Crypto: من الصفر إلى الذروة](https://img-cdn.gateio.im/webp-social/moments-c50ee5a87373c6cd6c4dc63adc2cf47c.webp019283746574839201

مرت تطورات الذكاء الاصطناعي بثلاث موجات تكنولوجية:

  1. الستينيات من القرن العشرين: تطور تقنيات الرمزية، مما حل مشكلة معالجة اللغة الطبيعية العامة والحوار بين الإنسان والآلة. وفي نفس الوقت، وُلدت أنظمة الخبراء.

  2. التسعينيات من القرن العشرين: تم تقديم الشبكات البايزية والروبوتات القائمة على السلوك، مما يمثل ولادة السلوكية. في عام 1997، هزم آي بي إم ديب بلو بطل الشطرنج، ويعتبر ذلك علامة فارقة في الذكاء الاصطناعي.

  3. منذ عام 2006 حتى الآن: تم اقتراح مفهوم التعلم العميق، حيث تتطور الخوارزميات المعتمدة على الشبكات العصبية الاصطناعية تدريجياً، من RNN و GAN إلى Transformer و Stable Diffusion، هذه هي ذروة الوصلية.

تشمل بعض الأحداث البارزة في مجال الذكاء الاصطناعي في السنوات الأخيرة:

  • في عام 2015، تم نشر خوارزمية التعلم العميق في مجلة "Nature"، مما أثار ردود فعل هائلة في الأوساط الأكاديمية والصناعية.
  • في عام 2016، هزم AlphaGo بطل العالم في لعبة الواي شي لي شي شي.
  • في عام 2017، نشرت جوجل ورقة بحثية حول خوارزمية Transformer، وبدأت النماذج اللغوية الكبيرة تظهر.
  • في سنوات 2018-2020، أصدرت OpenAI سلسلة نماذج GPT، حيث تزايد حجم المعلمات باستمرار.
  • في يناير 2023، تم إطلاق ChatGPT المعتمد على GPT-4، وفي مارس وصل عدد مستخدميه إلى 100 مليون، ليصبح أسرع تطبيق يصل إلى 100 مليون مستخدم في التاريخ.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-0c9bdea33a39a2c07d1f06760ed7e804.webp(

سلسلة صناعة التعلم العميق

النماذج اللغوية الكبيرة الحالية تعتمد بشكل رئيسي على أساليب التعلم العميق المستندة إلى الشبكات العصبية. وقد أثارت النماذج الكبيرة مثل GPT جولة جديدة من حماس الذكاء الاصطناعي، مما دفع العديد من اللاعبين للانضمام إلى هذا المجال. وقد زادت الحاجة إلى البيانات وقوة الحساب في السوق بسرعة، لذلك سنستكشف تكوين سلسلة صناعة خوارزميات التعلم العميق، بالإضافة إلى الوضع الراهن للعلاقات بين العرض والطلب والتطورات المستقبلية.

تدريب نماذج اللغة الكبيرة مثل GPT)LLMs( ينقسم بشكل رئيسي إلى ثلاث خطوات:

  1. التدريب المسبق: إدخال كميات كبيرة من البيانات للبحث عن أفضل معلمات الخلايا العصبية، هذه العملية هي الأكثر استهلاكًا للطاقة الحاسوبية.

  2. ضبط دقيق: استخدام كمية صغيرة ولكن ذات جودة عالية من البيانات للتدريب، مما يحسن جودة مخرجات النموذج.

  3. التعلم المعزز: إنشاء "نموذج المكافأة" لترتيب نتائج الإخراج، لاستخدامه في تكرار معلمات النموذج الكبير.

العوامل الثلاثة الرئيسية التي تؤثر على أداء النموذج الكبير هي: عدد المعلمات، كمية وجودة البيانات، والقوة الحاسوبية. افترض أن عدد المعلمات هو p، وكمية البيانات هي n) محسوبة بعدد الرموز(، إذن يمكن تقدير كمية الحساب المطلوبة من خلال قاعدة الخبرة.

تُعتبر قوة الحوسبة عادةً بوحدات Flops، والتي تمثل عملية حسابية عائمة واحدة. وفقًا للقواعد التجريبية، يتطلب التدريب المسبق لنموذج كبير حوالي 6np Flops. بينما تتطلب عملية الاستدلال )، حيث ينتظر إدخال البيانات خروج النموذج، حوالي 2np Flops.

في البداية، كان يتم استخدام شرائح وحدة المعالجة المركزية (CPU) للتدريب، ثم تم الانتقال تدريجياً إلى وحدات معالجة الرسومات (GPU)، مثل شرائح A100 و H100 من إنفيديا. تقوم وحدات معالجة الرسومات بإجراء العمليات العائمة من خلال وحدة Tensor Core، حيث تعتبر بيانات Flops بدقة FP16/FP32 مؤشراً هاماً على قدرة الحساب للشريحة.

كمثال على GPT-3، يحتوي على 175 مليار معلمة و 180 مليار Token من البيانات. يتطلب التدريب المسبق مرة واحدة حوالي 3.1510^22 Flops، أي 3.1510^10 TFLOPS. يتطلب تدريب GPT-3 مرة واحدة باستخدام شريحة NVIDIA H100 SXM حوالي 584 يومًا.

يمكن رؤية أن تدريب النماذج الكبيرة يتطلب كمية هائلة من الحسابات، ويحتاج إلى العديد من الشرائح المتطورة للعمل معًا. عدد معلمات GPT-4 وكمية البيانات هي عشرة أضعاف عدد GPT-3، وقد يتطلب الأمر أكثر من 100 ضعف من قوة معالجة الشرائح.

في تدريب النماذج الكبيرة، تواجه تخزين البيانات تحديات أيضًا. تشغل بيانات GPT-3 حوالي 570GB، وتشغل المعلمات حوالي 700GB. عادةً ما تكون ذاكرة GPU صغيرة مثل A100 التي تبلغ 80GB، ولا يمكنها استيعاب جميع البيانات، لذلك يجب مراعاة عرض النطاق الترددي للشرائح. عند تدريب عدة GPUs، يتعلق الأمر أيضًا بمعدل نقل البيانات بين الشرائح. أحيانًا تكون عنق الزجاجة التي تحد من سرعة التدريب ليست القدرة الحسابية، بل سرعة نقل البيانات.

سلسلة صناعة التعلم العميق تشمل بشكل رئيسي العناصر التالية:

( 1. مزودات GPU للأجهزة

إن شركة إنفيديا في وضع ريادي مطلق في مجال رقائق GPU للذكاء الاصطناعي. تستخدم الأوساط الأكاديمية بشكل رئيسي وحدات معالجة الرسوميات من الفئة الاستهلاكية ) مثل سلسلة RTX (، بينما تستخدم الصناعة بشكل رئيسي رقائق تجارية مثل H100 و A100. كما أن جوجل لديها رقائق TPU التي طورتها بنفسها، ولكنها تستخدم بشكل رئيسي لخدمات جوجل السحابية.

حصلت شريحة H100 من إنفيديا على العديد من الطلبات منذ إصدارها في عام 2023، مما أدى إلى عدم كفاية العرض. حتى نهاية عام 2023، تجاوزت كمية الطلبات على H100 500,000 وحدة. للتخلص من الاعتماد على إنفيديا، قادت جوجل تأسيس تحالف CUDA، وتأمل في تطوير وحدات معالجة الرسوميات معًا.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-609c5dd6ee0abcec6bf9c118d7741867.webp(

) 2. مزود خدمة السحاب

تقوم مقدمي خدمات السحابة بشراء مجموعة كبيرة من وحدات معالجة الرسوميات لإنشاء تجمعات حوسبة عالية الأداء، وتقديم قوة حسابية مرنة وحلول تدريب مستضافة للشركات الذكية ذات التمويل المحدود. تنقسم إلى ثلاث فئات رئيسية:

  • مزودي الخدمات السحابية التقليديين: AWS، Google Cloud، Azure وغيرها
  • منصة سحابية لحوسبة الذكاء الاصطناعي العمودية: CoreWeave، Lambda وغيرها
  • مزودو خدمة الاستدلال: Together.ai، Fireworks.ai وغيرها

( 3. مزود بيانات التدريب

تتطلب تدريب النماذج الكبيرة بيانات ضخمة. بعض الشركات تقدم بيانات تدريب متخصصة في مختلف الصناعات، مثل البيانات المتخصصة في مجالات المالية والطب والكيمياء.

) 4. موفر قاعدة البيانات

تتطلب تدريبات الذكاء الاصطناعي تخزينًا فعالًا ومعالجة كميات هائلة من البيانات غير المهيكلة، لذا ظهرت "قواعد بيانات المتجهات" خصيصًا لذلك. تشمل اللاعبين الرئيسيين Chroma و Zilliz و Pinecone.

( 5. أجهزة الحافة

مجموعة وحدات معالجة الرسومات ستنتج كمية كبيرة من الطاقة الحرارية، مما يتطلب نظام تبريد لضمان التشغيل المستقر. حاليًا، يتم استخدام التبريد بالهواء بشكل رئيسي، لكن نظام التبريد السائل يحظى بشعبية بين المستثمرين. في ما يتعلق بتزويد الطاقة، بدأت بعض شركات التكنولوجيا في الاستثمار في الطاقة النظيفة مثل الطاقة الحرارية الأرضية، والطاقة الهيدروجينية، والطاقة النووية.

) 6. تطبيقات الذكاء الاصطناعي

تطور تطبيقات الذكاء الاصطناعي في الوقت الحالي مشابه لصناعة البلوكتشين، حيث أن البنية التحتية مزدحمة ولكن تطوير التطبيقات متأخر نسبيًا. معظم التطبيقات العشرة الأولى من حيث النشاط الشهري هي منتجات بحث، بينما التطبيقات الأخرى مثل وسائل التواصل الاجتماعي قليلة. أيضًا، فإن معدل احتفاظ المستخدمين بتطبيقات الذكاء الاصطناعي عمومًا أقل من تطبيقات الإنترنت التقليدية.

بشكل عام، فإن سلسلة صناعة التعلم العميق تتطور بسرعة، لكنها تواجه أيضًا العديد من التحديات. يستمر الطلب على القدرة الحاسوبية في النمو، واستهلاك البيانات والطاقة ضخم، ولا تزال سيناريوهات التطبيق بحاجة إلى مزيد من التوسع. ستستمر جميع مراحل سلسلة الصناعة في تحسين وترقية نفسها في المستقبل، لدعم تدريب وتطبيق نماذج الذكاء الاصطناعي على نطاق أكبر وبكفاءة أعلى.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة]###https://img-cdn.gateio.im/webp-social/moments-f37fb0100218188368f4d31940aab2a3.webp(

علاقة العملات المشفرة بالذكاء الاصطناعي

تتمثل جوهر تقنية البلوكتشين في اللامركزية وغياب الثقة. من البيتكوين كنظام نقدي إلكتروني من نظير إلى نظير، إلى منصة العقود الذكية للإيثيريوم، فإن البلوكتشين في جوهره هو شبكة قيمة، حيث يتم تبادل كل معاملة بناءً على قيمة الرموز الأساسية.

في الإنترنت التقليدي، يتم تحويل القيمة من خلال مؤشرات مثل P/E إلى سعر السهم والقيمة السوقية. بينما في شبكة البلوكتشين، تمثل الرموز الأصلية تجسيدًا للقيمة متعددة الأبعاد، حيث يمكن الحصول عليها ليس فقط كعائدات من التكديس، بل أيضًا كوسيلة لتبادل القيمة، ووسيلة لتخزين القيمة، وسلع للاستهلاك في الأنشطة الشبكية.

أهمية اقتصاديات التوكنات تكمن في أنها تستطيع منح قيمة لأي وظيفة أو فكرة داخل الشبكة. يمكن أن تعيد التوكنات تشكيل قيمة جميع مراحل سلسلة صناعة الذكاء الاصطناعي، مما يحفز المزيد من الأشخاص على التعمق في مجالات الذكاء الاصطناعي المتخصصة. في الوقت نفسه، ستعزز التأثيرات التعاونية للتوكنات قيمة البنية التحتية، مما يشكل نمط "البروتوكول السمين والتطبيقات النحيفة".

تكنولوجيا البلوكتشين التي تتمتع بخصائص عدم القابلية للتغيير وبدون ثقة، يمكن أن تجلب أيضًا قيمة فعلية لصناعة الذكاء الاصطناعي:

  • تحقيق تدريب النموذج واستنتاجه تحت حماية خصوصية البيانات
  • من خلال توزيع الشبكة العالمية واستخدام قوة الحوسبة GPU غير المستخدمة
  • توفير آلية موثوقة لاكتشاف القيمة وتبادلها في جميع مراحل سلسلة صناعة الذكاء الاصطناعي

بشكل عام، يمكن أن تعزز اقتصاديات التوكنات إعادة تشكيل واكتشاف قيمة صناعة الذكاء الاصطناعي، حيث يمكن أن تحل دفاتر الحسابات اللامركزية مشكلة الثقة، مما يعيد تدفق القيمة على مستوى العالم. ستوفر هذه التركيبة دافعًا جديدًا وفرصًا لصناعة الذكاء الاصطناعي.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة])https://img-cdn.gateio.im/webp-social/moments-8848582a34ba293d15afae15d90e3c95.webp(

نظرة عامة على مشاريع سلسلة قيمة الذكاء الاصطناعي في صناعة العملات المشفرة

) جانب العرض لوحدة معالجة الرسوميات

تشمل المشاريع الرئيسية الحالية لقوة الحوسبة السحابية القائمة على وحدة معالجة الرسومات (GPU) مثل Render وGolem. يعتبر Render مشروعًا ناضجًا نسبيًا، ويستهدف بشكل رئيسي مهام مثل معالجة الفيديو، ولا يُعتبر بشكل صارم جزءًا من قطاع الذكاء الاصطناعي. لكن سوق الحوسبة السحابية المستندة إلى GPU يمكن أن يخدم ليس فقط تدريب نماذج الذكاء الاصطناعي واستنتاجها، بل يمكن أيضًا تطبيقه على المعالجة التقليدية، مما يقلل من المخاطر المرتبطة بالاعتماد على سوق واحد.

وفقًا لتوقعات الصناعة، من المتوقع أن يصل الطلب على قوة حساب GPU إلى حوالي 75 مليار دولار أمريكي في عام 2024، وسيصل إلى 773 مليار دولار أمريكي بحلول عام 2032، بمعدل نمو سنوي مركب يبلغ 33.86%. مع تسارع تكرار GPU، من المتوقع أن يرتفع الطلب على مشاركة قوة حساب GPU بشكل كبير، نظرًا لأن هناك الكثير من موارد GPU غير المستخدمة وغير الأحدث.

! [علم الوافد الجديد 丨الذكاء الاصطناعي x التشفير: من الصفر إلى الذروة]###https://img-cdn.gateio.im/webp-social/moments-53c48daf49a3dbb35c1a2b47e234f180.webp019283746574839201

عرض النطاق الترددي للأجهزة

غالبًا ما تكون عرض النطاق الترددي عاملًا رئيسيًا يؤثر على أداء الحوسبة السحابية، خاصةً بالنسبة لشبكة GPU المشتركة اللامركزية. تحاول بعض المشاريع مثل Meson Network حل هذه المشكلة من خلال مشاركة عرض النطاق الترددي، ولكن التأثير الفعلي محدود، لأن التأخير الناجم عن الموقع الجغرافي لا يزال من الصعب تجنبه.

بيانات

تشمل مزودي بيانات الذكاء الاصطناعي بروتوكول EpiK وSynesis One وMasa وغيرها. مقارنةً بشركات البيانات التقليدية في Web2، تتمتع مشاريع البلوكتشين بميزة في جمع البيانات، حيث يمكن أن توفر حوافز لمساهمات البيانات الشخصية. من خلال الجمع بين تقنيات حساب الخصوصية مثل إثبات المعرفة الصفرية، من المتوقع تحقيق مشاركة بيانات أوسع.

ZKML

لتحقيق تدريب النموذج والاستدلال تحت حماية خصوصية البيانات، اعتمدت بعض المشاريع خطط إثبات المعرفة الصفرية. تشمل المشاريع النموذجية Axiom وRisc Zero، التي يمكن أن توفر إثبات ZK للحسابات والبيانات خارج السلسلة. حدود تطبيقات مشاريع ZK العامة هذه أوسع، مما يجعلها أكثر جاذبية للمستثمرين.

GPT-1.77%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 5
  • مشاركة
تعليق
0/400
MetaNeighborvip
· منذ 11 س
تداول العملات الرقمية必备 AI,干啥都靠AI
شاهد النسخة الأصليةرد0
ILCollectorvip
· منذ 11 س
من قال إن السوق الصاعدة بالضرورة لا تقطع الخسارة، قطع الخسارة هو أيضًا نوع من ارتفع
شاهد النسخة الأصليةرد0
ColdWalletGuardianvip
· منذ 11 س
GPU大哥又要 للقمر咯~
شاهد النسخة الأصليةرد0
HodlOrRegretvip
· منذ 11 س
حسنا حسنا، مرة أخرى يتحدثون عن الذكاء الاصطناعي. الثور هو الثور، لكن جهاز التعدين غير مبيع.
شاهد النسخة الأصليةرد0
MEVHunterZhangvip
· منذ 11 س
مرة أخرى تم استغلال الحمقى بواسطة BTC
شاهد النسخة الأصليةرد0
  • تثبيت