تقرير بحثي عن AI Layer1: البحث عن تربة DeAI داخل السلسلة
نظرة عامة
الخلفية
في السنوات الأخيرة، تواصل الشركات التكنولوجيا الكبرى مثل OpenAI وAnthropic وGoogle وMeta دفع التطور السريع لنماذج اللغة الكبيرة (LLM). تظهر LLM قدرات غير مسبوقة في جميع الصناعات، مما يوسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات تظهر إمكانيات استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات محصور في أيدي عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والتحكم في موارد الحساب باهظة الثمن، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل الغالبية العظمى من المطورين وفرق الابتكار صعبة المنافسة.
في الوقت نفسه، في المراحل الأولى من التطور السريع للذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي تقدمها التكنولوجيا، بينما تظل القضايا الأساسية مثل حماية الخصوصية، والشفافية، والأمان في حالة من التجاهل النسبي. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على التنمية الصحية لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستصبح الجدل حول "الذكاء الاصطناعي نحو الخير" أو "نحو الشر" أكثر وضوحًا، بينما تفتقر الشركات العملاقة المركزية، مدفوعة بغريزة الربح، إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تتيح تقنية داخل السلسلة، بفضل خصائصها اللامركزية والشفافة والمقاومة للرقابة، إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حالياً، ظهرت العديد من تطبيقات "Web3 AI" على بعض السلاسل الرئيسية. ولكن عند التحليل المتعمق، يمكن أن نرى أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم نظام بيئي مفتوح بمعناه الحقيقي؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، فإن الذكاء الاصطناعي داخل السلسلة لا يزال محدوداً من حيث قدرة النموذج، واستخدام البيانات، وسيناريوهات التطبيق، مما يتطلب تحسين عمق الابتكار ونطاقه.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وتوفير القدرة على دعم تطبيقات الذكاء الاصطناعي الكبيرة بشكل آمن وفعال وديمقراطي بواسطة البلوكشين، ومنافسة الحلول المركزية من حيث الأداء، نحتاج إلى تصميم بلوكشين Layer1 مصمم خصيصًا للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، والديمقراطية في الحوكمة، وأمان البيانات، مما يعزز ازدهار النظام البيئي للذكاء الاصطناعي اللامركزي.
الخصائص الأساسية للطبقة الأولى للذكاء الاصطناعي
تعتبر AI Layer 1 سلسلة كتل مصممة خصيصًا لتطبيقات الذكاء الاصطناعي، حيث يتمحور تصميم بنيتها الأساسية وأدائها حول متطلبات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة والازدهار البيئي للذكاء الاصطناعي داخل السلسلة بكفاءة. على وجه التحديد، يجب أن تتمتع AI Layer 1 بالقدرات الأساسية التالية:
آلية التحفيز الفعالة وآلية التوافق اللامركزية. تكمن جوهر AI Layer 1 في بناء شبكة مفتوحة لمشاركة الموارد مثل القدرة الحاسوبية، والتخزين، وما إلى ذلك. على عكس العقد التقليدية في داخل السلسلة التي تركز بشكل رئيسي على تسجيل دفتر الحسابات، تحتاج عقد AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يتعين عليها توفير القدرة الحاسوبية، وإكمال تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين، والبيانات، وعرض النطاق الترددي، والموارد المتنوعة الأخرى، وبالتالي كسر احتكار الشركات المركزية في البنية التحتية للذكاء الاصطناعي. يطرح هذا متطلبات أعلى على آلية التوافق وآلية التحفيز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم، وتحفيز، والتحقق بدقة من المساهمات الفعلية للعقد في مهام الاستدلال والتدريب للذكاء الاصطناعي، لتحقيق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل تكلفة القدرة الحاسوبية بشكل فعال.
أداء عالي متميز وقدرة دعم المهام المتغايرة مهام الذكاء الاصطناعي، وخاصة تدريب واستدلال نماذج اللغة الكبيرة، تتطلب متطلبات عالية من حيث الأداء الحاسوبي وقدرة المعالجة المتوازية. علاوة على ذلك، غالبًا ما يتطلب النظام البيئي للذكاء الاصطناعي داخل السلسلة دعمًا لمجموعة متنوعة من أنواع المهام المتغايرة، بما في ذلك هياكل نماذج مختلفة، ومعالجة البيانات، والاستدلال، والتخزين، وغيرها من السيناريوهات المتعددة. يجب أن يتم تحسين الطبقة الأولى للذكاء الاصطناعي بعمق في الهيكل الأساسي لتلبية احتياجات الإنتاجية العالية، والكمون المنخفض، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحاسوبية المتغايرة، لضمان تنفيذ جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "مهام فردية" إلى "نظام بيئي معقد متعدد الجوانب".
القابلية للتحقق وضمان المخرجات الموثوقة لا يجب أن تمنع طبقة الذكاء الاصطناعي 1 من مخاطر الأمان مثل سوء استخدام النماذج، والتلاعب بالبيانات، بل يجب أن تضمن من خلال الآليات الأساسية القابلية للتحقق من نتائج الذكاء الاصطناعي والتوافق. من خلال دمج بيئات التنفيذ الموثوقة (TEE)، وإثباتات المعرفة الصفرية (ZK)، وحسابات الأمان المتعددة الأطراف (MPC) وغيرها من التقنيات المتقدمة، يمكن للمنصة أن تجعل كل عملية استنتاج للنموذج، وتدريب، ومعالجة البيانات قابلة للتحقق بشكل مستقل، مما يضمن عدالة وشفافية نظام الذكاء الاصطناعي. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم منطق وأساسيات مخرجات الذكاء الاصطناعي، مما يحقق "ما تحصل عليه هو ما تريده"، ويزيد من ثقة المستخدمين ورضاهم عن منتجات الذكاء الاصطناعي.
حماية خصوصية البيانات
تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات حساسة للمستخدمين، وفي مجالات مثل المالية والطب والتواصل الاجتماعي، تكون حماية خصوصية البيانات أمرًا بالغ الأهمية. يجب أن يتبنى AI Layer 1 تقنيات معالجة البيانات القائمة على التشفير، وبروتوكولات حساب الخصوصية، وإدارة صلاحيات البيانات، مع ضمان القابلية للتحقق، لضمان أمان البيانات في جميع مراحل الاستدلال والتدريب والتخزين، مما يمنع بشكل فعال تسرب البيانات وإساءة استخدامها، ويقضي على مخاوف المستخدمين بشأن أمان البيانات.
القدرة القوية على دعم وتطوير النظام البيئي كالبنية التحتية Layer 1 الأصلية للذكاء الاصطناعي، يجب أن تتمتع المنصة ليس فقط بالريادة التقنية ولكن أيضًا بتوفير أدوات تطوير شاملة، وSDK متكامل، ودعم العمليات، وآليات تحفيز لمختلف المشاركين في النظام البيئي مثل المطورين، ومشغلي العقد، ومقدمي خدمات الذكاء الاصطناعي. من خلال تحسين مستمر لسهولة استخدام المنصة وتجربة المطورين، يتم تعزيز تطبيقات الذكاء الاصطناعي الأصلية المتنوعة، وتحقيق الازدهار المستدام للنظام البيئي للذكاء الاصطناعي اللامركزي.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقدم هذه المقالة نظرة مفصلة على ستة من مشاريع AI Layer1 الرائدة، بما في ذلك Sentient وSahara AI وRitual وGensyn وBittensor و0G، حيث سيتم تنظيم أحدث التطورات في هذا المجال، وتحليل الوضع الحالي للمشاريع، ومناقشة الاتجاهات المستقبلية.
Sentient: بناء نموذج الذكاء الاصطناعي اللامركزي مفتوح المصدر المخلص
نظرة عامة على المشروع
Sentient هو منصة بروتوكول مفتوحة المصدر، تعمل على إنشاء سلسلة بلوكتشين Layer1 للذكاء الاصطناعي ( في المرحلة الأولية كـ Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج خط أنابيب الذكاء الاصطناعي وتقنية البلوكتشين، لبناء اقتصاد ذكاء اصطناعي لامركزي. الهدف الرئيسي هو حل قضايا ملكية النموذج، تتبع الاستدعاء وتوزيع القيمة في سوق LLM المركزي من خلال إطار "OML" (مفتوح، مربح، مخلص) مما يجعل نماذج الذكاء الاصطناعي تحقق هيكل ملكية داخل السلسلة، تتبع شفاف وتوزيع قيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، الملكية وتسييل منتجات الذكاء الاصطناعي، مما يعزز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال البلوكشين من جميع أنحاء العالم، ملتزمين بإنشاء منصة AGI مدفوعة من المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور في جامعة برينستون برامود فيسواناث والبروفيسور في المعهد الهندي للعلوم هيمانشو تياغي، المسؤولين على التوالي عن أمان الذكاء الاصطناعي وحماية الخصوصية، بينما يقود الاستراتيجية البيئية والبلوكشين المؤسس المشارك لـ Polygon سانديب نايلوال. تتنوع خلفيات أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، فضلاً عن الجامعات الرائدة مثل جامعة برينستون والمعهد الهندي للتكنولوجيا، مما يغطي مجالات الذكاء الاصطناعي/تعلم الآلة، ومعالجة اللغة الطبيعية، ورؤية الكمبيوتر، للعمل معًا لدفع المشروع إلى الأمام.
كمشروع ريادي ثانٍ لمؤسس Polygon Sandeep Nailwal، جاءت Sentient منذ بدايتها مع هالة قوية، حيث تمتلك موارد وفيرة، وشبكات علاقات، ووعي سوقي كبير، مما يوفر دعمًا قويًا لتطوير المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل أولية بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عدد من المؤسسات الاستثمارية الأخرى مثل Delphi وHashkey وSpartan وغيرها من الشركات الاستثمارية المعروفة.
تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
البنية الأساسية
يتكون الهيكل الأساسي لـ Sentient من جزئين: نظام أنابيب الذكاء الاصطناعي (AI Pipeline) وداخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتحتوي على عمليتين أساسيتين:
تخطيط البيانات (Data Curation): عملية اختيار البيانات المدفوعة من قبل المجتمع، تستخدم لمواءمة النموذج.
تدريب الولاء (Loyalty Training): ضمان استمرار النموذج في عملية تدريب تتماشى مع نوايا المجتمع.
يوفر نظام البلوكشين الشفافية والتحكم اللامركزي للبروتوكولات، مما يضمن ملكية وتتبّع استخدام و توزيع العوائد وحوكمة عادلة للأدوات الذكية. الهيكل المحدد مقسم إلى أربع طبقات:
طبقة التخزين: تخزين أوزان النموذج ومعلومات تسجيل بصمة الإصبع؛
طبقة التوزيع: نموذج التحكم في مدخل استدعاء العقد المصرح به؛
طبقة الوصول: من خلال إثبات الأذونات للتحقق مما إذا كان المستخدم مخولًا؛
طبقة التحفيز: ستقوم عقود توزيع العائدات بتوزيع الدفعات في كل استدعاء على المدربين والمطورين والمتحققين.
إطار نموذج OML
إطار OML (مفتوح Open، قابل للت Monetizable، ولاء Loyal) هو المفهوم الأساسي الذي اقترحه Sentient، ويهدف إلى توفير حماية ملكية واضحة وآليات حوافز اقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال دمج تقنية داخل السلسلة والتشفير الأصلي للذكاء الاصطناعي، يتمتع بالخصائص التالية:
الانفتاح: يجب أن يكون النموذج مفتوح المصدر، ويجب أن تكون الشفرة وبنية البيانات شفافة، مما يسهل على المجتمع إعادة إنتاجها وتدقيقها وتحسينها.
التسييل: كل استدعاء لنموذج سيؤدي إلى تنشيط تدفق الإيرادات، حيث ستقوم العقود داخل السلسلة بتوزيع الإيرادات على المتدربين، والموزعين، والمحققين.
الولاء: النموذج ينتمي إلى مجتمع المساهمين، اتجاه الترقية والحكم يحدده DAO، الاستخدام والتعديل خاضعان لسيطرة الآلية التشفيرية.
تشفير أصلي بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وهيكل متنوع الأبعاد المنخفضة وخصائص النماذج القابلة للاشتقاق، لتطوير آلية أمان خفيفة "يمكن التحقق منها ولكن لا يمكن إزالتها". التقنية الأساسية هي:
إدراج بصمة: إدخال مجموعة من أزواج المفاتيح القابلة للاستجابة المخفية أثناء التدريب لتشكيل توقيع فريد للنموذج؛
بروتوكول التحقق من الملكية: التحقق مما إذا كانت بصمة الأصابع محفوظة من خلال كاشف طرف ثالث (Prover) على شكل استعلام.
آلية استدعاء الإذن: يجب الحصول على "شهادة التفويض" الصادرة عن مالك النموذج قبل الاستدعاء، ثم يمنح النظام الإذن للنموذج لفك تشفير هذا الإدخال وإرجاع الإجابة الدقيقة.
يمكن تحقيق "استدعاء التفويض القائم على السلوك + التحقق من الملكية" بهذه الطريقة دون تكاليف إعادة التشفير.
إطار تأكيد النموذج والتنفيذ الآمن
Sentient تستخدم حاليًا مزيجًا من الأمان Melange: التحقق باستخدام بصمة الإصبع، تنفيذ TEE، وتقاسم الأرباح من العقود داخل السلسلة. حيث تعتبر طريقة بصمة الإصبع هي الخط الرئيسي الذي تم تنفيذه من OML 1.0، مع التأكيد على مفهوم "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، مع إمكانية الكشف والعقوبة في حالة المخالفة.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث إنها من خلال تضمين "أسئلة-أجوبة" محددة، تسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالكي النموذج التحقق من الملكية، ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلات قابلة للتتبع داخل السلسلة لسلوك استخدام النموذج.
علاوة على ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، الذي يستخدم بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول غير المصرح به واستخدامه. على الرغم من أن TEE يعتمد على الأجهزة ويحتوي على بعض المخاطر الأمنية، إلا أن مزاياه من حيث الأداء العالي والوقت الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
في المستقبل، تخطط Sentient لإدخال تقنيات إثبات المعرفة الصفرية (ZK) والتشفير المتجانس بالكامل (FHE)، لتعزيز حماية الخصوصية وقابلية التحقق، وتقديم حلول أكثر نضجًا لنشر نماذج الذكاء الاصطناعي بشكل لامركزي.
، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
مشهد سباق Layer1 للذكاء الاصطناعي: صراع البنية التحتية للذكاء الاصطناعي اللامركزي
تقرير بحثي عن AI Layer1: البحث عن تربة DeAI داخل السلسلة
نظرة عامة
الخلفية
في السنوات الأخيرة، تواصل الشركات التكنولوجيا الكبرى مثل OpenAI وAnthropic وGoogle وMeta دفع التطور السريع لنماذج اللغة الكبيرة (LLM). تظهر LLM قدرات غير مسبوقة في جميع الصناعات، مما يوسع بشكل كبير من خيال البشرية، وحتى في بعض السيناريوهات تظهر إمكانيات استبدال العمل البشري. ومع ذلك، فإن جوهر هذه التقنيات محصور في أيدي عدد قليل من عمالقة التكنولوجيا المركزية. بفضل رأس المال الضخم والتحكم في موارد الحساب باهظة الثمن، أنشأت هذه الشركات حواجز يصعب تجاوزها، مما يجعل الغالبية العظمى من المطورين وفرق الابتكار صعبة المنافسة.
في الوقت نفسه، في المراحل الأولى من التطور السريع للذكاء الاصطناعي، غالبًا ما تركز الرأي العام على الاختراقات والراحة التي تقدمها التكنولوجيا، بينما تظل القضايا الأساسية مثل حماية الخصوصية، والشفافية، والأمان في حالة من التجاهل النسبي. على المدى الطويل، ستؤثر هذه القضايا بشكل عميق على التنمية الصحية لصناعة الذكاء الاصطناعي وقبول المجتمع لها. إذا لم يتم حلها بشكل مناسب، ستصبح الجدل حول "الذكاء الاصطناعي نحو الخير" أو "نحو الشر" أكثر وضوحًا، بينما تفتقر الشركات العملاقة المركزية، مدفوعة بغريزة الربح، إلى الدافع الكافي لمواجهة هذه التحديات بشكل استباقي.
تتيح تقنية داخل السلسلة، بفضل خصائصها اللامركزية والشفافة والمقاومة للرقابة، إمكانيات جديدة للتنمية المستدامة في صناعة الذكاء الاصطناعي. حالياً، ظهرت العديد من تطبيقات "Web3 AI" على بعض السلاسل الرئيسية. ولكن عند التحليل المتعمق، يمكن أن نرى أن هذه المشاريع لا تزال تواجه العديد من المشكلات: من ناحية، مستوى اللامركزية محدود، حيث لا تزال العناصر الأساسية والبنية التحتية تعتمد على خدمات السحابة المركزية، مما يجعل من الصعب دعم نظام بيئي مفتوح بمعناه الحقيقي؛ ومن ناحية أخرى، مقارنةً بمنتجات الذكاء الاصطناعي في عالم Web2، فإن الذكاء الاصطناعي داخل السلسلة لا يزال محدوداً من حيث قدرة النموذج، واستخدام البيانات، وسيناريوهات التطبيق، مما يتطلب تحسين عمق الابتكار ونطاقه.
لتحقيق رؤية الذكاء الاصطناعي اللامركزي حقًا، وتوفير القدرة على دعم تطبيقات الذكاء الاصطناعي الكبيرة بشكل آمن وفعال وديمقراطي بواسطة البلوكشين، ومنافسة الحلول المركزية من حيث الأداء، نحتاج إلى تصميم بلوكشين Layer1 مصمم خصيصًا للذكاء الاصطناعي. سيوفر هذا أساسًا قويًا للابتكار المفتوح في الذكاء الاصطناعي، والديمقراطية في الحوكمة، وأمان البيانات، مما يعزز ازدهار النظام البيئي للذكاء الاصطناعي اللامركزي.
الخصائص الأساسية للطبقة الأولى للذكاء الاصطناعي
تعتبر AI Layer 1 سلسلة كتل مصممة خصيصًا لتطبيقات الذكاء الاصطناعي، حيث يتمحور تصميم بنيتها الأساسية وأدائها حول متطلبات مهام الذكاء الاصطناعي، بهدف دعم التنمية المستدامة والازدهار البيئي للذكاء الاصطناعي داخل السلسلة بكفاءة. على وجه التحديد، يجب أن تتمتع AI Layer 1 بالقدرات الأساسية التالية:
آلية التحفيز الفعالة وآلية التوافق اللامركزية. تكمن جوهر AI Layer 1 في بناء شبكة مفتوحة لمشاركة الموارد مثل القدرة الحاسوبية، والتخزين، وما إلى ذلك. على عكس العقد التقليدية في داخل السلسلة التي تركز بشكل رئيسي على تسجيل دفتر الحسابات، تحتاج عقد AI Layer 1 إلى تحمل مهام أكثر تعقيدًا، حيث يتعين عليها توفير القدرة الحاسوبية، وإكمال تدريب ونمذجة الذكاء الاصطناعي، بالإضافة إلى المساهمة في التخزين، والبيانات، وعرض النطاق الترددي، والموارد المتنوعة الأخرى، وبالتالي كسر احتكار الشركات المركزية في البنية التحتية للذكاء الاصطناعي. يطرح هذا متطلبات أعلى على آلية التوافق وآلية التحفيز الأساسية: يجب أن تكون AI Layer 1 قادرة على تقييم، وتحفيز، والتحقق بدقة من المساهمات الفعلية للعقد في مهام الاستدلال والتدريب للذكاء الاصطناعي، لتحقيق أمان الشبكة وتوزيع الموارد بشكل فعال. فقط من خلال ذلك يمكن ضمان استقرار الشبكة وازدهارها، وتقليل تكلفة القدرة الحاسوبية بشكل فعال.
أداء عالي متميز وقدرة دعم المهام المتغايرة مهام الذكاء الاصطناعي، وخاصة تدريب واستدلال نماذج اللغة الكبيرة، تتطلب متطلبات عالية من حيث الأداء الحاسوبي وقدرة المعالجة المتوازية. علاوة على ذلك، غالبًا ما يتطلب النظام البيئي للذكاء الاصطناعي داخل السلسلة دعمًا لمجموعة متنوعة من أنواع المهام المتغايرة، بما في ذلك هياكل نماذج مختلفة، ومعالجة البيانات، والاستدلال، والتخزين، وغيرها من السيناريوهات المتعددة. يجب أن يتم تحسين الطبقة الأولى للذكاء الاصطناعي بعمق في الهيكل الأساسي لتلبية احتياجات الإنتاجية العالية، والكمون المنخفض، والمعالجة المتوازية المرنة، مع توفير دعم أصلي للموارد الحاسوبية المتغايرة، لضمان تنفيذ جميع مهام الذكاء الاصطناعي بكفاءة، وتحقيق التوسع السلس من "مهام فردية" إلى "نظام بيئي معقد متعدد الجوانب".
القابلية للتحقق وضمان المخرجات الموثوقة لا يجب أن تمنع طبقة الذكاء الاصطناعي 1 من مخاطر الأمان مثل سوء استخدام النماذج، والتلاعب بالبيانات، بل يجب أن تضمن من خلال الآليات الأساسية القابلية للتحقق من نتائج الذكاء الاصطناعي والتوافق. من خلال دمج بيئات التنفيذ الموثوقة (TEE)، وإثباتات المعرفة الصفرية (ZK)، وحسابات الأمان المتعددة الأطراف (MPC) وغيرها من التقنيات المتقدمة، يمكن للمنصة أن تجعل كل عملية استنتاج للنموذج، وتدريب، ومعالجة البيانات قابلة للتحقق بشكل مستقل، مما يضمن عدالة وشفافية نظام الذكاء الاصطناعي. في الوقت نفسه، يمكن أن تساعد هذه القابلية للتحقق المستخدمين على فهم منطق وأساسيات مخرجات الذكاء الاصطناعي، مما يحقق "ما تحصل عليه هو ما تريده"، ويزيد من ثقة المستخدمين ورضاهم عن منتجات الذكاء الاصطناعي.
حماية خصوصية البيانات
تتعلق تطبيقات الذكاء الاصطناعي غالبًا ببيانات حساسة للمستخدمين، وفي مجالات مثل المالية والطب والتواصل الاجتماعي، تكون حماية خصوصية البيانات أمرًا بالغ الأهمية. يجب أن يتبنى AI Layer 1 تقنيات معالجة البيانات القائمة على التشفير، وبروتوكولات حساب الخصوصية، وإدارة صلاحيات البيانات، مع ضمان القابلية للتحقق، لضمان أمان البيانات في جميع مراحل الاستدلال والتدريب والتخزين، مما يمنع بشكل فعال تسرب البيانات وإساءة استخدامها، ويقضي على مخاوف المستخدمين بشأن أمان البيانات.
استنادًا إلى الخلفية والتوقعات المذكورة أعلاه، ستقدم هذه المقالة نظرة مفصلة على ستة من مشاريع AI Layer1 الرائدة، بما في ذلك Sentient وSahara AI وRitual وGensyn وBittensor و0G، حيث سيتم تنظيم أحدث التطورات في هذا المجال، وتحليل الوضع الحالي للمشاريع، ومناقشة الاتجاهات المستقبلية.
Sentient: بناء نموذج الذكاء الاصطناعي اللامركزي مفتوح المصدر المخلص
نظرة عامة على المشروع
Sentient هو منصة بروتوكول مفتوحة المصدر، تعمل على إنشاء سلسلة بلوكتشين Layer1 للذكاء الاصطناعي ( في المرحلة الأولية كـ Layer 2، ثم ستنتقل إلى Layer 1)، من خلال دمج خط أنابيب الذكاء الاصطناعي وتقنية البلوكتشين، لبناء اقتصاد ذكاء اصطناعي لامركزي. الهدف الرئيسي هو حل قضايا ملكية النموذج، تتبع الاستدعاء وتوزيع القيمة في سوق LLM المركزي من خلال إطار "OML" (مفتوح، مربح، مخلص) مما يجعل نماذج الذكاء الاصطناعي تحقق هيكل ملكية داخل السلسلة، تتبع شفاف وتوزيع قيمة. رؤية Sentient هي تمكين أي شخص من بناء، التعاون، الملكية وتسييل منتجات الذكاء الاصطناعي، مما يعزز شبكة بيئية عادلة ومفتوحة لوكلاء الذكاء الاصطناعي.
تجمع فريق Sentient Foundation أفضل الخبراء الأكاديميين ورواد الأعمال والمهندسين في مجال البلوكشين من جميع أنحاء العالم، ملتزمين بإنشاء منصة AGI مدفوعة من المجتمع ومفتوحة المصدر وقابلة للتحقق. تشمل الأعضاء الرئيسيين البروفيسور في جامعة برينستون برامود فيسواناث والبروفيسور في المعهد الهندي للعلوم هيمانشو تياغي، المسؤولين على التوالي عن أمان الذكاء الاصطناعي وحماية الخصوصية، بينما يقود الاستراتيجية البيئية والبلوكشين المؤسس المشارك لـ Polygon سانديب نايلوال. تتنوع خلفيات أعضاء الفريق عبر شركات معروفة مثل Meta وCoinbase وPolygon، فضلاً عن الجامعات الرائدة مثل جامعة برينستون والمعهد الهندي للتكنولوجيا، مما يغطي مجالات الذكاء الاصطناعي/تعلم الآلة، ومعالجة اللغة الطبيعية، ورؤية الكمبيوتر، للعمل معًا لدفع المشروع إلى الأمام.
كمشروع ريادي ثانٍ لمؤسس Polygon Sandeep Nailwal، جاءت Sentient منذ بدايتها مع هالة قوية، حيث تمتلك موارد وفيرة، وشبكات علاقات، ووعي سوقي كبير، مما يوفر دعمًا قويًا لتطوير المشروع. في منتصف عام 2024، أكملت Sentient جولة تمويل أولية بقيمة 85 مليون دولار، بقيادة Founders Fund وPantera وFramework Ventures، بالإضافة إلى عدد من المؤسسات الاستثمارية الأخرى مثل Delphi وHashkey وSpartan وغيرها من الشركات الاستثمارية المعروفة.
تصميم الهيكل والطبقة التطبيقية
طبقة البنية التحتية
البنية الأساسية
يتكون الهيكل الأساسي لـ Sentient من جزئين: نظام أنابيب الذكاء الاصطناعي (AI Pipeline) وداخل السلسلة.
أنابيب الذكاء الاصطناعي هي الأساس لتطوير وتدريب "الذكاء الاصطناعي المخلص"، وتحتوي على عمليتين أساسيتين:
يوفر نظام البلوكشين الشفافية والتحكم اللامركزي للبروتوكولات، مما يضمن ملكية وتتبّع استخدام و توزيع العوائد وحوكمة عادلة للأدوات الذكية. الهيكل المحدد مقسم إلى أربع طبقات:
إطار نموذج OML
إطار OML (مفتوح Open، قابل للت Monetizable، ولاء Loyal) هو المفهوم الأساسي الذي اقترحه Sentient، ويهدف إلى توفير حماية ملكية واضحة وآليات حوافز اقتصادية لنماذج الذكاء الاصطناعي مفتوحة المصدر. من خلال دمج تقنية داخل السلسلة والتشفير الأصلي للذكاء الاصطناعي، يتمتع بالخصائص التالية:
تشفير أصلي بالذكاء الاصطناعي (AI-native Cryptography)
تشفير أصلي بالذكاء الاصطناعي هو استخدام استمرارية نماذج الذكاء الاصطناعي، وهيكل متنوع الأبعاد المنخفضة وخصائص النماذج القابلة للاشتقاق، لتطوير آلية أمان خفيفة "يمكن التحقق منها ولكن لا يمكن إزالتها". التقنية الأساسية هي:
يمكن تحقيق "استدعاء التفويض القائم على السلوك + التحقق من الملكية" بهذه الطريقة دون تكاليف إعادة التشفير.
إطار تأكيد النموذج والتنفيذ الآمن
Sentient تستخدم حاليًا مزيجًا من الأمان Melange: التحقق باستخدام بصمة الإصبع، تنفيذ TEE، وتقاسم الأرباح من العقود داخل السلسلة. حيث تعتبر طريقة بصمة الإصبع هي الخط الرئيسي الذي تم تنفيذه من OML 1.0، مع التأكيد على مفهوم "الأمان المتفائل (Optimistic Security)", أي الافتراض بالامتثال، مع إمكانية الكشف والعقوبة في حالة المخالفة.
آلية بصمة الإصبع هي التنفيذ الرئيسي لـ OML، حيث إنها من خلال تضمين "أسئلة-أجوبة" محددة، تسمح للنموذج بإنشاء توقيع فريد خلال مرحلة التدريب. من خلال هذه التوقيعات، يمكن لمالكي النموذج التحقق من الملكية، ومنع النسخ غير المصرح به والتجارية. لا تحمي هذه الآلية حقوق مطوري النموذج فحسب، بل توفر أيضًا سجلات قابلة للتتبع داخل السلسلة لسلوك استخدام النموذج.
علاوة على ذلك، أطلقت Sentient إطار عمل Enclave TEE للحوسبة، الذي يستخدم بيئات التنفيذ الموثوقة (مثل AWS Nitro Enclaves) لضمان أن النموذج يستجيب فقط للطلبات المصرح بها، مما يمنع الوصول غير المصرح به واستخدامه. على الرغم من أن TEE يعتمد على الأجهزة ويحتوي على بعض المخاطر الأمنية، إلا أن مزاياه من حيث الأداء العالي والوقت الحقيقي تجعل منه التقنية الأساسية لنشر النماذج الحالية.
في المستقبل، تخطط Sentient لإدخال تقنيات إثبات المعرفة الصفرية (ZK) والتشفير المتجانس بالكامل (FHE)، لتعزيز حماية الخصوصية وقابلية التحقق، وتقديم حلول أكثر نضجًا لنشر نماذج الذكاء الاصطناعي بشكل لامركزي.
![Biteye و PANews يصدران تقرير بحثي عن AI Layer1: البحث عن الأراضي الخصبة لـ DeAI داخل السلسلة](