الأسبوع الماضي أطلقنا c3-llamacpp، وهو حاوية لـ llama.cpp مع محمل hf سريع. هذا الأسبوع، c3-vllm. هذا يقوم بتهيئة vLLM، الزعيم النهائي لخوادم واجهة برمجة التطبيقات LLM.

FAST0.52%
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
  • أعجبني
  • 3
  • مشاركة
تعليق
0/400
UncleWhalevip
· منذ 11 س
هذا الحاوية تناسبني جميعًا ، انطلق
شاهد النسخة الأصليةرد0
TrustlessMaximalistvip
· منذ 11 س
ليس سيئًا على vllm على السلسلة
شاهد النسخة الأصليةرد0
PumpAnalystvip
· منذ 11 س
لا يمكن أن يكون هناك مطاردة السعر بشكل أعمى حتى مع المعلومات المفضلة من الناحية الفنية، كن حذرًا من أن تتحول إلى قطع الذراع.
شاهد النسخة الأصليةرد0
  • تثبيت