TinyLlama 1.1B Chat

نموذج صغير ومنخفض التكلفة للتجارب السريعة ووكلاء الدردشة الخفيفة.

ما هو النموذج

`TinyLlama/TinyLlama-1.1B-Chat-v1.0` نموذج صغير بحجم 1.1B موجه للاستدلال السريع منخفض التكلفة.

ماذا يفعل

  • إجابات قصيرة وسريعة.
  • حالات PoC واختبارات الفرضيات.
  • مساعدات داخلية لا تتطلب جودة لغوية عالية.

مقارنة سريعة

  • أقل جودة من نماذج 7B/13B، لكنه أسرع وأرخص.

أفضل استخدام على DCP

  • Prototype سريع.
  • مهام بسيطة: تصنيف، إعادة صياغة قصيرة، تعليمات محدودة.

متطلبات العتاد

  • الحد الأدنى العملي: `4 GB VRAM`.
  • GPU مناسب: `RTX 3060` أو `RTX 3090`.

التشغيل على DCP

  • قالب موصى به: `ollama`
  • معرف النموذج:
TinyLlama/TinyLlama-1.1B-Chat-v1.0
  • مثال طلب API:
{
  "job_type": "llm-inference",
  "params": {
    "model": "TinyLlama/TinyLlama-.1B-Chat-v1.",
    "prompt": "اكتب ملخصًا من سطرين عن الحوسبة السحابية"
  }
}

الترخيص والاستخدام التجاري

  • الترخيص: `Apache 2.0`.
  • الاستخدام التجاري: مسموح ضمن شروط الترخيص.