TinyLlama 1.1B Chat
نموذج صغير ومنخفض التكلفة للتجارب السريعة ووكلاء الدردشة الخفيفة.
ما هو النموذج
`TinyLlama/TinyLlama-1.1B-Chat-v1.0` نموذج صغير بحجم 1.1B موجه للاستدلال السريع منخفض التكلفة.
ماذا يفعل
- إجابات قصيرة وسريعة.
- حالات PoC واختبارات الفرضيات.
- مساعدات داخلية لا تتطلب جودة لغوية عالية.
مقارنة سريعة
- أقل جودة من نماذج 7B/13B، لكنه أسرع وأرخص.
أفضل استخدام على DCP
- Prototype سريع.
- مهام بسيطة: تصنيف، إعادة صياغة قصيرة، تعليمات محدودة.
متطلبات العتاد
- الحد الأدنى العملي: `4 GB VRAM`.
- GPU مناسب: `RTX 3060` أو `RTX 3090`.
التشغيل على DCP
- قالب موصى به: `ollama`
- معرف النموذج:
TinyLlama/TinyLlama-1.1B-Chat-v1.0- مثال طلب API:
{
"job_type": "llm-inference",
"params": {
"model": "TinyLlama/TinyLlama-.1B-Chat-v1.",
"prompt": "اكتب ملخصًا من سطرين عن الحوسبة السحابية"
}
}الترخيص والاستخدام التجاري
- الترخيص: `Apache 2.0`.
- الاستخدام التجاري: مسموح ضمن شروط الترخيص.