--- base_model: LiquidAI/LFM2-350M library_name: transformers model_name: lfm2-sft-summary tags: - generated_from_trainer - sft - trl licence: license datasets: - oddadmix/arabic-news-summarization language: - ar --- # 📝 نموذج التلخيص العربي هذا المشروع يقدّم نموذج **تلخيص نصوص باللغة العربية** مبني على النموذج الأساسي [LiquidAI/LFM2-350M](https://huggingface.co/LiquidAI/LFM2-350M)، وتمت إعادة تدريبه (Fine-tuning) على **مجموعة بيانات مكوّنة من 17,000 سجل** لتلخيص النصوص بدقة وكفاءة عالية. --- ## ⚡ المميزات * ✅ أداء قوي جدًا في تلخيص النصوص العربية. * ✅ يحافظ على المعنى العام للنص مع اختصار الحجم. * ✅ يمكن استخدامه في تلخيص المقالات، الأخبار، الأبحاث، والمستندات الطويلة. * ✅ مبني على نموذج قوي مفتوح المصدر مع إعادة ضبط دقيقة (Fine-tuning). --- ## 🛠️ البيانات تم تدريب النموذج باستخدام **17,000 صف** من البيانات عالية الجودة التي تحتوي على نصوص عربية وأهداف التلخيص المقابلة لها. هذا ساعد في تحسين دقة النموذج وجعله قادرًا على إنتاج **ملخصات متماسكة وسلسة**. --- ## 🚀 كيفية الاستخدام ```python from transformers import AutoModelForSeq2SeqLM, AutoTokenizer # تحميل النموذج والمحول model_name = "اسم-المستخدم/arabic-summarization-model" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForSeq2SeqLM.from_pretrained(model_name) # إدخال نص للتلخيص text = """النص العربي المراد تلخيصه ...""" inputs = tokenizer(text, return_tensors="pt", max_length=1024, truncation=True) summary_ids = model.generate(inputs["input_ids"], max_length=150, min_length=40, length_penalty=2.0, num_beams=4) # عرض الملخص print(tokenizer.decode(summary_ids[0], skip_special_tokens=True)) ``` --- ## 📊 الأداء النموذج أظهر نتائج ممتازة في التجارب الداخلية على مقاييس **الدقة، التماسك، والمحافظة على المعنى**. أداؤه يُعتبر **جيد جدًا مقارنة بالنماذج المشابهة** في مجال تلخيص النصوص العربية. --- ## 📌 ملاحظات * النموذج ما زال قابلًا للتطوير عبر تدريبه على بيانات إضافية. * يُفضّل استخدامه مع نصوص عربية فصيحة، مع أنه يعمل بشكل جيد أيضًا مع بعض اللهجات.