oddadmix's picture
Update README.md
e50ae6d verified
---
base_model: LiquidAI/LFM2-350M
library_name: transformers
model_name: lfm2-sft-summary
tags:
- generated_from_trainer
- sft
- trl
licence: license
datasets:
- oddadmix/arabic-news-summarization
language:
- ar
---
# 📝 نموذج التلخيص العربي
هذا المشروع يقدّم نموذج **تلخيص نصوص باللغة العربية** مبني على النموذج الأساسي [LiquidAI/LFM2-350M](https://huggingface.co/LiquidAI/LFM2-350M)، وتمت إعادة تدريبه (Fine-tuning) على **مجموعة بيانات مكوّنة من 17,000 سجل** لتلخيص النصوص بدقة وكفاءة عالية.
---
## ⚡ المميزات
* ✅ أداء قوي جدًا في تلخيص النصوص العربية.
* ✅ يحافظ على المعنى العام للنص مع اختصار الحجم.
* ✅ يمكن استخدامه في تلخيص المقالات، الأخبار، الأبحاث، والمستندات الطويلة.
* ✅ مبني على نموذج قوي مفتوح المصدر مع إعادة ضبط دقيقة (Fine-tuning).
---
## 🛠️ البيانات
تم تدريب النموذج باستخدام **17,000 صف** من البيانات عالية الجودة التي تحتوي على نصوص عربية وأهداف التلخيص المقابلة لها.
هذا ساعد في تحسين دقة النموذج وجعله قادرًا على إنتاج **ملخصات متماسكة وسلسة**.
---
## 🚀 كيفية الاستخدام
```python
from transformers import AutoModelForSeq2SeqLM, AutoTokenizer
# تحميل النموذج والمحول
model_name = "اسم-المستخدم/arabic-summarization-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
# إدخال نص للتلخيص
text = """النص العربي المراد تلخيصه ..."""
inputs = tokenizer(text, return_tensors="pt", max_length=1024, truncation=True)
summary_ids = model.generate(inputs["input_ids"], max_length=150, min_length=40, length_penalty=2.0, num_beams=4)
# عرض الملخص
print(tokenizer.decode(summary_ids[0], skip_special_tokens=True))
```
---
## 📊 الأداء
النموذج أظهر نتائج ممتازة في التجارب الداخلية على مقاييس **الدقة، التماسك، والمحافظة على المعنى**.
أداؤه يُعتبر **جيد جدًا مقارنة بالنماذج المشابهة** في مجال تلخيص النصوص العربية.
---
## 📌 ملاحظات
* النموذج ما زال قابلًا للتطوير عبر تدريبه على بيانات إضافية.
* يُفضّل استخدامه مع نصوص عربية فصيحة، مع أنه يعمل بشكل جيد أيضًا مع بعض اللهجات.