Dicta-LM 3.0: Advancing The Frontier of Hebrew Sovereign LLMs

Dicta-LM 3.0 is a powerful open-weight collection of LLMs, trained on extensive corpora of Hebrew and English texts. The models are available for download and for unlimited use. The models set a new SOTA for their weight-class for Hebrew, both as base models and chat models.

This is the 12-billion-parameter Hybrid-SSM instruct model, with full precision (BF16), originally initialized from NVIDIA-Nemotron-Nano-12B-v2-Base.

For full details of this model please read our release blog post or the technical report.

You can view and access the full collection of base/instruct unquantized/quantized versions of DictaLM 3.0 here.

Instruction format

In order to leverage instruction fine-tuning, your prompt should be rendered using the chat template specified for this model. Most libraries deal with this automatically, so you can just let them do it.

Usage

We recommend using vLLM, but you can use Transformers as well:

Transformers


from transformers import pipeline

generator = pipeline('text-generation', model="dicta-il/DictaLM-3.0-Nemotron-12B-Instruct", trust_remote_code=True)

messages = [
    {"role": "user", "content": "איזה רוטב אהוב עליך?"},
    {"role": "assistant", "content": "טוב, אני די מחבב כמה טיפות מיץ לימון סחוט טרי. זה מוסיף בדיוק את הכמות הנכונה של טעם חמצמץ לכל מה שאני מבשל במטבח!"},
    {"role": "user", "content": "האם יש לך מתכונים למיונז?"}
]

print(generator(messages)[0]['generated_text'][-1]) # just print the last message
# {'role': 'assistant', 'content': 'בהחלט! הנה מתכון פשוט למיונז ביתי:\n\nמרכיבים:\n- 1 חלמון ביצה\n- 1 כף חומץ או מיץ לימון\n- 1 כפית מלח\n- 1 כף מים\n- 1 כוס שמן צמחי (לדוגמה, שמן חמניות או שמן צמחי)\n\nהוראות:\n1. בקערה קטנה, שברים את החלמון והחומץ או מיץ הלימון. הוסיפו את המלח והמים וטרפו עד לקבלת תערובת אחידה.\n2. בעזרת בלנדר מוט או מערבל ידני, טפטפו את השמן לאט לתערובת החלמון תוך כדי טריפה מתמדת. חשוב להוסיף את השמן בהדרגה כדי למנוע קריסה של המיונז.\n3. המשיכו להוסיף את השמן עד שכל הכמות נוספה והמיונז התגבש. אם המיונז עדיין דליל מדי, ניתן להוסיף'}

vLLM

vllm serve dicta-il/DictaLM-3.0-Nemotron-12B-Instruct --enable-auto-tool-choice --tool-call-parser hermes --trust-remote-code

And then you can access it via the openai library:

from openai import OpenAI

client = OpenAI(
    base_url="http://localhost:8000/v1",
    api_key="sk-no-key-required"
)

response = client.chat.completions.create(
    model="dicta-il/DictaLM-3.0-Nemotron-12B-Instruct",
    messages=[
        {"role": "user", "content": "Hello, how are you?"}
    ],
)

print(response.choices[0].message.content)

The model supports tool-calling, enabling integration with external tools and APIs. For example how to use the tool calling, see the vLLM documentation.

Citation

If you use this model, please cite:

@article{Shmidman2025DictaLM3,
  title={{Dicta-LM 3.0: Advancing The Frontier of Hebrew Sovereign LLMs}},
  author={Shaltiel Shmidman and Avi Shmidman and Amir DN Cohen and Moshe Koppel},
  year={2025},
  publisher={{DICTA / Jerusalem, Israel}},
  note={https://www.dicta.org.il/publications/DictaLM_3_0___Techincal_Report.pdf}
}
Downloads last month
2,937
Safetensors
Model size
12B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Collection including dicta-il/DictaLM-3.0-Nemotron-12B-Instruct