|
--- |
|
license: apache-2.0 |
|
language: |
|
- da |
|
--- |
|
# DanskGPT-tiny |
|
<img src="tiny-danskgpt.png" width="500" height="500"> |
|
|
|
DanskGPT-tiny er en 1,1 milliard parametre LLaMA baseret LLM. Træningen er en fortsættelse af [TinyLLaMA](https://huggingface.co/TinyLlama/TinyLlama-1.1B-intermediate-step-1431k-3T). |
|
|
|
Modellen er trænet på 8 milliarder tokens af dansk syntetisk tekst. |
|
|
|
Denne model er en såkaldt "foundation/completion" model, og er derfor ikke beregnet til at chatte med. |
|
|
|
## Inferens |
|
Ved brug af vLLM. |
|
|
|
``` |
|
pip install vllm |
|
``` |
|
|
|
```python |
|
from vllm import LLM, SamplingParams |
|
|
|
sampling_params = SamplingParams(temperature=0.8, top_p=0.95, max_tokens=512) |
|
llm = LLM(model="mhenrichsen/danskgpt-tiny") |
|
|
|
while True: |
|
prompt = input("Skriv: ") |
|
outputs = llm.generate(prompt, sampling_params) |
|
for output in outputs: |
|
prompt = output.prompt |
|
generated_text = output.outputs[0].text |
|
print(f"Prompt: {prompt!r}, Generated text: {generated_text!r}") |
|
|
|
``` |
|
|
|
## Brug for hjælp? |
|
Har du spørgsmål eller brug for hjælp til LLM'er eller automatisering af tekstbaserede opgaver, så kontakt mig gerne. |
|
|
|
/Mads |
|
|