File size: 1,540 Bytes
38dcdc6
 
 
 
 
 
 
 
 
 
f50b9cf
 
 
 
 
38dcdc6
f50b9cf
994b9ce
 
bc27f14
 
 
f50b9cf
 
 
 
 
e340ff1
 
f50b9cf
e340ff1
f50b9cf
e340ff1
 
f50b9cf
 
 
 
2e4196f
e340ff1
96258fc
 
8a044c2
96258fc
f50b9cf
bc27f14
 
 
 
f50b9cf
bc27f14
 
ad12092
f50b9cf
2a86343
f50b9cf
fb112c8
f50b9cf
 
 
ad12092
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
---
base_model: meta-llama/Meta-Llama-3-8B
language:
- sv
- da
- 'no'
pipeline_tag: text-generation
inference:
  parameters:
    temperature: 0.6
tags:
 - pytorch
 - llama
 - llama-3
 - ai-sweden
---

# AI-Sweden-Models/Llama-3-8B (checkpoint-1500)

### Intended usage:
This is a base model, it can be finetuned to a particular use case.

### Use with transformers

See the snippet below for usage with Transformers:

```python
import transformers
import torch

model_id = "AI-Sweden-Models/Llama-3-8B"

pipeline = transformers.pipeline(
    task="text-generation",
    model=model_id,
    model_kwargs={"torch_dtype": torch.bfloat16},
    device_map="auto"
)

pipeline(
    text_inputs="Sommar och sol är det bästa jag vet",
    max_length=128,
    repetition_penalty=1.03
)
```
```python
>>> "Sommar och sol är det bästa jag vet!
Och nu när jag har fått lite extra semester så ska jag njuta till max av allt som våren och sommaren har att erbjuda.
Jag har redan börjat med att sitta ute på min altan och ta en kopp kaffe och läsa i tidningen, det är så skönt att bara sitta där och njuta av livet.

Ikväll blir det grillat och det ser jag fram emot!"
```
## Training information

`AI-Sweden-Models/Llama-3-8B` is a continuation of the pretraining process from `meta-llama/Meta-Llama-3-8B`. It was trained on a subset from [The Nordic Pile](https://arxiv.org/abs/2303.17183) containing Swedish, Norwegian and Danish.

A total of 92 A100 GPUs were used, and roughly 250GB of data was processed.

## Benchmarks 

Coming soon.