munish0838 commited on
Commit
485f828
·
verified ·
1 Parent(s): 476f333

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +77 -0
README.md ADDED
@@ -0,0 +1,77 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - sv
4
+ - da
5
+ - 'no'
6
+ tags:
7
+ - pytorch
8
+ - llama
9
+ - llama-3
10
+ - ai-sweden
11
+ base_model: AI-Sweden-Models/Llama-3-8B
12
+ pipeline_tag: text-generation
13
+ inference:
14
+ parameters:
15
+ temperature: 0.6
16
+
17
+ ---
18
+
19
+ # QuantFactory/AI-Sweden-Llama-3-8B-GGUF (checkpoint-11525)
20
+ This is quantized vresion of [AI-Sweden-Models/Llama-3-8B](https://huggingface.co/AI-Sweden-Models/Llama-3-8B) created suing llama.cpp
21
+
22
+ # Model Description
23
+
24
+ ### Intended usage:
25
+ This is a base model, it can be finetuned to a particular use case.
26
+
27
+ [**-----> instruct version here <-----**](https://huggingface.co/AI-Sweden-Models/Llama-3-8B-instruct)
28
+
29
+ ### Use with transformers
30
+
31
+ See the snippet below for usage with Transformers:
32
+
33
+ ```python
34
+ import transformers
35
+ import torch
36
+
37
+ model_id = "AI-Sweden-Models/Llama-3-8B"
38
+
39
+ pipeline = transformers.pipeline(
40
+ task="text-generation",
41
+ model=model_id,
42
+ model_kwargs={"torch_dtype": torch.bfloat16},
43
+ device_map="auto"
44
+ )
45
+
46
+ pipeline(
47
+ text_inputs="Sommar och sol är det bästa jag vet",
48
+ max_length=128,
49
+ repetition_penalty=1.03
50
+ )
51
+ ```
52
+ ```python
53
+ >>> "Sommar och sol är det bästa jag vet!
54
+ Och nu när jag har fått lite extra semester så ska jag njuta till max av allt som våren och sommaren har att erbjuda.
55
+ Jag har redan börjat med att sitta ute på min altan och ta en kopp kaffe och läsa i tidningen, det är så skönt att bara sitta där och njuta av livet.
56
+
57
+ Ikväll blir det grillat och det ser jag fram emot!"
58
+ ```
59
+ ## Training information
60
+
61
+ `AI-Sweden-Models/Llama-3-8B` is a continuation of the pretraining process from `meta-llama/Meta-Llama-3-8B`.
62
+ It was trained on a subset from [The Nordic Pile](https://arxiv.org/abs/2303.17183) containing Swedish, Norwegian and Danish.
63
+
64
+ The training dataset consists of 227 105 079 296 tokens.
65
+
66
+ ## Benchmarks
67
+
68
+ Coming soon.
69
+
70
+ ## Checkpoints
71
+ * 03/6/2024 (11525)
72
+ * 29/5/2024 (8200)
73
+ * 26/5/2024 (6550)
74
+ * 24/5/2024 (5325)
75
+ * 22/5/2024 (3900)
76
+ * 20/5/2024 (2700)
77
+ * 13/5/2024 (1500)