Datasets:

Modalities:
Text
Languages:
Estonian
License:
Tanel commited on
Commit
a3c0389
·
1 Parent(s): ce77f1a

Upload extract-keywords-openai.py

Browse files
Files changed (1) hide show
  1. extract-keywords-openai.py +73 -0
extract-keywords-openai.py ADDED
@@ -0,0 +1,73 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ import openai
2
+ import random
3
+ from datasets import load_dataset, Dataset
4
+ import argparse
5
+ import os
6
+ import json
7
+
8
+ # Set up command line argument parsing
9
+ parser = argparse.ArgumentParser(description='Extract keywords from a Huggingface dataset using ChatGPT.')
10
+ parser.add_argument('--split', default="train", required=False)
11
+ parser.add_argument('--input_dataset', required=True, help='Path to the input dataset in Huggingface format')
12
+ parser.add_argument('--output_dir', required=True, help='Path to save the new data with extracted keywords')
13
+ parser.add_argument('--num_samples', type=int, default=1000, help='Number of random samples to use')
14
+ args = parser.parse_args()
15
+
16
+ # Load your dataset from Huggingface datasets
17
+ dataset = load_dataset(args.input_dataset)
18
+
19
+ #breakpoint()
20
+
21
+ train_data = dataset[args.split]
22
+
23
+ #breakpoint()
24
+
25
+ # Take a random sample based on the specified number of samples
26
+ random_sample = train_data.shuffle().select(range(args.num_samples))
27
+
28
+ # Set OpenAI API key
29
+ openai.api_key = os.getenv('OPENAI_API_KEY')
30
+
31
+ # Function to get keywords from text using ChatGPT
32
+ def get_keywords(heading, leadin, text):
33
+ response = openai.ChatCompletion.create(
34
+ model="gpt-3.5-turbo",
35
+ messages=[
36
+ {
37
+ "role": "system",
38
+ "content": "Sa oled AI ekspert, kes oskab leida tekstist olulised märksõnad, mis aitavad aru saada teksti sisust.\nSinu poolt leitud märksõnad võivad olla ka märksõnafraasid ja kõige olulisemad nimed. Märksõnad peaksid olema atomaarsed ja algvormis (näiteks \"Poola\", mitte \"Poolas\"), ja mitte liiga üldised. Pööra tähelepanu, et märksõnafraasid oleksid kindlasti grammatiliselt korrektsed!! Nimede puhul väljasta kindlasti ka eesnimi!! Ära võta märksõnu ainult esimesest lausest, vaid ka loe muud teksti. Väljasta kuni 5 kõige olulisemat (aga võib ka vähem), kasutades JSON listi, näiteks: [\"märksõna1\", \"Jaanus Tamm\", \"mitmesõnaline fraas\"]. Pane olulisemad märksõnad ettepoole."
39
+ },
40
+ {
41
+ "role": "user",
42
+ "content": f"{leadin}\n{text}"
43
+ },
44
+ ],
45
+ temperature=0,
46
+ max_tokens=256,
47
+ top_p=1,
48
+ frequency_penalty=0,
49
+ presence_penalty=0
50
+ )
51
+ #breakpoint()
52
+ return json.loads(response.choices[0]["message"]["content"].strip()
53
+ )
54
+
55
+
56
+ # Extract keywords for each item in the random sample
57
+ extracted_data = []
58
+ for item in random_sample:
59
+ try:
60
+ keywords = get_keywords(item["heading"], item["leadin"], item["text"])
61
+ keywords = keywords[0:5]
62
+ extracted_data.append({"url": item["url"], "heading": item["heading"], "leadin":item["leadin"], "text": item["text"], "keywords": keywords})
63
+ except Exception as e:
64
+ print(f"Failed to extract keywords for {item['url']}: {e}")
65
+
66
+
67
+
68
+ new_dataset = Dataset.from_list(extracted_data)
69
+
70
+ os.makedirs(args.output_dir, exist_ok=True)
71
+ new_dataset.to_json(f"{args.output_dir}/{args.split}.json")
72
+
73
+