|
import openai |
|
import random |
|
from datasets import load_dataset, Dataset |
|
import argparse |
|
import os |
|
import json |
|
|
|
|
|
parser = argparse.ArgumentParser(description='Extract keywords from a Huggingface dataset using ChatGPT.') |
|
parser.add_argument('--split', default="train", required=False) |
|
parser.add_argument('--input_dataset', required=True, help='Path to the input dataset in Huggingface format') |
|
parser.add_argument('--output_dir', required=True, help='Path to save the new data with extracted keywords') |
|
parser.add_argument('--num_samples', type=int, default=1000, help='Number of random samples to use') |
|
args = parser.parse_args() |
|
|
|
|
|
dataset = load_dataset(args.input_dataset) |
|
|
|
|
|
|
|
train_data = dataset[args.split] |
|
|
|
|
|
|
|
|
|
random_sample = train_data.shuffle().select(range(args.num_samples)) |
|
|
|
|
|
openai.api_key = os.getenv('OPENAI_API_KEY') |
|
|
|
|
|
def get_keywords(heading, leadin, text): |
|
response = openai.ChatCompletion.create( |
|
model="gpt-3.5-turbo", |
|
messages=[ |
|
{ |
|
"role": "system", |
|
"content": "Sa oled AI ekspert, kes oskab leida tekstist olulised märksõnad, mis aitavad aru saada teksti sisust.\nSinu poolt leitud märksõnad võivad olla ka märksõnafraasid ja kõige olulisemad nimed. Märksõnad peaksid olema atomaarsed ja algvormis (näiteks \"Poola\", mitte \"Poolas\"), ja mitte liiga üldised. Pööra tähelepanu, et märksõnafraasid oleksid kindlasti grammatiliselt korrektsed!! Nimede puhul väljasta kindlasti ka eesnimi!! Ära võta märksõnu ainult esimesest lausest, vaid ka loe muud teksti. Väljasta kuni 5 kõige olulisemat (aga võib ka vähem), kasutades JSON listi, näiteks: [\"märksõna1\", \"Jaanus Tamm\", \"mitmesõnaline fraas\"]. Pane olulisemad märksõnad ettepoole." |
|
}, |
|
{ |
|
"role": "user", |
|
"content": f"{leadin}\n{text}" |
|
}, |
|
], |
|
temperature=0, |
|
max_tokens=256, |
|
top_p=1, |
|
frequency_penalty=0, |
|
presence_penalty=0 |
|
) |
|
|
|
return json.loads(response.choices[0]["message"]["content"].strip() |
|
) |
|
|
|
|
|
|
|
extracted_data = [] |
|
for item in random_sample: |
|
try: |
|
keywords = get_keywords(item["heading"], item["leadin"], item["text"]) |
|
keywords = keywords[0:5] |
|
extracted_data.append({"url": item["url"], "heading": item["heading"], "leadin":item["leadin"], "text": item["text"], "keywords": keywords}) |
|
except Exception as e: |
|
print(f"Failed to extract keywords for {item['url']}: {e}") |
|
|
|
|
|
|
|
new_dataset = Dataset.from_list(extracted_data) |
|
|
|
os.makedirs(args.output_dir, exist_ok=True) |
|
new_dataset.to_json(f"{args.output_dir}/{args.split}.json") |
|
|
|
|
|
|