Datasets:

Modalities:
Text
Languages:
Estonian
License:
err-newsroom-keyphrases / extract-keywords-openai.py
Tanel's picture
Upload extract-keywords-openai.py
a3c0389
import openai
import random
from datasets import load_dataset, Dataset
import argparse
import os
import json
# Set up command line argument parsing
parser = argparse.ArgumentParser(description='Extract keywords from a Huggingface dataset using ChatGPT.')
parser.add_argument('--split', default="train", required=False)
parser.add_argument('--input_dataset', required=True, help='Path to the input dataset in Huggingface format')
parser.add_argument('--output_dir', required=True, help='Path to save the new data with extracted keywords')
parser.add_argument('--num_samples', type=int, default=1000, help='Number of random samples to use')
args = parser.parse_args()
# Load your dataset from Huggingface datasets
dataset = load_dataset(args.input_dataset)
#breakpoint()
train_data = dataset[args.split]
#breakpoint()
# Take a random sample based on the specified number of samples
random_sample = train_data.shuffle().select(range(args.num_samples))
# Set OpenAI API key
openai.api_key = os.getenv('OPENAI_API_KEY')
# Function to get keywords from text using ChatGPT
def get_keywords(heading, leadin, text):
response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{
"role": "system",
"content": "Sa oled AI ekspert, kes oskab leida tekstist olulised märksõnad, mis aitavad aru saada teksti sisust.\nSinu poolt leitud märksõnad võivad olla ka märksõnafraasid ja kõige olulisemad nimed. Märksõnad peaksid olema atomaarsed ja algvormis (näiteks \"Poola\", mitte \"Poolas\"), ja mitte liiga üldised. Pööra tähelepanu, et märksõnafraasid oleksid kindlasti grammatiliselt korrektsed!! Nimede puhul väljasta kindlasti ka eesnimi!! Ära võta märksõnu ainult esimesest lausest, vaid ka loe muud teksti. Väljasta kuni 5 kõige olulisemat (aga võib ka vähem), kasutades JSON listi, näiteks: [\"märksõna1\", \"Jaanus Tamm\", \"mitmesõnaline fraas\"]. Pane olulisemad märksõnad ettepoole."
},
{
"role": "user",
"content": f"{leadin}\n{text}"
},
],
temperature=0,
max_tokens=256,
top_p=1,
frequency_penalty=0,
presence_penalty=0
)
#breakpoint()
return json.loads(response.choices[0]["message"]["content"].strip()
)
# Extract keywords for each item in the random sample
extracted_data = []
for item in random_sample:
try:
keywords = get_keywords(item["heading"], item["leadin"], item["text"])
keywords = keywords[0:5]
extracted_data.append({"url": item["url"], "heading": item["heading"], "leadin":item["leadin"], "text": item["text"], "keywords": keywords})
except Exception as e:
print(f"Failed to extract keywords for {item['url']}: {e}")
new_dataset = Dataset.from_list(extracted_data)
os.makedirs(args.output_dir, exist_ok=True)
new_dataset.to_json(f"{args.output_dir}/{args.split}.json")