eliza_llm / app.py
giseldo's picture
ultima versao
2b827cf
raw
history blame
1.23 kB
import gradio as gr
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
import torch
# Carrega o modelo e o tokenizer localmente
model_name = "google/gemma-3-1b-it" # Substitua pelo caminho local se já baixou
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name, torch_dtype=torch.float16, device_map="auto")
pipe = pipeline("text-generation", model=model, tokenizer=tokenizer, max_new_tokens=150, temperature=0.7)
def generate_response(message, history):
messages = [
[
{
"role": "system",
"content": [{"type": "text", "text": "Você é ELIZA, uma terapeuta que responde com empatia e faz perguntas para entender melhor o paciente."},]
},
{
"role": "user",
"content": [{"type": "text", "text": message},]
},
],
]
response = pipe(messages)
return response[0][0]['generated_text'][2]['content']
# Cria a interface Gradio
demo = gr.ChatInterface(
generate_response,
title="ELIZA Therapy Session",
description="Compartilhe seus pensamentos e ELIZA irá ajudar você a refletir sobre eles."
)
# Inicia a interface
demo.launch()