File size: 3,006 Bytes
bef9637
 
390251e
bef9637
 
 
 
 
 
 
390251e
 
 
 
 
 
 
 
 
 
bef9637
 
 
 
 
390251e
 
 
 
 
bef9637
 
 
 
 
390251e
 
 
 
 
bef9637
390251e
bef9637
390251e
 
 
 
 
 
 
 
bef9637
 
390251e
bef9637
390251e
 
 
 
 
 
 
 
 
 
 
 
 
 
bef9637
 
 
390251e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
# modules/chatbot/chatbot/chat_process.py
import anthropic
import os
import logging
from typing import Dict, Generator

logger = logging.getLogger(__name__)

class ChatProcessor:
    def __init__(self):
        """
        Inicializa el procesador de chat con la API de Claude
        Raises:
            ValueError: Si no se encuentra la clave API
        """
        api_key = os.environ.get("ANTHROPIC_API_KEY")
        if not api_key:
            raise ValueError("No se encontr贸 ANTHROPIC_API_KEY en las variables de entorno")
            
        self.client = anthropic.Anthropic(api_key=api_key)
        self.conversation_history = []

    def process_chat_input(self, message: str, lang_code: str) -> Generator[str, None, None]:
        """
        Procesa el input del chat y genera respuestas por chunks
        Args:
            message: Mensaje del usuario
            lang_code: C贸digo del idioma para contexto
        Yields:
            str: Chunks de la respuesta
        """
        try:
            # Agregar mensaje a la historia
            self.conversation_history.append(f"Human: {message}")
            
            # Construir el prompt con contexto del idioma
            system_prompt = f"You are an AI assistant for AIdeaText. Respond in {lang_code}."
            
            # Generar respuesta usando Claude API
            response = self.client.messages.create(
                model="claude-3-opus-20240229",
                max_tokens=300,
                temperature=0.7,
                system=system_prompt,
                messages=[
                    {
                        "role": "user",
                        "content": message
                    }
                ],
                stream=True
            )

            # Procesar la respuesta en streaming
            full_response = ""
            try:
                for chunk in response:
                    if chunk.delta.text:  # Verificar si hay texto en el chunk
                        chunk_text = chunk.delta.text
                        yield chunk_text
                        full_response += chunk_text
                
                # Guardar la respuesta completa en el historial
                if full_response:
                    self.conversation_history.append(f"Assistant: {full_response}")
                
            except Exception as e:
                logger.error(f"Error en streaming de respuesta: {str(e)}")
                yield f"Error en la comunicaci贸n: {str(e)}"

        except Exception as e:
            logger.error(f"Error en process_chat_input: {str(e)}")
            yield f"Error: {str(e)}"

    def get_conversation_history(self) -> list:
        """
        Retorna el historial de la conversaci贸n
        Returns:
            list: Lista de mensajes
        """
        return self.conversation_history

    def clear_history(self):
        """
        Limpia el historial de la conversaci贸n
        """
        self.conversation_history = []