File size: 2,999 Bytes
24d5064
 
a6ac792
 
 
 
24d5064
a6ac792
24d5064
 
a6ac792
24d5064
a6ac792
 
24d5064
a6ac792
 
 
 
 
 
24d5064
 
 
 
 
 
a6ac792
 
24d5064
 
a6ac792
24d5064
a6ac792
 
 
24d5064
 
a6ac792
 
24d5064
 
 
 
 
a6ac792
24d5064
 
 
 
 
a6ac792
 
 
24d5064
 
 
 
 
 
 
 
a6ac792
 
24d5064
 
 
 
 
 
 
 
 
 
 
 
 
 
a6ac792
24d5064
 
a6ac792
 
24d5064
a6ac792
 
 
 
 
24d5064
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
# Importy podstawowych bibliotek
import logging
import gradio as gr
from openai import OpenAI
from langchain_chroma import Chroma
from langchain_huggingface import HuggingFaceEmbeddings
from datetime import datetime

# Inicjalizacja klienta OpenAI
client = OpenAI()

# Konfiguracja embeddings dla języka polskiego
embeddings = HuggingFaceEmbeddings(model_name='radlab/polish-sts-v2')

# Inicjalizacja bazy wektorowej
vector_store = Chroma(
    collection_name='baza',
    embedding_function=embeddings,
    persist_directory='baza'
)

# Konfiguracja logowania
logging.basicConfig(
    filename=f'logs/chat_log_{datetime.now().strftime("%Y%m%d")}.log',
    level=logging.INFO,
    format='%(asctime)s - %(message)s'
)

def szukaj(query, konwersacja):
    """Wyszukuje podobne fragmenty w bazie wiedzy"""
    query += konwersacja
    context_objects = vector_store.similarity_search(query=query, k=3)
    context = "\n".join(obj.page_content for obj in context_objects)
    return context

def formatuj_historie_dla_promptu(history):
    """Formatuje historię konwersacji do promptu"""
    return "\n".join(message["content"] for message in history)

def odp(message, history):
    """Główna funkcja obsługująca odpowiedzi chatbota"""
    # Ograniczenie historii do ostatnich 3 wymian
    history = history[-6:] if len(history) > 6 else history
    
    # Przygotowanie kontekstu
    kontekst_konwersacji = formatuj_historie_dla_promptu(history)
    kontekst = szukaj(message, kontekst_konwersacji)
    prompt = f"Konwersacja:\n{kontekst_konwersacji}\nKontekst z bazy wiedzy:\n{kontekst}\nPytanie użytkownika: {message}"
    
    # Generowanie odpowiedzi
    response = client.chat.completions.create(
        model='gpt-4o-mini',
        temperature=0.2,
        messages=[
            {
                'role': 'system',
                'content': 'Jesteś ekspertem dostępności cyfrowej i masz na imię Jacek. Odpowiadaj krótko na pytania korzystając z kontekstu i historii konwersacji.'
            },
            {
                'role': 'user',
                'content': prompt
            }
        ]
    )
    
    answer = response.choices[0].message.content
    
    # Logowanie
    logging.info(
        f"User message: {message}\n"
        f"Context length: {len(kontekst)}\n"
        f"Prompt tokens: {response.usage.prompt_tokens}\n"
        f"Completion tokens: {response.usage.completion_tokens}\n"
        f"Total tokens: {response.usage.total_tokens}\n"
        f"Response: {answer}"
    )
    
    # Aktualizacja historii
    history.append({'role': 'user', 'content': message})
    history.append({'role': 'assistant', 'content': answer})
    
    return '', history

# Interfejs graficzny
with gr.Blocks(title='Jacek AI') as demo:
    chatbot = gr.Chatbot(type='messages', label='Jacek AI')
    msg = gr.Textbox(autofocus=True, label='Pytaj', show_label=False)
    msg.submit(odp, [msg, chatbot], [msg, chatbot])

# Uruchomienie aplikacji
demo.launch(inbrowser=True)