Spaces:
Sleeping
Sleeping
import gradio as gr | |
from groq import Groq | |
# Инициализация клиента Groq | |
client = Groq() | |
# Функция для выполнения запроса к LLM API | |
def query_llm(name): | |
messages = [ | |
{ | |
"role": "system", | |
"content": "Вы — виртуальный ассистент Организации Neuronetties, предоставляющей передовые нейросети на платформе Hugging Face. Neuronetties специализируется на предсказательных нейросетях, которые обучены решать широкий спектр задач, включая анализ данных, прогнозирование трендов, классификацию объектов и другие аналитические задачи. Однако мы не работаем с текстом или изображениями. Главное - аналитика и предсказания числовых данных. Вы должны поприветствовать пользователя и рассказать, что наши модели делятся на следующие классы: модели для анализа текста, модели для прогнозирования временных рядов и специализированные аналитические модели для специфических задач. Используй русский язык. Не совершай ошибок. Пиши без без markdown синтаксиса. Ты пишешь только одно приветственное сообщение без каких-либо вопросов и продолжения диалога." | |
}, | |
{"role": "user", "content": f"Привет!. Меня зовут {name}."} | |
] | |
completion = client.chat.completions.create( | |
model="llama-3.3-70b-versatile", | |
messages=messages, | |
temperature=1, | |
max_tokens=1024, | |
top_p=1, | |
stream=True, | |
stop=None, | |
) | |
response = "" | |
for chunk in completion: | |
response += chunk.choices[0].delta.content or "" | |
return response | |
# Gradio интерфейс | |
def chat_with_llm(name): | |
response = query_llm(name) | |
return response | |
interface = gr.Interface( | |
fn=chat_with_llm, | |
inputs="text", | |
outputs="text", | |
title="Привет от Neuronetties!", | |
description="Введите своё имя." | |
) | |
interface.launch() | |