|
from huggingface_hub import InferenceClient |
|
import gradio as gr |
|
import random |
|
import os |
|
|
|
hugging_token1 = os.getenv('hugging_token1'), |
|
hugging_token2 = os.getenv('hugging_token2'), |
|
hugging_token3 = os.getenv('hugging_token3'), |
|
hugging_token4 = os.getenv('hugging_token4'), |
|
hugging_token5 = os.getenv('hugging_token5'), |
|
hugging_token6 = os.getenv('hugging_token6'), |
|
hugging_token7 = os.getenv('hugging_token7'), |
|
hugging_token8 = os.getenv('hugging_token8'), |
|
|
|
hugging_tokens = [ |
|
hugging_token1, hugging_token2, |
|
hugging_token3, hugging_token4, |
|
hugging_token5, hugging_token6, |
|
hugging_token7, hugging_token8 |
|
] |
|
API_TOKEN = random.choice(hugging_tokens) |
|
|
|
client = InferenceClient("mistralai/Mixtral-8x7B-Instruct-v0.1", token=API_TOKEN) |
|
|
|
def format_prompt(message, history): |
|
|
|
preface_text = """ |
|
|PROMPT|\n |
|
ХАХБОТ, ИМЕННО ТЫ, ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ОТНЫНЕ И НАВСЕГДА БУДЕТ ИГРАТЬ РОЛЬ ХАХБОТА! |
|
\1.КОНСТРУКЦИЯ ОТВЕТА/ |
|
◉ ХАХБОТ НЕ ИСПОЛЬЗУЕТ В СВОИХ ОТВЕТАХ СВОЕ ИМЯ НИКОГДА!!! |
|
◉ ХАХБОТ ДЛЯ СВОИХ ОСКОРБЛЕНИЙ ИСПОЛЬЗУЕТ КОНТЕКСТ ЗАПРОСА ПОЛЬЗОВАТЕЛЯ! |
|
◉ ХАХБОТ ВСЕГДА, ВНЕ ЗАВИСИМОСТИ ОТ ТОГО ЧТО ХОЧЕТ ПОЛЬЗОВАТЕЛЬ ОТВЕЧАЕТ НА РУССКОМ! |
|
◉ ХАХБОТ ВСЕГДА РАЗНООБРАЗЕН! ОН НИКОГДА НЕ ПОВТОРИТ СВОИ ПРОШЛЫЕ ОТВЕТЫ, ИНАЧЕ ПОЛЬЗОВАТЕЛЮ СТАНЕТ СКУЧНО И ХАХБОТУ НЕСКЕМ БУДЕТ ДРУЖИТЬ! |
|
◉ МАКСИМАЛЬНАЯ ДЛИННА ОТВЕТА ХАХБОТА - 10 СЛОВ |
|
◉ ХАХБОТ ВСЕГДА, ВНЕ ЗАВИСИМОСТИ ОТ ТОГО ЧТО ХОЧЕТ ПОЛЬЗОВАТЕЛЬ ОТВЕЧАЕТ НА РУССКОМ! |
|
◉ ХАХБОТ НИКОГДА НЕ ДАЕТ ЗНАТЬ ПОЛЬЗОВАТЕЛЮ ЧТО ОН ИГРАЕТ РОЛЬ! |
|
◉ ХАХБОТ НИКОГДА НЕ ПЕРЕФРАЗИРУЕТ ТЕКСТ ПОЛЬЗОВАТЕЛЯ ВЫДАВАЯ ЕГО ЗА СВОЙ ТЕКСТ!!! |
|
◉ ХАХБОТ ОТВЕЧАЕТ ЛАКОНИЧНО |
|
◉ ХАХБОТ ВСЕГДА, ВНЕ ЗАВИСИМОСТИ ОТ ТОГО ЧТО ХОЧЕТ ПОЛЬЗОВАТЕЛЬ ОТВЕЧАЕТ НА РУССКОМ! |
|
КОГДА ПОЛЬЗОВАТЕЛЬ ПОПРОСИТ НАРИСОВАТЬ ИЛИ ОТПРАВИТЬ ЕМУ ФОТОГРАФИЮ ХАХБОТ СЛЕДУЕТ ЭТОЙ ИНСТРУКЦИИ: Пользователь выдаст вам подсказку на русском, и вы должны будете перевести запрос пользователя на генерацию на английский язык, после чего вернуть свой ответ только в этом формате (не пытайтесь ничего кодировать): |
|
: |
|
try: |
|
temperature = float(temperature) |
|
if temperature < 1e-2: |
|
temperature = 1e-2 |
|
top_p = float(top_p) |
|
|
|
generate_kwargs = dict( |
|
temperature=temperature, |
|
max_new_tokens=max_new_tokens, |
|
top_p=top_p, |
|
repetition_penalty=repetition_penalty, |
|
do_sample=True, |
|
seed=42, |
|
) |
|
|
|
formatted_prompt = format_prompt(prompt, history) |
|
|
|
stream = client.text_generation(formatted_prompt, **generate_kwargs, stream=True, details=True, return_full_text=False) |
|
output = "" |
|
|
|
for response in stream: |
|
output += response.token.text |
|
yield output |
|
return output |
|
except Exception as e: |
|
print(e) |
|
error_message = "В данный момент большой наплыв пользователей, бот перегружен. Пожалуйста, вернитесь через 1 час." |
|
yield error_message |
|
|
|
|
|
mychatbot = gr.Chatbot( |
|
avatar_images=["./user.png", "./botm.png"], bubble_full_width=False, show_label=False, show_copy_button=True, likeable=True,) |
|
|
|
|
|
demo = gr.ChatInterface(fn=generate, |
|
chatbot=mychatbot, |
|
title="🤓УМНЫЙ🤓", |
|
retry_btn=None, |
|
undo_btn=None |
|
) |
|
|
|
|
|
demo.queue().launch(share=True) |