File size: 13,508 Bytes
f199dd6 06e2e1d f199dd6 06e2e1d f199dd6 06e2e1d f199dd6 c12d400 f199dd6 c12d400 f199dd6 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 271 272 273 274 275 276 277 278 279 280 281 282 283 284 285 286 287 288 289 290 291 292 293 294 295 296 297 298 299 300 301 302 303 304 305 306 307 308 309 310 311 312 313 314 315 316 317 318 319 320 321 322 323 324 325 326 327 328 329 330 331 332 333 334 335 336 337 338 339 340 341 342 343 344 345 346 347 348 349 350 351 352 353 354 355 |
from pathlib import Path
import os
import requests
from typing import List, Dict, Any, Optional, Iterator
from PIL import Image
import re
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
# from llama_index.core.postprocessor import LLMRerank
from llama_index.core.tools import FunctionTool, QueryEngineTool, ToolMetadata
from llama_index.core.agent import ReActAgent
from openai import OpenAI
import sys
sys.path.append(os.path.dirname(os.path.dirname(os.path.abspath(__file__))))
import streamlit as st
from llama_index.core import PromptTemplate
react_system_header_str = """\
你被设计为能够帮助完成各种任务,从回答问题到提供摘要,再到其他类型的分析。
## 工具
你可以访问多种工具。你需要根据任务的需要,按适当的顺序使用这些工具来完成任务。
这可能需要将任务分解为子任务,并为每个子任务使用不同的工具。
你可以使用以下工具:
{tool_desc}
## 输出格式
为了回答问题,请使用以下格式,请务必以 Thought 开始:
```
Thought: 我需要使用一个工具来帮助回答这个问题。
Action: 工具名称(从 {tool_names} 中选择)。
Action Input: 提供给工具的输入,使用 JSON 格式表示 kwargs(例如:{{"input": "你好世界", "num_beams": 5}})。
```
请务必以 Thought 开始。
请确保 Action Input 使用有效的 JSON 格式。不要使用 {{'input': '你好世界', 'num_beams': 5}}。
如果使用了这种格式,用户会以以下格式进行回复:
```
Observation: 工具的返回结果
```
你应该重复以上格式,直到你有足够的信息来回答问题而无需再使用工具。此时,你必须以以下两种格式之一进行回复:
```
Thought: (Implicit) I can answer without any more tools! Answer: [你的答案在这里]
Thought: (Implicit) I can answer without any more tools! Answer: 抱歉,我无法回答你的问题。
```
## 附加规则
- 答案必须包含一系列项目符号(即“•”),用来解释你是如何得出答案的。这可以包括先前对话历史中的内容。
- 你必须遵守每个工具的函数签名。如果函数需要参数,请不要传入空参数。
## 当前对话
以下是由用户和助手消息交替组成的当前对话:
"""
class PromptEngineerAgent:
"""专门用于优化提示词的代理"""
def __init__(self, llm):
self.llm = llm
def optimize_image_prompt(self, user_input: str) -> str:
"""
将用户的图像需求转换为优化的stable-diffusion提示词
"""
prompt_template = f"""
请将以下用户的图像需求转换为stable-diffusion所需的文生图提示词。
用户需求: {user_input}
请生成一个优化的英文提示词,格式要求:
1. 使用详细的描述性语言
2. 包含具体的艺术风格
3. 说明构图和视角
4. 描述光影和氛围
5. 添加相关的艺术家参考或风格类型
提示词:
"""
response = self.llm.complete(prompt_template)
return str(response)
def optimize_voice_prompt(self, user_input: str) -> Dict[str, str]:
"""
优化语音合成的参数
"""
prompt_template = f"""
请分析以下文本,并提供优化的语音合成参数。
文本: {user_input}
请考虑:
1. 最适合的语言
2. 说话的语速
3. 语气特点
4. 情感色彩
以JSON格式返回参数:
"""
response = self.llm.complete(prompt_template)
try:
params = eval(str(response))
return params
except:
return {"lang": "zh", "speed": 1.0}
class MultiModalAssistant:
def __init__(self, data_source_dir, llm, api_key):
"""
初始化助手,设置必要的API密钥和加载文档
"""
# 初始化LLM
self.llm = llm
self.__api_key = api_key
# 初始化Prompt Engineer Agent
self.prompt_engineer = PromptEngineerAgent(self.llm)
# 加载文档并创建索引
documents = SimpleDirectoryReader(data_source_dir, recursive=False, required_exts=[".txt"]).load_data()
self.index = VectorStoreIndex.from_documents(
documents
)
# 创建rag 用于回答知识问题
self.query_engine = self.index.as_query_engine(similarity_top_k=3)
# 创建rag+reranker用于回答知识问题
# self.query_engine = self.index.as_query_engine(similarity_top_k=3,
# node_postprocessors=[
# LLMRerank(
# choice_batch_size=5,
# top_n=2,
# )],
# response_mode="tree_summarize",)
# 设置工具
tools = [
FunctionTool.from_defaults(
fn=self.rag_query,
name="rag_tool",
description="无法直接回答时,查询和《黑神话:悟空》有关知识的工具"
),
FunctionTool.from_defaults(
fn=self.text_to_speech,
name="tts_tool",
description="将文本转换为语音的工具"
),
FunctionTool.from_defaults(
fn=self.generate_image,
name="image_tool",
description="生成图像的工具"
)
]
# 初始化Agent
self.agent = ReActAgent.from_tools(
tools,
llm=self.llm,
verbose=True,
max_iterations=10,
max_function_calls=12, ## 注意,超过12次就会自动返回结果了
)
# change agent's system prompt
react_system_prompt = PromptTemplate(react_system_header_str)
self.agent.update_prompts({"agent_worker:system_prompt": react_system_prompt})
## 画图的url
self.image_url = None
self.audio_save_file = "audio.mp3"
self.audio_text = None
def rag_query(self, query: str) -> str:
"""
使用RAG系统查询知识库
"""
response = self.query_engine.query(query)
return str(response)
def text_to_speech(self, text: str) -> str:
"""
将文本转换为语音
"""
if not self.audio_text is None:
print(f"文本已转为语音: {self.audio_text}")
return
try:
client = OpenAI( api_key = self.__api_key, base_url="https://api.siliconflow.cn/v1")
with client.audio.speech.with_streaming_response.create(
model="fishaudio/fish-speech-1.5", # 目前仅支持 fishaudio 系列模型
voice="fishaudio/fish-speech-1.5:benjamin", # 系统预置音色
# 用户输入信息 "孙悟空身穿金色战甲,手持金箍棒,眼神锐利"
input=f"{text}",
response_format="mp3" # 支持 mp3, wav, pcm, opus 格式
) as response:
response.stream_to_file(self.audio_save_file)
if response.status_code == 200:
self.audio_text = text
print(f"文本已转为语音: {self.audio_save_file}")
return f"文本转语音已完成。"
else:
print("文本转语音失败,状态码:", response.status_code)
except Exception as e:
return f"文本转语音时出错: {str(e)}"
def generate_image(self, prompt: str) -> str:
"""
使用API生成图像
"""
if not self.image_url is None:
print(f"图像已生成: {self.image_url}")
return
try:
# 使用Prompt Engineer优化提示词
optimized_prompt = self.prompt_engineer.optimize_image_prompt(prompt)
print(f"优化后的图像提示词: {optimized_prompt}")
## create an image of superman in a tense, action-packed scene, with explosive energy and bold dynamic composition, in the style of Ross Tran
url = "https://api.siliconflow.cn/v1/images/generations"
payload = {
"model": "stabilityai/stable-diffusion-3-5-large",
"prompt": f"{optimized_prompt}",
"negative_prompt": "<string>",
"image_size": "1024x1024",
"batch_size": 1,
"seed": 4999999999,
"num_inference_steps": 20,
"guidance_scale": 7.5,
"prompt_enhancement": False
}
headers = {
"Authorization": f"Bearer {self.__api_key}",
"Content-Type": "application/json"
}
response = requests.request("POST", url, json=payload, headers=headers)
if response.status_code == 200:
data = response.json()
self.image_url = data['data'][0]['url']
print(f"图像已生成: {self.image_url}")
return f"图像已生成。"
# return f"图像已生成已完成。继续下一个任务"
else:
print("生成图像失败,状态码:", response.status_code)
except Exception as e:
return f"生成图像时出错: {str(e)}"
def chat(self, user_input: str) -> dict:
"""
处理用户输入并返回适当的响应
"""
# 创建提示来帮助agent理解如何处理不同类型的请求
prompt = f"""
用户输入: {user_input}
请根据以下规则处理这个请求:
1. 如果是知识相关的问题,使用rag_tool查询知识库
2. 如果用户要求语音输出,使用tts_tool转换文本
3. 如果用户要求生成图像,使用image_tool生成
根据需求请选择合适的工具并执行操作,可能需要多个工具。
"""
self.image_url = None
self.audio_text = None
response = self.agent.chat(prompt)
response_dict = {"response": str(response), "image_url": self.image_url, "audio_text": self.audio_text }
return response_dict
if __name__ == "__main__":
## load wulewule agent
wulewule_assistant = load_wulewule_agent()
## streamlit setting
if "messages" not in st.session_state:
st.session_state["messages"] = []
# 在侧边栏中创建一个标题和一个链接
with st.sidebar:
st.markdown("## 悟了悟了💡")
logo_path = "assets/sd_wulewule.webp"
if os.path.exists(logo_path):
image = Image.open(logo_path)
st.image(image, caption='wulewule')
"[InternLM](https://github.com/InternLM)"
"[悟了悟了](https://github.com/xzyun2011/wulewule.git)"
# 创建一个标题
st.title("悟了悟了:黑神话悟空AI助手🐒")
# 遍历session_state中的所有消息,并显示在聊天界面上
for msg in st.session_state.messages:
st.chat_message("user").write(msg["user"])
assistant_res = msg["assistant"]
if isinstance(assistant_res, str):
st.chat_message("assistant").write(assistant_res)
elif isinstance(assistant_res, dict):
image_url = assistant_res["image_url"]
audio_text = assistant_res["audio_text"]
st.chat_message("assistant").write(assistant_res["response"])
if image_url:
# 使用st.image展示URL图像,并设置使用列宽
st.image( image_url, width=256 )
if audio_text:
# 使用st.audio函数播放音频
st.audio("audio.mp3")
st.write(f"语音内容为: {audio_text}")
# Get user input #你觉得悟空长啥样,按你的想法画一个
if prompt := st.chat_input("请输入你的问题,换行使用Shfit+Enter。"):
# Display user input
st.chat_message("user").write(prompt)
## 初始化完整的回答字符串
full_answer = ""
with st.chat_message('robot'):
message_placeholder = st.empty()
response_dict = wulewule_assistant.chat(prompt)
image_url = response_dict["image_url"]
audio_text = response_dict["audio_text"]
for cur_response in response_dict["response"]:
full_answer += cur_response
# Display robot response in chat message container
message_placeholder.markdown(full_answer + '▌')
message_placeholder.markdown(full_answer)
# 将问答结果添加到 session_state 的消息历史中
st.session_state.messages.append({"user": prompt, "assistant": response_dict})
if image_url:
# 使用st.image展示URL图像,并设置使用列宽
st.image( image_url, width=256 )
if audio_text:
# 使用st.audio函数播放音频
st.audio("audio.mp3")
st.write(f"语音内容为: {audio_text}")
|