heegyu commited on
Commit
bb7428a
·
1 Parent(s): 936721d

prompt 없애는게 낫다

Browse files
Files changed (1) hide show
  1. app.py +12 -8
app.py CHANGED
@@ -11,14 +11,18 @@ generator = pipeline(
11
  device="cuda:0" if torch.cuda.is_available() else 'cpu'
12
  )
13
 
14
- def query(message, chat_history, max_turn=4):
15
- prompt = [
16
- "<usr> 넌 한국어 챗봇 고라니야. 너는 내가 묻는 질문에 답하고 지시사항에 맞는 대답을 해야해.",
17
- "<bot> 네, 저는 한국어 챗봇 고라니입니다. 궁금한 것을 물어보세요. "
18
- ]
 
19
  if len(chat_history) > max_turn:
20
  chat_history = chat_history[-max_turn:]
21
- for user, bot in chat_history:
 
 
 
22
  prompt.append(f"<usr> {user}")
23
  prompt.append(f"<bot> {bot}")
24
  prompt.append(f"<usr> {message}")
@@ -29,7 +33,7 @@ def query(message, chat_history, max_turn=4):
29
  do_sample=True,
30
  top_p=0.9,
31
  early_stopping=True,
32
- max_length=256,
33
  )[0]['generated_text']
34
 
35
  print(output)
@@ -38,7 +42,7 @@ def query(message, chat_history, max_turn=4):
38
  return response.strip()
39
 
40
  with gr.Blocks() as demo:
41
- chatbot = gr.Chatbot()
42
  msg = gr.Textbox()
43
  clear = gr.Button("Clear")
44
 
 
11
  device="cuda:0" if torch.cuda.is_available() else 'cpu'
12
  )
13
 
14
+ def query(message, chat_history, max_turn=2):
15
+ # prompt = [
16
+ # "<usr> 넌 한국어 챗봇 고라니야. 너는 내가 묻는 질문에 답하고 지시사항에 맞는 대답을 해야해.",
17
+ # "<bot> 네, 저는 한국어 챗봇 고라니입니다. 궁금한 것을 물어보세요. "
18
+ # ]
19
+ prompt = []
20
  if len(chat_history) > max_turn:
21
  chat_history = chat_history[-max_turn:]
22
+ for i, (user, bot) in enumerate(chat_history):
23
+ # if i == 0:
24
+ # prompt.append(f"<usr> 반가워 너는 한국어 챗봇이고 이름은 고라니야. {user}")
25
+ # else:
26
  prompt.append(f"<usr> {user}")
27
  prompt.append(f"<bot> {bot}")
28
  prompt.append(f"<usr> {message}")
 
33
  do_sample=True,
34
  top_p=0.9,
35
  early_stopping=True,
36
+ max_new_tokens=256,
37
  )[0]['generated_text']
38
 
39
  print(output)
 
42
  return response.strip()
43
 
44
  with gr.Blocks() as demo:
45
+ chatbot = gr.Chatbot().style(height=700)
46
  msg = gr.Textbox()
47
  clear = gr.Button("Clear")
48