aixsatoshi commited on
Commit
f51457e
1 Parent(s): 94a3252

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +37 -38
app.py CHANGED
@@ -25,44 +25,44 @@ hf_hub_download(
25
  # 推論関数
26
  @spaces.GPU(duration=120)
27
  def respond(
28
- message,
29
- history: list[tuple[str, str]],
30
- model,
31
- system_message,
32
- max_tokens,
33
- temperature,
34
- top_p,
35
- top_k,
36
- repeat_penalty,
37
- ):
38
- chat_template = MessagesFormatterType.GEMMA_2
39
-
40
- llm = Llama(
41
  model_path=f"models/{model}",
42
  flash_attn=True,
43
  n_gpu_layers=81,
44
  n_batch=1024,
45
  n_ctx=8192,
46
- )
47
- provider = LlamaCppPythonProvider(llm)
48
-
49
- agent = LlamaCppAgent(
50
  provider,
51
  system_prompt=f"{system_message}",
52
  predefined_messages_formatter_type=chat_template,
53
  debug_output=True
54
- )
55
-
56
- settings = provider.get_provider_default_settings()
57
- settings.temperature = temperature
58
- settings.top_k = top_k
59
- settings.top_p = top_p
60
- settings.max_tokens = max_tokens
61
- settings.repeat_penalty = repeat_penalty
62
- settings.stream = True
63
-
64
- messages = BasicChatHistory()
65
-
66
  one_shot_prompt = """
67
  あなたは優れた翻訳者です。以下の文章を日本語から英語に翻訳してください。翻訳は文法的に正しく、自然な表現を使用し、文脈に適した内容にしてください。また、専門用語や文化的なニュアンスを正確に伝えるよう心がけてください。
68
 
@@ -81,9 +81,8 @@ def respond(
81
  以下の日本語の文章を英語に翻訳してください:
82
  """
83
  system_message += one_shot_prompt
84
-
85
-
86
- for msn in history:
87
  user = {
88
  'role': Roles.user,
89
  'content': msn[0]
@@ -94,17 +93,17 @@ def respond(
94
  }
95
  messages.add_message(user)
96
  messages.add_message(assistant)
97
-
98
- stream = agent.get_chat_response(
99
  message,
100
  llm_sampling_settings=settings,
101
  chat_history=messages,
102
  returns_streaming_generator=True,
103
  print_output=False
104
- )
105
-
106
- outputs = ""
107
- for output in stream:
108
  outputs += output
109
  yield outputs
110
 
 
25
  # 推論関数
26
  @spaces.GPU(duration=120)
27
  def respond(
28
+ message,
29
+ history: list[tuple[str, str]],
30
+ model,
31
+ system_message,
32
+ max_tokens,
33
+ temperature,
34
+ top_p,
35
+ top_k,
36
+ repeat_penalty,
37
+ ):
38
+ chat_template = MessagesFormatterType.GEMMA_2
39
+
40
+ llm = Llama(
41
  model_path=f"models/{model}",
42
  flash_attn=True,
43
  n_gpu_layers=81,
44
  n_batch=1024,
45
  n_ctx=8192,
46
+ )
47
+ provider = LlamaCppPythonProvider(llm)
48
+
49
+ agent = LlamaCppAgent(
50
  provider,
51
  system_prompt=f"{system_message}",
52
  predefined_messages_formatter_type=chat_template,
53
  debug_output=True
54
+ )
55
+
56
+ settings = provider.get_provider_default_settings()
57
+ settings.temperature = temperature
58
+ settings.top_k = top_k
59
+ settings.top_p = top_p
60
+ settings.max_tokens = max_tokens
61
+ settings.repeat_penalty = repeat_penalty
62
+ settings.stream = True
63
+
64
+ messages = BasicChatHistory()
65
+
66
  one_shot_prompt = """
67
  あなたは優れた翻訳者です。以下の文章を日本語から英語に翻訳してください。翻訳は文法的に正しく、自然な表現を使用し、文脈に適した内容にしてください。また、専門用語や文化的なニュアンスを正確に伝えるよう心がけてください。
68
 
 
81
  以下の日本語の文章を英語に翻訳してください:
82
  """
83
  system_message += one_shot_prompt
84
+
85
+ for msn in history:
 
86
  user = {
87
  'role': Roles.user,
88
  'content': msn[0]
 
93
  }
94
  messages.add_message(user)
95
  messages.add_message(assistant)
96
+
97
+ stream = agent.get_chat_response(
98
  message,
99
  llm_sampling_settings=settings,
100
  chat_history=messages,
101
  returns_streaming_generator=True,
102
  print_output=False
103
+ )
104
+
105
+ outputs = ""
106
+ for output in stream:
107
  outputs += output
108
  yield outputs
109