kenken999 commited on
Commit
a01a027
·
1 Parent(s): 8323ec9
mysite/interpreter/interpreter_config.py CHANGED
@@ -23,11 +23,11 @@ interpreter.llm.model = "Llama3-70b-8192"
23
  interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
24
  interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
25
 
26
- interpreter.llm.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数
27
- interpreter.max_tokens = 3000 # 1回のリクエストで処理するトークンの最大数
28
 
29
- interpreter.llm.max_output = 10000 # 出力の最大トークン数
30
- interpreter.max_output = 10000 # 出力の最大トークン数
31
 
32
  interpreter.conversation_history = True
33
  interpreter.debug_mode = True
 
23
  interpreter.llm.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
24
  interpreter.context_window = 4096 # 一般的なLLMのコンテキストウィンドウサイズ
25
 
26
+ interpreter.llm.max_tokens = 10000 # 1回のリクエストで処理するトークンの最大数
27
+ interpreter.max_tokens = 10000 # 1回のリクエストで処理するトークンの最大数
28
 
29
+ interpreter.llm.max_output = 20000 # 出力の最大トークン数
30
+ interpreter.max_output = 20000 # 出力の最大トークン数
31
 
32
  interpreter.conversation_history = True
33
  interpreter.debug_mode = True