Spaces:
Sleeping
Sleeping
Update server.js
Browse files
server.js
CHANGED
@@ -42,9 +42,12 @@ app.post('/pl', async (req, res) => {
|
|
42 |
return res.status(400).json({ error: "", title: "Ошибка", text: "Нет запроса!", okb: "Ок", oklink: "", cancelable: "true" }); // Не удалось принять данные
|
43 |
}
|
44 |
|
45 |
-
|
|
|
|
|
|
|
46 |
const response = await axios.post('https://openai-gemini-iota.vercel.app/v1/chat/completions', {
|
47 |
-
messages:
|
48 |
max_tokens: 4000,
|
49 |
temperature: 0.3,
|
50 |
model: "gemini-1.5-pro-002",
|
|
|
42 |
return res.status(400).json({ error: "", title: "Ошибка", text: "Нет запроса!", okb: "Ок", oklink: "", cancelable: "true" }); // Не удалось принять данные
|
43 |
}
|
44 |
|
45 |
+
try {
|
46 |
+
const systemMessage = {'role': 'system', 'content': `Доктор ${chatid} ${start}. Отвечай на языке: ${lang}`};
|
47 |
+
const allMessages = [systemMessage].concat(req.body.messages); // Объединяем сообщения
|
48 |
+
|
49 |
const response = await axios.post('https://openai-gemini-iota.vercel.app/v1/chat/completions', {
|
50 |
+
messages: allMessages, // Используем объединенный массив сообщений
|
51 |
max_tokens: 4000,
|
52 |
temperature: 0.3,
|
53 |
model: "gemini-1.5-pro-002",
|