File size: 2,457 Bytes
64fa793
 
 
 
 
12abfee
e65e6e5
64fa793
 
e65e6e5
64fa793
 
e65e6e5
4504b4a
 
64fa793
 
 
 
e65e6e5
64fa793
 
 
 
4504b4a
 
 
 
 
e65e6e5
4504b4a
 
 
 
 
 
 
9572852
63f8fb6
9572852
4504b4a
 
 
9572852
4504b4a
 
 
 
 
 
 
 
 
 
64fa793
4504b4a
64fa793
4504b4a
e65e6e5
4504b4a
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
import streamlit as st
import numpy as np
import cv2
import requests
import tempfile
import os

# Заголовок приложения
st.title("Video Frame to Image Description")

# Загрузка видеофайла
uploaded_file = st.file_uploader("Upload a video file", type=["mp4", "avi", "mov"])

cap = None  # Инициализируем объект cap как None

if uploaded_file is not None:
    # Создаем временный файл для хранения видео
    tfile = tempfile.NamedTemporaryFile(delete=False)
    tfile.write(uploaded_file.read())
    
    # Захват видео
    cap = cv2.VideoCapture(tfile.name)
    length = int(cap.get(cv2.CAP_PROP_FRAME_COUNT))
    
    if length > 0:
        # Выбор случайного кадра
        random_frame = np.random.randint(length)
        cap.set(cv2.CAP_PROP_POS_FRAMES, random_frame)
        ret, frame = cap.read()

        if ret:
            # Отображение выбранного кадра
            st.image(frame, channels="BGR", caption=f"Random Frame {random_frame}")
            
            # Конвертация кадра в подходящий формат для отправки в модель
            _, buf = cv2.imencode('.jpg', frame)
            files = {'file': ('image.jpg', buf.tobytes(), 'image/jpeg')}

            model_url = "https://hf.space/embed/nttdataspain/Image-To-Text-Lora-ViT/run/predict"
            headers = {"Authorization": f"Bearer {os.getenv('HUGGINGFACE_TOKEN_READ')}"}
            
            # Отправка изображения в модель
            response = requests.post(
                model_url,
                files=files
            )
            
            # Получение и отображение результата
            if response.status_code == 200:
                result = response.json()
                description = result['data'][0]['generated_text']
                st.success(f"Generated Description: {description}")
            else:
                st.error("Error: Could not get a response from the model.")
        else:
            st.error("Error: Could not read a frame from the video.")
    else:
        st.error("Error: Video file does not contain any frames.")

# Проверяем, был ли cap создан, и только тогда освобождаем ресурсы
if cap is not None:
    cap.release()