Files
transcripcion-whisper/processor/Dockerfile

29 lines
845 B
Docker
Raw Normal View History

2025-06-05 14:19:58 +00:00
FROM python:3.9
2025-05-30 19:09:28 +02:00
WORKDIR /app
2025-06-05 14:19:58 +00:00
# Instalar dependencias básicas
RUN apt-get update && apt-get install -y ffmpeg
2025-05-30 19:09:28 +02:00
2025-06-05 14:19:58 +00:00
# Instalar torch con soporte CUDA y otras dependencias
RUN pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
RUN pip install pika openai-whisper
2025-06-05 11:24:56 +00:00
2025-06-05 14:19:58 +00:00
# Crear un script para descargar el modelo
RUN echo '\
import whisper\n\
import torch\n\
print("Verificando disponibilidad de CUDA:", torch.cuda.is_available())\n\
if torch.cuda.is_available():\n\
print("Dispositivo CUDA:", torch.cuda.get_device_name(0))\n\
print("Descargando modelo Whisper base...")\n\
whisper.load_model("base")\n\
print("Modelo descargado correctamente")\
' > download_model.py
2025-05-30 19:09:28 +02:00
2025-06-05 14:19:58 +00:00
# Ejecutar el script para descargar el modelo durante la construcción
RUN python download_model.py
2025-06-05 14:19:58 +00:00
COPY app.py .
2025-05-30 19:09:28 +02:00
CMD ["python", "app.py"]