Files
transcripcion-whisper/whisper-distributed/processor/Dockerfile

29 lines
845 B
Docker
Raw Normal View History

2025-05-30 19:09:28 +02:00
FROM python:3.9
WORKDIR /app
# Instalar dependencias básicas
RUN apt-get update && apt-get install -y ffmpeg
# Instalar torch con soporte CUDA y otras dependencias
RUN pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
RUN pip install pika openai-whisper
# Crear un script para descargar el modelo
RUN echo '\
import whisper\n\
import torch\n\
print("Verificando disponibilidad de CUDA:", torch.cuda.is_available())\n\
if torch.cuda.is_available():\n\
print("Dispositivo CUDA:", torch.cuda.get_device_name(0))\n\
print("Descargando modelo Whisper base...")\n\
whisper.load_model("base")\n\
print("Modelo descargado correctamente")\
' > download_model.py
# Ejecutar el script para descargar el modelo durante la construcción
RUN python download_model.py
COPY app.py .
CMD ["python", "app.py"]