corriendo y con "automatismo". Api levantada

This commit is contained in:
Your Name
2025-02-11 16:29:05 +01:00
parent 5a0833f3cf
commit 325276253b
8 changed files with 43 additions and 48 deletions

View File

@ -1,30 +1,9 @@
# Instalación
Para instalar la aplicación descargar el proyecto. Una vez descargado, el archivo main.py debe quedar así comentado:
```python
from fastapi import FastAPI
from .database import Base, engine
from .routes import router
# from apscheduler.schedulers.background import BackgroundScheduler
# from .webscrapper import ejecutar_scrapper
# Crear las tablas en MySQL si no existen
Base.metadata.create_all(bind=engine)
# Inicializar FastAPI
app = FastAPI()
# scheduler = BackgroundScheduler()
# Incluir rutas
app.include_router(router)
# @app.on_event("startup")
# def startup_event():
# scheduler.add_job(ejecutar_scrapper, "interval", hours=24)
# scheduler.start()
# @app.on_event("shutdown")
# def shutdown_event():
# scheduler.shutdown()
Para la instalación levantar el contenedor, entrar en la consola de ejecución, y realizar:
```sh
chmod +x /app/auto.sh
cd /app
./auto.sh
```
Proceder con `docker-compose up -d --build`.
Una vez finalizado, descomentar las líneas y realizar de nuevo `docker-compose up -d --build`.
Esto inicia el ciclo de captación de noticias cada 24 horas