Copie o template e preencha:
cp .env.example .env| Variável | Descrição | Obrigatória |
|---|---|---|
AWS_ACCESS_KEY_ID |
Chave de acesso AWS | Só para S3 |
AWS_SECRET_ACCESS_KEY |
Secret key AWS | Só para S3 |
AWS_DEFAULT_REGION |
Região AWS | Só para S3 |
DEVRADAR_S3_BUCKET |
Nome do bucket S3 | Só para S3 |
cd airflow
docker compose up -d- Acesse: http://localhost:8080
- Login:
admin/admin - DAGs disponíveis:
devradar_reddit_ingestion_local— trigger manual, parametrizáveldevradar_reddit_scheduled— execução horária automática
cd app
pip install -r requirements.txt
uvicorn main:app --reload --port 8000- API: http://localhost:8000/api/health
- Dashboard: http://localhost:8000
Sem variáveis DATABRICKS_*, o endpoint de pipeline usa fallback em memória a partir do Bronze local; com elas, a API consulta o SQL Warehouse. Os notebooks PySpark rodam no Databricks, não via uvicorn — ver databricks/README.md.
pip install pytest ruff
pytest tests/ -vruff check .# Trigger manual da DAG
python scripts/trigger_dag.py dataengineering python rust
# Teste de upload S3 (requer variáveis de ambiente configuradas)
python scripts/test_s3_upload.py