Ferramenta

Cursor

Nível

Avancado

Tempo

90min

Visualizações

156

Como usar cursor para automacao em web-scraping

Criar sistema de web scraping robusto para extração automatizada de dados

📝 Prompt

Crie um sistema de web scraping robusto para extrair dados de [SITES] com as seguintes especificações:

**Objetivos:**
- Sites alvo: [SITES]
- Dados a extrair: [DADOS]
- Frequência: [FREQUÊNCIA]
- Volume esperado: [VOLUME]

**Requisitos Técnicos:**

1. **Arquitetura Robusta**
   - Linguagem: [LINGUAGEM]
   - Bibliotecas: requests/selenium/scrapy
   - Banco de dados para armazenar
   - Sistema de filas (se necessário)

2. **Features Essenciais**
   - Rotação de proxies/user agents
   - Rate limiting inteligente
   - Tratamento de captcha
   - Retry automático com backoff

3. **Tratamento de Anti-bot**
   - Headers realistas
   - Delays randomizados
   - Simulação de comportamento humano
   - Bypass de detecção comum

4. **Monitoramento**
   - Logs estruturados
   - Alertas de falha
   - Métricas de performance
   - Dashboard de status

5. **Output e Processamento**
   - Validação de dados
   - Limpeza e formatação
   - Export em múltiplos formatos
   - API para acesso aos dados

**Entregáveis:**
1. Código completo documentado
2. Dockerfile para deploy
3. Configuração de monitoramento
4. README com instruções
5. Testes automatizados

Implemente seguindo melhores práticas e considerações legais.

⚙️ Variáveis

[SITES]

URLs dos sites para fazer scraping

[DADOS]

Especificação dos dados a extrair

[FREQUêNCIA]

Com que frequência executar

[VOLUME]

Quantidade esperada de dados

[LINGUAGEM]

Python, Node.js, etc.

💡 Exemplos

Monitoramento de Preços E-commerce

Scraping de 5 e-commerces para comparação de preços

Resultado: Sistema processando 10k produtos/dia com 99% uptime