AutoResearchClaw Logo

Comparte una idea. Obten un articulo. Totalmente autonomo & autoevolutivo.

Chatea con OpenClaw: "Investiga X" β†’ hecho.

AutoResearchClaw Framework

MIT License Python 3.11+ 1823 Tests Passed GitHub OpenClaw Compatible Discord

πŸ‡ΊπŸ‡Έ English Β· πŸ‡¨πŸ‡³ δΈ­ζ–‡ Β· πŸ‡―πŸ‡΅ ζ—₯本θͺž Β· πŸ‡°πŸ‡· ν•œκ΅­μ–΄ Β· πŸ‡«πŸ‡· FranΓ§ais Β· πŸ‡©πŸ‡ͺ Deutsch Β· πŸ‡ͺπŸ‡Έ EspaΓ±ol Β· πŸ‡§πŸ‡· PortuguΓͺs Β· πŸ‡·πŸ‡Ί Русский Β· πŸ‡ΈπŸ‡¦ Ψ§Ω„ΨΉΨ±Ψ¨ΩŠΨ©

πŸ† Galeria de articulos Β· πŸ“– Guia de integracion Β· πŸ’¬ Comunidad Discord

---
Sample Paper πŸ† Galeria de articulos generados

8 articulos en 8 dominios β€” matematicas, estadistica, biologia, computacion, NLP, RL, vision, robustez β€” generados de forma completamente autonoma sin intervencion humana.

View Showcase
--- > **πŸ§ͺ Buscamos testers!** Prueba el pipeline con tu propia idea de investigacion β€” de cualquier campo β€” y [cuentanos que piensas](TESTER_GUIDE.md). Tu feedback da forma directamente a la proxima version. **[β†’ Testing Guide](TESTER_GUIDE.md)** | **[β†’ δΈ­ζ–‡ζ΅‹θ―•ζŒ‡ε—](TESTER_GUIDE_CN.md)** | **[β†’ ζ—₯本θͺžγƒ†γ‚Ήγƒˆγ‚¬γ‚€γƒ‰](TESTER_GUIDE_JA.md)** --- ## πŸ”₯ News - **[03/22/2026]** [v0.3.2](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.2) β€” **Soporte multiplataforma + estabilidad mayor** β€” AutoResearchClaw ahora funciona con cualquier agente compatible con ACP (Claude Code, Codex CLI, Copilot CLI, Gemini CLI, Kimi CLI) y soporta plataformas de mensajeria (Discord, Telegram, Lark, WeChat) via el puente OpenClaw. Nuevo backend de generacion de codigo CLI-agent que delega las Stages 10 y 13 a agentes CLI externos con control de presupuesto y gestion de timeouts. Incluye sistema anti-fabricacion (VerifiedRegistry + bucle de diagnostico y reparacion), 100+ correcciones de bugs, refactorizacion modular del executor, auto-deteccion de `--resume`, endurecimiento de reintentos LLM y correcciones de la comunidad. - **[03/18/2026]** [v0.3.1](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.1) β€” **OpenCode Beast Mode + Community Contributions** β€” New "Beast Mode" routes complex code generation to [OpenCode](https://github.com/anomalyco/opencode) with automatic complexity scoring and graceful fallback. Added Novita AI provider support, thread-safety hardening, improved LLM output parsing robustness, and 20+ bug fixes from community PRs and internal audit. - **[03/17/2026]** [v0.3.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.0) β€” **MetaClaw Integration** β€” AutoResearchClaw now supports [MetaClaw](https://github.com/aiming-lab/MetaClaw) cross-run learning: pipeline failures β†’ structured lessons β†’ reusable skills, injected into all 23 stages. **+18.3%** robustness in controlled experiments. Opt-in (`metaclaw_bridge.enabled: true`), fully backward-compatible. See [Integration Guide](#-integracion-metaclaw). - **[03/16/2026]** [v0.2.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.2.0) β€” Three multi-agent subsystems (CodeAgent, BenchmarkAgent, FigureAgent), hardened Docker sandbox with network-policy-aware execution, 4-round paper quality audit (AI-slop detection, 7-dim review scoring, NeurIPS checklist), and 15+ bug fixes from production runs. - **[03/15/2026]** [v0.1.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.1.0) β€” We release AutoResearchClaw: a fully autonomous 23-stage research pipeline that turns a single research idea into a conference-ready paper. No human intervention required. --- ## ⚑ Un comando. Un articulo. ```bash pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Your research idea here" --auto-approve ``` --- ## πŸ€” Que es esto? **Tu lo piensas. AutoResearchClaw lo escribe.** Proporciona un tema de investigacion β€” recibe un articulo academico completo con literatura real de OpenAlex, Semantic Scholar y arXiv, experimentos en sandbox adaptados al hardware (deteccion automatica GPU/MPS/CPU), analisis estadistico, revision multi-agentes, y LaTeX listo para conferencia orientado a NeurIPS/ICML/ICLR. Sin supervision. Sin copiar y pegar. Sin referencias alucinadas.
πŸ“„paper_draft.mdArticulo academico completo (Introduccion, Trabajo relacionado, Metodo, Experimentos, Resultados, Conclusion)
πŸ“paper.texLaTeX listo para conferencia (plantillas NeurIPS / ICLR / ICML)
πŸ“šreferences.bibReferencias BibTeX reales de OpenAlex, Semantic Scholar y arXiv β€” auto-depuradas para coincidir con las citas en linea
πŸ”verification_report.jsonVerificacion de integridad + relevancia de citas en 4 capas (arXiv, CrossRef, DataCite, LLM)
πŸ§ͺexperiment runs/Codigo generado + resultados en sandbox + metricas JSON estructuradas
πŸ“Šcharts/Graficos de comparacion de condiciones auto-generados con barras de error e intervalos de confianza
πŸ“reviews.mdRevision por pares multi-agente con verificacion de consistencia metodologia-evidencia
🧬evolution/Lecciones de auto-aprendizaje extraidas de cada ejecucion
πŸ“¦deliverables/Todos los entregables finales en una sola carpeta β€” listos para compilar en Overleaf
El pipeline se ejecuta **de principio a fin sin intervencion humana**. Cuando los experimentos fallan, se auto-repara. Cuando las hipotesis no se sostienen, pivotea. Cuando las citas son falsas, las elimina. 🌍 **Ejecutalo en cualquier lugar.** AutoResearchClaw no esta atado a una sola plataforma. Usalo de forma independiente por CLI, conectalo a [OpenClaw](https://github.com/openclaw/openclaw), o integralo con cualquier agente compatible con ACP β€” πŸ€– Claude Code, πŸ’» Codex CLI, πŸ™ Copilot CLI, β™Š Gemini CLI, πŸŒ™ Kimi CLI, y mas. Gracias al puente de mensajeria de OpenClaw, puedes iniciar una investigacion completa desde πŸ’¬ Discord, ✈️ Telegram, 🐦 Lark (飞书), πŸ’š WeChat, o cualquier plataforma que tu equipo ya utilice. Un tema de entrada, un paper de salida β€” sin importar donde lo escribas. --- ## πŸš€ Inicio rapido ```bash # 1. Clonar e instalar git clone https://github.com/aiming-lab/AutoResearchClaw.git cd AutoResearchClaw python3 -m venv .venv && source .venv/bin/activate pip install -e . # 2. Setup (interactivo β€” instala OpenCode beast mode, verifica Docker/LaTeX) researchclaw setup # 3. Configurar researchclaw init # Interactivo: elegir proveedor LLM, crea config.arc.yaml # O manualmente: cp config.researchclaw.example.yaml config.arc.yaml # 4. Ejecutar export OPENAI_API_KEY="sk-..." researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approve ``` Salida β†’ `artifacts/rc-YYYYMMDD-HHMMSS-/deliverables/` β€” LaTeX listo para compilar, BibTeX, codigo experimental, graficos.
πŸ“ Configuracion minima requerida ```yaml project: name: "my-research" research: topic: "Your research topic here" llm: base_url: "https://api.openai.com/v1" api_key_env: "OPENAI_API_KEY" primary_model: "gpt-4o" fallback_models: ["gpt-4o-mini"] experiment: mode: "sandbox" sandbox: python_path: ".venv/bin/python" ```
--- ## 🧠 Que lo hace diferente | Capacidad | Como funciona | |-----------|--------------| | **πŸ”„ Bucle PIVOT / REFINE** | La etapa 15 decide de forma autonoma: PROCEED, REFINE (ajustar parametros) o PIVOT (nueva direccion). Artefactos auto-versionados. | | **πŸ€– Debate multi-agente** | La generacion de hipotesis, el analisis de resultados y la revision por pares utilizan cada uno debate estructurado multi-perspectiva. | | **🧬 Auto-aprendizaje** | Lecciones extraidas por ejecucion (justificacion de decisiones, advertencias de ejecucion, anomalias de metricas) con decaimiento temporal de 30 dias. Las ejecuciones futuras aprenden de errores pasados. | | **πŸ“š Base de conocimiento** | Cada ejecucion construye una KB estructurada en 6 categorias (decisiones, experimentos, hallazgos, literatura, preguntas, revisiones). | | **πŸ›‘οΈ Vigilante Sentinel** | Monitor de calidad en segundo plano: deteccion NaN/Inf, consistencia articulo-evidencia, puntuacion de relevancia de citas, guardia anti-fabricacion. | --- ## 🦞 Integracion con OpenClaw **AutoResearchClaw es un servicio compatible con [OpenClaw](https://github.com/openclaw/openclaw).** Instalalo en OpenClaw y lanza investigacion autonoma con un solo mensaje β€” o usalo de forma independiente via CLI, Claude Code o cualquier asistente de programacion con IA.
### πŸš€ Uso con OpenClaw (Recomendado) Si ya usas [OpenClaw](https://github.com/openclaw/openclaw) como tu asistente de IA: ``` 1️⃣ Comparte la URL del repositorio de GitHub con OpenClaw 2️⃣ OpenClaw lee automaticamente RESEARCHCLAW_AGENTS.md β†’ comprende el pipeline 3️⃣ Di: "Research [tu tema]" 4️⃣ Listo β€” OpenClaw clona, instala, configura, ejecuta y devuelve los resultados ``` **Eso es todo.** OpenClaw se encarga de `git clone`, `pip install`, configuracion y ejecucion del pipeline automaticamente. Tu solo chateas.
πŸ’‘ Que sucede internamente 1. OpenClaw lee `RESEARCHCLAW_AGENTS.md` β†’ aprende el rol de orquestador de investigacion 2. OpenClaw lee `README.md` β†’ comprende la instalacion y la estructura del pipeline 3. OpenClaw copia `config.researchclaw.example.yaml` β†’ `config.yaml` 4. Solicita tu clave API del LLM (o usa tu variable de entorno) 5. Ejecuta `pip install -e .` + `researchclaw run --topic "..." --auto-approve` 6. Devuelve el articulo, LaTeX, experimentos y citas
### πŸ”Œ Bridge de OpenClaw (Avanzado) Para una integracion mas profunda, AutoResearchClaw incluye un **sistema de adaptadores bridge** con 6 capacidades opcionales: ```yaml # config.arc.yaml openclaw_bridge: use_cron: true # ⏰ Ejecuciones de investigacion programadas use_message: true # πŸ’¬ Notificaciones de progreso (Discord/Slack/Telegram) use_memory: true # 🧠 Persistencia de conocimiento entre sesiones use_sessions_spawn: true # πŸ”€ Generar sub-sesiones paralelas para etapas concurrentes use_web_fetch: true # 🌐 Busqueda web en vivo durante la revision de literatura use_browser: false # πŸ–₯️ Recopilacion de articulos basada en navegador ``` Cada flag activa un protocolo de adaptador tipado. Cuando OpenClaw proporciona estas capacidades, los adaptadores las consumen sin cambios en el codigo. Consulta [`integration-guide.md`](integration-guide.md) para mas detalles. ### ACP (Agent Client Protocol) AutoResearchClaw puede usar **cualquier agente de programacion compatible con ACP** como backend LLM β€” sin necesidad de claves API. El agente se comunica via [acpx](https://github.com/openclaw/acpx), manteniendo una sola sesion persistente a traves de las 23 etapas del pipeline. | Agente | Comando | Notas | |--------|---------|-------| | Claude Code | `claude` | Anthropic | | Codex CLI | `codex` | OpenAI | | Copilot CLI | `gh` | GitHub | | Gemini CLI | `gemini` | Google | | OpenCode | `opencode` | SST | | Kimi CLI | `kimi` | Moonshot | ```yaml # config.yaml β€” ejemplo ACP llm: provider: "acp" acp: agent: "claude" # Cualquier comando CLI de agente compatible con ACP cwd: "." # Directorio de trabajo para el agente # No se necesita base_url ni api_key β€” el agente gestiona su propia autenticacion. ``` ```bash # Solo ejecuta β€” el agente usa sus propias credenciales researchclaw run --config config.yaml --topic "Your research idea" --auto-approve ``` ### πŸ› οΈ Otras formas de ejecucion | Metodo | Como | |--------|------| | **CLI independiente** | `researchclaw setup` β†’ `researchclaw init` β†’ `researchclaw run --topic "..." --auto-approve` | | **API de Python** | `from researchclaw.pipeline import Runner; Runner(config).run()` | | **Claude Code** | Lee `RESEARCHCLAW_CLAUDE.md` β€” solo di *"Run research on [tema]"* | | **Copilot CLI** | `researchclaw run --topic "..."` con `llm.acp.agent: "gh"` | | **OpenCode** | Lee `.claude/skills/` β€” la misma interfaz en lenguaje natural | | **Cualquier CLI de IA** | Proporciona `RESEARCHCLAW_AGENTS.md` como contexto β†’ el agente se auto-configura | --- ## πŸ”¬ Pipeline: 23 etapas, 8 fases ``` Fase A: Alcance de investigacion Fase E: Ejecucion de experimentos 1. TOPIC_INIT 12. EXPERIMENT_RUN 2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← auto-reparacion Fase B: Descubrimiento de literatura Fase F: Analisis y decision 3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← multi-agente 4. LITERATURE_COLLECT ← API real 15. RESEARCH_DECISION ← PIVOT/REFINE 5. LITERATURE_SCREEN [compuerta] 6. KNOWLEDGE_EXTRACT Fase G: Redaccion del articulo 16. PAPER_OUTLINE Fase C: Sintesis de conocimiento 17. PAPER_DRAFT 7. SYNTHESIS 18. PEER_REVIEW ← verif. evidencia 8. HYPOTHESIS_GEN ← debate 19. PAPER_REVISION Fase D: Diseno experimental Fase H: Finalizacion 9. EXPERIMENT_DESIGN [compuerta] 20. QUALITY_GATE [compuerta] 10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE 11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX 23. CITATION_VERIFY ← verif. relevancia ``` > Las **etapas con compuerta** (5, 9, 20) se pausan para aprobacion humana o se auto-aprueban con `--auto-approve`. Al rechazar, el pipeline retrocede. > **Bucles de decision**: La etapa 15 puede activar REFINE (β†’ Etapa 13) o PIVOT (β†’ Etapa 8), con versionado automatico de artefactos.
πŸ“‹ Que hace cada fase | Fase | Que sucede | |------|-----------| | **A: Alcance** | El LLM descompone el tema en un arbol de problemas estructurado con preguntas de investigacion | | **A+: Hardware** | Deteccion automatica de GPU (NVIDIA CUDA / Apple MPS / solo CPU), advierte si el hardware local es limitado, adapta la generacion de codigo en consecuencia | | **B: Literatura** | Busqueda multi-fuente (OpenAlex β†’ Semantic Scholar β†’ arXiv) de articulos reales, filtrado por relevancia, extraccion de fichas de conocimiento | | **C: Sintesis** | Agrupa hallazgos, identifica brechas de investigacion, genera hipotesis comprobables mediante debate multi-agente | | **D: Diseno** | Disena plan experimental, genera Python ejecutable adaptado al hardware (nivel de GPU β†’ seleccion de paquetes), estima necesidades de recursos | | **E: Ejecucion** | Ejecuta experimentos en sandbox, detecta NaN/Inf y errores en tiempo de ejecucion, auto-repara codigo mediante reparacion LLM dirigida | | **F: Analisis** | Analisis multi-agente de resultados; decision autonoma PROCEED / REFINE / PIVOT con justificacion | | **G: Redaccion** | Esquema β†’ redaccion seccion por seccion (5,000-6,500 palabras) β†’ revision por pares (con consistencia metodologia-evidencia) β†’ revision con guardia de longitud | | **H: Finalizacion** | Compuerta de calidad, archivado de conocimiento, exportacion LaTeX con plantilla de conferencia, verificacion de integridad + relevancia de citas |
--- ## ✨ Caracteristicas principales | Caracteristica | Descripcion | |----------------|------------| | **πŸ“š Literatura multi-fuente** | Articulos reales de OpenAlex, Semantic Scholar y arXiv β€” expansion de consultas, deduplicacion, circuit breaker con degradacion gradual | | **πŸ” Verificacion de citas en 4 capas** | Verificacion de arXiv ID β†’ DOI CrossRef/DataCite β†’ coincidencia de titulo Semantic Scholar β†’ puntuacion de relevancia LLM. Referencias alucinadas auto-eliminadas. | | **πŸ–₯️ Ejecucion adaptada al hardware** | Deteccion automatica de GPU (NVIDIA CUDA / Apple MPS / solo CPU) y adaptacion de la generacion de codigo, imports y escala experimental | | **🦾 OpenCode Beast Mode** | Los experimentos complejos se enrutan automaticamente a [OpenCode](https://github.com/anomalyco/opencode) β€” genera proyectos multi-archivo con arquitecturas personalizadas, bucles de entrenamiento y estudios de ablacion. Instalacion via `researchclaw setup`. | | **πŸ§ͺ Experimentos en sandbox** | Codigo validado por AST, harness inmutable, fallo rapido NaN/Inf, reparacion auto-curativa, refinamiento iterativo (hasta 10 rondas), captura de resultados parciales | | **πŸ“ Redaccion de calidad conferencia** | Plantillas NeurIPS/ICML/ICLR, redaccion seccion por seccion (5,000-6,500 palabras), guardia anti-fabricacion, guardia de longitud en revision, enforcement anti-disclaimer | | **πŸ“ Cambio de plantilla** | `neurips_2025`, `iclr_2026`, `icml_2026` β€” Markdown β†’ LaTeX con formulas, tablas, figuras, referencias cruzadas, `\cite{}` | | **🚦 Compuertas de calidad** | 3 compuertas con intervencion humana posible (etapas 5, 9, 20) con retroceso. Omitir con `--auto-approve`. | --- ## 🧠 Integracion MetaClaw **AutoResearchClaw + [MetaClaw](https://github.com/aiming-lab/MetaClaw) = Un pipeline que aprende de cada ejecucion.** MetaClaw agrega **transferencia de conocimiento entre ejecuciones** a AutoResearchClaw. Cuando esta habilitado, el pipeline captura automaticamente lecciones de fallos y advertencias, las convierte en habilidades reutilizables, e inyecta esas habilidades en las 23 etapas del pipeline en ejecuciones posteriores β€” para que los mismos errores nunca se repitan. ### Como funciona ``` Ejecucion N se ejecuta β†’ fallos/advertencias capturados como Lecciones ↓ MetaClaw Leccion β†’ conversion a Habilidad ↓ Archivos de habilidades arc-* almacenados en ~/.metaclaw/skills/ ↓ Ejecucion N+1 β†’ build_overlay() inyecta habilidades en cada prompt LLM ↓ El LLM evita trampas conocidas β†’ mayor calidad, menos reintentos ``` ### Configuracion rapida ```bash # 1. Instalar MetaClaw (si no esta instalado) pip install metaclaw # 2. Habilitar en tu configuracion ``` ```yaml # config.arc.yaml metaclaw_bridge: enabled: true proxy_url: "http://localhost:30000" # Proxy MetaClaw (opcional) skills_dir: "~/.metaclaw/skills" # Donde se almacenan las habilidades fallback_url: "https://api.openai.com/v1" # Fallback directo al LLM fallback_api_key: "" # Clave API para la URL de fallback lesson_to_skill: enabled: true min_severity: "warning" # Convertir advertencias + errores max_skills_per_run: 3 ``` ```bash # 3. Ejecuta como siempre β€” MetaClaw funciona de forma transparente researchclaw run --config config.arc.yaml --topic "Your idea" --auto-approve ``` Despues de cada ejecucion, revisa `~/.metaclaw/skills/arc-*/SKILL.md` para ver las habilidades que tu pipeline ha aprendido. ### Resultados experimentales En experimentos controlados A/B (mismo tema, mismo LLM, misma configuracion): | Metrica | Linea base | Con MetaClaw | Mejora | |---------|------------|--------------|--------| | Tasa de reintento de etapas | 10.5% | 7.9% | **-24.8%** | | Conteo de ciclos REFINE | 2.0 | 1.2 | **-40.0%** | | Completacion de etapas del pipeline | 18/19 | 19/19 | **+5.3%** | | Puntuacion de robustez global (compuesta) | 0.714 | 0.845 | **+18.3%** | > La puntuacion de robustez compuesta es un promedio ponderado de la tasa de completacion de etapas (40%), reduccion de reintentos (30%) y eficiencia de ciclos REFINE (30%). ### Retrocompatibilidad - **Por defecto: DESACTIVADO.** Si `metaclaw_bridge` esta ausente o `enabled: false`, el pipeline se comporta exactamente como antes. - **Sin nuevas dependencias.** MetaClaw es opcional β€” el pipeline base funciona sin el. - **Los 1,823 tests existentes pasan** con el codigo de integracion presente. --- ## βš™οΈ Referencia de configuracion
Haz clic para expandir la referencia completa de configuracion ```yaml # === Proyecto === project: name: "my-research" # Identificador del proyecto mode: "docs-first" # docs-first | semi-auto | full-auto # === Investigacion === research: topic: "..." # Tema de investigacion (requerido) domains: ["ml", "nlp"] # Dominios de investigacion para busqueda de literatura daily_paper_count: 8 # Articulos objetivo por consulta de busqueda quality_threshold: 4.0 # Puntuacion minima de calidad para articulos # === Tiempo de ejecucion === runtime: timezone: "America/New_York" # Para marcas de tiempo max_parallel_tasks: 3 # Limite de experimentos concurrentes approval_timeout_hours: 12 # Timeout de etapas con compuerta retry_limit: 2 # Numero de reintentos por fallo de etapa # === LLM === llm: provider: "openai-compatible" # openai | openrouter | deepseek | minimax | acp | openai-compatible base_url: "https://..." # Endpoint de API (requerido para openai-compatible) api_key_env: "OPENAI_API_KEY" # Variable de entorno para la clave API (requerido para openai-compatible) api_key: "" # O codifica la clave aqui directamente primary_model: "gpt-4o" # Modelo principal fallback_models: ["gpt-4o-mini"] # Cadena de fallback s2_api_key: "" # Clave API de Semantic Scholar (opcional, mayores limites de tasa) acp: # Solo se usa cuando provider: "acp" agent: "claude" # Comando CLI del agente ACP (claude, codex, gemini, etc.) cwd: "." # Directorio de trabajo para el agente # === Experimento === experiment: mode: "sandbox" # simulated | sandbox | docker | ssh_remote time_budget_sec: 300 # Tiempo maximo de ejecucion por corrida (por defecto: 300s) max_iterations: 10 # Maximo de iteraciones de optimizacion metric_key: "val_loss" # Nombre de la metrica principal metric_direction: "minimize" # minimize | maximize sandbox: python_path: ".venv/bin/python" gpu_required: false allowed_imports: [math, random, json, csv, numpy, torch, sklearn] max_memory_mb: 4096 docker: image: "researchclaw/experiment:latest" network_policy: "setup_only" # none | setup_only | pip_only | full gpu_enabled: true memory_limit_mb: 8192 auto_install_deps: true # Deteccion automatica de imports β†’ requirements.txt ssh_remote: host: "" # Nombre de host del servidor GPU gpu_ids: [] # IDs de GPU disponibles remote_workdir: "/tmp/researchclaw_experiments" opencode: # OpenCode Beast Mode (auto-instalado via `researchclaw setup`) enabled: true # Interruptor principal (por defecto: true) auto: true # Auto-activacion sin confirmacion (por defecto: true) complexity_threshold: 0.2 # 0.0-1.0 β€” mas alto = solo se activa para experimentos complejos model: "" # Modelo a forzar (vacio = usa llm.primary_model) timeout_sec: 600 # Segundos maximos para generacion OpenCode max_retries: 1 # Numero de reintentos por fallo workspace_cleanup: true # Eliminar workspace temporal despues de recoleccion # === Exportacion === export: target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026 authors: "Anonymous" bib_file: "references" # === Prompts === prompts: custom_file: "" # Ruta a YAML de prompts personalizados (vacio = valores por defecto) # === Seguridad === security: hitl_required_stages: [5, 9, 20] # Etapas que requieren aprobacion humana allow_publish_without_approval: false redact_sensitive_logs: true # === Base de conocimiento === knowledge_base: backend: "markdown" # markdown | obsidian root: "docs/kb" # === Notificaciones === notifications: channel: "console" # console | discord | slack target: "" # === Puente MetaClaw (Opcional) === metaclaw_bridge: enabled: false # Establecer en true para habilitar aprendizaje entre ejecuciones proxy_url: "http://localhost:30000" # URL del proxy MetaClaw skills_dir: "~/.metaclaw/skills" # Donde se almacenan las habilidades arc-* fallback_url: "" # Fallback directo al LLM cuando el proxy esta caido fallback_api_key: "" # Clave API para el endpoint de fallback lesson_to_skill: enabled: true # Convertir lecciones en habilidades automaticamente min_severity: "warning" # Severidad minima para conversion max_skills_per_run: 3 # Max de nuevas habilidades por ejecucion del pipeline # === Bridge de OpenClaw === openclaw_bridge: use_cron: false # Ejecuciones de investigacion programadas use_message: false # Notificaciones de progreso use_memory: false # Persistencia de conocimiento entre sesiones use_sessions_spawn: false # Generar sub-sesiones paralelas use_web_fetch: false # Busqueda web en vivo use_browser: false # Recopilacion de articulos basada en navegador ```
--- ## πŸ™ Agradecimientos Inspirado por: - πŸ”¬ [AI Scientist](https://github.com/SakanaAI/AI-Scientist) (Sakana AI) β€” Pionero en investigacion automatizada - 🧠 [AutoResearch](https://github.com/karpathy/autoresearch) (Andrej Karpathy) β€” Automatizacion de investigacion de principio a fin - 🌐 [FARS](https://analemma.ai/blog/introducing-fars/) (Analemma) β€” Sistema de investigacion completamente automatizado --- ## πŸ“„ Licencia MIT β€” consulta [LICENSE](../LICENSE) para mas detalles. --- ## πŸ“Œ Citacion Si encuentras AutoResearchClaw util, por favor cita: ```bibtex @misc{liu2026autoresearchclaw, author = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming and Tu, Haoqin and Yang, Xinyu and and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu}, title = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper}, year = {2026}, organization = {GitHub}, url = {https://github.com/aiming-lab/AutoResearchClaw}, } ```

Construido con 🦞 por el equipo de AutoResearchClaw