AutoResearchClaw Logo

Discutez une idee. Obtenez un article. Entierement autonome & auto-evolutif.

Discutez avec OpenClaw : "Recherche X" β†’ termine.

AutoResearchClaw Framework

MIT License Python 3.11+ 1823 Tests Passed GitHub OpenClaw Compatible Discord

πŸ‡ΊπŸ‡Έ English Β· πŸ‡¨πŸ‡³ δΈ­ζ–‡ Β· πŸ‡―πŸ‡΅ ζ—₯本θͺž Β· πŸ‡°πŸ‡· ν•œκ΅­μ–΄ Β· πŸ‡«πŸ‡· FranΓ§ais Β· πŸ‡©πŸ‡ͺ Deutsch Β· πŸ‡ͺπŸ‡Έ EspaΓ±ol Β· πŸ‡§πŸ‡· PortuguΓͺs Β· πŸ‡·πŸ‡Ί Русский Β· πŸ‡ΈπŸ‡¦ Ψ§Ω„ΨΉΨ±Ψ¨ΩŠΨ©

πŸ† Vitrine des articles Β· πŸ“– Guide d'integration Β· πŸ’¬ Communaute Discord

---
Sample Paper πŸ† Vitrine des articles generes

8 articles couvrant 8 domaines β€” mathematiques, statistiques, biologie, informatique, NLP, RL, vision, robustesse β€” generes de maniere entierement autonome sans aucune intervention humaine.

View Showcase
--- > **πŸ§ͺ Nous recherchons des testeurs !** Essayez le pipeline avec votre propre idee de recherche β€” dans n'importe quel domaine β€” et [dites-nous ce que vous en pensez](TESTER_GUIDE.md). Vos retours faconnent directement la prochaine version. **[β†’ Testing Guide](TESTER_GUIDE.md)** | **[β†’ δΈ­ζ–‡ζ΅‹θ―•ζŒ‡ε—](TESTER_GUIDE_CN.md)** | **[β†’ ζ—₯本θͺžγƒ†γ‚Ήγƒˆγ‚¬γ‚€γƒ‰](TESTER_GUIDE_JA.md)** --- ## πŸ”₯ News - **[03/22/2026]** [v0.3.2](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.2) β€” **Support multiplateforme + stabilite majeure** β€” AutoResearchClaw fonctionne desormais avec tout agent compatible ACP (Claude Code, Codex CLI, Copilot CLI, Gemini CLI, Kimi CLI) et supporte les plateformes de messagerie (Discord, Telegram, Lark, WeChat) via le pont OpenClaw. Nouveau backend de generation de code CLI-agent qui delegue les Stages 10 et 13 a des agents CLI externes avec controle de budget et gestion des timeouts. Inclut le systeme anti-fabrication (VerifiedRegistry + boucle diagnostic/reparation), 100+ corrections de bugs, refactoring modulaire de l'executor, auto-detection `--resume`, renforcement des retries LLM, et corrections communautaires. - **[03/18/2026]** [v0.3.1](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.1) β€” **OpenCode Beast Mode + Community Contributions** β€” New "Beast Mode" routes complex code generation to [OpenCode](https://github.com/anomalyco/opencode) with automatic complexity scoring and graceful fallback. Added Novita AI provider support, thread-safety hardening, improved LLM output parsing robustness, and 20+ bug fixes from community PRs and internal audit. - **[03/17/2026]** [v0.3.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.0) β€” **MetaClaw Integration** β€” AutoResearchClaw now supports [MetaClaw](https://github.com/aiming-lab/MetaClaw) cross-run learning: pipeline failures β†’ structured lessons β†’ reusable skills, injected into all 23 stages. **+18.3%** robustness in controlled experiments. Opt-in (`metaclaw_bridge.enabled: true`), fully backward-compatible. See [Integration Guide](#-integration-metaclaw). - **[03/16/2026]** [v0.2.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.2.0) β€” Three multi-agent subsystems (CodeAgent, BenchmarkAgent, FigureAgent), hardened Docker sandbox with network-policy-aware execution, 4-round paper quality audit (AI-slop detection, 7-dim review scoring, NeurIPS checklist), and 15+ bug fixes from production runs. - **[03/15/2026]** [v0.1.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.1.0) β€” We release AutoResearchClaw: a fully autonomous 23-stage research pipeline that turns a single research idea into a conference-ready paper. No human intervention required. --- ## ⚑ Une commande. Un article. ```bash pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Your research idea here" --auto-approve ``` --- ## πŸ€” De quoi s'agit-il ? **Vous y pensez. AutoResearchClaw l'ecrit.** Donnez un sujet de recherche β€” recevez un article academique complet avec de la vraie litterature provenant d'OpenAlex, Semantic Scholar et arXiv, des experiences en sandbox adaptees au materiel (detection automatique GPU/MPS/CPU), une analyse statistique, une relecture multi-agents, et du LaTeX pret pour les conferences ciblant NeurIPS/ICML/ICLR. Aucune supervision. Aucun copier-coller. Aucune reference hallucinee.
πŸ“„paper_draft.mdArticle academique complet (Introduction, Travaux connexes, Methode, Experiences, Resultats, Conclusion)
πŸ“paper.texLaTeX pret pour les conferences (templates NeurIPS / ICLR / ICML)
πŸ“šreferences.bibReferences BibTeX reelles provenant d'OpenAlex, Semantic Scholar et arXiv β€” auto-elaguees pour correspondre aux citations dans le texte
πŸ”verification_report.jsonVerification d'integrite et de pertinence des citations sur 4 couches (arXiv, CrossRef, DataCite, LLM)
πŸ§ͺexperiment runs/Code genere + resultats sandbox + metriques JSON structurees
πŸ“Šcharts/Graphiques de comparaison de conditions auto-generes avec barres d'erreur et intervalles de confiance
πŸ“reviews.mdRelecture multi-agents avec verification de coherence methodologie-preuves
🧬evolution/Lecons d'auto-apprentissage extraites de chaque execution
πŸ“¦deliverables/Tous les livrables finaux dans un seul dossier β€” pret a compiler pour Overleaf
Le pipeline s'execute **de bout en bout sans intervention humaine**. Quand les experiences echouent, il s'auto-repare. Quand les hypotheses ne tiennent pas, il pivote. Quand les citations sont fausses, il les supprime. 🌍 **Utilisable partout.** AutoResearchClaw n'est pas verrouille sur une seule plateforme. Utilisez-le en CLI autonome, connectez-le a [OpenClaw](https://github.com/openclaw/openclaw), ou integrez-le avec n'importe quel agent compatible ACP β€” πŸ€– Claude Code, πŸ’» Codex CLI, πŸ™ Copilot CLI, β™Š Gemini CLI, πŸŒ™ Kimi CLI, et bien d'autres. Grace au pont de messagerie d'OpenClaw, vous pouvez lancer une recherche complete depuis πŸ’¬ Discord, ✈️ Telegram, 🐦 Lark (飞书), πŸ’š WeChat, ou la plateforme que votre equipe utilise deja. Un sujet en entree, un article en sortie β€” peu importe d'ou vous l'envoyez. --- ## πŸš€ Demarrage rapide ```bash # 1. Cloner & installer git clone https://github.com/aiming-lab/AutoResearchClaw.git cd AutoResearchClaw python3 -m venv .venv && source .venv/bin/activate pip install -e . # 2. Setup (interactif β€” installe OpenCode beast mode, verifie Docker/LaTeX) researchclaw setup # 3. Configurer researchclaw init # Interactif : choisir le fournisseur LLM, cree config.arc.yaml # Ou manuellement : cp config.researchclaw.example.yaml config.arc.yaml # 4. Executer export OPENAI_API_KEY="sk-..." researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approve ``` Sortie β†’ `artifacts/rc-YYYYMMDD-HHMMSS-/deliverables/` β€” LaTeX pret a compiler, BibTeX, code d'experience, graphiques.
πŸ“ Configuration minimale requise ```yaml project: name: "my-research" research: topic: "Your research topic here" llm: base_url: "https://api.openai.com/v1" api_key_env: "OPENAI_API_KEY" primary_model: "gpt-4o" fallback_models: ["gpt-4o-mini"] experiment: mode: "sandbox" sandbox: python_path: ".venv/bin/python" ```
--- ## 🧠 Ce qui le distingue | Capacite | Fonctionnement | |----------|---------------| | **πŸ”„ Boucle PIVOT / REFINE** | L'etape 15 decide de maniere autonome : PROCEED, REFINE (ajuster les parametres) ou PIVOT (nouvelle direction). Artefacts auto-versionnes. | | **πŸ€– Debat multi-agents** | La generation d'hypotheses, l'analyse de resultats et la relecture par les pairs utilisent chacune un debat structure multi-perspectives. | | **🧬 Auto-apprentissage** | Lecons extraites a chaque execution (justification des decisions, avertissements d'execution, anomalies de metriques) avec decroissance temporelle a 30 jours. Les executions futures apprennent des erreurs passees. | | **πŸ“š Base de connaissances** | Chaque execution construit une KB structuree couvrant 6 categories (decisions, experiences, resultats, litterature, questions, relectures). | | **πŸ›‘οΈ Sentinel Watchdog** | Moniteur de qualite en arriere-plan : detection NaN/Inf, coherence article-preuves, score de pertinence des citations, protection anti-fabrication. | --- ## 🦞 Integration OpenClaw **AutoResearchClaw est un service compatible [OpenClaw](https://github.com/openclaw/openclaw).** Installez-le dans OpenClaw et lancez une recherche autonome avec un seul message β€” ou utilisez-le de maniere autonome via CLI, Claude Code, ou tout assistant de codage IA.
### πŸš€ Utilisation avec OpenClaw (recommande) Si vous utilisez deja [OpenClaw](https://github.com/openclaw/openclaw) comme assistant IA : ``` 1️⃣ Partagez l'URL du depot GitHub avec OpenClaw 2️⃣ OpenClaw lit automatiquement RESEARCHCLAW_AGENTS.md β†’ comprend le pipeline 3️⃣ Dites : "Research [votre sujet]" 4️⃣ C'est fait β€” OpenClaw clone, installe, configure, execute et renvoie les resultats ``` **C'est tout.** OpenClaw gere `git clone`, `pip install`, la configuration et l'execution du pipeline automatiquement. Vous n'avez qu'a discuter.
πŸ’‘ Ce qui se passe en coulisses 1. OpenClaw lit `RESEARCHCLAW_AGENTS.md` β†’ apprend le role d'orchestrateur de recherche 2. OpenClaw lit `README.md` β†’ comprend l'installation et la structure du pipeline 3. OpenClaw copie `config.researchclaw.example.yaml` β†’ `config.yaml` 4. Demande votre cle API LLM (ou utilise votre variable d'environnement) 5. Execute `pip install -e .` + `researchclaw run --topic "..." --auto-approve` 6. Renvoie l'article, le LaTeX, les experiences et les citations
### πŸ”Œ Pont OpenClaw (avance) Pour une integration plus poussee, AutoResearchClaw inclut un **systeme d'adaptateurs pont** avec 6 fonctionnalites optionnelles : ```yaml # config.arc.yaml openclaw_bridge: use_cron: true # ⏰ Executions de recherche planifiees use_message: true # πŸ’¬ Notifications de progression (Discord/Slack/Telegram) use_memory: true # 🧠 Persistance des connaissances inter-sessions use_sessions_spawn: true # πŸ”€ Lancement de sous-sessions paralleles pour les etapes concurrentes use_web_fetch: true # 🌐 Recherche web en direct pendant la revue de litterature use_browser: false # πŸ–₯️ Collecte d'articles via navigateur ``` Chaque option active un protocole d'adaptateur type. Quand OpenClaw fournit ces fonctionnalites, les adaptateurs les consomment sans modification de code. Voir [`integration-guide.md`](integration-guide.md) pour tous les details. ### ACP (Agent Client Protocol) AutoResearchClaw peut utiliser **n'importe quel agent de codage compatible ACP** comme backend LLM β€” sans cle API requise. L'agent communique via [acpx](https://github.com/openclaw/acpx), en maintenant une session persistante unique a travers les 23 etapes du pipeline. | Agent | Commande | Notes | |-------|----------|-------| | Claude Code | `claude` | Anthropic | | Codex CLI | `codex` | OpenAI | | Copilot CLI | `gh` | GitHub | | Gemini CLI | `gemini` | Google | | OpenCode | `opencode` | SST | | Kimi CLI | `kimi` | Moonshot | ```yaml # config.yaml β€” exemple ACP llm: provider: "acp" acp: agent: "claude" # N'importe quel agent CLI compatible ACP cwd: "." # Repertoire de travail pour l'agent # Pas besoin de base_url ou api_key β€” l'agent gere sa propre authentification. ``` ```bash # Executez simplement β€” l'agent utilise ses propres identifiants researchclaw run --config config.yaml --topic "Your research idea" --auto-approve ``` ### πŸ› οΈ Autres methodes d'execution | Methode | Comment | |---------|---------| | **CLI autonome** | `researchclaw setup` β†’ `researchclaw init` β†’ `researchclaw run --topic "..." --auto-approve` | | **API Python** | `from researchclaw.pipeline import Runner; Runner(config).run()` | | **Claude Code** | Lit `RESEARCHCLAW_CLAUDE.md` β€” dites simplement *"Run research on [sujet]"* | | **Copilot CLI** | `researchclaw run --topic "..."` avec `llm.acp.agent: "gh"` | | **OpenCode** | Lit `.claude/skills/` β€” meme interface en langage naturel | | **Tout CLI IA** | Fournissez `RESEARCHCLAW_AGENTS.md` comme contexte β†’ l'agent s'auto-initialise | --- ## πŸ”¬ Pipeline : 23 etapes, 8 phases ``` Phase A : Cadrage de la recherche Phase E : Execution des experiences 1. TOPIC_INIT 12. EXPERIMENT_RUN 2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← auto-reparation Phase B : Decouverte de litterature Phase F : Analyse et decision 3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← multi-agents 4. LITERATURE_COLLECT ← API reelle 15. RESEARCH_DECISION ← PIVOT/REFINE 5. LITERATURE_SCREEN [porte] 6. KNOWLEDGE_EXTRACT Phase G : Redaction de l'article 16. PAPER_OUTLINE Phase C : Synthese des connaissances 17. PAPER_DRAFT 7. SYNTHESIS 18. PEER_REVIEW ← verif. preuves 8. HYPOTHESIS_GEN ← debat 19. PAPER_REVISION Phase D : Conception experimentale Phase H : Finalisation 9. EXPERIMENT_DESIGN [porte] 20. QUALITY_GATE [porte] 10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE 11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX 23. CITATION_VERIFY ← verif. pertinence ``` > **Etapes de validation** (5, 9, 20) : pause pour approbation humaine ou approbation automatique avec `--auto-approve`. En cas de rejet, le pipeline revient en arriere. > **Boucles de decision** : l'etape 15 peut declencher REFINE (β†’ etape 13) ou PIVOT (β†’ etape 8), avec versionnement automatique des artefacts.
πŸ“‹ Ce que fait chaque phase | Phase | Ce qui se passe | |-------|-----------------| | **A : Cadrage** | Le LLM decompose le sujet en un arbre de problemes structure avec des questions de recherche | | **A+ : Materiel** | Detection automatique du GPU (NVIDIA CUDA / Apple MPS / CPU uniquement), avertissement si le materiel local est limite, adaptation de la generation de code en consequence | | **B : Litterature** | Recherche multi-sources (OpenAlex β†’ Semantic Scholar β†’ arXiv) de vrais articles, filtrage par pertinence, extraction de fiches de connaissances | | **C : Synthese** | Regroupement des resultats, identification des lacunes de recherche, generation d'hypotheses testables via debat multi-agents | | **D : Conception** | Conception du plan experimental, generation de Python executable adapte au materiel (niveau GPU β†’ selection de packages), estimation des besoins en ressources | | **E : Execution** | Execution des experiences en sandbox, detection de NaN/Inf et bugs d'execution, auto-reparation du code via reparation ciblee par LLM | | **F : Analyse** | Analyse multi-agents des resultats ; decision autonome PROCEED / REFINE / PIVOT avec justification | | **G : Redaction** | Plan β†’ redaction section par section (5 000-6 500 mots) β†’ relecture (avec verification de coherence methodologie-preuves) β†’ revision avec controle de longueur | | **H : Finalisation** | Porte qualite, archivage des connaissances, export LaTeX avec template de conference, verification d'integrite et de pertinence des citations |
--- ## ✨ Fonctionnalites cles | Fonctionnalite | Description | |----------------|------------| | **πŸ“š Litterature multi-sources** | Vrais articles depuis OpenAlex, Semantic Scholar et arXiv β€” expansion de requetes, deduplication, disjoncteur avec degradation gracieuse | | **πŸ” Verification des citations en 4 couches** | Verification arXiv ID β†’ DOI CrossRef/DataCite β†’ correspondance de titre Semantic Scholar β†’ score de pertinence LLM. References hallucinΓ©es auto-supprimees. | | **πŸ–₯️ Execution adaptee au materiel** | Detection automatique du GPU (NVIDIA CUDA / Apple MPS / CPU uniquement) et adaptation de la generation de code, des imports et de l'echelle experimentale | | **🦾 OpenCode Beast Mode** | Les experiences complexes sont automatiquement dirigees vers [OpenCode](https://github.com/anomalyco/opencode) β€” genere des projets multi-fichiers avec architectures personnalisees, boucles d'entrainement et etudes d'ablation. Installation via `researchclaw setup`. | | **πŸ§ͺ Experiences en sandbox** | Code valide par AST, harnais immuable, echec rapide NaN/Inf, reparation auto-guerison, raffinement iteratif (jusqu'a 10 tours), capture de resultats partiels | | **πŸ“ Redaction de qualite conference** | Templates NeurIPS/ICML/ICLR, redaction section par section (5 000-6 500 mots), protection anti-fabrication, controle de longueur en revision, application anti-clause de non-responsabilite | | **πŸ“ Changement de template** | `neurips_2025`, `iclr_2026`, `icml_2026` β€” Markdown β†’ LaTeX avec formules, tableaux, figures, references croisees, `\cite{}` | | **🚦 Portes qualite** | 3 portes avec intervention humaine possible (etapes 5, 9, 20) avec retour en arriere. A passer avec `--auto-approve`. | --- ## 🧠 Integration MetaClaw **AutoResearchClaw + [MetaClaw](https://github.com/aiming-lab/MetaClaw) = Un pipeline qui apprend de chaque execution.** MetaClaw ajoute le **transfert de connaissances inter-executions** a AutoResearchClaw. Lorsqu'il est active, le pipeline capture automatiquement les lecons des echecs et avertissements, les convertit en competences reutilisables, et injecte ces competences dans les 23 etapes du pipeline lors des executions suivantes β€” pour ne jamais repeter les memes erreurs. ### Fonctionnement ``` Execution N s'execute β†’ echecs/avertissements captures comme Lecons ↓ MetaClaw Lecon β†’ conversion en Competence ↓ Fichiers de competences arc-* stockes dans ~/.metaclaw/skills/ ↓ Execution N+1 β†’ build_overlay() injecte les competences dans chaque prompt LLM ↓ Le LLM evite les pieges connus β†’ meilleure qualite, moins de tentatives ``` ### Configuration rapide ```bash # 1. Installer MetaClaw (si ce n'est pas deja fait) pip install metaclaw # 2. Activer dans votre configuration ``` ```yaml # config.arc.yaml metaclaw_bridge: enabled: true proxy_url: "http://localhost:30000" # Proxy MetaClaw (optionnel) skills_dir: "~/.metaclaw/skills" # Ou les competences sont stockees fallback_url: "https://api.openai.com/v1" # Repli direct vers le LLM fallback_api_key: "" # Cle API pour l'URL de repli lesson_to_skill: enabled: true min_severity: "warning" # Convertir avertissements + erreurs max_skills_per_run: 3 ``` ```bash # 3. Executez comme d'habitude β€” MetaClaw fonctionne de maniere transparente researchclaw run --config config.arc.yaml --topic "Your idea" --auto-approve ``` Apres chaque execution, verifiez `~/.metaclaw/skills/arc-*/SKILL.md` pour voir les competences que votre pipeline a apprises. ### Resultats experimentaux Dans des experiences controlees A/B (meme sujet, meme LLM, meme configuration) : | Metrique | Reference | Avec MetaClaw | Amelioration | |----------|-----------|---------------|--------------| | Taux de relance des etapes | 10.5% | 7.9% | **-24.8%** | | Nombre de cycles REFINE | 2.0 | 1.2 | **-40.0%** | | Completion des etapes du pipeline | 18/19 | 19/19 | **+5.3%** | | Score de robustesse global (composite) | 0.714 | 0.845 | **+18.3%** | > Le score de robustesse composite est une moyenne ponderee du taux de completion des etapes (40%), de la reduction des tentatives (30%) et de l'efficacite des cycles REFINE (30%). ### Retrocompatibilite - **Par defaut : DESACTIVE.** Si `metaclaw_bridge` est absent ou `enabled: false`, le pipeline se comporte exactement comme avant. - **Aucune nouvelle dependance.** MetaClaw est optionnel β€” le pipeline de base fonctionne sans. - **Les 1 823 tests existants passent** avec le code d'integration present. --- ## βš™οΈ Reference de configuration
Cliquez pour afficher la reference complete de configuration ```yaml # === Projet === project: name: "my-research" # Identifiant du projet mode: "docs-first" # docs-first | semi-auto | full-auto # === Recherche === research: topic: "..." # Sujet de recherche (requis) domains: ["ml", "nlp"] # Domaines de recherche pour la revue de litterature daily_paper_count: 8 # Nombre cible d'articles par requete de recherche quality_threshold: 4.0 # Score qualite minimum pour les articles # === Execution === runtime: timezone: "America/New_York" # Pour les horodatages max_parallel_tasks: 3 # Limite d'experiences concurrentes approval_timeout_hours: 12 # Timeout des etapes de validation retry_limit: 2 # Nombre de tentatives en cas d'echec d'etape # === LLM === llm: provider: "openai-compatible" # openai | openrouter | deepseek | minimax | acp | openai-compatible base_url: "https://..." # Point d'acces API (requis pour openai-compatible) api_key_env: "OPENAI_API_KEY" # Variable d'env pour la cle API (requis pour openai-compatible) api_key: "" # Ou cle en dur ici primary_model: "gpt-4o" # Modele principal fallback_models: ["gpt-4o-mini"] # Chaine de repli s2_api_key: "" # Cle API Semantic Scholar (optionnel, limites de debit plus elevees) acp: # Utilise uniquement quand provider: "acp" agent: "claude" # Commande CLI de l'agent ACP (claude, codex, gemini, etc.) cwd: "." # Repertoire de travail pour l'agent # === Experience === experiment: mode: "sandbox" # simulated | sandbox | docker | ssh_remote time_budget_sec: 300 # Temps d'execution max par lancement (defaut : 300s) max_iterations: 10 # Iterations d'optimisation max metric_key: "val_loss" # Nom de la metrique principale metric_direction: "minimize" # minimize | maximize sandbox: python_path: ".venv/bin/python" gpu_required: false allowed_imports: [math, random, json, csv, numpy, torch, sklearn] max_memory_mb: 4096 docker: image: "researchclaw/experiment:latest" network_policy: "setup_only" # none | setup_only | pip_only | full gpu_enabled: true memory_limit_mb: 8192 auto_install_deps: true # Detection auto des imports β†’ requirements.txt ssh_remote: host: "" # Nom d'hote du serveur GPU gpu_ids: [] # Identifiants GPU disponibles remote_workdir: "/tmp/researchclaw_experiments" opencode: # OpenCode Beast Mode (auto-installe via `researchclaw setup`) enabled: true # Interrupteur principal (defaut : true) auto: true # Declenchement auto sans confirmation (defaut : true) complexity_threshold: 0.2 # 0.0-1.0 β€” plus eleve = ne se declenche que pour les experiences complexes model: "" # Modele a forcer (vide = utilise llm.primary_model) timeout_sec: 600 # Duree max en secondes pour la generation OpenCode max_retries: 1 # Nombre de tentatives en cas d'echec workspace_cleanup: true # Supprimer l'espace de travail temporaire apres collecte # === Export === export: target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026 authors: "Anonymous" bib_file: "references" # === Prompts === prompts: custom_file: "" # Chemin vers un YAML de prompts personnalises (vide = defauts) # === Securite === security: hitl_required_stages: [5, 9, 20] # Etapes necessitant une approbation humaine allow_publish_without_approval: false redact_sensitive_logs: true # === Base de connaissances === knowledge_base: backend: "markdown" # markdown | obsidian root: "docs/kb" # === Notifications === notifications: channel: "console" # console | discord | slack target: "" # === Pont MetaClaw (Optionnel) === metaclaw_bridge: enabled: false # Mettre a true pour activer l'apprentissage inter-executions proxy_url: "http://localhost:30000" # URL du proxy MetaClaw skills_dir: "~/.metaclaw/skills" # Ou les competences arc-* sont stockees fallback_url: "" # Repli direct vers le LLM quand le proxy est indisponible fallback_api_key: "" # Cle API pour le point d'acces de repli lesson_to_skill: enabled: true # Conversion automatique des lecons en competences min_severity: "warning" # Severite minimum pour la conversion max_skills_per_run: 3 # Max de nouvelles competences par execution # === Pont OpenClaw === openclaw_bridge: use_cron: false # Executions de recherche planifiees use_message: false # Notifications de progression use_memory: false # Persistance des connaissances inter-sessions use_sessions_spawn: false # Lancement de sous-sessions paralleles use_web_fetch: false # Recherche web en direct use_browser: false # Collecte d'articles via navigateur ```
--- ## πŸ™ Remerciements Inspire par : - πŸ”¬ [AI Scientist](https://github.com/SakanaAI/AI-Scientist) (Sakana AI) β€” Pionnier de la recherche automatisee - 🧠 [AutoResearch](https://github.com/karpathy/autoresearch) (Andrej Karpathy) β€” Automatisation de la recherche de bout en bout - 🌐 [FARS](https://analemma.ai/blog/introducing-fars/) (Analemma) β€” Systeme de recherche entierement automatise --- ## πŸ“„ Licence MIT β€” voir [LICENSE](../LICENSE) pour les details. --- ## πŸ“Œ Citation Si vous trouvez AutoResearchClaw utile, veuillez citer : ```bibtex @misc{liu2026autoresearchclaw, author = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming and Tu, Haoqin and Yang, Xinyu and and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu}, title = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper}, year = {2026}, organization = {GitHub}, url = {https://github.com/aiming-lab/AutoResearchClaw}, } ```

Construit avec 🦞 par l'equipe AutoResearchClaw