AutoResearchClaw Logo

Idee besprechen. Paper erhalten. Vollautomatisch & selbstentwickelnd.

Einfach mit OpenClaw chatten: "Research X" β†’ erledigt.

AutoResearchClaw Framework

MIT License Python 3.11+ 1823 Tests Passed GitHub OpenClaw Compatible Discord

πŸ‡ΊπŸ‡Έ English Β· πŸ‡¨πŸ‡³ δΈ­ζ–‡ Β· πŸ‡―πŸ‡΅ ζ—₯本θͺž Β· πŸ‡°πŸ‡· ν•œκ΅­μ–΄ Β· πŸ‡«πŸ‡· FranΓ§ais Β· πŸ‡©πŸ‡ͺ Deutsch Β· πŸ‡ͺπŸ‡Έ EspaΓ±ol Β· πŸ‡§πŸ‡· PortuguΓͺs Β· πŸ‡·πŸ‡Ί Русский Β· πŸ‡ΈπŸ‡¦ Ψ§Ω„ΨΉΨ±Ψ¨ΩŠΨ©

πŸ† Paper-Showcase Β· πŸ“– Integrationsanleitung Β· πŸ’¬ Discord-Community

---
Sample Paper πŸ† Showcase generierter Paper

8 Paper aus 8 Disziplinen β€” Mathematik, Statistik, Biologie, Informatik, NLP, RL, Vision, Robustheit β€” vollstaendig autonom generiert ohne menschliches Eingreifen.

View Showcase
--- > **πŸ§ͺ Wir suchen Tester!** Teste die Pipeline mit deiner eigenen Forschungsidee β€” aus jedem Fachgebiet β€” und [sag uns, was du denkst](TESTER_GUIDE.md). Dein Feedback beeinflusst direkt die naechste Version. **[β†’ Testing Guide](TESTER_GUIDE.md)** | **[β†’ δΈ­ζ–‡ζ΅‹θ―•ζŒ‡ε—](TESTER_GUIDE_CN.md)** | **[β†’ ζ—₯本θͺžγƒ†γ‚Ήγƒˆγ‚¬γ‚€γƒ‰](TESTER_GUIDE_JA.md)** --- ## πŸ”₯ News - **[03/22/2026]** [v0.3.2](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.2) β€” **Plattformuebergreifende Unterstuetzung + grosse Stabilitaet** β€” AutoResearchClaw laeuft jetzt mit jedem ACP-kompatiblen Agenten-Backend (Claude Code, Codex CLI, Copilot CLI, Gemini CLI, Kimi CLI) und unterstuetzt Messaging-Plattformen (Discord, Telegram, Lark, WeChat) ueber die OpenClaw-Bruecke. Neues CLI-Agent-Code-Generierungs-Backend delegiert Stages 10 und 13 an externe CLI-Agenten mit Budgetkontrolle und Timeout-Management. Enthaelt Anti-Fabrication-System (VerifiedRegistry + Experiment-Diagnose- und Reparaturschleife), 100+ Bugfixes, modulares Executor-Refactoring, `--resume` Auto-Erkennung, LLM-Retry-Haertung und Community-Fixes. - **[03/18/2026]** [v0.3.1](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.1) β€” **OpenCode Beast Mode + Community Contributions** β€” New "Beast Mode" routes complex code generation to [OpenCode](https://github.com/anomalyco/opencode) with automatic complexity scoring and graceful fallback. Added Novita AI provider support, thread-safety hardening, improved LLM output parsing robustness, and 20+ bug fixes from community PRs and internal audit. - **[03/17/2026]** [v0.3.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.3.0) β€” **MetaClaw Integration** β€” AutoResearchClaw now supports [MetaClaw](https://github.com/aiming-lab/MetaClaw) cross-run learning: pipeline failures β†’ structured lessons β†’ reusable skills, injected into all 23 stages. **+18.3%** robustness in controlled experiments. Opt-in (`metaclaw_bridge.enabled: true`), fully backward-compatible. See [Integration Guide](#-metaclaw-integration). - **[03/16/2026]** [v0.2.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.2.0) β€” Three multi-agent subsystems (CodeAgent, BenchmarkAgent, FigureAgent), hardened Docker sandbox with network-policy-aware execution, 4-round paper quality audit (AI-slop detection, 7-dim review scoring, NeurIPS checklist), and 15+ bug fixes from production runs. - **[03/15/2026]** [v0.1.0](https://github.com/aiming-lab/AutoResearchClaw/releases/tag/v0.1.0) β€” We release AutoResearchClaw: a fully autonomous 23-stage research pipeline that turns a single research idea into a conference-ready paper. No human intervention required. --- ## ⚑ Ein Befehl. Ein Paper. ```bash pip install -e . && researchclaw setup && researchclaw init && researchclaw run --topic "Your research idea here" --auto-approve ``` --- ## πŸ€” Was ist das? **Du denkst es. AutoResearchClaw schreibt es.** Gib ein Forschungsthema ein β€” erhalte ein vollstaendiges wissenschaftliches Paper mit echter Literatur von OpenAlex, Semantic Scholar und arXiv, hardwarebewussten Sandbox-Experimenten (automatische GPU/MPS/CPU-Erkennung), statistischer Analyse, Multi-Agenten-Peer-Review und konferenzfertigem LaTeX fuer NeurIPS/ICML/ICLR. Kein Babysitting. Kein Kopieren. Keine halluzinierten Referenzen.
πŸ“„paper_draft.mdVollstaendiges wissenschaftliches Paper (Einleitung, Verwandte Arbeiten, Methode, Experimente, Ergebnisse, Fazit)
πŸ“paper.texKonferenzfertiges LaTeX (NeurIPS / ICLR / ICML Templates)
πŸ“šreferences.bibEchte BibTeX-Referenzen von OpenAlex, Semantic Scholar und arXiv β€” automatisch bereinigt, um Inline-Zitationen zu entsprechen
πŸ”verification_report.json4-Schicht-Zitationsintegritaets- und Relevanzpruefung (arXiv, CrossRef, DataCite, LLM)
πŸ§ͺexperiment runs/Generierter Code + Sandbox-Ergebnisse + strukturierte JSON-Metriken
πŸ“Šcharts/Automatisch generierte Vergleichsdiagramme mit Fehlerbalken und Konfidenzintervallen
πŸ“reviews.mdMulti-Agenten-Peer-Review mit Methodik-Evidenz-Konsistenzpruefungen
🧬evolution/Selbstlernende Erkenntnisse aus jedem Durchlauf
πŸ“¦deliverables/Alle finalen Ergebnisse in einem Ordner β€” kompilierbereit fuer Overleaf
Die Pipeline laeuft **vollstaendig ohne menschliches Eingreifen**. Wenn Experimente fehlschlagen, repariert sie sich selbst. Wenn Hypothesen nicht bestaetigt werden, schwenkt sie um. Wenn Zitationen gefaelscht sind, entfernt sie diese. 🌍 **Ueberall ausfuehrbar.** AutoResearchClaw ist nicht an eine einzelne Plattform gebunden. Nutzen Sie es eigenstaendig ueber die CLI, verbinden Sie es mit [OpenClaw](https://github.com/openclaw/openclaw), oder integrieren Sie es mit jedem ACP-kompatiblen AI-Agenten β€” πŸ€– Claude Code, πŸ’» Codex CLI, πŸ™ Copilot CLI, β™Š Gemini CLI, πŸŒ™ Kimi CLI und mehr. Dank der Messaging-Bruecke von OpenClaw koennen Sie eine komplette Forschung von πŸ’¬ Discord, ✈️ Telegram, 🐦 Lark (飞书), πŸ’š WeChat oder jeder anderen Plattform starten, die Ihr Team bereits nutzt. Ein Thema rein, ein Paper raus β€” egal wo Sie tippen. --- ## πŸš€ Schnellstart ```bash # 1. Klonen & installieren git clone https://github.com/aiming-lab/AutoResearchClaw.git cd AutoResearchClaw python3 -m venv .venv && source .venv/bin/activate pip install -e . # 2. Setup (interaktiv β€” installiert OpenCode Beast Mode, prueft Docker/LaTeX) researchclaw setup # 3. Konfigurieren researchclaw init # Interaktiv: LLM-Anbieter waehlen, erstellt config.arc.yaml # Oder manuell: cp config.researchclaw.example.yaml config.arc.yaml # 4. Ausfuehren export OPENAI_API_KEY="sk-..." researchclaw run --config config.arc.yaml --topic "Your research idea" --auto-approve ``` Ausgabe β†’ `artifacts/rc-YYYYMMDD-HHMMSS-/deliverables/` β€” kompilierfertiges LaTeX, BibTeX, Experimentcode, Diagramme.
πŸ“ Minimale erforderliche Konfiguration ```yaml project: name: "my-research" research: topic: "Your research topic here" llm: base_url: "https://api.openai.com/v1" api_key_env: "OPENAI_API_KEY" primary_model: "gpt-4o" fallback_models: ["gpt-4o-mini"] experiment: mode: "sandbox" sandbox: python_path: ".venv/bin/python" ```
--- ## 🧠 Was macht es anders | Faehigkeit | Funktionsweise | |-----------|---------------| | **πŸ”„ PIVOT / REFINE Schleife** | Stufe 15 entscheidet autonom: PROCEED, REFINE (Parameter anpassen) oder PIVOT (neue Richtung). Artefakte automatisch versioniert. | | **πŸ€– Multi-Agenten-Debatte** | Hypothesengenerierung, Ergebnisanalyse und Peer-Review verwenden jeweils strukturierte Multi-Perspektiven-Debatten. | | **🧬 Selbstlernen** | Erkenntnisse pro Durchlauf extrahiert (Entscheidungsbegruendungen, Laufzeitwarnungen, Metrikanaomalien) mit 30-Tage-Zeitabklingung. Zukuenftige Durchlaeufe lernen aus vergangenen Fehlern. | | **πŸ“š Wissensdatenbank** | Jeder Durchlauf baut eine strukturierte KB ueber 6 Kategorien auf (Entscheidungen, Experimente, Ergebnisse, Literatur, Fragen, Reviews). | | **πŸ›‘οΈ Sentinel Watchdog** | Hintergrund-Qualitaetsmonitor: NaN/Inf-Erkennung, Paper-Evidenz-Konsistenz, Zitationsrelevanz-Bewertung, Anti-Fabrikationsschutz. | --- ## 🦞 OpenClaw-Integration **AutoResearchClaw ist ein [OpenClaw](https://github.com/openclaw/openclaw)-kompatibler Dienst.** Installiere es in OpenClaw und starte autonome Forschung mit einer einzigen Nachricht β€” oder verwende es eigenstaendig ueber CLI, Claude Code oder jeden anderen KI-Coding-Assistenten.
### πŸš€ Verwendung mit OpenClaw (empfohlen) Wenn du bereits [OpenClaw](https://github.com/openclaw/openclaw) als KI-Assistenten nutzt: ``` 1️⃣ Teile die GitHub-Repo-URL mit OpenClaw 2️⃣ OpenClaw liest automatisch RESEARCHCLAW_AGENTS.md β†’ versteht die Pipeline 3️⃣ Sage: "Research [dein Thema]" 4️⃣ Fertig β€” OpenClaw klont, installiert, konfiguriert, fuehrt aus und liefert Ergebnisse ``` **Das war's.** OpenClaw uebernimmt `git clone`, `pip install`, Konfiguration und Pipeline-Ausfuehrung automatisch. Du chattest einfach.
πŸ’‘ Was unter der Haube passiert 1. OpenClaw liest `RESEARCHCLAW_AGENTS.md` β†’ lernt die Forschungs-Orchestrator-Rolle 2. OpenClaw liest `README.md` β†’ versteht Installation und Pipeline-Struktur 3. OpenClaw kopiert `config.researchclaw.example.yaml` β†’ `config.yaml` 4. Fragt nach deinem LLM-API-Schluessel (oder verwendet deine Umgebungsvariable) 5. Fuehrt `pip install -e .` + `researchclaw run --topic "..." --auto-approve` aus 6. Liefert Paper, LaTeX, Experimente und Zitationen zurueck
### πŸ”Œ OpenClaw Bridge (Fortgeschritten) Fuer tiefere Integration enthaelt AutoResearchClaw ein **Bridge-Adapter-System** mit 6 optionalen Faehigkeiten: ```yaml # config.arc.yaml openclaw_bridge: use_cron: true # ⏰ Geplante Forschungsdurchlaeufe use_message: true # πŸ’¬ Fortschrittsbenachrichtigungen (Discord/Slack/Telegram) use_memory: true # 🧠 Sitzungsuebergreifende Wissenspersistenz use_sessions_spawn: true # πŸ”€ Parallele Sub-Sessions fuer gleichzeitige Stufen use_web_fetch: true # 🌐 Live-Websuche waehrend der Literaturrecherche use_browser: false # πŸ–₯️ Browserbasierte Paper-Sammlung ``` Jedes Flag aktiviert ein typisiertes Adapter-Protokoll. Wenn OpenClaw diese Faehigkeiten bereitstellt, nutzen die Adapter sie ohne Codeaenderungen. Siehe [`integration-guide.md`](integration-guide.md) fuer vollstaendige Details. ### ACP (Agent Client Protocol) AutoResearchClaw kann **jeden ACP-kompatiblen Coding-Agenten** als LLM-Backend verwenden β€” keine API-Schluessel erforderlich. Der Agent kommuniziert ueber [acpx](https://github.com/openclaw/acpx) und haelt eine einzige persistente Sitzung ueber alle 23 Pipeline-Stufen aufrecht. | Agent | Befehl | Hinweise | |-------|--------|----------| | Claude Code | `claude` | Anthropic | | Codex CLI | `codex` | OpenAI | | Copilot CLI | `gh` | GitHub | | Gemini CLI | `gemini` | Google | | OpenCode | `opencode` | SST | | Kimi CLI | `kimi` | Moonshot | ```yaml # config.yaml β€” ACP-Beispiel llm: provider: "acp" acp: agent: "claude" # Jeder ACP-kompatible Agent-CLI-Befehl cwd: "." # Arbeitsverzeichnis fuer den Agenten # Kein base_url oder api_key noetig β€” der Agent verwaltet seine eigene Authentifizierung. ``` ```bash # Einfach ausfuehren β€” der Agent verwendet seine eigenen Anmeldedaten researchclaw run --config config.yaml --topic "Your research idea" --auto-approve ``` ### πŸ› οΈ Weitere Ausfuehrungsmoeglichkeiten | Methode | Anleitung | |---------|-----------| | **Standalone CLI** | `researchclaw setup` β†’ `researchclaw init` β†’ `researchclaw run --topic "..." --auto-approve` | | **Python API** | `from researchclaw.pipeline import Runner; Runner(config).run()` | | **Claude Code** | Liest `RESEARCHCLAW_CLAUDE.md` β€” sage einfach *"Run research on [Thema]"* | | **Copilot CLI** | `researchclaw run --topic "..."` mit `llm.acp.agent: "gh"` | | **OpenCode** | Liest `.claude/skills/` β€” gleiche natuerliche Sprachschnittstelle | | **Jeder KI-CLI** | Uebergib `RESEARCHCLAW_AGENTS.md` als Kontext β†’ Agent bootstrappt automatisch | --- ## πŸ”¬ Pipeline: 23 Stufen, 8 Phasen ``` Phase A: Forschungsplanung Phase E: Experimentausfuehrung 1. TOPIC_INIT 12. EXPERIMENT_RUN 2. PROBLEM_DECOMPOSE 13. ITERATIVE_REFINE ← Selbstheilung Phase B: Literaturrecherche Phase F: Analyse & Entscheidung 3. SEARCH_STRATEGY 14. RESULT_ANALYSIS ← Multi-Agent 4. LITERATURE_COLLECT ← echte API 15. RESEARCH_DECISION ← PIVOT/REFINE 5. LITERATURE_SCREEN [Gate] 6. KNOWLEDGE_EXTRACT Phase G: Papiererstellung 16. PAPER_OUTLINE Phase C: Wissenssynthese 17. PAPER_DRAFT 7. SYNTHESIS 18. PEER_REVIEW ← Evidenzpruefung 8. HYPOTHESIS_GEN ← Debatte 19. PAPER_REVISION Phase D: Experimentdesign Phase H: Finalisierung 9. EXPERIMENT_DESIGN [Gate] 20. QUALITY_GATE [Gate] 10. CODE_GENERATION 21. KNOWLEDGE_ARCHIVE 11. RESOURCE_PLANNING 22. EXPORT_PUBLISH ← LaTeX 23. CITATION_VERIFY ← Relevanzpruefung ``` > **Gate-Stufen** (5, 9, 20) pausieren fuer menschliche Genehmigung oder werden mit `--auto-approve` automatisch genehmigt. Bei Ablehnung wird die Pipeline zurueckgesetzt. > **Entscheidungsschleifen**: Stufe 15 kann REFINE (β†’ Stufe 13) oder PIVOT (β†’ Stufe 8) ausloesen, mit automatischer Artefakt-Versionierung.
πŸ“‹ Was jede Phase bewirkt | Phase | Beschreibung | |-------|-------------| | **A: Planung** | LLM zerlegt das Thema in einen strukturierten Problembaum mit Forschungsfragen | | **A+: Hardware** | Automatische GPU-Erkennung (NVIDIA CUDA / Apple MPS / nur CPU), Warnung bei eingeschraenkter Hardware, Codegenerierung wird entsprechend angepasst | | **B: Literatur** | Multi-Source-Suche (OpenAlex β†’ Semantic Scholar β†’ arXiv) nach echten Papern, Relevanzscreening, Extraktion von Wissenskarten | | **C: Synthese** | Clustering der Ergebnisse, Identifizierung von Forschungsluecken, Generierung testbarer Hypothesen via Multi-Agenten-Debatte | | **D: Design** | Experimentplan entwerfen, hardwarebewussten ausfuehrbaren Python-Code generieren (GPU-Stufe β†’ Paketauswahl), Ressourcenbedarf schaetzen | | **E: Ausfuehrung** | Experimente in Sandbox ausfuehren, NaN/Inf und Laufzeitfehler erkennen, Code via gezielter LLM-Reparatur selbst heilen | | **F: Analyse** | Multi-Agenten-Analyse der Ergebnisse; autonome PROCEED / REFINE / PIVOT Entscheidung mit Begruendung | | **G: Schreiben** | Gliederung β†’ abschnittsweises Verfassen (5.000-6.500 Woerter) β†’ Peer-Review (mit Methodik-Evidenz-Konsistenz) β†’ Revision mit Laengenpruefung | | **H: Finalisierung** | Qualitaets-Gate, Wissensarchivierung, LaTeX-Export mit Konferenztemplate, Zitationsintegritaets- und Relevanzpruefung |
--- ## ✨ Hauptfunktionen | Funktion | Beschreibung | |----------|-------------| | **πŸ“š Multi-Source-Literatur** | Echte Paper von OpenAlex, Semantic Scholar und arXiv β€” Abfrageerweiterung, Deduplizierung, Circuit Breaker mit Graceful Degradation | | **πŸ” 4-Schicht-Zitationsverifikation** | arXiv-ID-Pruefung β†’ CrossRef/DataCite-DOI β†’ Semantic-Scholar-Titelabgleich β†’ LLM-Relevanzbewertung. Halluzinierte Refs automatisch entfernt. | | **πŸ–₯️ Hardwarebewusste Ausfuehrung** | Automatische GPU-Erkennung (NVIDIA CUDA / Apple MPS / nur CPU) und Anpassung von Codegenerierung, Imports und Experimentumfang | | **🦾 OpenCode Beast Mode** | Komplexe Experimente werden automatisch an [OpenCode](https://github.com/anomalyco/opencode) weitergeleitet β€” generiert Multi-File-Projekte mit individuellen Architekturen, Trainingsschleifen und Ablationsstudien. Installation ueber `researchclaw setup`. | | **πŸ§ͺ Sandbox-Experimente** | AST-validierter Code, unveraenderlicher Harness, NaN/Inf-Schnellabbruch, selbstheilende Reparatur, iterative Verfeinerung (bis zu 10 Runden), Teilergebnis-Erfassung | | **πŸ“ Konferenzqualitaet** | NeurIPS/ICML/ICLR-Templates, abschnittsweises Verfassen (5.000-6.500 Woerter), Anti-Fabrikationsschutz, Revisions-Laengenschutz, Anti-Disclaimer-Durchsetzung | | **πŸ“ Template-Umschaltung** | `neurips_2025`, `iclr_2026`, `icml_2026` β€” Markdown β†’ LaTeX mit Mathematik, Tabellen, Abbildungen, Querverweisen, `\cite{}` | | **🚦 Qualitaets-Gates** | 3 Human-in-the-Loop-Gates (Stufen 5, 9, 20) mit Rollback. Ueberspringen mit `--auto-approve`. | --- ## 🧠 MetaClaw-Integration **AutoResearchClaw + [MetaClaw](https://github.com/aiming-lab/MetaClaw) = Eine Pipeline, die aus jedem Durchlauf lernt.** MetaClaw fuegt **durchlaufuebergreifenden Wissenstransfer** zu AutoResearchClaw hinzu. Wenn aktiviert, erfasst die Pipeline automatisch Erkenntnisse aus Fehlern und Warnungen, konvertiert sie in wiederverwendbare Skills und injiziert diese Skills in alle 23 Pipeline-Stufen bei nachfolgenden Durchlaeufen β€” damit dieselben Fehler nie wiederholt werden. ### Funktionsweise ``` Durchlauf N wird ausgefuehrt β†’ Fehler/Warnungen als Lektionen erfasst ↓ MetaClaw Lektion β†’ Skill-Konvertierung ↓ arc-* Skill-Dateien in ~/.metaclaw/skills/ gespeichert ↓ Durchlauf N+1 β†’ build_overlay() injiziert Skills in jeden LLM-Prompt ↓ LLM vermeidet bekannte Fallstricke β†’ hoehere Qualitaet, weniger Wiederholungen ``` ### Schnelleinrichtung ```bash # 1. MetaClaw installieren (falls nicht vorhanden) pip install metaclaw # 2. In der Konfiguration aktivieren ``` ```yaml # config.arc.yaml metaclaw_bridge: enabled: true proxy_url: "http://localhost:30000" # MetaClaw-Proxy (optional) skills_dir: "~/.metaclaw/skills" # Wo Skills gespeichert werden fallback_url: "https://api.openai.com/v1" # Direkter LLM-Fallback fallback_api_key: "" # API-Schluessel fuer Fallback-URL lesson_to_skill: enabled: true min_severity: "warning" # Warnungen + Fehler konvertieren max_skills_per_run: 3 ``` ```bash # 3. Wie gewohnt ausfuehren β€” MetaClaw arbeitet transparent researchclaw run --config config.arc.yaml --topic "Your idea" --auto-approve ``` Nach jedem Durchlauf kannst du `~/.metaclaw/skills/arc-*/SKILL.md` pruefen, um die erlernten Skills deiner Pipeline zu sehen. ### Experimentergebnisse In kontrollierten A/B-Experimenten (gleiches Thema, gleiches LLM, gleiche Konfiguration): | Metrik | Baseline | Mit MetaClaw | Verbesserung | |--------|----------|--------------|--------------| | Stufen-Wiederholungsrate | 10.5% | 7.9% | **-24.8%** | | Anzahl REFINE-Zyklen | 2.0 | 1.2 | **-40.0%** | | Pipeline-Stufenabschluss | 18/19 | 19/19 | **+5.3%** | | Gesamtrobustheitswert (Komposit) | 0.714 | 0.845 | **+18.3%** | > Der Komposit-Robustheitswert ist ein gewichteter Durchschnitt aus Stufenabschlussrate (40%), Wiederholungsreduktion (30%) und REFINE-Zykluseffizienz (30%). ### Abwaertskompatibilitaet - **Standard: AUS.** Wenn `metaclaw_bridge` fehlt oder `enabled: false`, verhaelt sich die Pipeline exakt wie zuvor. - **Keine neuen Abhaengigkeiten.** MetaClaw ist optional β€” die Kern-Pipeline funktioniert ohne. - **Alle 1.823 bestehenden Tests bestehen** mit dem Integrationscode. --- ## βš™οΈ Konfigurationsreferenz
Klicken zum Aufklappen der vollstaendigen Konfigurationsreferenz ```yaml # === Projekt === project: name: "my-research" # Projektbezeichner mode: "docs-first" # docs-first | semi-auto | full-auto # === Forschung === research: topic: "..." # Forschungsthema (erforderlich) domains: ["ml", "nlp"] # Forschungsdomaenen fuer Literatursuche daily_paper_count: 8 # Ziel-Paperzahl pro Suchabfrage quality_threshold: 4.0 # Mindestqualitaetswert fuer Paper # === Laufzeit === runtime: timezone: "America/New_York" # Fuer Zeitstempel max_parallel_tasks: 3 # Limit gleichzeitiger Experimente approval_timeout_hours: 12 # Gate-Stufen-Timeout retry_limit: 2 # Wiederholungsanzahl bei Stufenfehler # === LLM === llm: provider: "openai-compatible" # openai | openrouter | deepseek | minimax | acp | openai-compatible base_url: "https://..." # API-Endpunkt (erforderlich fuer openai-compatible) api_key_env: "OPENAI_API_KEY" # Umgebungsvariable fuer API-Schluessel (erforderlich fuer openai-compatible) api_key: "" # Oder Schluessel direkt eintragen primary_model: "gpt-4o" # Primaeres Modell fallback_models: ["gpt-4o-mini"] # Fallback-Kette s2_api_key: "" # Semantic Scholar API-Schluessel (optional, hoehere Rate-Limits) acp: # Nur verwendet wenn provider: "acp" agent: "claude" # ACP-Agent-CLI-Befehl (claude, codex, gemini, etc.) cwd: "." # Arbeitsverzeichnis fuer den Agenten # === Experiment === experiment: mode: "sandbox" # simulated | sandbox | docker | ssh_remote time_budget_sec: 300 # Max. Ausfuehrungszeit pro Durchlauf (Standard: 300s) max_iterations: 10 # Max. Optimierungsiterationen metric_key: "val_loss" # Primaerer Metrikname metric_direction: "minimize" # minimize | maximize sandbox: python_path: ".venv/bin/python" gpu_required: false allowed_imports: [math, random, json, csv, numpy, torch, sklearn] max_memory_mb: 4096 docker: image: "researchclaw/experiment:latest" network_policy: "setup_only" # none | setup_only | pip_only | full gpu_enabled: true memory_limit_mb: 8192 auto_install_deps: true # Automatische Import-Erkennung β†’ requirements.txt ssh_remote: host: "" # GPU-Server-Hostname gpu_ids: [] # Verfuegbare GPU-IDs remote_workdir: "/tmp/researchclaw_experiments" opencode: # OpenCode Beast Mode (auto-installiert ueber `researchclaw setup`) enabled: true # Hauptschalter (Standard: true) auto: true # Auto-Ausloesung ohne Bestaetigung (Standard: true) complexity_threshold: 0.2 # 0.0-1.0 β€” hoeher = nur bei komplexen Experimenten ausloesen model: "" # Modell ueberschreiben (leer = llm.primary_model verwenden) timeout_sec: 600 # Max. Sekunden fuer OpenCode-Generierung max_retries: 1 # Wiederholungsanzahl bei Fehler workspace_cleanup: true # Temporaeren Workspace nach Sammlung entfernen # === Export === export: target_conference: "neurips_2025" # neurips_2025 | iclr_2026 | icml_2026 authors: "Anonymous" bib_file: "references" # === Prompts === prompts: custom_file: "" # Pfad zur benutzerdefinierten Prompts-YAML (leer = Standardwerte) # === Sicherheit === security: hitl_required_stages: [5, 9, 20] # Stufen, die menschliche Genehmigung erfordern allow_publish_without_approval: false redact_sensitive_logs: true # === Wissensdatenbank === knowledge_base: backend: "markdown" # markdown | obsidian root: "docs/kb" # === Benachrichtigungen === notifications: channel: "console" # console | discord | slack target: "" # === MetaClaw Bridge (Optional) === metaclaw_bridge: enabled: false # Auf true setzen fuer durchlaufuebergreifendes Lernen proxy_url: "http://localhost:30000" # MetaClaw-Proxy-URL skills_dir: "~/.metaclaw/skills" # Wo arc-* Skills gespeichert werden fallback_url: "" # Direkter LLM-Fallback wenn Proxy nicht erreichbar fallback_api_key: "" # API-Schluessel fuer Fallback-Endpunkt lesson_to_skill: enabled: true # Lektionen automatisch in Skills konvertieren min_severity: "warning" # Mindestschwere fuer Konvertierung max_skills_per_run: 3 # Max. neue Skills pro Pipeline-Durchlauf # === OpenClaw Bridge === openclaw_bridge: use_cron: false # Geplante Forschungsdurchlaeufe use_message: false # Fortschrittsbenachrichtigungen use_memory: false # Sitzungsuebergreifende Wissenspersistenz use_sessions_spawn: false # Parallele Sub-Sessions starten use_web_fetch: false # Live-Websuche use_browser: false # Browserbasierte Paper-Sammlung ```
--- ## πŸ™ Danksagungen Inspiriert von: - πŸ”¬ [AI Scientist](https://github.com/SakanaAI/AI-Scientist) (Sakana AI) β€” Pionier der automatisierten Forschung - 🧠 [AutoResearch](https://github.com/karpathy/autoresearch) (Andrej Karpathy) β€” End-to-End-Forschungsautomatisierung - 🌐 [FARS](https://analemma.ai/blog/introducing-fars/) (Analemma) β€” Fully Automated Research System --- ## πŸ“„ Lizenz MIT β€” siehe [LICENSE](../LICENSE) fuer Details. --- ## πŸ“Œ Zitation Wenn du AutoResearchClaw nuetzlich findest, zitiere bitte: ```bibtex @misc{liu2026autoresearchclaw, author = {Liu, Jiaqi and Xia, Peng and Han, Siwei and Qiu, Shi and Zhang, Letian and Chen, Guiming and Tu, Haoqin and Yang, Xinyu and and Zhou, Jiawei and Zhu, Hongtu and Li, Yun and Zhou, Yuyin and Zheng, Zeyu and Xie, Cihang and Ding, Mingyu and Yao, Huaxiu}, title = {AutoResearchClaw: Fully Autonomous Research from Idea to Paper}, year = {2026}, organization = {GitHub}, url = {https://github.com/aiming-lab/AutoResearchClaw}, } ```

Gebaut mit 🦞 vom AutoResearchClaw-Team