## 개요
**MiroFish**는 멀티 에이전트 기술로 구동되는 차세대 AI 예측 엔진입니다. 속보, 정책 초안, 금융 신호 같은 현실 세계의 시드 정보를 추출해 고충실도의 병렬 디지털 세계를 자동으로 구성합니다. 이 공간에서는 독립적인 성격, 장기 기억, 행동 로직을 갖춘 수천 개의 지능형 에이전트가 자유롭게 상호작용하며 사회적으로 진화합니다. 사용자는 "신의 시점"에서 변수를 동적으로 주입해 미래의 전개를 정밀하게 추론할 수 있습니다. **디지털 샌드박스에서 미래를 미리 리허설하고, 수많은 시뮬레이션 끝에 더 나은 의사결정을 내릴 수 있습니다.**
> 사용자가 할 일은 단 두 가지입니다: 시드 자료(데이터 분석 보고서 또는 흥미로운 소설 스토리)를 업로드하고, 자연어로 예측 요구사항을 설명하세요.
> MiroFish가 반환하는 결과: 상세한 예측 리포트와 깊이 있게 상호작용 가능한 고충실도 디지털 세계
### 우리의 비전
MiroFish는 현실을 비추는 군집 지능 미러를 만드는 것을 목표로 합니다. 개인 간 상호작용에서 촉발되는 집단적 창발을 포착해, 기존 예측 방식의 한계를 넘어섭니다.
- **거시적 관점**: 의사결정자를 위한 리허설 실험실로서, 정책과 PR 전략을 무위험으로 사전 검증할 수 있습니다.
- **미시적 관점**: 개인 사용자를 위한 창작 샌드박스로서, 소설 결말 추론부터 상상 시나리오 탐색까지 재미있고 가볍게 활용할 수 있습니다.
진지한 예측부터 놀이형 시뮬레이션까지, 모든 "만약"이 실제 결과를 볼 수 있도록 만들어 무엇이든 예측할 수 있게 합니다.
## 라이브 데모
온라인 데모 환경에서 저희가 준비한 인기 여론 이벤트 예측 시뮬레이션을 직접 체험해 보세요: [mirofish-live-demo](https://666ghj.github.io/mirofish-demo/)
## 스크린샷
## 데모 영상
### 1. 우한대학교 여론 시뮬레이션 + MiroFish 프로젝트 소개
이미지를 클릭하면 BettaFish가 생성한 "우한대학교 여론 보고서"를 기반으로 수행한 전체 예측 데모 영상을 볼 수 있습니다.
### 2. 홍루몽(紅樓夢) 미완 결말 시뮬레이션
이미지를 클릭하면 「홍루몽」 전 80회 분량 수십만 자 텍스트를 기반으로 MiroFish가 수행한 결말 심층 예측 영상을 볼 수 있습니다.
> **금융 예측**, **정치 뉴스 예측** 등 더 많은 예시가 곧 공개됩니다...
## 워크플로우
1. **그래프 구축**: 시드 추출 & 개인/집단 메모리 주입 & GraphRAG 구축
2. **환경 설정**: 엔터티 관계 추출 & 페르소나 생성 & 에이전트 설정 주입
3. **시뮬레이션**: 듀얼 플랫폼 병렬 시뮬레이션 & 예측 요구사항 자동 파싱 & 동적 시계열 메모리 업데이트
4. **리포트 생성**: 풍부한 도구 세트를 갖춘 ReportAgent로 시뮬레이션 후 환경과 심층 상호작용
5. **심화 상호작용**: 시뮬레이션 세계의 모든 에이전트와 대화 & ReportAgent와 상호작용
## 빠른 시작
### 옵션 1: 소스 코드 배포 (권장)
#### 사전 요구사항
| 도구 | 버전 | 설명 | 설치 확인 |
|------|---------|-------------|-------------------|
| **Node.js** | 18+ | 프런트엔드 런타임( npm 포함) | `node -v` |
| **Python** | 3.11, 3.12 | 백엔드 런타임 | `python --version` |
| **uv** | 최신 | Python 패키지 매니저 | `uv --version` |
#### 1. 환경 변수 설정
```bash
# 예시 설정 파일 복사
cp .env.example .env
# .env 파일을 열어 필요한 API 키를 입력
```
**필수 환경 변수:**
```env
# LLM API 설정 (OpenAI SDK 형식을 따르는 LLM API 지원)
# 권장: BaiLian 플랫폼의 Alibaba Qwen-plus 모델: https://bailian.console.aliyun.com/
# 비용 소모가 큰 편이므로 처음에는 40라운드 미만으로 시뮬레이션 권장
LLM_API_KEY=your_api_key
LLM_BASE_URL=https://dashscope.aliyuncs.com/compatible-mode/v1
LLM_MODEL_NAME=qwen-plus
# Zep Cloud 설정
# 월 무료 할당량으로도 기본 사용 가능: https://app.getzep.com/
ZEP_API_KEY=your_zep_api_key
```
#### 2. 의존성 설치
```bash
# 전체 의존성 원클릭 설치 (루트 + 프런트엔드 + 백엔드)
npm run setup:all
```
또는 단계별 설치:
```bash
# Node 의존성 설치 (루트 + 프런트엔드)
npm run setup
# Python 의존성 설치 (백엔드, 가상환경 자동 생성)
npm run setup:backend
```
#### 3. 서비스 시작
```bash
# 프런트엔드와 백엔드를 함께 시작 (프로젝트 루트에서 실행)
npm run dev
```
**서비스 URL:**
- 프런트엔드: `http://localhost:3000`
- 백엔드 API: `http://localhost:5001`
**개별 실행:**
```bash
npm run backend # 백엔드만 실행
npm run frontend # 프런트엔드만 실행
```
### 옵션 2: Docker 배포
```bash
# 1. 환경 변수 설정 (소스 코드 배포와 동일)
cp .env.example .env
# 2. 이미지 풀 후 실행
docker compose up -d
```
기본적으로 루트 디렉터리의 `.env`를 읽고, `3000(프런트엔드) / 5001(백엔드)` 포트를 매핑합니다.
> 빠른 이미지 풀을 위한 미러 주소가 `docker-compose.yml` 주석에 제공되어 있으니 필요 시 교체해 사용하세요.
## 대화에 참여하기
MiroFish 팀은 정규직/인턴 포지션을 모집 중입니다. 멀티 에이전트 시뮬레이션과 LLM 응용에 관심이 있다면 이력서를 보내주세요: **mirofish@shanda.com**
## 감사의 글
**MiroFish는 Shanda Group의 전략적 지원과 인큐베이팅을 받았습니다!**
MiroFish의 시뮬레이션 엔진은 **[OASIS (Open Agent Social Interaction Simulations)](https://github.com/camel-ai/oasis)** 기반으로 동작합니다. 오픈소스에 기여해 주신 CAMEL-AI 팀에 진심으로 감사드립니다.
## 프로젝트 통계