Message Content Intent 켜기 ← 필수! 이걸 안 켜면 봇이 메시지를 읽을 수 없습니다.
하단 Save Changes 클릭
4단계: 서버에 봇 초대
좌측 메뉴 → OAuth2 → URL Generator
Scopes에서 체크: bot
Bot Permissions에서 체크:
✅ Send Messages (메시지 전송)
✅ Read Message History (메시지 기록 읽기)
✅ Attach Files (파일 첨부 — 이미지/파일 공유용)
✅ Add Reactions (반응 추가 — 선택사항)
하단의 Generated URL 복사
브라우저에서 열기 → 서버 선택 → 승인(Authorize) 클릭
5단계: 서버 (Guild) ID 설정 (선택사항이지만 권장)
Discord에서 설정 → 고급 → 개발자 모드 → 켜기
서버 이름 우클릭 → 서버 ID 복사
위 "서버 (Guild) ID" 필드에 붙여넣기 → 저장 클릭
💡 왜 필요한가요? 봇을 이 서버에서만 작동하도록 제한합니다. 설정하지 않으면 봇이 초대된 모든 서버에서 응답합니다.
6단계: 활성화
SalmAlm 재시작: 터미널을 닫고 salmalm 다시 실행
봇이 서버에서 온라인으로 표시되면 성공 — 메시지를 보내 테스트! 🎉
📜 SOUL.md (Custom System Prompt)
Set a custom system prompt. It will be prepended to all conversations. ~/.salmalm/SOUL.md · Leave empty to restore default
📊 Token Usage
🔒 마스터 비밀번호
현재 비밀번호가 설정되어 있지 않습니다.
👥 Users / 사용자 관리
Loading...
➕ Add User
📦 Agent Migration / 에이전트 이동
Export or import your agent's personality, memory, settings, and data. 에이전트의 인격, 기억, 설정, 데이터를 내보내거나 가져옵니다.
Export / 내보내기
Import / 가져오기
📂 Drop ZIP file here or click to browse ZIP 파일을 여기에 놓거나 클릭하세요
🔄 Update
Current: v
📊 Usage & Cost📊 사용량 & 비용
🏥 Self-Diagnostics🏥 자가 진단
Check system health: API keys, vault, database, disk space.시스템 상태 확인: API 키, 볼트, 데이터베이스, 디스크 공간.
💾 Backup & Restore💾 백업 & 복원
Download all SalmAlm data as zip, or restore from backup.SalmAlm 데이터를 zip으로 다운로드하거나 백업에서 복원합니다.
⚡ Engine Optimization⚡ 엔진 최적화
Control how SalmAlm balances cost vs quality. All changes take effect immediately without restart.삶앎의 비용과 품질 균형을 조절합니다. 모든 변경은 재시작 없이 즉시 적용됩니다.
📊 Cost Breakdown
Every LLM call includes: System Prompt (~310 tok) + Tool Schemas (0~700 tok) + Chat History (varies) + Your Message📊 비용 구조
매 LLM 호출에 포함: 시스템 프롬프트 (~310 토큰) + 도구 스키마 (0~700 토큰) + 대화 히스토리 (가변) + 사용자 메시지 💡 Opus: $15/1M input, $75/1M output · Sonnet: $3/$15 · Haiku: $0.25/$1.25
ON: Before complex code/analysis tasks, injects a planning prompt that asks the AI to outline its approach before executing. Can improve accuracy for multi-step tasks. Cost:+~150 input tokens per complex request (~$0.002/call on Opus) OFF (default): AI plans naturally within its response. Sufficient for most tasks.ON: 복잡한 코드/분석 작업 전에 AI가 접근 방법을 먼저 계획하도록 프롬프트를 주입합니다. 다단계 작업의 정확도를 높일 수 있습니다. 비용:복잡한 요청당 +~150 입력 토큰 (Opus 기준 ~$0.002/호출) OFF (기본): AI가 응답 내에서 자연스럽게 계획합니다. 대부분의 작업에 충분합니다. 🆚 OpenClaw: Planning OFF. Uses "extended thinking" mode instead — model plans internally.🆚 오픈클로: Planning OFF. 별도 계획 단계 없이 "확장 사고(reasoning)" 모드로 모델이 내부에서 계획.
ON: After generating code or analysis, makes a second full LLM call to review and improve the response. Catches bugs, hallucinations, and incomplete answers. Cost:Doubles the cost for complex tasks (2x LLM calls). E.g., a coding response that costs $0.05 → $0.10. Best for: Production code, security audits, critical analysis where accuracy matters more than speed. OFF (default): Single-pass generation. Faster and cheaper. Quality is still good for most tasks.ON: 코드/분석 생성 후 두 번째 LLM 호출로 응답을 검토하고 개선합니다. 버그, 환각, 불완전한 답변을 잡아냅니다. 비용:복잡한 작업 비용 2배 (LLM 2회 호출). 예: $0.05 코딩 응답 → $0.10 추천 상황: 프로덕션 코드, 보안 감사, 정확도가 속도보다 중요한 분석 OFF (기본): 단일 패스 생성. 더 빠르고 저렴합니다. 대부분의 작업에 충분한 품질. 🆚 OpenClaw: Reflection OFF. Single-pass response. Extended thinking serves as built-in quality check.🆚 오픈클로: Reflection OFF. 두 번째 검증 호출 없이 한 번에 답변. 확장 사고 모드가 검증 역할을 대신.
📦 Compaction Threshold📦 컨텍스트 압축 임계값
Controls when old messages are summarized to free up context space. Lower = more frequent compaction = lower cost per turn but may lose details. 15K (Aggressive): Compacts often. Best for cost savings. ~$0.01/turn avg on Opus 20K (Balanced ★): Recommended default. Earlier compaction, lower cost. ~$0.015/turn avg 30K (Standard): Previous default. Good middle ground. ~$0.02/turn avg 60K (Relaxed): Keeps more history. ~$0.04/turn avg 120K (Maximum): Full context retention. Best for long coding sessions. ~$0.08/turn avg이전 메시지를 요약하여 컨텍스트 공간을 확보하는 시점을 제어합니다. 낮을수록 더 자주 압축 = 턴당 비용 절감, 세부사항 손실 가능. 15K (적극적): 자주 압축. 비용 절감 최적. Opus 기준 턴당 평균 ~$0.01 20K (균형 ★): 권장 기본값. 더 일찍 압축, 비용 절감. 턴당 평균 ~$0.015 30K (표준): 이전 기본값. 턴당 평균 ~$0.02 60K (여유): 더 많은 히스토리 유지. 턴당 평균 ~$0.04 120K (최대): 전체 컨텍스트 유지. 긴 코딩 세션에 적합. 턴당 평균 ~$0.08 🆚 OpenClaw: Auto-compaction ON, threshold fixed internally (~60-120K). Not user-configurable.🆚 오픈클로: 자동 압축 ON, 임계값은 내부 고정 (사용자 조절 불가). 대략 60-120K 수준.
🔄 Max Tool Iterations🔄 최대 도구 반복 횟수
Maximum number of tool calls the AI can make in a single response. When reached, the AI stops and returns "Reached maximum tool iterations."
Higher values allow complex multi-step tasks (file editing, multi-search) to complete, but cost more tokens per turn. 5 (Conservative): Simple tasks only. Limits runaway loops. Cheapest — caps output at ~2K tok/turn 10 (Moderate): Most coding tasks complete. ~4K tok/turn max 15 (Default): Good balance — handles multi-file edits. ~6K tok/turn max 25 (Extended): Complex refactoring, multi-tool chains. ~10K tok/turn max 40 (Maximum): Long autonomous coding sessions. ~16K tok/turn max — expensive!AI가 한 번의 응답에서 실행할 수 있는 최대 도구 호출 횟수입니다. 도달 시 "Reached maximum tool iterations" 메시지와 함께 중단됩니다.
높을수록 복잡한 다단계 작업(파일 편집, 다중 검색)이 완료되지만, 턴당 토큰 비용이 증가합니다. 5 (보수적): 단순 작업만. 폭주 루프 방지. 최저 비용 10 (보통): 대부분의 코딩 작업 완료 가능. 턴당 최대 ~4K 토큰 15 (기본): 적절한 균형 — 멀티 파일 편집 처리 가능. 턴당 최대 ~6K 토큰 25 (확장): 복잡한 리팩토링, 다중 도구 체인. 턴당 최대 ~10K 토큰 40 (최대): 긴 자율 코딩 세션. 턴당 최대 ~16K 토큰 — 비용 주의! 🆚 OpenClaw:♾️ Unlimited. AI uses tools until it decides to stop. Internal loop detection only.🆚 오픈클로:♾️ 무제한. AI가 스스로 멈출 때까지 도구 사용. 무한 루프만 내부 감지로 방지.
💸 Daily Cost Cap💸 일일 비용 한도
$/ day
When daily spending reaches this limit, the AI will stop processing new requests until the next day (UTC reset). Leave empty for no limit. Suggested values: Casual use: $1-2/day · Active use: $5-10/day · Heavy dev: $20-50/day일일 비용이 이 한도에 도달하면 다음 날(UTC 기준)까지 새 요청 처리를 중단합니다. 비워두면 제한 없음. 권장값: 가벼운 사용: $1-2/일 · 활발한 사용: $5-10/일 · 집중 개발: $20-50/일 🆚 OpenClaw: Daily cap none. Manual monitoring via /status only.🆚 오픈클로: 일일 한도 없음. /status로 수동 확인만 가능.
🗄️ Response Cache TTL🗄️ 응답 캐시 유효시간
How long identical (tool-free) query responses are cached. Cached hits cost $0 — no API call made.
Higher TTL = more cache hits = more savings, but responses may be stale. Recommended: 4-24h for general use. Disable for real-time data needs (weather, stocks).동일한 (도구 미사용) 쿼리 응답을 캐시하는 시간입니다. 캐시 히트 시 비용 $0 — API 호출 없음.
TTL이 높을수록 캐시 히트 증가 = 비용 절감, 단 응답이 오래될 수 있음. 권장: 일반 사용 4-24시간. 실시간 데이터(날씨, 환율) 필요 시 비활성화. 🆚 OpenClaw: Response cache OFF. Every message = fresh API call. (SalmAlm exclusive)🆚 오픈클로: 응답 캐시 OFF. 같은 질문도 매번 새 API 호출. (삶앎 전용 기능)
ON: Non-interactive tasks (summaries, analysis, translations) are queued and sent via Anthropic Batch API at 50% discount. Responses may take 1-60 min instead of instant. Best for: Batch processing, document analysis, offline summarization. OFF (default): All requests processed in real-time.ON: 비대화형 작업(요약, 분석, 번역)을 Anthropic 배치 API로 전송하여 50% 할인. 응답에 1-60분 소요 가능. 추천 상황: 대량 처리, 문서 분석, 오프라인 요약. OFF (기본): 모든 요청을 실시간으로 처리. 🆚 OpenClaw: Batch API OFF (not supported). All requests real-time. (SalmAlm exclusive)🆚 오픈클로: Batch API OFF (미지원). 모든 요청 실시간 처리. (삶앎 전용 기능)
ON: Large file contents (>5KB) are first summarized by Haiku before being sent to the main model. Reduces input tokens by 50-80% for file-heavy tasks. Cost: Extra Haiku call (~$0.001) but saves $0.01-0.05 on Sonnet/Opus input. Trade-off: Summary may lose fine details. Disable for precise code review. OFF (default): Full file contents sent to the main model as-is.ON: 대용량 파일(>5KB)을 메인 모델에 보내기 전에 Haiku로 먼저 요약합니다. 파일 중심 작업에서 입력 토큰 50-80% 절감. 비용: Haiku 호출 추가 (~$0.001) 하지만 Sonnet/Opus 입력에서 $0.01-0.05 절약. 트레이드오프: 요약 시 세부사항 손실 가능. 정밀한 코드 리뷰에는 비활성화 권장. OFF (기본): 파일 내용 전체를 메인 모델에 그대로 전송. 🆚 OpenClaw: File pre-summary OFF. Full file sent, AI manually chunks with offset/limit.🆚 오픈클로: 파일 사전 요약 OFF. 파일 전체 전송 후 AI가 offset/limit으로 수동 분할 읽기.
ON: Detects when the AI response is semantically complete (e.g., ends with punctuation, code block closed) and stops generation early. Saves 10-30% output tokens on verbose responses. Trade-off: May occasionally cut off longer explanations. OFF (default): Model generates until it naturally stops or hits max_tokens.ON: AI 응답이 의미적으로 완성되면(마침표, 코드 블록 닫힘 등) 생성을 조기 중단합니다. 장황한 응답에서 출력 토큰 10-30% 절감. 트레이드오프: 긴 설명이 간혹 잘릴 수 있음. OFF (기본): 모델이 자연스럽게 중단하거나 max_tokens에 도달할 때까지 생성. 🆚 OpenClaw: Early Stop OFF. Uses reasoning_effort to control verbosity from the start.🆚 오픈클로: Early Stop OFF. 대신 reasoning_effort로 처음부터 간결하게 답하도록 조절.
🌡️ Temperature Control🌡️ 온도 설정
Controls how "random" the AI's word choices are. 0.0 = Always picks the most likely word → deterministic, factual, repetitive 1.0 = Balanced between predictable and creative (recommended for chat) 2.0 = Maximum randomness → wild, unpredictable, may hallucinate
💬 Chat — Your normal conversations. Default 0.7 balances natural tone with accuracy. 🔧 Tool Calling — When AI calls functions (web search, file ops). Kept low (0.3) so it doesn't mistype command parameters.AI가 단어를 얼마나 "랜덤하게" 선택할지 결정하는 값이오. 0.0 = 항상 가장 확률 높은 단어 선택 → 확정적, 사실적, 반복적 1.0 = 예측 가능성과 창의성의 균형 (일반 대화 추천) 2.0 = 최대 랜덤 → 예측불가, 엉뚱한 답변, 환각 가능성 ↑
💬 대화 — 일상 대화용. 기본값 0.7은 자연스러움과 정확성의 균형점이오. 🔧 도구 호출 — AI가 웹 검색, 파일 작업 등 기능을 실행할 때. 명령어 파라미터를 틀리지 않도록 낮은 값(0.3)으로 유지.
🆚 OpenClaw: Chat 1.0 (provider default, not explicitly set). Tool/agent calls 0.0~0.3. Uses reasoning_effort instead of temperature to control output quality.🆚 오픈클로: 대화 1.0 (프로바이더 기본값, 명시 설정 없음). 도구/에이전트 호출 0.0~0.3. 온도 대신 reasoning_effort로 출력 품질 조절.
📏 Max Response Tokens📏 최대 응답 토큰
Limits how long the AI's reply can be. 1 token ≈ 0.75 English words (한국어 1토큰 ≈ 1~2글자). 512 tokens ≈ short paragraph (~380 words) — good for quick answers 4,096 tokens ≈ ~2 pages of text — good for code and detailed explanations 16,384 tokens ≈ ~8 pages — for very long outputs
💬 Chat — Everyday conversations. Recommended: 1,024. 512 can cut replies short. 💻 Code/Analysis — Programming, analysis, long-form writing. Recommended: 4,096+. ⚠️ Cost impact: Higher limits don't always cost more (you only pay for tokens actually used), but the AI may write longer than needed.AI 응답의 최대 길이를 제한하오. 1토큰 ≈ 한국어 1~2글자 (영어 0.75단어). 512 토큰 ≈ 짧은 문단 (~250자) — 간단한 답변에 적합 4,096 토큰 ≈ A4 2페이지 분량 — 코드, 상세 설명에 적합 16,384 토큰 ≈ A4 8페이지 — 매우 긴 출력용
💬 대화 — 일상 대화. 권장값 1,024. 512는 답변이 잘리는 경우가 있소. 💻 코드/분석 — 프로그래밍, 분석, 장문 작성. 권장값 4,096 이상. ⚠️ 비용 영향: 한도를 높인다고 무조건 비싸지진 않소 (실제 사용한 토큰만 과금). 다만 AI가 필요 이상으로 길게 쓸 수 있소.
💡 Set to 0 for Auto — dynamically allocates based on model provider defaults (Anthropic 8K, OpenAI 16K, Google 8K). Fixed values (512~16384) save cost but may truncate long responses.💡 0으로 설정하면 Auto — 모델 프로바이더 기본값에 따라 동적 할당 (Anthropic 8K, OpenAI 16K, Google 8K). 고정값(512~16384)은 비용 절감되나 긴 응답이 잘릴 수 있습니다.
🆚 OpenClaw: No fixed max_tokens — uses dynamic allocation based on model context window. Simple replies get ~1K, complex tasks get 16K+. Anthropic models default to 8,192 output tokens; OpenAI 4,096~16,384 depending on model. SalmAlm uses intent-based allocation: chat 512, code 4,096 by default — more cost-efficient but may truncate long responses.🆚 오픈클로: 고정 max_tokens 없음 — 모델 컨텍스트 윈도우 기반 동적 할당. 간단한 응답 ~1K, 복잡한 작업 16K+. Anthropic 모델 기본 8,192 출력 토큰; OpenAI 4,096~16,384 (모델별). 삶앎은 의도 기반 할당: 대화 512, 코드 4,096 기본 — 더 비용 효율적이나 긴 응답이 잘릴 수 있음.
💡 Recommended Presets:
🟢 Maximum Savings — Cheapest possible. Good for casual chat.
Planning ❌ · Reflection ❌ · Compaction 15K · Iterations 10 · Cap $2/day
Cache 24h · Batch API ❌ · File Summary ✅ · Early Stop ✅ Chat ~$0.0005/turn, Coding ~$0.008/turn
🟡 Balanced — Best for daily use. Cost-conscious but capable.
Planning ❌ · Reflection ❌ · Compaction 30K · Iterations 15 · Cap $10/day
Cache 4h · Batch API ❌ · File Summary ❌ · Early Stop ❌ Chat ~$0.002/turn, Coding ~$0.02/turn
🔴 Maximum Quality — Best results. AI thinks deeper and verifies its own work.
Planning ✅ · Reflection ✅ · Compaction 120K · Iterations 25 · No cap
Cache off · Batch API ❌ · File Summary ❌ · Early Stop ❌ Chat ~$0.05/turn, Coding ~$0.15/turn ↑ Uses Planning + Reflection for best accuracy. Good for important tasks.
🔵 OpenClaw-like — Mimics OpenClaw behavior. Raw power, no guardrails.
Planning ❌ · Reflection ❌ · Compaction 120K · Iterations ♾️ · No cap
Cache off · Batch API ❌ · File Summary ❌ · Early Stop ❌ Chat ~$0.03/turn, Coding ~$0.10/turn ↑ No Planning/Reflection (OpenClaw doesn't have them). Unlimited tool loops instead.
🔴 vs 🔵 — Quality thinks more carefully (plan → execute → verify). OpenClaw just executes freely with no limits. Quality costs more per turn but makes fewer mistakes.💡 권장 프리셋:
🟢 최대 절약 — 가장 저렴. 가벼운 대화용.
계획 ❌ · 검증 ❌ · 압축 15K · 반복 10회 · 하루 $2 제한
캐시 24시간 · 배치API ❌ · 파일요약 ✅ · 조기중단 ✅ 잡담 ~$0.0005/턴, 코딩 ~$0.008/턴
🟡 균형 — 일상 사용에 최적. 비용 절약하면서도 유능.
계획 ❌ · 검증 ❌ · 압축 30K · 반복 15회 · 하루 $10 제한
캐시 4시간 · 배치API ❌ · 파일요약 ❌ · 조기중단 ❌ 잡담 ~$0.002/턴, 코딩 ~$0.02/턴
🔴 최대 품질 — 최상의 결과. AI가 더 깊이 생각하고 자기 검증까지 수행.
계획 ✅ · 검증 ✅ · 압축 120K · 반복 25회 · 제한 없음
캐시 없음 · 배치API ❌ · 파일요약 ❌ · 조기중단 ❌ 잡담 ~$0.05/턴, 코딩 ~$0.15/턴 ↑ 계획+검증으로 정확도 최대화. 중요한 작업에 추천.
🔵 오픈클로처럼 — 오픈클로 동작 재현. 제한 없는 원시적 파워.
계획 ❌ · 검증 ❌ · 압축 120K · 반복 ♾️ · 제한 없음
캐시 없음 · 배치API ❌ · 파일요약 ❌ · 조기중단 ❌ 잡담 ~$0.03/턴, 코딩 ~$0.10/턴 ↑ 계획/검증 없음 (오픈클로에 해당 기능 없음). 대신 도구 무한 반복 허용.
🔴 vs 🔵 — 최대 품질은 신중하게 (계획→실행→검증). 오픈클로는 제한 없이 자유롭게 실행. 품질이 턴당 비용은 높지만 실수가 적음.
📊 SalmAlm vs OpenClaw — Engine Settings at a Glance📊 삶앎 vs 오픈클로 — 엔진 설정 한눈에 보기 🔴 SalmAlm🔵 OpenClawTemperature (Chat)온도 (대화)0.71.0 (provider default)Temperature (Tool)온도 (도구)0.30.0~0.3Planning계획 단계OFF (opt-in)OFFReflection자기 검증OFF (opt-in)OFFMax Tool Iterations최대 도구 반복15∞ (unlimited)Compaction컨텍스트 압축30K chars~120K tokensDynamic Tool Selection동적 도구 선택ON (0~12 per turn)All tools (always)Cache TTL캐시 유지1h (configurable)None (fresh every turn)Cost Cap비용 한도✅ (configurable)❌Quality Control품질 조절temperaturereasoning_effort
No features found.
🎯
Active Model
Auto
⚠️ Fixed model selected — Auto Routing is disabled. All messages use this model regardless of complexity.
Select 🔄 Auto Routing above to enable cost-optimized routing (Haiku for chat, Sonnet for code).⚠️ 고정 모델 선택됨 — 자동 라우팅이 비활성화됩니다. 복잡도에 관계없이 모든 메시지가 이 모델을 사용합니다.
비용 최적화 라우팅을 사용하려면 위에서 🔄 Auto Routing을 선택하세요.
📦 Models by Provider
Click a model to switch. Pricing per 1M tokens (input / output).
🔀 Auto Routing / 자동 라우팅
SalmAlm automatically classifies each message by complexity and routes it to the optimal model.
This saves money by using cheap models for simple tasks and powerful models only when needed.삶앎은 각 메시지의 복잡도를 자동 분류하여 최적의 모델로 라우팅합니다.
간단한 작업에 저렴한 모델을, 복잡한 작업에만 강력한 모델을 사용하여 비용을 절감합니다. 🆚 OpenClaw: Auto Routing OFF. One model per session. Manual switch via /model opus only.🆚 오픈클로: Auto Routing OFF. 세션당 하나의 모델 고정. /model opus로 수동 전환만 가능.
📖 How does classification work?📖 분류는 어떻게 작동하나요?
⚡ Simple — Short messages <50 chars, greetings, yes/no, emoji
Examples: "안녕", "ㅋㅋ", "ok", "고마워", "뭐해", "잘자" 🔧 Moderate — Code keywords, analysis, summaries, 50-500 chars
Examples: "이 코드 리뷰해줘", "요약해줘", "번역해줘" 💎 Complex — Architecture, system design, long messages >500 chars, thinking mode
Examples: "처음부터 API 서버 설계해줘", "전체 마이그레이션 계획"⚡ Simple — 50자 미만 짧은 메시지, 인사, 예/아니오, 이모지
예시: "안녕", "ㅋㅋ", "ok", "고마워", "뭐해", "잘자" 🔧 Moderate — 코드, 분석, 요약, 번역 키워드 포함, 50~500자
예시: "이 코드 리뷰해줘", "요약해줘", "번역해줘" 💎 Complex — 아키텍처, 설계, 500자 이상 긴 메시지, thinking 모드 활성화 시
예시: "처음부터 API 서버 설계해줘", "전체 마이그레이션 계획"
Greetings, short questions, casual chat. No tools needed.인사, 짧은 질문, 잡담. 도구 불필요.Default: Haiku — $0.25/$1.25 per M tokens (cheapest)
Code review, analysis, summaries, search, translations.코드 리뷰, 분석, 요약, 검색, 번역.Default: Sonnet — $3/$15 per M tokens (balanced)
System design, architecture, long reasoning, thinking mode tasks.시스템 설계, 아키텍처, 긴 추론, thinking 모드 작업.Default: Sonnet — $3/$15 per M tokens. Set Opus for maximum quality ($15/$75).기본: Sonnet — $3/$15 per M tokens. 최대 품질은 Opus 설정 ($15/$75).
💰 Estimated Daily Cost (100 calls/day):💰 예상 일일 비용 (100회/일):
🟢 Default (Haiku+Sonnet+Sonnet): ~$1.23/day ($37/month)
🟡 All Sonnet: ~$3.50/day ($105/month)
🔴 All Opus: ~$35/day ($1,050/month)
🟣 Haiku+Sonnet+Opus: ~$5.80/day ($174/month) — Best quality/cost balance최적 품질/비용 균형
💡 Tip: Use /model opus in chat to temporarily override for a single session without changing these defaults.💡 팁: 채팅에서 /model opus로 이 기본값을 바꾸지 않고 현재 세션만 일시적으로 오버라이드할 수 있습니다.
⚡ Auto Optimize analyzes your API keys and picks the cheapest model for each tier, mixing across providers for maximum savings.⚡ 자동 최적화는 보유한 API 키를 분석하여, 프로바이더를 교차 활용해 각 티어별 가장 저렴한 모델을 자동 선택합니다.
🦙 Local LLM (Ollama / LM Studio / vLLM)로컬 LLM (Ollama / LM Studio / vLLM)
Common endpoints: Ollama → http://localhost:11434/v1 · LM Studio → http://localhost:1234/v1 · vLLM → http://localhost:8000/v1주요 엔드포인트: Ollama → http://localhost:11434/v1 · LM Studio → http://localhost:1234/v1 · vLLM → http://localhost:8000/v1
🔑 API Keys
Enter API keys to enable providers. Keys are tested in real-time.
🔬 Debug Diagnostics
📋 Server Logs
Loading agent panel...
📎
Enter to send · Shift+Enter newline · Ctrl+V paste · Drag&Drop files