Export or import your agent's personality, memory, settings, and data. ์์ด์ ํธ์ ์ธ๊ฒฉ, ๊ธฐ์ต, ์ค์ , ๋ฐ์ดํฐ๋ฅผ ๋ด๋ณด๋ด๊ฑฐ๋ ๊ฐ์ ธ์ต๋๋ค.
Export / ๋ด๋ณด๋ด๊ธฐ
Import / ๊ฐ์ ธ์ค๊ธฐ
๐ Drop ZIP file here or click to browse ZIP ํ์ผ์ ์ฌ๊ธฐ์ ๋๊ฑฐ๋ ํด๋ฆญํ์ธ์
๐ Update
Current: v
๐ Usage & Cost๐ ์ฌ์ฉ๋ & ๋น์ฉ
๐ฅ Self-Diagnostics๐ฅ ์๊ฐ ์ง๋จ
Check system health: API keys, vault, database, disk space.์์คํ ์ํ ํ์ธ: API ํค, ๋ณผํธ, ๋ฐ์ดํฐ๋ฒ ์ด์ค, ๋์คํฌ ๊ณต๊ฐ.
๐พ Backup & Restore๐พ ๋ฐฑ์ & ๋ณต์
Download all SalmAlm data as zip, or restore from backup.SalmAlm ๋ฐ์ดํฐ๋ฅผ zip์ผ๋ก ๋ค์ด๋ก๋ํ๊ฑฐ๋ ๋ฐฑ์ ์์ ๋ณต์ํฉ๋๋ค.
โก Engine Optimizationโก ์์ง ์ต์ ํ
Control how SalmAlm balances cost vs quality. All changes take effect immediately without restart.์ถ์์ ๋น์ฉ๊ณผ ํ์ง ๊ท ํ์ ์กฐ์ ํฉ๋๋ค. ๋ชจ๋ ๋ณ๊ฒฝ์ ์ฌ์์ ์์ด ์ฆ์ ์ ์ฉ๋ฉ๋๋ค.
How long identical (tool-free) query responses are cached. Cached hits cost $0 โ no API call made.
Higher TTL = more cache hits = more savings, but responses may be stale. Recommended: 4-24h for general use. Disable for real-time data needs (weather, stocks).๋์ผํ (๋๊ตฌ ๋ฏธ์ฌ์ฉ) ์ฟผ๋ฆฌ ์๋ต์ ์บ์ํ๋ ์๊ฐ์ ๋๋ค. ์บ์ ํํธ ์ ๋น์ฉ $0 โ API ํธ์ถ ์์.
TTL์ด ๋์์๋ก ์บ์ ํํธ ์ฆ๊ฐ = ๋น์ฉ ์ ๊ฐ, ๋จ ์๋ต์ด ์ค๋๋ ์ ์์. ๊ถ์ฅ: ์ผ๋ฐ ์ฌ์ฉ 4-24์๊ฐ. ์ค์๊ฐ ๋ฐ์ดํฐ(๋ ์จ, ํ์จ) ํ์ ์ ๋นํ์ฑํ. ๐ OpenClaw: Response cache OFF. Every message = fresh API call. (SalmAlm exclusive)๐ ์คํํด๋ก: ์๋ต ์บ์ OFF. ๊ฐ์ ์ง๋ฌธ๋ ๋งค๋ฒ ์ API ํธ์ถ. (์ถ์ ์ ์ฉ ๊ธฐ๋ฅ)
ON: Non-interactive tasks (summaries, analysis, translations) are queued and sent via Anthropic Batch API at 50% discount. Responses may take 1-60 min instead of instant. Best for: Batch processing, document analysis, offline summarization. OFF (default): All requests processed in real-time.ON: ๋น๋ํํ ์์ (์์ฝ, ๋ถ์, ๋ฒ์ญ)์ Anthropic ๋ฐฐ์น API๋ก ์ ์กํ์ฌ 50% ํ ์ธ. ์๋ต์ 1-60๋ถ ์์ ๊ฐ๋ฅ. ์ถ์ฒ ์ํฉ: ๋๋ ์ฒ๋ฆฌ, ๋ฌธ์ ๋ถ์, ์คํ๋ผ์ธ ์์ฝ. OFF (๊ธฐ๋ณธ): ๋ชจ๋ ์์ฒญ์ ์ค์๊ฐ์ผ๋ก ์ฒ๋ฆฌ. ๐ OpenClaw: Batch API OFF (not supported). All requests real-time. (SalmAlm exclusive)๐ ์คํํด๋ก: Batch API OFF (๋ฏธ์ง์). ๋ชจ๋ ์์ฒญ ์ค์๊ฐ ์ฒ๋ฆฌ. (์ถ์ ์ ์ฉ ๊ธฐ๋ฅ)
ON: Large file contents (>5KB) are first summarized by Haiku before being sent to the main model. Reduces input tokens by 50-80% for file-heavy tasks. Cost: Extra Haiku call (~$0.001) but saves $0.01-0.05 on Sonnet/Opus input. Trade-off: Summary may lose fine details. Disable for precise code review. OFF (default): Full file contents sent to the main model as-is.ON: ๋์ฉ๋ ํ์ผ(>5KB)์ ๋ฉ์ธ ๋ชจ๋ธ์ ๋ณด๋ด๊ธฐ ์ ์ Haiku๋ก ๋จผ์ ์์ฝํฉ๋๋ค. ํ์ผ ์ค์ฌ ์์ ์์ ์ ๋ ฅ ํ ํฐ 50-80% ์ ๊ฐ. ๋น์ฉ: Haiku ํธ์ถ ์ถ๊ฐ (~$0.001) ํ์ง๋ง Sonnet/Opus ์ ๋ ฅ์์ $0.01-0.05 ์ ์ฝ. ํธ๋ ์ด๋์คํ: ์์ฝ ์ ์ธ๋ถ์ฌํญ ์์ค ๊ฐ๋ฅ. ์ ๋ฐํ ์ฝ๋ ๋ฆฌ๋ทฐ์๋ ๋นํ์ฑํ ๊ถ์ฅ. OFF (๊ธฐ๋ณธ): ํ์ผ ๋ด์ฉ ์ ์ฒด๋ฅผ ๋ฉ์ธ ๋ชจ๋ธ์ ๊ทธ๋๋ก ์ ์ก. ๐ OpenClaw: File pre-summary OFF. Full file sent, AI manually chunks with offset/limit.๐ ์คํํด๋ก: ํ์ผ ์ฌ์ ์์ฝ OFF. ํ์ผ ์ ์ฒด ์ ์ก ํ AI๊ฐ offset/limit์ผ๋ก ์๋ ๋ถํ ์ฝ๊ธฐ.
ON: Detects when the AI response is semantically complete (e.g., ends with punctuation, code block closed) and stops generation early. Saves 10-30% output tokens on verbose responses. Trade-off: May occasionally cut off longer explanations. OFF (default): Model generates until it naturally stops or hits max_tokens.ON: AI ์๋ต์ด ์๋ฏธ์ ์ผ๋ก ์์ฑ๋๋ฉด(๋ง์นจํ, ์ฝ๋ ๋ธ๋ก ๋ซํ ๋ฑ) ์์ฑ์ ์กฐ๊ธฐ ์ค๋จํฉ๋๋ค. ์ฅํฉํ ์๋ต์์ ์ถ๋ ฅ ํ ํฐ 10-30% ์ ๊ฐ. ํธ๋ ์ด๋์คํ: ๊ธด ์ค๋ช ์ด ๊ฐํน ์๋ฆด ์ ์์. OFF (๊ธฐ๋ณธ): ๋ชจ๋ธ์ด ์์ฐ์ค๋ฝ๊ฒ ์ค๋จํ๊ฑฐ๋ max_tokens์ ๋๋ฌํ ๋๊น์ง ์์ฑ. ๐ OpenClaw: Early Stop OFF. Uses reasoning_effort to control verbosity from the start.๐ ์คํํด๋ก: Early Stop OFF. ๋์ reasoning_effort๋ก ์ฒ์๋ถํฐ ๊ฐ๊ฒฐํ๊ฒ ๋ตํ๋๋ก ์กฐ์ .
๐ก๏ธ Temperature Control๐ก๏ธ ์จ๋ ์ค์
Controls how "random" the AI's word choices are. 0.0 = Always picks the most likely word โ deterministic, factual, repetitive 1.0 = Balanced between predictable and creative (recommended for chat) 2.0 = Maximum randomness โ wild, unpredictable, may hallucinate
๐ OpenClaw: Chat 1.0 (provider default, not explicitly set). Tool/agent calls 0.0~0.3. Uses reasoning_effort instead of temperature to control output quality.๐ ์คํํด๋ก: ๋ํ 1.0 (ํ๋ก๋ฐ์ด๋ ๊ธฐ๋ณธ๊ฐ, ๋ช ์ ์ค์ ์์). ๋๊ตฌ/์์ด์ ํธ ํธ์ถ 0.0~0.3. ์จ๋ ๋์ reasoning_effort๋ก ์ถ๋ ฅ ํ์ง ์กฐ์ .
๐ Max Response Tokens๐ ์ต๋ ์๋ต ํ ํฐ
Limits how long the AI's reply can be. 1 token โ 0.75 English words (ํ๊ตญ์ด 1ํ ํฐ โ 1~2๊ธ์). 512 tokens โ short paragraph (~380 words) โ good for quick answers 4,096 tokens โ ~2 pages of text โ good for code and detailed explanations 16,384 tokens โ ~8 pages โ for very long outputs
๐ฌ Chat โ Everyday conversations. Lower values save money; raise if replies feel cut off. ๐ป Code/Analysis โ Programming, analysis, long-form writing. Needs more room. โ ๏ธ Cost impact: Higher limits don't always cost more (you only pay for tokens actually used), but the AI may write longer than needed.AI ์๋ต์ ์ต๋ ๊ธธ์ด๋ฅผ ์ ํํ์ค. 1ํ ํฐ โ ํ๊ตญ์ด 1~2๊ธ์ (์์ด 0.75๋จ์ด). 512 ํ ํฐ โ ์งง์ ๋ฌธ๋จ (~250์) โ ๊ฐ๋จํ ๋ต๋ณ์ ์ ํฉ 4,096 ํ ํฐ โ A4 2ํ์ด์ง ๋ถ๋ โ ์ฝ๋, ์์ธ ์ค๋ช ์ ์ ํฉ 16,384 ํ ํฐ โ A4 8ํ์ด์ง โ ๋งค์ฐ ๊ธด ์ถ๋ ฅ์ฉ
๐ก Set to 0 for Auto โ dynamically allocates based on model provider defaults (Anthropic 8K, OpenAI 16K, Google 8K). Fixed values (512~16384) save cost but may truncate long responses.๐ก 0์ผ๋ก ์ค์ ํ๋ฉด Auto โ ๋ชจ๋ธ ํ๋ก๋ฐ์ด๋ ๊ธฐ๋ณธ๊ฐ์ ๋ฐ๋ผ ๋์ ํ ๋น (Anthropic 8K, OpenAI 16K, Google 8K). ๊ณ ์ ๊ฐ(512~16384)์ ๋น์ฉ ์ ๊ฐ๋๋ ๊ธด ์๋ต์ด ์๋ฆด ์ ์์ต๋๋ค.
๐ OpenClaw: No fixed max_tokens โ uses dynamic allocation based on model context window. Simple replies get ~1K, complex tasks get 16K+. Anthropic models default to 8,192 output tokens; OpenAI 4,096~16,384 depending on model. SalmAlm uses intent-based allocation: chat 512, code 4,096 by default โ more cost-efficient but may truncate long responses.๐ ์คํํด๋ก: ๊ณ ์ max_tokens ์์ โ ๋ชจ๋ธ ์ปจํ ์คํธ ์๋์ฐ ๊ธฐ๋ฐ ๋์ ํ ๋น. ๊ฐ๋จํ ์๋ต ~1K, ๋ณต์กํ ์์ 16K+. Anthropic ๋ชจ๋ธ ๊ธฐ๋ณธ 8,192 ์ถ๋ ฅ ํ ํฐ; OpenAI 4,096~16,384 (๋ชจ๋ธ๋ณ). ์ถ์์ ์๋ ๊ธฐ๋ฐ ํ ๋น: ๋ํ 512, ์ฝ๋ 4,096 ๊ธฐ๋ณธ โ ๋ ๋น์ฉ ํจ์จ์ ์ด๋ ๊ธด ์๋ต์ด ์๋ฆด ์ ์์.
๐ก Recommended Presets:
๐ข Maximum Savings โ Cheapest possible. Good for casual chat.
Planning โ ยท Reflection โ ยท Compaction 15K ยท Iterations 10 ยท Cap $2/day
Cache 24h ยท Batch API โ ยท File Summary โ ยท Early Stop โ Chat ~$0.0005/turn, Coding ~$0.008/turn
๐ก Balanced โ Best for daily use. Cost-conscious but capable.
Planning โ ยท Reflection โ ยท Compaction 30K ยท Iterations 15 ยท Cap $10/day
Cache 4h ยท Batch API โ ยท File Summary โ ยท Early Stop โ Chat ~$0.002/turn, Coding ~$0.02/turn
๐ด Maximum Quality โ Best results. AI thinks deeper and verifies its own work.
Planning โ ยท Reflection โ ยท Compaction 120K ยท Iterations 25 ยท No cap
Cache off ยท Batch API โ ยท File Summary โ ยท Early Stop โ Chat ~$0.05/turn, Coding ~$0.15/turn โ Uses Planning + Reflection for best accuracy. Good for important tasks.
๐ต OpenClaw-like โ Mimics OpenClaw behavior. Raw power, no guardrails.
Planning โ ยท Reflection โ ยท Compaction 120K ยท Iterations โพ๏ธ ยท No cap
Cache off ยท Batch API โ ยท File Summary โ ยท Early Stop โ Chat ~$0.03/turn, Coding ~$0.10/turn โ No Planning/Reflection (OpenClaw doesn't have them). Unlimited tool loops instead.
๐ด vs ๐ต โ Quality thinks more carefully (plan โ execute โ verify). OpenClaw just executes freely with no limits. Quality costs more per turn but makes fewer mistakes.๐ก ๊ถ์ฅ ํ๋ฆฌ์ :
โ ๏ธ Fixed model selected โ Auto Routing is disabled. All messages use this model regardless of complexity.
Select ๐ Auto Routing above to enable cost-optimized routing (Haiku for chat, Sonnet for code).โ ๏ธ ๊ณ ์ ๋ชจ๋ธ ์ ํ๋จ โ ์๋ ๋ผ์ฐํ ์ด ๋นํ์ฑํ๋ฉ๋๋ค. ๋ณต์ก๋์ ๊ด๊ณ์์ด ๋ชจ๋ ๋ฉ์์ง๊ฐ ์ด ๋ชจ๋ธ์ ์ฌ์ฉํฉ๋๋ค.
๋น์ฉ ์ต์ ํ ๋ผ์ฐํ ์ ์ฌ์ฉํ๋ ค๋ฉด ์์์ ๐ Auto Routing์ ์ ํํ์ธ์.
๐ฆ Models by Provider
Click a model to switch. Pricing per 1M tokens (input / output).
๐ Auto Routing / ์๋ ๋ผ์ฐํ
SalmAlm automatically classifies each message by complexity and routes it to the optimal model.
This saves money by using cheap models for simple tasks and powerful models only when needed.์ถ์์ ๊ฐ ๋ฉ์์ง์ ๋ณต์ก๋๋ฅผ ์๋ ๋ถ๋ฅํ์ฌ ์ต์ ์ ๋ชจ๋ธ๋ก ๋ผ์ฐํ ํฉ๋๋ค.
๊ฐ๋จํ ์์ ์ ์ ๋ ดํ ๋ชจ๋ธ์, ๋ณต์กํ ์์ ์๋ง ๊ฐ๋ ฅํ ๋ชจ๋ธ์ ์ฌ์ฉํ์ฌ ๋น์ฉ์ ์ ๊ฐํฉ๋๋ค. ๐ OpenClaw: Auto Routing OFF. One model per session. Manual switch via /model opus only.๐ ์คํํด๋ก: Auto Routing OFF. ์ธ์ ๋น ํ๋์ ๋ชจ๋ธ ๊ณ ์ . /model opus๋ก ์๋ ์ ํ๋ง ๊ฐ๋ฅ.
๐ How does classification work?๐ ๋ถ๋ฅ๋ ์ด๋ป๊ฒ ์๋ํ๋์?
Greetings, short questions, casual chat. No tools needed.์ธ์ฌ, ์งง์ ์ง๋ฌธ, ์ก๋ด. ๋๊ตฌ ๋ถํ์.Default: Haiku โ $0.25/$1.25 per M tokens (cheapest)
Code review, analysis, summaries, search, translations.์ฝ๋ ๋ฆฌ๋ทฐ, ๋ถ์, ์์ฝ, ๊ฒ์, ๋ฒ์ญ.Default: Sonnet โ $3/$15 per M tokens (balanced)
System design, architecture, long reasoning, thinking mode tasks.์์คํ ์ค๊ณ, ์ํคํ ์ฒ, ๊ธด ์ถ๋ก , thinking ๋ชจ๋ ์์ .Default: Sonnet โ $3/$15 per M tokens. Set Opus for maximum quality ($15/$75).๊ธฐ๋ณธ: Sonnet โ $3/$15 per M tokens. ์ต๋ ํ์ง์ Opus ์ค์ ($15/$75).
๐ก Tip: Use /model opus in chat to temporarily override for a single session without changing these defaults.๐ก ํ: ์ฑํ ์์ /model opus๋ก ์ด ๊ธฐ๋ณธ๊ฐ์ ๋ฐ๊พธ์ง ์๊ณ ํ์ฌ ์ธ์ ๋ง ์ผ์์ ์ผ๋ก ์ค๋ฒ๋ผ์ด๋ํ ์ ์์ต๋๋ค.
โก Auto Optimize analyzes your API keys and picks the cheapest model for each tier, mixing across providers for maximum savings.โก ์๋ ์ต์ ํ๋ ๋ณด์ ํ API ํค๋ฅผ ๋ถ์ํ์ฌ, ํ๋ก๋ฐ์ด๋๋ฅผ ๊ต์ฐจ ํ์ฉํด ๊ฐ ํฐ์ด๋ณ ๊ฐ์ฅ ์ ๋ ดํ ๋ชจ๋ธ์ ์๋ ์ ํํฉ๋๋ค.
๐ฆ Local LLM (Ollama / LM Studio / vLLM)๋ก์ปฌ LLM (Ollama / LM Studio / vLLM)
Common endpoints: Ollama โ http://localhost:11434/v1 ยท LM Studio โ http://localhost:1234/v1 ยท vLLM โ http://localhost:8000/v1์ฃผ์ ์๋ํฌ์ธํธ: Ollama โ http://localhost:11434/v1 ยท LM Studio โ http://localhost:1234/v1 ยท vLLM โ http://localhost:8000/v1
๐ API Keys
Enter API keys to enable providers. Keys are tested in real-time.
๐ฌ Debug Diagnostics
๐ Server Logs
Loading agent panel...
๐
Enter to send ยท Shift+Enter newline ยท Ctrl+V paste ยท Drag&Drop files