下一代本地 AI 模型运行工具
本地部署 · 高性能 · 服务器级
LM Studio 0.4.0 带来了革命性的改进
支持连续批处理,高吞吐量服务,不再需要排队等待
全新 llmster 核心,可部署到云服务器、CI 环境或任何地方
新的 /v1/chat 端点,支持本地 MCP 工具调用
聊天导出、分屏视图、开发者模式、内置文档
基于 llama.cpp 2.0 引擎,支持并发推理
多个请求同时处理,大幅提升吞吐量
可设置最大并发请求数,超出部分自动排队
动态分配资源,支持不同长度的请求
Introducing llmster - 无需 GUI 的核心
# Linux / Mac 安装
curl -fsSL https://lmstudio.ai/install.sh | bash
# Windows 安装
irm https://lmstudio.ai/install.ps1 | iex
# 使用方法
lms daemon up # 启动守护进程
lms get # 下载模型
lms server start # 启动本地服务器
lms chat # 交互式对话
lms chat - 终端内的交互式对话
lms chat --help 查看所有选项
新的 /v1/chat 端点 - 支持多轮对话和工具调用
使用 response_id 保持对话上下文
包含 tokens、速度、首 token 时间等指标
可启用本地配置的 MCP 服务器
安全控制工具访问权限
从零重构的用户体验
支持导出为 PDF、Markdown 或纯文本
并排打开多个聊天会话
显示所有高级选项和配置
Developer 标签页提供完整 API 文档
0.3.x vs 0.4.0 核心差异
| 功能 | 0.3.x | 0.4.0 |
|---|---|---|
| 并行请求 | ✗ | ✓ |
| 无 GUI 部署 | ✗ | ✓ (llmster) |
| 状态化 API | ✗ | ✓ /v1/chat |
| MCP 主机支持 | ✓ | ✓ 增强 |
| 分屏视图 | ✗ | ✓ |
| MLX 多模态 | ✓ | ✓ 即将支持并行 |
立即体验 LM Studio 0.4.0