Version 0.4.0

LM Studio

下一代本地 AI 模型运行工具

本地部署 · 高性能 · 服务器级

🚀 核心更新

LM Studio 0.4.0 带来了革命性的改进

并行请求处理

支持连续批处理,高吞吐量服务,不再需要排队等待

🖥️

无 GUI 部署

全新 llmster 核心,可部署到云服务器、CI 环境或任何地方

🔌

状态化 REST API

新的 /v1/chat 端点,支持本地 MCP 工具调用

🎨

全新 UI 界面

聊天导出、分屏视图、开发者模式、内置文档

⚡ 并行请求处理

基于 llama.cpp 2.0 引擎,支持并发推理

连续批处理

多个请求同时处理,大幅提升吞吐量

Max Concurrent Predictions

可设置最大并发请求数,超出部分自动排队

统一 KV 缓存

动态分配资源,支持不同长度的请求

🖥️ 服务器部署新时代

Introducing llmster - 无需 GUI 的核心

# Linux / Mac 安装
curl -fsSL https://lmstudio.ai/install.sh | bash

# Windows 安装
irm https://lmstudio.ai/install.ps1 | iex
# 使用方法
lms daemon up   # 启动守护进程
lms get              # 下载模型
lms server start       # 启动本地服务器
lms chat               # 交互式对话

💻 全新 CLI 体验

lms chat - 终端内的交互式对话

  • 直接在终端中与本地模型对话
  • 支持下载和管理模型
  • 运行 lms chat --help 查看所有选项
  • 完全脱离 GUI,适合服务器环境
  • 🔌 状态化 REST API

    新的 /v1/chat 端点 - 支持多轮对话和工具调用

    🔄

    状态化管理

    使用 response_id 保持对话上下文

    📊

    详细统计

    包含 tokens、速度、首 token 时间等指标

    🔧

    MCP 工具支持

    可启用本地配置的 MCP 服务器

    🔐

    权限密钥

    安全控制工具访问权限

    🎨 全新 UI 界面

    从零重构的用户体验

    📤

    聊天导出

    支持导出为 PDF、Markdown 或纯文本

    📐

    分屏视图

    并排打开多个聊天会话

    👨‍💻

    开发者模式

    显示所有高级选项和配置

    📚

    内置文档

    Developer 标签页提供完整 API 文档

    📊 版本对比

    0.3.x vs 0.4.0 核心差异

    功能 0.3.x 0.4.0
    并行请求
    无 GUI 部署 ✓ (llmster)
    状态化 API ✓ /v1/chat
    MCP 主机支持 ✓ 增强
    分屏视图
    MLX 多模态 ✓ 即将支持并行

    🚀 开始使用

    立即体验 LM Studio 0.4.0

    🌐 访问官网 📖 阅读更新日志 🧪 获取 Beta 版本
    4GB
    最低内存要求
    macOS
    Windows · Linux
    MLX
    Apple 芯片支持
    OpenAI
    API 兼容
    切换幻灯片 Space 下一页 Scroll 滑动浏览