在 Ubuntu 22.04上部署安装 LMStudio

在 Ubuntu 上安装 LMStudio 主要有两种方式:直接运行官方 AppImage 或使用 Docker 容器。下面给出最简可落地的步骤(以 Ubuntu 22.04 为例,20.04+ 均可参照)。

一、系统前置准备

1. 更新源并安装常用依赖

sudo apt update
sudo apt install -y wget curl build-essential python3-pip git

2. 若打算用 NVIDIA GPU 加速,再补装 CUDA 12.2 驱动与库(已装可跳过)

sudo apt install -y nvidia-cuda-toolkit libcudnn8

二、方案 A:AppImage 一键运行(推荐)

1. 下载最新 AppImage(以 2026-01 的 0.3.2 为例,可按需换版本)

wget https://github.com/lmstudio-ai/lmstudio/releases/download/v0.3.2/lmstudio-linux-x86_64.AppImage

2. 赋权并首次运行

chmod +x lmstudio-linux-x86_64.AppImage
./lmstudio-linux-x86_64.AppImage

首次启动会自动把核心文件解压到 ~/.cache/lmstudio,随后弹出图形界面,按提示下载模型即可。

三、方案 B:Docker 快速拉起(隔离性好,适合做 API 服务)

1. 安装 NVIDIA Container Toolkit(已装可跳过)

sudo apt install -y docker.io nvidia-docker2
sudo systemctl restart docker

2. 拉镜像并启动

docker pull ghcr.io/lmstudio/lmstudio:latest
docker run -d --gpus all -p 3000:3000 -v $HOME/models:/models lmstudio

3. 浏览器访问 http://localhost:3000 即可上传模型、做推理 。

四、常见问题速解

  • 双击无反应 → 在终端里运行 AppImage,看缺失库提示;通常 sudo apt install -y libgl1-mesa-glx libglib2.0-0 可解决 。

  • 启动后找不到 GPU → 确认 nvidia-smi 正常,再在设置里把 Backend 切换成 CUDA。

  • 中文路径报错 → 模型存放目录与文件路径避免中文与空格。

完成以上步骤后,即可在 Ubuntu 本地使用 LMStudio 加载 GGUF / bin 等格式的大模型进行推理。


在 Ubuntu 22.04上部署安装 LMStudio
http://localhost:8090//archives/1768637601418
作者
昊昱天合
发布于
2026年01月17日
更新于
2026年01月17日
许可协议