최근 수정 시각 : 2026-05-11 09:38:41

LM Studio

1. LM Studio

[include(틀:소프트웨어 정보,
이름=LM Studio,
개발사=Element Labs, Inc.,
개발자=Yagil Burowski,
발표일=2023년 5월,
운영체제=Windows, macOS, Linux,
종류=AI 추론 소프트웨어,
라이선스=프리웨어 (독점 소프트웨어),
링크=https://lmstudio.ai
)]
<colcolor=#6C31E3,#c49dff>
LM Studio
파일:lmstudio.png
<colbgcolor=#f8f4ff,#1a0a2e> 개발 Element Labs, Inc.
개발자 Yagil Burowski
출시 2023년 5월
라이선스 프리웨어 (본체 독점, SDK는 MIT)
용도 로컬 LLM 실행 및 추론 도구
운영체제 macOS (Apple Silicon) | Windows | Linux
웹사이트 파일:홈페이지 아이콘.svg
파일:X Corp 아이콘(블랙).svg
1. LM Studio2. 개요3. 개발사 및 역사
3.1. 개발사3.2. 출시 역사
4. 주요 기능
4.1. 모델 탐색 및 다운로드4.2. 채팅 인터페이스4.3. 로컬 서버 (OpenAI 호환 API)4.4. 개발자 SDK4.5. CLI 도구 (lms)4.6. MCP 지원4.7. Speculative Decoding4.8. llmster (헤드리스 모드)4.9. LM Link
5. 기술 구조6. 시스템 요구사양
6.1. macOS6.2. Windows6.3. Linux
7. 라이선스 및 가격8. 유사 소프트웨어9. 여담



LM Studio대규모 언어 모델(LLM)을 사용자의 로컬 컴퓨터에서 직접 다운로드하고 실행할 수 있는 데스크톱 애플리케이션이다. Element Labs, Inc.가 개발하였으며, 2023년 5월에 최초 공개되었다.

1. LM Studio2. 개요3. 개발사 및 역사
3.1. 개발사3.2. 출시 역사
4. 주요 기능
4.1. 모델 탐색 및 다운로드4.2. 채팅 인터페이스4.3. 로컬 서버 (OpenAI 호환 API)4.4. 개발자 SDK4.5. CLI 도구 (lms)4.6. MCP 지원4.7. Speculative Decoding4.8. llmster (헤드리스 모드)4.9. LM Link
5. 기술 구조6. 시스템 요구사양
6.1. macOS6.2. Windows6.3. Linux
7. 라이선스 및 가격8. 유사 소프트웨어9. 여담

2. 개요

LM Studio는 클라우드 서버 없이 AI 언어 모델을 로컬 환경에서 실행할 수 있도록 해주는 GUI 기반 소프트웨어이다. 사용자는 인터넷 연결 없이도 Llama, Gemma, Qwen, DeepSeek, Mistral 등 다양한 오픈소스 언어 모델을 실행하고 대화할 수 있다. 모든 추론(inference)이 로컬에서 이루어지기 때문에, 사용자 데이터가 외부 서버로 전송되지 않아 개인정보 보호 측면에서 장점이 있다.

개인 및 상업적 목적 모두 무료로 사용할 수 있으며, 별도의 구독료나 API 사용료가 없다.

3. 개발사 및 역사

3.1. 개발사

Element Labs, Inc.는 미국 뉴욕 브루클린에 소재한 소프트웨어 회사이다. 대표이자 창립자인 Yagil Burowski가 2023년에 설립하였으며, 그는 이전에 Apple에서 근무한 경력이 있다. 2025년 기준 직원 수는 약 16명이며, 연 매출은 약 180만 달러로 알려져 있다.

2025년 4월 25일에는 Matrix, Preston-Werner Ventures, Torch Capital 등의 투자사로부터 시리즈 B 라운드로 1,930만 달러의 투자를 유치하였다.

3.2. 출시 역사

버전 출시 시기 주요 변경사항
0.1.x 2023년 5월 최초 공개. Hugging Face 모델 탐색·다운로드 및 채팅 기능
0.2.x 2023년 하반기 macOS, Linux 지원 확대
0.3.x 2024~2025년 로컬 서버 기능, MLX 지원, Speculative Decoding, MCP 지원
0.3.11 2025년 3월 Python·TypeScript SDK 출시, Speculative Decoding 고급 설정
0.3.17 2025년 MCP(Model Context Protocol) 호스트 기능 도입
0.4.x 2025년 이후 CLI 채팅, llmster(헤드리스 모드), LM Studio Hub 등

4. 주요 기능

4.1. 모델 탐색 및 다운로드

앱 내 모델 카탈로그를 통해 Hugging Face에서 제공되는 다양한 오픈 가중치(open-weight) 모델을 검색하고 다운로드할 수 있다. GGUF 포맷과 MLX 포맷 모델을 지원한다.

지원하는 주요 모델 계열:
  • Meta Llama 시리즈
  • Google Gemma 시리즈
  • Alibaba Qwen 시리즈
  • DeepSeek 시리즈
  • Mistral AI 시리즈
  • OpenAI gpt-oss (2025년 8월 출시일 당일 지원)
  • NVIDIA 모델 등 다수

4.2. 채팅 인터페이스

다운로드한 모델과 직접 대화할 수 있는 GUI 채팅 화면을 제공한다. 시스템 프롬프트 설정, 멀티턴 대화, 컨텍스트 길이 조절 등의 기능이 포함되어 있다. 문서 기반 Q&A(RAG) 기능도 지원한다.

4.3. 로컬 서버 (OpenAI 호환 API)

LM Studio는 OpenAI의 API 형식과 호환되는 로컬 서버를 구동할 수 있다. 이를 통해 VS Code, Obsidian 등 외부 도구나 자체 제작 애플리케이션에서 로컬 LLM을 마치 OpenAI API처럼 활용할 수 있다.

4.4. 개발자 SDK

2025년 3월, Python과 TypeScript(JavaScript)용 공식 SDK가 1.0.0 버전으로 출시되었다. 두 SDK 모두 MIT 라이선스로 GitHub에 공개되어 있다.
  • lmstudio-python: 동기(sync) 및 비동기(async) API 지원, Pydantic 기반 JSON 스키마 출력 강제 기능
  • lmstudio-js: Node.js 및 브라우저 환경 모두 지원, Zod 기반 스키마 검증
  • .act() API: 에이전트 지향 API로, 모델이 툴을 사용하여 여러 단계에 걸쳐 자율적으로 작업을 수행하는 기능

4.5. CLI 도구 (lms)

터미널에서 LM Studio를 제어할 수 있는 CLI(명령줄 인터페이스) 도구 `lms`를 제공한다. 모델 다운로드, 서버 제어, 대화 세션 실행 등이 가능하다.
#!syntax bash
# 모델 다운로드 예시
lms get lmstudio-community/llama-3.2-1b-instruct-gguf@q4_k_m

4.6. MCP 지원

0.3.17 버전부터 MCP(Model Context Protocol) 호스트 기능이 추가되었다. MCP 서버를 앱에 연결하여 로컬 모델과 함께 사용할 수 있다.

4.7. Speculative Decoding

0.3.10 버전에서 Speculative Decoding 기능이 도입되었다. llama.cpp 및 MLX 백엔드 모두에서 추론 속도를 향상시키는 기법이다.

4.8. llmster (헤드리스 모드)

GUI 없이 서버·CI 환경에서 LM Studio의 핵심 기능을 사용할 수 있는 헤드리스 데몬(daemon)이다. Linux 서버나 클라우드 환경에서도 배포가 가능하다.

4.9. LM Link

원격으로 LM Studio 인스턴스에 접속하여 로컬처럼 모델을 사용할 수 있는 기능이다. 미리보기 기간 중에는 최대 2명의 사용자, 5개 기기(총 10개 기기)까지 무료로 이용할 수 있다.

5. 기술 구조

LM Studio는 Electron 기반의 데스크톱 애플리케이션으로, 프론트엔드는 ReactTypeScript로 구성되며 빌드 시스템으로 Vite를 사용한다.

추론 백엔드는 두 가지를 지원한다:
  • llama.cpp: GGUF 포맷 모델 실행. CPU, CUDA(NVIDIA GPU), Vulkan(범용 GPU), ROCm(AMD GPU), Metal(Apple GPU) 등 다양한 컴퓨팅 환경 지원
  • Apple MLX: Apple Silicon(M1/M2/M3/M4) 맥에서 MLX 포맷 모델을 고성능으로 실행

임베딩 모델(nomic-embed-text-v1.5, EmbeddingGemma 등)도 지원하여 RAG 워크플로우 구성이 가능하다.

6. 시스템 요구사양

6.1. macOS

  • 칩: Apple Silicon (M1/M2/M3/M4)
  • RAM: 16GB 권장 (8GB에서도 작은 모델은 구동 가능)
  • Intel 기반 Mac은 현재 미지원

6.2. Windows

  • 아키텍처: x64 또는 ARM (Snapdragon X Elite)
  • CPU: AVX2 명령어셋 지원 필요 (x64 기준)
  • RAM: 16GB 이상 권장
  • GPU: 전용 VRAM 4GB 이상 권장

6.3. Linux

  • 아키텍처: x64 또는 ARM64 (aarch64)
  • 배포 형식: AppImage
  • Ubuntu 22.04 이상 권장

7. 라이선스 및 가격

  • 데스크톱 애플리케이션 본체는 독점 소프트웨어(클로즈드 소스)이나 개인 및 상업적 이용 모두 무료
  • 2025년 7월, Element Labs는 기존의 상업용 별도 라이선스 요건을 폐지하고 누구나 무료로 사용할 수 있도록 변경하였다.
  • Python SDK(lmstudio-python), TypeScript SDK(lmstudio-js), CLI 도구(lms)는 MIT 라이선스로 오픈소스 공개
  • 대규모 조직을 위한 엔터프라이즈 플랜(유료)도 제공

8. 유사 소프트웨어

  • Ollama: CLI 기반의 로컬 LLM 실행 도구
  • GPT4All: 오프라인 LLM 실행 GUI 애플리케이션
  • Jan: 오픈소스 로컬 AI 채팅 애플리케이션
  • koboldcpp: llama.cpp 기반 경량 로컬 AI 서버

9. 여담

  • 공식 홈페이지: https://lmstudio.ai
  • 2025년 기준 로컬 LLM 실행 도구 중 가장 널리 사용되는 도구 중 하나로 꼽힌다.
  • NVIDIA GeForce RTX GPU와의 최적화 협업을 통해 CUDA 12.8 지원이 추가되어 RTX AI PC에서의 성능이 크게 향상되었다.
  • 2025년 8월, OpenAI의 첫 오픈소스 LLM인 gpt-oss 모델의 출시 당일 지원을 공식 발표하였다.