최근 수정 시각 : 2025-12-24 01:09:25

Qwen


{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all"
OpenAI GPT (1/2/3/4/oss/5/6개발 중) · (o1/o3/o4)
구글 Gemini(1/2/3) · Gemma · LaMDA · PaLM 2
Anthropic Claude (Opus/Sonnet/Haiku)
xAI Grok
메타 LLaMA
기타 HyperCLOVA(네이버) · 카나나(카카오) · 삼성 가우스(삼성전자) · Exaone(LG AI연구원) · 믿:음(KT) · A.X(SK텔레콤) · Phi(Microsoft) · OpenELM(Apple) · DeepSeek · Qwen(알리바바) · 어니봇(바이두) · Kimi(Moonshot AI) }}}}}}}}}
<colbgcolor=#615ced,#615ced><colcolor=#fff,#fff> Qwen
파일:Qwen 로고.svg
분류 소형 언어 모델
개발사 Tongyi Lab[1]
출시일
Qwen-1
2023년 8월 3일
Qwen-1.5
2024년 2월 4일
Qwen-2
2024년 6월 7일
Qwen-2.5
2024년 9월 19일
Qwen-3
2025년 4월 29일
버전 Qwen-3
링크 파일:홈페이지 아이콘.svg 파일:홈페이지 아이콘.svg[2] 파일:허깅페이스 아이콘.svg 파일:Google Play 아이콘.svg

1. 개요2. 제품
2.1. Qwen-12.2. Qwen-1.52.3. Qwen-22.4. Qwen-2.52.5. Qwen-3
2.5.1. Qwen-3-Next
2.6. Qwen-Image
2.6.1. Qwen-Image-Edit
2.7. QwQ
2.7.1. QwQ-Max2.7.2. QwQ-32B
2.8. QVQ
2.8.1. QVQ-Max
3. 챗봇4. 브라우저

1. 개요

알리바바 클라우드 산하 연구소 通义(Tong yi)에서 개발하는 오픈 소스 언어 모델이다. 이름은 (Qianwen)[3]에서 유래했다고 한다.

2025년 4월 25일 드디어 앱을 출시했다. 다만, 한국과 독일을 비롯한 많은 곳에서는 지역 문제로 다운로드가 불가하나 추후 가능해질 것이라고 한다.

2025년 11월 13일 블룸버그 소식으로, 알리바바가 QWEN을 ChatGPT와 유사한 형태로 전면 개편하는 작업을 진행중에 있으며, 향후 몇달 안에 자사의 소비자용 AI앱인 '통이(Tongyi)'와 '쿼크(QUARK)'앱을 Qwen으로 통합함과 동시에, Qwen 앱의 글로벌 버전도 출시하는 것이 목표라고 한다. 지난 몇 달 동안 이를 위해 비밀리에 프로젝트를 실행해 왔으며, 100명 이상의 개발자를 알리바바 소유 건물 2개 층을 통으로 사용하게 했다는 소식. #

마침내 2025년 11월 17일, 알리바바 그룹에서 직접 새로운 Qwen 앱을 발표했다. 다만 중국 내 한정으로 베타를 시작했으며, 글로벌 버전은 더 기다려야 한다고 한다.

2. 제품

2.1. Qwen-1

1.8B, 7B, 14B, 72B 4가지 크기의 모델로 출시되었다. 2023년 8월 3일에 7B가, 9월 25일에 14B가, 11월 30일에 1.8B와 72B가 출시되었다. GPT-3.5GPT-4에 근접하는 성능을 보여준다는 자체적인 평가 데이터가 공개되었다.

2024년 1월 25일에 영상 분석 특화 모델인 Qwen-VL이 공개되었다.

2.2. Qwen-1.5

2024년 2월 4일에 공개되었으며, 0.5B, 1.8B, 4B, 7B, 14B, 72B 6가지 모델로 출시되었다. GPT-3.5 대비 언어를 이해하는 능력이 월등하다는 평가 데이터가 공개되었다. 2024년 4월 2일에 32B가, 4월 25일에 110B 모델이 추가로 공개되었다.

2024년 4월 16일에 Qwen-1.5를 기반으로 한 CodeQwen1.5을 공개했다.

2024년 5월 11일에 Qwen-1.5-110B을 파인-튜닝한 Qwen-Max-0428을 공개했다.

2.3. Qwen-2

2024년 6월 7일에 공개되었으며, 0.5B, 1.5B, 7B, 57B-A14B, 72B 5가지 모델로 출시되었다. 72B 모델의 경우, 벤치마크에서 Llama 3 70B, Mixtral 8x22B와 Qwen 1.5-110B 모델을 완전히 제압하는 성능을 과시했다.

2024년 8월 8일에 Qwen2를 기반으로 한 수학 특화 모델인 Qwen2-Math[4] 모델과 음성 분석 특화 모델인 Qwen2-Audio[5] 모델을 발표했다.

2024년 8월 29일에 Qwen2를 기반으로 한 이미지 분석 특화 모델인 Qwen2-VL[6] 모델을 발표했다. GPT-4o-0513Claude 3.5-Sonnet을 압도적으로 앞서는 성능을 보여줬다.#

2.4. Qwen-2.5

2024년 9월 19일에 Qwen2보다 개선된 2.5 모델을 발표했다. 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B 7가지의 모델로 구성되어 있으며, 이 중 3B와 72B를 제외하고 나머지 모델들은 모두 Apache 2.0 라이센스가 적용되었다. 수학 특화 모델인 Qwen2.5-Math[7] 모델 또한 공개되었다.

2024년 11월 12일에는 코딩 특화 모델인 Qwen2.5-Coder[8] 모델을 발표했다.

2025년 1월 26일Qwen2.5-VL[9] 모델을 발표했다.
기존 2.0-VL 모델 대비 큰폭의 성능 향상이 돋보인다.

2025년 1월 27일에 대화 토큰을 1M까지 가능하게 발전시킨 Qwen2.5-1M[10]을 공개했다.

2025년 1월 28일Qwen2.5-Max 모델을 공개했다.
모든 밴치마크 영역에서 DeepSeek-V3를 뛰어넘은것으로 평가되었으며, 100B 크기의 모델인것으로 밝혀졌다.
알리클라우드에서 API로 호출해 사용이 가능하며, 주기적으로 롤링 모드 업데이트를 한다고 밝혔다.

2025년 2월 25일에 Qwen2.5-Max의 오픈소스 출시가 임박했다고 공지가 나왔다.#

2025년 3월 24일Qwen2.5-VL-32B가 공개됐다. 기존 2.5-VL 모델에 추가 학습과 지속적인 최적화를 한 끝에 32B 모델을 만들어 냈으며, 2-VL-72B 모델과 거의 동급의 성능을 보여주고 있다.

2025년 3월 27일Qwen2.5-Omni[11]가 공개됐다. 텍스트, 이미지, 오디오, 비디오를 모두 인식 하고, 매우 빠른 속도의 텍스트나 음성 합성으로 응답을 할 수 있는 멀티-모달 모델이다.

2025년 5월 1일Qwen2.5-Omni의 3B 버전이 공개되었다. 기존 7B 버전 대비 VRAM 사용률을 50% 절감하는데 성공, 7B모델 대비 90% 수준의 성능을 유지하는데 성공했다고 한다. 그 결과, 24GB정도의 GPU에서 30초이상의 오디오-비디오 상호작용을 지원할 수 있게 됐다고 한다.

2.5. Qwen-3

2025년 4월 29일, Qwen3가 modelscopeHuggingface에서 공개되었다. 동시에, 블로그에도 소개글이 같이 올라왔다.

0.6, 1.7, 4, 8, 14, 32B 일반모델 6가지와 30B-A3B, 235B-A22B의 MoE 모델 2가지로 구성되어 있다.
참고로, 0.6, 1.7, 4, 8, 14B모델은 32B 모델에서, 30B-A3B는 235B-A22B에서 증류시켜 만든 소형화 모델이다고 한다.
파일:Qwen3-235B-MoE-Bench.jpg
가장 큰 235B 모델은, 벤치마크에서 OpenAI o1, o3-mini-medium, DeepSeek R1, Grok 3-Thinking을 모조리 이겨버리는 매우 뛰어난 성능을 보여줬다.

파일:qwen3-30B-MoE-Bench.jpg
이보다 작은 30B-A3B 모델은, gemma3, Deepseek-v3, GPT-4o(24-11-20)을 매우 높은 격차로 이겨버리는 성능을 보여줬다.

모든 Qwen3 모델은 119가지의 언어와 방언을 학습해 글로벌하게 사용할 수 있다. 코딩, 에이전트 기능에 모델들을 최적화 했으며, MCP 지원도 가능해졌다. 게다가 이 모든 모델에 Apache 2.0 라이센스를 적용해 광범위한 사용도 허락했다!
2025년 7월 21일, Qwen3-235B-A22B의 비추론 영역을 따로 독립시켜 추가적인 강화학습을 많이 진행시킨 Qwen3-235B-A22B-Instruct-2507 를 공개했다.
동시에, 업데이트된 추론모델과 더 다양한 크기의 모델들을 공개할 예정이라고 밝혔다.
파일:Qwen3-235B-A22B-Instruct-2507-Bench.jpg
비추론 모델중에서는 최고수준이라고 할 수 있을정도로, 매우 큰 폭의 성능향상을 보여줬다. 1T크기의 모델인 Kimi-k2와, 현존 최강의 모델이라 불리던 claude 4 opus도 꺾었다. 추가로, 최대 컨텍스트 길이를 256K까지 늘렸다고 한다.
2025년 9월 23일, Qwen3-Omni를 공개했다.
텍스트, 오디오, 비디오, 이미지 등 모든 종류의 자료를 처리할 수 있으며 실시간 답변을 오디오로 생성하는 기능까지 포함한다.
기존 2.5-Omni보다 성능이 훨씬 좋아졌으며, Gemini-2.5-Pro와 맞먹는 성능을 보여주고 있다.
오디오로만 대화를 할 경우, 단 0.21초만에 답변을 할 수 있으며 오디오-비디오 시나리오의 경우 0.507초만에 답할 수 있다고 한다. 30분 분량의 오디오를 이해할 수 있으며, 툴 호출도 가능하다고 한다. 아에 자막 생성 전문 모델인 Captioner 버전도 따로 존재한다.
119가지의 언어를 텍스트로 구사할 수 있으며, 19가지 언어의 오디오를 이해 할 수 있고, 10가지 언어로 오디오 답변 생성을 할 수 있다.

같은 날에 Qwen3-VL 모델도 공개했는데, 공개된 크기 중 235B-A22B 모델이 선출시되었으며, 30B-A3B, 8B, 4B 순으로 공개되었다. 이미지 입력과 도구 사용을 강점으로 코딩 시각 처리에 주목을 받고 있다.
2025년 9월 24일, Qwen3-Max를 공개했다.
MoE 구조를 갖췄고, 1T 파라미터중에 36B 영역만 활성화되는 초거대 모델이다. 2.5-MAX가 100B 정도의 모델임을 감안하면 거의 10배나 커진셈.
파일:Qwen3-Max-normal.png
DeepSeek-V3.1Claude Opus 4를 씹어먹는 강력한 성능을 보여준다지만, 발표 시점 DeepSeek V3.1-Terminus 와 Claude Opus 4.1 이 나와있던 시점이라 비교결과가 아쉬운 부분이 있다.

파일:Qwen3-Max-Thinking-Benchmark.png
추론이 가능한 Qwen3-Max-Thinking의 개발 현황도 같이 공개했는데, GPT-5 ProGrok 4 heavy와 사실상 동등한 위치에 섰다는 벤치마크 결과가 나와 세계를 경악시키고 있다.

2025년 11월 3일에 Max-Thinking의 초기 버전을 공개했다. API와 Qwen Chat에서 사용해볼 수 있다.

2.5.1. Qwen-3-Next

2025년 9월 11일 공개되었다.#

파일:Qwen-3-Next-archtecture.png

완전히 새로운 개념의 아키텍쳐를 도입했는데, Gated DeltaNet + Gated Attention 이라고 부르고 있다.

선형 어텐션은 빠르지만 성능이 떨어지고, 표준 어텐션은 훈련비용의 수직상승과 추론과정이 매우 느리다는 단점이 있다.

이를 해결하기 위해, Gated DeltaNet으로 대부분을 처리하고, 주기적으로 Attention이 전역을 재점검 하도록 구성한 뒤, 양쪽에 "출력 게이트"를 달아 정보 흐름을 정밀하게 제어하도록 개선했다.

초보자가 알아 들을 수 있을 난이도로 설명하자면, 긴 글을 보고 메모장에 요약을 쓰다가, 가끔씩 원문 전체를 읽고 수정하는 일을 계속 반복한다고 이해하면 된다.

추가로, "다중 토큰 예측" 메커니즘을 도입하여 모델의 전반적 성능 향상을 꾀할뿐만 아니라, 훈련과 실제 추론의 일관성을 유지하도록 하여 정확도를 향상시키도록 하였다.

파일:Qwen-3-Next-2.png

덕분에, QwQ-32B 모델 훈련 시간보다 10.7배 빠르게 훈련이 가능했으며 기반이 되는 Qwen3-30B-A3B보다 성능이 더 좋아지는 결과를 보였다.

파일:Qwen3-Next-80B-A3B.jpg

비추론 모델 기준 80B모델이 235B 모델과 맞먹는 놀라운 성능을 보여준다.

파일:Qwen3-Next-80B-A3B-Thinking.jpg

추론 모델 기준 Gemini 2.5 Flash는 물론 뛰어넘었고, 기존 모델인 30B-A3B-Thinking-2507보다는 미세하게 좀더 좋아진것이 증명되었다.

이로써 아키텍쳐의 효과가 증명되었으며, 앞으로 개발될 Qwen 3.5의 핵심 아키텍쳐로 적용될것이라고 밝혔다.

2.6. Qwen-Image

2025년 8월 4일공개된 모델이다. 20B정도의 크기로, FLUX.1 보다는 조금 더 크다.
아주 복잡하게 지시를 하더라도 그 의도에 맞춰 구현하는 능력이 뛰어나다고 주장하고 있다. 특히, 영어와 중국어로 지시를 내려도 매우 정확하게 구현한다고 한다.
편집 작업에서, 작품의 일관성을 매우 높게 유지한다고 한다. 다른 이미지 생성 AI들이 편집을 할수록 일그러지거나 의도와 매우 다르게 나오는걸 생각한다면 그런 현상을 최소화 이해하면 편하다.

파일:Qwen-Image bench.png

밴치마크 결과는 거의 모든 영역에서 GPT IMAGE 1을 찍어누르는 강력한 성능을 보여줬다. 좌측 그래프는 이미지 품질을, 우측은 텍스트로 지시를 내렸을때 반영 정확도를 평가했다.
중국어, 영어 모두 Qwen-Image가 우세함에 있어 DeepSeek의 Janus-Pro의 재림이라고 평가할 수 있다고 볼 수 있다. 이 강력한 모델도 Qwen Chat에서 "이미지 생성"을 선택 후 무료로 사용할 수 있다.

2.6.1. Qwen-Image-Edit

2025년 9월 23일공개된 모델로, Qwen-Image 모델을 기반으로 이미지 편집 능력을 강화시킨 모델이다.
지원하는 기능과 이미지 편집 성능이 가히 구글나노-바나나를 능가하는 수준인데다 오픈소스 이라는 점으로 폭발적인 인기를 끌고 있다.
주요 강점으로는 (사람+사람), (사람+물체), (사람+배경) 같이 최대 3장의 이미지를 동시에 넣고 편집할 수 있다. 이미지의 일관성이 나노-바나나와 비빌정도로 매우 향상되었다.
이 모델 또한 Qwen Chat에서 "이미지 편집"을 선택 후 무료로 사용할 수 있다.

새로운 스냅샷을 준비중인걸로 확인됐다.
2025년 12월 18일에 2511 버전을 공개했다.

2.7. QwQ

Qwen with Questions. AI의 추론 능력에 집중한 특화 모델이다. 비교하자면 OpenAI o시리즈, Deepseek-R 시리즈가 있다.

2.7.1. QwQ-Max

Qwen 2.5-Max를 기반으로 개발된 모델이며, 수학, 코딩 및 일반 영역 작업에서 탁월한 성능을 발휘하는 동시에 에이전트 관련 워크플로우에서 뛰어난 성능을 제공한다고 한다.
조만간 Qwen 2.5-Max와 함께 Apache 2.0 라이센스로 오픈소스 공개를 진행할 예정이다.

2.7.2. QwQ-32B

확장 강화 학습을 적용해 훨씬 작은 모델[12]로 DeepSeek-R1[13]과 동일한 성능이 나오도록 만든 모델이다.
에이전트 관련 기능을 모델이 사용 가능하도록 통합해 도구를 활용하며 비판적으로 사고하고 환경 피드백에 따라 추론을 조정할 수 있다고 한다.
Apache 2.0 라이센스로 오픈소스 공개가 이뤄졌다.

공개된 벤치마크 데이터에 의하면, DeepSeek-R1와 동일한 성능이며, OpenAI-o1-mini보다 압도적인 성능을 보여주고 있다.
파일:Qwen-QWQ-32B-Benchmark.webp
QwQ-32B 모델 벤치마크

2.8. QVQ

AI의 시각적 추론 능력을 향상하기 위해 개발 중인 실험적 연구 모델이다. 모델의 크기는 72B 하나만 제공된다. 공개된 벤치 데이터에 의하면 OpenAI o1-2024-12-17에 근접한 성능을 보여주고 있다. #

2.8.1. QVQ-Max

QVQ 모델을 지속적으로 학습과 최적화를 시켜 2025년 3월 29일에 발표했다.

3. 챗봇

{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
<bgcolor=#2e3039,#2e3039> 자체 개발 모델 기반
ChatGPT · Gemini(음성: Gemini Live) · Claude · Grok · DeepSeek · Kimi · #s-3 · Le Chat · CLOVA X(검색: Cue:) · 삼성 가우스 어시스턴트(음성 비서: 빅스비) · 어니봇 · Pi · Reka · 인셉션 랩스 · 구버 · 업스테이지
AI wrapper
타사 LLM 활용 Microsoft Copilot · Perplexity · SAIP · 뤼튼 · 캐럿 · YouChat · Phind · GPTeens · 페르소라이브 · Genspark · FlakeLLM
인격
챗봇
플랫폼 Character.AI · CAVEDUCK · MyShell AI · 로판AI · Rolp.AI · zeta · 티카 · BabeChat · 크랙(뤼튼) · 레플리 · Elyn · 리플리챗 · 루나톡 · GPTRPG · 버터컵 AI · aira · 케밍 · 랜덤테일즈 · Gooka · 멜팅 · SpeakEasy · 러비더비 · 피즈챗 · 알플챗 · 츄챗 · 코멧 · 위프 · 라크 · 미라이 · 이브챗
<keepall> 프론트엔드 RisuAI
컴패니언 이루다 2.0 · 강다온 · 허세중 · 러브퍼센트 · Neuro-sama · 라디안 · 냥아지·쿠로냥아지 · oshikoi }}}}}}}}}

chat.qwen.ai에서 Qwen 기반으로 하여 제작된 대화형 인공지능 서비스를 제공하고 있다.

4. 브라우저

Qwen 모델을 통합한 QUARK 라는 에이전틱 웹 브라우저를 개발했다.
[1] 通义[2] 블로그[3] 천문, 1000개의 질문[4] 1.5B, 7B, 72B[5] 7B[6] 2B, 7B, 72B[7] 1.5B, 7B, 72B[8] 72B 버전 X[9] 3B, 7B, 72B[10] 7B, 14B[11] 7B[12] 32B[13] 671B