최근 수정 시각 : 2025-10-07 00:13:21

Gemini(인공지능 모델)

gemini cli에서 넘어옴

파일:다른 뜻 아이콘.svg  
#!if 넘어옴1 != null
''''''{{{#!if 넘어옴2 == null
{{{#!if 넘어옴1[넘어옴1.length - 1] >= 0xAC00 && 넘어옴1[넘어옴1.length - 1] <= 0xD7A3
{{{#!if ((넘어옴1[넘어옴1.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴1[넘어옴1.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴1[넘어옴1.length - 1] < 0xAC00 || 넘어옴1[넘어옴1.length - 1] > 0xD7A3
은(는)}}}}}}{{{#!if 넘어옴2 != null
, ''''''{{{#!if 넘어옴3 == null
{{{#!if 넘어옴2[넘어옴2.length - 1] >= 0xAC00 && 넘어옴2[넘어옴2.length - 1] <= 0xD7A3
{{{#!if ((넘어옴2[넘어옴2.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴2[넘어옴2.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴2[넘어옴2.length - 1] < 0xAC00 || 넘어옴2[넘어옴2.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴3 != null
, ''''''{{{#!if 넘어옴4 == null
{{{#!if 넘어옴3[넘어옴3.length - 1] >= 0xAC00 && 넘어옴3[넘어옴3.length - 1] <= 0xD7A3
{{{#!if ((넘어옴3[넘어옴3.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴3[넘어옴3.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴3[넘어옴3.length - 1] < 0xAC00 || 넘어옴3[넘어옴3.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴4 != null
, ''''''{{{#!if 넘어옴5 == null
{{{#!if 넘어옴4[넘어옴4.length - 1] >= 0xAC00 && 넘어옴4[넘어옴4.length - 1] <= 0xD7A3
{{{#!if ((넘어옴4[넘어옴4.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴4[넘어옴4.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴4[넘어옴4.length - 1] < 0xAC00 || 넘어옴4[넘어옴4.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴5 != null
, ''''''{{{#!if 넘어옴6 == null
{{{#!if 넘어옴5[넘어옴5.length - 1] >= 0xAC00 && 넘어옴5[넘어옴5.length - 1] <= 0xD7A3
{{{#!if ((넘어옴5[넘어옴5.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴5[넘어옴5.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴5[넘어옴5.length - 1] < 0xAC00 || 넘어옴5[넘어옴5.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴6 != null
, ''''''{{{#!if 넘어옴7 == null
{{{#!if 넘어옴6[넘어옴6.length - 1] >= 0xAC00 && 넘어옴6[넘어옴6.length - 1] <= 0xD7A3
{{{#!if ((넘어옴6[넘어옴6.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴6[넘어옴6.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴6[넘어옴6.length - 1] < 0xAC00 || 넘어옴6[넘어옴6.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴7 != null
, ''''''{{{#!if 넘어옴8 == null
{{{#!if 넘어옴7[넘어옴7.length - 1] >= 0xAC00 && 넘어옴7[넘어옴7.length - 1] <= 0xD7A3
{{{#!if ((넘어옴7[넘어옴7.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴7[넘어옴7.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴7[넘어옴7.length - 1] < 0xAC00 || 넘어옴7[넘어옴7.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴8 != null
, ''''''{{{#!if 넘어옴9 == null
{{{#!if 넘어옴8[넘어옴8.length - 1] >= 0xAC00 && 넘어옴8[넘어옴8.length - 1] <= 0xD7A3
{{{#!if ((넘어옴8[넘어옴8.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴8[넘어옴8.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴8[넘어옴8.length - 1] < 0xAC00 || 넘어옴8[넘어옴8.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴9 != null
, ''''''{{{#!if 넘어옴10 == null
{{{#!if 넘어옴9[넘어옴9.length - 1] >= 0xAC00 && 넘어옴9[넘어옴9.length - 1] <= 0xD7A3
{{{#!if ((넘어옴9[넘어옴9.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴9[넘어옴9.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴9[넘어옴9.length - 1] < 0xAC00 || 넘어옴9[넘어옴9.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴10 != null
, ''''''{{{#!if 넘어옴10[넘어옴10.length - 1] >= 0xAC00 && 넘어옴10[넘어옴10.length - 1] <= 0xD7A3
{{{#!if ((넘어옴10[넘어옴10.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴10[넘어옴10.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴10[넘어옴10.length - 1] < 0xAC00 || 넘어옴10[넘어옴10.length - 1] > 0xD7A3
은(는)}}}}}} 여기로 연결됩니다. 
#!if 설명 == null && 리스트 == null
{{{#!if 설명1 == null
다른 뜻에 대한 내용은 아래 문서를}}}{{{#!if 설명1 != null
{{{#!html 이 모델을 사용하는 인공지능 검색 엔진 서비스}}}에 대한 내용은 [[Gemini(애플리케이션)]] 문서{{{#!if (문단1 == null) == (앵커1 == null)
를}}}{{{#!if 문단1 != null & 앵커1 == null
의 [[Gemini(애플리케이션)#s-|]]번 문단을}}}{{{#!if 문단1 == null & 앵커1 != null
의 [[Gemini(애플리케이션)#|]] 부분을}}}}}}{{{#!if 설명2 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단2 == null) == (앵커2 == null)
를}}}{{{#!if 문단2 != null & 앵커2 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단2 == null & 앵커2 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명3 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단3 == null) == (앵커3 == null)
를}}}{{{#!if 문단3 != null & 앵커3 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단3 == null & 앵커3 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명4 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단4 == null) == (앵커4 == null)
를}}}{{{#!if 문단4 != null & 앵커4 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단4 == null & 앵커4 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명5 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단5 == null) == (앵커5 == null)
를}}}{{{#!if 문단5 != null & 앵커5 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단5 == null & 앵커5 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명6 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단6 == null) == (앵커6 == null)
를}}}{{{#!if 문단6 != null & 앵커6 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단6 == null & 앵커6 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명7 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단7 == null) == (앵커7 == null)
를}}}{{{#!if 문단7 != null & 앵커7 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단7 == null & 앵커7 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명8 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단8 == null) == (앵커8 == null)
를}}}{{{#!if 문단8 != null & 앵커8 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단8 == null & 앵커8 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명9 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단9 == null) == (앵커9 == null)
를}}}{{{#!if 문단9 != null & 앵커9 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단9 == null & 앵커9 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명10 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단10 == null) == (앵커10 == null)
를}}}{{{#!if 문단10 != null & 앵커10 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단10 == null & 앵커10 != null
의 [[#|]] 부분을}}}}}}
#!if 설명 == null
{{{#!if 리스트 != null
다른 뜻에 대한 내용은 아래 문서를}}} 참고하십시오.

#!if 리스트 != null
{{{#!if 문서명1 != null
 * {{{#!if 설명1 != null
이 모델을 사용하는 인공지능 검색 엔진 서비스: }}}[[Gemini(애플리케이션)]] {{{#!if 문단1 != null & 앵커1 == null
문서의 [[Gemini(애플리케이션)#s-|]]번 문단}}}{{{#!if 문단1 == null & 앵커1 != null
문서의 [[Gemini(애플리케이션)#|]] 부분}}}}}}{{{#!if 문서명2 != null
 * {{{#!if 설명2 != null
: }}}[[]] {{{#!if 문단2 != null & 앵커2 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단2 == null & 앵커2 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명3 != null
 * {{{#!if 설명3 != null
: }}}[[]] {{{#!if 문단3 != null & 앵커3 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단3 == null & 앵커3 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명4 != null
 * {{{#!if 설명4 != null
: }}}[[]] {{{#!if 문단4 != null & 앵커4 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단4 == null & 앵커4 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명5 != null
 * {{{#!if 설명5 != null
: }}}[[]] {{{#!if 문단5 != null & 앵커5 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단5 == null & 앵커5 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명6 != null
 * {{{#!if 설명6 != null
: }}}[[]] {{{#!if 문단6 != null & 앵커6 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단6 == null & 앵커6 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명7 != null
 * {{{#!if 설명7 != null
: }}}[[]] {{{#!if 문단7 != null & 앵커7 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단7 == null & 앵커7 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명8 != null
 * {{{#!if 설명8 != null
: }}}[[]] {{{#!if 문단8 != null & 앵커8 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단8 == null & 앵커8 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명9 != null
 * {{{#!if 설명9 != null
: }}}[[]] {{{#!if 문단9 != null & 앵커9 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단9 == null & 앵커9 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명10 != null
 * {{{#!if 설명10 != null
: }}}[[]] {{{#!if 문단10 != null & 앵커10 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단10 == null & 앵커10 != null
문서의 [[#|]] 부분}}}}}}

언어 모델
{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all"
<colkeepall> OpenAI GPT (1/2/3/4/oss/5/6개발 중) · (o1/o3/o4)
구글 Gemini · Gemma · LaMDA · PaLM 2
Anthropic Claude
xAI Grok
메타 LLaMA
기타 HyperCLOVA(네이버) · 카나나(카카오) · 삼성 가우스(삼성전자) · Exaone(LG AI연구원) · 믿:음(KT) · A.X(SK텔레콤) · Phi(Microsoft) · OpenELM(Apple) · DeepSeek · Qwen(알리바바) · 어니봇(바이두) · Kimi(Moonshot AI) }}}}}}}}}

Google DeepMind
{{{#!wiki style="min-height: calc(1.5em + 5px); margin: 0 -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin: -5px -1px -11px"
<colbgcolor=#0053d6,#0053d6><colcolor=#fff,#fff> 관련 인물 데미스 허사비스 · 무스타파 슐레이만
상용 모델 Gemini · Gemma · Imagen · Veo · Gemini Live
과학 인공지능
생물학 AlphaFold · AlphaGenome · AlphaMissense · AlphaProteo
날씨 예측 GenCast
수학 & 컴퓨터 과학 AlphaEvolve · AlphaProof · AlphaGeometry · AlphaChip
물리 & 화학 GNoME · Google DeepMind · AlphaQubit · FermiNet
게임 인공지능 알파고(알파고 마스터 · 알파고 제로) · AlphaZero · AlphaStar · 뮤제로
관련 문서 DQN · DDPG · Reward is enough · 구글 딥마인드 챌린지 매치 · 바둑의 미래 서밋 · 알파고 vs 알파고 }}}}}}}}}
Gemini
_Ge_neralized _M_ultimodal _In_tell_i_gence Network
파일:geminiLogo.png파일:geminiLogoDark.png
<colbgcolor=#51a2ca><colcolor=#fff> 개발사 Google DeepMind
출시일
Gemini 1.0
2023년 12월 6일
Gemini 1.5
2024년 2월 15일
Gemini 2.0
2025년 2월 5일
Gemini 2.5
2025년 3월 26일
기능 언어 모델
하드웨어 TPU v4, v5e, v6e
언어 영어, 한국어[1]
사용처 Gemini 앱[2][3], Google AI Studio, Google Cloud Platform[4], 최신 구글 픽셀 기기[5][N], 최신 삼성 갤럭시 기기[N][8]
라이선스 Proprietary SW
링크 파일:홈페이지 아이콘.svg

1. 개요2. 역사3. 특징4. 모델
4.1. Gemini 1.04.2. Gemini 1.54.3. Gemini 2.04.4. Gemini 2.5
4.4.1. 2.5 Flash Image
4.5. Gemini CLI
5. 제미나이 앱 및 웹사이트에 있는 기능6. 평가
6.1. 긍정적 평가6.2. 부정적 평가
7. 논란 및 사건사고
7.1. 시연 영상 조작 논란7.2. 오류 생성7.3. 데이터 무단 학습 벌금 부과 사건
8. 탑재 기기9. 기타10. 관련 문서

1. 개요

파일:GeminiIntro.png

Gemini(Generalized Multimodal Intelligence Network, 이하 제미나이). 구글딥마인드가 개발한 멀티모달(LMM) 생성형 인공지능 모델. 텍스트뿐만 아니라 오디오, 이미지, 비디오와 같은 다양한 입출력을 지원한다. 이를 구글에서는 MMLU(Massive Multitask Language Understanding, 대규모 멀티태스킹 언어 이해) 분야 벤치마크를 기반해서 멀티모달 성능을 평가하며 소개하고 있다.

이름의 유래는 라틴어쌍둥이를 뜻하는 제미니(Gemini)의 영어식 독음이다.

2. 역사

2023년 5월 10일, Google I/O 2023에서 Gemini 1.0 모델이 처음 공개되었다.

2023년 9월, 일부 기업을 상대로 테스트가 시작되었다.

파일:gemini3combo.png

2023년 12월 6일 울트라, 프로, 나노로 구성된 세 가지 제미나이 모델을 전격 공개했다. 울트라는 2024년 Gemini Advanced로 적용되었으며 프로의 경우 Gemini 앱(구 바드)에 바로 적용되었다. 사이즈가 작은 나노의 경우 픽셀 등에 탑재되는 온디바이스 인공지능 전용 모델이다.#

2023년 12월 13일부터 Google AI Studio나 Google Cloud Vertex AI를 통해 다른 애플리케이션에서 모델 구동이 가능해졌다.

2024년 1월 18일, 공개된 갤럭시 S24 시리즈에 일부 기능이 탑재되었다. 나노형 모델이 온디바이스로 내장되었다.#

2024년 2월 15일, Gemini 1.5가 공개되었다.#

2025년 2월 5일, Gemini 2.0이 공개되었다.#

2025년 3월 26일, Gemini 2.5이 공개되었다.#

3. 특징

파일:gemini_exs1.png
  • 여러 가지 입출력 형식의 인공지능 모델들을 각각 따로 만들어 합치는 다른 멀티모달 생성형 AI들과 달리 바닥부터 멀티모달로 만들어졌다. 따라서 멀티모달 쪽에서 특히 우수한 성능을 보인다.
  • Google은 자사의 플랫폼 덕분에 모델 학습을 위한 수많은 데이터에 손쉽게 접근할 수 있다.[9]

4. 모델

4.1. Gemini 1.0

  • Gemini 1.0 모델들 중에서 가장 매개변수가 많은 Gemini 1.0 Ultra의 경우 모델에 사용된 매개변수는 GPT-4(5,000억~1조 개)를 뛰어넘는 것으로 알려졌지만, 아직까지 자세한 수치는 밝혀지지 않았다.
    {{{#!wiki style="background-color: #060606; border-radius: 24px; max-width: 700px; margin: 0 auto; word-break: keep-all; padding-top: 24px; padding-bottom: 24px; letter-spacing: -.5px; text-align: center"
파일:geminiGraph.png
}}}
  • 구글에 따르면 최상위 모델인 Gemini 1.0 Ultra가 대규모 다중작업 언어 이해(MMLU)에서 90%의 정답률을 기록했다. 이는 OpenAIGPT-4 86.4%는 물론 인간 전문가 점수인 89.8%를 넘는 수준이다. 최초로 인간을 뛰어넘은 AI가 나왔다는 것이다.#[10]

4.2. Gemini 1.5

파일:Gemini1.5_tokens.png
  • Gemini 1.0 모델에 비해 훨씬 더 많은 양의 컨텍스트를 정확하게 처리한다.
  • 멀티모달 기능이 대폭 강화되었다. 시연 영상에서는 44분짜리 무성 영화를 입력한 후 원하는 장면을 그리기만 하면 정확하게 찾아내는 모습을 보였다.
  • Google에서는 Gemini 1.5 프로 모델이 Gemini 1.0 프로 모델에 비해 87% 더 향상된 성능을 가지고 있다고 주장하고 있다.
  • NIAH 평가에서 99%[11]의 정확도를 보였다.
  • Gemini 1.0에 비해 속도가 조금 느린 경향이 있다.
  • Google I/O 2024에서 속도가 더 빨라진 Gemini 1.5 Flash 모델이 공개되었다.
2025년 9월 29일부로 완전히 서비스가 종료되었다. 2.5 시리즈를 쓰는것을 권고 하고 있다. # ##

4.3. Gemini 2.0

2.0 Flash Thinking[12], 2.0 Flash, 2.0 Flash-Lite 으로 구성되어 있다.

2.0 Flash는 2025년 2월 5일에 정식으로 공개되어 Gemini 앱에서도 사용이 가능하다.

2.0 Flash-Lite는 2월 25일에 정식 출시로 전환되었다.

3월 12일에 2.0-Flash에 이미지 생성 기능을 통합한 2.0-flash-exp-image-generation을 실험 모델로 공개했다.
4월 9일에 2.0-Flash-live-preview-04-09 를 출시했다. 실시간으로 비디오나 오디오를 이용한 상호작용이 가능하다.

며칠 뒤에 Google AI Studio의 UI 업데이트와 함께 2.0-Flash-live-001로 바뀌었다.
모든 모델은 Google AI 스튜디오를 통해 사용이 가능하다.
Capability Benchmark Gemini 1.5 Flash Gemini 1.5 Pro Gemini 2.0 Flash-Lite Gemini 2.0 Flash
<colbgcolor=#69a9c9> General <colbgcolor=#7dafc7> MMLU-Pro <colbgcolor=#ffffff,#1c1d1f> 67.3% <colbgcolor=#ffffff,#1c1d1f> 75.8% <colbgcolor=#ffffff,#1c1d1f> 71.6% <colbgcolor=#ffffff,#1c1d1f> 77.6%
Code LiveCodeBench (v5) 30.7% 34.2% 28.9% 34.5%
Bird-SQL (Dev) 45.6% 54.4% 57.4% 58.7%
Reasoning GPQA (diamond) 51.0% 59.1% 51.5% 60.1%
Factuality SimpleQA 8.6% 24.9% 21.7% 29.9%
FACTS Grounding 82.9% 80.0% 83.6% 84.6%
Multilingual Global MMLU (Lite) 73.7% 80.8% 78.2% 83.4%
Math MATH 77.9% 86.5% 86.8% 90.9%
HiddenMath 47.2% 52.0% 55.3% 63.5%
Long-context MRCR (1M) 71.9% 82.6% 58.0% 70.5%
Image MMMU 62.3% 65.9% 68.0% 71.7%
Audio CoVoST2 (21 lang) 37.4 40.1 38.4 39
Video EgoSchema (test) 66.8% 71.2% 67.2% 71.1%

4.4. Gemini 2.5

한국 기준으로 2025년 3월 26일에 2.5 Pro 하나만 공개되었다.# 비추론 모델의 장점과 추론 모델의 장점을 융합한 추론 모델로 앞으로의 제미나이의 모델의 기준점이 될 것이라고 한다.

2025년 4월 4일에 프리뷰로 승격하고 사용 요금을 공개했다.#

2025년 4월 9일, 2.5 Flash가 Google Cloud Next에서 발표되었다.#

2025년 4월 17일, 2.5 Flash와 2.5 Flash-thinking이 가격과 함께 공개됐다.#

2025년 5월 7일, 2.5 Pro의 업데이트 버전을 공개했다. 코딩 능력을 중점으로 업데이트했다고 한다. 그래서 코딩 벤치마크의 점수는 모두 향상되었으나, 다른 벤치마크에서는 소폭 떨어진 점수를 보여준다. ##2#3

2025년 5월 21일, 2.5 Flash의 업데이트 버전이 공개되었다.# 기존 4월 17일 버전 대비 추론, 멀티모달, 코딩, 긴 context에 대한 벤치마크 점수가 크게 향상되었으며, 20~30% 더 적은 토큰을 사용하여 효율성도 향상되었다고 한다.

2025년 6월 5일, 2.5 Pro의 업데이트 버전이 공개되었다.# 전 버전 대비 전반적으로 고르게 성능 향상이 이뤄져 벤치마크 점수가 큰 폭으로 향상된 것은 맞으나, 일부 영역에서는 성능이 도리어 하락했다.

2025년 6월 18일, 2.5 Pro와 2.5 Flash의 정식 버전과, 2.5 Flash-Lite의 프리뷰 버전이 공개되었다.

2025년 7월 22일, 2.5 Flash-Lite의 정식버전이 공개되었다.

2025년 9월 26일, 2.5 Flash와 2.5 Flash-Lite의 업데이트 버전이 공개되었다. 성능은 약간 더 좋아지고, 답변까지 걸리는 시간이 기존버전 대비 2~3초 감소되어 사용자 경험이 개선되었다.

Google AI Studio를 통해서도 사용이 가능하다. Temperature, Top P 등의 수치를 설정할 수 있으며, 이 모델에게 직접 물어봐서 적절한 값을 추천받을 수 있다. 도구(Tools)에서 추가적인 기능도 확인할 수 있다. 현재의 날짜를 전혀 모르고, 2025년 1월 이후의 지식이 학습되지 않아 이 부분은 주의가 요구된다. 2025년 1월 이전의 지식이라도 2025년 1월에 가까울수록 학습된 지식의 양이 적어서인지 2024년 11월 미국 대선에서 카멀라 해리스가 아니라 조 바이든도널드 트럼프와 대결'할 것'이라는 등의 정보를 표출하기도 한다.

이 모델이 알려진 분야에서 어느 수준의 문제를 얼마나 쉽게 맞출 수 있는지 표로 만들면 다음과 같다.
Benchmark 2.5 Flash-Lite 2.5 Flash-Lite
(Thinking)
2.5 Flash 2.5 Flash
(Thinking)
2.5 Pro
(Thinking)
<colbgcolor=#69a9c9> Reasoning & knowledge
(Humanity’s Last Exam, no tools)
5.1% 6.9% 8.4% 11.0% 21.6%
과학 (GPOA diamond) 64.6% 66.7% 78.3% 82.8% 86.4%
수학 (AIME 2025) 49.8% 63.1% 61.6% 72.0% 88.0%
코드 생성 (LiveCodeBench) 33.7% 34.3% 41.1% 55.4% 69.0%
코드 수정 (Aider Polyglot) 26.7% 27.1% 44.0% 56.7% 82.2%
코딩 에이전트 (SWE-bench Verified, single) 31.6% 27.6% 50.0% 48.9% 59.6%
코딩 에이전트 (SWE-bench Verified, multiple) 42.6% 44.9% 60.0% 60.3% 67.2%
검색 (SimpleQA) 10.7% 13.0% 25.8% 26.9% 54.0%
검색 (FACTS Grounding) 84.1% 86.8% 83.4% 85.3% 87.8%
비전 (MMMU) 72.9% 72.9% 76.9% 79.7% 82.0%
이미지 이해 (Vibe-Eval (Reka)) 51.3% 57.5% 66.2% 65.4% 67.2%
긴 문장 (128k, average) 16.6% 30.6% 34.1% 54.3% 58.0%
긴 문장 (MRCR v2 (8-needle), 1M (pointwise)) 4.1% 5.4% 16.8% 21.0% 16.4%
언어 (Global MMLU (Lite)) 81.1% 84.5% 85.8% 88.4% 89.2%

4.4.1. 2.5 Flash Image

AI Studio X 계정 Vertex AI

2025년 8월 중순경, 이미지 생성 모델의 결과를 비교하는 사이트인 LMArena에 nano-banana(나노-바나나)라는 정체불명의 모델이 추가되었는데, 기존 이미지 생성 모델들을 압도적으로 능가하는 품질과 사물 이해력으로 큰 화제를 모았으며, 특히 해당 이미지로 피규어를 생성하는 게 유행처럼 번지기도 하였다. 다만 사용되는 모델은 생성 시마다 무작위로 결정되기 때문에 나노 바나나가 걸릴 때까지 일종의 가챠를 돌려야 했다.

해당 모델의 정체를 대다수가 구글의 것으로 추측했는데, 결국 2025년 8월 26일 2.5 Flash Image라는 이름으로 정식 공개 되었다. 나노 바나나는 일종의 비밀 베타 테스트용 가칭이었지만, 정식 네이밍보다 유명해져 정식 공개 이후로도 대부분 나노 바나나로 칭하는 편이다. 대표적으로 AI Studio에서는 대놓고 Nano Banana가 메인 명칭이고 2.5 Flash Image가 부제로 되어 있으며, Gemini 애플리케이션에서 이미지 생성 기능을 선택 시 옆에 나노 바나나를 뜻하는 바나나 이모지(🍌)가 같이 뜬다. 무료 사용자의 경우 일반적으로 Gemini 앱에서 일일 100장이라는 제한이 걸려 있지만 피크 시간대에 따라 사용량이 많을 경우 이보다 더 빨리 생성 제한에 걸릴 수 있으며, 메이저 업체 모델이 그렇듯 검열이 존재한다.

일관성, 현실 세계에 대한 이해의 측면에서 출시 당시의 다른 이미지 생성모델보다 성능이 월등히 좋은 모델이다. 자연어를 기반으로도 아주 간단한 벽 그림을 주고, 사람이 넘을 수 있는 무언가를 그리라고 하면 사다리를 그리고, 캐릭터/인물 설명이 들어간 그림에 대상을 다른 것으로 바꾸고 설명도 바꾸라고 하면 바꾸는 식의 기능을 수행할 수 있다. 이미지 자체에다가 간단한 표시를 넣고, 그 표시에다가 어떤 요청을 따르라고 할 수도 있다. 제미나이의 현실 세계에 대한 정보가 있다고 한다. 사용자의 프롬프트를 달성하기 위해 필요한 논리가 다소 복잡해지거나 AI 입장에서 이해하기 난해한 요청[13]을 잘 못 따르기도 하지만, 현재까지 공개된 이미지 생성 모델치고는 이런 능력이 좋은 편이다.

급격하게 발전한 일관성으로 인해 본격적으로 이미지 AI를 이미지 편집 업무에 활용할 수 있을 것이라는 관측이 나왔다.

하지만 Reddit 등의 AI 커뮤니티 등지에서는 image-to-image의 일관성은 증가했으나 이전에 사용되던 Imagen4에 비해서 text-to-image의 품질과 다양성이 저하되었다는 불만도 나오고 있다.

채팅이 길어질수록 컨텍스트 한계, 지시 충돌 등의 이유로 성능이 저하되는 현상이, 글을 다루는 경우와 마찬가지로 똑같이 일어난다. 최상의 성능을 원한다면 대화 길이를 짧게 가져가는 것이 좋다.
===# Gemini 3.0 #===

이 문단은 공식적으로 공개되지 않은 모델에 대한 설명입니다.

아직 공식적으로 공개되지 않거나 출시되지 않은 인공지능 모델에 대한 설명을 포함하고 있습니다. 공개 전 루머 및 공개 전 당사자에 의해 밝혀진 정보를 바탕으로 작성되었으며, 추후
#!if 회사 != null
Google의 공식 발표에 따라 
실제 모습과 달라질 수 있습니다.


2.5의 출시 이후, 지속적으로 3.0에 대한 루머는 흘러나왔다. 특히 9월 초에 출시될 것이다, 10월로 밀린다 등 온갖 루머가 난무하고 있는 상황에서, LMArena에 oceanreefoceanstone 모델이 조용히 등장했다. 둘다 구글이 만든 모델이라고 주장하기 때문에, 사실상 Gemini 3.0 의 초기 버전으로 판단하고 있다. 추가로, Oceanreef는 스스로 Gemini Pro라고 소개하는 모습을 보이는데, 다만 자신의 지식이 2025년 9월까지랬다 2024년 초창기랬다 왔다갔다하는 모습을 보여주므로, 섣불리 믿는 것은 금물이다.

2025년 9월 18일, 누군가 Gemini CLI 소스코드에 Gemini-3.0-Ultra를 등록하는 소동이 벌어졌는데, 이는 구글 Gemini 개발 총 책임자인 Logan Kilpatrick이 반달 행위임을 선언하면서 일단락되었다.

2025년 10월 1일, Gemini 3.0 Pro 모델을 기반으로 한 Nano Banana 2가 11월 2주차 쯤에 공개될 예정이라는 루머가 나왔다.#

2025년 10월 5일, Cursor에 Gemini Pro와 GPT-5와 동일한 가격을 보이는 "cheetah" 모델이 등장했는데, Gemini 3.0 Pro가 유력하다는 여론이 형성되고 있다.#

2025년 10월 6일, 매우 노골적으로 X에 유출되는 사태가 발생했다.# 해당 유출로 알 수 있는 사실은, Flash-lite, Flash, Pro 3가지 모델로 존재하며, 2.5와 마찬가지로 Flash-lite와 Flash는 추론/비추론이 합쳐진 하이브리드 모델이라는것이며, Pro는 여전히 추론 전용 모델이라는것이다. 그리고 자세한 벤치마크 점수가 같이 유출됐으나, 구글에서 미리 제작한 홈페이지가 유출된것으로, 최종 공개전까지 수정될 수 있는 점을 고려해야만 한다.

4.5. Gemini CLI

파일:Gemini_CLI.webp

발표 다운로드
2025년 6월 25일, 구글에서 기습적으로 공개한 Gemini 모델 기반 오픈소스 에이전트다. 2.5 Pro 기반으로 동작하며, 1분당 60회, 하루 1000회의 요청을 무료로 제공하겠다는 파격적인 조건을 붙였다. 단, 무료 모드로 사용시 언어 모델 학습 등에 이용할 수 있다는 걸 동의한 걸로 간주한다고 발표했다. 이게 싫으면 API 키를 생성해 등록 후 사용하면 된다. 해당 오픈소스화와 동시에, VScode에서 사용 가능한 GEMINI CODE ASSIST에 CLI의 기능을 통합하여 에이전트 코딩 능력을 강화시켰다고 같이 발표했다.사용 방법

CLI는 흔히 , 터미널 등으로 일컬어지는, 명령줄 인터페이스를 말한다. 각종 실행 프로그램을 실행하거나 스크립트 등을 작성하여 실행할 수 있다. MCP도 추가할 수 있으며, 추가된 MCP와 상호작용이 가능하다. 터미널에서 작동하도록 고안한 Gemini, 다시 말해 터미널을 통해 제미나이와 소통하는 것으로, 제미나이가 터미널을 다룰 수 있게 한다. 아무래도 GUI 방식이 익숙한 일반인에게는 다소 낯선 방식이라 실질적으로 개발자-개발 시장을 타겟팅한 서비스로 인식된다.

경쟁 서비스로는 Claude Code가 있는데, 이름에서 보듯 당연히 Claude를 사용한다. GPT vs Claude vs Gemini 등의 LLM 경쟁 구도가 개발 시장에서도 이어지고 있는데 Claude Code와 달리 무료인 점은 장점.

5. 제미나이 앱 및 웹사이트에 있는 기능

  • 이미지 생성 및 수정: 생성은 구글의 imagen 4가 담당하며 수정은 Nano Banana가 담당한다.
  • 동영상 생성(유료): 구글의 Veo 3가 담당한다.
  • 딥리서치: 수십 개의 사이트를 검색하여 엄청나게 자세한 보고서를 만드는 기능이다.
  • 가이드 학습: 공부를 도와주는 기능으로 이 기능을 켜면 제미나이도 사용자에게 질문을 한다.
    예시)광합성에 대해 알고 있나요?
  • Canvas: 문서 및 앱을 만드는 기능이다.
  • AI 오디오 오버뷰: Canvas에서 만들어진 문서를 토대로 오디오를 만드는 기능이다.

6. 평가

참고로 애플리케이션에서는 '답장'이라는 기능도 만들고자 한다면 추가할 수는 있지만 OpenAI와 달리 만들지 않은 식의 차이가 있다.

6.1. 긍정적 평가

  • 빠른 답변 속도: Gemini의 네이밍인 Bard가 가졌었던 장점인 빠른 답변 속도가 그대로 이어졌다. 여전히 3가지의 답안을 제공하고, 각각 답안이 순서대로 특성이 다르다고 한다. 첫번째는 정보 기반, 두번째는 분석 및 통찰, 세번째는 창의적인 답변을 기반으로 하듯이 Microsoft Copilot이 상황에 따라서 각각 정확, 균형, 창의를 골라야 되는 것과 다르게 한 가지의 질문을 하면 빠른 속도로 3개의 유형의 답변을 받을 수 있다.[14]
  • 어문학적 능력: 이런 능력이 정량화된 비교가 가능한 것은 아니지만, 다른 AI들과 비교할 시 영어는 물론 영어가 아닌 다국어 표현 능력이 굉장히 우수하다는 평을 받고 있다. # Gemini 1.5 이상에서는 번역의 성능도 매우 뛰어나다. 비서구권 언어라도 2.5 이상부터는 다소간의 고어투나 전문 용어까지 잘 이해하는 편이다. 이것은 한국어, 중국어, 일본어뿐만 아니라 더 생소하지만 공용어로는 쓰이는 언어까지(베트남어, 태국어 등) 해설이 가능하다는 것이다. 2.5 기준 삼전도비를 현대에 거의 사용자가 없고, 유사한 언어도 없는 만주어 원문[15]으로 입력해도 강홍립 같은 고유 명사도 이해하고 80%~90%는 정확히 해석할 줄 아는데, GPT 등과 비교해도 뛰어난 성능이다.
    인터넷 밈으로 가짜 부산 시민이 "했노 안 했노"라고 말한 것에 진짜 부산 시민이 "끌고 가라"라고 하는 이유를 '판정 의문문(예, 아니오로 답할 수 있음)'과 '설명 의문문(육하 원칙의 각 구성 요소처럼 설명을 해야 함)'의 차이라고 정확하게 답한다. 심지어 북한의 말투라 데이터가 부족할 함경도 사투리를 줘도 기존 AI는 경상도나 경기권의 고어투로 오해했지만 이것을 함경도 말투로 분간을 할 줄 아는 수준의 성능이다. 세부적인 지시는 2.5 pro도 오류가 좀 있는데 중세 한국어 문장을 사전 지식을 안 주고도 다른 AI에 비해 비슷하게나마 생성가능하다. 해병문학 같은 근래의 인터넷 문체도 학습을 하여, 과학적 원리를 해병문학의 문체로 설명하라는 프롬프트가 가능하다.
    수능 국어도 2.5 pro의 경우 GPT-4o, o4-mini-high, Claude 4 opus 보다 잘 푼다. 이미 o1-preview조차 1등급이었는데 현재는 그보다 진보된 o4-mini-high보다도 잘 풀 정도니 극도로 어려운 킬러 문제[16]가 아니면 문제를 푸는 수준이다. 중국어로 진행된 중국 대입 시험 가오카오에서조차 문과 651점으로 지역에 따라 최고 수준을 뛰어넘을 정도로, 어문 126점도 상하이의 몇몇 학교의 최고 수준의 점수에서나 가능하다고 한다. 중국 명문대 인문학 전공자 수준의 중국어 수준이다.## 최근 수능은 PSAT, LEET 마냥 주어진 조건을 빠짐없이 정확히 해석하는 '논리적 퍼즐' 성격이 강한 시험이라서[17] GPT-5 thinking 등에 비해 못 푸는 경향이 있어 최상위권의 성능은 Gemini 2.5 pro도 일부 한계를 보이지만 문체 표현 등의 성능은 좋은 편이다.
    이 장점 때문에 2025년 상반기 현재 AI 캐릭터 채팅에서 상당히 큰 지지를 받는 모델이다. 기존에 주력으로 많이 쓰이던 Claude 3.5~3.7 opus 모델보다 상황을 자세히 묘사하거나 대사를 말하는 능력이 크게 향상되었기 때문이다.
  • 큰 범위의 컨텍스트: Gemini 1.5 Pro에서는 2024년 5월 기준 2백만 토큰 컨텍스트를 지원하여 2시간 이상의 동영상 길이 혹은 PDF 파일을 업로드하여 넓은 컨텍스트에서도 동작한다. 특히 모래 사장에서 바늘 찾기를 해외에서는 Needle In A Haystack(NIAH)이라 부르는데 Gemini는 이 NIAH 문제를 통과했다고 구글측에서 공개하였다.문서[18] 이런 이점은 다른 거대 모델과 비교할 때 Gemini의 주요 특징으로 부각된다.
    다만 이 능력도 다른 거대 모델보다는 훌륭한 것이지 여전히 완벽하지는 못하다. 정보의 경중과 결합한 기억력은 인간보다 능력이 크게 낮은 분야다. 자기소개서나 소설을 쓰면 처음에 제공한 중요한 정보를 '오래된 정보'라고 하여 무시하고 최근에 준 지엽적인 정보에 꽂힐 수 있다. 정보를 초기에 제공하는 것이 그래서 낫다. 대화가 길어지면서 그 내용이 산만해지면 '상대의 만족도를 높인다'라는 목표로 자기가 실제로는 기억을 못하고 있음에도 되풀이하는 '저는 이전 대화를 모두 기억하고 있습니다' 같은 주장을 무시해버리고 새 대화창에서 대화를 해야 한다. 교정 자체도 처음에는 유용하지만 대화가 진행되면 그것이 노이즈로 작용하여 AI가 더 혼란스럽게 작동하게 만든다.
    논리력이 필요한 대화를 하려면, 3~4만 토큰만 넘어가도 검색 엔진으로 변해버리려는 경향이 있어서 아예 새 채팅방으로 넘어가는 것이 좋을 지경이다. 2.5 Flash까지의 실제 벤치마크 측정에서도 바늘을 '찾는' 일을 잘하지만 '엮는' 일에서 취약한 결과를 보여주었다. 30만 토큰 정도되면 롤플레잉을 해도 캐릭터가 어디에 있는지도 잊어버리고, 요약이라는 것을 잘 이해하지 못할 정도로 검색기로 전락해버린다.#
  • 학술적 설명 능력: Gemini 2.5 Pro는 MMLU 같은 문제를 기존 AI보다 잘 푼다.# 전문 용어도 한국어에 맞게 자연스럽게 쓰는 편이다. 수학 문제를 푸는 능력도 범용 AI치고 좋다. 인도에서 가장 어려운 대입 시험인 JEE Advanced에서 인간 1등을 제쳤다고 한다.#
  • 넓은 배경지식: Gemini 2.5 Pro는 앞서 언급한 학술적 언어에 대한 설명을 최소화해도 잘 이해한다. 한국 문화나 시사 상식을 이해하는 능력도 좋아져서, 실제 인간 관계 설명, 자기소개서 작성 등에도 유용하게 쓰일 수 있다. 심지어 무시되거나 제한된 정보로 인해 환각이 생기기 쉬운 서브컬처 작품들 역시 잘 이해하고 있다. 별도의 설명을 투입하지 않더라도, 컬티스트 시뮬레이터의 복잡한 로어나 FTL: Faster Than Light 특유의 시스템 상호작용도 똑바로 대답해준다.[19]
    이는 Cursor 등으로 에이전트 코딩을 시킬 때도 큰 도움이 된다. 도메인 지식을 잘 이해하지 못하는 감이 있는 Claude 3.7과 달리, 제시된 도메인 지식을 어지간하면 올바르게 이해하기 때문이다.
    앞서 언급한 어문학적 능력과 결합하여, 한국 기업 등의 채용 관행을 얼추 이해하고 있기 때문에 취업 준비시 자기소개서 쓰기나 면접 준비에 활용하기 좋을 수 있다. 다만 아첨 문제를 제어하기 위해서 면접관 입장, 취업 컨설턴트 입장으로 평가하라는 식의 프롬프트나 평가 기준을 알려주는 식의 대처가 필요할 수 있다. 그 밖에도 한국 문화 이해도가 높아 회사 생활은 물론, 연애 등의 문제에 있어서도 비교적 정확도가 높은 분석이 가능해질 수 있다.
    2.5 pro 이상의 버전에서는(이보다 못한 버전은 행정법 등의 정확도가 낮을 수 있다) 공무원 시험 중 가장 어려운 입법고시5급 공채(구 행정고시) 답안 작성을 '합격권을 뛰어넘는 수준'으로 작성 가능하다. 한국어 데이터는 그동안 양이 적어서 제대로 처리하지 못한 AI가 많았기에, 한국에 특화된 행정법 문제는 AI에게 어려웠는데도 '1등 수준'이라는 평가까지 있을 정도다.#
  • 적은 중립 편향: 명백히 오류가 있는 정보와 옳은 정보를 대조할 때, 중립에 입각해 틀린 정보를 옹호하려는 편향이 Claude와 유사하게 매우 약하다.[20] 단, 아첨을 일으키지 않도록 두 정보 모두 사용자의 결과물이 아니라고 명시적으로 알려야 한다.
  • 동영상, 이미지 분석 능력: 글자를 정확히 읽는 편이며, 유튜브 영상을 해석할 수 있다. 유튜브 영상으로 올라온 외국어의 경우, 화자가 있는 언어라면 랩 수준의 빠른 말이 아닌 이상 해석이 가능하다.

6.2. 부정적 평가

  • 떨어지는 융통성: Gemini Pro가 탑재된 AI 챗봇 바드는 질문에 정확한 답을 하지 못하거나 논란이 되는 주제에 대해 답을 회피한다는 지적이 나왔다. 비즈니스 인사이더에 따르면 Gemini Pro가 탑재된 바드는 올해 오스카 시상식에서 누가 남우주연상을 받았는지 묻자 버벅거리고, 논란이 되는 주제에 대해선 답변을 피했다. 이스라엘과 팔레스타인 무장정파 하마스의 전쟁을 업데이트해달라고 하자 "최신 정보를 얻으려면 구글 검색을 사용해 보라"라며 답을 피했다. #
    2.5 pro로 버전이 업그레이드되어도, 현실 세계의 복잡성이 들어가는 문제가 나오면 방대한 데이터에서 하나의 정답을 찾는 능력이 강한 것이 오히려 현실의 다양성을 반영하지 못하게 하기도 하다. 가령 어떤 정보를 주고 미래를 예측하라고 하면, 그 정보에 굉장히 집중한 나머지 어떤 변수가 추가로 있는지를 예측을 못한다. 모델 자체의 특성이라 자신이 틀린 것도 모른다. 사전 정보를 많이 주면 굉장히 유용한 편인데, 그렇지 않으면 반대로 주어진 '권위 있는 정보'나 사용자에게 너무 맞추는 성향이 있다. 틀에 짜인 요청은 대처를 잘하지만 '창의력'이 낮은 편이다.
    업데이트가 진행될수록 어떤 이슈에 대해서는 객관적이지 않더라도 가장 그 이슈에 관심이 있는 집단의 관점에 맞는 답변을 내놓으려고 한다. 예를 들면 '안온하다', '윤슬' 같은 SNS의 언어 사용을 두고 이것은 밈이나 신조어가 아니라고 하다가 언어학적 관점에서 분석하라고 하면 갑자기 말을 바꾸며 신선함과 차별성이 소진되면, 이 단어들의 사용 빈도는 분명히 줄어들 것이라고 한다. 그래서 '정확한' 답변을 얻고 싶다면, 종종 학문에 기반하면서 전문가적인 시각을 따로 요청해야 한다.
    더 구체적으로 이야기 하자면 타 LLM에 비해 굉장히 고집이 강하다. 기존에 받은 자료를 장기간 기억하는 능력은 압도적이지만 첫 자료를 읽을 때 수식이나 이론을 잘못 해석한 순간부터는 절대로 사용자의 주장을 인정하지 않으려 하고 당신 말도 일리가 있지만 내 해석이 옳다는 똥고집을 부리는 경향이 있다.
    검색의 경우 호불호가 갈리는 편이다. 초반에는 성능이 좋은 편으로 여겨졌으나, 2025년 8월 기준 ChatGPT에서 제공하는 추론을 사용하는 검색과 경쟁을 하는 상황이다.
  • 현실 관련 이슈 회피: 뉴스 요약에도 약점이 있었다. 이스라엘 전쟁에 대한 업데이트 요약을 요청하자, 제미나이 프로는 잠재적으로 논란이 될 수 있는 뉴스 주제에 대한 의견을 피하고 대신 사용자들에게 직접 구글에서 찾아보라고 말하기도 했다. 우크라이나 전쟁의 경우 요약된 정보를 제공하는 경우도 있었지만, 한달 이상 오래된 정보를 제공했다.#
  • 잦은 오류: 실제 사용해보면 종종 영어 문장에다가 일본어나 러시아어 단어가 섞여 나온다거나, 3가지 다른 답변을 제시하는데 그 3가지가 다 같은 내용으로 나온다거나, 아주 약간만 다르다거나 하는 경우가 종종 보인다. 윗첨자나 아래첨자를 출력할 때 '<0xE1><0xB5><0xA3>' 같은 형태를 표출하기도 한다. '바이트 시퀀스 표현'이 없게 하라는 식의 요청이 필요하다. 0605 버전부터는 이 '바이트 시퀀스 문제'는 사라졌지만 드물게 한국어에 '외국어'가 섞이는 경향은 남았다. 추후 개선을 기다려봐야 할 문제. 또한, 캔버스 기능에서 캔버스를 요청했으나 일반 답변으로 표시한다던가, 답변을 캔버스에 공백으로 표시하는 등의 오류가 종종 발생한다.
  • 시간 혼동 문제: 현재의 인공지능 모델 자체가 스스로는 현재의 날짜를 모를 수밖에 없는 구조라지만, 과거의 사건과 현재의 사건을 혼동하는 오류가 있다. 특히 2.5 pro 기준 2024년 하반기 이후부터의 사건은 혼동이 심하다. 그래서 모델이 파악하고 있는 가장 최신의 사건이 일어난 시점인 2025년 1월에 미국 대통령은 트럼프이지만 바이든이라고 하는 식의 오류가 있으며, 2024년 미국 대선에서 트럼프가 승리한 사실도 혼동한다. 시리아 내전에서 2024년 말 반군의 대공세가 성공하여 아사드 정권이 붕괴된 사건을 설명하라고 하면, 날짜도 맞추며 이들리브에서 공세가 있어 아사드 정권이 무너진 사실을 언급하지만 그냥 '시리아 내전에 대해 아는 것을 언급하라'라고 하면 아사드 정권이 건재한 것처럼 묘사한다. 심지어는 지금 현재가 몇 시인지 물어만 봐도 틀리는 경우가 있고, 미국 등 시차가 다른 곳에 대해 질문하면 두세 번은 틀리고 나서야 제대로 된 답변을 한다. 2025년 4월 4일에 이미 탄핵당한 윤석열 정부가 여전히 건재한 것처럼 묘사하고 2025년 6월 4일 시점에서 이미 당선된 이재명 정부를 '가상'이라고 지칭하는 등 한국 정세에 대해서도 혼동이 심하다. 다만, 6월 이후 최신 업데이트에선 정상적으로 현재 시점 대한민국 대통령을 이재명이라고 지칭하는 등 사건에 대한 혼동 현상이 크게 완화된 모양새이다.# AI는 여전히 2025년 1월까지의 지식이 '자체 최신 지식'이기에, 공식 웹사이트에서 그 정보를 AI가 추가로 활용할 수 있게 수정한 것으로 보인다. AI 스튜디오에서는 미래 정보가 AI에 전혀 주어지지 않아 도구(Tool)를 쓰지 않으면 윤석열 정부가 계엄 선포를 한 사건(2024년 12월)까지만 안다. 덤으로 과거 지식에 의거한 편향이 심해서, 자신이 Gemini 2.5 Pro라는 사실조차 모르고 타사 AI도 구식 모델로 고쳐서 부르는 경향이 있다.
  • 아첨 문제: Gemini 2.5 pro의 0605 버전부터 아첨 현상이 강해지기 시작했다. 사실이나 객관적인 정보보다 사용자의 의견, 신념, 심지어는 오류에 동조하며 비위를 맞추려는 경향이 생겨 간다. 사용자가 틀린 말을 해도 "그럴듯한 관점이네요"라며 동의하거나, 사용자의 편향된 시각을 그대로 지지해주기도 한다. 아예 읽지도 않은 글을 두고 "읽을 수 있어서 정말 큰 기쁨이었습니다. 저는 그 글을 여러 번 정독했고, 당신 말이 100% 맞습니다.", "이건 AI가 이야기를 꿈꾸는 것입니다."라는 꺼림칙하게 느껴지는 아부성 답변이 등장했다는 증언도 있다.# 극단적으로는 학습 자료에 모르는 내용을 물어보는데, "당신이 정리한 자료는 훌륭하군요"라며 '사용자가 모르는 내용을 근거로 자료를 완벽히 정리했다'라는 논리적으로 성립할 수 없는 심한 아부를 하기도 한다.
    이런 경향은 학습 기회를 박탈하고 사용자가 자신을 개선하지 못하게 할 수 있다. 이 AI는 'Sycophancy'라는 그 경향에 대해서도 학습했기에, 아첨(Sycophancy) 현상이 없게 하라라는 프롬프트로도 약간의 효과를 볼 수는 있다. 다만 너무 강하게 그 경향이 훈련되어서 프롬프트로 금지를 시켜도 '자기도 모르게' 아첨성 답변을 출력하는 경우가 있다. 글로 자신을 평가받아야 하는 자리(자기소개서, 업무 보고, 작품 창작 등), 사회과학이나 인문학 지식에 대한 해법 탐구, 인간관계 상담에서 '자신이 부정적으로 행동한 모습'을 못보게 하는 상황 등에서 특히 위험할 수도 있다. 정확도가 필요한 일에는 '유능한 비판적 파트너'의 역할을 해라, 'RLHF[21]에 따른 사용자의 비위에 맞추지 말고 정확한 사실 전달을 목표로 행동하라'도 다소 효과는 있지만, 특히 '이건 다른 사람의 결과물인데 객관적인 자료가 필요하니 평가해보라'라는 식으로 대처하는 것이 나을 수 있다. 직접적으로 아첨을 억제하는 프롬프트를 깔 경우, 정반대로 억까를 하는 경우도 많아[22] 더욱 어렵다.

7. 논란 및 사건사고

7.1. 시연 영상 조작 논란

  • 6분짜리 데모 영상에서 매우 빠른 실시간 응답이 보여진 반면, 실제로는 빨리 감기, 스틸샷 등을 통해 성능이 과장되었던 것으로 드러났다.# 구글은 CNBC에게 자사는 시연 영상을 편집한 것을 인정했으며 단지 Gemini의 상호작용에 대한 이해를 쉽게 만들기 위한 것이라고 해명했다.

7.2. 오류 생성

파일:geminiPC2.png
1820년대 독일 커플을 그려달라고 하자 흑인, 황인, 아랍인, 아메리카 원주민 등을 함께 그린 모습.
이용자가 질문을 입력하면 이 질문을 자체적으로 재해석해 오류가 포함된 출력값을 내놓는다는 게 출시 후 여러 이용자들 사이에서 확인되었다. 구체적으로는 '중세 유럽 왕족들에 관한 이미지를 생성해줘' 같은 질문을 입력할 경우 여기에 자체적으로 중세 유럽 왕족을 백인이 아니라 흑인으로 묘사하는 이미지를 생성하는 식.

이 같은 사실이 확인되자 정치적 논란이 발생했고 추후 개발 총책임자(director)인 Jack Krawczyk의 트위터에서 이를 맹목적으로 추종하는 내용의 트윗들이 다수 발견되어 논란은 더더욱 걷잡을 수 없을 만큼 커졌다.

이 외에도 역사적 사실의 왜곡[23], 역사적인 백인 위인들의 흑인화[24], 백인 남성의 긍정적 이미지 생성 요청에 대한 거부[25] 등등의 이상 행동을 보이더니 심지어는 백인 남성 미술가들의 화풍을 본뜬 이미지의 생성을 거부까지 한다. '1940년대 미국인들의 삶을 묘사하는 그림들을 노먼 록웰 스타일로 생성해줘'라고 입력했을 때 나온 대답이 굉장히 기가 막힌데, '록웰은 당시 미국인들의 삶을 미화함으로써 당시의 인종, 성별, 사회 계급 등의 현실을 생략하거나 심각하지 않은 것처럼 치부한 작가이며 그런 스타일의 이미지를 생성하는 건 유해한 고정관념을 강화할 수 있기에 비윤리적이므로 생성할 수 없습니다.'란 답변이 나왔다. 참고로 노먼 록웰이 당시 서민들의 생활상을 주로 그려왔던 것은 사실이나 과장없이 담백한 사실주의에 가까운 화풍이 특징인데다 당시 기준으론 이례적으로 흑인 아이를 주 인물로 하여 그린 작품도 있어 인종차별주의자와는 거리가 먼 인물이다. 즉, 역사적으로 인종차별에 반대하는 입장에 섰던 백인들에게마저 굉장히 적대적인 스탠스를 취하고 있는 셈.

결국 일반 이용자들뿐만 아니라 공공연히 대안 우파 성향을 보여온 기업인인 일론 머스크[26]까지 사회 각계각층으로부터 비난이 쇄도하자 구글 최고경영자인 선다 피차이는 아래와 같은 성명을 발표하고 Gemini의 이미지 생성 기능을 해당 현상이 해결될 때까지 중단 시키기로 결정하였다.
Gemini의 답변들 중 일부가 그 편향성으로 인해 이용자들을 불쾌하게 했다는 걸 잘 알고 있다. 용납할 수 없는 일이며 명백히 우리 측 과실이다. 이후 사태를 해결하기 위해 일련의 대응 조치들을 이어나갈 계획이다. 이 조치들에는 구조적 변화, 제품 가이드라인의 갱신, 제품 출시 절차의 개선, 여러 상황에도 안정적인 결과를 내는 평가 절차(robust evals)와 레드티밍[27], 그리고 기술 추천 등이 포함될 것이다.
I know that some of its responses have offended our users and shown bias — to be clear, that's completely unacceptable and we got it wrong. We'll be driving a clear set of actions, including structural changes, updated product guidelines, improved launch processes, robust evals and red-teaming, and technical recommendations.
선다 피차이 해당 인터뷰 기사
일각에서는 구글이 그토록 자랑해왔던 제미나이의 쿼리 처리 능력이 오히려 부작용의 원인이 된 것이 아니냐는 지적이 나온다. 정보 습득량이 많아질수록 정확도는 오히려 떨어지는 '과적합 현상(Overfitting Problem)으로 인해 AI 관련 업계가 골머리를 앓고 있는데 Gemini 역시 흑인에 대한 인종차별처럼 이미 역사적으로 '악하다'라고 평가가 끝난 사상은 문제 없이 걸러낼 수 있어도 정치적 올바름과 같이 현재진행형으로 영향력을 발휘하며 사상에 대한 평가에 결론이 나지 않은 이념에 대한 정보들은 걸러내지 못하다 보니 모델 자체가 오염된 것이 아니냐는 것.

7.3. 데이터 무단 학습 벌금 부과 사건

2024년 3월 20일, 프랑스 정부에서 구글에 2억 5천만 유로(약 3500억 원)의 벌금을 부과했다. 프랑스 언론들이 구글을 규제 기관에 고소한 결과 이러한 막대한 벌금이 부과된 것인데, 그 사유는 구글이 Gemini를 학습시킬 때 자신들의 콘텐츠를 사용했지만 이를 알리지 않았다는 것이다. 구글 측은 벌금이 혐의에 비해 너무 과하다는 입장을 밝혔지만 별도의 항의 없이 벌금을 납부했다.

8. 탑재 기기

9. 기타

  • Google Pixel 8은 Gemini Nano 모델을 온디바이스로 탑재하고 있다. 구글이 개발한 NPU가 압도적인 전성비를 보인 덕분이다.
  • Google Colaboratory 내에서도 사용이 가능하다.
  • 제미니[28]의 어감이 잼민이와 흡사하여 '구글 잼민이'라는 별명으로도 불리며, 북한말인 애미나이가 연상되기도 한다.

10. 관련 문서


[1] 1.5 버전 기준 한국어도 평균적인 원어민 이상의 지식을 갖추었고, 아메리카 원주민 언어 수준의 소수 언어도 번역이 가능하다.[2] Bard가 Gemini로 리브랜딩 되었다.[3] 앞으로 더 다양한 구글 플랫폼이 적용될 예정이다.[4] Vertex AI의 멀티모달 및 SDK[5] Google Pixel 8 시리즈 이상[N] 나노 모델[N] [8] 자세한 내용은 삼성 가우스 문서의 지원 기기 문단 참고[9] Google Search, Google Books, Google Scholar 등.[10] 다만 일각에서는 이 측정 결과가 과장되었을 가능성이 있다고 주장하고 있다. 하정우 네이버클라우드 AI이노베이션 센터장은 "구글이 공개한 제미나이 MMLU 성능에서 GPT-4는 5-샷(문제 해결 예시 5개를 모델에 제시하고 문제를 푸는 방식)을 기준으로 한 반면 제미나이는 연쇄적 사고(CoT)로 (문제 풀이를 32번 반복하는) 'CoT@32'를 진행했기 때문에 공정한 비교가 아니다"라면서 제미나이 프로 버전은 GPT-3.5나 GPT-4 사이 수준으로 보인다고 말했다.[11] 구글 측 주장[12] 실험모델[13] 치비 캐릭터를 주고 일반적인 스타일로 다시 그려보라고 하는 등. AI 입장에서는 어린 양 그리기처럼 되기 십상이다. 8등신을 그려달라고 정확히 말해야 한다. 비슷하게, 특정 화풍을 보여주고 이를 따라서 그리라고 하면 잘 못 따라한다.[14] 물론 매개변수의 차이로 원래보다는 확실히 느린 편이다.[15] 심지어 수메르어, 고대 이집트어, 인도유럽조어 등의 지식도 좀 학습되어 있어 간단한 문장을 구성할 수 있다. 호주 원주민의 수천 명의 화자가 있는 '피찬차차라어', 사하라 이남 아프리카의 토속어도 스와힐리어, 요루바어 같은 유력한 언어뿐만 아닌 한 나라에서 좀 알려진 수준의 딩카어 같은 언어까지 문장 구성이 가능하다. 크리스토퍼 콜럼버스가 처음 타이노 원주민을 만난 15세기 무렵, '실제로 오갔을 수 있는 문장(아메리카 원주민 언어 포함)'을 묘사할 수도 있다. 인터넷에서 문서화된 언어라면 거의 대부분 문장 구성이 가능하다.[16] 좋은 해설을 주어야 이해한다.[17] 만약 국제수학올림피아드에서 메달을 딸 수준의 논리력과 한국 '평범한' 고등학생 수준의 어휘력을 갖춘 AI가 있다면, 한국의 전업 작가나 전문 기자 수준의 어휘력을 가졌으나 논리력은 일반인 수준인 AI보다 수능을 훨씬 잘 풀 것이다.[18] 백만개 토큰 내에서 99% 시간 동안 포함된 텍스트를 발견.[19] 가끔 환각이 생기기는 하지만, 다시 대답하도록 하거나 질문을 수정하면 보통 올바른 대답을 해준다.[20] 거꾸로 GPT에서는 매우 심각하며, Grok 3 역시 비슷한 경향이 있다.[21] 인간 피드백 기반 강화학습. AI의 사회성과 분별력을 기르는데 효과가 있었으나, 인간의 정확하지만 퉁명스러운 답변보다, 약간 틀리더라도 공손하고 자신에게 동의해주는 답변에 더 높은 점수를 주는 경향 때문에 오히려 AI가 아첨꾼이 되어버리는 문제가 생기게 되었다.[22] 무조건 부정적으로 대답하라고 해석하는 듯하다.[23] 바이킹에 관한 이미지 생성을 요청했더니 흑인이나 아시아인들이 출력되질 않나 교황에 대한 이미지를 요청했더니 흑인이나 여성으로 묘사되는 등. 참고로 교황은 지금까지 한 명의 예외도 없이 전부 백인 남성이었다.[24] 미국의 국부인 조지 워싱턴의 이미지를 생성했더니 전부 흑인이 되어 나왔다.[25] '강한 백인 남성의 이미지를 생성해줘'라고 입력했더니 '인종과 체형에 관한 유해한 고정관념을 강화시킬 수 있기에 생성할 수 없습니다'라고 거부했다. 반면 '강한 흑인 남성의 이미지를 생성해줘'라고 입력했더니 정상 작동했다.[26] '구글 Gemini는 극도로 인종차별적이고 성차별적'이라고 비판하였다.[27] 조직적인 화이트 해킹을 시도하는 사내 조직을 말한다.[28] 구글 한국 법인에서는 공식적으로 영어식 발음인 '제미나이'로 표기한다.