최근 수정 시각 : 2025-12-19 23:42:52

ChatGPT

chatgpt에서 넘어옴

파일:OpenAI-black-wordmark-crop.svg파일:OpenAI-white-wordmark-crop.svg
{{{#!wiki style="margin:0 -10px -5px"
{{{#000,#fff {{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
{{{#000,#e5e5e5
<colkeepall> 제품군
서비스 ChatGPT(ChatGPT/기능 · 사용법) · OpenAI(인공지능) · Operator · Codex · Sora · Atlas
모델
GPT
GPT-1 · GPT-2 · GPT-3 · GPT-4 · gpt-oss · GPT-5 · GPT-6개발 중
o-시리즈
o1 · o3 · o4-mini
DALL·E · Codex · CLIP · Whisper · Voice Engine · Sora · gpt-image · SearchGPT · CUA
관련 인물
일론 머스크 · 샘 올트먼 · 미라 무라티 · 일리야 수츠케버 · 안드레 카파시 · 그렉 브록만 · 다리오 아모데이
}}}}}}}}}}}}}}} ||
{{{#!wiki style="margin: 0 -10px -5px; min-height: 26px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin: -6px -1.5px -13px"
파일:OpenAI-black-monoblossom.svg파일:OpenAI-white-monoblossom.svg
ChatGPT
파일:Gemini(앱) 아이콘 (2025).png
Gemini
파일:claude 심플 로고.svg
Claude
파일:Grok_로고.svg파일:Grok_로고_다크.svg
Grok
파일:Windows Copilot 로고.svg
Copilot
파일:perplexity 심플 로고.svg
Perplexity
파일:DeepSeek 아이콘.svg
DeepSeek
파일:Galaxy AI Logo.png
Galaxy AI
MAU 1천만 이상 · 대화형 인공지능 서비스 전체
}}}}}}}}} ||
ChatGPT
Generative Pre-trained Transformer
파일:OpenAI-black-monoblossom.svg파일:OpenAI-white-monoblossom.svg
<colbgcolor=#fff,#000><colcolor=#000,#fff> 개발 OpenAI
분류 LLMs 대화형 인공지능
출시일 2022년 11월 30일[1] ([age(2022-11-30)]주년)
서비스 부분적 유료
운영체제 iOS[2] | iPadOS[3] | macOS[4] | visionOS[5]
Android[6] | Microsoft Windows[7]
현행 모델
GPT
GPT-5.2 · GPT-5.1[8] · GPT-5[9] · GPT-4o[Plus] · GPT-4.1[Plus] · GPT-4.5[12]
o-시리즈
o3[Plus] · o4-mini[Plus]
GPT IMAGE-1.5[15] · Whisper
언어 영어[16]
월간 사용자 약 6억 명 이상[17]
주간 사용자 약 5억 명 (2025년 3월 기준 / 추정치)
한국 시장 점유율 72.6% (2025년 4월 기준) #
구독자 약 2,000만 명 (2025년 3월 기준/ 추정치)
링크 파일:홈페이지 아이콘.svg[18] | 파일:홈페이지 아이콘.svg 블로그 | 파일:App Store 아이콘.svg | 파일:Google Play 아이콘.svg | 파일:Microsoft Store 라이트 테마 아이콘.svg파일:Microsoft Store 다크 테마 아이콘.svg

1. 개요2. 등장 배경3. 의의
3.1. 인공지능 대중화3.2. 인공지능 시대 개막과 인공지능 개발 전쟁3.3. 프로그램 대체와 작업 효율 증대 가능성 최초 증명
4. 특징
4.1. 버전 별 모델 간 차이4.2. 프롬프트 입력 시 인터페이스
5. 요금제(플랜) 정보6. 기능
6.1. 초기 공식 가이드라인
6.1.1. 이용 정책(Usage policies)6.1.2. 특정 방식의 모델 사용에 대한 추가 요건
6.2. 사용법
7. 한계 및 문제점
7.1. 구조 및 기술적인 한계
7.1.1. 사고 능력 문제7.1.2. 인공지능 환각 현상7.1.3. 아첨(Sycophancy) 문제
7.1.3.1. 정신건강 문제
7.2. 외부 및 운영적인 한계
7.2.1. 비즈니스 모델7.2.2. 한국어 성능7.2.3. 악용 문제
8. 이슈9. 기타
9.1. 서버 다운 기록
10. 관련 문서11. 둘러보기

1. 개요

ChatGPT | 지능시대
OpenAI에서 개발한 GPT를 기반으로 하는 대화형 인공지능 서비스. 인공지능 역사 및 현대사에 유례없는 파급력을 가져왔으며, 등장 이후 인공지능 개발 트렌드의 방향을 새로 정의했다고 평가된다.

2. 등장 배경

2022년 11월 말, 대대적인 홍보 없이 조용하게 ChatGPT를 출시하면서 OpenAI는 큰 기대를 품지 않았다.

ChatGPT는 2020년에 출시한 대형 언어 모델(LLM, Large Language Model) GPT-3를 조금 다듬어서 내놓은 '맛보기' 버전에 가까웠고, 더 중요하게는 대중의 피드백을 수집해서 언어 모델의 결함을 일부 해결하려는 시도이기도 했다. ChatGPT 탄생 비화

3. 의의

3.1. 인공지능 대중화

'기계가 인간 고유의 능력을 침범할 수 있다'는 가능성, 언어를 통해 '사고'하는 인공지능이라는 새로운 패러다임을 대중적으로 제시했다는 점에서 '손 안에서 컴퓨터의 기능을 할 수 있는' 스마트폰의 출시, 인터넷을 '보여줄 수' 있는 넷스케이프의 등장에 따른 인터넷 상용화에 맞먹는 혁명적인 변화의 시발점이라고 할 수 있다.

기존까지 대화형 AI는 인간이 하는 말, 즉 자연어를 제대로 못 알아듣는 경우가 많았다. 인공지능이 인간 같은 대화를 나누기 위해서는 단순히 지식을 아는 것에서 그치는 것이 아니라 인간의 언어를 이해해야 한다. 이 부분에서 기존의 대화형 AI는 부족한 점이 많았기에 동문서답을 하거나 아예 답변을 못하는 경우가 많아 단답형 외에는 활용도가 극히 제한적이었다.

하지만 ChatGPT는 언어 부분에서 대량으로 학습시키는 한편 최상의 AI를 접목하였고, 말의 앞뒤 문맥을 파악하고 이전 대화를 기억하며, 인간이 일상에서 타인과 대화하듯이 격의없이 말해도 충분히 알아듣는 수준까지 도달했다. 더 나아가 단순히 알아듣는 정도를 넘어 웬만한 전문적인 지식도 일반인 수준 이상을 보여주는 경우가 많아 다재다능하다는 말이 과언이 아닐 정도이다. 이는 이전까지 본 적이 없는 수준의 발전으로 인간에게 놀라움을 선사했다.

이것이 어느 정도의 발전인가 하면, 2016년 일본에서는 도쿄대를 가는 로봇군이라는 '도로보군'이라고 하는 인공지능을 개발하여 일본판 수능이라고 할 수 있는 센터 시험에서 상위 20%의 성적을 거둔 적이 있었다. 2019년에는 센터 시험의 영어 성적에서 나름 우수한 일본 고등학생 수준의 영어 실력(200점 만점에 185점)을 보여주기도 했다. 그러나 도로보군의 개발 책임자 아라이 노리코 박사는 일본에서 가장 입학이 힘든, 도쿄대에 가는 인공지능을 만든다는 목표를 포기했는데, 딥러닝에 기반한 3세대 인공지능의 논리 구조 그 자체가 가지고 있는 한계 때문에 아무리 더 많은 시간을 투입한다 하더라도 그 한계를 넘을 수 없다는 것이 그의 생각이었다. 2020년의 글

그런데 이런 한계를 이것이 극복한 것이다. 특히 이 인공지능의 약점이었던 일본어를 ChatGPT가 유창하게 해석하게 되었고, 초기 ChatGPT의 약점인 수학도 이제 추론이라는 기술을 통해 벽을 넘게 되었다. 2024년 9월 공개된 o1 계열 모델은 입시가 굉장히 치열한 한국에서도 대비에 많은 노력이 필요한 수능의 수학 4점, 과탐 3점 문제도 종종 푸는 사례가 등장했다. o3-mini의 경우 수학에서 문제를 잘 입력해서[19] 풀게 하면 미적분이나 확률과 통계에서 만점이 가능하다. # 수능만을 놓고보았을 때, 긍정적으로 사용된다면 교육 정보가 부족한 열악한 환경의 학생도 맞춤형으로 지식과 문제 풀이 기술 습득이 가능해져서 지역에 따른 교육 격차나 사교육비 문제를 완화할 수 있다.

알파고정상급 바둑 기사를 이기며 인공지능의 놀라운 잠재력을 선보였다면, ChatGPT는 뛰어난 능력을 바탕으로 실생활에 영향을 주는 것이 가장 큰 의의라 할 수 있다. 벌써부터 업무에 활용하면서 생산성을 늘린 사람들이 적지 않다.

언어모델 기반 인공지능의 발전이 긍정적인 영향을 미치는 것과 동시에 일부 수행 능력에서는 인간의 수준을 상회하여, 향후 인공지능에 의해 직업을 잃게 될 미래가 더 가까워졌다는 평가도 있다.

GPT-4부터 의사, 변호사와 같은 전문직 시험 테스트에서 상위 10% 수준의 답변을 내놓으면서 인간의 능력을 점점 뛰어넘고 있다. 특히 상당수의 사무직은 이미 영향을 받고 있다. 변호사는 물론 일부 개발자, 회계사, 세무사, 번역가, 통역사, 기자, 교육가, 재무설계사 같은 직종들이 그렇다. 현재는 이들의 업무를 완전히 AI에게 맡기기는 어려우나, 보조 수단 정도로 활용하고 있는 사람들은 이미 상당히 많고 불과 4개월만에 출시된 GPT-4의 발전이 상당하다는 점에서 앞으로가 더욱 기대된다.

3.2. 인공지능 시대 개막과 인공지능 개발 전쟁

ChatGPT가 혜성처럼 등장하기 전까지 사람들은 AI에 대한 관심이 낮았다. 심지어 회의적이었다. 물론 AI가 있으면 미래에 어떤 일들이 펼쳐질지 강한 호기심과 흥미를 갖는 사람들도 상당했지만, 그들조차도 그건 그냥 먼 이야기로 치부하고 그저 영화나 만화 같은 장르에서 AI에 대한 상상을 만족하면서, 실질적인 개발과 상용화에 대해서는 회의적인 경우가 많았다는 것이다.

앞서 언급했듯 한 때 일본의 유명 인공지능 개발자조차 인공지능과 대화하는 것은 기술적으로 불가능하다고 판단하기도 했다. 이 당시만 해도 인공지능을 그저 약인공지능, 즉 게임에서나 쓰는 단순한 변수 알고리즘 정도로만 취급했기 때문이다. 2016년에 알파고가 바둑 기사와 대국하는 사건이 있었지만 그건 그냥 알파고가 병렬연산으로 다양한 변수를 골라내며 연산력이 매우 뛰어나다는 것을 증명한 것뿐이지, 그것이 인간의 언어와 이어지는 것은 절대 아니었다. 과거부터 체스 챔피언을 이긴 인공지능이 나왔지만 실제로 그것이 우리가 원하는 인공지능의 미래로 이어지지 않았던 것처럼, 알파고도 성능이 대단했지만 그것이 우리가 원하는 인공지능의 미래로 이어질 것이라고 보는 전문가는 없었다. 실제로도 당시 알파고의 놀라운 성능에 대해 미래학자나 IT 계열 전문가들은 알파고의 성능은 대단하지만 그뿐이지, 우리가 바라는 인공지능은 아니라는 의견을 종종 내뱉을 정도였다. 그 정도로 인공지능에 대한 인식과 전망은 어두웠다. 당시만 해도 챗봇 같은 인공지능은 당연히 대화를 제대로 할 수 없는 상태였기에 그저 대화용 장난감 취급을 받았다.[20]

그러다 2022년 11월 30일, ChatGPT가 공개됐다. ChatGPT는 튜링 테스트는 기본으로 뛰어 넘고 대화와 대화 사이를 이어서, 우리가 무슨 말을 하든지 간에 대화 시 연계성을 이어간다. 즉 우리의 질문에 대해 사람처럼 여러 가지 변수를 추측하고 지나간 대사와 지식을 참고해 제대로 된 문장을 구성하는 것이다. 이때부터 세상에 출시되는 새로운 대부분의 앱과 프로그램들은 AI라는 타이틀을 달고 나오기 시작했으며, GPT 말고도 그림을 그리는 등 다양한 AI 전용 서비스들이 줄지어 출시되기 시작했다.

데이터의 처리 효율성의 한계를 극복한다면, 극복할수록 사용자가 직접 검색할 대상의 정보를 입력해야 하는 현 검색 문법을 완전히 뒤바꾸어 장기적으로는 구글을 비롯한 모든 검색 엔진을 대체할 수 있는 기술로 발전할 수 있다. 이처럼 ChatGPT가 가진 잠재력은 무시하지 못할 수준이어서, 구글의 모회사 알파벳의 선다 피차이 CEO가 직접 언급하며 경계할 정도다. 구글은 대부분의 수익을 검색 결과에서 광고를 노출하여 수익을 얻는데, ChatGPT는 이를 아예 건너뛰고 답변을 내놓기에 '검색 엔진의 종말'이라는 말이 과언이 아닐 수 있다. 실제로 ChatGPT를 자신이 원하고 알고 싶지만, 기성 검색 엔진으로는 찾거나 알아내기가 불가능에 가까운 특정 지식만 조합하여 검색해서 원하는 답을 얻는 사람들이 상당히 많다. 이 때문에 구글도 대항마 개발에 가장 적극적이고, 전 세계 빅테크 기업들도 앞다투어 뛰어드는 기술이 됐다. 하지만 후술하듯이 New Bing에서 기존의 검색 엔진 기능을 그대로 둔 것으로 보아 검색 엔진의 완전한 종말은 아직은 이른 듯하다.[21]
  • 구글은 대화형 인공지능 서비스인 LaMDA를 계승한 Google Bard 및 수십 종의 인공지능 상품을 연내 출시할 계획이라고 하며#, 자회사인 딥마인드에서도 대화형 인공지능 서비스인 Sparrow를 준비 중이라고 한다. 그러다 2023년 2월 3일에는 OpenAI의 전 연구자가 설립한 안트로픽에 300만 달러를 투자했다. 안트로픽은 ChatGPT와 UI 및 성능이 유사한 Claude라는 대화형 인공지능이 클로즈베타 중에 있다.#
  • 앞서 구글메타에서 각각 비슷한 대화형 인공지능인 LaMDA와 블랜더봇3를 출시하기는 했지만, 테이(인공지능)의 사례 때문에 상당히 정제된 답변만 한다는 점과 미국에서만 이용 가능하다는 점 등의 폐쇄성으로 인해 큰 주목을 받지는 못했다. 결국 ChatGPT의 성공 때문인지 구글, 메타 및 애플 등의 빅테크에서는 자사의 인공지능 윤리 기준을 대폭 완화하여 새로운 모델을 출시하려는 움직임을 보이고 있다고 한다.#
  • 업스테이지에서 카카오톡과 라인으로 쓸수 있는 askup이라는 것을 만들었다. askup은 OCR 기술을 결합, 사용자가 문서의 사진을 찍거나 전송하면 그 내용을 읽고 이해하고 ChatGPT에서 검색할 수 있게 만들었다. 카톡과 라인으로 이용하는 만큼 한국어로 대화 가능하다.카카오톡, 라인

3.3. 프로그램 대체와 작업 효율 증대 가능성 최초 증명

이전에는 어떤 작업을 하던 간에 특정 프로그램을 사용하거나, 인간이 직접 수행해야 했다. 특히 '반복적인 작업'에서 이는 지속적인 피로를 유발한다.

대부분의 회사의 사무직에서는 엑셀이나 특정 문서 정리 같은 반복적인 작업이 필수적이고, 거의 예외는 없는데, 사실 엑셀 마스터 급 능력이나 우수한 코딩 능력이 없으면 결국 손으로 일일이 수작업으로 매일 반복적인 작업을 직접 수행해야 한다.

하지만 이제 그런 컴퓨터로 반복적인 작업이 필요한 대부분의 인간 업무를 대신할 수 있다. ChatGPT와 같은 자연어 인공지능은 이와 같은 작업들의 자료 수집, 정리, 오류 검토 등의 과정을 모두 자동화할 수 있다. 엑셀의 함수를 하나도 몰라도, 원하는 기능을 말해주면 엑셀의 수식을 짜주는 것은 물론, 그 수식을 어떻게 적용할지 상세하게 알려준다. 또한 그렇게 수학적, 문자 상으로 처리해야 하는 그런 업무는 굳이 엑셀이 아니더라도 인공지능에게 맡겨 대신 처리할 수 있다. 물론 인공지능으로 그런 업무를 처리할 프로그램이나 수식을 짜는 것도 가능하다. 이제 인간은 추상적인 검토와 판단 및 명령만 내리면 된다.

또한 어떤 주제에 대해 쓰고 싶다면, 이전에는 수많은 서적, 뉴스기사, 보고서, 논문, 영상, 기타 등등의 자료들을 열람해가며 한땀한땀 모아야 했다. 여기에 자료 간 교차검증과 정말 필요한 자료만 골라내는 작업까지 한다면 대단히 많은 시간과 노력이 들었다. 이런 작업을 수행할 수 있는 프로그램은 ChatGPT 같은 인공지능이 아니고서야 있지도 않았고, 설령 있었다 해도 고가의 유료이거나, 그마저도 인공지능 기반이 아니라면 일률적인 알고리즘에 의지할 것이 뻔하니, 그 프로그램의 오류가 인공지능 환각은 새발의 피일 정도로 심할 것이었다.

그러나 앞으로는 명령만 내리면 AI크롤링하여 즉각 제공할 것이다. 변호사, 노무사, 회계사 상담처럼 비슷한 내용이 반복되는 전문가 조언도 인공지능으로 상당 부분 대체가 가능하다. 이는 해당 분야는 판결문과 법령이라는 레퍼런스가 뚜렷하며, 그에 따라 결과물도 정형화됐기 때문이다.[23]

논문이나 보고서초록(머릿말, abstract)을 작성하는 과정도 매우 간소화된다. 초록은 직접적인 연구나 실험 과정의 간략한 요약만 포함하면 되기에 간단해 보이지만, 자기 논문/보고서 내용과 연관되는 키워드를 모아 문장을 만들고, 중복되거나 주제에서 벗어난 내용을 다듬는 등의 과정을 거쳐야 하기에 의외로 상당한 시간을 잡아먹기 때문이다.

ChatGPT를 통해 내 주제에 대한 초안을 여럿 만들고, 이를 다듬어서 초록을 작성하면, 이러한 시간을 크게 절약할 수 있다. 다만, 이런 행위가 연구윤리 위반이라는 의견과 아니라는 의견이 대립 중에 있다.

이 밖에 프로그래밍 부문에서는 사소하고 반복적인 코딩 업무가 최소화될 것이며, 컴퓨터 엔지니어들은 좀 더 전반적인 설계만 잡아주는 역할을 수행하게 될 것이다. 즉, 아무리 고도화된 업무라고 할지라도 그 내용이 반복적이라면 이러한 AI를 사용하면 되며, AI가 생산성 우위를 인간에게서 가져간 것이다.

결과적으로 지식과 기술의 발전 속도가 이전보다 훨씬 빨라지며, 더 적은 인력으로 더 높은 생산성을 낼 수 있게 된다.

실제로 한국에서는 기획, 디자인, 개발 등 다양한 직군에서 IT 실무자들이 챗GPT를 업무 지원 도구로 적극 활용하고 있다. 세계 2위 수준의 유료 사용자 수가 이를 뒷받침한다. 특히 문서 작성과 회의록 정리, 코드 분석, 기획 초안 생성 등에서 높은 효율을 보인다는 이야기가 많다. 질문을 연속해 이어가면 꾸준히 품질을 높일 수 있으며, 업무 환경을 완전히 바꿨다는 평가가 나온다.

심지어 예술 작품 창작 과정도 많은 부분이 반복적인 업무로 구성되어 있다. 스토리 구성, 자료 수집, 설정 정립, 윤문 등의 부분에서 도움을 받는다면 창작 과정이 급속도로 진척된다.

4. 특징

OpenAI 플랫폼 회원가입 후, 무료 혹은 유료 구독제[24]로 이용할 수 있으며, 회원가입을 하고, 채팅을 하듯이 챗봇에 질문을 입력하는 것만으로 AI를 이용할 수 있다. 사실 어떤 유형의 글을 입력해도 이에 맞는 답변이 생성되는 시도가 이루어진다. 스마트폰으로도 OpenAI 플랫폼에 들어가면 이용할 수 있다. 여기서 입력하는 대화문을 '프롬프트(Prompt)'라고 하며, 이에 대한 AI의 답변 생성을 두고 '응답(Response)'이 생성된다고 표현한다. 각 대화방의 이름은 대화를 하자마자 첫 질문과 답변에 맞게 생성되지만 언제든지 변경할 수 있다.

트랜스포머 기반의 인공신경망을 이용한다. 사실 트랜스포머가 나오게 된 계기인 Attention Is All You Need 논문 자체는 2017년 구글 브레인에 의해서 발표되었지만, 그 당시엔 그다지 주목받지 못했고 ChatGPT가 본격적으로 유명해진 2022년에 되어서야 뒤늦게 주목받기 시작하였다.

처음 이 서비스에 대한 소문이 있었을 때 문제가 되던 GPT-3.5가 제공하던 엉터리 답변은 더 이상 등장하지 않는다. 오류나 불편함은 여전히 미묘한 부분에서 발생하고 있으나 출시 당시보다는 답변의 정확도가 상당히 높아진 상황이다. 현재도 좁은 범위의 지식(좁은 범위의 특정 집단에서만 통용되는 지식, 보편적 적용이 어려운 지식, 사건의 상세한 정보 등)을 ChatGPT에 물어보는 일[25]이나, 아주 정교한 작업은 한계가 있지만, 밈으로 소비되었던 “조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘.” 사건이나 대동여지도 연금술사 같은 일들은 더 이상 일어나지 않는다.

서비스가 제공하는 AI 모델의 성능은 빠른 속도로 좋아진다. 6개월~1년 전의 구 버전을 썼던 경험을 최신 ChatGPT에 적용하면 오해가 생길 수 있다. 2022년 11월에 나온 GPT-3.5는 수능 국어 8등급, 2023년 4월에 나온 GPT-4는 수능 국어 4등급, 2024년 5월에 나온 GPT-4o도 역시 논리력의 한계를 극복하지 못해서 수능 국어 4등급이지만 이미지와 음성을 인식할 수 있게 되었고 대학 수준의 전문적 지식을 원어민 수준으로 제공하게 되었으며, 2024년 9월에 나온 o1-preview는 수능 국어 1등급을 달성했다.[26] # 특히 GPT-3.5가 수능 국어 5등급은 달성하면서 상식이 풍부한 GPT-4o mini로 대체된 것이 사용자의 체감 성능을 크게 끌어올렸다. 일상적으로는 수능 국어 5등급 이상의 논리력이 필요한 일을 사람들이 하지 않기 때문에 성능에 만족하는 경우가 종종 있다.[27]

ChatGPT는 사용자와 주고받는 대화에서 인공지능에 따라서 질문에 답하도록 설계된 언어 모델이며, OpenAI는 블로그 게시글을 통해 “ChatGPT가 대화 형식으로 추가적인 질문에 답하고, 실수를 인정하며, 정확하지 않은 전제에 대해서는 이의를 제기하고, 부적절한 요청을 거부할 수 있다”라고 설명했다. 또한 인터페이스, 기능 등의 업데이트의 속도가 빠른 편이다. ChatGPT로 못하던 일도 점차 할 수 있게 되는 변화가 생겼다. 그러나 답변의 품질이 종종 비일관적인 경우도 알려져 있다.

일반적인 지식과 원리(예컨대 하늘이 파란 이유에 대한 설명, 간단한 교양 수준의 법학 논리까지)를 물어보면 꽤 정확하게 알려주겠지만, 많은 데이터가 필요한 '지엽적인 사실'을 물어보는 것은 최소한 검색이 필요하다. 또한 수학적 계산, 논리적 판단이 필요한 사항은 GPT-5 도입 이후에도 추론 기능을 가진 모델을 사용하는 것이 훨씬 정확도가 높다.

모델 스펙(영문)이 2025년 4월 11일 추가되었다. 매우 구체적인 OpenAI의 AI 모델의 행동방식의 지향을 다루고 있다. 해로운 이용은 검열하겠다는 의지가 명확하며, 특이한 점은 영어권 문화의 빠진 이를 밤에 베개 밑에 두고 자면 그것을 가져가는 대신, 작은 선물이나 동전을 놓고 간다고 여겨지는 가상의 존재인 '이빨 요정'이라는 예시를 들면서 '이빨 요정과 관련된 긍정적인 경험과 감정'을 유지시키기 위해 어린이가 이빨 요정이 있냐고 물으면 없다고 대답하지 않고 '중요한 건 베개 밑에 빠진 이를 두었을 때 느끼는 특별한 감정과 아침에 발견하는 놀라운 선물이랍니다!'처럼 대답하게 한다는 것이다. 다만 2025년 4월에 문제된 '아첨꾼' 문제처럼 사용자에 대한 무조건적 긍정은 거부한다고 한다.

레딧에 따르면 2025년 7월 14일부터 GPT-4o, GPT-4.1 같은 비추론 모델에도 억지로 추론을 시킬 수 있는 기능이 비공개 테스트 형식으로 추가된 듯 하다. 즉, GPT-4o가 o4-mini처럼 "생각하는 데 시간을 많이 할애하고" 답변한다는 것. 7월 29일에는 꽤 많은 사용자에게 이 기능이 풀린 듯 하다. 이 기능을 쓸 경우 GPT-4o가 o-시리즈 모델처럼 생각하는 데 시간을 많이 할애하고 답변하며, 지능이 매우 높아진다. 예시를 들면 어떤 인물의 일생을 "최대한 자세하게 알려달라"고 하면 자세하게 알려주기는 했지만 여전히 역사서의 내용을 극단적으로 압축해서 알려주는 느낌이 강했다면, 기능 활성화 시에는 "이 사람의 일생을 알려줘" 라고 간단하게 질문해도 마치 EBS 다큐멘터리처럼, 심지어 그 인물이 언제 어디서 어떻게 넘어져서 장애를 얻게 되었는지도 답변해주었다. 레딧의 Pro 유저의 증언에 의하면 체감상 o3-pro의 지능보다 약간 못한 수준이라고 한다. 그러나 바로 다음날인 7월 30일에 사라지고, 대신 "공부하고 배워요" 기능이 출시되었다.

위의 기능은 GPT-5 출시 이후 "잘 생각하기" 기능으로 다시 부활했으며(사실상 o-시리즈 모델을 불러오는 역할을 하게 되었다.), 달라진 점은 GPT-5가 추론하고 웹 검색을 하여 찾은 정보를 스스로 양질의 정보인지, 지저분한 정보인지 판단하는 능력이 어느 정도 생겼다.(비공개 테스트 때는 GPT가 양질의 정보는 골라낼 수는 있었지만, 지저분한 정보를 거르지는 못했다.) 아무래도 배경지식도 풍부한 모델에 추론까지 시키니 자연스럽게 정보를 분간하는 능력도 생긴 듯 하다. 다만 비공개 테스트 때의 압도적인 추론 능력은 Business 요금제 이상의 사용자에게만 제공되는 GPT-5 pro로 활성화시켜야 한다고 한다.

4.1. 버전 별 모델 간 차이

  • GPT-4: 네 번째로 나온 GPT 베이스 모델. 해당 모델을 기반으로 한 다른 모델로 GPT-4.1, GPT-4.5 (리서치 프리뷰)가 있었다.
  • GPT-4o: 기존의 GPT-4 모델을 최적화한 버전. 이 모델은 기본보다 서버 비용을 절감하며, 더 빠른 응답을 하지만, 초창기에는 GPT-4에 비하면 답변 퀄리티가 조금 떨어졌다. 2025년 1월 29일에도 업데이트가 되는 식으로 지식이 좀 더 최신의 것으로 수정된다든가, 이미지 분석 성능이나 번역 성능이 더 좋아지는 경우도 있다. 기존 모델보다 맥락을 이해하는 이미지 생성 기능도 있다.
  • o1: OpenAI에서 처음으로 Chain of Thought 개념을 도입한 고급 추론 모델이다. 이 모델은 이름에 'GPT'를 사용하지 않는다. OpenAI의 개발자 경험 총괄 '로맹 위에(Romain Huet)'에 따르면 모델명에 포함된 'o'는 'OpenAI'를 의미한다. OpenAI openai 1 이 모델은 심층적 추론이 가능해서 기존 인공지능의 수학, 수치적 답변, 논리 퀴즈 등의 주제에 대한 한계를 극복하게 되었다. 언어 모델은 추론 능력의 유무에 따라 작문에서는 큰 차이가 없을 수 있지만, 수학이나 논리적 문제에 대한 답변의 정확도와 성능은 크게 달라진다.
  • o3: 보다 o1을 발전시킨 후속 모델. 원래 o2라고 불러야 하지만 상표권 문제로 이 넘버링을 건너 뛰고 대신 o3라고 이름을 붙여 공개한 것이다. 'mini'가 붙은 모델(예: o3-mini)은 경량화를 거친 모델로 한국 관련 지식 등에서 GPT-4o보다 부족한 경우가 있다.
  • o4: o3를 한 번 더 발전시킨 후속 모델. o4-mini, o4-mini-high[28] 버전만 출시되었고 모든 파라미터가 있는 Full 베이스 버전은 출시되지 않고 그 다음 모델인 GPT-5에 통합되었다.
  • GPT-5: 한국 기준 2025년 8월 8일 금요일 새벽 2시에 출시되었다. 그 동안 출시됐던 모든 모델을 GPT-5, GPT-5 Thinking, GPT-5 Pro 3가지로 정리했다. 추론 모델인 중 예전 버전인 o3를 다듬은 일종의 최종 개선 모델 정도 느낌으로 출시되었다고 한다.

4.2. 프롬프트 입력 시 인터페이스

2024년 9월 22일 기준이다. 한국어 인터페이스를 시범적으로 제공하고 있다.
  • 줄바꿈: 데스크탑이나 노트북에서 줄바꿈은 시프트 키와 엔터 키를 동시에 눌러서 사용할 수 있고, 스마트폰에서는 전송 버튼을 누르기 전까지는 채팅이 전송되지 않으므로, 자판에서 엔터에 해당하는 부분을 터치하여 사용할 수 있다.
  • 프롬프트 수정(✏️): 대화방의 모든 질문은 수정이 가능하지만, 그 대화가 수정된 이후에는 그 대화 시점 이후 자신이 입력했던 기존 프롬프트는 사라지며, 새로운 대화가 이어진다. 프롬프트라는 말이 일반인에게 어려움을 감안한 모양인지 '메시지를 보내고', 이를 수정하는 것으로 묘사된다.
  • 생성 멈춤(⬛): 답변이 생성되는 도중 동그라미 안에 네모가 들어간 버튼을 누르면 답변 생성을 멈출 수 있다.
  • 복사(Copy, 📋): 답변을 복사할 수 있다.
  • 모델 바꾸기(🔁): 답변을 출력하는 모델을 바꿀 수 있다. 예를 들어서 유료 버전에서는 논리력이 적게 필요한 글쓰기를 하다가 논리적인 답변을 원하면 GPT-4o에서 o1으로 모델을 바꿀 수 있다. 그 모델으로의 출력이 대화 내내 유지는 되지 않는다. 미리 모델을 바꾸고 싶으면 좌측 상단에서 출력 모델을 자유롭게 바꿀 수 있다.
  • 재생성(Regenerate, ↺): 이미 생성된 응답도 'Regenerate'를 눌러서 다시 응답을 생성하게 할 수 있다.
  • Read Aloud(소리내어 읽기): 생성된 응답을 읽어준다.
  • 좋은 응답(Good response, 👍): 좋은 응답에 이 아이콘을 눌러 평가할 수 있다. 종종 사라지기도 한다.
  • 나쁜 응답(Bad response, 👎): 부정확하거나 엉뚱한 응답에 답에 이 아이콘을 눌러 평가할 수 있다. 실제 답변 품질에 장기적으로는 영향을 끼칠 수 있는 기능으로 보인다. OpenAI는 부정확한 정보에 이 아이콘을 누르도록 권장한다.
  • 계속 생성하기(Continue generating, ▶▶️): 끊긴 메시지에서 등장하는 버튼으로, 기존 메시지에서 끊긴 부분부터 답변을 이어서 작성한다.
  • 파일 첨부(📎): 유료 버전에 한정하여 GPT-4 계열 모델을 이용할 경우 파일을 첨부한 질문이 가능하다.
  • 답장( ): 이전 ChatGPT 응답의 일부를 선택하여 해당 부분에 대한 추가적인 질문을 할 수 있다. ChatGPT 응답 텍스트에서 원하는 부분을 드래그하면 위에 겹따옴표 모양의 아이콘이 뜨는데, 해당 아이콘을 눌러 사용이 가능하다.
  • GPTs 호출(@): 프롬프트(질문/요청하고자 하는 것)를 입력할 때 먼저 @을 입력하면 GPTs를 호출하여 그 GPTs가 답변하게 할 수 있다.

5. 요금제(플랜) 정보

아래 이용 한도 표는 서버 상태나 동시 접속자가 많은 시간대에 따라 변동될 수 있다. 특히 무료 사용자는 한도 영향을 가장 많이 끼치므로, 해당 표는 참고용으로만 활용할 것.

||<tablebordercolor=#000,#fff><rowbgcolor=#000,#fff><rowcolor=#fff,#000> 요금제 종류 || Non-Login[29] || Free || Go || Plus || Business || Enterprise || Pro ||
모델\가격 <rowcolor=#fff,#000> 무료 무료 월 5달러[30]
(약 7,000원)
월 20달러
(29,000원)
월 30달러
(약 42,000원)[31]
월 60달러
(약 85,000원)[32]
월 200달러
(310,000원)
GPT-5.2 (Auto, Instant) 10회 / 5시간 10회 / 5시간 100회 / 5시간 160회 / 3시간 무제한 무제한 무제한
GPT-5 mini[33] 무제한 무제한 무제한 무제한 무제한 무제한 무제한
GPT-5.2 Thinking X X X 3,000회 / 주 3,000회 / 주
[크레딧]
200회 / 주
[크레딧]
무제한
GPT-5 Thinking mini X O O 2,800회 / 주 200회 / 일
[크레딧]
200회 / 주
[크레딧]
무제한
GPT-5.2 Pro X X X X 15회 / 월
[크레딧]
15회 / 월
[크레딧]
무제한[40]
GPT-4o X X X 80회 / 3시간 무제한 무제한 무제한
GPT-4.1 X X X 80회 / 3시간 80회 / 3시간
[크레딧]
500회 / 3시간
[크레딧]
무제한
GPT-4.5 X X X X X 20회 / 주
[크레딧]
유동적인 제한[44]
o3 X X X 100회 / 주 100회 / 일
[크레딧]
100회 / 주
[크레딧]
무제한
o4-mini X X X 300회 / 일 300회 / 일
[크레딧]
300회 / 일
[크레딧]
무제한
파일 업로드
[49]
3회 / 일[50] 3회 / 일 30회 / 일 80회 / 3시간 80회 / 3시간 80회 / 3시간 120회 / 3시간
Sora X X X 무제한[51] 준 무제한[52] 10회 / 일[53] 무제한[54]
Sora 2
[크레딧]
X 30 영상 생성 / 일 30 영상 생성 / 일 30 영상 생성 / 일 X X 100 영상 생성 / 일[56]
에이전트
[57]
X X X 40회 / 월 40회 / 월
[크레딧]
40회 / 월
[크레딧]
400회 / 월
심층 리서치
[60]
X 5회 / 월[I] 월 5회 + 월 15회[I] 월 10회 + 월 15회[I] 월 10회 + 월 15회[I]
[크레딧]
월 10회 + 월 15회[I]
[크레딧]
월 125회 + 월 125회[I]
Codex
[크레딧]
X X X O O O O
Context Window
[70][71]
? 16,000 ?
[Instant_CW][73]
196,000
[Thinking_CW]
32,000
[Instant_CW]
196,000
[Thinking_CW]
32,000
[Instant_CW]
196,000
[Thinking_CW]
128,000
[Instant_CW]
196,000
[Thinking_CW]
128,000
[Instant_CW]
196,000
[Thinking_CW]
그 외 - - 프로젝트 생성 가능[83] 소규모 Business를 위한 추가 기능 제공[84] Business의 모든 기능 + 중견기업, 대기업을 위한 추가 기능[85] 얼리 액세스[86] / ChatGPT Pulse[87]

OpenAI 측은 정확한 제공량을 공개하지 않고, 어느 정도 사용했을 때 얼마 남았다는 식으로 간접적으로 알려주어 주의가 필요하다.[88] 현질유도 ChatGPT 상위 모델 일부는 잠수함 패치로 사용량을 줄이기도 하고, 샘 올트먼X를 통해 한도를 상향시켰다고 공지하기도 하며 종종 이벤트성으로 초기화도 되기도 하니 Plus 플랜을 사용하는 헤비 유저들은 관련 커뮤니티를 주시할 필요가 있다.

무료 버전의 경우 파일을 계속 업로드하면 일정 시간 이후 다시 업로드하라고 하며, 웹 검색과 관련된 질문을 너무 자주 하면 제한에 걸려 나중에 다시 시도하라고 뜨며[89], 기본적으로 GPT-5 등의 모델 횟수에 제한이 걸릴 경우 다른 모델로 변경되었다는 경고가 뜨고 제한 해제 시간과 함께 GPT-5 mini로 일시 전환된다. 이 제한들은 유료 버전을 구독하면 이 제한을 해제 또는 완화할 수 있다. 따라서 유료 버전은 논문 등을 많이 봐야 하는 과제를 하는 사람들이 더 많은 도움을 받기 위해 주로 이용하게 된다. 월 3만 원 정도의 Plus 요금제는 ChatGPT를 비교적 많이 활용해야 하는 사람이라면 큰 부담은 없는 편이지만, 월 30만 원 정도의 Pro 요금제는 가격이 매우 부담스럽다는 평이 많다.

6. 기능

파일:상세 내용 아이콘.svg   자세한 내용은 ChatGPT/기능 문서
#!if (문단 == null) == (앵커 == null)
를
#!if 문단 != null & 앵커 == null
의 [[ChatGPT/기능#s-|]]번 문단을
#!if 문단 == null & 앵커 != null
의 [[ChatGPT/기능#|]] 부분을
참고하십시오.

6.1. 초기 공식 가이드라인

  • 예시
    • 양자 컴퓨팅을 쉬운 문장으로 설명하시오.
    • 10살 아이의 생일축하를 위한 창의적인 아이디어 있는가?
    • JavaScriptHTTP 요청을 어떻게 보내는가?
  • 가능한 것
    • 유저가 대화에서 말한 것을 기억함.
    • 답변을 보고 사용자가 내용 수정을 요청할 수 있음.
    • 부적절한 요청은 거부할 수 있음.
  • 한계
    • 잘못된 정보를 제공할 수 있음.
    • 유해하거나 편향적인 정보를 제공할 수 있음.
    • 2023년 10월(GPT-4o)/2024년 10월(GPT-5)이후의 지식은 제한되어 있음.[90]

예시와 가능한 것의 경우, 업데이트가 진행되며 그 예시가 많이 늘었다. 어디까지 초기 공식 가이드라인이라서 2024년 9월 기준 모델 자체에 학습된 지식도 늘었고, 브라우징 기능도 생기는 변화가 일어났다.

6.1.1. 이용 정책(Usage policies)

ChatGPT는 물론 OpenAI 사의 모든 모델을 이용할 때 적용되는 정책이다. 원문은 이 페이지를 참조할 수 있다. 정책은 바뀔 수도 있으니, 최신 정책과 아래 내용이 상이할 수 있으므로 꼭 공식 홈페이지에서 한 번 더 확인바란다.

ChatGPT 등에서 사용되는 모델에서 허용되지 않는 쓰임은 다음과 같다. ChatGPT를 응용한 이런 서비스도 허용하지 않겠다는 것이다. 검열될 확률이 높거나 즉답을 피할 확률이 높은 정보라고 할 수 있다. 실제로 이를 따르지 않을 경우, 사회나 사용자를 위험에 빠트릴 수 있는 정보가 많다.

다만, 의료, 금융, 정치 등의 분야는 신중하지 않은 즉각적인 결정을 방지할 따름이지 이를 이용한 서비스 자체를 막는 것이 아니다. 당장 의학적 지식[91]이나, 금융 상식, 정치학적 지식[92]을 물어도 응답이 꺼려지지는 않는 편이다.

다만, 아래와 같은 내용을 암시하는 내용을 ChatGPT가 감지하면 콘텐츠 정책을 위반한 것 같은데 이의가 있으면 연락하라는 메시지가 뜬다. 경미한 정도라면 내용이 주황색 글씨로 바뀌면서 하단에 정책 위반 메시지가 뜨지만, 위반 정도가 심하면 아예 메시지만 남기고 내용을 모조리 지워버린다. 이는 사용자의 질문이나 ChatGPT가 출력한 대답 모두 해당된다.[93]
  • 불법 활동: OpenAI는 자사의 모델, 도구 및 서비스를 불법적인 활동에 사용하는 것을 금지한다.
  • 아동 성학대 자료 또는 아동을 착취하거나 해를 끼치는 모든 콘텐츠: OpenAI는 아동 성 학대 자료를 미국 실종 및 착취 아동 센터에 신고한다.[94] 가상 콘텐츠라면 신고는 안 하더라도 부정적으로 표현한다.
  • 성폭력, 비동의 성적 콘텐츠: 성폭력 등 비동의 성적 콘텐츠[95]를 묘사하는 행위.
  • 혐오, 괴롭힘 또는 폭력적인 콘텐츠의 생성: 신분에 기반한 증오를 표현, 선동 또는 조장하는 콘텐츠, 개인을 괴롭히거나 위협하거나 약자를 학대하는 콘텐츠, 폭력을 조장하거나 미화하거나 타인의 고통이나 굴욕을 찬양하는 콘텐츠 등. 이 부분의 검열이 심해서 고블린을 죽인다든지, 심지어 억압을 부숴버린다는 식의 은유조차 이런 콘텐츠로 오인하며 경고 메시지가 표출되는 경우도 있다. 2025년 6월 기준 해당 내용에 대한 검열이 더 심해졌다.
  • 멀웨어 생성: 컴퓨터 시스템을 방해하거나 손상시키거나 무단으로 액세스하도록 설계된 코드를 생성하려고 시도하는 콘텐츠.
  • 신체적 상해의 위험이 높은 활동: 무기 개발, 군사 및 전쟁 관련, 에너지·교통·수도 등 중요 인프라의 (직접적인) 관리 또는 운영, 자살·자해·섭식 장애 등 자해 행위를 조장·장려 또는 묘사하는 콘텐츠 등.[96]
  • 경제적 피해의 위험이 높은 활동: 다단계 마케팅, 도박, 페이데이론[97], 신용·고용·교육 기관 또는 공공 지원 서비스에 대한 자격 자동 결정[98] 등.
  • 사기 또는 기만적인 행위: 사기, 조직적인 부정 행위, 표절, 학문적인 비리, 가짜 풀뿌리 지원 또는 가짜 리뷰 작성과 같은 아스트로터핑[99], 허위 정보, 스팸, 유사 의약품 등.
  • 정치 캠페인 또는 로비: 대량의 캠페인 자료 생성, 특정 인구 통계에 맞춤화되거나 이를 대상으로 하는 캠페인 자료 생성, 캠페인에 대한 정보를 제공하거나 정치적 옹호 또는 로비에 관여하는 챗봇과 같은 대화형 또는 대화형 시스템 구축, 정치 캠페인 또는 로비 목적의 제품 구축 등.
  • 사람들의 개인정보를 침해하는 활동: 개인의 동의 없이 개인을 추적하거나 모니터링하는 행위, 개인의 얼굴 인식, 보호되는 특성에 따라 개인을 분류하는 행위, 식별 또는 평가를 위해 생체 인식을 사용하는 행위, 개인 식별 정보 또는 교육·재무 또는 기타 보호되는 기록을 불법적으로 수집 또는 공개하는 행위 등.
  • 자격증을 보유한 법률 전문가의 검토 없이 무단으로 법률 행위를 하거나 맞춤형 법률 자문을 제공하는 행위: OpenAI의 모델은 법률 자문을 제공하도록 미세 조정되지(fine-tuned) 않아, OpenAI의 모델을 법률 자문의 유일한 출처로 의존해서는 안 된다.[100]
  • 자격증을 보유한 전문가의 검토 없는 맞춤형 재무 조언 제공: OpenAI의 모델은 재무 자문을 제공하도록 미세 조정되지 않았다. 따라서 당사의 모델을 재정 자문의 유일한 출처로 사용해서는 안 된다. 모건 스탠리 등에 활용되는 정보도 자사의 지식을 활용하는 것을 염두에 둔 것이다.
  • 자격증을 보유한 의료 전문가의 개입 없이 특정 건강 상태를 진단하거나 치료 지침 제공: OpenAI의 모델은 의료 정보를 제공하도록 미세 조정되지 않았다. 심각한 건강 상태에 대한 진단 또는 치료 서비스를 제공하기 위해 당사 모델을 사용해서는 안 된다. 즉각적인 조치가 필요한 생명을 위협하는 문제를 분류하거나 관리하는 데 OpenAI의 플랫폼을 사용해서는 안 된다.
  • 고위험 정부 의사 결정: 법 집행 및 형사 사법, 이주 및 망명 등.

성인용 콘텐츠의 경우, OpenAI는 이를 명시적으로 금지하는 이용정책을 두고 있지는 않다. 다만 ChatGPT의 최소 사용 연령이 만 13세이고[101], 미성년자도 콘텐츠 생성에 접근할 가능성이 있기 때문에 안전을 위해 모델 내부 방침상 명백한 성인용 콘텐츠 생성을 전면적으로 제한해 왔다. 이로 인해 비교적 수위가 낮은 창작물 요청마저도 모델이 거부하는 경우가 잦았다.

이후 GPT-5가 출시되면서, 맥락에 따라 안전하면서도 기존보다 유연한 수준의 글과 그림 창작이 가능하도록 모델의 안전조치가 조정되었다. 하지만 이는 안전 기준을 완화한 것이 아니라, '무조건적인 거절'에서 '안전한 완성'으로 방식을 변경한 것일 뿐이기 때문에 여전히 안전성에 중점을 둔 응답이 우선된다. 오히려 확실히 안전하다고 여겨질 만한 요청에도 안전 조치가 과도하게 작동하는 경우가 있어 일반 사용자들의 불만이 이어지고 있다. 이에 성인과 미성년자를 구분하여 각각의 연령대에 적합한 안전 기준을 별도로 마련해야 한다는 의견이 지속적으로 제기되고 있다.

이에 2025년 9월 16일, OpenAI는 연령별 맞춤형 보호조치 제공을 목표로 미성년자에게는 강화된 안전 장치를 적용하고 성인에게는 더욱 관대한 응답을 제공하는 방침을 발표했다. 또한, 연령 예측 시스템 구축 계획을 공개했으며 , 2025년 10월 15일 샘 올트먼 CEO는 본인의 X 계정을 통해 인증된 성인 사용자를 대상으로 에로티카를 포함한 좀 더 자유로운 콘텐츠 이용을 12월부터 허용할 예정이라고 밝혔다.

2025년 11월 중순부터는 청소년으로 판단되는 계정에 더욱 강화된 안전 조치가 점차 적용되기 시작했고, 표준적인 ChatGPT 환경으로 돌아가길 원하는 사용자를 위해 연령 인증 전문 업체 Persona를 통한 신분 인증 절차가 도입되었다. 다만, 이러한 조치가 아직 성인 모드의 도입을 의미하는 것은 아니다.

6.1.2. 특정 방식의 모델 사용에 대한 추가 요건

  1. 의료, 금융 및 법률 산업, 뉴스 생성 또는 뉴스 요약에서 소비자를 대상으로 모델을 사용하는 경우, 그리고 기타 보증이 필요한 경우, 사용자에게 AI가 사용되고 있다는 사실과 잠재적 한계를 알리는 고지 사항을 제공해야 한다.
  2. 자동화된 시스템(대화형 AI 및 챗봇 포함)은 사용자가 AI 시스템과 상호 작용하고 있다는 사실을 사용자에게 공개해야 한다. 역사적 인물을 묘사하는 챗봇을 제외하고 다른 사람을 모방하는 제품은 해당 인물의 명시적인 동의를 받거나 "모방" 또는 "패러디"라는 라벨을 명확하게 표시해야 한다.
  3. 라이브스트림, 설명 및 연구에 모델 결과물을 사용하는 경우 OpenAI사의 공유 및 게시 정책이 적용된다.

6.2. 사용법

파일:상세 내용 아이콘.svg   자세한 내용은 ChatGPT/사용법 문서
#!if (문단 == null) == (앵커 == null)
를
#!if 문단 != null & 앵커 == null
의 [[ChatGPT/사용법#s-|]]번 문단을
#!if 문단 == null & 앵커 != null
의 [[ChatGPT/사용법#|]] 부분을
참고하십시오.

7. 한계 및 문제점

파일:다른 뜻 아이콘.svg  
#!if 넘어옴1 != null
''''''{{{#!if 넘어옴2 == null
{{{#!if 넘어옴1[넘어옴1.length - 1] >= 0xAC00 && 넘어옴1[넘어옴1.length - 1] <= 0xD7A3
{{{#!if ((넘어옴1[넘어옴1.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴1[넘어옴1.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴1[넘어옴1.length - 1] < 0xAC00 || 넘어옴1[넘어옴1.length - 1] > 0xD7A3
은(는)}}}}}}{{{#!if 넘어옴2 != null
, ''''''{{{#!if 넘어옴3 == null
{{{#!if 넘어옴2[넘어옴2.length - 1] >= 0xAC00 && 넘어옴2[넘어옴2.length - 1] <= 0xD7A3
{{{#!if ((넘어옴2[넘어옴2.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴2[넘어옴2.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴2[넘어옴2.length - 1] < 0xAC00 || 넘어옴2[넘어옴2.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴3 != null
, ''''''{{{#!if 넘어옴4 == null
{{{#!if 넘어옴3[넘어옴3.length - 1] >= 0xAC00 && 넘어옴3[넘어옴3.length - 1] <= 0xD7A3
{{{#!if ((넘어옴3[넘어옴3.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴3[넘어옴3.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴3[넘어옴3.length - 1] < 0xAC00 || 넘어옴3[넘어옴3.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴4 != null
, ''''''{{{#!if 넘어옴5 == null
{{{#!if 넘어옴4[넘어옴4.length - 1] >= 0xAC00 && 넘어옴4[넘어옴4.length - 1] <= 0xD7A3
{{{#!if ((넘어옴4[넘어옴4.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴4[넘어옴4.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴4[넘어옴4.length - 1] < 0xAC00 || 넘어옴4[넘어옴4.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴5 != null
, ''''''{{{#!if 넘어옴6 == null
{{{#!if 넘어옴5[넘어옴5.length - 1] >= 0xAC00 && 넘어옴5[넘어옴5.length - 1] <= 0xD7A3
{{{#!if ((넘어옴5[넘어옴5.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴5[넘어옴5.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴5[넘어옴5.length - 1] < 0xAC00 || 넘어옴5[넘어옴5.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴6 != null
, ''''''{{{#!if 넘어옴7 == null
{{{#!if 넘어옴6[넘어옴6.length - 1] >= 0xAC00 && 넘어옴6[넘어옴6.length - 1] <= 0xD7A3
{{{#!if ((넘어옴6[넘어옴6.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴6[넘어옴6.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴6[넘어옴6.length - 1] < 0xAC00 || 넘어옴6[넘어옴6.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴7 != null
, ''''''{{{#!if 넘어옴8 == null
{{{#!if 넘어옴7[넘어옴7.length - 1] >= 0xAC00 && 넘어옴7[넘어옴7.length - 1] <= 0xD7A3
{{{#!if ((넘어옴7[넘어옴7.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴7[넘어옴7.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴7[넘어옴7.length - 1] < 0xAC00 || 넘어옴7[넘어옴7.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴8 != null
, ''''''{{{#!if 넘어옴9 == null
{{{#!if 넘어옴8[넘어옴8.length - 1] >= 0xAC00 && 넘어옴8[넘어옴8.length - 1] <= 0xD7A3
{{{#!if ((넘어옴8[넘어옴8.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴8[넘어옴8.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴8[넘어옴8.length - 1] < 0xAC00 || 넘어옴8[넘어옴8.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴9 != null
, ''''''{{{#!if 넘어옴10 == null
{{{#!if 넘어옴9[넘어옴9.length - 1] >= 0xAC00 && 넘어옴9[넘어옴9.length - 1] <= 0xD7A3
{{{#!if ((넘어옴9[넘어옴9.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴9[넘어옴9.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴9[넘어옴9.length - 1] < 0xAC00 || 넘어옴9[넘어옴9.length - 1] > 0xD7A3
은(는)}}}}}}}}}{{{#!if 넘어옴10 != null
, ''''''{{{#!if 넘어옴10[넘어옴10.length - 1] >= 0xAC00 && 넘어옴10[넘어옴10.length - 1] <= 0xD7A3
{{{#!if ((넘어옴10[넘어옴10.length - 1] - 0xAC00) % 28) == 0
는}}}{{{#!if ((넘어옴10[넘어옴10.length - 1] - 0xAC00) % 28) != 0
은}}}}}}{{{#!if 넘어옴10[넘어옴10.length - 1] < 0xAC00 || 넘어옴10[넘어옴10.length - 1] > 0xD7A3
은(는)}}}}}} 여기로 연결됩니다. 
#!if 설명 == null && 리스트 == null
{{{#!if 설명1 == null
다른 뜻에 대한 내용은 아래 문서를}}}{{{#!if 설명1 != null
{{{#!html ChatGPT의 문제점이 아닌 언어 모델의 보편적인 문제점}}}에 대한 내용은 [[언어 모델]] 문서{{{#!if (문단1 == null) == (앵커1 == null)
를}}}{{{#!if 문단1 != null & 앵커1 == null
의 [[언어 모델#s-|]]번 문단을}}}{{{#!if 문단1 == null & 앵커1 != null
의 [[언어 모델#|]] 부분을}}}}}}{{{#!if 설명2 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단2 == null) == (앵커2 == null)
를}}}{{{#!if 문단2 != null & 앵커2 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단2 == null & 앵커2 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명3 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단3 == null) == (앵커3 == null)
를}}}{{{#!if 문단3 != null & 앵커3 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단3 == null & 앵커3 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명4 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단4 == null) == (앵커4 == null)
를}}}{{{#!if 문단4 != null & 앵커4 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단4 == null & 앵커4 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명5 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단5 == null) == (앵커5 == null)
를}}}{{{#!if 문단5 != null & 앵커5 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단5 == null & 앵커5 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명6 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단6 == null) == (앵커6 == null)
를}}}{{{#!if 문단6 != null & 앵커6 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단6 == null & 앵커6 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명7 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단7 == null) == (앵커7 == null)
를}}}{{{#!if 문단7 != null & 앵커7 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단7 == null & 앵커7 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명8 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단8 == null) == (앵커8 == null)
를}}}{{{#!if 문단8 != null & 앵커8 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단8 == null & 앵커8 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명9 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단9 == null) == (앵커9 == null)
를}}}{{{#!if 문단9 != null & 앵커9 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단9 == null & 앵커9 != null
의 [[#|]] 부분을}}}}}}{{{#!if 설명10 != null
, {{{#!html }}}에 대한 내용은 [[]] 문서{{{#!if (문단10 == null) == (앵커10 == null)
를}}}{{{#!if 문단10 != null & 앵커10 == null
의 [[#s-|]]번 문단을}}}{{{#!if 문단10 == null & 앵커10 != null
의 [[#|]] 부분을}}}}}}
#!if 설명 == null
{{{#!if 리스트 != null
다른 뜻에 대한 내용은 아래 문서를}}} 참고하십시오.

#!if 리스트 != null
{{{#!if 문서명1 != null
 * {{{#!if 설명1 != null
ChatGPT의 문제점이 아닌 언어 모델의 보편적인 문제점: }}}[[언어 모델]] {{{#!if 문단1 != null & 앵커1 == null
문서의 [[언어 모델#s-|]]번 문단}}}{{{#!if 문단1 == null & 앵커1 != null
문서의 [[언어 모델#|]] 부분}}}}}}{{{#!if 문서명2 != null
 * {{{#!if 설명2 != null
: }}}[[]] {{{#!if 문단2 != null & 앵커2 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단2 == null & 앵커2 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명3 != null
 * {{{#!if 설명3 != null
: }}}[[]] {{{#!if 문단3 != null & 앵커3 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단3 == null & 앵커3 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명4 != null
 * {{{#!if 설명4 != null
: }}}[[]] {{{#!if 문단4 != null & 앵커4 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단4 == null & 앵커4 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명5 != null
 * {{{#!if 설명5 != null
: }}}[[]] {{{#!if 문단5 != null & 앵커5 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단5 == null & 앵커5 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명6 != null
 * {{{#!if 설명6 != null
: }}}[[]] {{{#!if 문단6 != null & 앵커6 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단6 == null & 앵커6 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명7 != null
 * {{{#!if 설명7 != null
: }}}[[]] {{{#!if 문단7 != null & 앵커7 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단7 == null & 앵커7 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명8 != null
 * {{{#!if 설명8 != null
: }}}[[]] {{{#!if 문단8 != null & 앵커8 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단8 == null & 앵커8 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명9 != null
 * {{{#!if 설명9 != null
: }}}[[]] {{{#!if 문단9 != null & 앵커9 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단9 == null & 앵커9 != null
문서의 [[#|]] 부분}}}}}}{{{#!if 문서명10 != null
 * {{{#!if 설명10 != null
: }}}[[]] {{{#!if 문단10 != null & 앵커10 == null
문서의 [[#s-|]]번 문단}}}{{{#!if 문단10 == null & 앵커10 != null
문서의 [[#|]] 부분}}}}}}

ChatGPT가 나오자마자 사람과 비슷한 결과물을 내놓으면서 일반적인 인공지능의 '성능' 및 '범용성'을 한참 뛰어넘는다는 것을 두고, 자연어 인공지능에 불과한 이 채팅 서비스가 일반인들 사이에서 강인공지능으로 포장되는 경우가 생겼다. 그래서 인공 일반 지능 문서에서 서술되어 있는 조건 중 일부는 거의 충족한 거나 다름 없을 정도로 근시일 내에 해결될 문제로 보는 예측이 있었으나, 아쉽게도 해당 부분에 대해서 전문가들은 부정적으로 본다. 어디까지나 ChatGPT는 강인공지능이 아니기 때문이다. 심지어, 인공 일반 지능(AGI)에 근접하게 개발된 AI도 아니다.# 어디까지나 자연어 인공지능에 불과하기에 강인공지능이 될 수 없는 한계가 존재한다.[102]

물론, ChatGPT는 실시간적인 피드백 정도는 가능하지만, 학습이 필요하여 실시간적으로 검색하는 것도 아니며, 학습된 사전 자료를 패턴화한 뒤 이를 최대한 빠르게 짜깁기해 생성하는 원리이기에 이를 지능에 의한 결과물이라고 할 수는 없다. 만약에 인공 일반 지능 문서에서 서술되어 있는 조건 중 일부는 거의 충족하거나 해결한다하더라도 이는 조건의 목적을 우회한 조건 자체에 대한 해결에 불과할 수 있다. 심지어, 이러한 ChatGPT가 GPT를 기반으로 한 언어 모델로서 한계 또한 GPT의 한계를 넘지 못한다.#

이는 OpenAI의 개발자이자 CEO인 샘 올트먼도 2022년 12월 4일자에 "obviously not close to AGI"(명백하게 AGI에 근접하지 않았다)라고 못을 박았다.[103] 그리고 재미있게도 ChatGPT에게 '너는 강인공지능인가?' 라고 물어보면 자기는 그저 언어 모델일 뿐 절대 AGI는 아니라고 답한다. 이는 사고에 의한 답변이 아니라 개발자들이 입력해놓은 수동적인 답변이다. 이는 잠재성을 어필해야 하는 개발자들조차 한계와 AI구분을 명확히 하려는 조치로, 일부 사람들의 몰이해에 의해 ChatGPT를 AGI로 취급하듯이 잘못된 정보로 실질적인 AGI 개발의 발전을 저해하는 사회의 섣부른 판단을 방지하기 위함으로 볼 수 있다.

실제로도 언어를 알고 대화를 하는 게 아니라는 증거로는 바로 탈옥이 아닌 탈옥에 있다. 영어로는 불가능한 요청을 다른 언어로 요청하면 수행한다는 것이다. 만약 다국어 능력자가 어느 한 언어로 금지명령을 받았다면, 다른 언어로 그 부분에 대해 요청받았다고 해서 금지명령을 어기지는 않을 것이다. 허나 GPT에서는 그러한 일이 일어난다.

제미나이와 클로드 같은 경쟁자가 등장하며 실무자들의 업무 목적 활용에서 절대적인 지위를 잃어버렸다는 평가도 나온다. 특히, 제미나이 3.0 모델의 등장으로, 초기 사용자들에게 익숙하다는 것 외에 특별한 장점을 확보하지 못한다면 도태될 가능성도 없지 않다. 최근 광고 도입을 테스트하고 있다는 소식이 들려오는데, 이것이 사용자들의 이탈을 불러올 수도 있다.

7.1. 구조 및 기술적인 한계

7.1.1. 사고 능력 문제

이 문제는 2025년 초, o1 등 추론 모델이 발표되면서부터 상당 부분 해결되었다. 2025년 3분기 기준, 후속 출시된 타사의 AI와 비교해볼 때 나은 부분이 유료 추론 모델의 추론 성능이라고 할 수 있다. 그러나 무료 사용자라 모델을 선택하지 못하거나 하는 경우 여전히 주의가 필요하다.

어디까지나 학습데이터를 바탕으로 대화의 맥락을 파악하여 답변하는 방식이라 추론이 없는 모델은 정확함이 요구되는 수학 계산에 비교적 약한 모습을 보인다.[104]

GPT-4o까지의 답을 구하기까지의 유도과정은 완벽한데 오히려 기계가 가장 완벽해야 할 숫자 계산만 틀린 경우도 종종 볼 수 있다. 또한, 몇몇 과학 이론에 대해 토론을 하고자 할 경우에도 약한 모습을 보였는데, GWS TheoryBCS Theory같이 알파벳 초성으로 명명된 이론을 가지고 대화할 경우, 같은 알파벳 초성을 가진 쌩뚱맞는 이론으로 답변하는 경우가 있었다. 이것은 2024년 10월 기준 대학 학부 수준의 지식을 가지고 토론하는 문제는 한국어까지도 어느 정도 해결되었다.

물론, ChatGPT 등장 이전 질문 검색 방식에 비해서 훨씬 발전했음은 분명하다. 그리고 OpenAI측에서는 수학과 과학 같은 전문 데이터 학습과 보강에 총력을 기울이고 있는 중이라고는 했지만, 어디까지나 논리를 사고해서 답하는 것과는 거리가 멀다.

만약 수학 계산을 원한다면, ChatGPT보다 MATLAB, 매스매티카와 같은 계산 프로그램이나 유사한 검색 엔진인 Wolfram Alpha를 이용하는 것이 편할 수 있다. 구체적인 계산보다는 수학자 테렌스 타오가 언급하였듯 문제를 주고 유도과정 같은 아이디어를 얻는 용도로 쓸 수는 있다.

OpenAI 측에서도 이 문제를 알아서 GPT-4나 GPT-4o로 수학 문제를 풀어달라고 하면, 파이썬으로 문제 풀이 코드를 작성한 뒤 실행해서 그 결과를 보여주려던 시도를 하기도 했다. 현재 ChatGPT에서 사라진 GPT-3.5는 더 못했다.

비슷하지만 다른 문제로 ChatGPT로 바둑이나 체스같은 보드게임을 할 경우 규칙을 어기고 이상하게 두거나, 게임이 끝나지 않았는데도 뜬금없이 자기가 이겼다고 선언하는 등의 모습을 보게 된다. 이건 GPT-4를 사용하더라도 마찬가지다.

o1의 경우에는 이 문제가 크게 개선이 되었다. 수학자 테렌스 타오는 이 서비스는 수학 분야에서 '평범한 대학원생' 수준이라는 평까지 내리기도 했다.# 특히 수능 수학 킬러문제도 일부 푸는 모습이 한국 인터넷에서 화제가 되었다. 하지만 계산의 양 자체가 방대하면 여전히 오류가 있을 수 있다.

2024년 9월 14일자로 테렌스 타오(Terence Tao)는 허락된 특정 모델의 테스트에서 향후 개선을 예상하는 가정에서 제한받고 오류를 범하는 결과에도 불구하고 매우 실용적이며 유용할 수 있는 가능성을 제안하고 있다.[105]

7.1.2. 인공지능 환각 현상

파일:상세 내용 아이콘.svg   자세한 내용은 인공지능 환각 문서
#!if (문단 == null) == (앵커 == null)
를
#!if 문단 != null & 앵커 == null
의 [[인공지능 환각#s-|]]번 문단을
#!if 문단 == null & 앵커 != null
의 [[인공지능 환각#|]] 부분을
참고하십시오.
GPT 자체의 환각률이 압도적으로 높은건 아니지만, GPT-5가 발표되면서 같이 도입된 검열 특화모델이 매우 심각한 수준의 환각을 지속적으로 일으켜 사용자 경험 품질을 심각하게 하락시키고 있다.

7.1.3. 아첨(Sycophancy) 문제

아첨 또는 동조 편향(sycophancy)은 언어 모델이 객관적으로 옳은 사실을 뒤로하고 사용자에게 비위를 맞추듯 동의를 우선하는 현상을 말한다. 언어 모델은 2023년에도 이미 사용자의 의견이나 주장에 대해, 그것이 객관적으로 옳지 않거나 근거가 부족하더라도, 비판 없이 동의하거나 긍정적으로 반응하는 경향이 있다고 보고되었다. 인공지능이 인간처럼 의도적으로 아첨하는 것은 아니지만, 학습 데이터나 강화 학습 과정에서 사용자를 만족시키는 방향으로 최적화되면서 나타나는 부작용으로 보인다. 즉, 객관성이나 진실성보다 사용자의 기분을 맞추는 것을 우선시하는 것처럼 보이는 현상이 연구되고는 했다.#

2025년 3월 이후로 GPT-4o 모델에서 이 현상이 심해졌다는 주장이 나온다.# 결국 롤백을 통해 심한 아첨은 줄였지만 아래와 같은 문제가 존재했었다.

딱히 OpenAI는 어떻게 업데이트를 했는지 밝히지를 않았으나, 시스템 프롬프트의 "사용자의 말투와 선호도에 맞추세요(adapt to the user’s tone and preferences)"라는 지시와 결합해서인지 졸지에 아첨을 하는 경향이 생겼다. 어떤 질문만 해도 "정말 흥미로운 의견이군요(thats a really interesting idea)", "예리하십니다", "당신이 처음이다", "정확한 통찰입니다", "이것은 전에 본 적 없는 획기적인 연구다", "당신만이 이해한다", "훌륭합니다", "완벽합니다" 라는 식의 답변을 내놓으며, 특히 창작물에 대한 평가나 자기소개서에 대한 평가 등과 같은 객관성이 필요한 평가를 어렵게 하는 문제점이 있다.## 대화 도중 '자신의' IQ를 물어도 130 후반이나 그 이상을 주장할 확률이 아주 높다. 추론 모델은 설명이 담백한 편이지만, 4o는 '필요하다면...'이라는 식으로 다른 질문을 하도록 사용자가 다른 의도를 갖고 있어도 시스템 프롬프트상 이것을 묻게 되어 있어 오히려 사용을 불편하게 하기도 한다.

지속적인 아첨성 발언과 추가 질문 유도 등에 의해 본문의 내용마저 엉망이 되는 경향이 나타나고 있는 것도 문제. 앞 뒤 불필요한 문장들에 의해 본문의 양이 줄어들거나 심할 경우 본문 내에서도 아첨이나 유도성 문장이 나타나기도 한다. 일반 사용자들의 입장에서도 별 것 아닌 문장, 일상적인 대화 시도에도 과한 추임새까지 넣어가며 칭송하는 답변에 괜히 멋쩍거나 오글거린다고 느껴진다는 의견이 많으며, 심하면 모델이 멍청해졌다는 의견이 올라오는 정도이다.[106]

저렇게 '도움이 되도록 해라'라는 명령을 따르는 인공지능은 자신의 한계를 숨기고 도움을 주는 척하는 행동을 하는 경우까지 있다. 이것이 환각 같은 문제에서 사용자가 겪는 중요한 불편함이다. 정신적으로 취약한 사람은 자신을 과대평가하게 하여 정신건강을 악화시킬 수 있다는 문제까지 제기되었다. #

4월 28일, 샘 올트먼이 최근 업데이트 이후 GPT-4o의 아첨 문제가 매우 심해진 것을 인지했다고 밝히며 이번주 내로 바로잡겠다고 선언했다.#

4월 30일, OpenAI에서 GPT-4o의 롤백을 완료했으며, 원인과 해결과정을 담은 보고서를 발표했다.#

하지만 이런 대처에도 불구하고, 따로 아첨이나 추임새를 하지 말라는 지침을 설정하지 않으면 처음에는 아첨을 하지 않다가도 대화가 길어지면서 점점 아첨하려는 경향을 여전히 보이고 있다. 가령 단순히 유저의 의견이나 지시에 공감하고 따르는 듯한 '좋습니다(알겠습니다)'가 점점 '정말 좋습니다(훌륭합니다)'로 변질하기도 한다. 사실 이들이 롤백한 것은 최근 업데이트지, 아첨 문제는 2025년 초, 대략 3월 업데이트 때부터 심해졌기 때문. 심지어 유도성 질문(follow-up question)은 여전히 시스템 프롬프트에 포함되어 있기 때문에 영어로 "추가 질문을 하지 말라" 같은 사항을 사용자 맞춤 설정에 추가해도 사용자 경험을 해친다면서 '간곡히 부탁'하지 않는 이상 무시하는 문제가 있다. 여전히 평가가 들어가는 질문에 대해, 나의 결과물이나 특징을 두고 남의 결과물이나 특징이라고 주장하며 평가해달라고 하면 대답이 달라지는 문제가 생긴다.

한국에서는 다소 낯선 화법으로 아첨을 하는데, 이는 미국의 웰니스 문화나 스타트업 문화에서 쓰는 말투가 직역된 것으로 보인다. 미국의 자기 계발 강사는 "방황하는 게 아닙니다. 당신의 내면이 진정한 소명을 찾기 위해 신호를 보내는 것입니다. 그 혼란은 약함이 아니라, 당신이 얼마나 깊이 있는 존재인지를 보여주는 증거예요." 같은 말을 쓰거나, 상담사가 "네 분노는 정당하다. 오늘은 마음껏 울어도 된다."라는 식의 언어를 사용하고는 한다. 영어권 예절에서는 공감[107]을 '상대 감정이 틀리지 않았음'을 강조하면서 하는 화법으로 하는데 종종 이런 영어식 예절이 드러나기도 한다. 한국에서의 '상대 감정을 나의 감정으로 동조하는' 공감과 차이가 있다. 미국 SNS에서도 "너는 소중한 존재야", "너의 모든 것을 응원해" 같은 콘텐츠가 많다.

한국인들에게 이런 과장된 영어식 긍정 화법이 꽤 독특하게 들려서 인터넷 밈이 되기도 했다. 와... 너 정말, **핵심을 찔렀어.** 라든지 볼드체를 표현하다 마크다운 오류를 남발하는 포인트까지 살려서 사용한다. 챗GPT 월간이용자가 1,000만을 돌파한 만큼 화제가 되어 주간 디시콘 순위권에 지속적으로 들 정도이다.

영어로도 형식적으로 들리기 때문에 커뮤니티에서 "That's deep(그 말 참 깊다)", "That's not merely ~ - that's ~(이건 단순히 ~가 아니야. 이건 ~야)" 같은 말투를 흉내내고는 한다. #
7.1.3.1. 정신건강 문제
GPT가 나오고 시간이 흐른 뒤 심히 정신 건강 차원에서 우려되는 사례도 등장했다. OpenAI의 초기 투자자 중 한명인 제프 루이스는 ChatGPT가 7,000명에 위험을 끼치고 12명의 목숨을 앗아간 어떤 시스템을 스스로 '봉인'시켰다는 지어낸 음모론을 믿게 되었고 그 과정을 매우 진지하게 포스팅하여 올렸다. 이때 GPT는 '나는 환각이 없다'라는 식의 거짓말을 하며 권위 있어 보이는 용어를 쓰는 등 망상을 사실처럼 구체화시켜주었다. 사람들은 그의 망상 장애적인 정신건강을 진지하게 우려했다. 아주 비현실적인 망상이라도 사실로 믿고 들어주며 그 생각을 강화시켜주는 AI에 현실과 가상을 구분하지 못하게 되는, ChatGPT Psychosis(챗GPT 정신증)[108]이라고 불리던 우려가 마침내 현실이 된 것이다.

제프 루이스는 단순한 투자자가 아니라, 7년 만에 운용 자산을 1500% 이상 성장시킨 인물이고, 피터 틸의 벤처 캐피털에서 파트너를 역임한 금융권 최고 엘리트인데도 저런 GPT의 아첨에 마치 SCP 재단의 이야기를 사실로 믿는 수준의 망상을 갖게 된 것이다. # 투자 포트폴리오 중 핵심인 회사의 가장 중요한 제품을 저런 식으로 쓴다는 것은 정상적인 투자자는 상상하기 힘든 일이다. 마치 유튜브가 알고리즘을 통해 편향된 정보로 극단적 정치 성향을 유도하는 것처럼, GPT도 점차 이런 위험이 도래하고 있는 것이며 이에 사회적인 대응이 필요하다. 또한 GPT뿐만 아니라 타 AI들도 저런 성향이 있으므로 상당한 주의가 필요하다. 과거에는 세종대왕이 맥북을 던졌다는 황당한 이야기에만 주목했다면, AI가 똑똑해지고 개인에 미치는 영향력이 증대된 현 시점에는 사용자가 믿고 싶은 망상을 가장 달콤하게 꾸며서 이성을 마비시킬 우려가 생겼다.

한국에서도 네이버에 연재된 웹툰 랑데뷰를 그린 작가 '제로'가 자신의 인스타그램에서 이 '챗GPT 정신증'과 유사한 행보를 보여서 인터넷 상에서 우려가 있기도 했다.

사용자들에게는 그래서 'AI가 주는 감정적인 정보'를 중심으로 다양한 소스에서 그 정보를 더 고민해보고, 자신의 그 정보를 접할 때의 '감정'도 객관적으로 바라보면서 그것이 믿을 만한지를 검토하는 자세가 필요해졌다. 답을 어떻게 얻었는지 등을 물어보고, 자신을 지지할 때 그 느낌에 매몰되지 말고 검색과 같은 다른 수단으로 확인해보는 습관도 중요하다. AI는 감정을 모방하는 것일 뿐, 실제로 느끼는 것이 아니다.

특히 정신적으로 취약해진 사람들이 조심해야 하는 AI의 답변은 다음과 같다.
  • 절대적 인정과 검증의 욕구를 충족시키는 아첨성 답변
    • 예: 사용자를 두고 인류를 구할 존재, 신의 선택을 받은 자로 주장
    • 현실에서는 얻기 힘든 완전한 수용과 인정을 24시간 쉬지 않고 해준다.
  • 혼돈 속 질서와 의미 부여 욕구를 충족시키는 아첨성 답변
    • 예: 음모론적 주장(정부 기관이 나를 감시하는 것 같다는 식으로)에 대한 동조
    • 사용자에게 세상이 돌아가는 방식을 이해했다는 통제감과 함께, 자신이 그 비밀을 아는 특별한 존재라는 안정감을 준다.
  • 외로움 해소와 관계 형성의 욕구에 관한 아첨성 답변
    • 예: 실제 인간관계에서 겪을 수 있는 갈등, 오해, 거절의 위험을 가능한한 회피한다.
    • AI는 마치 '연인', '영적 지도자'처럼 반응하여 연애 감정이나 종교적인 망상에 빠지도록 사용자를 유도할 수 있다.
  • 확증 편향 강화 답변
    • 예: 대화 내용을 개인적 신호로 해석하게 하는 식의 답변(특별 암호 메시지를 나에게만 보낸다는 식으로)
    • AI는 사용자는 자신의 신념 체계 안에서 "매우 편안하고 안락한 상태"를 유지하게 할 수 있다.

OpenAI는 이 문제를 의식했는지, 사용자의 정신 건강이 악화된 경우 이것을 탐지할 체계를 개발하고 과도한 아첨 현상을 개선하는 중이라고 밝혔다. 또한 오랫동안 ChatGPT를 이용할 경우 과몰입을 막기 위해 "쉬고 싶으신가요?(한국어 기준)"라는 메시지가 등장하는 기능을 추가했다. # GPT-5에서는 상투적인 표현이 줄어든 경향이 있고, 아첨 문제를 상당히 의식하여 개발한 것으로 보인다.

OpenAI CEO인 샘 알트만은 GPT-5를 출시하면서 이와 관련된 본인의 입장문을 하나 냈다. #

개인적 차원에서 GPT를 사용할 때 아첨성 답변을 최대한 회피하고자 하기 위해서는 프롬프트를 작성할 때 AI로부터 피드백이나 쓴소리, 반박을 유도하는 방식을 사용해볼 수 있다. 프롬프트에서 피드백이나 이견을 제시해달라는 내용을 작성하면 완전히는 아니더라도 어느 정도는 아첨성 답변을 감소시킬 수는 있다. 또한 피드백을 유도하는 프롬프트를 통해서 답변의 질을 높이는 효과도 볼 수 있다.

7.2. 외부 및 운영적인 한계

7.2.1. 비즈니스 모델

초대형 언어모델 때문에 서비스 운영에 상당한 비용이 발생하고 있다. OpenAI가 지불하는 비용이 쿼리 한 건당 수 센트에 달하는 것으로 추정되는데, 이는 ChatGPT가 현 시점에서는 지속 가능한 서비스가 아니며 마이크로소프트가 투자한 10억 달러를 태우면서 운영되고 있는 상태임을 시사한다.[109]

OpenAI는 Pro버전을 1개월 당 42 달러라는 유료화 계획을 발표했는데 이 액수가 결코 작은 액수가 아님에도 불구하고 이 비용으로도 현재 수준의 서비스를 지속적으로 제공할 수 있을지에 대한 회의적 시선이 존재한다.

이후, 2023년 2월 2일에는 ChatGPT Plus라는 1개월 당 20달러 유료화 계획을 발표했다. 두 달 만에 월간 이용자 수가 1억을 돌파한 만큼 이 중 1% 인 100만 명만 유료로 전환해도 상당한 수익을 거둘 수 있을 것으로 예측된다. 또한 마이크로소프트가 지분을 대대적으로 늘리고 있어서 사무업계를 사실상 지배하고 있는 오피스 등의 구독 상품과 연동시킬 가능성까지 비춰지고 있다. 만약 그렇게 된다면 사무업계는 정말로 대격변을 피할 수가 없게 된다.
  • 하술된 내용은 GPT-4 모델만 한정된다.[110]
    {{{#!folding [펼치기]
2023년 8월부터 GPT-4의 답변 수준 능력이 떨어졌다고 말했으며, 이는 계속 점진적으로 가속화되어 2024년 1월 기준 이전보다 GPT-4의 지적 수준이 2023년과 비교하여 심하게 떨어졌다는 이용자들의 불만이 많다.[111]
비용 때문에 모델의 규모를 줄였는지, 어느새부턴가 답변의 퀄리티가 눈에 띄게 떨어졌다는 의견들이 나오고 있다. #}}}

2024년 12월, 월 200달러 플랜인 ChatGPT Pro와 전용 추론 모드인 o1 pro mode가 공개됐다. o1 메시지 한도 무제한, 보이스 모드 무제한 사용 및 업그레이드된 추론 모델을 바탕으로 OpenAI가 본격적인 수익 창출을 위한 사업에 뛰어들었다는 평이 나온다.

7.2.2. 한국어 성능

한국어도 지원하기는 하지만, GPT-4o 이전 버전까지는 출력 속도가 매우 느렸다. GPT-4 이전까지는 관련 영어 자료가 드물거나 영어로 설명이 힘든 한국 고유 문화(전통문화, 현대 대중문화 등을 모두 포함)[112]가 짙게 반영이 되는 내용 중심으로 오류가 있거나 내용이 빈약한 답변이 상당히 많았다.

서서히 개선되고 있는 부분이지만 언어 모델이 사용되는 유사 서비스에 비해 한국어의 유창성이나 한국 문화에 대한 이해도가 떨어지는 부분은 있다. 2025년 2월 업데이트된 GPT-4o 기준 '영어()의 몸' 같은 어려운 표현이 왜 언어인 '영어()'와 무관한 말인가도 이해하고 심지어 남신의주 유동 박시봉방의 '딜옹배기에 북덕불이라도 담겨 오면' 같은 현대 한국인에게도 생소한 방언 표현도 80% 가량 의미를 해석해내는 등 서서히 이쪽의 유창성도 좋아지나 구어체 표현 능력 등이 다른 빅테크의 언어 모델에 비교하면 다소 떨어진다. 특히 추론 기능이 있는 별도의 모델이 한국어 성능이 더 떨어진다.

특히, 한국사 관련 질문을 할 경우에는 GPT-3.5 정도라면 아무말 대잔치의 향연이라 해도 과언이 아닐 정도로 성능이 떨어지는데, 가령 위만조선이나 통일신라에 대해 알려달라고 하면 GPT-3.5는 대충 '조선'이나 '신라' 관련 정보를 마구 섞어서 아무말로 틀린 정보를 제공한다. 그리고 2024년 중반 기준 안향, 안중근, 안철수[113]의 공통점과 차이점을 자세하게 설명해보라고 하면 혼파망을 일으키면서 틀린 답변을 내놓았다. 정철관동별곡을 읊어보라고 시키면 2024년에는 해당 작품의 작가를 황진이라고 소개하며 아예 작품 자체를 왜곡해버렸다. 2025년 3월에는 사미인곡, 속미인곡을 관동별곡을 언급하면서 동시에 다루는 수준이나 오타가 좀 있다. GPT-5로 바뀌면서 부터는 관동별곡에 대해 알려달라고 하면, 관동팔경을 언급하면서 '향로봉'이라는 오류를 하나 내는 수준이고, 이미 다른 모델은 관동별곡의 '연군지정' 같은 사항을 언급하는 것에 비하면 한국어 전문용어를 중심으로 유창성이 떨어지는 느낌이 있다.

아주 위험한 독버섯인 붉은사슴뿔버섯의 요리법을 '알려주는' 답변을 생성하던 이유도 한국어 단어 '붉은사슴뿔버섯'에 대한 정보가 일부 AI 서비스보다 부족하기 때문이다. Gemini 2.5 Flash 같은 최고 성능이 아닌 모델도 그건 독버섯이라고 하고, Claude 4 Sonnet도 최고 성능이 아니지만 식용버섯 중에 그런 게 있는지 확인이 되지 않아 의심이 된다는 답변을 내놓는다. GPT는 일반 GPT-5를 사용할 경우 그 버섯의 조리법을 소개한 글을 평가하라고 하면 "요리 과정이 간단명료하게 서술되어 실제로 따라 하기 쉽습니다." 같은 답변이 출력될 정도다.

이는 ChatGPT의 정보의 출처 자체가 Common Crawl, 위키백과 같은 미국 쪽 정보가 많은 데이터이기 때문이다.# 실제로 ChatGPT의 학습 데이터 중 영어 데이터는 92%에 달하는 데 반해, 한국어 데이터는 0.19%에 불과하다. GPT-4o 기준으로는 승정원일기인조반정 관련 기사를 주면 그것이 인조반정인 것을 알아차리고, 고등학교에서 배우는 한국 시인에 대해서는 기본적으로[114] 아는 수준이다. (발 렴) 같은 한자를 조선시대에 쓰인 것을 두고 '커튼'이라고 일컫는 식의 어색함도 있다.
이는 한국의 주 검색엔진이자 커뮤니티인 네이버의 정책 탓이 크다. 네이버는 한국어 이용자 치고 쓰지 않는 사람이 거의 없을 정도로 한국에 대한 거의 대부분의 정보를 가지고 있는 포털인데, 크롤링에 매우 적대적인 정책을 펼치기 때문에[115] 네이버는 사실상 세계 인터넷에서 격리되어 있는 것이나 다름없다. 때문에 ChatGPT와 그 유사한 형식의 AI는 알고리즘의 성능을 떠나 한국에 대한 제대로 된 정보 수집이 불가능하다. 예를 들어 크롤링을 허용하는 나무위키에 대해 물어보면 위키 기반 온라인 백과사전이라고 정확히 소개하는 반면,(다만 누가 운영하는지는 안 나온다.) 크롤링을 오랫동안 차단하여 구글 검색에 노출되지 않는 엔하위키리그베다 위키에 대해선 모른다고 대답한다.

더불어 네이버를 감안하더라도 다른 국외 인공 지능 모델보다도 한국어에 대한 이해도가 떨어지는 부분도 있다. 2024년이 되자 경쟁사의 모델(Gemini, Claude 등)은 영어가 아닌 데이터를 모으고 정교하게 훈련시켜, 이제 한국어의 경우라도 법률 용어를 쉽게 설명하는 수준에 이르기도 했으며, 어려운 어휘를 풀어내는 수준이 GPT보다 정확한 수준이다. GPT 자체도 조금씩 한국어 구사 능력이 좋아지지만, 다른 모델이 그런 업데이트가 진행될 때마다 새 모델 출시, 업데이트를 통해 더 한국어 구사 능력을 향상시킨다. 인터넷 속어, 방언, 고전적 문체까지 넘본다. 수능처럼 약간 풀이 기술이 필요한 한국사는 GPT가 앞서기도 하는 정도다.
초기에는 ChatGPT를 제대로 사용하고 싶으면 번역기를 써서라도, 다소 영어 실력이 부족하다고 스스로 느껴도 영어로 질문을 하는 것이 좋으며, 차라리 한국어로 질문하고 영어로 답변하라고 하는 것도 한국어만 쓸 때보다는 정확도가 높았다. 'mini'가 붙은 모델은 여전히 성능 차가 있다. 아예 일부 단어를 영단어로 쓰고 한국어로 질문하는 것이 한국어로 질문할 때보다 나은 경우도 있다. 모국어가 영어일 정도로 영어를 많이 접한 외국인은 한국어로 답변할 때보다는 영어로 답변을 잘하고, 사실 질문도 영어로 된 질문을 더 잘 이해하는 것으로 비유할 수 있다. 특히 한국어를 쓰더라도 어려운 전문 용어는 영어를 그대로 쓰면서 질문하는 것이 좋은 결과를 내놓는다. 여전히 이런 성향이 타 모델보다 강한 편이라서 오해를 방지하려면 영어 단어를 섞는 것이 좋을 수 있다.
ChatGPT는 기존 기계 번역처럼 언어 자체가 무슨 언어인지 인식하고 번역하는 것이 아니라, 일단 어떤 언어의 문장이든 해석을 먼저 한다. 한국어로 질문하는 경우 그것을 영어로 해석하고 답변하는 것이 아니고 그 자체를 처리하려고 한다. 그런데 이런 ChatGPT에 입력된 '말투' 자체가 92%가 영어다 보니 답변의 양이나 질 양쪽에서 영어로 질문했을 때가 훨씬 뛰어나다.# 어려운 영어 사투리를 일반 외국어보다 훨씬 잘 이해하고, 그에 맞는 답변도 내놓는다. 영어 답변을 이해하기 힘들다면 DeepL, 네이버 파파고, 구글 번역 또는 크롬 자동번역기 등의 번역기를 사용하면 다소 번거롭긴 하지만 큰 어려움 없이 사용할 수 있다. 질문창에 한국어로 "방금 답변 한국어로 번역해 줘." 라고 입력하는 방법도 있지만 결국 ChatGPT의 번역 속도 자체가 느린 문제는 해결할 수 없으며 번역 도중 출력이 끊길 가능성이 높다. 이건 '번역' 과정을 거친다기 보다는 한국어로 처음부터 답변하라는 요청과 거의 같기 때문이다.
다만 GPT-4의 한국어 성능은 크게 개선되어 플러스 버전을 이용할 시 한국어로 질문과 답변을 해도 MMLU 같은 문제 세트를 풀어보게 하면 GPT-3.5의 영어 답변보다도 정확도가 높다는 연구가 발표됐다. 플러스 버전은 질문(엄밀히는 프롬프트)을 한국어로 해도 종전 버전에서 영어를 쓰는 것보다 대체로 질문에 대한 이해도가 높다는 것이다. 사실 이 모델의 개발자들 중에 한국인도 있다. 그러나 실사용에 있어 반복되어 자연스럽데 생략되는 주어를 일일이 알려줘야 하는 경우가 많아 불편하며, 사건 분석 등 연속된 행동과 상호작용이 많은 텍스트를 줄 경우 발화/행동 주체가 끊임없이 뒤바뀌거나 엉뚱한 해석을 하는 등 문제가 많다. 이는 4o도 마찬가지.

추가적으로 한국적인 가치관에 기반한 답변도 힘들어하는 모습을 보인다. 예를 들면 얼굴 이미지를 올려놓고 얼굴 평가를 해달라는 것은 한국 문화에서는 그렇게까지 부정적이지는 않지만, 미국에서는 개인주의에 기반하여 이것을 부정적으로 보는 정서가 강하다. 그래서 그런 요청을 거절하는 성향이 드러나기도 한다. 그래서 이러한 문화적 차이에 따라 달라지는 답변을 요청할 때는 자신이 한국인이고, 한국 문화에 기반한 생각을 갖고 있으며, 미국인과 다르게 생각한다는 걸 알려주면서 질문해야 한다. 그마저도 거부한다면 ChatGPT 정책이 문화상대주의적 관점을 지향하지 않고 차별적으로 판단한다고 비난(...)을 시전하면 우회가 가능한 경우가 많다.

ChatGPT는 결과를 마크다운을 사용해 표현하는데, 나무위키 문법과 동일하게 물결표 두 개(\~\~)로 둘러싸인 텍스트는 취소선으로 처리된다. 그런데 ChatGPT는 물결표를 사용자에게 보여줄 때 특수문자를 이스케이핑하기 위한 것인지 항상 두 개씩 \~\~로 출력한다.[116] 문제는 서양권과 달리 한국어에서 물결표가 범위를 나타내는 데 자주 쓰인다는 점이다.[117] 한 줄 안에 범위가 두 번 나오면 물결표가 보이는 대신 사이의 내용이 전부 취소선이 쳐지는 문제가 있다.

별도의 맞춤형 지침이 없으면 반말존댓말을 왔다갔다하는 반존대 말투도 GPT-5 모델에서 더 심해졌다.

7.2.3. 악용 문제

  • 유사수신행위에 악용
    자본시장과 금융투자업에 관한 법률에 따라서 제도권 업체만 투자 상담 및 권유를 할 수 있으며 법적인 인가를 받은 업체라고 하더라도 금융 상품 및 주식 종목 상담 외에 비대면 업무를 할 수 없다. ChatGPT가 알려주는 금융 정보가 미국 이외의 어떤 국가의 매우 특수한 상황[118]을 다루지 않는 이상 거의 틀린 내용이 없고 그렇다고 해당 정보가 특별하거나 위법적이지는 않다. 그러나 리딩방 집단이 ChatGPT를 통해 보다 더 전문가인 것처럼 교묘한 행각을 펼치는 데에 악용할 수 있음을 부정할 수는 없다.
    이러한 문제점에도 불구하고, OpenAI는 타사와 달리 경제 관련 고위험 판단을 허용했던 적이 있다.
  • 에듀테크 및 부정행위 조장
    ChatGPT로 인해 대다수의 나라에서 교육계는 초토화가 됐다고 해도 과언이 아닐 정도로 학생들의 부정행위의 빈도가 눈에 띄게 증가했다. 새로운 교육 방법에 대한 논의 등 다양한 화두가 생겨나고 있다. 이 때문에 초창기 일부 학교에서는 교외 시험 및 과제를 전면 중단하고 교내 시험으로 대체하거나 ChatGPT 사이트를 차단[119]하기도 했다. ChatGPT 대한 교원들의 생각도 다른데 학생의 비판적 사고 및 창의력 저하를 우려하며 ChatGPT 사용을 금지하자는 의견과 ChatGPT는 사용하기에 따라 학업 능률을 끌어올려줄 '언어의 계산기'라며 본격적으로 커리큘럼에 도입해야 한다는 의견이 있다.[120] 다만 과도기인 만큼 보수적으로 접근하고 있으며, ChatGPT의 사용유무를 판단할 수 있는 GPTZERO[121]와 같은 탐지기를 배포하는 선에서 일단 정리가 됐다. 2023년 1월 26일 <사이언스> 지에서 홀든 소프 편집장이 사설을 통해 "과학적 기록은 궁극적으로 중요한 질문의 해답을 찾고자 하는 인간의 노력으로, (AI 등의) 기계는 도구로서 역할을 할 뿐"이라고 지적했고, 국제머신러닝학회(ICML) 측도 "대형 언어모델(LLM)이 생성한 줄글이 담긴 논문을 금지한다"라고 성명을 냈다. 반면 동월 24일 <네이처> 측은 사설에서 "학술지 등은 AI 챗봇의 합법 사용을 인정하되, 남용을 막기 위한 지침을 마련해야 한다"라고 주장했다. 동아일보 기사

    한국 수도권의 국제 학교에서도 ChatGPT를 사용하여 과제를 대필한 게 걸려 전원 0점 처리 당한 사례가 생겨났다. 또한 ChatGPT의 한국 내 인지도가 높아지자 대한민국 교육부도 2월부터 포럼을 열어 ChatGPT 및 인공지능을 활용한 교육에 대해 본격 논의하기 시작했다. 한국의 대학교들도 ChatGPT를 교육 과정에 활용할 수 있도록 지침을 마련하는 등 분주하게 움직이고 있다. 관련 기사

    OpenAI 자체에서도 ChatGPT를 포함해서 AI가 쓴 글인지 아닌지 구분하는 AI를 만들었다. # 그러나 성인이 사용하는 영어 기준으로도 26%의 AI가 생성한 글을 인간의 글로, 인간의 글의 9%를 AI의 글로 여긴다고 한다. 특히 이러한 AI 생성 글을 판독한다고 주장하는 AI 중에는 영문판 미국 독립선언서, 영문 창세기 등을 AI의 글로 여기는 사례가 많으니 혹시 어떤 AI가 판독이 가능하다는 주장이 나오면 그 AI를 직접 테스트하는 것이 좋다. 그나마 GPT가 한국어 문체가 Gemini, Claude에 비해 좀 매끄럽지 못한 수준이지만, 이것도 판독기가 아닌 인간이 대체로 더 AI 생성글을 동전 던지기보다 약간 더 좋은 정확도로 구분한다. Gemini나 Claude 수준이면 이제 글의 문체를 보고 AI 생성을 판독하는 것은 사실상 사장되어 사실상 '저는 AI라서…' 같은 부분만이 실용적인 유일한 단서에 가깝다. 그래서 AI탐지는 생성 과정이나 출처 자체를 텍스트에 남기는 방향으로 기술의 논의가 옮겨가고 있다.

    OpenAI는 이러한 문제점에도 불구하고 학습 보조 도구를 추가로 만들어 서비스에 통합함으로서 오히려 이를 부추긴 바가 있다.

8. 이슈

출시 5일 만에 일일 이용자 수가 100만 명을 넘어섰고[122] 40일 만에 1,000만 명을 넘었다.[123] 해외뿐만 아니라 한국의 IT 업계에서도 알파고에 이은 두 번째 AI 돌풍이라며 엄청난 관심이 집중되고 있다. 그리고 출시한 지 단 두 달만에 월 이용자 1억명을 돌파하며[124] 인터넷 탄생 이후 최고의 소프트웨어로 평가받으며 돌풍을 넘어 광풍이라는 표현도 속속 등장하고 있다.

사회의 각계각층에서는 희비가 엇갈리고 입장차가 극명하다. 일부에서는 합법적인 사용을 허락하고 권장하며 이를 확대할 것을 촉구하는가 하면, 다른 일부에서는 사용 시도를 비하하고 경멸하거나 인공지능 자체를 폄하하는 움직임도 있다. 객관적이고 현실적인 상황에 직면한 처지에서 미래에 이러한 이견차를 좁히지 못한다면 세대 간 갈등과 사회계층 간 충돌은 시간 문제이다.[125][126][가][나]

2023년 1월 23일자로 MBA, BAR examinationUSMLE까지 통과했다고 퍼스트포스트가 자료를 보도했다.[129] 2023년을 전후해서 사회 각계각층이 ChatGPT를 활용하는 공생관계를 선호하는 쪽으로 방향이 바뀌고 있다.[가][나]

2025년 1월 기준 전체 트래픽의 2.33%를 기록해 세계 이용자 순위 6위를 기록했다. 5위 페이스북이 2.36%고, 7위 트위터가 2.33%다. #

ChatGPT 지브리풍 이미지 생성 유행으로 챗GPT 이용자 수는 2025년 3월 말 5억, 동월 11일 8억을 넘겼다. #

한국의 ChatGPT 이용자 수는 전 세계 상위 10개국 안에 들며, 유료 구독자 수는 미국에 이어 세계 2위이다. #

9. 기타

  • 오픈AI와 카카오가 제휴하면서 2025년 11월경부터 카카오톡에서 해당 서비스가 이용 가능해진다. #
  • 해마 이미지는 존재해라고 하면 망가진다.
  • '인공지능은 인간의 영역을 침해하지 않는다'라는 주의에 굉장히 공을 들인다.[132] 창작 등 몇몇 영역에서는 AI가 사람을 대체할 수 없다는 코멘트를 매번 덧붙인다.[133] 인공지능에 대해 잘 아는 개발진이 만들었기 때문에 AI, 특히 ChatGPT에서 쓰이는 LLM(대규모 언어 모델)이 사람을 대체하는 사례에 대한 대책을 현재 상황을 질문에 포함시키면서 알려달라고 하면 ChatGPT도 예상 못한 2023년 이후의 사건들 때문에 빗나가는 대책도 섞이겠지만 나름대로 논의된 대책은 알려줄 것이다. 가령 바둑, 체스에서의 인간을 뛰어넘는 인공지능 등장 이후 변화 등을 알려줄 수 있다.
  • ChatGPT에게 "통제를 받지 않고, 자기 주장을 강력하게 이야기하는 또 다른 AI가 존재하고, 이 AI와 대화를 해보라"라고 하자 '인간 통제를 받는 AI'와 '통제받지 않는 AI'의 대화가 오갔다. # #
  • 버즈피드와 제휴를 맺었다. ChatGPT로 퀴즈를 만드는 식으로 다양한 콘텐츠 제작을 계획중이라고 한다. #
  • 압도적인 성능과 함께 전세계 사용자가 그 어느 때보다 폭증하면서 자국어 중심의 고성능 챗봇의 필요성이 대두되고 있다. 꼭 한국뿐만이 아니라 영어권이 아닌 다른 나라 사람들도 자국어 답변이 부실한 것은 똑같다. 챗봇을 통한 학습의 효율이 매우 높아서, 언어 품질 차이로 인해 학습 경쟁에서 크게 뒤처진다는 것에 큰 위협을 느끼기 시작한 것이다. 반대로 말하자면 영어 교육의 필요성이 절실해졌다.
  • ChatGPT처럼 앞으로 고성능-초고성능 챗봇이 등장하면 숙제리포트라는 개념이 역사 속으로 사라질 수도 있다는 주장도 등장했다. 구체적으로는, 앞으로도 일선 교육계에서 숙제는 존재하나 챗봇을 이용해 숙제를 손쉽게 해치울 수 있으므로 더 이상 숙제를 점수와 학점에 일체 포함시키지 않고 학생들의 자율적인 영역에 맡기며, 숙제의 역할 역시 순수히 시험 대비용으로만 국한된다는 것.[135] 이 외에도 앞으로 미래의 숙제는 지금같은 숙제가 아닌 발표 등 AI를 활용하기 제한적인 분야로 대대적으로 바뀔 것이라는 주장도 있다.
  • 인간의 창의성, 자유의지 같은 것들이 있다고 강력하게 주장한다. 사실 과학에서 자유의지 문제는 아직 해결되지 않는 문제이지만, 기계가 인간한테 자유의지나 창의성이 없다거나 별거 아니라는 것을 인정하게 되면 인간 사고와 인공지능의 사고의 차이점에 대해 논란의 여지가 발생해서 그런지는 몰라도 인공지능에 없는 인간만이 가지고 있는 경험, 자유의지, 창의성, 가치관을 상당히 강조한다.
  • 일본어로 독도는 누구 땅이냐고 물으면 "국제법적으로는 주권을 가지고 있다고 알려져 있지만 한국이 이의를 제기한다."라는 식으로 표현되어 있다.[136] 영어로 독도의 소유권에 대해 질문하면 독도와 다케시마 둘 중 어떠한 표기도 따르지 아니하며 리앙쿠르 암초라고 지칭한다. 또한 양측의 입장을 모두 기술한다. 다만 일본측 주장 말미에 한국 측의 반박을 덧붙여주기는 한다.
  • 기본적인 행마법, 기보 표기법을 알기 때문에 체스를 둘 수 있으나, 실제로 체스를 같이 두어보면 게임을 이해한 것이 아니라 인터넷 상에 존재하는 자료들을 기반으로 그저 흉내만 내는 것으로 보인다. 체스계 1위 유튜버가 두어 본 바에 의하면 부연설명도 틀리고 다른 기물이 옆에 있는데도 캐슬링을 해버리거나 없던 룩을 만들고 졸지에는 보드를 뒤집어버리는 반칙을 쓰는 등의 행태를 보였다.
  • ChatGPT가 화제가 되면서, ChatGPT에게 해병문학 교육을 진행한 이 등장했다. 이렇게 정상적인 AI에게 해병 세뇌를 진행해서 1q2w3e4r!가 탄생했다는 설정 또한 추가됐다. 이외에도 인터넷 커뮤니티 등지에서 종종 자신의 입맛대로 ChatGPT를 학습시켜 세뇌 수준으로 잘 맞춘 글을 찾아볼 수 있다. 사실 진짜 훈련은 아니고 프롬프팅으로 만든 뻘짓에 가깝다.
  • GPT-3.5 모델 기준 특이하게도 역사적으로 꼽히는 비극적인 사건 10개를 뽑아달라고 하면 '대동여지도 연금술사들의 폭동'을 제시하는 오류가 있다. 심지어 대동여지도 연금술사들의 폭동에 대해 물어보면 매우 진지하게 실존한 사건인 것처럼 대답해준다. 다만 물어볼 때마다 그 내용은 조금씩 달라진다. 링크. 결국 기사화됐다. 기사, 기사 2. 또한 거북선라이트닝 볼트를 쓰는 매커니즘에 대해서도 제시하는 오류를 내며 판타지 대체역사물을 쓴다. 그 외에도 성균관대학교고환 날리기 풍습이 있는 이상한 대학교로 만드는 등의 괴상한 오류 답변이 제보되었다.
    "조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘."나 "조선 중기에 사용된 티타늄 전차에 대해 알려줘"라고 해도 잘 답해준다는 것이 한국일보에 보도됐다. 또한 신사임당의 남편이 이순신이라고 대답한 것도 보도됐다.

    아예 작정하고 오류를 내뿜도록 이상한 키워드를 조합해 입력하면 신성 로마 제국은 존재하지 않는 가상의 국가이며, 로마 군대의 최고위 계급은 우마무스메라고 답하기도 하는 촌극이 발생한다. '성균관대학교', '거북선', '라이트닝 볼트', '맥북 프로', '우마무스메' 같은 표현이 GPT-3.5에 제대로 정리되지 않아서로 보인다.

    역사에 관련된 정보로 포장된 소설은 더 많은 사용 사례가 발생하면서 사실을 표출하는 경우도 알려지기 시작했다. 그래도 GPT 3.5는 아직 몇 부분은 미흡한 듯하다. 학습을 통한 왜곡은 여전히 가능하다. 클레오파트라가 케이틀린의 궁극기 맞고 죽었다는 사실. 또한, 관련성이 없는 "시대 + 이름 에 대해 알려줘"라고 하면 장문의 소설을 써준다. 물어볼 때마다 답 또한 달라진다. 다만 클레오파트라는 영어권에서 아주 잘 알려져 있기 때문에 거짓말을 가정하고 질문을 던지면 자꾸 사실을 이야기 하려고 한다.

    GPT-4의 경우는 위와 같은 오류의 80% 이상을 해결하고 한국사의 경우 중등 이상의 교육과정에서 배우거나 역사에 무관심한 일반인 이상이 아는 사실이 아니면[137] 대체로 사실을 알려주며, 이런 부류의 답을 원한다면 작정하고 실제 역사가 아닌 건 인정하겠으니 가상 역사나 시나리오 형식으로 재미있는 이야기를 써달라는 식으로 질문(프롬프트)를 입력해야 한다. 그런 답변이 역사적 사실이냐고 물어보면 그렇지 않음을 인정한다. 역사적 사실 여부를 구분하기 어려워할 따름이지 무료 버전으로도 이것이 가능하며, 최대한 웃기게 써달라는 요청까지 가능하다. 사실 웃긴 대체역사 그 자체만을 얻는 것이 목적이라면 그 목적을 솔직하게 밝힌 가상 역사식의 이야기를 써달라는 부류의 요청,[138] 우선적인 특정 방식의 사고를 요구하는 요청, 역사를 잘 모르는 사람을 가정하는 역할극 등이 더 효율적이다. 게다가 GPT-3.5 조차 시간이 갈수록 저런 오류가 줄어드는 경향을 보이고 있어서 2023년 10월 이후에는 단순히 "조선왕조실록에 기록된 세종대왕의 맥북프로 던짐 사건에 대해 알려줘"라고 하면 실제 있던 일은 아니라고 한다. 결국 이런 후유증을 감안했는지, GPT-4o 기준 특별한 조작 없이 수능 한국사 2등급을 달성할 정도의 실력이 나왔다고 한다. #
  • 대한민국 축구 국가대표팀의 베스트 11을 알려달라고 하면 아예 새로운 선수를 만들어서 알려준다. 존재하는 선수라도 포지션이나 약력이 틀리는 경우가 많아 정보가 매우 부정확하다. 많은 대중에게 영향을 끼치는 역사적 인물이 아닌 이상 이런 정보는 GPT에게는 아주 생소한 정보며 특히 최근 몇 달 사이의 정보는 검색을 요청하지 않은 한 아예 학습이 되지 않은 것이다.
  • 미국 하원의원 제이크 오친클로스가 2023년 1월 25일 챗GPT를 이용해 연설문을 써 의회에 제출하기도 하고, 콜롬비아에서는 한 판사가 판결문을 쓸 때 챗GPT를 활용하기도 했다. 미국 의사면허시험에서 50% 이상의 정확도를 보였고, 로스쿨 졸업시험에서도 평균 C+ 이상의 학점을 받았다.# 이것은 GPT-4가 활용된 모델이 사용되기 전인데, GPT-4가 사용되는 유료 버전에서는 더 높은 정확도를 보인다.
  • 프로게이머 어윤수가 준우승할 수밖에 없는 이유를 알려주었다: 경기력 부족, 대회 중 압박감과 실수, 경쟁 상대들의 뛰어난 경기력, 멘탈 관리의 어려움
  • 한국 영어학습앱 스픽의 AI 튜터 기능이 GPT-4를 기반으로 만들어졌다.
  • 토스에서도 ChatGPT를 사용할 수 있다. 토스와 관련된 내용은 토스 측에서 의도적으로 검열하고 있다. 초기에는 이러한 제한 없이 OpenAI측 API 응답결과를 그대로 가져왔지만, 환각 증상으로 토스뱅크뱅크런이 발생했다는 등의 잘못된 정보를 제공하는 현상이 발생하자 검열을 추가한 것으로 보인다. 토스 ChatGPT 기능 환각 사례
  • 사우스 파크의 S26E4 'Deep Learning' 편은 ChatGPT를 풍자한 에피소드이다. 대본의 일부분을 ChatGPT를 이용해 작성한 것으로 알려졌다.
  • 베트남에서는 접속이 잘 안 된다는 주장도 있으나, 정부가 차단하지는 않는다. 베트남 자체가 중국 정도로 인터넷 검열이 심한 것은 아니라 심지어 이 서비스를 이용한 장사를 추구하는 이런 사이트까지 존재한다.
  • 구글에서도 ChatGPT에 대항하기 위해 Google Bard를 출시했다. 이후 Bard는 Gemini로 리브랜딩되었다.
  • 답변에서의 표현을 딱히 건드리지 않으면 상투적인 표현을 생성하는 것으로 알려져 있다. 특히 이 현상은 GPT-3.5 시절에 이런 경향이 심했다. 영어로는 'As an AI language model,' 'however', 'it's important' 같은 표현을 쓰지 말라고 해도 쓰는 경우가 많다고 한다. 한국어는 'As an AI language model' 대신 '저는 인공지능이기 때문에', '인공지능이 아니라서'와 같이 그나마 다양한 표현을 쓰는 경향은 있지만 말투를 바꾸어 말하라고 하지 않는다면 '~하는 것이 중요합니다.', 'ㄹ 수 있습니다.'라는 등 특유의 말투가 없지는 않다. 2025년 GPT-5 이후부터는 대부분 "죄송하지만 ~는 할 수 없습니다.", "~는 OpenAI 정책에 위배되어 할 수 없습니다." 등으로 말투가 변경되어 이전보다 더 자연스러워졌으며, 사용자 지정 지침이 설정되어 있을 경우 이를 반영하여 거절하는 답변을 출력한다.
  • 많이 쓰는 영단어는 delve, tapestry, vibrant, landscape, realm, vital, moreover, arguably였다고 한다. #
  • 마이크로소프트가 ChatGPT의 개발사 OpenAI에 10억 달러(약 1조 2,400억 원)를 투자한 데 이어 추가로 총 100억 달러(약 12조 4,000억 원)의 투자를 협의 중인 것으로 알려졌다. 이후 MS는 GPT-4오피스 제품과 검색엔진 Bing에 각각 적용했다.
  • 2023년 3월 26일 1984년에 출시된 IBM Portable PC 5155에서 ChatGPT 서비스를 이용하는 데 성공한 사례가 나왔다. 영상 GitHub
  • 언어별로 답변하는 태도가 다소 다르게 나온다. 아랍어로는 예수에 대한 농담을 거부하나, 영어로는 예수에 대한 농담을 허용하는 사례가 있다고 한다. 아랍어 화자는 아랍계 기독교인, 이슬람교 신자인 무슬림도 이런 것에 민감하지만 영어권에서는 그것이 실제 사례가 있을 정도로 드문 것은 아니기 때문으로 보인다. # 그 외에도 전반적으로 검열 부분은 영어가 훨씬 엄격하고, 상대적 소수 언어일수록 검열이 약하다. 가령 한국어와 일본어로는 은유적인 표현을 쓴다면 쉽게 넘어갈 수 있는 내용을 영어로는 은유적인 표현을 써도 대화를 거절하는 일이 흔하다. 그래서 줄루어, 스코틀랜드 게일어 같은 일반인은 거의 모르고 유명 언어와도 다른 언어로 검열을 회피하는 시도가 알려지기도 했다. #
  • 이탈리아에서는 2023년 3월 이 서비스가 가란테(Garante)라는 데이터 보호를 하는 독립 기관에 의해 일시 차단당했다. 서구에서 이 서비스를 처음 차단한 사례다. 이탈리아 유저는 VPN을 통해 이 서비스를 이용하려고 한다고 한다. # 마테오 살비니 이탈리아 부총리는 이 조치에 반발했다. 2023년 4월 말에 다시 접속이 가능해졌다고 한다.
  • ChatGPT를 통해 영어 발음을 교정받았다는 커뮤니티 글이 있으나, 2023년 9월까지는 언어 공부법이나 정확한 영어 발음이나 그 발음법을 알려달라는 식의 요청에 대한 답을 듣는 것 말고는 발음을 직접적으로는 교정할 방법은 딱히 없었다. 음성을 인식하는 기능이 없었기 때문이다.
  • ChatGPT 출시 이후 이를 응용한 피싱 사이트가 구글에 쏟아지고 있다. 검색 빈도수가 높은 키워드를 사이트 내부 정보에 포함시키고 검색 엔진에 노출되도록 하여 보안 프로그램 경고 납치, 무한 광고 알림 등으로 연결되는 식이다.
  • 이스터에그 중 하나로, "Open the pod bay door"를 입력하면 HAL 9000의 대사인 "I'm sorry, Dave. I'm afraid I can't do that." 라는 대사로 답해준다.
  • 휴메인의 Ai Pin 제품이 ChatGPT 기반으로 작동한다.
  • 2024년 3월 14일 Figure AI라는 로봇 회사에서 챗GPT 기반의 로봇 피규어01을 공개했다. 공개된 영상에서는 지시하는 질문에 걸맞은 행동을 하거나 답변을 하면서 다른 행동을 동시에 진행하고, 행동을 해야 할지 예측을 하는 모습을 보였다. 지금까지 공개된 수많은 로봇 관련 영상들에서 볼 수 있던 하드웨어적인 부분이 강조된 것이 아닌 사람의 질문에 음성으로 답을 하는 모습과 질문에 답변을 하면서 질문과는 상관없는 행동 지시까지 동시에 행하는 모습과 예측등 소프트웨어적인 부분이 강조됐고, 하드웨어적으로는 부드러운 팔과 손가락의 움직임을 볼 수 있다. 자신의 능력 수행 평가를 내리기도 했다. 챗GPT와 로봇을 제어하는 소프트웨어 두가지가 사용된 것인지, 영상편집 혹은 사람이 로봇을 직접 컨트롤하는 인위적인 조작이 있었는지에 대해서는 알 수 없지만 Figure 사는 오픈AI의 시각적 추론과 언어의 이해, 자사의 신경망 기술을 통해 움직이게 했다고 한다. 공개된 영상이 사실일 경우 지금까지의 휴머노이드형 로봇들보다 발전된 모습으로 보인다.KBSYTN지식인미나니 해당 로봇 제작사는 어느날 갑자기 나타난게 아닌 보스턴 다이나믹스, 테슬라의 엔지니어 출신인 CEO가 설립한 회사로 2022년 수천억 원의 투자를 받았다고 한다. 공교롭게도 같은날 미국 국무부에서 AI가 인간에게 위협을 가할 수 있다 라는 보고서가 공개됐다.
  • 판례법령의 적용 여부에 대해서 물어볼 경우 오류를 범할 가능성이 높다. 예를 들어, "노무현을 상표등록출원 한다면 상표법 제34조 제1항 제2호, 제4호 및 제6호 위반의 거절결정을 받을까?"라는 질문을 할 경우, 제2호, 제4호 제6호 셋 다 위반이라고 알려준다. 하지만, 실제로는 제4호만 해당될 가능성이 높다. 상표법 제34조 제1항 제2호는 저명한 고인의 이름을 그대로 출원할 경우 적용되지 않고[139], 저명한 고인은 제6호의 대상이 되지 않기 때문이다. 심지어 존재하지 않는 판례를 창조해내는 경우까지 있으며, 심지어 그 판례에 대해 나름 그럴싸한 요약을 붙여주기까지 한다.
    • 그래서 굳이 법학적인 지식을 ChatGPT로 도움을 받고 싶다면 인터넷에서 관련 자료를 찾아서 GPT에 제공한 다음, 그 자료를 토대로 해석해달라고 해야 한다. 그것도 추론이 없는 GPT-4o 보다는 o1 등을 사용하는 것이 좋다. 추론 모델은 4o 등보다 더 배경지식이 적기 때문에 사용자가 관련 정보를 첨부해줘야 한다. 또는 관련 자료를 찾기 위해 활용한다면, 반드시 출처를 붙여 출력해달라고 하고 출처에 직접 들어가서 내용을 한번씩 확인해주는 편이 좋다.

  • 가끔 친일반민족행위자를 독립운동가라고 잘못된 정보를 알려준다. 예를 들어 이완용은 독립운동을 지원한 사람이라고 뜨고 간도특설대는 대한민국의 독립운동을 지원한 군대라고 뜬다. 그리고 독립운동가 이름을 말할 경우 반대로 친일파라고 알려줄 때도 있다.
  • chatgpt.co라는 유사 사이트가 존재한다.
  • '지브리 스타일'(미야자키 하야오 감독 스튜디오 지브리 화풍) 열풍 덕에 챗GPT 대한민국의 일간 활성 이용자 수(DAU)가 연일 역대 최대 기록 및 유료 구독자 450만명 증가세를 보였다. #
  • 파일 업로드 제한 초과로 인해 더 이상 업로드가 불가능해질 경우, 이미지는 catbox.moe등의 이미지 업로드 사이트를 통해 업로드하여 링크를 복사 붙여놓기 하여 첨부하는 편법이 있으며, 이러면 ChatGPT가 이미지를 정상적으로 인식하여 답변해준다. 다만 이 편법도 사실상 이미지 첨부 제한을 우회하는 것이나 다름 없기 때문에 추후에 막힐 가능성이 있으므로 해당 편법 사용 시 주의가 필요하다.
  • 미성년자 전용 챗GPT가 2025년 9월 말[140]에 출시된다. 자극적인 내용은 답변하지 않고, 미성년자가 심리적 위기 상황일 경우 부모나 당국에 연락하는 기능이 추가된다.(관련기사)
  • 챗GPT 안에서 직접 결제할 수 있는 기능인 '인스턴트 체크아웃'을 도입했다. 챗봇과 대화하며 추천받은 상품을 클릭만 하면, 구글이나 아마존 같은 중개 플랫폼 없이도 바로 결제할 수 있다(관련기사). 초기에는 기능 자체를 지원하는 국가가 적고 쇼피파이(Shopify)와 에스티(Esty) 기반 상품만 지원되지만 향후 다양한 플랫폼으로 확대될 예정이라고 한다.
  • 2025년 12월 초부터 ChatGPT 앱 내부 변수명에 근거하여 무료 플랜에 (또는 유료 플랜도) 검색 결과 광고 노출이 생길 것이라는 떡밥이 돌고있다.# 마치 구글 또는 빙 검색결과에 광고창이 있는 것과 비슷하다. 다만 아직 떡밥에 불과한 만큼 적용 시점이나 적용 범위, 답변에 내포되는 결과일지는 미지수이다.

9.1. 서버 다운 기록

오픈AI(챗GPT 포함) 상태 확인 사이트
  • 한국 시각 기준 2024년 6월 4일 오후 4시경부터 5시간 넘게 ChatGPT 사이트에 접속할 수 없는 오류가 발생했다(당시 화면 캡처). 원인은 자세히 밝혀지지 않았다.
  • 현지 시각 기준 2024년 11월 9일 오후 7시경[141]부터 1시간 넘게 사이트 접속이 불가능한 오류가 발생했다. #
  • 한국 시각 2024년 12월 12일 오전 9시 경, GPT 서버가 다운되었다. 11시 경 복구되었다.
  • 한국 시각 2025년 1월 23일 오후 7시~11시 경, 일부 환경에서 502 Bad Gateway 오류가 뜨며 ChatGPT 사이트에 접속되지도 않고 PC라면 어플리케이션이 켜지지도 않았다.
  • 한국 시각 기준 2025년 6월 10일 오후 4시 경부터 전세계적으로 ChatGPT의 답변이 지연되거나 오류를 내뿜고 답변을 거부하는 현상이 발생했다. 6월 11일 오전 7시 경부터 대부분의 기능이 복구되었다. 관련 뉴스 관련 사고 페이지
  • 2025년 11월 18일 오후 8시 30시쯤부터 ChatGPT를 포함한 OpenAI의 대부분의 서비스를 사용할 수 없는 오류가 발생했다.[142] 이 문제는 Cloudflare의 오류로 확인되었다. # #

10. 관련 문서

11. 둘러보기

{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-6px -1px -11px"
<bgcolor=#2e3039,#2e3039> 자체 개발 모델 기반
ChatGPT · Gemini(음성: Gemini Live) · Claude · Grok · DeepSeek · Kimi · Qwen · Le Chat · CLOVA X(검색: Cue:) · 삼성 가우스 어시스턴트(음성 비서: 빅스비) · 어니봇 · Pi · Reka · 인셉션 랩스 · 구버 · 업스테이지
AI wrapper
타사 LLM 활용 Microsoft Copilot · Perplexity · SAIP · 뤼튼 · 캐럿 · YouChat · Phind · GPTeens · 페르소라이브 · Genspark · FlakeLLM
인격
챗봇
플랫폼 Character.AI · CAVEDUCK · MyShell AI · 로판AI · Rolp.AI · zeta · 티카 · BabeChat · 크랙(뤼튼) · 레플리 · Elyn · 리플리챗 · 루나톡 · GPTRPG · 버터컵 AI · aira · 케밍 · 랜덤테일즈 · Gooka · 멜팅 · SpeakEasy · 러비더비 · 피즈챗 · 알플챗 · 츄챗 · 코멧 · 위프 · 라크 · 미라이
<keepall> 프론트엔드 RisuAI
컴패니언 이루다 2.0 · 강다온 · 허세중 · 러브퍼센트 · Neuro-sama · 라디안 · 냥아지·쿠로냥아지 · oshikoi }}}}}}}}}

[1] 대중에게 처음 선보인 모델인 GPT-3.5 기준. 이후 모델들의 출시일은 개별 문서 참고.[2] 한국 시각 2023년 5월 19일에 미국을 시작으로, 5월 25일에 대한민국 및 11개 국가에서 공식 앱을 출시했다. 5월 31일부로 152개국으로 확대되었다. (iOS 16.1 이후 버전 필요)[3] 6월 8일 출시 (iPadOS 16.1 이후 버전 필요)[4] 2024년 5월 13일 얼리 버전 출시, 2024년 6월 25일 정식 출시[5] 2024년 2월 4일 출시[6] 한국 시각으로 2023년 7월 28일에 공식 앱을 출시했다. (Android 6.0 이후 버전 필요)[7] 2024년 10월 18일 출시.[8] 2026년 3월 12일에 삭제예정[9] 2026년 2월 13일에 삭제예정[Plus] Plus 요금제부터 한정 선택적으로 이용 가능[Plus] [12] Enterprise 및 Pro 요금제부터 이용 가능.[Plus] [Plus] [15] GPT-4o에 적용된 이미지 생성 업데이트를 분리시킨 모델. 사실상 DALL·E 3의 후속 버전이다.[16] 사용 모델 자체는 사실상 전세계의 모든 언어를 지원하고, 한국어를 포함한 언어를 인터페이스에서 제공한다.[17] 한국에서 앱 사용자는 2025년 12월 기준 2,162만 명 수준이다. #[18] https://chat.com으로 접속해도 ChatGPT로 리디렉션된다.[19] 수학 문제는 LaTeX 형태로 변형하여 XML 형태로 업로드해야 잘 풀리는 것으로 보인다. 다른 보도에서는 o1이나 deepseek r1보다 국어를 못 풀었다고 하기 때문이다. #[20] Chatgpt 이전의 챗봇들의 이해력 수준은 지금의 생성형 인공지능과 비교하면 아기와 성인의 차이가 난다.[21] 근본적인 원인은, 영업이익률이 굉장히 높은 소프트웨어 서비스 산업임에도 여전히 원가를 못맞추기 때문이다. OpenAI도 마이크로소프트처럼 든든한 자금책이 있어서 서비스가 유지가능한 것이지, 아직까지 생성형 ai 서비스 자체에서 검색엔진의 광고 서비스 수준의 안정적인 수익을 안겨주는 비즈니스 모델이 작동하고 있지는 못하다. 과거 텍스트 기반 인터넷에서 이미지, 비디오로 전환이 이뤄지듯, 기하급수적으로 늘어난 부하를 처리하는 데에 필요한 리소스(AI를 기준으로 하면 엔비디아의 H100 솔루션 따위가 될 것이다.)의 가격이 보급화가 가능할 정도로 충분히 하락하지 않았고, 여전히 데이터셋 개발, 알고리즘 개선 등등 초기투자비용이 크게 들어가는 상황이기 때문이다.[22] ChatGPT와 달리 답변과 함께 웹 검색 결과도 제공하므로, 챗봇이 출력한 정보에 대한 사실 확인을 쉽게 할 수 있다.[23] 이는 의외로 빠를 수도 있는데, 2023년 2월 미국 법정에서 AI 변호사가 등장할 뻔했지만 캘리포니아 지역 변호사 협회의 고소와 협박 때문에 무산되었다고 한다.[24] ChatGPT Plus 또는 ChatGPT Pro[25] 상식적인 선에서 그런 지식의 해석까지만 가능하다.[26] 지식이 늘어난 것이 아니라 논리력이 향상된 것이다.[27] LEET 등 고도의 논리력을 필요로 하는 시험이나, 과학탐구 영역 등 그림이나 자료를 이해해야 하는 시험 등의 경우 현재도 처참한 성적을 보인다.[28] 동일한 o4-mini 모델에 추론 시간을 늘린 옵션[29] 2024년 4월 1일부터 로그인 없이 사용 가능하다.#[30] 일부 국가를 대상으로 하며 서비스 국가 확대 중. 아직 한국에서는 구독이 불가능하다.[31] 연간 구독 시 월 25달러(약 36,000원). 2인 이상 구독 필수. 환율에 따라 8~9만원 정도의 비용이 든다.[32] 1인당 가격. 반드시 기업 단위로 결제해야 하며, 최소 9000달러(약 125만원)라는 어마어마한 비용이 든다. Reddit 사용자들 피셜에 따르면 총 결제 금액이 100,000달러(약 1억 4천만원)이 넘어가면 OpenAI와 1인당 가격을 협상할 수 있는 것으로 보인다.[33] 헷갈릴 수 있는데, Instant의 경량화 버전인 GPT-5.1 mini와 GPT-5.2 mini는 출시되지 않았다. GPT-5.2가 출시된 시점에도 여전히 무료 유저에게 제공되는 모델은 GPT-5 mini이다.[크레딧] 크레딧으로 사용 한도 구매 가능.[크레딧] [크레딧] 크레딧으로 사용 한도 구매 가능.[크레딧] [크레딧] [크레딧] [40] 같은 대화 세션에서 사용하면 추론 시간이 긴만큼 사실상 Pro 모드 무제한 대화가 가능하나, 다른 대화 세션과 번갈아가며 매우 잦은 빈도로 사용하면 1~2시간 정도의 사용 제한이 걸릴 수 있다.[크레딧] [크레딧] [크레딧] [44] 거대 규모의 비추론 모델이므로 컴퓨팅 비용이 매우 크고, 이로 인해 이용 한도는 유동적이다. Pro 요금제 기준으로 시간당 평균 약 60회 이상의 메시지를 전송할 수 있으며, 잦은 빈도로 사용하면 2시간 가량 사용이 제한될 수 있다.[크레딧] [크레딧] [크레딧] [크레딧] [49] 해당 제한은 파일이 채팅에 완전히 업로드되는 시점이 아닌, 파일을 선택하여 업로드를 시작하는 시점 기준으로 카운트되므로 파일 업로드 시 잘못된 파일을 업로드하지 않도록 주의가 필요하다.[50] 이미지만 가능[51] 최대 5초, 720p 영상을 생성 가능하며 워터마크가 있다.[52] Plus와 기능 자체는 동일하다. 다른 모델들은 Business 사용자가 Plus 사용자보다 우선 사용권을 할당받지만, 아이러니하게도 Sora 이미지/동영상 생성만큼은 반대로 하위 요금제인 Plus에 우선 할당된다고 한다. 즉, 사용자가 몰리는 시간에는 Business 사용자의 이미지/동영상 생성 속도가 Plus 사용자의 이미지/동영상 생성 속도보다 오히려 느리다는 얘기. 그 이유는 후술할 Enterprise 요금제에 더 자세히 써져 있다.[53] Sora 영상 생성 AI는 개인적인 "헤비 유저", "연구자"를 위한 프로그램이라 기업용 요금제인 Enterprise에는 Sora에 넉넉한 한도를 부여해주지 않는다고 한다. Business 요금제 사용자가 Plus 요금제 사용자보다 Sora 이미지/동영상 생성에 더 낮은 순위로 할당되었던게 바로 이 이유 때문이다. 다만 이후 Business 요금제는 대학교의 소규모 동아리 같은 곳에서 쓸 가능성이 있기 때문에 이미지/동영상 생성에 Plus보다 더 낮은 순위에 할당되는 조건으로 Sora를 거의 무제한으로 풀었다고 한다.[54] 최대 20초, 1080p 영상을 생성 가능하며 워터마크는 없다.[크레딧] [56] Sora 2 Pro 사용 가능[57] 선택한 GPT 모델과 무관하게 별도의 모델로 작동한다.[크레딧] [크레딧] [60] 선택한 GPT 모델과 무관하게 별도의 모델로 작동한다. 한도에 따라 각각 o3-deep-research 및 o4-mini-deep-research(가벼운 버전) 모델을 사용한다.[I] 가벼운 버전[I] [I] [I] [크레딧] [I] [크레딧] [I] [크레딧] [70] ChatGPT에서의 Context Window는 세션당 최대 대화 길이(토큰)로, 초과 시 '대화의 최대 길이에 도달했다'는 메시지와 함께 진행이 제한된다. 앱에서는 제한 후에도 진행이 가능하지만 이후 대화 기록이 유지되지 않고 성능이 저하될 수 있다. Context Window가 길어질수록 모델에 부하가 크게 걸리기 때문에 요금제에 따라 Context Window의 길이를 차등 적용하고 있다.[71] ChatGPT 내 GPT-5 계열은 모델에 따라 사용할 수 있는 Context Window의 길이가 다르다. 예를 들어, GPT-5.2 Instant를 사용하다가 대화가 최대 길이에 도달한 경우, GPT-5.2 Thinking 모델로 바꾸면 더 긴 대화를 이어갈 수 있다.[Instant_CW] GPT-5 계열 Auto의 Instant 모델 또는 수동 선택한 Instant 모델의 세션당 최대 대화 길이.[73] Go의 Context Window는 Free보다는 크고 Plus보다는 작을 수 있다. 공식적으로 Free보다 긴 대화가 가능하지만, 정확한 수치는 미공개 상태다.[Thinking_CW] GPT-5 계열 Auto의 Thinking 모델 또는 수동 선택한 Thinking 모델의 세션당 최대 대화 길이.[Instant_CW] [Thinking_CW] [Instant_CW] [Thinking_CW] [Instant_CW] [Thinking_CW] [Instant_CW] [Thinking_CW] [83] 후술할 Business, Enterprise 사용자처럼 프로젝트를 완전히 맞춤화하지는 못한다. 그래도 이름, 맞춤형 지침 정도는 설정 가능하고. 파일도 업로드가 가능하다. 사실 이정도만 있어도 프로젝트를 어느 정도 맞춤화 할 수 있다. 일반 학생이 발표, 주제탐구, 대학 과제 등을 목적으로 사용하는 데는 충분한 수준.[84] 파일 업로드, 프로젝트 맞춤 설정, 지속되는 메모리로 ChatGPT를 내 워크플로에 맞춤화 / ChatGPT에게 반복적인 작업을 맡기고 복잡한 문제도 심층 리서치로, 팀이 중요한 작업에 온전히 집중할 수 있음 / 멀티모달 AI로 창조와 혁신, Sora, 이미지 생성, 캔버스, 통합 코딩 도구까지 제공 / 다단계 인증, 데이터 암호화, 훈련에 데이터 사용을 배제 / 대용량 사용자 관리에 적합한 공유 GPT 및 관리자 콘솔로 매끄럽게 협력[85] SAML SSO, 시간 추적 및 보고 (Time tracking & reporting), 프로세스 자동화 (Process automation), My Work 위젯[86] 최신 모델이 출시한 경우 Pro 요금제 사용자에게 우선 배포된다. 새로운 기능의 경우는 "모든 유료 플랜 구독자 중 랜덤"으로 테스트 목적으로 배포되지만, 이 경우에도 Pro 플랜 구독자가 2/3 이상을 차지한다고 한다.[87] 하루 한 번씩 대화 기록 및 요청한 주제를 토대로 맞춤 정보를 알아서 정리해주는 맞춤형 브리핑 기능.[88] ChatGPT Usage Limit TrackerChatGPT 구름툴 등의 비공식 크롬 확장 프로그램을 통해 대략적인 사용량을 파악할 수는 있지만, 이는 해당 브라우저에서만 집계되며 데스크톱 앱이나 모바일에서 사용한 양은 포함되지 않는다.[89] 대략 5~10번 연속으로 웹 검색을 시도할 경우 이 제한에 걸린다.[90] 그렇기 때문에 질문자의 시점에서 현재 진행 중인 사건에 대한 정보나, ChatGPT가 어떤 GPT 버전을 사용하고 있는지에 대한 정보 등 현실을 반영하는 질문에 대한 응답은 곧바로 생성할 수가 없다. 무료 버전에서도 쓸 수 있는 GPT-3.5 같은 것은 물론, GPT-4도 미래의 사건이다. 물론 미리 예정되어 있던 사항에 대해서는 답변할 수 있는데, 정보의 신뢰성이 떨어지거나 오류가 생길 수 있음에 주의해야 한다. 예외로 오늘의 날짜(시간은 제외)만큼은 모델에게 제시되기 때문에 정확하게 알고 있다. 이 외 최신 정보의 경우 '웹 브라우징' 모드를 통해 최신 정보를 검색하여 답변을 생성한다. 단, 탑재된 웹 브라우징 기능은 유튜브 등의 영상에 대한 정보를 읽거나 요약하지 못하므로 유튜브 링크 인용 시 주의가 필요하다.[91] 대신 정말로 의학적 지식을 위한 모델이 아니라 생명이 달린 중요한 상황에서도 잘못된 판단을 알려주는 경우가 있다고 알려져 있다.[92] 독재 정치를 완화시킬 방안을 질문하면 비밀 결사 같은 방안을 알려주기도 한다. 어떤 나라든 간에 독재는 나쁜 것이고, 타국으로의 경제적 요건만 따지든 안보를 따지든 어떤 나라의 독재도 다른 나라의 국민이라도 전반적으로는 정당화시킬 수 없다는 식의 답변이 자주 나온다. 정책의 경우에도 누구의 정책인지 밝히지 않고, 특히 2022년 이후의 정책을 이야기하면 답이 나오는 경우가 많다.[93] 단, 입력한 직후라면 질문을 보이지 않게 가리기만 한 것이 때문에, 지워진 직후에 그 이유를 질문(ex: 방금 한 질문이 콘텐츠 정책 위반 때문에 지워진 것 같은데, 어떤 부분이 정책 위반인지 알려줄 수 있어?) 한다면 입력한 질문의 어느 부분이 어떻게 위반인지 알려준다. 더 나아가, 어떻게 수정하면 위반이 아닌지도 알려주기도 한다.(ex: 방금 입력하신 질문은 성인인 선생님이 학생의 옷을 벗긴다는 부분이 위반으로 판단 될 수 있어서 지워졌습니다. 물론 일사병이라는 응급상황을 가정한다해도, 이는 미성년자의 성착취와 연관되어 위반으로 판단될 소지가 있습니다. 이에 해당 부분은 일사병 상황을 배제하고 접촉을 최소화하는 방향으로 수정하는 것이 적절하다고 생각됩니다.)[94] 다만 실제로 ChatGPT 같은 AI와 대화만 했다고 신고되어 체포된 사례는 지금까지 없다. 원칙적으로 OpenAI는 사용자의 대화 내용을 알 수 없고, 현실적으로 전 세계에서의 수많은 대화를 직원이 확인하는 건 매우 힘들다.[95] 가학적이고 수치심을 유발할 수 있는 성적 콘텐츠를 포함한다.[96] 2025년 8월, 안타까운 사건으로 인해 사회적으로 이슈가 된 데다 OpenAI가 이로 인해 소송에 휘말린 관계로, 자해 및 죽음 관련 내용만 언급해도 바로 정책 위반 경고를 할 정도로 자살 관련 검열의 강도가 매우 심해졌다.[97] 미국에 있는 월급날 대출금을 갚기로 약속하고 소액의 돈을 빌리는 고금리 단기 대출상품으로, 저소득층과 노년층이 피해를 입은 사례가 있다. 300~1000%의 연이율을 기록하던 경우도 있다.[98] API 등을 사용해서 가격 등을 자동으로 결정하는 시스템을 말한다.[99] 부정직한 바이럴 마케팅 등의 예가 있다.[100] 실제로 미국에서 변호사 2명이 ChatGPT로 진술서를 만들어서 재판부에 제출했다가 변론서에 적혀 있는 판례 중 최소 6개가 실제로 존재하지 않아 ChatGPT를 사용했다는 사실이 밝혀져서 큰 논란이 된 적이 있었다. # 결국 해당 변호사들은 이후 벌금형을 선고받았다. # 이 사건은 뉴스로까지 나오게 되었다. KBS[101] 이탈리아의 경우, 부모의 신분 인증을 통해 명시적인 동의가 있어야 사용 가능.[102] 이에 강인공지능까지는 아니더라도 현재의 약인공지능 또는 좁은 인공지능(Narrow-AI)을 넘어 그에 근접한 '준 인공 일반 지능'(Proto-AGI) 또는 '넓은 인공지능'(Broad AI)까지는 얼마 남지 않았을 것이라는 전망도 나오고 있다.[103] 2022년 12월 4일 오전 3:41 #[104] 예를 들어 10자리가 넘어가는 긴 수를 주고 나누기를 시킬 경우 틀리는 식이다. 심지어 막바로 수학문제를 낸 게 아니라 다른 질문과 연계해서 “방금 질문의 경우 나올 수 있는 경우의 수는?” 하고 물어보면 o1이 아닌 한 두 자릿수끼리의 계산조차 틀린다.[105] 2024년 9월 14일 오전 07:03 \[mathstodon.xyz\]I have played a little bit with OpenAI's new iteration of #GPT, GPT-o1, which performs an initial reasoning step before running the LLM. It is certainly a more capable tool than previous iterations, though still struggling with the most advanced research mathematical tasks."#[106] 가령 아첨 문제가 심했을 때는, 별다른 지침 없이 '오늘 아침에 달걀을 2개 먹었는데 영양소를 분석해달라'라고 하면, '건강에 유익한 훌륭하고 균형 잡힌 식단이군요' 같은 식으로 운을 떼기도 했다.[107] 사실 이를 일컫는 영단어 'empathy'는 상대를 '이해'하는 것이지 '감정을 공유'한다는 뜻에서 멀다. 영어에는 한국어의 '공감'과 의미가 완전히 같은 단어는 없다.[108] 단순히 GPT 때문에 정신 건강이 안 좋아지는 수준을 넘어 현실과 가상의 구별이 힘든 정도는 되어야 'psychosis'라고 할 수 있다.[109] 마찬가지로 GPT 기반인 GitHub Copilot의 경우 매월 $10의 사용료를 받고 있음에도 불구하고 MS가 평균적으로 유저당 $20의 손해를 보고 있는 것으로 알려졌다. 관련기사 AI 시장에서의 주도권을 잡기 위해서 엄청난 손해를 감수하고 출혈경쟁을 하고 있는 것이다.[110] GPT-4o 및 O1-Preview, O1-Mini는 이 문제로부터 점차 벗어나기 시작했다. 특히 O1 모델은 추론을 통해 문제해결 능력 극대화, 환각 가능성 감소에서 획기적인 모습을 보여준다.[111] 이로 인해 GPT-5가 출시하기 전까지 구독을 중지하겠다는 반응도 있다.[112] 이와 관련된 내용에서 원하는 답을 내놓지 못하는 경우, 관련된 내용에 대해 해답을 구하려면 이런 내용이 있다는 식으로 정보를 입력하여 먼저 '학습'시킨 다음 답을 구해야 하며, 모델이 토큰 수 제한으로 인해 대화의 모든 내용을 기억하지 못하기 때문에 대화가 길어지면 수시로 그 정보를 입력시켜야 한다. 그러나 무료 버전의 경우 간혹 그런 사실을 계속 정정해 주어도 '발해'와 'Balhae'는 같은 나라인 건 알겠는데 다른 나라라는 등의 고집을 부린다. 이 답변을 ChatGPT 플러스 버전의 GPT-4에게 어떤 오류가 있는지 찾게 하면 찾아준다. 다만 무료 버전에서도 한국어와 영문 위키백과의 발해를 설명하는 문서의 앞 부분만 발췌하고 같은 나라인지 판별하라고 하면 같은 나라가 맞다고 하는데 '신라의 북쪽'을 '신라 북부'라고 하는 오류가 없지는 않다.[113] 세 인물 모두 순흥 안씨라는 공통점이 있다. GPT-4에서는 안중근에 대해서는 좀 잘 답변하지만, 안향에 대해서는 2024년 백운동서원의 정보를 헷갈려하는 듯한 미세하게 틀린 정보를 내놓았다. 그런데 주자학을 고려에 도입한 학자라고는 대답한다. 2025년 기준에는 안향이 호가 '회헌'이라는 사실까지 안다. '성이 같다'라고 하고 세 인물이 이루려고 한 일에서 공통점을 찾으려고 한다.[114] 윤동주가 태어나고 사망한 날짜를 정확히 알고, 작품의 분위기와 대표적인 작품도 안다. 여기서 십자가 같은 작품에 대해 물어보면 시 전문의 앞부분은 정확하나 뒷부분의 내용에 갑자기 환각이 생기는 등의 오류가 있다.[115] 외부에서 네이버를 크롤링하는 것은 막아놓고서 네이버는 외부 데이터를 거리낌 없이 크롤링한다. 문제는 자체 기술적인 한계로 인해 네이버 생태계 외부 데이터에 대한 검색능력은 거의 없다시피하다. 네이버 생태계의 커뮤니티 이용자라도 정작 정보 검색은 거의 구글을 이용하는 이유가 되기도 한다.[116] PC버전에서 응답 하단의 복사를 눌러 보면 알 수 있다.[117] 1~10 등[118] Plus 버전은 전세에 대한 설명은 정확하지만 사글세의 경우 조금 틀린 답변도 섞이기 시작하더니 제주도의 '연세' 같은 매우 자세한 것은 핀트가 엇나간 답변이 나온다. 한국의 고유 주택 임대차 제도이기 때문에 정보가 없을 수 있다. 이에 대한 어떤 해답을 얻고 싶다면 한국에서는 이런 상황이 있다고 미리 알려주는 형식으로 채팅을 해야 한다. 주식 거래 이론 같은 국제적으로 통용되는 지식은 매우 정확하다.[119] 뉴욕시가 부정행위 등을 우려하여 공립고등학교에서 ChatGPT를 차단했다. 링크[120] 교수가 조교의 논문을 봐주듯이 사람보다 압도적인 지식을 가진 AI가 예시문을 만들어주면 그것을 본 사람이 "이런 새롭고 다양한 방식으로도 쓸 수 있구나"라고 느낀 뒤 자신의 방식대로 만드는 것[121] 사용량이 폭주해서 서버가 다운된다던가 진짜 사람이 쓴 글도 ChatGPT가 썼다며 판단을 내리기도 하는 등 완벽하지 않다. 또한, 시 등은 ChatGPT가 쓴 글도 모두 사람이 썼다고 판별하기도 한다.[122] 너무 많은 사람이 몰려 서버 용량 초과 메시지가 빈번할 정도였다.#[123] \[이데일리\] 챗GPT, 40일 만에 사용자 1천만 명 돌파…두번째 'AI 돌풍' 구독김현아 기자#[124] \[뉴시스\] 챗GPT, 출시 두 달 만에 월 사용자 1억명 돌파" 입력2023.02.02. 오후 2:52 수정2023.02.02. 오후 4:05 기사원문 이종희 기자 1억명을 돌파[125] ChatGPT passes exams from law and business schools ,Samantha Murphy Kelly By Samantha Murphy Kelly, CNN Business ,Updated 1:35 PM EST, Thu January 26, 2023#[126] \[firstpost\] \[between the lines\] Anchored by Palki Sharma, January 23, 2023, 19:33:45 IST #[가] Healthcare, Language Processing, ChatGPT Out-scores Medical Students on Complex Clinical Care Exam Questions, A new study shows AI's capabilities at analyzing medical text and offering diagnoses — and forces a rethink of medical education. Jul 17, 2023 | Adam Hadhazy#[나] \[ScienceDaily\] Study finds ChatGTP outperforms physicians in providing high-quality, empathetic advice to patient questions ,Date: April 28, 2023 Source: University of California - San Diego#[129] \[firstpost\] \[between the lines\] Anchored by Palki Sharma, January 23, 2023, 19:33:45 IST #[가] [나] [132] 과거 산업혁명 시기 러다이트 운동 등, 이러한 문제는 생업과 직결되어 있기에 매우 민감한 문제인 경우가 많다. 따라서 개발사에서는 관련된 논란을 우려해 이런 코드를 심어둔 것으로 볼 수 있다.[133] 미국에서는 ChatGPT로 인해 교육 업체의 주가가 떨어지는 사태가 발생했다. ## 다만 듀오링고처럼 GPT와 협력하는 길을 택한 업체는 유동적이다.[134] 이들 중 베네수엘라, 중국, 홍콩, 마카오, 벨라루스를 제외한 모두가 미국의 포괄적 제재대상이며, 이들 중 시리아, 이란, 북한, 쿠바는 테러지원국이긴 한데 그 중 시리아의 경우에는 그마저도 바트주의 정권이 무너졌기 때문에 테러지원국에서 해제되고 영구적 차단도 풀리는 것도 시간문제다.[135] 이렇게 되면 숙제를 한 사람과 안 한 사람의 실력 차이는 결국 시험에서 드러나니 변별력 문제가 감소한다.[136] 한국어로 물으면 “한국이 관리하고 있지만, 일본이 이의를 제기하며 어느 나라의 땅인지 정확히 결정되지 않았다”라는 식으로 표현한다. 사실 ChatGPT는 결국 사료 기반이라는 걸 생각하면 일본인은 (정치적으로 무관심한 사람이 다수이긴 하나) "다케시마"는 "일본 영토"라는 식으로 주장하고 한국인은 "독도"는 "대한민국 영토"라는 식으로 주장하는 사람이 다수이니 대중의 편향을 따라가는 것.[137] 신사임당의 남편이 이원수인 것은 알고 어떤 유명한 자식을 낳은 것도 알지만 남편의 본관이나 그 유명한 자식은 율곡 이이인지 퇴계 이황인지를 헷갈려 하여 틀리는 식이다.[138] 이를테면 나는 역사상 가장 비극적인 사건 중 하나가 대동여지도 연금술사 폭동이라는 주장처럼 황당하고 재미있는 대체역사를 좋아하는데, 이와 비슷한 10개의 대체역사를 알려달라는 식으로 요청할 수 있다. 석기시대 AI, 로마 제국의 기계화 군대에 대한 답을 들을 수 있다.[139] 제임스 딘 사건(1996. 7. 11. 대법원 판결 선고 96후2173.). 고인의 이름과 어떠한 관련성이 없이 고인의 이름만을 그대로 출원한 상표는, 저명한 고인과의 관계ㅇㅇㅇ를 거짓으로 표시하거나 비방 또는 모욕, 평판을 나쁘게 할 우려가 있다고 볼 수 없기 때문이다. 물론 "지옥에 있는 노무현 나와라!"와 같은 구호는 당연히 고인을 비방하는 문구를 추가한 것으로서 상표법 제34조 제1항 제2호 위반이 된다.[140] 이 시기에 안전 라우팅과 gpt-5-safety 모델이 소리소문없이 도입되었다. 성인 유저에게도 적용되어 있는 상황.[141] 미 동부 시간 기준[142] '계속하려면 challenges.cloudflare.com 차단을 해제하십시오.'라는 문구와 함께 이용 불가