최근 수정 시각 : 2025-12-22 16:57:02

Apple Intelligence


{{{#!wiki style="margin: 0 -10px -5px; min-height: calc(1.5em + 5px);"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break: keep-all;"
삼성 갤럭시 Galaxy AI
MainFunc Genspark
Apple Apple Intelligence
OpenAI Operator(모델: CUA)
Monica Manus AI
구글 Google Jarvis
취소선: 미출시 }}}}}}}}}

[include(틀:Apple의 소프트웨어
,이름=Apple Intelligence
,아이콘=Apple Intelligence 아이콘.svg
,출시일=2024년 10월 29일
,유형링크1=생성형 인공지능
,유형텍스트1=생성형 인공지능
,OS1링크=iOS 18
,OS1텍스트=iOS 18.1
,OS2링크=iPadOS 18
,OS2텍스트=iPadOS 18.1
,OS3링크=macOS Sequoia
,OS3텍스트=macOS Sequoia (15.1)
,OS4링크=visionOS 2
,OS4텍스트=visionOS 2.4
,OS5링크=watchOS 11
,OS5텍스트=watchOS 11
,OS꼬리말=iPhone 15 Pro\, iPhone 15 Pro Max\, iPhone 16 및 이후 모델\, iPad mini(A17 Pro 모델)\, 그리고 M1 이후 iPad 및 Mac 모델에서 사용할 수 있습니다.
,T4제목=지원 언어
,T4내용=한국어\, 중국어(간체)\, 영어(호주\, 캐나다\, 인도\, 아일랜드\, 뉴질랜드\, 싱가포르\, 남아프리카 공화국\, 영국\, 미국)\, 프랑스어\, 독일어\, 이탈리아어\, 일본어\, 포르투갈어(브라질)\, 스페인어
,T4꼬리말=곧 중국어(번체)\, 덴마크어\, 네덜란드어\, 노르웨이어\, 스웨덴어\, 포르투갈어(포르투갈)\, 베트남어 및 튀르키예어로 제공될 예정입니다.
,링크1URL=https://www.apple.com/kr/apple-intelligence/
,링크1텍스트=Apple
,링크2URL=https://support.apple.com/ko-kr/121115
,링크2텍스트=Apple Intelligence를 받는 방법
)]
1. 개요2. 지원 기기3. 기능
3.1. 자연어 처리
3.1.1. 알림3.1.2. 글쓰기 도구 (Writing Tools)
3.2. 차세대 Siri
3.2.1. 화면 내용 인지3.2.2. 개인적 맥락 이해3.2.3. 풍부해진 언어 이해 역량3.2.4. 앱 내 동작
3.3. 그림 인공지능3.4. 비주얼 인텔리전스3.5. AI 도구 통합
4. 모델 작동
4.1. 온디바이스 처리4.2. Apple Silicon 서버
5. 논란
5.1. 출시 지연 및 허위·과장 광고 논란
6. 기타

1. 개요

파일:AppleIntelligence.jpg
Apple Intelligence에 대해 5분 만에 알아보기

[include(틀:Apple 스타일 인용문, 굵기=bold
,L1=AI for the rest of us.
,L2=우리 모두를 위한 AI.
)]
[include(틀:Apple 스타일 인용문, 굵기=bold
,L1=Built into your iPhone\, iPad\, and Mac to help you write\, express yourself\, and get things done effortlessly.
,L2=당신이 글을 쓰고\, 개성을 표출하고\, 이것저것 척척 처리하는 것을 돕도록\, iPhone\, iPad 및 Mac에 내장.
)]

WWDC24에서 공개된 Apple생성형 인공지능 브랜드.

iOS 18, iPadOS 18, macOS Sequoia, visionOS 2부터 탑재되며, Apple은 개인형 인공지능(Personal AI)이라는 명칭으로 홍보하고 있다.

Apple Intelligence 기능 중, 후술할 화면 내용 인지와 앱 내 동작이 포함된 더 개인화 된 Siri 기능은 2026년으로 출시가 지연되었다. #

2. 지원 기기

Apple Intelligence는 다음 기기와 호환됩니다.
Mac
  • Apple M1 칩 탑재 및 이후 모델(1)
iPad
iPhone
  • A17 Pro 칩 탑재 및 이후 모델(3)
Apple Vision
1. macOS Sequoia 15.1 및 이후 버전이 필요합니다.[1]
2024년 10월 29일부터 미국 영어를 최초 지원한다. 2024년 12월, 영국 영어, 호주 영어, 뉴질랜드 영어, 캐나다 영어, 남아공 영어[2] 2025년 4월 1일, 한국어, 간체 중국어, 인도 영어, 싱가포르 영어, 프랑스어, 독일어, 이탈리아어, 일본어, 브라질 포르투갈어, 스페인어가 추가되었다. 2025년 상반기중에 베트남어를 지원할 것이라고 한다.

3. 기능

3.1. 자연어 처리

Apple Intelligence가 자연어를 이해하며 이를 통해 다음과 같은 기능들을 제공한다.

3.1.1. 알림

  • 알림 요약
    앱에서 보낸 알림들을 각각 요약해서 보여준다.
  • 최우선 알림
    사용자에게 중요할 것 같은 알림을 알림 스택 맨 위에 표시되어 중요한 알림을 한 눈에 바로 확인할 수 있게 되었다.
  • 방해 요소 줄이기
    새로운 집중모드인 '방해 요소 줄이기' 모드를 통해 당장 확인이 필요한 것 같은 알림만의 내용을 스스로 판단하여 사용자에게 즉시 보여준다.
  • 스마트 답장
    대화 내용을 이해하고, 상황에 적절한 내용의 답장을 추천하여 키보드 위에 띄워준다.

3.1.2. 글쓰기 도구 (Writing Tools)

[include(틀:Apple 스타일 인용문
,L1=Write with intelligent new tools. Everywhere words matter.
,L2=단어 하나하나가 중요한 모든 순간\, 글쓰기는 새로운 지능형 도구로.
)]
온라인 게시물, 메일, 메모 등의 작성에 도움을 주는 도구이다. 제공 기능은 아래와 같다.
  • 교정
  • 재작성
  • 문어체 수정 기능
    • 친근하게
    • 전문적으로
    • 간결하게
  • 요약 기능
    • 요약
    • 키 포인트
  • 정리 기능
    • 목록
  • 작문
    원하는 내용을 설명하면 ChatGPT를 통해 글을 작성해준다.

Keynote, Safari, Mail 등 Apple 제작 앱 뿐만 아니라 서드 파티 앱에서도 사용 가능하다.

128GB 메모리 M3 Max기준, 글 작성 작업에서 Neural Engine의 전력 소모량은 최대 5.9W이다. 메일 요약에는 1~2W 미만을 소모했다.

3.2. 차세대 Siri

[include(틀:Apple 스타일 인용문
,L1=The start of a new era of Siri.
,L2=Siri의 새로운 시대 개막.
)]
완전히 새로운 애니메이션, 아이콘, 효과음 등으로 변경되었다. 특히 Siri가 전체 시스템 사용자 경험과 더 긴밀히 통합되었음을 표현하기 위해, 화면을 감싸는 듯한 애니메이션으로 변경되었다.

별도의 설정 없이, 하단 바를 두 번 탭하여 키보드로 Siri를 이용하는 것도 가능해졌다.[3]

3.2.1. 화면 내용 인지

Apple Intelligence 덕에 사용자가 호출 시 화면에 있는 내용을 이해하고 사용자의 요구에 맞는 적절한 행동을 할 수 있다.

3.2.2. 개인적 맥락 이해

Apple Intelligence의 새로운 엔진을 통해 개인적 맥락 이해 능력을 갖추게 되었다.

사진, 캘린더 속 이벤트, 파일, 메세지와 이메일로 공유된 자료 등 정보에 관한 시멘틱 인덱스를 통해 각종 정보를 찾고, 사용자의 요청사항을 이해하여 그에 맞는 정보를 제공한다.

예를 들어 "엄마가 탄 비행기가 언제 도착해?" 라고 물으면, '엄마' 가 누군지 이해하고, 엄마가 공유했던 비행기 도착 정보를 제공하는 방식이다.

3.2.3. 풍부해진 언어 이해 역량

만약 사용자가 말실수를 해도 즉시 정정하면, 정정한 사항을 받아들여 명령을 수행한다.

예를 들어 “Siri야, 12월 31일에… 어… 아니 1월 1일에 회의… 아니 여행으로 일정 잡아줘”라고 요청할 경우, “1월 1일에 '여행' 일정을 추가하였습니다.”라고 대답한다. 기존 Siri는 12월 31일부터 1월 1일까지 ‘회의여행’으로 일정을 잡거나, 언제 일정을 잡을 것이냐거나 일정 이름을 되물었다.

또, 사용자가 방금 전 요청했던 정보를 까먹지 않고 활용하여 ‘그곳’ 등 추상적인 명령에도 대답이 가능하다.

3.2.4. 앱 내 동작

Siri가 사용자 요청에 따라 여러 앱을 넘나들며 앱 내의 동작을 대신 수행할 수도 있다. 예를 들어 사진 앱에서 특정 이미지 편집, 상세 검색 등이 가능하다. 앱 인텐트 라는 새로운 프레임워크를 사용하며[4], API를 공개했기 때문에 서드파티 앱도 추가할 수 있다.

3.3. 그림 인공지능

[include(틀:Apple 스타일 인용문
,L1=Delightful images created just for you.
,L2=오직 당신만을 위해 생성되는 유쾌한 이미지.
)]
생성형 AI를 이용해 사용자가 원하는 그림을 그려준다.

전용 앱인 Image Playground 가 추가되었으며, 원하는 키워드 등을 입력하면 그림을 그린다. 사용자의 연락처에 저장된 사진을 인식하여 특정한 사람의 초상화를 그리는 기능도 있다. 그림 스타일은 Animation, Illustration, Sketch 총 세가지.

메모Freeform 앱에서는 이미지 마술봉으로 이미 그린 그림이나 키워드 등을 입력하여 원하는 컨텍스트의 이미지를 추가할 수 있다. 주변에 적힌 메모의 키워드를 자동으로 인식하여 맥락에 맞는 그림을 그릴 수도 있다.

메시지, 일기 앱 등 텍스트를 입력할 수 있는 Apple의 앱에서는 자신만의 이모지를 만들 수 있는 'Genmoji' 서비스를 제공한다.

3.4. 비주얼 인텔리전스

비주얼 인텔리전스(구 시각 지능)기능을 통해 사용자 주변의 장소 및 사물에 대해 알아볼 수 있다.

주변 음식점 또는 업체에 대한 세부사항을 찾아보거나, 텍스트를 번역, 요약 또는 소리 내어 읽거나, 식물과 동물을 식별할 수 있다.

카메라 컨트롤이 있는 모델에서는 카메라 컨트롤을 길게 클릭해서 실행할 수 있으며, 카메라 컨트롤이 없는 모델에서는 동작 버튼을 통해 사용할 수 있다. 이 외에도 잠금 화면, 제어 센터를 통해 시각 지능을 사용할 수도 있다.

iOS 26부터는 화면을 캡쳐해서 화면 내의 정보도 식별할 수 있다. 그리고 '시각 지능'에서 '비주얼 인텔리전스'로 명칭이 변경되었다.

3.5. AI 도구 통합

3.5.1. ChatGPT

Apple은 첫 번째 인공지능 도구 통합 계획으로 OpenAI사의 인공지능 서비스 ChatGPT를 채택한다. 출시 당시 기준 GPT-4o 모델로 구동된다.

Apple Intelligence는 자체적인 생성형 인공지능을 탑재하고 있지만, ChatGPT에게 물어보는 편이 낫겠다고 판단하는 경우 사용자의 허락을 구한 후 ChatGPT를 조회하여 답변을 표시한다. 이 허락 요청은 매번 표시되며, 사용자의 허락 없이 질문이 ChatGPT에 넘어가지 않는다.[5]

Mac에서는 프롬프트를 통한 작문과 일러스트 생성 등을 선보였다.

유료 구독 중인 OpenAI 계정을 연동하여 Apple 플랫폼 내에서 유료 서비스를 이용할 수 있다.

기본적으로 OpenAI 계정을 등록하지 않고도 사용할 수 있으며 사용자의 요청은 OpenAI에 저장되거나 학습되지 않는다. 만약 사용자가 Apple Intelligence 설정에서 자신의 OpenAI 계정을 연결시킬 경우, 해당 OpenAI 계정에서 학습 여부를 선택할 수 있다.

4. 모델 작동

파일:Apple Intelligence Korean.jpg
Apple Intelligence 구조도 (한국어)
[Apple Intelligence 구조도 (영어)]
||<tablealign=center><tablewidth=640><tablebordercolor=#333,#D6D6D6><tablebgcolor=#333><nopad> 파일:Apple Intelligence ENG.jpg||
Apple Intelligence 구조도 (영어)

4.1. 온디바이스 처리

Apple A17 Pro, Apple M1 및 이후 칩의 성능과 Neural Engine을 활용하여 다국어 모델 등의 연산을 온디바이스에서 처리한다. 이 경우 어떠한 데이터도 서버로 전송되지 않기 때문에 개인정보를 수집하지 않는다.

특이하게도 M1(11 TOPS) 칩보다 높은 Neural Engine 성능을 갖추고 있는 A16 Bionic(17 TOPS) 칩은 온디바이스 뿐만 아니라 Apple Silicon 서버를 이용한 서비스조차 지원하지 않는데, 이는 탑재기기들의 메모리 용량이 6GB라서 메모리가 부족하기 때문으로 보인다.[6]

4.2. Apple Silicon 서버

작업의 크기를 확인한 다음, 기기 내에서 처리할 수 없을 정도로 크다고 판단한 경우 Apple Silicon으로 구축한 자사 데이터 센터 내 비공개 서버를 활용하여 요청을 처리한다.

서버로 전송된 요청도 개인정보 보호를 보장할 수 있도록, Apple이 개발한 비공개 클라우드 컴퓨팅 (Private Cloud Compute)[7]를 사용한다. Apple의 발표 내용에 따르면, 개인과 연결되지 않은 정보를 서버로 전송하여 Apple 측도 요청자가 누구인지 모르게 요청을 처리하고, Apple Silicon의 보안 기술을 사용하여 외부의 위협으로부터 보안을 유지한다. 서비스 코드도 전부 공개하여 외부 보안 기술자들이 코드를 평가하고 취약점을 잡아내어 보안 위협이 거의 없음을 검증할 수 있다.

2024년 기준 서버 구동에는 M2 ProM2 Ultra 칩을 쓰는 것으로 보인다. 2025년부터 M4 시리즈 칩으로 교체한다는 소식도 있다. 2025년 3월 휴스턴에 관련 인프라 및 데이터센터를 설치한다고 밝혔다.

5. 논란

5.1. 출시 지연 및 허위·과장 광고 논란

Apple Intelligence의 다양한 지능형 기능을 홍보해 놓고 일부 기능[8]의 출시가 지연되거나 오동작 하는 등, Apple이 홍보한 것에 못 미쳐 논란이 되고 있다.

특히 iPhone 16 시리즈는 Apple Intelligence를 위해 설계된 최초의 iPhone 이라는 문구를 사용할 정도로 Apple Intelligence를 전면에 내세웠으나, 실제 출시 시점에는 AI 기능이 탑재되지 않았다. WWDC24 발표와 달리 차세대 Siri 기능은 애니메이션 변경을 제외하면 하나도 실현되지 않았고, 출시일도 미정이다. 제품 핵심 기능으로 내세우며 iPhone 16 시리즈를 판매한 게 2024년인데, 반년이 지난 2025년 3월이 되어서야 2026년 중에나 완성될 기능이라며 말을 바꿨다. 심지어 Apple Intelligence 시연 당시에 보여준 모습조차 실제가 아닌 완전히 꾸며낸 영상이었다고 폭로되었다.#

2025년 5월 Bloomberg Businessweek의 심층 보도#에 따르면, Apple Intelligence의 지연은 Apple 내부의 복잡한 갈등에서 비롯됐다. 팀 쿡은 AI 개발에 적극적이었으나, 소프트웨어 총괄 크레이그 페더리기는 AI를 핵심 역량으로 보지 않았고 연간 iOS 업데이트에만 집중하길 원했다. 특히 2022년 11월 ChatGPT 출시 전까지 Apple은 생성형 AI 개발 계획조차 없었으며, ChatGPT 충격 이후에야 급하게 iOS 18에 AI 기능을 추가하라고 지시했다고 한다. 예산 문제도 심각했는데, 전 CFO 루카 마에스트리가 GPU 구매에 보수적이어서 경쟁사들에게 선점당한 후에는 필요한 하드웨어를 확보할 수 없었다. Bloomberg는 내부 테스트에서 새로운 Siri가 3분의 1 확률로 실패했으며, TV 광고에서 대대적으로 홍보한 기능들이 무기한 연기되자 Apple이 해당 광고를 YouTube와 주요 방송사에서 철회했다고 보도했다. Apple 내부에서도 이를 "위기"로 인식하고 있으며, 2025년 WWDC25에서는 Siri 업그레이드에 대해 거의 언급하지 않을 예정이고, 향후에는 출시 몇 개월 이내의 기능만 발표하는 것으로 방침을 정했다고 한다.

이러한 허위·과장 광고로 인해 미국에서는 집단 소송이 제기되었으며,# 우리나라에서도 공정거래위원회가 허위 광고에 대한 조사에 돌입했다.# 비영어권 국가는 상태가 더 심각한데, 출시 자체는 어떻게든 해결하였으나 Image Playground 같은 일부 기능들은 여전히 출시 미정이다.

이후 WWDC25에서 크레이그 페더리기와 그렉 조스위악이 월 스트리트 저널과의 인터뷰에 나서서 이 문제를 직접 해명했다.# Apple Intelligence 발표 직전까지만 해도 차세대 Siri를 완성할 두단계의 계획이 있었고, 실제로 첫번째 버전을 WWDC24에서 선보인 것이였으나, 질적인 신뢰성 부분에서 개선이 더 필요하다고 느껴 출시를 연기하였다고 한다. 또한 베이퍼웨어가 아닌 실제로 LLM을 기반으로 개발중이었음을 밝히며 시연 자체가 거짓이였다는 폭로를 직접 부인하였다.

6. 기타

  • 아이콘은 매듭이론에 나오는 일곱잎매듭이다.
  • 모델 학습은 NVIDIA의 칩이 아닌 구글TPU를 사용했다.
  • iOS 26, iPadOS 26, macOS 26 Tahoe 에서 단축어를 통해 직접 Apple Intelligence 모델을 사용해볼 수 있도록 하였다. 사용 가능한 방식은 총 3가지로, 비공개 클라우드 컴퓨팅, 온디바이스, ChatGPT(확장 프로그램)이다. 이렇게 모델을 사용할 수 있도록 공개함으로서 얻어진 특징은 아래와 같았다.# (확장 프로그램인 ChatGPT는 다른 모델을 사용하므로 해당 모델의 특성은 배제하였다.)
    • 날씨, 주가 등등 실시간으로 변하는 결과값을 Apple Intelligence 모델(클라우드, 온디바이스 전부)을 통해 요구할 경우, 답변을 해주지 않으며 해당 앱을 통해서 직접 확인해볼 수 있다는 내용의 텍스트가 반환된다. 이로써 생성형 인공지능의 문제점인 "환각현상"을 원천적으로 봉쇄하기 위한 노력의 일환으로 보여진다.
    • 온디바이스 모델 이용 시 토큰[9]이 4096토큰으로, 강하게 제약이 되어있는 것으로 확인된다.
    • 비공개 클라우드 컴퓨팅을 사용할 때, 종단간 암호화 기술을 사용해 다른 모델에 비해 상대적으로 답변이 늦는 것으로 확인되었다.
    • (단축어를 통해 이용 시) 이미지 생성 등 미디어 생성은 제한되며, 텍스트로의 반환만 가능하도록 설계되었다. 단, 아스키 아트는 텍스트 형식으로 반환되기 때문에 예외적으로 가능하다.
  • 2024년 7월 30일부터 iOS 및 iPadOS 18.1, macOS Sequoia 15.1 개발자 베타 사용자에 한해 사용할 수 있게 되었다. 제한 사항은 아래와 같았다.
    • 기기 언어와 Siri 언어 모두 영어(미국)으로 설정.
    • 유럽연합[10] 및 중국에 거주하지 않는 사용자.
    • Apple Intelligence가 지원되는 기기.
  • 위의 모든 조건을 준수하더라도, Apple Intelligence를 사용하려면 대기 명단에 등록하여야 한다. 대기 시간이 20~30분 정도 걸리니, 대기 명단 등록 후 이용 가능 알림을 받을 때까지 기기를 충전하며 Wi-Fi에 연결을 유지하고 있는 것을 권장한다. 이는 Apple Intelligence의 기능이 자동으로 다운로드되게 하기 위함이다.
    • Image Playground 관련 기능의 경우는 별도의 대기명단에 등록하여야 한다. Reddit에 따르면, 사용자에 따라 12시간을 기다려도 활성화가 되지 않는다는 주장이 있다. # 이 문제는 다음 베타버전 출시와 동시에 해결되었다.
  • 2024년 10월 24일KST iOS 18.2(베타)를 통해, 차세대 Siri의 일부 기능을 제외하고 배포된 Apple Intelligence의 기능이 사용 가능해졌다. 기존 iOS 18.1 버전의 경우 일부 기능만 제공했다.
  • macOS Sequoia를 외장 드라이브에 설치한 경우, 언어 모델 다운로드에 실패하는 사례가 보고되고 있다.
  • 자연어를 이용해 다뤄지는 생성형 인공지능이지만 영어 외의 다른 언어에 대한 지원이 늦어지고 있으며, 이는 글로벌 점유율 확보에 유의미한 지장을 줄 것으로 전망된다.
  • Apple Intelligence의 가장 큰 혁신은 Apple 제품의 기본 RAM 용량 증가라는 우스갯소리가 있다.[11]
iPhone 15(6GB) → iPhone 16(8GB)
iPhone 16 Pro(8GB) → iPhone 17 Pro(12GB)
iPad mini 6(4GB) → iPad mini(A17 Pro 모델)(8GB)
iPad Pro(M4, 9코어 CPU)(8GB) → iPad Pro(M5, 9코어 CPU)(12GB)
M2, M3 MacBook Air(8GB) → M4 MacBook Pro 발표와 함께 16GB로 변경
Mac mini(2023년)(8GB) → Mac mini(2024년)(16GB)
iMac 24(2023년)(8GB) → iMac 24(2024년)(16GB)
MacBook Pro 14(2023년 11월, M3)(8GB) → MacBook Pro 14(2024년, M4)(16GB)
}}}][12]
  • Apple intelligence와 Siri를 병합하는 과도기 기간 동안, Siri의 행동이 일부 다운그레이드 되었다는 의견이 존재한다. 가령 유튜브 영상 시청 중, Apple intelligence 업그레이드 이전에 Siri에게 “다음 영상”이나 “추천 영상”을 요청하면 알아서 재생시켜준 반면, Apple intelligence 업데이트 이후에는 동일한 요청에 “다음” 또는 “추천” 검색어를 유튜브에 입력 후 결과를 띄워주는 식으로 말이다. iOS 18.7까지 잔존하던 해당 현상은 iOS 26 업데이트 후 완화되었다.
  • iOS 26.1 Developer Beta 1부터 한국어로도 그림 인공지능 관련 기능이 지원되며, 실시간 번역도 지원한다.

[1] 한국어는 macOS Sequoia 15.4 및 이후 버전이 필요합니다.[2] 단, 현재 중국 본토유럽연합(macOS 제외)에서는 사용할 수 없다.[3] 차세대 Siri도 이전 Siri와 같이 손쉬운 사용을 통해 키보드로만 요청할 수 있는 옵션을 켜야 키보드로 사용이 가능하다. 그러나, 이전 Siri는 이 설정을 활성화하면 목소리로 Siri를 사용할 수 없었다.[4] 개별적인 앱이 Siri, 단축어 및 여러 시스템 경험 동작을 정의할 수 있게 해준다.[5] 다만 설정에서 허락 요청을 끌 수는 있다.[6] 2025년 기준 Apple Intelligence는 약 7GB의 저장 공간을 차지하는데 이는 첫 출시 때의 4GB보다 1.75배 더 커졌다. 그에 따라 램 사용량도 늘었을 수 있다.[7] Apple Security Research의 Private Cloud Compute 블로그[8] 차세대 Siri의 화면 내용 인지, 개인적 맥락 이해, 앱 내 동작[9] 다른 말로 "최대 입력 글자 수"라고 보면 된다.[10] macOS에 한해서 유럽연합 사용자들도 사용할 수 있었다가 iOS 18.4에서 사용이 가능해졌다.[11] {{{#!wik[12] 윈도우 PC에서는 RAM 용량 16GB가 사실상 표준이고 심지어는 32GB 유저도 엄청나게 늘어나는 추세인데, 맥을 기준으로 여전히 8GB RAM이 기본 옵션에 16GB로 업그레이드 하려면 27만 원을 지불해야 했기에 가성비가 매우 떨어졌다. 그런 판매 정책을 유지할 수 있었던 이유는 맥OS를 공급하는 사업자가 애플 뿐이며 램을 사용자가 교체할 수 없기 때문이지만, 8GB는 애플 기기에서도 극단적으로 성능이 저하되기에 RAM 사용량이 큰 AI를 활용하기 어렵기 때문이다. 따라서 AI 시대에 맞춰 Apple Intelligence를 시장에 빠르게 보급해야 하는 애플로서는 우선 DRAM을 늘릴 수밖에 없었던 것이다.