최근 수정 시각 : 2025-04-13 23:00:50

인공지능 로봇

생성형 인공지능
{{{#!wiki style="margin:-0px -10px -5px"
{{{#!folding [ 펼치기 · 접기 ]
{{{#!wiki style="margin:-5px -1px -11px; word-break:keep-all"
유니모달 모델 기반
<colkeepall> 텍스트 [[소설|
소설
]] NovelAI · AI Dungeon · AI Novelist
대화형 [[챗봇|
챗봇
]] ChatGPT · Microsoft Copilot · Gemini · CLOVA X · Cue: · Inflection AI · Mistral AI · Grok
[[언어 모델|
언어모델
]] GPT · LLaMA · Gemma · Claude · Phi · Exaone · OpenELM · Qwen · DeepSeek
코드 [[코드#컴퓨터 소프트웨어|
코드
]] GitHub Copilot · Devin · Phind · DeepSeek
이미지 [[그림 인공지능|
그림
]] Midjourney · DALL·E · Imagen · Artbreeder · NovelAI Image Generation · Stable Diffusion · FLUX.1 · Gaugan2 · Dream by WOMBO · Adobe Firefly· Deep Dream Generator
[[영상 인공지능|
영상
]] Stable Video · Sora · Meta Movie gen · Lumiere · Veo · Runway AI · Kling AI
[[모델링|
모델링
]] LATTE3D
오디오
소리
[[음성|
음성
]] A.I.VOICE · DeepVocal · Voice Engine
[[음악|
음성/음악
]] Suno · Stable Audio · Udio · AIVA
멀티모달 모델 기반
대화형
+이미지
Exaone 3.5 · Samsung Gauss
+음성/이미지
GPT-4o · GPT-5 · Gemini · o1 · o3 · o4 · DeepSeek
+에이전트
Galaxy AI · Claude 3.7 Sonnet · SAIP
행위
동작
[[지능형 에이전트|
에이전트
]] Apple Intelligence · Project Astra · Operator · Google Jarvis · Manus AI
[[인공지능 로봇|
체화
]] Tesla optimus · Google RT-X · Gemini Robotics · Isaac Gr00t N1 · Helix
}}}}}}}}}


1. 개요2. 정의3. 사례4. 개발사5. 로봇 파운데이션 모델
5.1. 종류
5.1.1. Gemini Robotics5.1.2. Isaac GROOT N15.1.3. Helix
5.2. 컴퓨팅 플랫폼
6. 학습
6.1. 시뮬레이터6.2. 월드 모델6.3. 컴퓨팅 플랫폼
6.3.1. Nvidia DGX6.3.2. Nvidia OVX6.3.3. Tesla dojo
7. 역사8. 용어 사용의 혼선9. 관련 문서10. 둘러보기

1. 개요

인공지능 시스템을 결합시킨 로봇을 말한다. 전반적인 개념을 일컬을 때나 로봇 하드웨어를 일컬을 때는 "인공지능 로봇(AI robot)", "인공지능으로 구동되는 로봇(AI-powered robots)", "인공지능으로 작동되는 로봇(AI-driven robots)"등의 용어가, 로봇을 구동하는 AI 파운데이션 모델을 일컬을 때는 “체화된 인공지능(Embodied AI), "물리적 인공지능(Physical AI)"등의 용어가 주로 사용된다.

2. 정의

2022년 달리2의 등장과 함께 본격적으로 상업적 용도로 사용 가능한 퀄리티의 그림 인공지능이 대두하고 그 해 연말 ChatGPT 서비스 시작과 함께 딥러닝 기반 인공지능이 언론의 주목을 대대적으로 받기 시작한 이후 AI로봇에 대한 정확한 학술적 정의가 존재하지 않음에도 AI로봇, 혹은 인공지능 로봇이라는 용어는 언론과 대중들에 의해 널리 사용되고 있다.

3. 사례

인공지능 로봇(AI robot)이란 기본적으로 AI와 로봇의 합성어로 사용 목적에 필수적인 여러 기능을 구현하는 데 딥러닝 메커니즘이 적용된 로봇 일반을 일컫는다.
입력에서 출력까지 파이프라인 네트워크 없이 신경망으로 한 번에 처리하는 엔드 투 엔드 시스템(end to end system) 인공지능 로봇, 즉 구현에 있어서 로봇의 핵심 동작을 하드코딩 하지 않는 진정한 의미에서의 인공지능 로봇에 해당하는 부류들이 있는가하면 주변기능 구현에만 AI를 적용하여 오디오 투 액션(audio to action) 혹은 텍스트 투 액션 컴포넌트 (text to action component)가 빠져있는 로봇들도 존재한다.

후자의 로봇들은 전통적인 로봇공학을 사용해 모든 움직임을 하드코딩 하거나 원격 조종(teleoperation)을 통해 움직이므로 자율적으로 움직일 수 없는 경우가 많다. 다만 거대 언어 모델(LLM)을 탑재하여 인간과 자연어로 소통이 가능한 경우, 사람이 일일이 리모컨으로 움직임을 조종하거나 글러브를 껴서 원격 구동하되 시각정보처리 인공지능을 탑재하는 경우 등도 한정적이지만 인공지능을 로봇에 적용한 사례로 보아야 할 것이다.

로봇은 기본적으로 시각, 촉각, 청각 등 다양한 감각 자극을 처리하여 직접 행동이나 언어 등의 피드백으로 옮겨야 하므로 이와 같은 로봇의 구현을 위해서는 대형 멀티모달 모델(LMM, Large multimodal model) 혹은 T2A(text to action) 모델의 적용이 반드시 필요하다. 세간의 편견과는 달리 인공지능 로봇이 반드시 휴먼 폼팩터(human form factor)를 가질 필요는 없으나 아래에 소개된 사례는 손로봇인 닥틸을 제외하면 전원 휴머노이드이기도 하다.
  • 닥틸 (OpenAI)
  • Eve (1X 테크놀로지 ) [1]
  • Neo Gamma (1X 테크놀로지 ) [2]
  • 피닉스 (Sanctuary AI)
  • G1 (Unitree) : e2e ai역량(end-to-end capability)을 가지고 있는 것으로 알려져있다.
보스턴 다이내믹스는 본래는 인공지능 로봇 개발사가 아니었으나 2024년 이후 프로젝트 그루트의 협력사로서 엔비디아의 시뮬레이션과 로보틱스 플랫폼을 적극 활용하는 것으로 알려져 있다.[3]
현재까지 자연어 명령을 통해 동작하는 고도의 일반화, 상황인식 능력을 보여주거나 양산 계획과 관련해 구체적인 언급을 하지는 않았으나 아틀라스가 유압식 구동방식을 버리고 전기 구동으로 전환했음에도 구현 가능한 동작 수행의 파워와 기동성 측면에서 유압식에 근접한 성능을 보여줌으로서 많은 이들의 관심을 불러모으고 있다.
* 디지트(digit) (어질리티 로보틱스)
보스턴 다이내믹스와 마찬가지로 제작사인 어질리티 로보틱스가 엔비디아의 프로젝트 그루트에 협력사로 참여함에 따라 엔비디아의 인공지능 플랫폼을 활용하게 된 사례이다.
* 아메카 (Engineered arts)
자연스러운 손동작, 얼굴 및 표정 움직임을 구현한 것이 인상적인 로봇으로 아메카의 몸동작과 얼굴표정은 인공지능을 적용한 트라이튬OS(TritiumOS)로 작동하는 것으로 알려져 있다. 가장 유명한 제품인 아메카의 경우 LLM 컴포넌트는 GPT를 사용하는 것으로 알려져있어 트라이튬OS는 자연어 처리는 손대지 않고 t2t를 담당하는 GPT와 인터페이스를 통해서 연결되어있는 것으로 보인다. 따라서 추후 GPT 기능이 업그레이드 될 수록 의사소통도 더 자연스러워질 가능성이 높다.

4. 개발사

인공지능 로봇의 퍼포먼스 진전이 고전적인 로봇공학의 산물인 비인공지능 로봇들보다 훨씬 빨라짐에 따라 일부 기업들은 독자적인 VLA 모델 개발에 나서고 있으나, 대부분의 인공지능 로봇 개발사들은 모델 개발은 구글, 엔비디아등에 위탁하고 로봇 하드웨어 개발과 제조에만 집중하고 있다. 실제로 엔비디아의 프로젝트 그루트 협력사 가운데는 인공지능 시스템 e2e도입을 기존에 하지 않았던 개발사의 로봇들이 다수 포함되어 있는데 어질리티 로보틱스와 보스턴 다이내믹스, 푸리에 인텔리전스, 앱트로닉, XPENG, 디즈니 등이 이에 해당한다.
  • 테슬라 : 대량생산 체제를 갖추고 있다고 평가되어 상용화와 가장 근접한 것으로 여겨지고 있다. 최신 개발 로봇인 테슬라 옵티머스 2세대는 휴머노이드 로봇 개발사 중에 가장 유려하고 섬세한 움직임을 보여준다.
  • Figure AI : OpenAI, 엔비디아, 마이크로소프트의 투자를 받고 있으며 결국 결렬되기는 하였으나 한동안 OpenAI와도 연구 협력관계였다. 과거 피규어AI의 주력 로봇인 Figure01에 GPT가 적용되어 있었다. 현재 주력로봇인 Figure02는 Helix라는 독자적인 VLA 모델을 기반으로 동작하는 것으로 알려져 있다.
  • XPENG robotics
  • 어질리티 로보틱스(Agility Robotics) : 아마존산업혁신펀드로부터 투자받았으며 개발 모델인 디지트(digit)가 유명하다.
  • 푸리에 인텔리전스(Fourier Intelligence)
  • 1X 테크놀로지 : 선보인 '이브'와 '네오'가 모두 E2E 인공지능 로봇이며 이브는 이미 가정용으로도 판매되고 있는 것으로 알려져있다. FigureAI와 마찬가지로 OpenAI의 투자를 받았으나 피규어AI에 OpenAI의투자가 집중되면서 기술협력과 관해서는 OpenAI와 결렬된 것으로 알려졌다.
  • Sanctuary AI : 자사 로봇인 피닉스(pheonix)가 end-to-end solution을 채택하고 있는 것으로 알려졌다. #
  • Unitree : 중국의 AI 로봇 기업이다. 중국 기업가운데 e2e 인공지능 시스템으로 동작하는 휴머노이드를 공개한 최초의 기업
  • 앱트로닉(Apptronik): 구글 딥마인드 로보틱스 팀과 협업을 선언하였다. #

5. 로봇 파운데이션 모델

VLA 모델(Vision-Language-Action Model)이라고도 하며 텍스트, 비디오, 시연(Demonstration)등의 인풋을 받아 액션을 생성하는 로봇 파운데이션 모델들을 일컫는다.즉, 일종의 생성형 인공지능이다. 이 분야의 연구는 구글 딥마인드엔비디아가 주도하고 있으며 대부분의 인공지능 로봇 하드웨어 개발사들은 이들의 플랫폼을 적극적으로 사용하여 시뮬레이션, 학습, 모델 개발 등을 진행하고 있다.
반면 엔비디아는 제조업체와 직접 경쟁하기 보다는 OEM 생산으로 사업모델을 확정한 것으로 알려졌으며, 구글 역시 비슷한 궤도를 따르고 있어 제조부문과 모델 및 시뮬레이션 플랫폼 개발 사이에 분업화가 빠르게 이루어지고 있다.
엔비디아구글은 경쟁관계이기도 하지만 물리엔진을 공동 개발하거나 MuJoCo 시뮬레이터를 엔비디아 GPU에 최적화한 MuJoCO WARP를 GTC2025에서 공개하는 등 협력관계 역시 다방면으로 구축하고 있다.
테슬라 옵티머스의 경우 어떤 종류의 모델을 사용하고 있는지 테크니컬 디테일을 일반에 공개한 적이 한 번도 없으며, 다만 테슬라 자동차에 들어가는 ADVA(Advanced driver-assistance system)와 같은 종류의 모델이 사용된다는 정보만 알려진 상황이다. # 엔비디아의 수석 연구원인 짐 팬(Jim fan)은 테슬라 옵티머스의 VLA컴포넌트와 학습방식에 대해 몇 가지 추측과 커멘트를 남기기도 하였다.#

5.1. 종류

5.1.1. Gemini Robotics

구글 딥마인드가 개발했던 RT-X (구글)과 OpenVLA등이 직접적 전신이라고 할 수 있다. Gemini의 멀티모달 추론 능력과 결합하여 대폭 성능이 향상되었다. Agile Robots, Agility Robotics, Boston Dynamics, Enchanted Tools가 Gemini Robotics의 테스터(trusted tester)로 선정되어 얼리 액세스를 확보한 상태이며, Apptronik은 유일한 협력사로 앞서 열거돤 기업들 보다 광범위한 협력체제를 구축하고 있다.

5.1.2. Isaac GROOT N1

Isaac GROOT은 엔비디아의 로봇 파운데이션 모델과 모델 개발 플랫폼을 통칭하여 일컫는 것으로, 파운데이션 모델인 Isaac GROOT n1, 시뮬레이션 프레임워크인 엔비디아 옴니버스(NVIDIA Omniverse), 합성 데이터 생성 파이프라인인 코스모스(Cosmos), 그리고 젯슨 소르(Jetson Thor) [4]라고 하는 휴머노이드 로봇 전용 컴퓨터로 구성되어 있다.

Project GROOT(프로젝트 그루트)라는 인간의 행동이나 영상을 관찰하고 자연어 명령을 이해한 다음 움직임을 모방·학습하는 로봇 플랫폼 개발을 목표로 하는 프로젝트의 일환이며 기존에 엔비디아가 운영하고 있던 Isaac Robotics 플랫폼[5]에 새로운 인공지능 파운데이션 모델과 시뮬레이션, AI 워크 플로우 인프라를 위한 툴을 추가한 결과물이라고 할 수 있다.

GTC 2024에서 공개된 Project GROOT의 협력사와 주력로봇으로는 피규어 AI의 피규어 01, Unitree Robotics의 H1 V3, Apptronik의 아폴로, 어질리티 로보틱스의 디짓(Digit) 1세대, Sanctuary AI의 피닉스 7세대, 1X Technologies의 네오, Fourier Intelligence의 GR1, 보스턴 다이내믹스의 아틀라스 1세대, XPENG Robotics의 PX5 등이 있다.

5.1.3. Helix

피규어 AI의 로봇 파운데이션 모델로 상당한 수준의 멀티모달 협력(Multi modal collaboration)능력을 시연하였다.

5.2. 컴퓨팅 플랫폼

엔비디아는 2025년 상반기에 휴머노이드 로봇에 탑재되는 블랙웰 아키텍처 기반 소형 컴퓨터인 젯슨 소르(Jetson Thor)를 출시 예정에 있다. 젯슨 소르는 NVIDIA Jetson 시리즈의 최신 모델로 특히 로보틱스를 염두에 두고 개발되고 있는 것으로 알려져 있다.
젯슨 소르는 로봇 자체에 탑재하여 각종 센서리 인풋을 처리하고 액션을 생성할 수 있는 엣지 컴퓨팅 플랫폼이기도 하지만 동시에 과거 모델들처럼 휴머노이드 폼팩터뿐만 아니라 자율주행차, 드론, 사물 인터넷 등에도 널리 활용될 전망이다.

6. 학습

6.1. 시뮬레이터

인공지능 로봇의 물리 인공지능은 모방학습(Imitation learning), 강화학습(Reinforcement Learning)등의 방법으로 주로 학습되고 있다.
모방학습은 유려하고 사람같은 동작을 구현할 수 있으나 시연 데이터 확보에 어려움이 있으며, 강화학습은 대규모 합성 데이터로 학습 프로세스를 진행항 수 있으나 다소 어색하고 끊기는 듯한 인상을 줄 수 있다.
Isaac Sim, MuJoCo 등의 시뮬레이터와 Isaac Lab과 같은 학습 플랫폼이 개발에 활용되며, Isaac Lab은 모방학습과 강화학습을 모두 지원한다. 2025년에는 구글, 엔비디아디즈니 리서치가 공동으로 로보틱스 전용 물리엔진 뉴턴(Newton)을 발표, 연말 공개를 연구하였다. #
뉴턴 엔진은 Isaac Sim이 기존에 사용하던 물리엔진인 PhysX를 대체할 예정이다.

6.2. 월드 모델

엔비디아의 경우 Cosmos라는 월드 파운데이션 모델(World Foundation Models, WFM)을 제공하고 있는데 자율주행과 로보틱스에서의 물리 AI 개발 및 학습을 위한 용도이다. 현재 시점에서는 1X, 어질리티 로보틱스(Agility Robotics), Figure AI 등의 기업이 Cosmos를 채택하여 물리적 AI의 훈련 데이터를 생성하고 있다.

엔비디아 Cosmos의 핵심 구성 요소로는 Cosmos-Predict, Cosmos-Transfer, Cosmos-Reason가 있다. Cosmos-Predict는 로봇이나 자율주행 차량의 사후 학습 용도로 텍스트, 이미지, 동영상 등 멀티모달 입력을 기반으로 가상 세계의 상태를 생성하는 모델이다. 시작과 종료 이미지가 주어지면, 그 사이의 동작이나 모션 궤적을 예측하여 연속적인 프레임을 생성하는 멀티 프레임 생성(Multi Frame Generation, MFG) 기능을 지원한다.

Cosmos-Transfer는 세그먼트 맵, 뎁스 맵, 라이다 스캔 등 비디오 입력을 포토리얼리스틱 비디오 출력으로 변환하는 모델로 3D 시뮬레이션이나 Omniverse에서 생성된 데이터를 현실감 있는 비디오로 변환하여 대규모 합성 데이터 생성을 하는 용도이다. 어질리티 로보틱스(Agility Robotics)는 로봇 모델의 훈련을 위한 합성 데이터 대규모 생성에 엔비디아의 Cosmos-Transfer를 활용하고 있다고 알려져 있다.

Cosmos-Reason은 시공간 인식 능력을 갖춘 멀티모달 AI 추론 모델로 사고의 연쇄(chain-of-thought)를 사용해 영상 데이터를 이해하고, 사람의 행동이나 사물의 움직임과 같은 상호작용의 결과를 자연어로 예측한다. 물리 AI 시스템이 복잡한 상황을 이해하고 적절한 결정을 내릴 수 있도록 지원하는데 초점을 맞추고 있다.

6.3. 컴퓨팅 플랫폼

6.3.1. Nvidia DGX

NVIDIA는 DGX와 OVX라는 인공지능 고성능 컴퓨팅 시스템을 개발했는데, 이 둘은 각기 다른 목적과 워크로드를 지원하도록 설계되어있다. DGX(Datascience GPU eXperience)는 AI 모델의 훈련과 추론을 가속하기 위한 고성능 컴퓨팅 플랫폼으로 최신 NVIDIA GPU와 NVLink, NVSwitch 등의 기술을 활용하여 GPU 간의 고속 통신을 지원한다.
대규모 데이터 처리와 복잡한 연산을 효율적으로 수행할 수 있으며 인공지능 로봇개발에서는 특히 사전학습에 이용된다.

6.3.2. Nvidia OVX

OVX는 그래픽과 컴퓨팅 성능이 동시에 필요한 워크로드를 지원하는 컴퓨팅 시스템으로 디지털 트윈, 3D 시뮬레이션, 산업용 AI 등 그래픽과 컴퓨팅 성능이 동시에 요구되는 워크로드를 지원하도록 설계되어있다. 고성능 GPU 가속기와 인공지능 기능, 저지연 네트워킹을 결합하여 복잡한 3D 가상 세계와 디지털 트윈을 구동하고, ISSAC lab 모방, 강화 학습 프로토콜의 핵심 기반인 시뮬레이션을 실시간으로 수행할 수 있다.

6.3.3. Tesla dojo

파일:상세 내용 아이콘.svg   자세한 내용은 Dojo 문서
#!if (문단 == null) == (앵커 == null)
를
#!if 문단 != null & 앵커 == null
의 [[Dojo#s-|]]번 문단을
#!if 문단 == null & 앵커 != null
의 [[Dojo#|]][[Dojo#|]] 부분을
참고하십시오.

7. 역사

인공지능을 부분적으로 결합시킨 로봇들은 좀 더 이전부터 있어왔지만 인공지능만으로 핵심 기능을 구동하는 로봇은 그 역사가 극히 짧다.
2022년까지 연달아 좌절되거나 제한적인 성능을 보여주던 AI로봇이 2023년 처음으로 실질적인 성과를 달성, 대중에게 공개되기 시작하였다. 비록 AI로봇이 그 개념은 매우 오래지만 개념증명적 측면에서 AI로봇의 역사는 2023년부터 시작되었다고 해도 과언이 아니다. 인공지능 로봇의 주요 개발사로는 구글, 테슬라, OpenAI, NVIDIA, FigureAI 등이 있으며 더 많은 개발사들이 점점 인공지능 로봇 개발에 뛰어들고 있다
  • 2018년 : 챗GPT의 개발사인 OpenAI가 손의 기능과 모양을 흉내낸 로봇 닥틸(Dactyl)을 개발
  • 2021년 : OpenAI 로봇팀 해체, 테슬라 AI데이에서 처음으로 테슬라 옵티머스 프로토 타입 범블비(Bumblebee) 공개
  • 2022년 : 구글 RT-1 공개
  • 2023년 5월: Sanctuary AI 피닉스(Pheonix) 공개
  • 2023년 9월: 테슬라 옵티머스 1세대 공개, 유니트리(Unitree) 파쿠르 하는 로봇개 로봇 공개.
  • 2023년 10월: 구글 범용 로봇 인공지능 RT-X 공개
  • 2023년 10월: 엔비디아 LLM 기반 로봇 시뮬레이션 Eureka 공개 #
  • 2023년 12월 : 테슬라 옵티머스 2세대 공개
  • 2024년 1월 : 1X technologies 자사 로봇 이브(eve)에 E2E 자율성(end-to-end autonomy)탑재 업데이트
  • 2024년 3월 : Figure AIOpenAI 와의 파트너십 공개 이후 처음으로 자연어 처리능력과 자세제어 능력이 하나의 모델로 결합된 기술시연 영상 공개 #, 엔비디아 ‘GTC 2024’에서 로봇 통합 프로젝트 ‘그루트(GR00T)'발표.
  • 2024년 5월 : 엔비디아가 로봇 훈련 시뮬레이션 DrEureka # 공개
  • 2024년 5월 : Unitree가 e2e 인공지능 안드로이드 G1을 공개
  • 2024년 9월 : MIT연구팀 이종 사전훈련 트랜스포머(Heterogenous pre-trained transformers)개발
  • 2024년 10월 : Meta, 비전 기반 촉각 센싱 범용 인코더 Sparsh, 인공 손끝 Digit360 및 촉각 지각 인공손 표준화 플랫폼 Digit plexus 동시 공개, GelSight Inc 및 Wonik Robotics 과 전략적 파트너쉽 체결 사실 공표
  • 2024년 10월 : 엔비디아 Gear lab, 휴머노이드 로봇 모터 조정 파운데이션 모델 Hover[6] 공개
  • 2024년 10월 : Physical intelligence, 범용 로봇 파운데이션 모델 π0 공개

8. 용어 사용의 혼선

세간의 인식과는 달리 2022년 이전에 나온 대부분의 로봇이나 AI들은 로봇이되 AI가 아니거나 반대로 AI이되 로봇이 아니었다.

가령 알파고알파폴드와 같이 특정 분야에서 탈인간적 성능을 보여주는 약인공지능ChatGPT클로드 3와 같은 LLM기반 챗봇도 모두 인공지능이지만 로봇은 아니다. 대중들 사이에서 흔히 퍼진 밈이나 만화 등에서는 인공지능을 로봇으로 묘사하곤 한다. 하지만 인공지능 서비스는 대개 아무리 고기능이라고 할지라도 현실 세계와의 인터페이스(interface)가 존재하지 않는 단순 프로그램인 경우가 대부분이다.

반면 2020년대까지 제조업에서 흔히 쓰여온 로봇팔 따위의 물건들이나 식당에서 고객이 앉은 테이블로 음식을 전달하는 서빙 로봇 등은 로봇이지만 인공지능이 적용되지 않았으므로 AI로봇으로는 볼 수 없다. 우스개소리로 이러한 로봇들을 마치 지능이나 의식이 있는 양 묘사하는 경우도 있으나, 실제로 2020년대까지 출시된 대부분의 산업용, 대면 서비스용 로봇들은 인공지능을 탑재하고 있지 않으며 2025년 현재에도 AI로봇은 실험실에만 머물러 있는 수준이다.

휴머노이드와의 구분도 중요하다. 휴머노이드 로봇은 '인간의 형태'를 가진 로봇을 말하며, 지능형 로봇이냐 아니냐의 이슈와는 별개의 차원이다. 과거 한 시대를 풍미했던 아시모는 휴머노이드지만 인공지능 로봇이 아니며 딥러닝 아키텍처 유행 이전에 왓슨을 탑재하여 공개된 소프트뱅크의 로봇 '페퍼'와 한 때 인공지능 로봇으로 널리 알려져 있던 소피아도 휴머노이드는 맞지만 진정한 의미에서 인공지능 로봇이라고 하기는 어렵다. 로봇개 아이보는 휴머노이드도 인공지능 로봇도 아닌 사례. 반면 구글의 Gemini Robotics가 적용된 로봇팔이나 OpenAI가 개발했던 닥틸은 휴머노이드가 아니지만 인공지능 로봇이라고는 부를 수 있다. 피규어 02테슬라 옵티머스는 인공지능 로봇이자 동시에 인간형 휴머노이드다.

한 때 AI를 엔드 투 엔드(end-to-end)로 구현하지 않았던 과거의 보스턴 다이내믹스 로봇들을 AI로봇으로 부를 수 있는지도 웹상에서 소소하게 논란이 되었었는데 # 2010년대에 공개되었던 보스턴 다이내믹스의 로봇들은 민첩성(agility)과 기동력, 동작의 자연스러움은 무척 뛰어나나 동작 하나하나를 리모컨으로 조종하거나 미리 설계해야한다는 점에서 구글 딥마인드, 테슬라, Figure AI가 개발하는 AI로봇에 비해서 자율성이 한참 떨어지는 양면성을 갖고 있었다.

하지만 보스턴 다이내믹스 역시 스팟등의 시각 정보 처리나 인간과의 대화, 커뮤니케이션 인터페이스 영역에서 LLM 시스템을 적용하거나 # 메타와 협업하는 등 # AI를 기존의 고전적인 로봇공학 노하우와 결합시키려는 다양한 시도를 해왔으며, 아틀라스 2세대에 들어서는 아예 엔비디아의 Sim2Real 플랫폼인 Omniverse와 강화학습 파이프라인 등을 적극 활용하는등 인공지능 로봇 기업으로 탈바꿈하고 있어 앞으로는 철지난 논란이 될 전망이다.

9. 관련 문서

10. 둘러보기

인공지능
인공지능기계학습인공신경망딥 러닝
인공지능 - 인공지능 구현을 위한 몇 가지 기술이 존재한다.
기계학습 - 많은 매개변수를 넣어주면 모델이 스스로 규칙을 학습하는 방식의 인공지능 구현 방법이다.
인공신경망 - 인간의 뉴런 구조를 본떠 만든 기계 학습 방법론이다.
딥 러닝 - 입력층과 출력층 사이에 있는 은닉층에 인공 뉴런을 여러 겹 쌓고 연결한 인공신경망 방법론 중 하나이다. 즉, 단일층이 아닌 실제 뇌처럼 다층 구조로 되어있다. 21세기에 와서는 (인공신경망=딥러닝)이라고 이해해도 무방하다.
인지 컴퓨팅 - 기계학습을 이용하여 특정한 인지적 과제를 해결할 수 있는 프로그램 또는 솔루션을 이야기한다.
뉴로모픽 컴퓨팅 - 인공 신경망을 하드웨어적으로 구현한 것이라고 생각하면 된다.



[1] 바퀴로 운용된다.[2] 이브와는 달리 이족보행을 하는 안드로이드이다.[3] 보스턴 다이내믹스는 모델 및 시뮬레이션 엔진, 컴퓨팅 플랫폼 등을 엔비디아에 의존하되 로봇 제조에 전념하는 방식으로 나아가는 듯하다.[4] SoC(Thor system-on-a-chip) 기반이다.[5] ROS2를 기반으로 여러 컴퓨팅 패키지와 라이브러리, AI 모델을 제공한다.[6] Isaac으로 훈련되었으며 1.5M 패러미터 규모로 알려져 있다

분류