1. 정의
EU AI법(EU AI Act)은 유럽연합(EU)이 AI 기술을 안전하고 윤리적으로 활용하기 위해 제정한 세계 최초의 포괄적인 AI 규제 법안이다.2. 배경
2.1. AI 기술의 급속한 발전
챗GPT같은 생성형 AI의 등장과 함께 AI가 일상생활과 산업 전반에 큰 영향을 미치게 되었다.AI의 사용이 늘어나면서 윤리적 문제, 안전성, 개인정보 보호 등의 위험 또한 커졌다.
2.2. AI의 위험성 증가
AI가 편향된 결과를 초래하거나, 잘못된 자동 결정을 내릴 경우 심각한 문제가 발생할 수 있다.예를 들어, AI가 채용이나 대출 심사에서 차별적인 결정을 내릴 가능성이 있다.
안면 인식 기술 같은 AI는 개인정보 침해 우려도 있다.
2.3. 규제의 필요성
AI 발전을 저해하지 않으면서도 안전하고 윤리적인 AI 사용을 촉진하는 법적 틀을 마련해야한다.데이터 보호법(GDPR)과 같이 글로벌 표준이 될 수 있는 AI 규제법이 필요하다.
3. 주요 역사
3.1. 2018년
<AI 규제 논의의 시작>2018년, 유럽연합(EU)은 인공지능(AI)의 윤리적 사용을 위한 가이드라인을 검토하기 시작했다.
당시 AI 기술이 급속히 발전하면서 사회적·경제적 영향을 고려한 규제 필요성이 대두되었으며, 이에 따라 EU AI 전략(EU AI Strategy) 이 발표되었다.
이 전략에서는 AI 개발을 촉진하면서도 윤리적·사회적 책임을 강화해야 한다는 방향성이 제시되었다.
또한, 유럽연합 집행위원회(EC)는 AI 규제의 초석이 될 고위 전문가 그룹(High-Level Expert Group on AI) 을 구성하고, AI 윤리 가이드라인 초안을 마련했다.
3.2. 2020년
<AI 백서(White Paper) 발표>2020년 2월, 유럽연합 집행위원회(EC)는 "AI 백서(White Paper on AI)" 를 발표하며 AI 규제 논의를 본격화했다.
이 백서는 AI 기술을 신뢰할 수 있는 방식으로 발전시키기 위해 위험 기반 접근법(Risk-Based Approach) 을 도입할 필요가 있음을 강조했다.
위험 수준에 따라 AI를 구분하고, 고위험 AI(high-risk AI)는 엄격히 규제하되, 저위험 AI는 장려하는 차별적 규제 접근법이 처음으로 등장했다.
이후 유럽연합은 AI 백서를 바탕으로 산업계, 학계, 시민사회 등의 의견을 수렴하며 법안을 구체화해 나갔다.
3.3. 2021년
<EU AI법 초안 공개>2021년 4월 21일, 유럽연합은 세계 최초의 포괄적인 AI 규제 법안인 "EU AI법(AI Act)" 초안을 공개했다.
이 법안의 핵심은 AI 시스템을 위험 수준에 따라 4단계로 분류하여 각기 다른 규제를 적용하는 것이었다.
- 금지 AI(Unacceptable Risk AI): 인권 침해 가능성이 높은 AI(예: 중국식 사회 신용 시스템)는 전면 금지
- 고위험 AI(High-Risk AI): 의료, 법률, 금융, 채용 등 인간의 안전과 기본권에 영향을 미치는 AI는 강력한 규제 적용
- 제한적 위험 AI(Limited Risk AI): 챗봇, 자동 추천 시스템 등은 투명성 요구사항 적용
- 최소 위험 AI(Minimal Risk AI): 단순한 AI 애플리케이션(예: 이메일 자동완성)은 자유롭게 개발 가능
그러나, 이 초안은 당시 생성형 AI(Generative AI)에 대한 규정이 거의 포함되지 않은 점이 한계로 지적되었다.
3.4. 2023년
<챗GPT 등장 & 법안 수정>2022년 말 OpenAI의 챗GPT(ChatGPT)가 출시되면서, 생성형 AI가 급부상하게 되었다.
이로 인해 기존 AI법 초안이 생성형 AI를 제대로 반영하지 못했다는 비판이 제기되었고, 2023년 6월 유럽의회(European Parliament)는 수정안을 통과시켰다.
주요 수정 내용은 다음과 같다.
- 생성형 AI 규제 도입: 챗GPT, Google Bard, Claude 등 기반 모델(Foundation Model)에 대한 투명성 규정 추가
- 데이터 공개 의무화: 생성형 AI를 개발하는 기업들은 훈련 데이터의 출처를 공개해야 함
- 출력물 식별 조치: AI가 생성한 콘텐츠임을 명확히 표시해야 함(딥페이크 등 악용 방지)
이처럼 생성형 AI의 등장으로 인해, AI법의 방향성이 더욱 강화되고 수정되었다.
3.5. 2024년
<최종 법안 합의>2024년 2월 2일, EU AI법이 최종 합의되었다.
법안의 주요 내용은 다음과 같다.
- AI 시스템을 위험 수준에 따라 차등 규제
- 생성형 AI 및 기반 모델에 대한 규정 강화
- 기업의 AI 개발 투명성 및 책임 강화
- AI가 인권을 침해하거나 차별을 유발할 경우 강력한 제재 도입
이 법안은 2024년 하반기부터 공식적으로 시행될 예정이다.
EU AI법은 세계 최초의 종합적인 AI 규제법으로, 향후 미국, 중국, 일본 등 글로벌 AI 정책에도 큰 영향을 미칠 것으로 예상된다.
4. 적용 대상
4.1. 적용 대상
EU AI법은 일반적으로 ai 개발자, 공급자(수입 및 유통업체 포함), 배포자 모두에세 적용된다.EU AI법은 AI 시스템 개발 장소가 EU 역내,외인지를 불문하고 AI 제품을 출시하거나 서비스하는 제공자, AI 시스템 개발 장소가 EU 역내에 위치한 AI 시스템 배포자, AI 시스템 갭라 장소가 EU 역외에 위치하나 생산된 AI 제품이 EU 역내에서 활용되는 AI 시스템의 제공자와 배포자, AI 시스템 수입, 유통업체 등에 적용된다
4.2. 예외 대상
EU AI법이 포괄적인 규제 법안이지만 해당 규범이 적용되지 않는 예외 사항이 존재한다.- AI 시스템이 군사, 방위 또는 국가 안보 목적으로만 시장에 출시, 운용, 또는 사용되는 경우
- 제3국의 공공당국 또는 국제기구가 EU 또는 EU 회원국과 체결한 국제협약에 따라 법 집행 및 사범공조를 위하여 AI 시스템을 사용하는 경우
- 시장 출시나 서비스 제공 전 단계의 AI 시스템 또는 모델에 관한 연구, 테스트 및 개발 활동
- 과학적 연구개발 목적만을 위해 개발되고 서비스가 제공되는 AI 시스템
- 순수하게 사적이고 비전문적인 활동을 위하여 AI 시스템을 사용하는 배포자
- 무료 라이선스 혹은 오픈소스 라이선스로 출시된 AI 시스템, 고위험 AI 시스템, 또는 범용 AI 시스템에 해당되는 경우를 제외한 AI 시스템
5. 위험 기반 접근 방식 (Risk-Based Approach)
EU AI 법은 위험 접근 방식을 채택하여 AI 시스템을 다음 세 가지 주요 범주로 분류하고 있다.5.1. 허용(용납) 할 수 없는 위험 (Unacceptable risk)
- 사회적 점수 매기기 시스템- 어린이나 취약 계층을 조작하는 시스템
- 실시간 원격 생체인증시스템
5.2. 고위험 (HIgh Risk)
-EU 제품 안전 법규에 적용되는 AI시스템- EU 데이터베이스에 등록이 필요한 8가지 영역의 AI시스템
1.생체 인식 및 분류
2.중요 인프라 관리 및 운영
3.교육 및 직업 훈련
4.고용 및 노동자 관리
5.필수 민간 서비스 및 공공 서비스 접근
6.법 집행
7.이민, 망명 및 국경 관리
8.법 해석 및 적용 지원
5.3. 저위험 (Low Risk)
-챗봇과 이미지,오디오,비디오 생성 AI6. 정책적 지원
AI법은 규제만을 규정한 법률은 아니며, AI 혁신과 발전에 관해 AI 규제 샌드박스, 실제 환경에서 테스트, 스타트업과 중소기업 지원의 세 가지 사항을 규정한다.6.1. 규제 샌드박스
EU는 회원국이 자국 내에서 AI 시스템을 개발, 테스트, 검증할 수 있도록 AI 규제 샌드박스를 구축할 것을 요구하고 있다. 이는 시장 출시 전 단계에서 혁신적인 AI 기술을 안전하게 시험할 수 있는 환경을 조성함으로써, 기업의 실험과 규제 준수를 동시에 지원하는 정책적 장치이다. 특히 스타트업과 중소기업이 규제 리스크 없이 기술을 시험해볼 수 있도록 법적 유연성과 기술 지원을 제공한다.6.2. 실제 환경에서 테스트
고위험 AI 시스템 공급자는 AI 법안에 규정된 모든 조건을 충족한 경우에는 규제 샌드박스가 아닌 실제 환경에서 테스트할 수 있다. 이를 통해 개발자는 실사용 상황에서 AI 시스템의 성능과 위험 요인을 검증할 수 있으며, 사용자와 사회에 미칠 영향을 보다 정밀하게 평가할 수 있다.6.3. 중소기업과 스타트업 지원
EU 내에 설립된 중소기업/스타트업에 관하여 AI 규제 샌드박스에 대해 우선적인 이용 기회를 제공하고 재정적 지원과 인프라 접근성 향상 등을 통해 이들의 시장 진입을 촉진하는 등의 혜택을 부여한다.7. 집행기관 및 자문단 구성, 설치
(EU AI 이사회, EU AI Board) - 회원국의 관련 기관 대표, 유럽 데이터 보호 감독관 및 EU 집해위원회의 고위급 대표로 구성(EU AI 사무국, EU AI Office) - EU 집행위원회 내 기능적으로 독립된 기관으로 EU 역내 AI 전문지식과 역량을 보유한 전문가들로 구성
(독립적인 과학전문가패널, Scientific Panel) - EU AI 사무소 활동을 지원하기 위한 독립적인 전문가로 구성된 과학 패널
(자문단, Advisory Forum) - 산업계(빅테크, 스타트업, 중소기업), 학계, 시민사회대표로 구성해 EU AI 이사회에 기술적 전문지식과 의견 제공
8. 주요국 AI법률 및 규제
8.1. 미국
● (국가 AI 이니셔티브법 제정) 바이든 정부 출범 후 ‘AI 이니셔티브법(The National AI Initiative Act of 2020)’을 제정(’21.1)해 AI 기술의 다차원적 영향에 대응● (AI 권리장전에 대한 청사진 발표) 미 백악관은 AI 기술의 개발과 사용 과정에서 발생할 수 있는 부작용을 최소화하기 위해 ‘AI 권리장전에 대한 청사진(The Blueprint for an AI Bill of Rights)’을 발표(’22.10)하여 AI 윤리 지침 정립
● (AI 행정명령 공표) 바이든 대통령은 AI 기술의 투명성 향상과 새로운 기준 마련을 주요 목표로 하는 ‘AI 행정명령
(Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence)’을 발표하고 이에 기반한 후속 이니셔티브 발표(’23.10)
● 2024년 2월 바이든 정부는 특정 민감한 개인 데이터 및 정부 관련 데이터를 중국을 포함한 관련 국가로 전송하는 것을 제한하는 행정명령을 발표하여 AI 관련 위험에 대응하고 민감한 데이터를 보호하기 위한 추가 조치 수행
● 입법적인 측면에서 미국은 아직 포괄적인 AI 규제 법안이 제정되지 않았으나, 현재는 연방 정부, 주 정부, 업계 자체, 법원이 혼합하여 관리 중
8.2. 중국
● (AI입법 의지 공표) 2023년 6월, 중국 최고 통치기구인 국무원은 AI법을 입법 의제로 삼겠다고 발표● (생성형 AI 서비스 관리 잠정방법에 관한 법률 공포 및 시행) AI에 대한 감독을 강화하기 위해 생성형 AI에 대한 최초 규제인 ‘생성형 AI 서비스 관리 잠정방법’ 시행
● (글로벌 AI 거버넌스 이니셔티브 발표) 중국은 ‘글로벌 AI거버넌스 이니셔티브’ 발표를 통해 글로벌 규칙과 표준에 대한 리더십 구축 시도
8.3. 일본
● (AI 전략 회의 개최) 현재 AI 규제를 위한 특정 법률은 없으며 전문가 및 정부관계자들이 참여하는 ‘AI 전략 회의’를 통해 AI 규제·활용에 대한 정책방향 논의● (AI안전연구소 설립) 2024년 2월 14일 경제산업성 산하 정보처리추진기구(IPA)에 AI 안정성 확보 전담 조직인‘AI안전연구소’를 설립
● (AI 가이드라인 발표) 경제산업성과 총무성은 AI에 관한 잠정적 논점정리를 바탕으로 기존 가이드라인을 통합·업데이트한 「AI 사업자 가이드라인」을 발표
● (AI 법안 도입 추진) 일본 정부는 5월 AI 전략 회의에서 AI의 안전성 확보를 위한 규제법 마련을 검토하기 시작했다고 발표
9. 위반 시 벌금
EU AI법을 준수하지 않을 경우 다음과 같이 막대한 벌금이 부과될 수 있다.EU AI법은 단계적으로 시행되며, 벌금도 점점 더 강력해진다. AI를 개발하거나 활용하는 기업이라면 지금부터 규제 준수를 준비해야 한다.
9.1. 위반 단계 별 벌금
-금지된 AI 관행을 위반하는 경우-벌금: 전 세계 연 매출의 7% 또는 3,500만 유로(약 500억 원) 중 높은 금액
위반 예시: 실시간 생체인식 감시, 사회적 신용 시스템(중국식 점수제),,무분별한 감정 분석 AI
-고위험(High Risk) AI시스템의 요건을 준수하지 않은 경우-
벌금: 전 세계 연 매출의 3~6% 또는 최대 1,500만 유로(약 210억 원)
위반 예시: AI 투명성 미준수, 품질 관리 부족, 의료, 금융, 법률, 교육, 채용, 공공 서비스 등의 AI 무분별 사용 등
-당국에 잘못된 정보, 불완전한 정보 또는 오해를 유발하는 정보를 제공한 경우-
벌금: 전 세계 연 매출의 1.5% 또는 750만 유로(약 100억 원)
위반 예시: AI 규제 기관에 잘못된 정보 제공
10. 관련 영상
11. 향후 전망 (2025년 이후)
법안이 2024년 하반기부터 공식 발효, 단계적으로 시행될 예정이다.기업들은 규제에 맞춰 AI 시스템을 조정해야 하고, 위반 시 벌금(매출의 최대 7%)도 부과될 수 있다.
EU의 AI 규제가 글로벌 표준이 될 가능성이 크기에, 미국, 한국 등도 영향을 받을 것으로 예상된다.