국가별 AI 규제 정책 현황
EU는 AI 법안을 통해 엄격한 규제를 시행하고 있으며, 미국은 규제 기관을 통해 AI 플랫폼의 영향을 면밀히 조사하고 있습니다. 이러한 규제의 핵심 원칙으로는 인권 존중, 지속 가능성, 투명성 및 위험 관리 등이 포함됩니다. EU, 미국, 중국, 일본 및 영국을 비롯한 여러 국가들은 각자의 규제 방안을 추진하는 동시에, 국제적 협력을 강화하여 AI의 안전하고 지속 가능한 발전을 도모하고 있습니다.
이 가이드에서는 이러한 각 국가들의 AI 규제 정책의 현황을 소개합니다.
유럽연합
2024년 3월 13일 세계 최초로 AI 법안(Regulation Laying Down Harmonised Rules on Artificial Intelligence, 이하 EU AI 법)을 통과시켰습니다.
EU AI 법은 현재까지 AI에 관하여 이루어진 가장 포괄적인 규제 프레임워크이며, 2024년 5 ~ 6월경에 발효되어 2024년 하순부터 시행될 것으로 예상됩니다.
EU AI 법의 주목적은 강력한 AI 시스템이 초래할 수 있는 인권, 안전 및 윤리 문제를 감소시키는 데에 있으며, AI 시스템의 배포 및 사용에 대한 위험(Risk) 기반 접근 방식을 채택하여 AI 시스템의 잠재적인 위험과 영향 수준에 따라 위험도를 4단계로 나누어 차등 규제합니다.
법안 통과 과정 개요
• 2023년 12월: EU 정책 입안자들의 합의
• 2024년 2월 2일: 상임대표위원회에서 AI 법 채택
EU, 세계 최초 인공지능법 최종 합의에 도달
- 고위험 AI 시스템의 식별과 감독 강화를 통해 AI의 신뢰성을 보장하고 기본권을 보호하며, 디지털 단일 시장 내에서 혁신을 촉진하는 것을 목표
- AI 시스템의 위험 수준에 따라 의무를 부과하며, 시민의 권리와 민주주의에 위협이 되는 특정 애플리케이션의 사용을 금지
- 생체 인식 분류 시스템과 얼굴 인식 데이터베이스에 대한 비표적 스크래핑 등을 금지
- AI 법안의 실질적인 시행은 2025년부터 시작될 것으로 예상(세계 최초로 AI에 대한 법안을 마련)
- 이 법안은 안전한 운영 및 기본권 존중, 그리고 혁신 촉진을 목표로 하고 있어, 앞으로 AI 기술에 대한 국제적인 규제 흐름에 중요한 영향을 미칠 것으로 예상됨
미국
미국이 세계 각국과 함께 글로벌 인공지능(AI) 규제에 대한 합의를 이끌고 나섰습니다. 지난해부터 급증한 전 세계 AI 개발 열풍의 그림자인 국가 안보, 인류 위협 등을 예방하기 위한 공통된 규제가 있어야 한다는 판단에서 입니다.
2024년 3월 14일(현지시간) 블룸버그는 미국이 안전하고 신뢰할 수 있는 AI 시스템을 장려하기 위한 결의안 초안을 유엔(UN)에 제출했다고 보도했습니다.
또한, 블룸버그는 “초안을 확인한 결과 보안 시스템, 위험 관리 등을 포함하는 AI 사용에 대한 효과적인 안전장치를 마련한다는 내용을 담았다”고 전했습니다.
아울러 초안에는 AI 개발 민간 업체가 관련 국제법 및 국내법을 준수하도록 장려한다는 것도 포함되었으며, 선진국과 개발도상국 간 AI 기술 격차를 줄인다는 내용도 담겨있습니다.
바이든 대통령, 미국 최초 ‘AI 행정 명령’ 발표
바이든 대통령이 2023년 10월 30일 미국 최초로 AI 관련 행정 명령을 발표하였습니다.
국내 기업이 개발한 AI 모델이 국가 안보, 경제, 또는 건강 위해를 초래할 경우, 이를 연방 정부에 통지해야 한다는 것이 핵심 내용입니다. 주요 사항을 정리하면 아래와 같습니다.
- AI 안전 및 보안을 위한 새로운 표준 정립
- 국민의 개인 정보 보호
- 형평성 및 시민권 증진
- 소비자, 환자 및 학생을 위한 AI
- 근로자 지원
- 혁신과 경쟁 촉진
- 전 세계적 AI 리더십 발전
- 책임감 있고 효과적인 정부의 AI 사용 보장
미국 백악관, AI 기업 대상 ‘AI 안전 서약’ 발표
미국 백악관이 2023년 7월 21일 AI 기업을 대상으로 AI 안전 서약을 발표하였습니다.
서약에는 기업들이 생성형 AI 콘텐츠에 워터마크를 포함하는 등 AI를 책임 있고 안전하게 사용할 것을 약속하는 8개 조항이 포함되었는데, 구체적인 내용은 아래와 같습니다.
- 가짜 뉴스와 딥페이크를 방지하기 위해 텍스트나 이미지, 사운드 및 동영상 등 AI 생성 파일에 워터마크를 추가
- AI 오남용 모니터링 외부 팀 구성
- 정부와 기업에 안전 정보 공유
- 사이버 보안 투자
- 보안 취약점 및 AI의 환각 및 편향성 문제 보고
- 최첨단 AI 모델을 활용해 기후변화와 신약 개발 등 사회 문제를 우선적으로 해결
영국
영국, ‘제1차 AI 안전성 정상회의’에서 ‘블레츨리 선언’ 발표
- 2023년 11월 1일 제1회 AI 안전성 정상회의(AI Safety Summit)에서 블레츨리 선언(Bletchley Declaration)을 발표
- 블레츨리 선언은 AI 안전과 윤리에 대한 글로벌 약속으로, 29개의 서명국은 안전하고 인간 중심적이며 윤리 원칙에 부합하는 AI 기술 개발을 위해 협력하기로 합의
- AI 안전성 정상회의에서 제시된 5가지 목표
- 프론티어 AI가 초래하는 위험과 조치의 필요성에 대한 이해 공유
- 국내 및 국제 프레임워크를 지원하는 최선의 방법을 포함하여 프론티어 AI 안전에 대한 국제협력을 위한 전진 프로세스 수립
- 개별 조직이 프론티어 AI 안전을 강화하기 위해 취해야 할 적절한 조치 수립
- 모델 기능평가 및 거버넌스를 지원하기 위한 새로운 표준 개발을 포함하여 AI 안전 연구에 대한 잠재적 협력분야 발굴
- AI의 안전한 개발을 보장함으로써 AI가 전 세계적으로 정직하게 사용될 수 있는 방법 제시
중국
중국 사이버공간 관리국, 생성형 AI에 대한 잠정조치 발효
- 새로운 인공지능(AI) 규제안을 2023년 8월 15일부터 시행
- 중국 사이버공간관리국(CAC)과 과학기술부 등 6개 정부 기관이 협력하여 추진하는 규제안은 급속히 성장하는 AI 분야를 관리하는 것이 목적
- 규제안은 AI 서비스 플랫폼이 공개되기 전에 관리를 위해 등록 및 보안 심사를 받는 것을 의무화하며, AI가 생성한 콘텐츠에는 명확한 라벨을 부착하도록 규정하고 있음
일본
일본 자민당, 2024년 내 AI법안 도입 추진
- 일본 자유민주당(Liberal Democratic Party)은 2024년 내에 AI 법안을 도입할 계획을 발표
- 법안은 허위 정보를 걸러내고 저작권을 보호하며, AI의 윤리적 사용을 보장하는 데 중점을 둠
일본, AI 연구소 설립
- 2024년 2월 14일 경제산업성 산하에 AI 안전 연구소를 설립
참고하기