우르줄라 폰데어라이언 유럽연합 집행위원장. 뮌헨/로이터 연합뉴스
인류에게 큰 도움이 될 수도 위협이 될 수 있는 인공지능(AI)의 규제를 둘러싸고 세계 각국이 발 빠르게 대응에 나서고 있다. 미국은 기업의 자율성을 중시해 처벌을 최소화하려는 데 견줘 유럽에선 인공지능이 가져올 수 있는 위험을 억제하기 위해 규제를 앞세우는 서로 다른 모습을 보이고 있다.
유럽의회는 지난 6월 생성 인공지능 등을 포함한 포괄적인 규제안을 공개했다. 현재 유럽연합의 최종안을 확정하기 위해 집행위원회와 회원국 간에 논의가 진행 중이다.
유럽연합 안의 가장 큰 특징은 인공지능을 이용하는 과정에서 불거지는 위험을 관리하기 위해 기업에 대한 규제를 강화하고 있다는 점이다. 구체적으로 유럽연합은 인공지능의 위험을 ‘용인할 수 없는 수준’ ‘높은 수준’ ‘한정적 수준’ ‘최소한의 수준’으로 나누고, 각각의 경우에 기업이 따라야 하는 의무를 구체화하고 있다. 유럽연합이 정한 ‘용인할 수 없는 수준’의 위험이란 인간의 잠재의식을 조작할 수 있고, 아이들을 착취하는 용도로 쓰일 수 있는 경우를 말한다. 기업이 규제를 어기면, 최대 4000만유로(약 573억원)나 전세계 매출의 7%에 달하는 벌금도 매긴다.
이에 견줘 인공지능 분야에서 세계를 선도하는 미국은 기업의 자율성을 강조해왔다. 조 바이든 대통령이 30일(현지시각) 기업에 대한 처벌 조항이 없는 인공지능의 개발·사용에 대한 행정명령에 서명한 것도 기업에 자유를 주면서 인공지능이 불러올 수 있는 여러 위험인 △가짜정보 확산 △저작권 침해 등의 문제에 대응하려는 ‘절충안’으로 해석할 수 있다.
중국의 접근은 독특하다. 중국 인터넷안보심사판공실(CAC)은 지난 8월 정부 비판이나 사회 혼란을 억제하는 것을 목적으로 생성 인공지능의 관리 규칙을 시행했다. 이에 따라 중국에선 국가 전복을 선동하거나 국가 안전에 위해를 가하는 내용물은 인공지능을 통해 생성할 수 없다. 이 규칙으로 인해 정부의 언론 통제를 꺼리는 서구 인공지능 기업들의 중국 시장 접근이 사실상 어렵게 됐다.
일본의 해법도 기업의 자율성을 중시한다는 점에서 미국과 비슷하다. 일본 정부는 지난 5월 인공지능 정책의 사령탑 역할을 하는 ‘인공지능 전력회의’를 만들었다. 인공지능의 개발·이용을 법 등으로 규제하는 대신 기업들이 따를 수 있는 통합 가이드라인을 연내에 공개한다는 입장이다.
길윤형 기자
charisma@hani.co.kr