
[시사뉴스 홍경의 기자] 한국학중앙연구원 AI사회연구소는 한국포스트휴먼학회, 경남대학교 교양교육연구소와 공동으로 11일 '한국 소버린 AI포럼' 제5회 콜로키움을 개최한다.
한국 소버린 AI 포럼에서 경남대학교 정원섭 교수는“소버린 AI 시대의 윤리적 쟁점”을 주제로 발표한다. 정 교수는 발표에서 소버린 AI(Sovereign AI)의 개념을 정의하고, 2015년 이후 인공지능 윤리 논의의 흐름과 함께 주권 기반 AI가 제기하는 윤리적 문제, 문화적 다양성 이슈 등을 분석한다. 그리고 한국소버린AI 6대 정책을 제시한다.
윤리 기준을 포함하는 주권 AI 개념 제시
정 교수는 먼저 “주권(Sovereignty)”을 “국가가 외부 간섭 없이 스스로 통치할 수 있는 권한”으로 규정하고, 소버린 AI를 특정 국가 또는 정치 단위의 통제하에 개발·배포·운영되는 인공지능으로 규정한다. 이러한 AI 시스템은 해당 국가의 법률, 언어, 데이터, 윤리 기준에 맞게 특화되며, 외국 기술에 대한 의존을 줄이고 국가 민감 데이터를 외부로부터 보호하는 것을 목표로 한다. 다시 말해, 소버린 AI는 AI 인프라와 의사결정 과정이 자국 관할권 안에서 이루어지도록 함으로써 디지털 주권을 확보하고 국가 전략에 부합하는 신뢰 가능한 AI를 구현하려는 접근이다.
이어 정 교수는 2015년 이후 AI 윤리 논의의 전개를 연도별로 짚는다. 2015~2017년에는 AI 안전성과 편향 문제가 부각되기 시작하여, 미국 사법부의 AI 판사 COMPAS 사례 등이 편견에 대한 인식을 높이는 계기가 됐다. 2018~2020년에는 GDPR 시행으로 대표되는 개인정보 보호 규정의 정립과 함께, 자율살상무기(AI Killer) 논쟁, 자율주행차 윤리 문제, 그리고 딥페이크 확산 등 AI의 사회적 영향에 대한 폭넓은 논의가 진행되었다.
2021~2022년 시기에는 글로벌 차원의 AI 윤리지침 수립이 본격화되어 UNESCO의 AI 윤리 권고안이 채택되었으며, 국내에서는 챗봇 “이루다” 사태를 통해 AI의 사회적 책임성과 편향 문제가 대두되었다. 또한 2022년 네이버 뉴스 알고리즘 개편을 둘러싸고 “개편인가 조작인가” 논쟁이 벌어지며 플랫폼 알고리즘의 투명성과 책임성이 화두에 올랐다. 2023년 이후 현재까지는 생성형 AI(Generative AI)와 피지컬 AI, 그리고 소버린 AI 개념이 부상하면서, 창작물의 권리, 허위정보, 데이터 주권, 환경 영향, 문화 다양성 등 새로운 윤리적 쟁점들이 대두되고 있다.
편향·불평등·표현의 자유 등 핵심 윤리 문제 제시
정 교수는 특히 소버린 AI가 직면한 윤리적 과제들을 다음과 같이 정리했다. 첫째, 편향과 문화적 상대주의 문제로, AI가 특정 문화권의 가치만을 반영하거나 다른 문화에 대한 편견을 가질 위험. 둘째, 데이터 프라이버시와 감시로, 국가가 AI 개발을 명분으로 과도한 데이터 수집과 시민 감시를 할 우려. 셋째, 글로벌 불평등의 심화 문제로, 기술적으로 앞선 국가와 뒤처진 국가 간 AI 격차가 윤리적 불균형 초래. 넷째, 표현의 자유 침해 가능성으로, 각국이 주권을 이유로 정보 검열이나 콘텐츠 제한을 강화할 우려. 다섯째, 책임성 문제로, 주권 AI 시스템의 결정에 대한 책임 소재를 명확히 하고 투명하게 거버넌스를 구축해야 할 필요성. 마지막으로 윤리 기준의 분화로, 국가별로 상이한 AI 윤리 기준이 생겨나 국제적 충돌이나 호환성 문제를 일으킬 가능성 등을 지적했다.
또한 AI에서의 문화적 다양성에 관한 논점도 심도 있게 다루어졌다. 정 교수는 전 지구화된 AI 개발이 특정 문화권 편향을 내포할 수 있음을 지적하며, 훈련 데이터의 편향과 언어 대표성 부족, 문화적 맥락 오해 등이 초래될 위험을 설명했다. 예를 들어 다언어 환경에서 일부 언어권이 AI 모델에 과소대표될 경우 그 문화에 대한 이해 부족이나 오역이 발생할 수 있다. 더불어 세계관의 차이를 간과한 자문화 중심적 설계와 디지털 식민주의 현상에 대한 우려도 표명되었다. 그는 AI 거버넌스에 다양한 문화권이 포용적으로 참여해야 함을 강조하면서, AI 기술 발전이 무형문화유산의 보존과 전승에 기여하도록 장려해야 한다고 밝혔다.
윤리의 시각에서 소버린AI 6대 정책 제언
마지막으로 정 교수는 이러한 논의를 바탕으로 한국을 위한 6대 소버린 AI 정책 제언을 제시했다. 그 주요 내용은 ▲국가 주권과 글로벌 조화의 균형 – 국가 차원의 AI 거버넌스 원칙(헌장)을 수립하면서도 국제 사회와 호환성을 유지하도록 표준을 정립할 것▲편향 완화와 문화적 포용성 강화 – 포용적 데이터셋을 구축하고 문화 다양성을 자문할 전문가 패널을 운영함으로써 AI 편향을 최소화할 것▲투명성과 책임성 제고 – 알고리즘 투명성 등록제 도입 및 공공 영향 평가를 시행하여 AI 결정 과정과 영향에 대한 공개성과 책임을 확보할 것▲과도한 폐쇄 방지 및 협력 촉진 – 국경 간 연구 교류를 활성화하고 주권 AI 분야의 윤리 준수 감사를 통해 지나치게 폐쇄적인 발전을 경계하며 국제 협력을 도모할 것▲설계 단계부터 문화적 다양성 고려 – AI 개발 전 과정에 문화적 다양성 원칙을 통합하고, 디지털 시대에 각 문화권의 무형 유산을 보호하는 방안을 마련할 것▲국제 표준 준수 – 글로벌 상호인정 협정 등을 추진하고 AI 상호운용성의 투명성을 높여 국제적인 신뢰 기반을 구축할 것 이상이 제시한 주요 내용이다.
정원섭 교수는 발표를 마치며 “AI 개발에 있어 주권의 확보와 윤리적 책임은 상충되는 목표가 아니라 상호 보완적인 가치”임을 강조했다. 그는 한국이 주권 AI를 추구함에 있어 국제 사회의 보편 윤리 기준과 지역 문화의 고유 가치를 균형 있게 존중함으로써, 기술 주권과 인류 보편 가치를 함께 구현해 나가야 한다고 역설했다.
이번 포럼 발표를 통해 제시된 논의와 제언들은 향후 AI 정책 방향과 글로벌 협력 전략을 모색하는 데 중요한 시사점을 제공할 것으로 기대된다.