• 입력 2023.07.21 13:58
20일 국회의원회관 제6간담회실에서 인공지능 규제와 관련된 국회 토론회가 열리고 있다.  (사진=원성훈 기자)
20일 국회의원회관 제6간담회실에서 인공지능 규제와 관련된 국회 토론회가 열리고 있다.  (사진=원성훈 기자)

[뉴스웍스=최승욱 기자] "IBM의 인공지능 '왓슨'은 2011년 유명 퀴즈쇼에서 인간 챔피언을 이기며 화려하게 의료계에 진출했다. IBM은 왓슨을 '암 치료의 혁명'이라고 홍보했지만 제대로 검증된 바는 없었다. 결과는 심각했다. 왓슨은 암환자들에게 안전하지 않은 잘못된 치료를 권장했다. 폐암의 진단정확도는 17.8%에 그쳤다. IBM은 이를 알고도 마케팅에 열을 올렸고 병원들도 인공지능에 대한 환상을 이용, 환자를 유치하고 높은 치료비를 청구하기 위해 경쟁적으로 도입했다. 길병원, 부산대, 건양대, 대구가톨릭대 병원들이 왓슨을 도입, 인공지능 암센터를 운영한다며 환자들을 끌어들였다. IBM은  최근 왓슨을 헐값에 팔고 시장에서 철수했다. 왓슨의 진단과 치료 대상이 된 환자들이 받은 영향과 불필요하게 지출된 의료비에 대해 제대로 평가되거나 보상된 바가 없다."

전진한 보건의료단체연합 정책국장은 20일 국회의원회관 제6간담회실에서 열린 'EU와 미국은 왜 인공지능을 규제하려는가' 토론회에 참석, 이처럼 검증되지 않은 AI는 부정확한 진단과 치료로 개인의 건강을 위협할 수 있다는 점을 경고했다. 전 국장은 "하버드대학 의생명정보학과 초대 의장 아이작 코헤인 박사는 '검증되지 않은 인공지능을 허용하는 건 신약을 테스트 하지 않고 환자에게 투여하는 것과 같다'고 말한 바 있다"며 "세계보건기구는 지난 5월 '챗GPT를 비롯한 생성형 인공지능을 의료분야에 활용할 때 엄격한 검증이 필요하다'고 지적했다"고 전했다.

전진한(왼쪽) 보건의료단체연합 정책국장과 이병남 개인정보위원회 과장이 20일 토론회에 참석, 자료를 살펴보고 있다. (사진=원성훈 기자)
전진한(왼쪽) 보건의료단체연합 정책국장과 이병남 개인정보위원회 과장이 20일 토론회에 참석, 자료를 살펴보고 있다. (사진=원성훈 기자)

인공지능 '알파고'가 이세돌 9단을 이긴지 벌써 7년이 지났다. 초거대인공지능 시대가 다가오면서 사람들이 원하는 정보를 종전보다 훨씬 쉽게 빨리 얻게 되었지만 이로 인해 치러야 하는 비용 역시 비례적으로 증가하는 추세다. 사적인 SNS 대화내용이 데이터로 활용되는 과정에서 개인정보가 유출되고 AI를 악용한 가짜 뉴스나 가짜 사진도 늘어나고 있다.

유승익(왼쪽) 한동대 교수와 장경태 의원이 20일 토론회에 참석하고 있다. (사진=원성훈 기자)
유승익(왼쪽) 한동대 교수와 장경태 의원이 20일 토론회에 참석하고 있다. (사진=원성훈 기자)

토론회를 주최한 장경태 더불어민주당 의원은 인사말을 통해 "기술은 인간을 위해 존재해야 한다. 인공지능 역시 기술의 편의성을 추구하는 것을 넘어 사람들을 감시하고 차별하거나 인류의 불평등을 조장하는 수단이 되어서는 안 된다"고 강조했다. 그는 "더 많은 시간과 노력을 들이더라도 인공기능 기술의 윤리적 활용과 예상치 못하게 발생할 수 있는 사회적 갈등을 최대한 점검해야 한다"며 "유럽연합과 미국의 입법례는 물론 더 다양한 가능성을 충분히 검토하는 것이 무지성적 기술의 추종을 거부하고 합리적이고 안정적인 기술발전을 담보할 수 있는 방법"이라고 단언했다.

AI 챗봇 이루다. (사진=이루다 홈페이지 캡처)
AI 챗봇 이루다. (사진=이루다 홈페이지 캡처)

2020년 12월 출시된 인공지능 챗봇 '이루다'가 성희롱과 소수자 혐오 등으로 사회문제가 되었을 당시 개발자들은 '그럴 의도가 없었다'는 취지로 해명한 바 있다. 인공지능이 윤리적으로 개발되고 사용과정에서 인권 보호 장치가 작동되는지 여부가 상시 확인되어야하는 것은 너무나도 당연하다. 시민들의 안전은 늘 우선되어야 하고 사생활도 보호받아야 한다.

유승익 한동대학교 연구교수는 이날 '인공지능이 인권과 민주주의에 미치는 영향과 인공지능법안의 쟁점' 발제를 통해 국회 과학기술정보방송통신위원회 법안소위가 지난 2월 14일 통과시킨 '인공지능산업 육성 및 신뢰 기반 조성에 관한 법률안'의 문제점을 조목조목 지적했다. 소관위 전체 회의 의결을 앞두고 있는 이 법안은 2020년 7월부터 국회 과방위에 발의된 인공지능 관련 법안 7개를 통합한 것으로 대표발의 의원은 이상민, 양향자, 민형배, 정필모, 이용빈, 윤영찬, 윤두현이다.

인공지능 법안은 AI 기술개발 및 산업 육성을 위해 AI 기술 및 알고리즘의 연구·개발 및 AI 제품 서비스 출시 등에 '우선허용·사후규제 원칙’을 명시하고 있다. 이와 관련, '국민의 생명·안전·권익에 위해가 되거나 공공의 안전보장, 질서 유지 및 복리증진을 현저히 저해할 우려가 있는 경우’가 아니라면 제한할 수 없도록 규정한다. 아직 신생 기술인 점을 감안해 산업기반 조성을 돕기 위해 '포괄적 네거티브' 규제를 도입한 것이다. 현저한 위험이 미리 확인되지 않는다면 사전규제를 할 수 없도록 한 셈이다. 국내 인공지능 기업을 돕기 위해 규제샌드박스를 도입하는 것과 마찬가지의 효과를 노린 입법으로 판단된다.

유 교수는 "행정규제기본법에 따르면 국민의 안전·생명·건강에 위해가 되거나 환경에 중대한 위협을 초래할 우려가 있는 경우, 개인정보의 안전한 보호 및 처리 여부가 문제되는 경우 네거티브 규제방식 도입은 부적합하다"고 단언했다. 그는 "인공지능법안의 해당 규정은 정보통신융합법이나 지능정보화기본법 등 기존 ICT 법률 내용을 그대로 답습하고 있다"며 "사후규제만으로는 새로운 데이터 인프라 구조 구축이나 기술개발 단계 등에서 제기되는 윤리문제 및 위험성에 적절히 대처할 수 없다"고 밝혔다.

유럽연합 인공지능법에서 구분한 인공지능 위험 단계. (표=허진만 공익법센터 소장 발제 캡처) 
유럽연합 인공지능법에서 구분한 인공지능 위험 단계. (표=허진만 공익법센터 소장 발제 캡처) 

법안의 더 큰 문제는 '고위험 영역 인공지능'의 범위를 협소하게 정의한 것이다. 인공지능법은 사람의 생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미칠 우려가 있는 영역에서 활용되는 인공지능을 고위험 영역 인공지능으로 정의한다. 유 교수는 "국제적 표준으로 인식되는 유럽연합의 인공지능법에서 인공지능이 생성할 수 있는 위험수준을 구분하고 각 수준에 따라 공급자와 사용자에게 다른 의무를 설정하는 것과 대조를 이룬다"고 비판했다.

EU 집행위원회가 2021년 4월 21일 EU 의회에 발의한뒤 지난 6월 14일 통과된 EU 인공지능법은 수용불가능한 위험도를 지닌 인공지능에 대해선 개발과 활용을 엄격히 금지한다. 고위험 인공지능 시스템이 갖춰야할 요구사항을 8조부터 15조까지 매우 상세하게 규정한다. 실시간 또는 사후적으로 사람의 생체정보를 활용해 신원확인을 수행하는 인공지능, 지원서 선별 등 인사관리 업무에 사용되는 인공지능, 훈련생 평가에 사용되는 인공지능 등을 고위험군에 포함했다. 반면 한국 인공지능법안은 이를 제외한 상태다.

무엇보다 법률 위반에 대한 별다른 제재가 없다. 인공지능법안은 고위험 영역 인공지능에 대한 사업자의 이용자에 대한 사전고지 의무, 사업자의 신뢰성 확보 조치와 그에 대한 준수 권고만을 규정하고 있다. 이에 반해 유럽 AI 법은 허용할 수 없는 위험이나 고위험 인공지능시스템이 제재사항을 준수하지 않는 등 각종 금지행위를 위반하면 최고 3000만유로와 직전 회계년도 전세계 연간 총매출의 6%에 해당하는 금액 중 큰 금액을 상한으로 하는 과태료를 부과하는 규정을 두고 있다.

허진만(왼쪽 두 번째) 참여연대 공익법센터 소장(변호사)가 20일 국회 토론회에서 발표자료를 검토하고 있다.. (사진=원성훈 기자)
허진만(왼쪽 두 번째) 참여연대 공익법센터 소장(변호사)이 20일 국회 토론회에서 발표자료를 검토하고 있다.. (사진=원성훈 기자)

허진만 참여연대 공익법센터 소장(변호사)은 이날 '유럽연합 인공지능법의 내용 및 시사점' 발제를 통해 "인공지능법은 과기부장관이 3년마다 인공지능 기술 및 산업 진흥과 국가경쟁력 강화를 위해 인공지능기본계획을 수립하고 시행하도록 규정하고 있다"고 설명했다. 그는 "인공지능산업의 광범위성과 이해당사자가 다양한 점을 고려하면 과기부가 독립성을 갖고 부처간 이해관계를 조율할 수 있는 인공지능 기본계획의 수립 및 시행 주체로 적정한지 의문"이라며 "인공지능산업 육성 방안에 대해선 비교적 구체적인 내용들을 담고 있지만 인공지능 기술의 신뢰성, 안전성 확보를 위한 구체적인 기준과 방안에 대한 규범적 내용은 거의 없다는 점에서 수정 없이 입법되는 것은 적절하지 않다"고 단언했다.

국회에 계류된 인공지능법안은 한마디로 흠결이 너무 많다. 인공지능산업을 관할에 두고 싶어하는 과기부의 부처이기주의가 다분히 반영된 것으로 여겨진다. 원점에서 다시 논의되는 것이 마땅하다. 

7월 19일 서울 마곡 LG사이언스파크 컨버전스홀에서 열린 LG AI 토크 콘서트에서 배경훈 LG AI연구원장이 '엑사원 2.0'을 소개하고 있다. (사진제공=LG)
7월 19일 서울 마곡 LG사이언스파크 컨버전스홀에서 열린 LG AI 토크 콘서트에서 배경훈 LG AI연구원장이 '엑사원 2.0'을 소개하고 있다. (사진제공=LG)

인공지능 관련 기술은 플랫폼의 플랫폼으로 평가받는다. 다행히 한국은 인터넷 자국 플랫폼을 갖고 있는데다 주요 대기업이 자체 초거대AI를 개발했거나 정교화하고 있다. 

국가와 기업, 정치권은 인공지능산업 진흥과 신뢰 기반 조성에서 협력을 아끼지 말아야 한다. 오는 2026년부터 시행될 유럽 인공지능법을 보다 면밀히 살펴 보완할 내용을 찾는 것도 필요하다. 국제규범과 표준에 맞춰 국산 AI의 상호운용성을 높여나가는 노력이 뒤따라야 할 것이다.

관련기사

저작권자 © 뉴스웍스 무단전재 및 재배포 금지