기자명 이숙영 기자
  • 입력 2021.01.14 15:21

올해부터 AI 서비스 비판적 이해·주체적 활용에 대한 이용자 교육 실시

이루다. (사진=이루다 공식 페이스북 캡처)
AI 챗봇 이루다. (사진=이루다 공식 페이스북 캡처)

[뉴스웍스=이숙영 기자] 최근 불거진 AI 챗봇 '이루다' 논란과 관련해 방송통신위원회가 사람 중심의 AI 서비스가 이뤄지도록 'AI 윤리규범'을 구체화하고 제도 개선에 나선다.  

연애상담 앱 '연애의 과학'을 개발한 스타트업 스캐터랩에서 개발한 이루다는 대화형 인공지능(AI) 챗봇이다. 지난달 출시 후 이루다를 성적 대상으로 한 이용자의 성희롱부터 채팅 중 이루다의 소수자 혐오발언, 연애의 과학 앱 이용자 개인 정보 유출 등으로 연일 논란의 중심에 서 있다. 

이같은 부작용과 관련, 방통위는 사람 중심의 AI 서비스가 제공되고 이를 활용하는 과정에서 이용자 보호원칙이 지켜질 수 있도록, 이용자와 사업자 대상 교육·컨설팅을 지원하고, AI윤리규범 등을 구체화해 제도 개선을 추진하겠다고 14일 밝혔다.

먼저 방통위는 올해부터 이용자에게 AI 서비스의 비판적 이해 및 주체적 활용에 대한 교육을 실시한다. 교육 내용으로는 이용자가 AI 서비스에 활용된 알고리즘의 편향성을 파악하고, 그에 따른 문제를 최소화해 서비스를 이용할 수 있는 방안 등을 담을 계획이다.

오는 2022년부터는 AI 윤리교육 지원대상을 이용자에서 사업자로까지 확대하고, 스타트업 등을 대상으로 서비스 설계시 AI 역기능 등 위험관리 컨설팅을 지원하는 사업을 추진한다.

또한 방통위는 AI서비스의 이용자보호를 위해 규범 및 제도를 구체화해 나간다. 방통위는 앞서 지난해 11월 '차별금지, 인간존엄성 보호' 등의 내용을 포함한 '이용자 중심의 지능정보사회를 위한 원칙'을 발표한 바 있다. 해당 원칙이 선언적 규정이라면, 올해부터는 이를 실천하기 위한 구체적 사례·방법 등을 사업자 등과 공유한다.

특히 사업자의 규제부담 및 AI서비스의 혁신 저해를 최소화하기 위해 민간에서 현재 실천하고 있는 모범사례를 적극적으로 발굴해 이를 바탕으로 실행지침을 마련할 계획이다.

중장기적으로는 이용자에게 피해를 야기한 AI서비스의 책임 소재 및 권리구제 절차 등이 포괄될 수 있도록 기존의 법체계를 정비해 나간다. 이를 위해 방통위는 지난해 1월 정보통신정책연구원(KISDI) 내에 지능정보사회 정책센터를 설립하고, 센터 내 법제 연구반을 구성해 운영하고 있다.

한상혁 위원장은 "AI 서비스는 더 많은 부가가치를 창출하고, 생활의 편의를 더해줄 것이지만 올바른 윤리와 규범이 없는 AI 서비스는 이용자 차별과 사회 갈등을 초래할 수 있다"며 "AI 기술의 혜택은 골고루 누리되 부작용은 최소화할 수 있도록 사람 중심의 AI를 위한 정책을 촘촘히 추진해 나갈 것이다"라고 전했다.

저작권자 © 뉴스웍스 무단전재 및 재배포 금지