기자명 백진호 기자
  • 입력 2023.05.15 14:02

허위 정보·데이터 불투명성·환각 현상 노출…AI 원칙 지정·콘텐츠 검증 소프트웨어로 책임 확보 필요

(사진=픽사베이)
(사진=픽사베이)

[뉴스웍스=백진호 기자] 생성형 AI가 텍스트를 넘어 그림과 영상 등을 만들며 개인과 조직, 한 사회의 혁신을 이끌 것으로 기대를 모으는 가운데 부작용에 대한 우려도 커지고 있다.

지난 1일(현지시간) 블룸버그는 가짜뉴스감시그룹인 뉴스가드의 정보를 인용해 챗GPT와 같은 생성형 AI로 가짜 뉴스를 양산하는 '콘텐츠 팜' 49개를 찾았다고 보도했다. 생성형 AI발 가짜 뉴스에는 조 바이든 미국 대통령 사망, 러시아-우크라이나 전쟁에서 수천명이 사망했다는 허위 사실이 포함됐다. 

콘텐츠 팜은 선정적인 기사로 클릭을 유도해 광고를 따내는 데 목적을 두고 있다. 영어를 넘어 중국어, 포르투갈어, 태국어 등으로 운영 중이며 전 세계에 퍼져 있는 것으로 확인됐다. 콘텐츠 팜의 존재는 G7 디지털·기술장관 회의의 공동성명을 무색하게 하는 생성형 AI의 어두운 면을 보여준다.

이에 따라 생성형 AI 규제에 대한 논의도 이뤄지고 있다.

지난달 29~30일부터 일본 군마현에서 주요 7개국(G7) 디지털·기술장관 회의가 열렸다. 이 자리에서 생성형 인공지능(AI) 활용과 규제를 주요 의제로 취급했다.

각국 장관들은 회의를 마치고 '책임 있는 AI'에 대한 공동성명을 발표했다고 지난달 30일 요미우리신문이 보도했다. 각국 장관들은 공동성명을 통해 AI 활용과 관련해 법의 지배, 적절한 절차, 혁신 기회로의 활용, 민주주의, 인권에 합의했다. 전 세계에서 챗GPT 등의 새로운 AI가 활용되는 가운데 적절한 통제와 활용으로 순기능은 극대화하고, 역기능은 최소화하자는 취지의 합의다.

(사진=픽사베이)
(사진=픽사베이)

◆가만히 두면 개인 넘어 사회에 피해 입히는 위험 요소 존재

정보통신산업진흥원(nipa)은 최근 생성형 AI의 잠재적인 위협을 발표했다.

nipa는 '생성형 AI의 '책임 있는' 사용 방안'을 통해 생성형 AI 콘텐츠의 편향성을 지적했다. nipa는 "생성형 AI의 데이터 편향성으로 인해 특정 인물에 대한 편견이 나타날 수 있다"고 짚는다. 또 "잘못된 정보, 모욕적인 콘텐츠를 생성할 수 있다"고 언급했다.

nipa는 생성형 AI 데이터의 투명성에도 문제를 제기했다. nipa는 "생성형 AI는 기술 기업의 데이터 모델을 기초로 실행된다"며 "사용자는 기초적인 모델을 소유하거나 내부 작동방식에 접근할 수 없어 특정 결과물의 생성 이유를 이해할 수 없다. 일부 생성형 AI는 사용했던 데이터 학습 모델 자체를 공개하지 않을 수도 있다"고 말했다.

개인정보 보호 침해도 심각한 문제로 거론했다. nipa는 "생성형 AI는 방대한 양의 데이터를 연결하고 생성하며 개인정보보호제어를 해제할 수 있다"고 경고하며 "서로 다른 데이터 간의 관계를 식별해 익명으로 처리한 이해관계자를 식별하고 민감한 정보까지 조합할 수 있다"고 설명했다.

nipa는 이어 '환각(할루시네이션)' 현상을 짚었다.

환각이란 생성형 AI가 틀린 답을 정답처럼 학습해 이용자에게 제시하는 현상이다. 환각 문제는 지난 3월 GPT-3.5에서 GPT-4를 탑재한 챗GPT에서도 문제가 됐으며, 전문가들은 AI의 올바른 발전 방향으로 환각 극복을 꼽고 있다. 환각에 기초한 정보가 SNS를 통해 퍼지면 사회 전체에 혼란을 미치게 된다.

◆AI 원칙 수립·검증형 소프트웨어로 '책임' 있는 대응해야

nipa는 생성형 AI의 긍정적인 면을 극대화하고, 위험 요소를 줄이기 위한 방안으로 '책임 있는 AI 사용'을 제안한다. 이를 위해 AI 애플리케이션 설계·구현 및 유지 관리 과정에 대한 원칙을 수립해야 한다.

nipa는 "생성형 AI에 대한 원칙을 수립하고 개발부터 사용 방법, 잠재적인 책임에 이르는 지침을 만들고 제공해야 한다"고 밝혔다.

nipa는 또 "생성형 AI 콘텐츠의 사용이 보편화됨에 따라 해당 콘텐츠를 식별·검증하고, 편향성이나 개인정보 침해 여부를 평가하며 필요에 따라 경고하는 소프트웨어를 추가해야 한다"고 강조했다.

nipa는 데이터 투명성 확보에도 주안점을 뒀다. nipa는 "생성형 AI의 데이터와 시스템을 파악하고, 공정성·정확성·규정 준수를 지원해야 한다"며 "생성형 AI를 활용하는 콘텐츠나 서비스 공급업체가 콘텐츠·서비스에 관한 위험에 노출되지 않도록 모니터링해야 한다"고 충고했다.

nipa는 전 세계에서 생성형 AI를 규제하려는 상황을 고려해 "생성형 AI가 개인정보 보호에 미치는 영향, 생성형 AI의 편향성, AI 관리 방법에 대한 새로운 규칙이 등장하고 있음을 고려해 추세를 파악하고 주의를 기울여야 한다"고 제언했다.

저작권자 © 뉴스웍스 무단전재 및 재배포 금지