기자명 정현준 기자
  • 입력 2025.08.05 14:10

[뉴스웍스=정현준 기자] 서울의 한 대학에 재직 중인 교수에게 질문을 보낸 기자는 최근 뜻밖의 경험을 했다.

해당 교수는 운전 중이라며 통화가 어렵다고 하자, 기자는 명함을 통해 성명과 직함 등을 밝히며 이달 16일부터 개정되는 자동차 보험 약관과 관련해 우려되는 점과 해결 방안을 묻는 문자를 보냈다. 

한 시간이 지나 도착한 답변은 어딘가 익숙했다. 확인해 보니 챗GPT가 생성한 답변을 그대로 '복사·붙여넣기(복붙)'한 것이었다. 간단한 인사나 설명 한 줄 없이, 질문에 대한 고민한 흔적조차 보이지 않는 회신이었다. 

인공지능(AI)이 내놓은 문장이 아무리 그럴듯해 보여도, 그 내용을 곧이곧대로 신뢰하긴 어렵다.

예컨대 트럼프 미국 대통령을 '전 대통령'으로 표기하거나, 실존하지 않는 인물을 특정 대학교수로 등장시키는 오류는 흔한 일이다. 그런 내용을 검증 없이 기사화했다면, 독자에게 심각한 혼란을 주는 것은 물론 기사 자체에 대한 신뢰도 잃었을 것이다.

우리는 지금 'AI 홍수' 시대를 살아가고 있다. 유튜브나 쇼츠 같은 플랫폼에서는 생성형 AI를 활용한 영상들이 넘쳐난다. 여가·복지·교통·교육·행정 등 사회 전반에 걸쳐 AI는 빠르게 침투하고 있으며, 이에 생산성과 효율은 분명히 향상하고 있다.

그러나 동시에 혼란과 부작용도 함께 초래하고 있다. 최근 일부 방송사들은 참새가 '러브버그'를 쪼아먹는 AI 생성 영상을 실제 상황으로 오인해 "천적이 등장했다"는 오보를 낸 바 있다. 여성 환경운동가가 러브버그에게 욕설을 퍼붓는 영상 캡처 역시 AI가 만든 조작된 이미지로 뒤늦게 밝혀졌다.

AI는 분명 유용한 보조 도구다. 복잡한 정보를 요약하거나 문서의 틀을 잡는 데 도움을 준다. 그러나 그 자체가 '사고'의 주체로 될 수는 없다. 창의력이나 가치 판단, 맥락에 대한 이해에서 인간과 큰 차이가 있기 때문이다. 무엇보다 AI가 만들어낸 문장은 수많은 데이터의 평균값에 불과할 뿐 개성도, 깊이도 부족하다.

무엇보다 중요한 건 '검증'과 '책임'은 여전히 인간의 몫이라는 점이다. AI가 제공하는 정보는 틀릴 수 있으며, 출처를 알 수 없는 오류가 숨어 있을 수 있다. 그렇기에 우리는 AI의 결과물을 끊임없이 의심하고 확인하며, 최종 판단을 스스로 내려야 한다.

기자가 교수를 찾은 이유는 AI의 답변을 듣기 위해서가 아니라, 그 교수만의 전문성과 시각, 생각을 듣기 위해서였다. AI의 도움을 받았다 하더라도, 최소한 자신의 견해를 보태고 맥락을 설명한 답변이었더라면 어땠을까. 

사람들이 누군가에게 질문을 던지는 이유가 단순히 정보를 얻기 위해서만은 아니다. 질문에는 함께 고민하고 성찰하며 공감하길 바라는 기대가 담겨 있다. 기술이 아무리 발전해도, 우리가 여전히 '사람의 답변'을 원하는 이유가 여기에 있다.

편리함 뒤에 숨어버린 무심함은 질문자에게 허탈함을 남긴다. 그리고 그 허탈함은 AI가 아닌 답한 사람에게 향할 수밖에 없다.

저작권자 © 뉴스웍스 무단전재 및 재배포 금지