기자명 박광하 기자
  • 입력 2025.11.26 11:57
'테슬라 오토파일럿 판결로 보는 SW안전 시사점' 보고서 표지. (자료제공=소프트웨어정책연구소)
'테슬라 오토파일럿 판결로 보는 SW안전 시사점' 보고서 표지. (자료제공=소프트웨어정책연구소)

[뉴스웍스=박광하 기자] 2019년 플로리다주에서 발생한 테슬라 오토파일럿 충돌 사고에 대해 미국 연방법원이 제조사 책임 33%를 인정하고 징벌적 손해배상 2억달러를 부과했다. 레벨2 자율주행 시스템에 대해서도 제조사가 예측 가능한 오사용 방지 의무와 데이터 투명성 의무를 진다는 점을 명시한 첫 사례로 평가된다. 이에 생명·신체와 직결된 산업에서 소프트웨어 안전 거버넌스 체계 마련이 시급하다는 의견이 나온다.

소프트웨어정책연구소(SPRi)는 26일 이 같은 내용의 '테슬라 오토파일럿 판결로 보는 SW안전 시사점' 보고서를 발간했다.

보고서는 2019년 플로리다주에서 발생한 테슬라 충돌 사고와 올해 연방법원 판결을 심층 분석했다. 당시 오토파일럿 모드로 주행 중이던 테슬라 모델S가 정지 차량을 인식하지 못해 시속 90㎞로 충돌했고, 자동긴급제동(AEB)도 작동하지 않아 보행자 사망 및 중상 사고가 발생했다.

플로리다 남부연방지방법원은 운전자 과실 67%, 테슬라 과실 33%를 인정하며 총 1억2900만달러 보상액 중 4260만달러를 테슬라가 부담하도록 판결했다. 특히 사고 데이터 미제출·은폐 의혹과 과장된 마케팅을 근거로 2억달러의 징벌적 손해배상을 추가로 부과했다.

판결은 국제자동차기술자협회(SAE) 레벨2(운전자 보조) 시스템에 대해서도 제조사가 예측 가능한 오사용 방지 의무와 데이터 투명성 의무를 진다는 점을 명시적으로 확인한 첫 사례다. 배심원단은 운전자의 주의의무 위반을 인정하면서도, 오토파일럿 시스템이 정지 차량에 자동 제동하지 못한 설계적 한계에 테슬라의 책임을 인정했다.

보고서는 이 사고를 ISO 26262(기능안전), ISO 21448(SOTIF), ISO/PAS 8800(AI 안전) 등 국제 표준 관점에서 해석했다. ISO 26262는 전기·전자(E/E) 시스템 고장을 전제로 안전무결성을 관리하는 반면, SOTIF는 센서 인식 한계·환경적 모호성·사용자 오용 등 결함 없는 상태에서도 발생하는 위험을 다룬다. ISO/PAS 8800은 인공지능(AI)·머신러닝(ML) 기반 알고리즘의 데이터 품질과 모델 불확실성을 포괄하는 안전 프레임워크를 제시한다.

SPRi는 유엔유럽경제위원회(UNECE) R157(자동 차선유지 시스템), R171(운전자 제어 보조 시스템) 등 국제 규정도 함께 검토했다. 특히 2024년 9월 발효된 R171은 레벨2 시스템의 핵심 안전 위험인 운전자 부주의를 기술적으로 관리하기 위해 제조사에게 시스템 한계를 사용자에게 적극적으로 전달하고 운전자 감시 시스템(DMS) 및 인간-기계 인터페이스(HMI)에 대한 엄격한 기준을 강제한다.

이중엽 SPRi 책임연구원은 "테슬라 오토파일럿 판결은 SW 안전이 더 이상 기술 내부의 품질 이슈가 아니라 제조물 책임·징벌적 손해배상·데이터 투명성·AI 안전을 아우르는 종합적 리스크 관리 대상임을 보여준다"고 말했다.

보고서는 생명·신체와 직결된 산업 전반에서 디지털 전환이 가속화될 때 최소 공통 SW 안전 요구사항으로서 '소프트웨어 안전에 관한 고시'와 같은 지침을 참고해야 하며, 안전(Safety)과 보안(Security)을 연계하는 '디지털 안전' 차원의 거버넌스 검토가 필요하다고 제언했다.

저작권자 © 뉴스웍스 무단전재 및 재배포 금지