차량 테슬라 자율주행 시스템, 여전히 위험 오류 발생 가능성
- BarryWhite
- 조회 수 169
- 2024.09.27. 12:49
테슬라의 자율주행 시스템 'FSD(Full Self Driving)'가 여전히 위험한 오류를 일으킬 수 있다는 분석이 제기됐습니다.
최근 미국 자동차 평가 전문기관 AMCI 테스팅은 FSD 시스템의 최신 버전을 테스트한 결과, 1,600km 주행 동안 75번 이상 운전자의 개입이 필요했다고 발표했습니다. 이는 평균적으로 21km마다 한 번씩 오류가 발생한 셈입니다.
AMCI 테스팅은 FSD 12.5.1과 12.5.3 버전을 대상으로 도심, 시골의 2차선 고속도로, 산악 도로, 고속도로 등 네 가지 환경에서 테스트를 진행했습니다.
테스트 결과, FSD는 마주 오는 차량을 위해 주차된 차량 사이 공간으로 진입하거나, 횡단보도 앞에서 신호를 기다리는 보행자를 위해 왼쪽으로 이동하는 등 상당히 정교한 주행 능력을 보여주기도 했습니다. 특히, 시골 지역의 굽은 도로에서의 FSD의 주행 능력은 높은 평가를 받았습니다.
그러나 AMCI 테스팅은 FSD가 보여주는 놀라운 능력이 운전자의 과신으로 이어질 수 있다고 경고했습니다.
AMCI 테스팅의 책임자인 가이 망기아멜레는 "FSD 12.5.1이 카메라 기반 시스템으로서 매우 다양한 상황서 인간과 유사한 반응을 보여주는 것은 분명하다"면서도, "하지만 FSD 작동 초기 5분 동안 보여지는 놀라운 능력은 운전자로 하여금 위험한 안일함에 빠지게 할 수 있다"고 지적했습니다.
실제로 이 테스트서 FSD는 빨간불에서 교차로를 통과하거나, 마주 오는 차량이 있는 굽은 도로에서 중앙선을 침범하는 등 위험한 행동을 보이기도 했습니다. 특히, FSD의 오류 발생 패턴이 예측 불가능하다는 점은 더 큰 문제로 지적됐습니다.
망기아멜레는 이러한 예측 불가능성이 테슬라의 머신러닝 시스템의 특징 때문일 수 있다고 추측했습니다.
망기아멜레는 "FSD의 오류는 계산 능력 부족, 차량의 계산 지연으로 인한 버퍼링 문제, 주변 환경 평가의 사소한 오류 등 그 원인을 정확히 알 수 없다"며 "이러한 오류는 매우 치명적일 수 있다"고 경고했습니다.
이어 그는 "고속도로 출구에서 불과 10분의 1마일 전에야 차선 변경을 시작하는 것과 같은 프로그래밍의 근본적인 결함은 시스템의 전반적인 완성도에 대한 의문을 제기한다"고 덧붙였습니다.