소식 애플, 아동성학대물(CSAM) 검열 포기로 고소당해
- Stellist
- 조회 수 487
- 2024.12.10. 10:41
애플이 아동성학대물(CSAM) 검열을 포기했다는 이유로 고소당했습니다.
이 기능은 지난 2021년 8월 처음 발표했었던 기능으로, 사용자들이 iCloud 드라이브에 업로드한 사진들의 해시값을 기존 수사기관에 등록된 데이터와 대조하여 아동성학대물을 차단할 수 있다는 것이 요지였습니다.
그러나 애플이 해당 기능을 도입하겠다고 발표한 이후, 전세계적으로 많은 비판이 제기되었습니다. 사용자 데이터를 검열하는 것은 애플이 항상 내세우던 프라이버시와 보안이라는 기조에 어긋날 뿐더러, 정부 당국에서 정치적 반대 세력을 잡아내기 위해 비교에 사용되는 해시값을 악용할 수 있고 또 같은 알고리즘을 사용했을 때 전혀 다른 사진인데도 대조에 사용하는 해시값이 동일하게 생성될 수 있는 문제 등의 지적이 이어졌습니다. 이러한 비판과 지적이 거세지자 결국 애플은 2022년 해당 기능 개발을 중단했다고 발표했습니다.
그리고 지난 토요일, 아동성범죄 피해자 및 가족 2680명이 북부 캘리포니아 법원에 집단 소송을 제기했습니다. 애플이 약속했던 CSAM 검열을 포기하는 바람에 계속해서 사진이 시중에 유통되어 피해자들이 고통을 받고 있다는 이유에서입니다. 이들은 피해보상으로 총 12억 달러를 요구했습니다.
이 소송에 대해 애플측은 (비록 원래 계획했던 CSAM 검열방식은 아니지만)프라이버시와 보안을 해치지 않는 선에서 위법한 컨텐츠 공유를 막기 위한 다양한 보호조치들이 시행중이라고 말했습니다.
댓글
음??