애플, 아동성학대물(CSAM) 검열 기능 도입 연기
- Stellist
- 조회 수 844
- 2021.09.06. 00:02
애플이 아동성학대물(CSAM, Child Sexual Abuse Material) 검열 기능 도입을 연기했습니다.
애플이 해당 기능을 도입하겠다고 발표한 이후, 전세계적으로 많은 비판이 제기되었습니다. 애플은 실제 사진을 검열하는게 아닌 해시값을 대조하는 방식으로 사생활 침해등의 우려가 없다는 입장을 고수했으나, 정부 당국에서 해시값을 악용할 수 있고 동일 알고리즘을 사용했을 때 전혀 다른 사진인데 대조에 사용하는 해시값이 동일하게 생성될 수 있는 문제 등의 지적이 이어졌습니다.
결국 애플은 이 기능 도입을 연기하고, 데이터를 더 수집하고 더 나은 적용 방법을 찾아갈 것이라고 말했습니다.
댓글
항상 핑계는 좋죠. 결국 스스로 빅브라더 하겠다고 나선 꼴....