애플, 아동성학대물(CSAM) 검열 기능 개발 중단
- Stellist
- 조회 수 1131
- 2022.12.08. 23:07
애플이 아동성학대물(CSAM, Child Sexual Abuse Material) 검열 기능 개발을 완전 중단했습니다.
이 기능은 지난 2021년 8월 처음 발표한 기능으로, 사용자들이 iCloud 드라이브에 업로드한 사진의 해시값을 기존 수사기관에 등록된 데이터와 대조하여 아동성학대물을 차단할 수 있다는 것이 요지였습니다.
그러나 애플이 해당 기능을 도입하겠다고 발표한 이후, 전세계적으로 많은 비판이 제기되었습니다. 정부 당국에서 정치적 반대 세력을 잡아내기 위해 비교에 사용되는 해시값을 악용할 수 있고, 또 같은 알고리즘을 사용했을 때 전혀 다른 사진인데도 대조에 사용하는 해시값이 동일하게 생성될 수 있어 잘못 잡아내는 문제 등의 지적이 이어졌습니다. 결국 애플은 한달만에 기능 도입을 무기한 연기하고 더 나은 적용 방법이 있는지 찾아보겠다고 말했었습니다.
그러나 오늘 WSJ와의 인터뷰에서 Craig Federighi는 애플이 이 기능 개발을 중단했다고 밝혔습니다.
댓글
5
best 1등 인헤리턴스
2등 PH-1
best 학점암살자
PH-1 님께
3등 X6X8BVYV1WH7T
맞는말만함
2022.12.08. 23:59
2022.12.09. 00:09
2022.12.09. 02:02
2022.12.09. 01:17
2022.12.09. 09:13
다행이네요.
의도는 좋다고 쳐도 저걸 사기업이 무슨 명분으로 하겠다는건지/ 중국같은 독재국가에서 악용하면 어떨건지로 여러번 미코서도 이야기 나왔던 기능이였는데...