미니 뉴럴 매치에 대한 애플 공홈 자료
- [성공]함께크는성장
- 조회 수 459
- 2021.08.06. 11:35
CSAM 감지
또 다른 중요한 문제는 아동 성학대 자료(CSAM)가 온라인으로 확산되는 것입니다. CSAM은 아동과 관련된 노골적인 성적 행위를 묘사하는 콘텐츠를 말합니다.
이 문제를 해결하기 위해 iOS 및 iPadOS*의 새로운 기술을 통해 Apple은 iCloud 사진에 저장된 알려진 CSAM 이미지를 감지할 수 있습니다. 이를 통해 Apple은 이러한 사례를 NCMEC(National Center for Missing and Exploited Children)에 보고할 수 있습니다. NCMEC는 CSAM에 대한 포괄적인 보고 센터 역할을 하며 미국 전역의 법 집행 기관과 협력합니다.
알려진 CSAM을 감지하는 Apple의 방법은 사용자 개인 정보를 염두에 두고 설계되었습니다. 클라우드에서 이미지를 스캔하는 대신 시스템은 NCMEC 및 기타 아동 안전 기관에서 제공하는 알려진 CSAM 이미지 해시 데이터베이스를 사용하여 기기 내 일치를 수행합니다. Apple은 이 데이터베이스를 읽을 수 없는 해시 집합으로 변환하여 사용자의 기기에 안전하게 저장합니다.
이미지가 iCloud 사진에 저장되기 전에 알려진 CSAM 해시에 대해 해당 이미지에 대해 기기 내 일치 프로세스가 수행됩니다. 이 일치 프로세스는 결과를 공개하지 않고 일치 여부를 결정하는 개인 집합 교차라고 하는 암호화 기술에 의해 구동됩니다. 장치는 이미지에 대한 추가 암호화 데이터와 함께 일치 결과를 인코딩하는 암호화 안전 바우처를 생성합니다. 이 바우처는 이미지와 함께 iCloud 사진에 업로드됩니다.
임계값 비밀 공유라는 또 다른 기술을 사용하여 시스템은 iCloud 사진 계정이 알려진 CSAM 콘텐츠 임계값을 넘지 않는 한 Apple에서 안전 바우처의 콘텐츠를 해석할 수 없도록 합니다. 임계값은 매우 높은 수준의 정확도를 제공하도록 설정되며 지정된 계정에 잘못 플래그를 지정할 확률이 연간 1조 분의 1 미만입니다.
임계값을 초과한 경우에만 암호화 기술을 통해 Apple이 일치하는 CSAM 이미지와 관련된 안전 바우처의 내용을 해석할 수 있습니다. 그런 다음 Apple은 각 보고서를 수동으로 검토하여 일치 항목이 있는지 확인하고 사용자 계정을 비활성화한 다음 NCMEC에 보고서를 보냅니다. 사용자가 자신의 계정이 잘못 플래그 지정되었다고 생각하는 경우 계정 복원을 위해 이의를 제기할 수 있습니다.
이 혁신적인 신기술을 통해 Apple은 알려진 CSAM의 확산과 관련하여 NCMEC 및 법 집행 기관에 가치 있고 실행 가능한 정보를 제공할 수 있습니다. Apple은 iCloud 사진 계정에 알려진 CSAM 컬렉션이 있는 경우에만 사용자의 사진에 대해 학습하기 때문에 기존 기술에 비해 상당한 개인 정보 보호 이점을 제공하면서 그렇게 합니다. 이러한 경우에도 Apple은 알려진 CSAM과 일치하는 이미지에 대해서만 학습합니다.
1조분의 1..이라도 굳이? 미국 내 클라우드 관련 법이라도 나온건가