설명: Apple이 아동 학대 사진을 스캔하는 소프트웨어를 지연시키는 이유
이러한 움직임이 아동 보호 기관, 디지털 개인 정보 보호 옹호자 및 업계 동료들에 의해 환영받는 동안 기술이 사용자 개인 정보에 광범위한 영향을 미칠 수 있음을 시사하는 위험 신호를 제기하고 있습니다.

개인 정보 보호 옹호자들과 업계 동료들의 비판에 따라 Apple은 다음을 수행할 소프트웨어 출시를 연기했습니다. 아동 학대를 묘사하는 사진을 감지 아이폰에. 이 프로그램은 지난 달에 발표되었으며 올해 말 미국에서 출시될 예정입니다.
Apple의 소프트웨어는 무엇이며 어떻게 작동했을까요?
Apple은 지난 달에 CSAM(아동 성적 학대 자료)으로 분류될 수 있는 콘텐츠를 확인하기 위해 기기의 사진을 스캔하는 두 갈래 메커니즘을 출시할 것이라고 밝혔습니다. 메커니즘의 일부로 Apple의 도구인 neuralMatch는 사진을 iCloud(클라우드 스토리지 서비스)에 업로드하기 전에 확인하고 종단 간 암호화된 iMessage 앱에서 전송된 메시지의 내용을 검사합니다. 메시지 앱은 기기 내 머신 러닝을 사용하여 민감한 콘텐츠에 대해 경고하는 동시에 Apple이 읽을 수 없는 개인 통신을 유지한다고 회사는 말했습니다.
neuralMatch는 사진을 아동 학대 이미지 데이터베이스와 비교하고, 플래그가 있으면 Apple 직원이 수동으로 이미지를 검토합니다. 아동 학대가 확인되면 미국 NCMEC(National Center for Missing and Exploited Children)에 통보됩니다.
우려 사항은 무엇이었습니까?
이러한 움직임이 아동 보호 기관, 디지털 개인 정보 보호 옹호자 및 업계 동료들에 의해 환영받는 동안 기술이 사용자 개인 정보에 광범위한 영향을 미칠 수 있음을 시사하는 위험 신호를 제기하고 있습니다. 다른 용도를 위해 이러한 소프트웨어를 조정하지 않고 어린이가 보내거나 받은 음란한 이미지에만 사용되는 클라이언트 측 스캐닝 시스템을 구축하는 것은 거의 불가능하다고 믿어집니다. 이 발표는 암호화된 서비스에 대한 백도어를 찾고 있는 정부와 법 집행 기관에 다시 한 번 주목을 받았습니다. 엔드 투 엔드 암호화 메시징 서비스 WhatsApp의 책임자인 Will Cathcart는 다음과 같이 말했습니다. 이것은 Apple이 구축하고 운영하는 감시 시스템으로 개인 콘텐츠를 스캔하여 자신이나 정부가 제어하기로 결정한 모든 항목을 찾는 데 매우 쉽게 사용할 수 있습니다. iPhone이 판매되는 국가마다 허용되는 항목에 대한 정의가 다릅니다.
| 다음 iPhone에 위성 연결 기능이 있는 경우 Apple이 사용할 기술입니다.애플은 왜 뒷걸음질쳤을까?
애플은 성명에서 사생활과 회사 안팎의 기타 근거에 대한 시스템의 비판 이후 피드백을 수집하고 제안된 어린이 안전 기능을 개선하는 데 더 많은 시간이 걸릴 것이라고 말했다.
고객, 옹호 단체, 연구원 및 기타 사람들의 피드백을 기반으로, 우리는 이러한 매우 중요한 어린이 안전 기능을 출시하기 전에 의견을 수집하고 개선하기 위해 앞으로 몇 달 동안 추가 시간을 갖기로 결정했다고 밝혔습니다.
로이터에 따르면, 애플은 몇 주 동안 이 계획을 방어해 왔으며 이미 오탐의 위험이 낮다는 것을 보여주기 위해 일련의 설명과 문서를 제공했습니다.
뉴스 레터| 받은 편지함에서 오늘의 최고의 설명자를 보려면 클릭하십시오.
친구들과 공유하십시오: