조디악 표지판에 대한 보상
변신성 C 유명인

조디악 표시로 호환성을 찾으십시오

설명: Apple이 기기에서 아동 착취 이미지를 스캔하는 방법과 눈을 찡그린 이유

처음에 미국에서 출시될 것으로 예상되는 이 기능에는 특히 Apple 플랫폼을 통한 온라인 CSAM의 확산을 제한하는 새로운 기술의 사용이 포함됩니다.

블로그 게시물에서 Apple은 iOS 및 iPadOS를 통해 암호화 응용 프로그램을 사용하여 iCloud 사진에 저장된 알려진 CSAM 이미지와 일치시킬 것이라고 설명했습니다.

애플이 발표한 올해 말 소프트웨어 업데이트는 새로운 기능을 가져올 것입니다 이는 의사 소통 도구를 사용하여 아동을 모집하고 착취하는 포식자로부터 아동을 보호하고 아동 성적 학대 자료(CSAM)의 확산을 제한하는 데 도움이 됩니다.







처음에 미국에서 출시될 것으로 예상되는 이 기능에는 특히 Apple 플랫폼을 통한 온라인 CSAM의 확산을 제한하는 새로운 기술의 사용이 포함됩니다.

그런 다음 사용자가 13세 미만인 경우 부모에게 경고하는 메커니즘을 사용하여 민감한 콘텐츠를 보내거나 받지 못하도록 어린이를 위한 기기 보호가 있을 것입니다. Apple은 또한 Siri 또는 검색을 사용하여 CSAM 관련 주제를 조회할 때 개입합니다. .



Apple은 CSAM의 온라인 확산을 방지하기 위해 어떤 기술을 사용하고 있습니까?

블로그 게시물에서 Apple은 iOS 및 iPadOS를 통해 암호화 응용 프로그램을 사용하여 iCloud 사진에 저장된 알려진 CSAM 이미지와 일치시킬 것이라고 설명했습니다. 이 기술은 사용자의 iCloud에 있는 이미지를 아동 안전 기관에서 제공한 알려진 이미지와 일치시킵니다. 그리고 이것은 이미지를 실제로 보지 않고 지문 일치와 같은 것을 찾는 것만으로 수행됩니다. 임계값을 넘는 일치 항목이 있는 경우 Apple은 이러한 사례를 NCMEC(National Center for Missing and Exploited Children)에 보고합니다.

Apple은 자사 기술이 사용자 개인 정보를 염두에 두고 있으므로 데이터베이스가 사용자의 기기에 안전하게 저장된 읽을 수 없는 해시 집합으로 변환된다는 점을 분명히 했습니다. 또한 이미지가 iCloud에 업로드되기 전에 운영 체제가 개인 집합 교차라는 암호화 기술을 사용하여 알려진 CSAM 해시와 이미지를 일치시킬 것이라고 덧붙였습니다. 이 기술은 결과를 공개하지 않고 일치 여부를 결정합니다.



이 때 기기는 매치 결과와 추가 암호화 데이터로 암호화 안전 바우처를 생성하여 이미지와 함께 iCloud에 저장합니다. 임계값 비밀 공유 기술은 iCloud 사진 계정이 알려진 CSAM 콘텐츠 임계값을 넘지 않는 한 Apple에서 이러한 바우처를 해석할 수 없도록 합니다. 블로그에 따르면 이 임계값은 매우 높은 수준의 정확도를 제공하고 특정 계정에 잘못 플래그를 지정할 확률이 연간 1조 분의 1 미만임을 보장하기 위해 설정되었습니다. 따라서 단일 이미지가 경고를 트리거할 가능성은 거의 없습니다.



그러나 임계값을 초과하면 Apple은 안전 바우처의 내용을 해석하고 일치에 대한 각 보고서를 수동으로 검토하고 사용자 계정을 비활성화하고 NCMEC에 보고서를 보낼 수 있습니다. Apple은 사용자가 잘못 신고되었다고 생각하는 경우 항소할 수 있다고 말했습니다.

다른 기능은 어떻게 작동합니까?

메시지에 대한 Apple의 새로운 통신 안전 기능은 민감한 이미지를 흐리게 하고 어린이에게 콘텐츠의 특성에 대해 경고합니다. 백엔드에서 활성화된 경우 자녀는 부모가 본 메시지에 대해 경고를 받았다는 사실을 알 수도 있습니다. 자녀가 민감한 메시지를 보내기로 결정한 경우에도 마찬가지입니다. Apple은 Messages가 온디바이스 머신 러닝을 사용하여 이미지 첨부 파일을 분석하고 사진이 성적으로 노골적인지 여부와 Apple이 메시지에 액세스할 수 없는지 여부를 결정할 것이라고 말했습니다. 이 기능은 최신 운영 체제 버전에 대해 iCloud에서 가족으로 설정된 계정에 대한 업데이트로 제공됩니다.
또한 업데이트를 통해 사용자가 잠재적인 CSAM 주제를 찾으려고 하면 Siri 및 검색에서 이것이 왜 해롭고 문제가 될 수 있는지 설명합니다. 또한 사용자가 요청할 경우 아동 착취에 대한 보고서를 제출하는 방법에 대한 지침을 받게 됩니다.



또한 설명| 설명: Google이 온라인에서 어린이를 더 많이 보호하는 방법과 이유

Apple이 왜 이러고 있으며 어떤 우려가 제기되고 있습니까?

대형 기술 회사는 수년 동안 아동 착취를 위한 플랫폼 사용을 단속하라는 압력을 받아왔습니다. 수년 동안 많은 보고서에서 기술이 CSAM 콘텐츠를 더 널리 사용할 수 있도록 하는 데 충분한 노력이 이루어지지 않았다는 점을 강조했습니다.

그러나 Apple의 발표는 이것이 많은 정부가 갖고 싶어하고 오용하기를 좋아하는 종류의 감시 기술이라는 점을 강조하는 많은 비판을 받았습니다. 이것이 오랫동안 개인 정보 보호 정책을 지켜온 Apple에서 제공한 것이라는 사실은 많은 사람들을 놀라게 했습니다.



또한 존스 홉킨스 대학의 매튜 그린(Matthew Green)과 같은 암호 전문가들은 시스템이 무고한 사람들이 CSAM에 대한 일치를 촉발할 이미지를 보내는 데 사용될 수 있다는 우려를 표명했습니다. 그는 NPR에 연구원들이 이것을 아주 쉽게 할 수 있었고 그러한 알고리즘을 속이는 것이 가능하다고 덧붙였습니다.

그러나 New York Times는 Apple의 최고 개인 정보 보호 책임자인 Erik Neuenschwander의 말을 인용하여 이러한 기능이 일반 사용자에게 아무런 의미가 없을 것이라고 말했습니다.



CSAM 자료 모음을 저장하는 경우 그렇습니다. 이것은 당신에게 좋지 않다고 그는 간행물에 말했습니다.

뉴스 레터| 받은 편지함에서 오늘의 최고의 설명자를 보려면 클릭하십시오.

다른 대형 기술 회사에도 유사한 기술이 있습니까?

예. 사실, 애플은 마이크로소프트, 구글, 페이스북이 법 집행 기관에 CSAM 이미지에 대해 경고해왔기 때문에 비교적 늦게 현장에 진입했습니다. Apple은 그러한 기술이 사용자 개인 정보 보호에 대한 공약에 어긋나기 때문에 뒤처져 왔습니다. 그 결과 2020년 페이스북이 NCMEC에 2030만 건의 CSAM 위반을 보고했을 때 애플은 265건만 보고할 수 있었다고 The New York Times는 보도했다.

일반 사용자에게 영향을 미치거나 최소한 사용자를 놀라게 하지 않으면서 이를 수행할 수 있는 기술 스윗스팟을 찾을 수 있게 된 것은 이제서야 가능합니다. 그러나 초기 반발이 보여주듯 여전히 줄타기 행보이다.

친구들과 공유하십시오: