애플, iCloud에서의 CSAM 스캔 계획을 포기
(wired.com)지난 2021년 8월, 애플은 어린이 보호를 위해 자사 제품에 새로운 안전기능 2가지를 도입하겠다고 발표했습니다.
하나는 사용자가 iCloud에 사진을 업로드할 때 해당 사진이 CSAM(아동음란물)인지 여부를 이미지 해시 기반으로 탐지하겠다는 것이었고, 다른 하나는 iMessage를 통해 미성년자가 음란한 사진을 수신 혹은 전송하는 것을 감지하면 해당 사진을 가리고 경고하는 필터링 기능을 추가한다는 것이었습니다.
이 발표는 큰 논란을 낳았습니다. 당장 애플 내부 직원들조차 우려의 목소리를 내기도 했고, EFF(전자프론티어재단)을 비롯한 여러 단체와 사람들이 이에 반대하는 공개 서한에 서명하기도 했죠. 여기 GeekNews에도 관련 글이 여럿 올라왔습니다.
애플은 이에 대해 프라이버시가 침해된다는 것은 오해라고 해명했습니다만, 논란과 우려는 쉽게 가시지 않았습니다. 실제로 이후에 구글의 CSAM 감지 알고리즘에 의한 일방적 조치로 피해를 입은 사례가 뉴욕타임스에 보도되면서, 이러한 우려가 결코 근거 없는 것이 아니라는 점이 실제로 드러나기도 했습니다.
- 애플, 아동 보호를 위한 새로운 안전기능 도입
- 애플, "아이폰 스캐닝" 논란 유감
- 애플, 아동 보호를 위한 iCloud 사진 스캔 기능 출시 연기
- CSAM, 사람들은 애플에게 어떤 점을 걱정하는가?
- 아픈 아기의 환부 사진을 찍은 아빠를 구글이 범죄자로 지목
이번에 애플이 WIRED에 밝힌 바에 따르면, iCloud에 사진을 업로드할 때 CSAM 여부를 검사한다는 계획은 포기했다고 합니다.
대신, 미성년자가 음란한 사진을 수신 혹은 전송하는 것을 감지하면 경고하는 필터링 기능을 더욱 강화할 것이라고 합니다. 구체적으로는 사진뿐만이 아니라 동영상에서도 해당 기능을 제공하기 위해 연구 중이며, 또한 iMessage 이외에 다른 앱에서도 이러한 온디바이스 머신러닝 기반 CSAM 감지 기능을 사용할 수 있게끔 할 예정이라고 합니다. 그리고 논란을 막기 위해서인지 이런 기능은 기본적으로 꺼져 있음(opt-in)과 애플에서는 이러한 감지 사실을 알지 못한다는 점을 강조하는군요.
작년의 논란이 워낙 거셌던 탓인지, 클라우드상에 올라온 사진을 스캔한다는 계획은 아예 폐기하고 대신에 기기 내부에서 자체적으로 CSAM을 필터링하는 기능을 더욱 발전시키는 방향으로 가는 모양입니다. 그러나 온디바이스 머신러닝에 의한 검열 또한 당시부터 논란의 핵심 쟁점 중 하나였기 때문에, 애플의 이번 조치가 관련 논란과 우려를 모두 가라앉히기에는 좀 부족하지 않나 싶습니다.