[함께 디지털 안전] 한 명이라도 안전하지 못하다면 모두 안전할 수 없다

데모스X
발행일 2024-09-11 조회수 9
디지털시민권

딥페이크,  해킹, 여성들의 사진을 무작위로 수집하는 AI 프로그램, 성적인 콘텐츠를 광범위하게 유포하고 추천하는 플랫폼의 알고리즘 등 디지털 성범죄에 활용되는 기술은 시시각각 교묘해지고 정교해지고 있다. 실제로 최근 컴퓨터공학과를 졸업한 뒤 IT 업체에서 10여년의 경력을 가진 프로그래머 남성이 직접 영상물을 쉽게 옮길 수 있는 자동화 프로그램을 개발하고 7개의 불법 사이트를 운영하며 30만여개의 불법 성착취물을 유포한 사건이 기사화되기도 했다 ( YTN. (2024.06.18) https://www.ytn.co.kr/_ln/0103_202406181852569129 ). 

텔레그램 성착취 단체방 내 AI 프로그램

<텔레그램 성착취 단체방 내 공유된 AI 프로그램. 여성들의 사진을 무작위로 수집 및 목록화한다>

디지털 성범죄는 오프라인에서 발새하는 기존의 성범죄와는 또 다른 맥락에서 피해자의 존엄성을 심각하게 침해하고 복제와 유포가 끝없이 가능한 디지털 환경의 특성상 그 피해는 계속 증폭된다. 그렇다면 기술을 이용한 성범죄에 맞서 기술을 이용해 이를 예방하고 근절하는 시도는 제대로 이루어지고 있는가? 시시각각 발전해가는 디지털 기술을 악용해 추적과 처벌의 경계를 교묘히 피하고 있는 디지털 성범죄의 현황에 비해 이를 막기 위한 기술과 제도는 더디게 대응하고 있지는 않은가?

 최근 보안솔루션 전문 기업 지슨은 세스코와 협력해 열 감지 기반 공중화장실 불법촬영 탐지 시스템으로 알고리즘 기술을 통한 불법촬영 범죄 방지에 나섰다. 올해 메타, 구글, 오픈AI 등 주요 인공지능 기업들이 AI 기반의 성착취 콘텐츠로부터 아동을 보호하기 위해 AI 학습용 자료에서 아동 성 관련물을 삭제하고 콘텐츠가 AI에 의해 만들어졌는지를 확인할 수 있는 표식을 추가하기로 하는 원칙에 합의했다. 또한 서울시는 AI 안면인식 기술을 활용한 아동·청소년 디지털 성범죄 감시 시스템을 개발해 아동·청소년 성착취물 선제적 감시와 삭제를 하는 등 디지털 성범죄 방지와 사후 대응을 위한 기술의 상용화가 점차 활발하게 이루어지고 있는 것으로 보인다. 

 AI 기술을 활용한 디지털 성착취물 감시, 삭제 시스템은 사람이 직접 모니터링하는 것보다 검출 속도와 정확도가 1/80, 300% 크게 향상된 상태다. 빅데이터 분석을 통해 아동·청소년 디지털 성착죄물 관련 신조어를 생성해 더 많은 성범취물을 찾아낼 수 있고 검색 영역을 확장해 넓어진 디지털 성범죄 피해 범위에 대응할 수 있게 되기도 하였다. 

 

그러나 현재 이 기술은 아동·청소년 대상 디지털 성범죄에만 적극적으로 적용되고 있으며, 성인 대상 디지털 성범죄의 경우 피해자가 피해사실을 인식하고 삭제 요청을 하지 않는 이상 사실상 수사나 피해 구제 대상에서 제외되고 있다. 올해 4월 인스타그램의 모기업인 메타는 인스타그램 DM에서 전송되는 나체 사진을 자동으로 감지해 흐리게 처리할 수 있는 AI 기능을 시험 중이라고 밝혔지만, 이 기능은 18세 미만의 아동·청소년에게만 기본적으로 적용되고 성인들에게는 이 기능을 알리는 알림만 표시된다. 멀리 갈 것도 없이, 현재 한국은 미성년 피해자 대상 디지털 성범죄에 대해서만 경찰이 위장수사를 할 수 있는데 이는 ‘아청물’임이 명백히 드러나지 않는 미성년 피해자 대상 디지털 성범죄는 물론 성인 대상 디지털 성범죄는 모두 놓쳐버리는 분명한 한계가 존재한다.

 디지털 성범죄를 수사하고 방지해야 할 의무가 있는 공권력은 성인 대상 성착취물, 불법촬영물에 대해서는 여전히 여성 및 피해자의 권리와 존엄성보다 ‘음란물’ 유통자의 자유권을 중요시하여 성착취물의 ‘합의되었을’ 가능성에 지나치게 연연하고 있다. 언론이나 대중 역시 20대 성인 여성이 실질적으로 디지털 성범죄의 가장 큰 표적이 되고 있는 현실을 고려하지 않고 ‘성인’의 책임과 자율성만을 강조하며 피해 지원이나 보호를 받아야 할 대상으로는 보고 있지 않다. 아동·청소년의 취약성에 대해서는 인식하고 있지만, 역설적으로 이것이 디지털 성범죄의 과반 이상 피해자인 성인 여성층을 상대적으로 덜 고려하게 만든 것이다. 실제로 언론이 “피해자 대다수가 10대 청소년”이라 대서특필한 텔레그램 성착취 사건 중 박사방의 경우 피해자 74명 중 16명만 미성년자인 것으로 드러났으며, 2023년 디지털성범죄 피해자지원센터에서 지원한 피해자 중 약 70%가 20대 이상(20대 50.3%, 30대 11.9%, 40대 4%, 50대 이상 2.5% 등)임에도 여전히 “10대 피해자가 24.6%로 나타나 온라인 플랫폼 이용이 익숙한 저연령층에서 피해가 많이 발생한다(한경. (2024.04.24). https://www.hankyung.com/artic... )”고 서술하고 있다.

 

보다 안전한 디지털 생태계를 갖추기 위해 기술과 제도의 발전이 논의되고 있는 현재, 그 청사진을 그리기 위해 중요하게 고려해야 하는 지점이 있다. 바로 ‘연령대’에 따라 차이를 두는 것이 옳은지에 대한 근본적인 질문이다. 앞서 서술되었듯 디지털 성범죄 사건과 그 예방 및 지원을 이야기할 때 나이에 따라 차등화 된 접근방법을 택하는 일이 빈번히 발생하고 있다. 아동·청소년 피해자에만 집중하는 국가와 사회의 모습은 안전한 디지털 생태계를 갖추기 위한 길에도 영향을 미치는데, 사건 발생 이후의 조치 뿐 아니라 디지털 성범죄 예방을 위한 정책들에서도 이러한 차이를 찾아볼 수 있다. 우리의 기술과 제도가  모든 디지털 성범죄에 공평하게 적용되지 않고 있는 것이다.

대표적인 예시로는 랜덤채팅 앱을 들 수 있다. 청소년 보호위원회와 여성가족부는 미성년자 대상 성매매 등의 온상인 랜덤채팅 앱을 청소년유해매체물로 지정한 바 있다. 해당 결정 고시는 랜덤채팅에서 미성년자들에게 성적인 대화를 요구하거나 신체 촬영물을 요구하는 등 아동·청소년을 대상으로 한 성착취가 빈번하게 일어나기에 필요한 조치를 행한 것으로 그 대상 역시 ▲ 실명 인증 또는 휴대전화 인증을 통한 회원관리 ▲ 대화 저장 ▲ 신고 기능 등 안전한 대화서비스를 위한 기술적 조치가 없는 앱에 제한된다. 해당 고시가 청소년 보호에 긍정적으로 기여한다는 점에는 의문이 없지만, 리셋은 “그렇다면 왜 성인들은 이러한 보호의 범위에서 제외되는가?”를 묻고자 한다. 

 

리셋이 구글과 원스토어 그리고 앱스토어에서 찾은 백여개의 랜덤채팅 앱을 직접 조사한 결과, 연령대에 따라 차이를 두는 접근방식의 근본적인 문제점이 뚜렷하게 관찰되었다. 첫번째는 위 고시에서 서술하고 있는 기술적 조치를 가진 앱이라 할지라도 그 안에서 리셋이 사용한 ‘20대 여성’의 계정을 대상으로 한 디지털 성폭력이 만연하게 발생했다는 것이며, 두번째는 청소년유해매체물로 지정된 랜덤채팅 앱이라도 아동·청소년이 자신의 나이를 20세로만 설정한다면 어떠한 제한 없이 앱을 이용할 수 있어 해당 고시의 목적이 무색하게 그들이 디지털 성폭력에 노출된다는 것이다. 리셋의 ‘20대 여성’ 계정에는 성적인 대화 시도/유도부터 통신매체이용음란, 자기촬영물 제공 및 판매 유도, 기타 원치 않는 성적 접촉 등 다양한 디지털 성폭력이 쏟아졌다. 그리고 ‘연령대에 따라 다른 디지털 공간’을 조성하여 아동·청소년을 디지털 성폭력으로부터 보호하고자 한 여성가족부의 의도에도 불구하고 랜덤채팅 앱을 이용하는 아동·청소년들 역시 동일한 디지털 성폭력에 노출되어 왔다. 디지털 공간 안에서 한 명이라도 안전하지 못하다면, 모두가 안전할 수 없다는 방증인 것이다. 

최근 서울대 불법합성 사건을 계기로 피해자가 미성년자인 디지털 성범죄 사건에 국한한 현 위장수사 체제가 갖는 한계점이 대두되며 그 발전에 대한 논의가 시작되고 있다. 사실 이 한계는 ‘아청법’ 일부개정법률이 공포되어 아동·청소년 대상 디지털 성범죄 사건에 위장수사를 허용한다는 규정이 마련된  2021년부터 꾸준히 지적되어왔던 내용이다. 그러나 대부분 필요성은 있다면서도 “위장수사가 남용되어 피의자가 양산될 수 있다”거나 “위장수사 방식은 위법한 함정수사의 유혹에 빠질 수 있는 여지가 많다(치안정책연구소. (2020). 디지털성범죄 및 마약·사기범죄에서의 위장수사. 치안정책리뷰 76. )” 는 등의 이유로 그 대상 범위의 확대는 차후에 논의할 과제라 명할 뿐 이에 대한 실질적인 논의는 사실상 정체되어 있었다. 그러나 경찰대학 치안정책연구소가 지적하듯, “피해자의 극심한 인격권 침해와 피의자의 헌법상 기본권 침해는 사실상 비교형량 할 수 없을 정도로 피해자의 권리가 우위에 있다(치안정책연구소. (2021). 디지털 성범죄의 위장수사 쟁점과 과제. 치안정책연구 35(2). https://psi.police.ac.kr/polic...)”. 이 인격권 침해가 연령대에 따라 다르게 나타나는 것도, 피해자의 연령대에 따라 그 심각성에 차이가 발생하는 것도 아님이 자명한 사실이다. 그런데 왜 우리는 이를 다르게 대하고 있는가? 

 

텔레그램 성착취 사건 이후 한국 사회는 안전한 디지털 공간을 만들기 위해 여러가지 방면으로 대응해왔다. 특히 2020년 국무조정실과 국무총리비서실이 발표한 디지털 성범죄 근절 대책은 성인 대상 성착취물의 소지 역시 처벌하고 아동·청소년 성착취물의 제작·판매자를 신상공개 대상에 포함하는 등 디지털 성범죄에 맞서기 위한 중요한 전환점이 되었다. 마찬가지로 2020년, 또다른 공공의 문제였던 코로나19와 관련해 UN은 “모두가 안전해지기 전에는 아무도 안전할 수 없다(No one is safe until everyone is)(UN, (2020. 07. 30.), https://www.un.org/en/desa/%E2... )”라는 제목으로 코로나19 회복을 위해 불평등을 해소하고 다자간 협력을 촉진하여 더 큰 평등과 사회적 정의를 목표하자는 글을 게시하였다. 이 슬로건은 모든 사회문제에 적용된다고 볼 수 있으며 디지털 성범죄 역시 모두가 안전해지기 전에는 아무도 진실로 안전하다고 말할 수 없을 것이다. 아동·청소년 대상 디지털 성범죄에 치우친 현재의 접근법은 성인 여성 피해자를 소외시키고 있으며, 이는 기술과 제도의 발전에도 불구하고 여전히 많은 한계로 이어지고 있다. 따라서 모든 연령대의 피해자를 보호하기 위해 우리는 보다 포괄적이고 평등한 접근 방식을 채택해야 한다. “모두가 안전해지기 전에는 아무도 안전할 수 없다”는 원칙을 디지털 성범죄 예방과 대응에도 적용하여, 기술과 제도를 통해 모든 피해자가 보호받을 수 있게 하는 것이 안전한 디지털 생태계를 구축하는 올바른 길이다.

출처 : 캠페인즈

Comment (0)