“아들 폰 검사해야 하나”… 가족까지 ‘딥페이크 패닉’

입력
수정2024.08.27. 오전 10:19
기사원문
권민지 기자
본문 요약봇
성별
말하기 속도

이동 통신망을 이용하여 음성을 재생하면 별도의 데이터 통화료가 부과될 수 있습니다.

확산하는 딥페이크…피·가해자 모두 엮인 청소년들
여동생·엄마 등 친족 사진 딥페이크·신상 공유까지
여동생의 사진을 공유한 텔레그램방. 온라인 커뮤니티 캡처

여성의 얼굴과 나체 사진을 합성하는 ‘딥페이크’ 성범죄 공포가 가정까지 향하고 있다. 단순한 여성 지인을 넘어 여동생, 엄마 등 친족의 얼굴을 나체에 합성해 공유한 사례도 있다는 주장이 나오면서 충격을 키우고 있다.

중고생으로 추정되는 이들을 중심으로 이른바 ‘가족 능욕’ 사진을 공유하고 있다는 제보가 이어지면서 자녀를 둔 학부모들은 아이가 ‘딥페이크’ 피해를 입을 걱정과 동시에 가족을 향한 가해자일지 모른다는 두려움을 호소하고 있다.

26일 학부모들이 주로 이용하는 온라인 커뮤니티에는 “누나와 여동생 사진과 신상을 올리는 방이 있다”는 내용의 글이 올라왔다. 작성자에 따르면 해당 텔레그램방에는 약 2000명이 참여하고 있다.

텔레그램방 캡처 사진을 보면 한 참여자가 친족 사진을 올리며 성희롱을 하면 다른 참여자들이 이에 호응하는 식의 대화가 이어졌다. 한 참여자는 “오늘은 수면제 실패했으니 내일은 성공하리라”라며 치마 잠옷을 입고 자는 여동생의 모습이라는 영상을 올렸다. 다른 참여자도 “여동생 잘 때”라는 동영상을 올리고 “속옷 젖혀볼 걸 후회된다”는 말까지 남겼다. 이에 다른 참여자들은 부럽다는 식의 반응을 보인다.

‘여동생 신상 정보’를 구체적으로 공유한 참여자도 있었다. 이 참여자는 여동생의 이름·나이·거주지·인스타그램 주소·전화번호·학교 등을 공유하며 “순수해서 협박이 잘 통한다”고 표현했다.

이들은 채팅방에 올라온 사진과 영상을 가지고 딥페이크를 활용해 성범죄물로 만들어 다시 공유하는 것으로 추정된다. 이렇게 만들어진 성범죄물이 또 다른 딥페이크 채팅방의 ‘입장권’처럼 활용되기도 한 것으로 알려졌다.

이 같은 게시글에 회원들은 믿기 힘들다는 반응을 보였다. 한 작성자는 “중학생 남자애들이 여동생, 누나 사진을 올린 게 맞느냐”고 적었다. “같은 사람으로서 존중하는 법을 모른다” “딸 키우기 걱정된다” “도대체 어디서부터 잘못된 건지 감도 안 잡힌다” 등의 댓글도 이어졌다.

다수 학부모는 불안함을 호소했다. 자녀의 휴대폰을 확인해볼 필요가 있다는 목소리도 이어졌다. 자녀 중 피해자·가해자가 모두 있을 수 있다는 우려를 넘어 자녀의 성 관념을 점검하는 차원에서다.

서울 잠실에서 초등학생과 중학생 자녀를 키우고 있는 한 학부모는 “내 아이는 아닐 것이라고 믿고 싶지만 마냥 믿을 수 없다는 게 어렵다. 그런 일에 안 엮이게 하려면 어떻게 해야 하는 건지, 혹시라도 아이가 잘못을 저지른 것을 확인하면 그땐 어떻게 해야 할지 몰라 불안하다”고 말했다.

챗GPT, AI를 활용한 합성 등 기술 활용에 익숙한 세대인 만큼 문제의식 없이 이 같은 흐름에 동조할 수 있다는 우려의 목소리도 나왔다. 중학생 딸과 초등생 아들을 둔 또 다른 학부모는 “딥페이크 때문에 친구들도 다 난리라며 불안해하는 딸을 보면서 혹시라도 피해를 당할까 걱정되는데 더 어린 아들이 아무 생각 없이 이런 일을 배우거나 호기심에라도 관여될까봐 더 무섭다”고 했다.

기자 프로필

이 기사는 언론사에서 사회 섹션으로 분류했습니다.
기사 섹션 분류 안내

기사의 섹션 정보는 해당 언론사의 분류를 따르고 있습니다. 언론사는 개별 기사를 2개 이상 섹션으로 중복 분류할 수 있습니다.

닫기
이 기사를 추천합니다
3