아동 안전 표준 정책
중요 안내
아동 보호는 우리 모두의 책임입니다. 의심스러운 콘텐츠를 발견하시면 즉시 신고해 주세요.
CSAE란 무엇인가요?
CSAE(Child Sexual Abuse and Exploitation)는 아동을 성적으로 착취하거나, 학대하거나, 위험에 빠뜨리는 콘텐츠나 행위 등 아동 성적 학대 및 착취를 의미합니다.
CSAE에 포함되는 행위:
- 아동 그루밍 (성적 착취 목적의 접근)
- 아동 성 착취
- 아동 성매매
- 기타 아동 성 착취 행위
CSAM이란 무엇인가요?
CSAM(Child Sexual Abuse Material)이란 아동 성적 학대 콘텐츠를 의미합니다. 이는 불법이며, 본 서비스에서 이러한 콘텐츠를 저장하거나 공유하는 것을 엄격히 금지합니다.
CSAM은 노골적인 성적 행위에 연루된 미성년자에 관한 사진, 동영상, 컴퓨터 생성 이미지를 포함하되 이에 국한되지 않는 모든 시각적 묘사로 구성됩니다.
금지되는 콘텐츠
- 미성년자의 성적 이미지 또는 동영상
- 아동을 성적으로 묘사하는 AI 생성 콘텐츠
- 아동을 성적 대상화하는 모든 콘텐츠
- 아동 착취를 조장하는 콘텐츠
신고 방법
본 서비스 내에서 CSAE 또는 CSAM 관련 콘텐츠를 발견하시면 즉시 신고해 주시기 바랍니다.
앱 내 신고
각 게시물 또는 댓글의 신고 버튼을 이용해 주세요.
모든 신고는 24시간 이내에 검토됩니다.
CSAM 대응 조치
본 서비스는 CSAM 방지를 위해 다음과 같은 적절한 조치를 취합니다:
1
CSAM 발견 시 즉시 해당 콘텐츠 삭제
2
해당 계정 즉시 정지 및 영구 차단
3
관련 법률에 따라 관계 당국에 신고
4
NCMEC(National Center for Missing & Exploited Children) 등 관련 기관에 보고
글로벌 아동 안전 표준 준수
본 서비스의 아동 안전 정책은 다음의 국제 표준을 준수합니다:
- Google Play 아동 안전 정책
- Tech Coalition의 아동 안전 표준
- 각국의 아동 보호 관련 법률