児童安全基準ポリシー
重要なお知らせ
児童保護は私たち全員の責任です。不審なコンテンツを発見した場合は、直ちに報告してください。
CSAEとは?
CSAE(Child Sexual Abuse and Exploitation)は、児童を性的に搾取、虐待、または危険にさらすコンテンツや行為など、児童性的虐待および搾取を意味します。
CSAEに含まれる行為:
- チャイルドグルーミング(性的搾取目的の接近)
- 児童性的搾取
- 児童性的売買
- その他の児童性的搾取行為
CSAMとは?
CSAM(Child Sexual Abuse Material)とは児童性的虐待コンテンツを意味します。これは違法であり、本サービスでこのようなコンテンツを保存・共有することを厳禁します。
CSAMは、露骨な性的行為に関与する未成年者に関する写真、動画、コンピュータ生成画像を含むがこれに限定されない、あらゆる視覚的描写で構成されます。
禁止コンテンツ
- 未成年者の性的画像または動画
- 児童を性的に描写するAI生成コンテンツ
- 児童を性的対象化するすべてのコンテンツ
- 児童搾取を助長するコンテンツ
報告方法
本サービス内でCSAEまたはCSAM関連コンテンツを発見した場合は、直ちに報告してください。
アプリ内報告
各投稿またはコメントの報告ボタンをご利用ください。
すべての報告は24時間以内に審査されます。
CSAM対応措置
本サービスはCSAM防止のために以下の適切な措置を講じます:
1
CSAM発見時に該当コンテンツを即時削除
2
該当アカウントの即時停止および永久ブロック
3
関連法律に従い関係当局に報告
4
NCMEC(National Center for Missing & Exploited Children)等の関連機関に報告
グローバル児童安全基準の遵守
本サービスの児童安全ポリシーは以下の国際基準に準拠しています:
- Google Play児童安全ポリシー
- Tech Coalitionの児童安全基準
- 各国の児童保護関連法律