Discordの“未成年保護機能&年齢確認プロセス”、猛反発を受けて実装延期へ。高まる不安に「90%以上のユーザーは年齢確認不要」など公式回答

Discord社は2月9日、Discordにて10代向け安全保護機能を標準設定化することを発表し、3月上旬からこの変更を段階的にグローバル展開していくと告知。一部機能に制限が設けられ、解除のために年齢確認で成人として認められる必要があることが伝えられていた。

ところがこの決定を受けて世界的に反発が巻き起こることに。そうした反応を受けてDiscord社は2月25日、グローバル展開を2026年後半に延期し、年齢確認手順を追加することなどをアナウンスしている。今回の問題の発端となったのは、10代のユーザー向けの保護機能強化を目的とする機能の標準化だ。具体的には以下のとおり。

・コンテンツフィルター:センシティブなコンテンツのぼかし解除、または設定のオフには成人としての年齢認証が必要になる・年齢制限スペース:成人として年齢認証されたユーザーのみが、年齢制限のあるチャンネル・サーバー・アプリコマンドにアクセスできる・メッセージリクエスト受信箱:知らない可能性のあるユーザーからのダイレクトメッセージは、デフォルトで別の受信箱に振り分けられ、この設定を変更する権限は成人として年齢保証されているユーザーに限定される・フレンドリクエスト警告:知らない可能性のあるユーザーからのフレンド申請については警告表示される

・ステージの制限:サーバー内のステージで発言できるのは、成人として年齢保証されているユーザーのみ

関連記事: