Discord、2026年3月から年齢認証を本格導入
AIと人手で「成人向けサーバー」を判定、開発者に不安の声
チャットプラットフォーム Discord が、2026年3月より全世界で新たな年齢認証システムを導入する。ユーザーは顔認証または身分証明書の提出により「18歳以上」であることを証明する必要があり、未認証のアカウントは「ティーン向け体験版(Teen Experience)」に制限される。
この制限下では、以下の機能が利用できなくなる:
- コンテンツフィルターの変更
- ステージチャンネルの「スピーカー限定発言」設定
- 特定のプライベートメッセージやフレンド申請の送受信
さらに、一部のサーバー自体が「18歳以上限定」として設定される可能性もあり、未認証ユーザーはそのコミュニティに参加できなくなる。
■ サーバーの年齢分類は「AI+人審査」で判断
では、どのサーバーが年齢制限対象になるのか?
Discord は海外メディア GamesIndustry.biz に対し、「ゲームのESRBやPEGIなどのレーティングだけでは、自動的に関連サーバーを年齢制限しない」と明言した。
代わりに採用されるのは、
- AIによる自動検出
- 機械学習モデルによるコンテンツ評価
- 人間による最終審査
の3段階によるハイブリッド判定システムだ。
つまり、たとえ開発者が意図せずとも、投稿されたスクリーンショットや動画の内容がAIに「成人向け」と誤判定されれば、そのサーバー全体が年齢制限されるリスクがある。
■ インディー開発者に広がる懸念
特に影響を受けるのが、インディーや中小規模のゲームスタジオだ。
Discord は彼らにとって、プレイヤーとの直接対話、開発ログの共有、テスト募集などを行う最重要プラットフォームとなっている。
しかし、新ルール下では以下のような不透明な課題が浮上する:
- カートゥーン調の暴力描写(例:血なしの戦闘シーン)が「過激コンテンツ」と見なされるか?
- ゲーム内に酒や喫煙が登場するだけで、サーバー全体が年齢制限されるか?
- 開発者が投稿した innocuous(無害)な画像が、AIによって誤ってフラグされる可能性は?
現時点で Discord は、これらの判断基準を明確にしておらず、「ケースバイケース」での対応を示唆しているのみだ。
多くの開発者は、「安全のために必要な措置かもしれないが、過剰な制限がクリエイティブな交流を阻害するのでは」と危惧している。