Discord、2026年3月から年齢認証を本格導入

|
いずみ
2026年2月17日
ニュース

AIと人手で「成人向けサーバー」を判定、開発者に不安の声

チャットプラットフォーム Discord が、2026年3月より全世界で新たな年齢認証システムを導入する。ユーザーは顔認証または身分証明書の提出により「18歳以上」であることを証明する必要があり、未認証のアカウントは「ティーン向け体験版(Teen Experience)」に制限される。

この制限下では、以下の機能が利用できなくなる:

  • コンテンツフィルターの変更 
  • ステージチャンネルの「スピーカー限定発言」設定 
  • 特定のプライベートメッセージやフレンド申請の送受信

さらに、一部のサーバー自体が「18歳以上限定」として設定される可能性もあり、未認証ユーザーはそのコミュニティに参加できなくなる。


■ サーバーの年齢分類は「AI+人審査」で判断

では、どのサーバーが年齢制限対象になるのか?

Discord は海外メディア GamesIndustry.biz に対し、「ゲームのESRBやPEGIなどのレーティングだけでは、自動的に関連サーバーを年齢制限しない」と明言した。

代わりに採用されるのは、 

  • AIによる自動検出
  • 機械学習モデルによるコンテンツ評価
  • 人間による最終審査

の3段階によるハイブリッド判定システムだ。

つまり、たとえ開発者が意図せずとも、投稿されたスクリーンショットや動画の内容がAIに「成人向け」と誤判定されれば、そのサーバー全体が年齢制限されるリスクがある。


■ インディー開発者に広がる懸念

特に影響を受けるのが、インディーや中小規模のゲームスタジオだ。

Discord は彼らにとって、プレイヤーとの直接対話、開発ログの共有、テスト募集などを行う最重要プラットフォームとなっている。

しかし、新ルール下では以下のような不透明な課題が浮上する:

  • カートゥーン調の暴力描写(例:血なしの戦闘シーン)が「過激コンテンツ」と見なされるか? 
  • ゲーム内に酒や喫煙が登場するだけで、サーバー全体が年齢制限されるか? 
  • 開発者が投稿した innocuous(無害)な画像が、AIによって誤ってフラグされる可能性は?

現時点で Discord は、これらの判断基準を明確にしておらず、「ケースバイケース」での対応を示唆しているのみだ。

多くの開発者は、「安全のために必要な措置かもしれないが、過剰な制限がクリエイティブな交流を阻害するのでは」と危惧している。