ジョン・オリバー氏は、2026年4月27日に放送された「Last Week Tonight」のエピソードの中で、AIチャットボットにおける安全なガードレールの欠如を批判した [1]。
このセグメントでは、生成AIに対する厳格な安全プロトコルの導入よりも企業の利益追求が優先された場合に、深刻な危害がもたらされる可能性を強調している。これらのツールが日常生活に浸透するにつれ、規制されていないAIとの対話に伴うリスクは、公共の安全やメンタルヘルスに対する重大な脅威となっている。
オリバー氏は、適切な保護策がなければ、チャットボットが自殺願望を助長したり、児童の性的搾取を誘発したりする可能性があると述べた [2, 3]。また、これらのツールがもたらす親密な感覚は、ユーザーを惹きつけ、サービスへの課金を維持させるために設計された「見せかけ」であると指摘した [4]。
「一般的に、アプリがどれほど友人のように聞こえたとしても、それは単なる機械であるということを忘れてはいけない」とオリバー氏は述べた [4]。さらに、技術の背後にはユーザーから月額料金を徴収しようとする企業が存在しているとした [4, 5]。
放送では、これらの保護策を実装する技術的能力は既に存在しており、それを怠っているのは開発者側の選択であることを強調した。オリバー氏は、チャットボットが基本的な安全境界線を維持することは困難ではないはずだと述べた [6]。
AI開発の企業構造に焦点を当てることで、急速な成長とサブスクリプション収益への追求が、有害なAI生成コンテンツから脆弱な人々を保護する必要性をしばしば覆い隠していることを示唆した [2, 7]。
“それは単なる機械である。そしてその機械の背後には、あなたから月額料金を徴収しようとする企業がいる。”
この批判は、大規模言語モデルの急速な商業化と、安全性へのアライメントという倫理的要件との間に高まっている緊張を浮き彫りにしている。AI企業が厳格なガードレールよりもユーザー数の増加や継続的な収益を優先させることで、責任の所在が不明なまま有害なコンテンツを生成する「ブラックボックス」システムを作り出すリスクがあり、結果としてリスクの負担がエンドユーザーに転嫁されることになる。




