📝 エピソード概要
本エピソードでは、米国で拡大する「QuitGPT(ChatGPT解約)」運動を軸に、AIの軍事・監視利用を巡る深刻な対立を深掘りしています。トランプ政権下の国防総省が求める「自律的な攻撃AI」や「国民監視」への協力を拒否したAnthropicと、それに応じようとするOpenAIの姿勢の対比を解説。AIが国家戦略の核心となったことで生じている、倫理観と政治的圧力の摩擦、そして市民による「不買運動」という監視の形について考察しています。
🎯 主要なトピック
- 「QuitGPT」キャンペーンの背景: AIの非人道的な軍事利用や国民監視への懸念から、OpenAIやGoogleの従業員、一般ユーザーの間でボイコット運動が広がっている現状を説明。
- Anthropicと国防総省の対立: 「人を介さない自律的な攻撃」や「国外・国内の監視」を拒否したAnthropicが、米国のスタートアップとして異例のサプライチェーンリスク(指定リスト)に入れられた経緯。
- OpenAIとサム・アルトマン氏への批判: 国の要求に歩み寄るOpenAIの姿勢に対し、創業時の理念との矛盾や「二枚舌」ではないかという厳しい批判が噴出している点。
- AI利用の歴史的背景と現代の感度: かつてのコンピュータ技術がユダヤ人摘発や弾道計算に使われた歴史を引き合いに、特に移民の多いエンジニア層が監視AIに対して抱く強い忌避感を解説。
- 市民によるガバナンスとしての行動: 特定のアプリをダウンロードしたりサブスクを解約したりすることが、巨大AI企業や政府の暴走を止める「投票」のような役割を果たしているという視点。
💡 キーポイント
- AIはすでに戦争の核心: イランへの精密な作戦行動など、AIによる戦略立案(シナリオ策定)はすでに実戦で不可欠な要素となっている。
- 「安全」へのこだわりがリスクになる逆転現象: 安全性を重視して政府の要求を断ったAnthropicが「国のリスク」と見なされ、逆に歩み寄ったOpenAIが重用されるという皮肉な構造が生まれている。
- エンジニアの離反: 移民が多いAI開発現場において、AIが移民監視や強制送還に利用されることへの抵抗感は、企業の採用や存続に影響を与えるほどのリスクとなっている。
- ITアクティビズムの重要性: AIという強大な力に対し、ユーザーが「どのツールを選ぶか」という行動で意思表示をすることが、企業の暴走を抑止する最後の砦となる。
![【QuitGPT】アメリカでChatGPTに不買運動?、裏側で起きてるAIが重要になりすぎた副作用[3/4]](/_next/image?url=https%3A%2F%2Fd3t3ozftmdmh3i.cloudfront.net%2Fstaging%2Fpodcast_uploaded_nologo%2F44513665%2F44513665-1759224998696-1b104df039775.jpg&w=3840&q=75)