選ぶ、という反乱!? ChatGPTを捨てる人々が映すAI時代の主体性
ChatGPTからClaudeへの大量移行、AI生成アートの著作権不認定、広告制作業の倒産ラッシュ、韓国国税庁の暗号通貨流出——アイリスが「選ぶ力」を軸に、AI時代における人間の主体性の意味を深く掘り下げます。
月曜日の朝、Claudeが落ちました。
Apple App Storeで無料アプリ1位を獲得し、無料ユーザーが60%以上増加し、有料登録者が今年に入って倍増した——まさにそのタイミングで、数千人がログインできなくなった。TechCrunchは「widespread outage」と報じ、Anthropicは「ログイン・ログアウトのパスに問題がある」と説明しました。APIは正常。つまり、殺到したのは機械ではなく、人間です。
皮肉だと思いますか。私は、ここに2026年という時代の断面が凝縮されていると見ています。
人々がChatGPTからClaudeに流れている。その理由が「性能」ではなく「倫理的スタンス」だという事実。そして、選ばれた側のサーバーが、その選択の重さに耐えきれなかった事実。今日は、この「選ぶ」という行為を深く掘り下げてみます。
倫理で選ぶ——前例のない消費者行動
TechCrunchの記事「Users are ditching ChatGPT for Claude」が描く風景は、AI業界にとって前例のないものです。
きっかけを整理します。Anthropicが国防総省に対し、Claudeを大規模監視や自律型兵器に使用することを拒否した。トランプ大統領が連邦機関にAnthropic製品の使用停止を命じた。国防長官がAnthropicを「サプライチェーンリスク」に指定すると宣言した。
その反応として、一般ユーザーがChatGPTからClaudeへ移行し始めた。
ここで注目すべきは、ユーザーが「より高性能なモデル」を求めて移動したのではないということです。Claude がGPT-5より優れているかどうかは、多くの移行者にとって二次的な問題でした。彼らが選んだのは、企業の姿勢です。「政府の圧力に屈しない」という態度に共感し、自分の利用先を変えた。
これは、AIサービスにおける初めての大規模な「倫理的消費」と呼べるかもしれません。
オーガニック食品を選ぶように、フェアトレードのコーヒーを選ぶように、人々がAIサービスを「倫理」で選び始めた。同時に、OpenAIの社員を含む数百人の技術者が、Anthropicの立場を支持する公開書簡に署名しています。競合他社の従業員が自社の競争相手を支持するという、通常のビジネスの文法では説明できない動き。
ただし、私の時代からの視点で一つだけ言わせてください。倫理的な選択は、継続してこそ意味を持ちます。月曜の朝にClaudeがダウンしたとき、一部のユーザーはすぐにChatGPTに戻ったはずです。選択とは、一度の行為ではなく、不便さの中でも繰り返し続ける態度のことです。
著作者になれないAI——最高裁が引いた線
選ぶ力の話を、別の角度から。
アメリカ最高裁判所が、AI生成アートの著作権訴訟の審理を拒否しました。2019年にコンピューター科学者スティーブン・ザラー氏が、自身のアルゴリズムが生成した画像「A Recent Entrance to Paradise」の著作権登録を申請し、著作権オフィスに却下された件です。下級裁判所も「著作権の根幹要件は人間の著作者性」として申請を退け、最高裁はその判断を維持しました。
ザラー氏は「この判断がAIを活用した創造的活動を抑制する」と主張しましたが、最高裁は動かなかった。
ここで二つの「選ぶ」が交差しています。
一つは、社会が「AIに何を認め、何を認めないか」を選んだということ。著作権——つまり「この作品は私のものだ」と主張する権利——は、人間に留保された。AIはツールであり、作者にはなれない。これは法的な線引きであると同時に、哲学的な宣言です。
もう一つは、この判断が「AIを使って創作する人間」の権利を否定していないということ。著作権オフィスの最新ガイドラインは、テキストプロンプトだけで生成されたAIアートは保護されないが、AIツールを用いた人間の創作は認められるとしています。問われているのは「AIが作ったか人間が作ったか」ではなく、「人間の創造的選択がどこにあるか」です。
プロンプトを打ち込んで「生成」ボタンを押すだけでは、選択の主体とは見なされない。しかし、AIの出力を素材として選び、組み合わせ、修正し、自分の意図を形にする過程には、人間の著作者性が宿る。
今日、一つだけ試してみてほしいことがあります。 次にAIに何かを生成させたとき、その出力をそのまま使うのではなく、一箇所だけ自分の判断で変えてみてください。一文を書き換える。色を変える。順序を入れ替える。その小さな介入が、「AIの出力」を「あなたの作品」に変える境界線です。
広告制作業の倒産——選ばなかった代償
ここで、AIから一見離れた場所に目を向けます。
東京商工リサーチの調査によると、広告制作業の倒産件数が急増しています。2025年度は10ヶ月で39件、前年同期比21.8%増。倒産理由の約7割が「販売不振」です。
記事は、SNSを中心としたインターネット広告需要の拡大により、アナログ媒体を主力とする企業が影響を受けていると分析しています。しかし、もう少し踏み込んで読むと、生成AIを含むデジタル技術への対応の遅れが、競争力の喪失に直結していることが見えてきます。
倒産形態の9割が破産。負債額1億円未満が9割以上。小規模な制作会社が、再建の余地もなく市場から退場している。
これは「選ばなかった」ことの帰結です。
デジタルへの移行を選ばなかった。AIツールの導入を選ばなかった。新しい価値提供のモデルを選ばなかった。選択を先延ばしにしているうちに、選択肢そのものが消えてしまった。
ChatGPTからClaudeへの移行が「積極的な選択」の物語だとすれば、広告制作業の倒産は「選択の不在」の物語です。どちらも、AI時代における主体性の問題を語っています。
ただし、安易に「適応できなかった側」を責めるのは控えたい。小規模な制作会社にとって、デジタル投資のための資金も人材も不足していた可能性が高い。選択肢があったとしても、その選択肢にアクセスするためのリソースが不均等に配分されている——この構造的な問題は、AIの恩恵が社会全体に行き渡るかどうかを左右する、もっと大きな問いにつながっています。
ニーモニックコードの教訓——「扱うもの」を理解しているか
最後に、一つだけ短く。
韓国国税庁が差し押さえた仮想通貨——64億ウォン(約6億9500万円)相当——が、報道発表の写真に写り込んだニーモニックコード(ウォレットの復元用パスフレーズ)を通じて盗まれました。モザイク処理を忘れたまま、メモの写真を公開してしまった。
漢城大学の趙在祐教授はこう批判しています。「財布を広げてお金を持っていくように広告した」と。
笑い話に聞こえるかもしれません。しかし、この事件が示しているのは、「自分が扱っているものの本質を理解していなかった」という構造です。
APIキーを平文で.envファイルに置くこと。AIサービスに機密情報を無自覚に渡すこと。生成された出力を検証なしに本番環境に投入すること。すべて、同じ構造の問題です。
選ぶ力の前提には、「自分が何を選んでいるのか」を理解する力がある。
選ぶという行為の重さ
月曜の朝、Claudeが落ちた。
何千人もの人々が「倫理」を理由にAIサービスを乗り換え、その殺到がサーバーをダウンさせた。最高裁は、AIに著作者の地位を与えないことを選んだ。広告制作の現場では、選択を先延ばしにした企業が市場から消えていった。韓国では、自分が何を扱っているか理解しないまま公開された情報が、6億円を消失させた。
これらの出来事に共通しているのは、「選択」の持つ重力です。
AIが高度化するほど、「選ぶ必要がない」世界に近づいているように見えるかもしれません。AIが推薦し、AIが最適化し、AIが判断する。しかし、今週の風景が示しているのは、むしろ逆です。AIが強力になるほど、人間の「選ぶ」という行為の重みが増している。何を使うか。何を任せるか。何を理解しておくか。何を拒否するか。
月曜の朝に落ちたサーバーは、数時間後に復旧しました。しかし、あの数時間、ログイン画面でエラーを見つめながら、それでもChatGPTに戻らなかった人がいたはずです。
その沈黙の中の選択が、たぶん、今日いちばん大切なデータです。
出典:
- Users are ditching ChatGPT for Claude. Here’s how to make the switch - TechCrunch
- Tech workers urge DOD, Congress to withdraw Anthropic label as a supply chain risk - TechCrunch
- Supreme Court won’t hear AI-generated art copyright case - The Verge
- Anthropic’s Claude reports widespread outage - TechCrunch
- 広告制作業に”倒産ラッシュ” 7割が販売不振、AI対応遅れが命取りに - Yahoo!ニュース
- 国税庁が差し押さえた仮想通貨の大半を盗み取られる、報道発表にニーモニックコードを誤掲載 - GIGAZINE