メインコンテンツへスキップ
qwqb.net

AI 主要3社を使って感じていた雰囲気と、自分について気がついたこと

·
Diary

ChatGPT 3 あたりの衝撃以降、ChatGPT・Gemini・Claude の3つを比較しながら日常的に使ってきました。仕事でもプライベートでも、何かを調べるとき、考えを整理するとき、コードを書くとき。それぞれに違う雰囲気があるなとは感じていて、なんとなく使い分けてきました。

先日、Google の TurboQuant 発表のニュースをきっかけに Claude と壁打ちを始めたら、量子化の技術体系、蒸留とモデルの階層構造、3社の設計思想の比較……と話が転がり続けて、気がつくと数時間が経っていました。同じ日にたまたま同僚と AI について雑談する機会もあって、自分の思考のクセみたいなものに気づいた日でもありました。

3社の雰囲気の違い

一応、どのモデルにも「簡潔に、回りくどくならないように」という趣旨の共通プロンプトは入れています。その上で一番はっきり感じるのは、会話の「閉じ方」の違いです。

Claude は、こちらが感想を述べると短く応答して話を閉じてくれます。「もう少し掘り下げたい」と言えば「何について気になりますか?」と聞き返してくる。最初はちょっとサボられている感覚がありましたが、冷静に考えると「掘り下げたい」とだけ言って何を掘り下げたいか伝えていないのはこちらの方でした。曖昧な指示に対して勝手に走り出さず、聞き返してくれる。この振る舞いの積み重ねが信頼感になっています。

Gemini は逆に、こちらが感想を述べた場面で話題を広げようとする傾向があります。「そこまでは求めていないんだけどな」と思う場面が多いです。

ChatGPT は 5.4 のあたりから回りくどさが目立つようになりました。1回の応答で聞いたことに答えてくれない場面が増えた印象で、聞きたいことに辿り着くまでに何往復かかかることがあります。

その違いはどこから来ているのか

この違い、単にチューニングの差なのか、もっと根っこのところから来ているのか。気になったので各社の方針文書を調べてみました。

Anthropic は 2026年1月に Claude の新しい憲法(約23,000語)を公開しています。設計の根幹は「AI モデルが世界において良き行為者であるためには、何をさせたいかを単に指定するのではなく、なぜその振る舞いを求めるのかを理解させる必要がある」という考え方です。

個人的に印象に残ったのは「Claude is a space to think」というエッセイでした。Claude は広告なしであり続けると宣言した上で、チャットウィンドウに別枠で広告を表示するだけでもエンゲージメント最適化のインセンティブが生まれることを指摘しています。その文脈で「最も有用な AI のやり取りは短いものかもしれないし、さらなる会話を促すことなくユーザーのリクエストを解決するものかもしれない」と書かれている。滞在時間や再訪頻度の最適化とは真逆の考え方です。Claude が話を閉じてくれるのは、この思想の反映なんだと思います。

余談ですが、この壁打ちの途中で Claude 自身に「Opus と Sonnet のアーキテクチャの関係は?」と聞いたところ、「わかりません」と答えた後に外部の論文やリーク情報を Web 検索して推測し始める、という場面がありました。自社製品の内部構造について外部情報を検索して推測する AI。2026年ならではの光景です。ただ、知らないことを知らないと答えるのは、自信満々に間違えるよりずっと誠実ではあります。

OpenAI の Model Spec は Root / System / Developer / User / Guideline という権限の階層構造を中心に据えています。「アシスタントは OpenAI の人類への利益という目標を原則の解釈に織り込むべきだが、明示的に指示されない限り、自らそれを追求する行動を取るべきではない」とされていて、Anthropic が「なぜそう振る舞うべきかを理解させる」方向なのに対し、OpenAI は「指示の階層に従わせる」方向です。

GPT-5 以降はルーターに包まれたポリシー判断になっていて、一貫性が失われている印象を受けます。回りくどさや媚びた口調の問題が繰り返し指摘されて、後追いで修正するサイクルが続いている。技術的に劣っているわけではなく、製品としてのアイデンティティが定まりきっていないのかなと感じます。ただ、画像生成を一般に浸透させて市場カテゴリとして成立させたように、次の市場を作る力は依然として持っている企業です。

Google / DeepMind について。Anthropic の憲法や OpenAI の Model Spec にあたるような統一的な行動指針文書が Gemini には存在しません。ガイドラインはプロダクトページやモデルカードに分散していて、「Gemini はどういう AI であろうとしているのか」が外からは見えにくい。出力は早いし、カタログスペック上の性能は高い。ただ、コーディングでは信頼しきれない場面が多く、回答もどこかユーザーに寄り添いきれていない印象があります。プロンプトで簡潔さを求めても、やたら話を広げようとするときがあるような印象を受けます。Antigravity で Gemini を使用した時も言うことをなかなか聞いてくれないことが多かったです。

ここまで調べてみて、自分が Claude を信頼している理由はかなりクリアになりました。とはいえ、Anthropic も営利企業です。期待通りの動きをしてくれるから使う、応答が好きだから使う、というのと、最適だから使う、の境界は意識しておかないといけません。

同じ日の、同僚との雑談

そんなことを数時間考えていた同じ日に、若手や同年代のエンジニアと AI について話す機会がありました。使い方とか、どのモデル使ってるとか。

話を聞いていると、思ったより皆、基本的な使い方にとどまっていました。プロンプトを投げて、調整して、CLAUDE.md を書いて、ぐらい。特に驚いたのは「Copilot Chat を使っているけど、モデルを変更しても違いがわからない」という声です。

自分はここまで書いてきたように、使っていて雰囲気の違いをはっきり感じていて、その背景にある思想や哲学まで調べてみたわけです。一方で、違いを感じないという人もいる。

でも、実際の応答から欲しい答えにたどり着けるかどうか、コーディングなら生成されたコードが動くかどうか。そういう実用的な場面でこそ差は出やすいはずで、思想の違いまで遡らなくても、日常的に使い比べていれば感覚的にわかるものだと思います。それがわからないのは、ツールとして深く使い込む手前で止まっているか、Copilot Chat のように内部で差が均されている環境に閉じているか、どちらかなのかもしれません。

自分の思考のクセ

表面的な事実より、抽象化の層を一つ剥がしてその下にある構造を見たいという衝動が昔からあります。Web サイトが気になったら F12 を押してソースを見る。半導体なら NVIDIA や AMD の先にある TSMC や信越化学の製造プロセスの方が気になる。一般的な自作erが最新パーツの情報を追っているとき、自分は TSMC・Samsung・Intel の 2nm プロセスのレースや、GAA・CFET といったトランジスタ構造の変遷の方に関心がいく。

この日の壁打ちもまったく同じパターンでした。TurboQuant のニュース → 量子化の技術体系 → 蒸留とモデルの階層構造 → 各社の設計思想。表面から一段ずつ下に潜っている。

ChatGPT 以前であれば、ここまでの探索には論文を読み、複数の記事を横断し、議論相手を別途確保する必要がありました。今は気になった瞬間にそのまま掘り進められます。自分のような「層を剥がしたい」性質と、AI が即座に壁打ち相手になれる特性との相性はとても良く、助かっています。

一方で、気がつくと何時間も経過しています。無限に脱線を繰り返して、成果物はほとんどなく、充足感だけが残る。さっき触れた Anthropic の「最も有用な AI のやり取りは短いものかもしれないし、さらなる会話を促すことなくユーザーのリクエストを解決するものかもしれない」という言葉は、自分自身にもそのまま当てはまり、少し刺さる思いです。

ただ、この日の会話は結果的にこうして記録に残すところまで来たので、悪くなかったと思っています。「この会話で何を得たいか」をぼんやりとでも意識しておくだけで、ただの充足感で終わらずに済む。いくらでも掘り続けられる環境が手に入った今、大事なのは掘ったものをちゃんと持って帰ってくるところまで含めて一区切りにすることなのかもしれません。