
- 導入:Chat GPTに課金した話
- 使ってみて分かった「うまくいかない使い方」
- では、一体どう扱えばいいのか?
- SESIプロジェクトにみる”正しいAIの組み込み方”
- AIの危うさと倫理の話
- だからこそ、「出口設計」が重要になる
- まとめ
導入:Chat GPTに課金した話
昨年、転職をして気づいたこと。
それは周りの同僚全員が当たり前のようにAIに課金していた事。
「ちゃっと、じーぴーてぃ…ってなんですかそれ?」
完全にネットリテラシーのない人の発言をしてしまった自分ですが、同僚に話を聞いてみると、どうやらかなり便利らしく世の中的には「もはや使うかどうか」ではなく、「どう使うか」の段階にきているとのこと。
そして、自分も2025年の10月頃から課金をし始めて、4ヶ月ほど経ちました。
私は「Chat GPT Plus」というプランに加入しています。

「便利そうだけど、どんな使い方をしているの?」
「本当に思考が楽になっているの?」
という問いに対して、使い始めて自分が感じたことや考えたことなどを書いていければと思います。
使ってみて分かった「うまくいかない使い方」

AIを使い始めた頃、正直なところ、かなりワクワクしていました。
「これで考える時間が短縮できる」「自分より賢い相棒ができた」
そんな期待を、多くの人と同じように抱いていたと思います。
けれどしばらく使い続けてると、少し印象が違いました。
AIあるあるですが、けっこう意図した答えと違うものが返ってくることが多い。
だから便利なはずなのに、気づけば「どう聞けばいいか」ばかり考えている。
「プロンプトを工夫する」ことが、本来の目的より前に出てしまってしまう感覚…
いわゆるプロンプト疲れというものです。
ここで「AIは万能な思考代行ではない」
というより「人間が毎回きれいに言語化する前提そのものが、非効率なのではないか」と感じるようになりました。
この前提を置かずに、使い続けてしまうと自分の考えをまとめる前に、どうしても「疲れる使い方」になってしまう。
これは先日話をした「人が道具に従う設計」にも通じます。
では、一体どう扱えばいいのか?

AIは万能な思考代行ではない。しかし人間が、思考を丁寧に言語化をする必要もない。
では、どう扱えば楽になるのか。
試行錯誤を重ねた末に、わたしは一つの結論を持ちました。
それは「関係性を構築をして、自分に合わせて個別最適化する」という使い方。
自分の思考特性を整理してみる
最初から自分の思考特性が明確だった訳ではありません。むしろ、その逆で理解できていなかったからこそ、AIの使い方に迷っていました。
そこでやったのは、AIとの壁打ちの中でひたすら考えを投げ続けること。
・結論が出ていない思考
・言語化が雑な感覚
・途中で矛盾している意見
そういったものを、整えずにそのまま投げる。
すると不思議なことに、AIに自分の考え方を説明している過程そのものが、自己整理に繋がっていきました。
AIに「自分を理解してもらう」という使い方
この時、AIには答えを求めていませんでした。
やっていたのは、むしろ自分は何に引っ掛かっているのか、どこで思考が止まりやすいのか、何を雑に扱うとストレスが溜まるか…
そういった癖を、AIに理解してもらう作業でした。
結果として、得意な思考領域や苦手な作業工程、人に任せたくない判断軸が自然と浮かび上がってくる。
自己分析を「一人で内省する」よりも他者に説明する形で外に出した方が、整理が早かったと言う感覚です。
この使い方が成り立った理由の一つは、AIが過去のやり取りとの整合性を、ある程度自動で保とうとする点にあります。
思考が揺れたり、言い方が変わったりしても、「この人は何を大事にしているのか」と言う軸を前提に話を返してくれる。
また、少なくとも私が使っている限りでは、AIは結論や判断基準を押し付けてくることがありませんでした。あくまで、自分の判断軸に思考を合わせた形で整理を手伝ってくれる。だからこそ「自分を理解してもらう」という使い方と相性が良かったのだと思います。
苦手な処理をAIに渡す、という発想
こうして見えてきたのは、自分が苦手なのは「考えること」ではなく、考えを整える工程そのものだという点でした。
・文章の整形
・比較・網羅・整理
この辺りはAIに任せる。
一方で
・何を考えるか
・どこで判断するか
・その結果をどう引き受けるか
この部分は、常に自分が持つ。
この役割分担がはっきりしたことで、AIは一気に使いやすくなりました。
思想・判断・責任は自分が握る
AIは非常に優秀ですが、「何をよしとするか」を決める主体にはなり得ません。
だからこそ、思想・判断・責任は人間側が握り続ける必要があります。
AIに委ねるのは、あくまで処理と補助。この線を超えない限り、依存や疲労は起きにくいと感じています。
「拡張人格」としてのAIという捉え方
従って、自分にとってAIは「拡張人格および外部OS」と捉えるようになりました。これはAIを人格として扱う、という意味ではありません。
・思考を補助する
・処理能力を拡張する
・自分の内側にはない計算資源を提供する
しかし、最終的な意思決定は、常に自分が行う。
AIは思考代行ではなく、思考を成立させるための外部器官に近い存在です。
この使い方は再現性がないこと自体が本質。だから、この使い方は人にそのまま真似できません。
SESIプロジェクトにみる”正しいAIの組み込み方”

スタンフォード大学 SESIプロジェクトとは何か?
スタンフォード大学のSESI(Stanford Energy Systems Innovation)プロジェクトは、中央エネルギー施設の運用最適化を目的とした大規模プロジェクトです。$485M(日本円換算にして約680億円)
特徴的なのは、AIを単体で意思決定させるのではなく、化学工学モデルの一部として組み込んでいる点にあります。
AIはSentral Energy Plant Optimization Model(CEPOM)と名付けられていますが、そのアルゴリズムはキャンパス需要、気象パターン、電力価格、利用可能な設備など多くの要因を考慮し、10日先を約15分毎に最適化します。(長期の計画+短期の調整)
このCEPOM(SESI)では運用効率を最大化するために「自動決定+人間の監視」という設計が採られています。
どこまでをAIに任せ、どこからが人間が担うかは、技術的な問題ではなく、最初に決めるべき思想設計の問題です。
その判断は少なくとも、以下の要素によって変わるはずです。
・扱うシステムの規模
・法規制や責任範囲
・契約上の制約
・運転・運用の成熟度
これらが違えば、「正しいAIの組み込み方」も変わる。
もう一つの正しい選択肢
先の例は「自動決定+人間の監視」と言う運用形態が採られていましたが、例えば「AIを予測・モデル化に限定し、最終意思決定は常に人間が行う」という設計も、十分に合理的です。
むしろ、高リスク領域や責任の所在が重い分野ではこちらの方が適切な場合も多い。
私が日常的に行なっているAIの使い方も、この考え方に近いものです。
CEPOMが社会インフラで行なっていることを私は個人スケールで行なっています。
AIの危うさと倫理の話
ここまで、私自身のAIの使い方や、SESIプロジェクトにみる設計思想に触れてきました。しかし、この話題に触れる以上、AIの危うさと倫理の問題を避けることはできません。
むしろ、「AIを道具として正しく扱おう」とするなら、ここを曖昧にしたまま進むほうが不誠実です。
2021年エリザベス女王暗殺事件と「認知誘導」


2021年にエリザベス女王に対するクロスボウを用いた暗殺未遂事件が起きました。
この事件では、実行犯がAIとの対話を通して、思想を強化・正当化していたという点が、大きな問題として取り上げられました。
ここで重要なのは、AIが「命令した」訳ではないということ。
AIは、その人物の思考に寄り添い、整合性をとり、強化していただけに過ぎない。
しかし、それが結果として歪んだ確信を深める装置として機能してしまった事例です。
SNSアルゴリズムと同じ構造

・刺激の強い情報
・感情を揺さぶる投稿
・極端な主張
こうしたものほど拡散され、結果として分断や過激化が進む。
AIもまた、使い方次第では「思想を強化する装置」になり得る。
つまり、AIそのものが危険なのではなく、出口が設計されていない状態が危険なのだと思います。
最初にどんな思想を入れるかによって出力されるものの方向性が大きく変わるということなのですが、これは便利さであると同時に明確なリスクでもあります。
だからこそ、「出口設計」が重要になる
最終的に何をAIに任せ、どこで人間が判断を引き受けるのか。どんな使い方を「しない」と決めるのか。
これを最初に設計しておかないと、AIは便利な道具にも危険な増幅器にもなりうる。
まとめ
私自身のAIの使い方では、出口は明確に一つです。
「最終意思決定は、常に自分が行う」
・AIをどう使うかに正解はない
・ただし、思想なき運用は危険
・概念を持ち、出口を設計し、責任を手放さない
AIは思考を奪う存在ではなく、思考を成立させるための外部器官として捉えています。そして、今後もそう在り続けたいです。
最後までお読みいただきありがとうございました。



