医師が語る「困る患者」と「ありがたい患者」
少し前、ある医師がこんな趣旨のことを書いているのを読んだ。
患者さんが ChatGPT で自分の病名を調べてきて、「私はこの病気だと思うんです」と言われると、正直なところ困る。違っていたときに説明をひっくり返すところからやらないといけないし、そもそも鑑別の出発点が歪んでいる。
一方で、症状の経過を時系列で整理して、関連しそうな既往歴と一緒にまとめてきてくれる患者さんは本当にありがたい。問診の 8 割が終わっているようなものだから、限られた診察時間を「考える」ことに使える。
なるほどな、と思った。同じ「AI を使ってきた患者」でも、医師にとっての価値はまったく逆になる。
そして、これは医療の話だけではない。
テック界隈でも、まったく同じことが起きている
最近、エンジニアやプロダクトの現場でも、似た光景をよく見る。
「○○ の実装で詰まってます。ChatGPT に聞いたらこう言われました」と、AI が吐き出した長文をそのまま貼り付けて質問してくる人がいる。読むと、用語の使い方がそもそも噛み合っていない。「とりあえず聞いたことのある単語をくっつけて検索窓に投げ、出てきた最初の答えを自分の意見として持ってきている」という構造が透けて見える。
こうなると、聞かれた側はまず「あなたが本当に困っているのは何か」を逆算するところから始めないといけない。AI の出力を否定するのも面倒だし、否定しても本人は「だって AI がそう言ったので」と引かない。話が二重に進まなくなる。
逆に、AI と何往復か対話して、自分の言葉で問題を再整理してきた人のドキュメントは、驚くほど読みやすい。「やりたいこと」「試したこと」「うまくいかなかったこと」「自分の仮説」が分かれていて、読み手はそのまま考察に入れる。
差は「AI を使ったかどうか」ではない
ここで重要なのは、両者の差は「AI を使ったかどうか」ではない、ということだ。
両方とも AI を使っている。違うのは、AI を 答えを出す装置 として使ったか、 自分の考えを整理するための相手 として使ったか、それだけだ。
- 答えを出す装置として使う人は、自分が分かっていない領域に、自分の理解を経由しないまま「権威ある回答」を持ち込んでしまう。だから的外れになる。
- 整理の相手として使う人は、対話のなかで「自分は何を分かっていないのか」が見えてくる。出てきたドキュメントは、AI の回答ではなく、 自分の理解の到達点 になっている。
医師にとっての「症状を整理してきた患者」は、後者にあたる。病名という結論を急がず、「いつから」「どの場所が」「どう変化したか」を自分の言葉で並べ直してきている。AI はその整理を手伝っただけで、出てきたドキュメントの主語はちゃんと患者本人になっている。
「自分の頭を通したか」は読み手に伝わってしまう
AI の出力をそのまま貼ると、たぶん本人は気づいていないが、読み手には一発で分かる。文体が違う、抽象度が浮いている、本人がこれまで使ってこなかった用語が混ざっている。「これ、本人の言葉じゃないな」というシグナルが出る。
そして読み手が一番うんざりするのは、その文章に対してフィードバックしても、本人にとっては自分の文章ではないので、フィードバックが刺さらないことだ。修正提案を投げても、また別のプロンプトで AI に聞き直して、別の答えを持ってくる。対話が成立しない。
逆に、自分の頭を通して整理された文章は、たとえ稚拙でも、フィードバックがそのまま本人の理解に届く。「ここの仮説、こういう観点が抜けてませんか」と言えば、「あ、確かに」と返ってくる。会話が前に進む。
AI は「考える人」を加速させる道具であって、考えなくていい道具ではない
AI が普及して、「これでみんなの生産性が上がる」と言われている。半分は本当だ。ただし上がるのは、 元々自分の頭で考えていた人の生産性 であって、自分で考えるのをやめた人の生産性ではない。
医師の話に戻ると、「症状を整理してきた患者」が増えれば、診察の質は確実に上がる。「病名を持ってきた患者」が増えると、診察の質はむしろ下がる。同じツールが、使い方ひとつで真逆に作用する。
テック現場でも、ビジネスのやりとりでも、たぶん家庭のなかですら、同じことが起きている。
AI に聞く前に、自分が本当に何を聞きたいのかを、まず AI と対話して整理する。出てきた答えではなく、整理されたほうの問いを持って、人間のところに行く。
たぶん、これからの数年で一番効く「AI リテラシー」は、それくらいシンプルな話なのだと思う。