2025年12月5日金曜日

AI時代の判断倫理――法と医療の現場から

 
(出典:日経新聞)

生成AI・法律・医療に共通する本質

~ 人間を扱う領域で「予測」に頼りすぎる危うさ

息子の意見をきっかけに考えたこと

アメリカで働く息子が、次のような意見をSNSにポストしていました。

”近頃、生成AIの出す誤った回答を「バグ」や「幻覚(hallucination)」と呼ぶ議論をよく耳にする。しかし生成AIの本質を考えれば、それはバグではない。AIは、過去のデータやプロンプトから「最も尤もらしい答え」を計算しているにすぎず、その仕組みは単純な予測モデルと同じ構造を持っている。もし結果が外れても、それはモデルが間違ったのではなく、人間世界そのものがモデルの予測を超えるほど複雑だからだ”。

ここで少し補足します。生成AI(Generative AI)や LLM(Large Language Model)とは、人間の言語データを大量に学習し、その統計的なパターンから「次にもっとも来そうな単語や表現」を予測して文章や画像を生成する仕組みです。つまり、何かを“理解”して答えているわけではなく、過去のデータから計算される確率の高い結果を返しているにすぎません。

法律分野では、この「外れ」が許されません。誤った判例引用や事実認定は、弁護士にとって致命的なミスになります。同じように、医療の現場でも“予測の外れ”は生命に直結します。ここに、AIの限界が最も鋭く現れるのだと思います。

医療現場も、AIが前提とする「単純さ」とは正反対の世界です

私はここ一か月、身内の看病で毎日大病院に通うことになり、その変化と現実を目の当たりにしました。三次救急(高度救命救急病院)の大病院であっても、医療者・患者・家族という三者の「人間性」が常に影響し合っており、判断や感情の揺れが診療の流れを左右します。

20年前は母親、5年前には義母の看病で同じ病院に通いましたが、そのときとは様相が変わりつつあります。若い医師と若い看護師、高齢の雑務係。患者も付き添いも高齢者が多く、コンピュータの使用率は格段に上がり、院内のセキュリティ体制も厳しくなりました。

しかし、どれほど巨大で近代的な医療機関であっても、結局は人間同士の理解、葛藤、判断が診療の中核を形づくります。この複雑さは、AIが前提とする「予測可能な世界」とは根本から異なります。

今日の医療では、電子カルテや各種端末の導入によって、医師も看護師も患者より画面に向かっている時間の方が長くなっています。効率化のために導入されたコンピュータですが、これがAIによる意思決定支援へと進めば、医療全体が「予測に頼りすぎる構造」へ変質しかねません。

しかし、医療は法律以上に、予測の外れが致命的な結果につながる領域です。もし医師や看護師が判断の核心をAIに委ね始めれば、医療者の洞察力や判断力は確実に低下し、その影響は患者の命に直撃するはずです。
 
共通するのは「人間を扱う領域で予測は万能ではない」という事実です

法律も医療も、そして社会全般も、生成AIが扱うにはあまりに複雑で多層的です。AIはデータから「最善の推測」を返しているだけで、現実の因果の複雑さまでは理解できません。原因と結果の間には、数値化できない無数の人間模様が介在しています。
  • 法律では、誤った予測は弁護士の誤りになります。
  • 医療では、誤った予測は患者の死につながります。
いずれも、人間の身体・心・関係性という数値化できない領域を扱っており、「確率モデルの限界」が最も深刻な形で現れる世界だといえます。

だからこそ、AIを使うほどに「人間が人間であること」を忘れてはなりません。効率化や自動化が必要な場面はもちろんあります。しかし、判断と責任の核心をAIに委ね始めた瞬間、法律も医療も、そして社会も成り立たなくなると感じます。

AIは道具であり、人間の代替物ではありません

AIは計算の道具であって、人間を理解する存在ではありません。人間を扱う領域では、「AIの予測をどう使うか」以上に、「人間の判断をどう守るか」が本質になると考えています。

医療でも法律でも、そして社会全体でも、私たちが本当に恐れるべきなのは、AIの間違いそのものではなく、AIに頼って人間が思考を放棄することです。

これこそが、AI時代にもっとも重要な視点であると私は考えています。

***

0 件のコメント:

コメントを投稿