医療現場でのAIチャットボット利用のメリットとデメリットに関する最新研究

読了時間: 2 分
によって Maria Lopez
-
病院で医療機器と対話するAIチャットボット。

TokyoチャットGPTのような大規模言語モデルは医療試験に簡単に合格できる。しかし、実際の医療現場で患者の診断に利用するのはリスクが伴う。これらは迅速に診断を行う一方で、医療ガイドラインに従わないことが多い。ミュンヘン工科大学(TUM)の研究者たちは、AIチャットボットが臨床実践に活用できるかを検証した。

研究者たちは、無料で利用可能な言語モデルLlama 2を使用しました。彼らは、救急室から治療までのプロセスをシミュレーションしました。アメリカのクリニックから提供された匿名の患者データを用い、腹痛を訴える患者2400件を選びました。AIはどの検査を行うかを決定し、その後診断と治療計画を作成する役割を担っていました。

調査結果:

  • AIモデルは必要な検査を常に求めるわけではありませんでした。
  • 情報量が増えるほど、AIの精度が低下しました。
  • AIは治療ガイドラインを無視することが多かったです。
  • 診断結果は情報の受け取り順序に影響を受けました。

AIと実際の医師を比較すると、AIの方が劣っていました。医師は89%の確率で正しい診断を下すのに対し、最も優れたAIモデルでも正答率は73%に過ぎませんでした。例えば、胆嚢炎の診断では、AIの正答率はたった13%でした。

研究者たちは、データ保護の問題があるため、ChatGPTやGoogleのAIのような商業用AIモデルのテストを行いませんでした。病院はまた、自社で制御し、安全に保持できるモデルを必要としており、それを実現するのがオープンソースのモデルです。また、商業用モデルがどのようなデータで訓練されているのか不明であるため、公正に評価することが難しいのです。

医療診断のためのAIは急速に進化しています。ミュンヘン工科大学のダニエル・リューケルト教授は、将来AIが医師にとって有用になる可能性があると考えています。AIは医師が症例を議論するのを助けることができますが、すぐには医師を代替することはありません。患者のデータを安全に管理するために、病院にはオープンソースモデルが必要です。

AIチャットボットは医療分野で役立つ可能性がありますが、まだ完全には準備が整っていません。さらなるテストと調整が必要です。現在では、学術的な作業や医師のサポートには役立ちますが、最終的な診断を行うことはできません。AI技術は急速に進化しているため、数年以内にこれらのチャットボットが改善されることが期待されます。

医師には信頼できる道具が必要です。AIが人間の医師と同等の信頼性を持つことが証明されるまでは、重要な決定を独断で行うべきではありません。研究者たちはこれらのモデルを改善するために試験場を作り出しています。しかし、病院は完全に理解し制御できるAIのみを使用すべきです。

AIチャットボットは可能性を秘めていますが、現時点では病院での使用には適していません。さらなる研究、データ訓練の改善、およびより厳しいガイドラインが必要です。

この研究はこちらに掲載されています:

http://dx.doi.org/10.1038/s41591-024-03097-1

およびその公式引用 - 著者およびジャーナルを含む - は

Paul Hager, Friederike Jungmann, Robbie Holland, Kunal Bhagat, Inga Hubrecht, Manuel Knauer, Jakob Vielhauer, Marcus Makowski, Rickmer Braren, Georgios Kaissis, Daniel Rueckert. Evaluation and mitigation of the limitations of large language models in clinical decision-making. Nature Medicine, 2024; DOI: 10.1038/s41591-024-03097-1
人工知能: 最新ニュース
次を読む:

この記事を共有

コメント (0)

コメントを投稿