人気ブログランキング | 話題のタグを見る
ブログトップ

EARLの医学ノート

drmagician.exblog.jp

敗血症をメインとした集中治療,感染症,呼吸器のノート.医療におけるAIについても

医療従事者が対話型AI chatGPTを使う前に(AI初心者向け解説)

1.はじめに
■人工知能 (AI; Artificial Intelligence) という言葉を耳にしない日はないほど我々の生活に深く浸透している.AIは,自動運転車から音声アシスタント,製造業から金融業界まで,あらゆる産業に変革をもたらしている.特に医療分野では,診断,治療,患者ケアの向上など,AIの可能性が広く認識され始めており,the New England Journal of Medicineも,2024年に「NEJM AI」という新しいジャーナルを発刊する予定である.そして,昨年末のchatGPTという対話型AIの登場はその後のAI拡張ツール等の進化を大幅に躍進させ,様々な職種で活用され始めており,対話型AIは医療においても非常に便利なものとなっていくだろう.

■しかし,chatGPTの使用割合は2023年4月の時点で3割程度にとどまっている.これには,対話型AIの精度に対する懸念もあるだろうが,「AI」,「機械学習」,「深層学習」などの用語は,未だに不明確で難解なものと感じる医療従事者も多いだろう.これらの用語が示す技術が具体的に何であり,なぜそれがこれからの医療にとって重要なのかを理解することは現代の医療従事者にとって不可欠になっていくと思われる.今回の記事は,AIについて全く知らない医療従事者向けに作成した.AIの基本的な概念から,医療における対話型AIの応用までを説明する.以下は本記事のマインドマップである.
医療従事者が対話型AI chatGPTを使う前に(AI初心者向け解説)_e0255123_13385728.png


2.AIの基本:仕組みと原理
■AIは,コンピュータシステムが人間のように思考し,学習し,問題を解決する能力を模倣する技術である.

■AIの中心的な要素は「機械学習(マシンラーニング)」である.これは,データから学習し,新たな入力に対して予測や意思決定を行うアルゴリズムを開発するプロセスを指す.人間が経験から学び,その経験を元に新しい状況に対応するのと同じように,機械学習アルゴリズムはデータからパターンを学び,それを新しいデータに適用する.学習方法として,①膨大な膨大な量のデータを学習して特徴を把握していく「教師あり学習」,②様々な次元でデータ分類などを行っていく「教師なし学習」,③自ら試行錯誤して正解を求めていく「強化学習」の3種類が存在する.

■「深層学習(ディープラーニング)」は機械学習の一部門で(教師あり学習の一部門でもある),ニューラルネットワーク(人間の脳の機能を模倣したコンピュータシステム)を用いて大量のデータから複雑なパターンを学ぶ.ディープラーニングは,画像認識,自然言語処理,音声認識などのタスクに特に有用である.

■つまり,AIは人間のように「考える」ことを目指す技術で,その中心には「学習」がある.大量のデータからパターンを見つけ出し,それを新たな状況や問題に適用する能力がAIの真骨頂である.そして,それが医療分野においても革新的な可能性を秘めている.

3.大規模言語モデルと対話型AI:仕組みと応用,chatGPTについて
(1)大規模言語モデル(LLM)
■人工知能の一部門として,大規模言語モデル(LLM; Large Language Models)と対話型AIがあり,自然言語処理(NLP; Natural Language Processing)という分野で重要な役割を果たしている.NLPは,人間の言語をコンピュータに処理させる一連の技術であり,生成するAIの能力を指す.例えば,翻訳ツールのDeepLはNLPの向上により高い精度を有するようになっている.

■LLMは,テキストデータから人間の言語を学ぶAIである.これらのモデルは,ウェブページ,書籍,記事などの大量のテキストデータを分析し,文法,語彙,様々なトピックに関する知識,そして言葉の文脈での使用方法を学ぶ.最先端のLLM(例えばGPT-3.5やGPT-4)は,人間が書いたかのような文章を生成する能力を持っている.

(2)対話型AI
■対話型AIは,人間と自然な会話を行うAIの一種で,LLMを利用している.これらのAIは,ユーザーからの質問(正確には「プロンプト」)に回答したり,指示を理解して行動したりする.対話型AIの一例としては,SiriやAlexaのような音声アシスタント,またはチャットボットがある.

■LLMと対話型AIは,医療分野においても有用なツールになり得る.例えば,医療情報の分析,患者とのコミュニケーション,電子健康記録の読み取りなど,多岐にわたるタスクをサポートできる.その他にも,診断の支援や新たな医療研究の提案など様々な応用が考えられる.しかし,これらの技術を適切に使用するためには,その能力と限界を理解することが重要である.LLMや対話型AIは,訓練データから学習するので,そのデータに含まれるバイアスや誤情報も学習する可能性がある.そのため,これらのツールを使用する際は注意が必要である.

■それでも,これらの技術は医療従事者が情報を処理し,患者とコミュニケートする方法を劇的に変える可能性を持っている.適切に活用すればこれらの技術は診断の精度を向上させ,治療計画の策定を助け,患者とのコミュニケーションを改善し,医療サービス全体の効率を高めることが可能である.

■一方で,LLMや対話型AIは人間の医療従事者を置き換えるものではなく,医療プロフェッショナルの能力を補完し,サポートするツールと考えるべきである.AIは豊富なデータからパターンを見つけることが得意だが,最終的な臨床判断はその経験と専門知識に基づく医療従事者の役割となる.また,AIの導入と活用は,患者のプライバシーとデータセキュリティの重要な課題がある.これらの技術が患者の個人情報を扱う場合,それらの情報が適切に保護され,使用されることを確保する必要がある.

(3)chatGPT
■現在最も使用されている対話型AIであるChatGPTはOpenAIによって開発されたLLMの一つである.GPT(Generative Pretrained Transformer)は,インターネット上の大量のテキストデータから学習し,人間のように自然な文章を生成することができる.これにより,ChatGPTはユーザーと対話する能力を持ち,質問に答えたり,情報を提供したり,様々なトピックについての対話することが可能である.

■医療への応用可能性としては以下のようなものがあげられる.
・患者対話のサポート
ChatGPTは,患者からの質問に24時間対応することが可能で,一般的な健康に関する情報提供や予約システムへのガイダンスなどを行うことができる.近年のJAMA Intern Med誌にpublishされた報告(PMID: 37115527)では,少なくとも対話型AIは患者対応の品質が優れていた(丁寧でわかりやすいという意味で,専門家による正確さの検証は行われていないことに注意)と報告されている.

・医療情報の分析
大量の医療文書や研究論文を迅速に分析し,医療従事者にとって重要な情報を抽出する能力を持っている.

・訓練と教育
医学生や新入職者の教育ツールとして使用することも可能である.chatGPTは,医療に関するさまざまなトピックについての情報を提供し,模擬対話を通じてコミュニケーションスキルを訓練することができる.
■なお,chatGPTは現在GPT-3.5(無料)とGPT-4(有料)の2つのバージョンがある.GPT-4の方が精度が上(スピードはGPT-3.5が上)であるが,利用するには月$20の料金を要するchatGPT Plus会員になる必要がある.GPT-3.5でも十分優秀であるが,対話型AIとしての性能やトークン数上限の違いでいけばGPT-4はGPT-3.5よりも格段に向上しているため,お金に余裕があるならGPT-4を利用するのがいいだろう.また,chatGPT Plus会員は2023年5月中旬からプラグイン機能やリアルタイムブラウジング機能も利用できるようになっており,月$20のコストに十分に見合ったサービスが提供されている.

■プラグイン機能やリアルタイムブラウジング機能は,ChatGPTが最新の情報にアクセスしたり(プラグインがない状態では2021年9月までの情報しか有しておらず,chatGPTはウェブアクセスもできない),計算を実行したり,サードパーティーのサービスを利用するのに役立つ.具体的には,リアルタイムブラウジング機能によって,最新ニュースなどのリアルタイムな情報を取得ことが可能になったり,知識ベース情報の取得が可能になったり,ユーザーに代わってアクションを実行(例:フライトの予約、食事の注文など)することが可能となる.プラグインは現在70社が参入しているが,今後医学領域でも参入する可能性がある.

4.ChatGPTと医学・医療に関する質問:回答の正確性,不正確な回答のパターン,およびその原因
■ChatGPTは大量のテキストデータから学習するため,多くの医学や医療に関するトピックについての情報を提供することができる.しかし,その回答の正確性はいくつかの要素によって影響を受ける(これはchatGPTに限らず対話型AI全般にいえることである).

(1)学習データの不足や偏り
■AIが適切な知識や情報を持っていないため,不正確な回答が提供されることがある.また,AIが学習データに含まれるネット上の偽の情報に基づいて学習してしまうことがあるため,バイアスリスクからは逃れられず,不正確な情報を出力する可能性がある.また,特定のトピックや視点に偏ったデータセットを用いていた場合に発生する.情報源としてSNSを参照しないなど極力そのようなノイズは除去されるようになってはいるが,それでもノイズが混在するケースがあるため,複数の情報源からの情報を統合し,不正確な情報を排除するようにはなっている.これらの網をすり抜けても不正確な情報が出てくる可能性はある(現在それを解決するために真実性評価アルゴリズムの研究が盛んである).

(2)質問の曖昧さや誤解
■対話型AIに不慣れな状態で頻繁に起こりえるのがこのパターンと思われる.この場合,AIは質問者の意図を正しく理解できなくなり,不正確な回答が提供されることがある.対話型AIでは,どのようにうまく回答を生成させるかコツがいる.AIの回答は質問(プロンプト)の質に依存しており,プロンプトエンジニアの需要が高まっているのはそのせいである.特に具体的な内容の質問をしたいのに,質問が客観的かつ情報が少ないと,質問者の意図しない回答になったり,場合によっては誤った結果を出力することになる.

■chatGPTには丁寧語や敬語などを使った方が回答の質が高いと言われているが,これは当然ながらchatGPTが言葉遣い次第で機嫌が変わるということではない.丁寧語や敬語を使った場合の方が,AIが質問を理解しやすかったり,質問で具体的で詳細な情報を伝えられやすい傾向があるからで,これも質問の曖昧さや誤解を回避する手段である.

(3)古い情報
■AIの学習データが古い場合,現在の状況と合わない不正確な情報を出力することがある.なお,chatGPTは2021年9月までの情報しか有しておらず,それ以降に新たに出てきた情報は保有していない.これを解決するにはリアルタイムでウェブアクセスできる拡張ツールが必要となる.なお,月$20の有料会員(chatGPT Plus会員)限定となるが,前述の通り2023年5月中旬からプラグイン機能が搭載され,リルタイム情報に基づいた回答生成が可能となっている.

(4)誤った推論や一般化
■AIが不完全な情報に基づいて誤った推論や一般化を行い,不正確な回答が提供されることがある.これは,AIが適切な知識や経験を持っていない場合や,関連性の低い情報を過剰に重視する場合に発生する.特に医療など専門的な知識を必要とする複雑な医学的質問については必ずしも正確な回答を提供できない場合がある.また,ChatGPTは一般的な医学的知識を持っているが,個々の患者の具体的な状況や医療履歴については当然ながら情報を有さない.したがって,特定の患者の状況に特化した医療的なアドバイスを提供する能力には限界がある.

(5)ハルシネーション(幻覚)
■ハルシネーションとは,AIが生成する情報や文章が現実とは異なる,架空のものであることを示す.これは,AIが学習データをもとにしているため,正確さや現実性が必ずしも保証されないことを意味する.例えば,AIが文章を生成する際に,実在しない研究論文について言及することがある.これは,AIが学習データに基づいて新たな文章を作成する際に,現実とは異なる情報が混ざってしまうことが原因である.また,このハルシネーションはAIが実際の論文を読み込む際にも発生することがあり,論文レイアウトが原因で読み込みのトラブルが起こったりや表などをうまく読み込めないことで発生しうる.AI検索を用いる際は,必ずソース確認は怠らないようにする必要がある.

■これらの要素から,ChatGPTや他のAIツールを医学・医療に関する情報源として使用する際には,その情報の限界と可能性を理解することが重要である.また,AIが生成する情報は常に医療従事者の専門的な知識と経験によって評価されるべきであり,重要な医療的意思決定の唯一の基盤とするべきではない.これは,AIが提供する情報が不完全である可能性があるからである.最終的に,AIは医療従事者をサポートする一つのツールであり,その使用は患者のケアを向上させるための補助的な手段と考えるべきである.

(6)言語の差異
■ChatGPTは,そのトレーニングデータが主に英語であるため,英語での応答の精度が最も高い.決して精度に大きな差があるわけではないが,同じ質問を英語と日本語の両方でした場合,英語での質問の方がより正確で詳細な回答を得られる可能性が高い.日本語にも対応してはいるが,その能力は英語ほどには発展していない.日本語の文法や表現は英語とは大きく異なるため,その特性を理解し,適切に対応するためにはより多くの日本語データと特化したトレーニングが必要となる.

(7)トークン数制限
■トークンとは,NLPの分野でよく使われる概念で,テキストデータを分割した最小単位のことを指す(文字数や単語数に近い概念).トークンは一般的に単語,句読点,または特殊文字(例えばハッシュタグやURLなど)を表すことが多い.例えば,文 「Hello, World!」をトークン化すると["Hello", ",", "World", "!"] のようになる.普通の文章がトークン的にはどのように分解されるのかを一目で教えてくれるツールとして「Tokenizer」がOpenAIのホームページで公開されている.

■トークン化は,テキストデータを機械学習モデルが処理できる形式に変換するための重要なステップである.トークン化によって,テキストは個々の要素に分割され,それぞれが特定の意味や役割を持つようになる.また,トークンの概念は,AIモデルの計算能力やコストを評価する際にも使われる.特に、GPT-3やその他の大規模なトランスフォーマモデルでは,モデルが一度に処理できるトークンの数が限られている(GPT-3.5の場合は最大4096トークン,GPT-4の場合は最大約3万2000トークン).なお,トークン化の方法は言語や文脈により異なり,特定の課題に最適なトークン化の手法を選択することが重要である.

■トークン数上限の制約はどのように影響があるのか?chatGPTでは,チャットごとに個々のユーザーインターフェース(UI)と呼ばれるチャットルームのようなものが設定される.このUIの中で,AIが記憶・処理できるのは「質問+回答の合計トークン数上限」までであり,この制限を超えると古いトークンは切り捨てられ,その情報は失われてしまう.このため,例えば大量のトークンを要する論文全文をchatGPTに処理させるのは現在のトークン数上限では困難と言われている.

5.ChatGPTと患者の個人情報:リスクとその理由
■医療従事者がChatGPTに質問をする際に患者の個人情報を入力することは,その患者のプライバシーとデータセキュリティに関する重大なリスクを引き起こす可能性がある.実際,知識労働者の3.1%が機密企業データをchatGPTに入力していたことが報告されている.Amazonでは,chatGPTの回答と社内機密情報がほぼ一致する事例があったことが発覚している.サムスン電子では,chatGPTを社内に導入して学習データベース保存を許容した結果,20日足らずで3件の機密情報が流出している.

(1)データの漏洩
■一度デジタルプラットフォームに情報が入力されると,それが第三者にアクセスされる可能性がある.これはハッキングやデータ漏洩により発生する可能性がありる.ChatGPTはOpenAIが開発したものであり,そのシステムにアクセスするためのセキュリティ措置が存在するが,それが絶対的な保証を提供するわけではない.

(2)不適切なデータの保存
■OpenAIのポリシーでは,ChatGPTとの対話は一定期間保存されることがある.患者の個人情報が含まれる場合,これはデータの不適切な保存や利用を引き起こす可能性がある.

(3)法的遵守
■患者の個人情報を保護するためのさまざまな法律や規制が存在しており(いわゆる守秘義務や個人情報保護法),患者の個人情報をAIに入力すると,これらの法律や規制に違反する可能性がある.

■したがって,医療従事者がChatGPTや他のAIツールを使用する際には,患者の個人情報を含む質問を避け,非特定化された情報を使用することが重要である.さらに,AIツールの使用に関連するプライバシーとセキュリティの規制やガイドラインを理解し,遵守することも必要である.少なくとも,今後医療機関内でのAIの使用に関してはルール作りが必須となってくるだろう.

6.情報漏洩を防ぐために:APIの利用
■もし,医療機関においてchatGPTを使用するのであれば,API(Apprication Programming Interface)が必要である.APIは,ソフトウェアやアプリケーションが他のソフトウェアやサービスと通信するための手段を提供する鍵のようなものである.APIは一種の契約であり,特定のリクエスト(たとえば,特定の情報の取得や操作の実行)があったときに,どのようなレスポンスを返すかを定義する.このAPIを利用してchatGPTに回答を生成させる場合,データは外部利用されないので情報漏洩を防ぐことができる.

■APIは,chatGPTを管理しているOpenAI社自身が提供しているAPIを利用する方法と,マイクロソフト社が提供するAzure OpenAI ServiceのAPIを利用する方法の2つがある.Azureはマイクロソフトが提供するクラウドコンピューティングプラットフォームであり,サーバーレスコンピューティング,AIと機械学習,データ分析,ウェブアプリケーションのホスティングなど様々なサービスを提供している.以下に2つの違いを述べる.

(1)利用開始方法
■OpenAI社のAPI取得の方が簡便で迅速であり,メールアドレスをパスワードを設定したアカウントを作成すればすぐに利用可能である.一方でAzure OpenAI Serviceの場合は申請をしなければならず,利用許可が出るまで利用できない.また,審査も行われるため,許可がでないこともある.

(2)使用料
■いずれも有料(従量制)であるが,使用料は同じで,1000トークンあたり$0.02とかなり安価である.

(3)動作速度・安定性・可用性
■Azure OpenAI Serviceの方が優れている.Azureは大規模なクラウドインフラストラクチャを提供しており,必要に応じてリソースを拡大または縮小することができ,ChatGPTの使用量が増加した場合でもパフォーマンスを維持することができ(スケーラビリティ),また,どこからでも簡単にアクセスして使用することが可能(アクセシビリティ)である.

(4)モデル精度
■同じモデルを使用しているため原則として精度は同じである.ただし,新しいモデルやサービスは本家であるOpenAI社がどうしても先になることから,その部分での精度の差が1~2週間程度のタイムラグで発生することがある.

(5)情報セキュリティ
■Azure OpenAI Serviceの方が優れている.これは,Azure ADを利用したIAMベースでのアクセス制御や不正アクセスの監視対応がしやすいからである.マイクロソフトはAzureのセキュリティとプライバシーの保護に力を入れており,特に医療情報などの敏感なデータを扱う場合の法的なコンプライアンスを確保するための機能も提供している.OpenAI社のAPIは情報セキュリティ面での対策を取る導線がないため,Azureのような対策はとれない.

(6)ネットワークセキュリティ
■Azure OpenAI Serviceの方が優れている.これは,Azureがインターネットを経由せずにAPIを利用できるからである.OpenAI社のAPIはインターネット上に公開されているエンドポイントを経由する必要があり,APIキー(パスワードのようなもので長い文字列)が外部に漏洩すると,誰でもAPIを利用できてしまう.医療機関として利用するなら,APIキーの外部漏洩やスタッフの私的利用などを避けるためにもAzure OpenAI Serviceを使った方がいいだろう.

(7)サービスへの組み込み
■OpenAIのAPIの方が簡便である.Azure OpenAI Serviceでは実装内容を変更する必要がある.

(8)サポート体制
■Azure OpenAI Serviceにはサポート体制があるが,OpenAIのAPIにはサポート体制がない.

■なお,これでも30日間はサーバー上にデータが残ってしまうため,医療情報を取り扱う際は要注意である.

6.生成AIの利用ガイドライン
■日本ディープラーニング協会(JDLA)は生成AIの活用を考える組織がスムーズに導入を行えるよう,利用ガイドラインのひな形となる「生成AIの利用ガイドライン」を策定し,2023年5月1日に公開されている.各医療機関においてこのひな形をもとに指針を作成するといいだろう.
生成AIの利用ガイドラインの作成にあたって
日本ディープラーニング協会(JDLA)
https://www.jdla.org/document/#ai-guideline

7.最後に
■不正確性やプライバシー等の注意点が後半際立った記事になっているが,対話型AIは非常に便利なツールであることには変わりない.また,この記事を読んでいても,実際に触ってみなければどういうものかは分かりにくい部分もあると思うので,まずはぜひ触ってみていただきたい.その上で,この記事で記載した注意点について思い返していただければ幸いである.

by DrMagicianEARL | 2023-05-19 13:39 | 医学・医療とAI

by DrMagicianEARL