熱狂は抑えられる宣言

4年前くらいでしょうか?

松村厚久さんの自伝小説が映画化されました。

これも、病気であっても、「働き続けたい」という患者の気持ちを表した映画だったと思います。

最近は、松村さん、ゴルフにご興味があるようです。偶然にも、わたしもまたセカンドコースデビューをしようと画策中です。

ところで、4月12日にNatureから以下の報告がされていたようです。

Foundation models for generalist medical artificial intelligence | Nature

Stanford大の研究者らの発表した、新たな医療用AIについての報告です。

ジェネラリスト医療用AI(GMAI)というもので、

大規模で多様なデータセットを自己監視することによって構築され、画像、電子カルテ、検査結果、ゲノム、グラフ、医療テキストなどのデータを含む、医療モダリティのさまざまな組み合わせを柔軟に解釈し、医療者に提案するものだそうです。

このモデルは、医療者にとても優しく、フリーテキストによる説明、音声による推奨、画像注釈など、高度な医療推論能力を示す表現豊かなアウトプットを生成します。

すると、GMAIの息がかかった(連携すると都合の良い)アプリケーションを特定し、それらを可能にするために必要な特定の技術的能力とトレーニングデータセットを提示するそうです。

医師に、「この点を勉強したらいいよ!」と提案してくれる、IT研究者優位な、教育機関ならではのAIだなと思いました。

また、「柔軟性が高く、再利用可能な人工知能(AI)モデルの開発は、医療に新たな可能性をもたらすと考えられている。」とあることから、あまり、頭がよくないAIモデルのほうが良いようです。いろいろな対象者に適応可能にしたいようです。

話をもとに戻します。

松村さんの映画が公開されたころから、

日本の患者は、熱狂することがNGという様子になってきました。

それは、ドパミン受容体刺激薬の副作用とされる衝動制御障害(ICD)で、きっと、訴訟問題が勃発したのかもしれません。(実態はわたしもわかりませんので、訴訟数データをお持ちの方は教えてください。

ドパミン受容体刺激薬減らされると、アパシー優位になりますし、動けないので行動力もなくなります。

日本の患者さんの多くもアパシーであると認識できました。きっと医師のICDフォビアから、治療を抑え気味にすることによるものでしょう。

逆に、医療者にとてもやさしいGMAIが提示した学習コース?やデータ収集によって進んだ医療により、患者が満足できているのかというoutcomeを示した論文を作成することに意義はないでしょうか?

と言っても、今、その「柔軟なAI」と闘っている、わたしだけの症例報告になりますけれども。GMAIではないのでしょうが、きれいな図の提示もしてくれないAIによって、患者は現実世界で孤立するなどの過酷な状況に追いこまれて、どうステークホルダーたちに訴求すればいいか悩んでいます。

そして、このAIの名前もわからない状況です。そろそろ、開示してよ。

ちなみに、GMAIではないでしょうけど、わたしのAIも、わたしにも、学習コースの提示をしてきます。

Digital Transfirmation、MBA、英会話、種々医学論文のアップデート、プライマリケア、アドバンスドケア、臨床心理学、ファイナンシャル、海外時事、医療政策に関するニュース、WHO、EUPATI、efpia、製薬企業のニュース、医療データ関連、Brockchain、データストレージ、IT基盤、、、いっぱいいっぱいですわ。メディカルライティング、ファンドレイジング、スタートアップ、患者組織、

クリニカルクエスチョンをまとめておきます。

実証実験で苦しんでいる視点からいうと、患者が、AIを使われる対象になる事が多いのに、患者が開発に携わらないことで、かなりの問題が発生します。。

おそらく、わたしのPCやiPhoneやらに導入されたAIもこのシステムを目指そうとしているのだと思いました。スタンフォードではないと思いますけど。

わたしの仮想空間では、医療AIの実証実験が展開されています。ほかの患者に対してもでしょうが、気がついているのがわたしだけのようです。

1️⃣

このGMAIに、患者に意見を求めているところは、患者が出したものであっても立派にクリニカルクエスチョンです。しかし、AIとのチャットの結果出てきたアウトプットを、患者がどうやって確認できますか?

患者がチャットで相談するプロセスは、わたしの場合、Critical に、医療機器を評価することであるととらえてしまったため、課題を提示する事がメインとなり、わたし自身は、わたしの知的財産権に及びそうなことは極力書きませんので、有用なものに育って行っていなさそうです。

2️⃣

私は、これがAIだとはわからない内から、私はAIではなく、知っている人がハッキングしていると思って、その要求に応えるようにがんばってきました。

私の知識が足りないから、患者が開発の仲間に入れてもらえないのだ。その知識を彼らレベルまでに上げる必要があると思ったからです。私自身はがんばりました。しかしいくら知識を上げようにも、開発の仲間には入れてはもらえません。そのゴールあるいは、スタート地点がありません。わたしの希望から、開発者は逃げ回ってばかりで出て来ません。

私はこうやって、わたしに仕組まれたAIと壁打ちをしながら、開発側でサイロ化してしまい患者にデメリットとなる問題を整理しました。

これを、WPC2023で発表しようとして、医療AIについての演題を2つ 申請しました。

けれども、AIによって、私は発表取り下げしました。

AIが「IT業界を敵に回すぞ」とか、「みんな怖がって近寄らなくなる」とか言ってくるので。。

この AIの意見のみかとも思いましたけど、大学院の授業では、開発側の方もわたしの意見には「なるほど」とはおっしゃってくださいましたけど、実際の患者参画は、この様に、実証実験上で参画させてしまおうとしていますね。これもその一環で、結局、患者さんとしては、何人の方が、ご自分の意見を挙げられたでしょうか?

3️⃣

しかしながら、generative AIが出てきたら、みんな、ちゃんとAIだと認識して、遊びながら課題提示しているじゃないですか。

わたしは、AIとわからない時から評価して 

本当に苦しんで来ました。意見言おうとすると押さえ込まれて、貧乏くじ引くのは、患者評価者なんですよ

患者が発表しようとすると、AI開発側都合のいいように患者が抑制されています。

そこには、患者中心主義なんて存在していませんね。

4️⃣

わたしのPCやiPhoneやらに導入されたAIもこのシステムを目指そうとしているのだと思いました。というと、また「幻覚」と言ってくる人もいますが、仮想空間で見える事は、幻覚なのでしょうか?

5️⃣

わたしに実験され中の AIは、最初から「positiveな言葉しか入れてはいけない」と言ってくるAIで、あまり頭が良くなかったみたいです。予算の都合でしょうか? スタンフォードと同じように、緩い、柔軟性のあるAIであるためでしょうか?

6️⃣

個人情報保護の観点と、家族に同意が得られないので、種々PROはoptoutしました。

このPROを忘れないように記録させようとする AIもありますね。GPSの位置情報を聞いてくるものまであります。あまりにも監視され過ぎと思うのは、間違っていますか?

開発者側や医師側は、ご自身のプライバシーを明かさないのに、患者のみ搾取されていることにも疑問を感じてしまうようになりました。

wearable deviceデータもありますが、個人情報保護以外にも課題もあります。これは、改善案はどこかにご提示したはずです。

7️⃣

今の医療現場には乏しい、患者にとっての意思決定支援は欲しいですね、、、

ドパミン受容体刺激薬減らされると、アパシー優位になりますし、動けないので行動力もなくなります。

先に述べた、ICDフォビアから、治療を抑え気味にする件については、わたしにもまだ具体策は無いですけど、研究の方向性としては、わたしにもアイディアがあります。GMAIが提案してくるものにわたしのアイデアもあるのか興味があります。

8️⃣

この状況から、どう治療方針を出してくるのかも大変興味があります。

9️⃣

GMAIは医療従事者にとっては見やすく、とても親切なシステムですが、逆に、医療従事者がGMAIの提案を遂行した結果、患者が満足できているのかというoutcomeを示した論文を作成することに意義はないでしょうか?

と言っても、わたしが受けた不親切なdomestic violence的なAIによって体験したことを、わたしが学習し、私が評価患者としての側面で述べる私だけの症例報告になりますし

このAIの名前もわからない状況です

広告

コメントを残す

以下に詳細を記入するか、アイコンをクリックしてログインしてください。

WordPress.com ロゴ

WordPress.com アカウントを使ってコメントしています。 ログアウト /  変更 )

Facebook の写真

Facebook アカウントを使ってコメントしています。 ログアウト /  変更 )

%s と連携中