医療従事者の為の最新医療ニュースや様々な情報・ツールを提供する医療総合サイト

QLifePro > 医療ニュース > 医療 > ロボット/AIに「看護実践で重要な倫理観」を実装できるか検討-東京理科大ほか

ロボット/AIに「看護実践で重要な倫理観」を実装できるか検討-東京理科大ほか

読了時間:約 4分12秒
このエントリーをはてなブックマークに追加
2023年07月14日 AM10:52

看護実践でロボットやAIが占める割合が将来増える可能性

東京理科大学は7月10日、看護実践を行う上で重要視されている倫理的な概念を、ロボットや人工知能(AI)に実装できるかどうかについて、倫理学の観点から分析を行い、その結果を発表した。この研究は、同大教養教育研究院野田キャンパス教養学部の伊吹友秀准教授、共立女子大学看護学部の伊吹愛専任講師、東京大学大学院医学系研究科の中澤栄輔講師の研究グループによるもの。研究成果は、「Nursing Ethics」に掲載されている。

ロボットやAIにどのような看護実践であれば任せられるかは、時代や社会情勢に応じて変化してきた。そのため、将来的には、看護実践の中でロボットやAIが占める割合がこれまで以上に大きくなる可能性がある。

SF作家アイザック‧アシモフの短編を原作とする映画『アンドリュー NDR114(原題:Bicentennial Man)』は、人間に匹敵する能力を持つロボットをどのように扱うべきかという問題を提起する示唆に富んだ作品だ。この映画のラストシーンでは、人型ロボットである看護師が主人公のパートナーである女性患者の依頼に応じて、生命維持装置のスイッチを切る。これは、アシモフ自身が提唱したロボット三原則の「ロボットは人間に危害を与えてはいけない」に抵触していることをどう解釈するかという問題を提起するものだ。この問題に対する解釈の一つは、延命治療の中止は終末期の患者にとって決して有害ではないというものだ。もう一つは、人間と同等の能力を有したロボットは人間として扱われるべき存在であるため、ロボット三原則に縛られることなく、ロボット自身の倫理的判断で、人間の看護師と同じように看護を実践したという解釈だ。

重要な4つの倫理概念をロボットやAIに実装できるか検討

今回の研究に関連するのは、後者の解釈である。どのような倫理観を実装したロボットであれば、看護実践を行うことが許容されるのか。研究グループはこの映画から着想を得て、ロボットやAIでは実現できない、あるいは実現すべきでない看護実践の要素を明らかにするために、看護実践で重視されている倫理的概念のうち、ロボットやAIには実装できないものが存在するのかについて検討した。具体的には、看護における代表的な倫理概念(アドボカシー、アカウンタビリティー、コーポレーション、ケアリング)をロボットやAIが実現できるかどうかについて、現在のロボット技術やAI技術の進展とあわせて分析を行った。

実装可能な領域がある一方、実装困難、検討不十分な領域も

アドボカシーは、看護師は患者やその家族に寄り添い、擁護者となることを指す概念。アドボカシーの概念を分析した先行研究によると、アドボカシーには(1)医療ミスや医療従事者の能力不足や不正行為などから患者を守る「患者保護(safeguarding)」、(2)診断・治療・予後に関する情報を患者に提供する「告知(apprising)」、(3)患者自身の価値観に寄り添う「価値観の尊重(valuing)」、(4)患者・家族・医療従事者間のインターフェイスとなる「仲介(mediate)」、(5)医療における不公正の問題を制度に問う「医療提供における社会正義の擁護(championing social justice in the provision of healthcare)」の5つの要素がある。このうち、「患者保護」「告知」「医療提供における社会正義の擁護」は、適切な学習などの課題はあるものの、ロボットやAIに比較的容易に実装が可能な一方、「価値観の尊重」や「仲介」は、患者との感情的なコミュニケーションを必要とするため、実装が困難であると考えられる。

アカウンタビリティーは、自分自身の行動に対して合理的な説明をする能力のこと。ロボットやAIの行動はアルゴリズムに基づいているため、説明可能なアルゴリズムを搭載したロボット・AIであれば、行動の理由(原因)を説明すること自体は可能なので、その点では実装可能と言える。しかし、その説明の責任が誰に帰属するのかなど、説明の概念そのものの議論がまだ十分に深まっていないという問題がある。一般的に、アカウンタビリティーとは、単に命令に従ったり先輩看護師の真似をしたりするだけではなく、自分の行動の理由を説明する能力を必要とする。この点で、ロボットは今後、指示や命令の模倣を越えて、自らの行動を選択できるかが問われることになると予想される。

「ロボット看護師」がコミュニティの一員として認識されるかという課題

コーポレーションとは、他者と適切に協働し、医療や看護の目標を達成するための看護に従事する能力のことだ。看護業務の部分的な機械化はすでに行われていることから、将来的には人間とロボットの協働も十分に可能であると考えられる。ただし、単なる連携を越え、協力しあう関係を築き上げるためには、ロボット看護師がコミュニティの一員として認識される必要がある。

ロボットやAIを「ケア提供者」として患者が受け入れられるかも課題

ケアリングは、看護において特に重要な倫理概念として認識されている。幅広い要素を含む概念であるが、「思いやること」「ケアすること」「介護」「ケアを受けること」に焦点を絞って分析し、特に、「ケアする」「ケアを受ける」という要素を中心に論じた。「ケアする」に関しては、ロボットが人間と同じように人の感情を理解できるかという哲学的な問題はあるが、少なくとも外見的には、ロボットがそうした感情を理解し、適切に対応できるようになる可能性はあると言える。「ケアする」を実装する上での課題ももちろんたくさんあるが、「ケアを受ける」側には、それ以上に難しい問題がある。それは、患者がロボットやAIをケア提供者として受け入れられるかどうかという問題だ。

実現できたとしても、看護実践に用いるべきか、さらなる検討が必要

このように、アドボカシー、アカウンタビリティー、コーポレーション、ケアリングは、それぞれ困難が予想されるものの、ロボットやAIに実装することは不可能とは言い切れないということが、現状分析から示唆された。しかし、仮に将来これらの機能を実現できたとしても、それを看護実践に用いるべきかについては、さらなる検討が必要だ。

この研究は、ロボット工学やAI研究者に対して、自分たちの研究が広く社会の中で実装されていく時に留意すべき倫理学上の論点を示すものとなる。また、一般の人々にとっては、看護という人間的営みにおいてどの程度ロボットやAIによる代替を許すべきか、あるいは、どのようなロボットやAIであればそれらを許すのかという問題について考えるための気づきを与える。

「本研究は、看護分野におけるロボットやAIの活用を見据えた、倫理的な観点からの分析の第一歩だ。この研究を端緒として、今後、さまざまなステークホルダーによる一層の活発な議論が進んで欲しい」と、研究グループは述べている。

このエントリーをはてなブックマークに追加
 

同じカテゴリーの記事 医療

  • 心不全の治療薬開発につながる、障害ミトコンドリア分解機構解明-阪大ほか
  • 特発性上葉優位型肺線維症、臨床的特徴などのレビュー論文を発表-浜松医科大
  • 院外心停止、心静止患者は高度心肺蘇生・搬送も社会復帰率「低」-広島大ほか
  • 甲状腺機能亢進症に未知の分子が関与する可能性、新治療の開発に期待-京大
  • 【インフル流行レベルマップ第50週】定点当たり報告数19.06、前週比+9-感染研