1. 健康のためのAI利用と倫理に関する包括的・国際的な指針
画像診断支援、手術支援、創薬など、医療のさまざまな領域で利活用が進むAI(人工知能)。一方で、商業目的での情報収集や個人行動の監視に用いられるなど、AIが不適切に利用されるケースも少なくない。また、悪意がなくても、AI分析に限定的で質の低い代表性のないデータを使用することで、偏見や格差を深めてしまうおそれも指摘されている。
こうした状況をふまえ、世界保健機関(World Health Organization:WHO)は2021年6月28日、AIに関する新指針「健康のための人工知能の倫理とガバナンス(Ethics and governance of artificial intelligence for health)」を公表した。これは公衆衛生、医学、法律、人権、技術、倫理などの専門家20人が18カ月間にわたって検討を重ねて作成したレポートで、9つの章(セクション)と付章で構成されている。
タイトルにもあるように、メインテーマは、AI利用における倫理問題。「(AI技術は)倫理と人権を、設計、展開、使用の中心に据えなければならない」とし、健康のためのAI利用に伴う倫理的な課題とリスク、そしてすべての国でAIが公共の利益のために機能することを担保する6つの原則を提示している。
2. WHOが提示した6つの原則
6つの原則についてふれているのは、5章「AIの健康への利用に関する主要な倫理原則(Key ethical principles for use of artificial intelligence for health)」。以下、6つの原則について要約する。
自律性の保護
医療領域では、「人がヘルスケアシステムと医療上の意思決定をコントロールしつづける」ことが、自律性の原則(the principle of autonomy)。AIシステムは、医療提供者であれ患者であれ、十分な情報に基づいて意思決定できるよう支援する設計でなければならない。また、自律性を尊重することには、プライバシーと機密性を保護し、インフォームド・コンセントを確保するという義務も伴う。
人間の幸福と安全、公共の利益の促進
AIは人を傷つけるものであってはならない。安全性、正確性、有効性に関する規制要件を満たす開発を行うこと、資金提供者や開発者、システムユーザーは、システム展開後もAIアルゴリズムの性能を継続的に測定・監視し、AIシステムが設計どおり機能し、患者に有害な影響を与えていないか評価する義務を負う。
透明性、説明可能性、理解可能性を確保する
AIシステムの透明性を向上させ、説明可能なものにすることが重要。透明性を確保するためには、AIシステムの設計・展開前に、十分な情報を公開または文書化し、それらをもとに設計方法や使用方法・範囲について、公的な協議や議論を促す必要がある。
大きな可能性をもつAIは、それだけに活用するうえでは倫理が重要になる。
責任と説明責任の促進
AI技術を正しく運用する責任は、ステークホルダーにある。開発・展開時に、人間が監督するポイントを設けることが重要。どこを監督するかは、専門家、患者、設計者の議論で決まる。監督目的は、アルゴリズムが医学的に効果的で、疑うことができ、倫理的責任のある機械学習の開発が行われるようにすること。AI使用で生じた問題には、説明責任が果たされるべき。悪影響を受けた個人やグループへの問いかけと救済を確保するために、適切なメカニズムを用意する必要がある。
包括性と公平性の確保
包括性とは、健康のためのAIシステムが、年齢、性別、収入、人種、民族、性的指向、能力などにかかわらず適切で公平に使用・アクセスできるよう設計されることを意味する。高所得環境だけでなく、中小所得国のコンテクストや能力・多様性に合わせて使用できるようにすべき。とくにすでに疎外されているグループに不利な偏見をコード化してはならない。
レスポンシブで持続可能なAIの推進
AIシステムの設計者、開発者、ユーザーは、継続的・体系的かつ透明性をもってシステムを評価し、正当な期待や要求に応じて、AIが適切に反応するか判断しなければならない。システムは、環境影響を最小限に抑え、エネルギー効率を高めるように設計されるべきだ。持続可能性のために政府や企業は、AIに適応できるよう医療提供者を訓練したり、AIシステムを使用することによる雇用喪失など、予想される混乱に対処する必要がある。
3. 定義からガバナンスまで、実践に活かせる幅広い内容
最後にほかの章についても、簡単にふれる。
セクション1ではWHOがこのテーマに取り組む理由と、レポートの調査結果、分析、提言の対象読者について、セクション2と3では健康のためのAIを、手法とアプリケーションを通じて定義している。
セクション4では、健康のために利用されるAIに適用される(適用の可能性のある)法律、政策、原則がまとめられている。
セクション6では、セクション5で示した6つの倫理原則を適用する際の倫理的課題例を紹介。AIとデジタルデバイド、AIによる意思決定の説明責任と責任などのほか、AIと気候変動についてもふれられている。
セクション7では、健康のためにAIを利用する際のステークホルダーが倫理的規範や法的義務を受け入れられるために、どのような倫理的実践、プログラム、措置を導入できるかを検討。
セクション8では、AI利用が進むことで、AI技術を選択した医療提供者、技術提供者、医療システムや病院の責任体制がどのように変化したかが考察されている。それが施術者のAI使用方法に与えた影響なども。
セクション9では、AIを健康のために利用するときのガバナンスフレームワークとして、データのガバナンス、コントロールとベネフィットシェアリング、民間部門のガバナンス、公的部門のガバナンスなどを紹介している。
最後の付章では、3組のステークホルダー(AI技術開発者、保健省、医療提供者)に向けた、本指針実践の際のアドバイスがまとめられている。
WHOの指針には「企業や政府は、AI技術を人間の状態を改善するためにのみ導入すべきであり、不当な監視や無関係な商業商品・サービスの販売を増やすといった目的のために導入すべきではない」とある。
具体的な実践方法にまで踏み込んだ新指針が、世界の国々で健康のためのAI利用にどのような影響を与えるのか、注目したい。
参考文献:
Ethics and governance of artificial intelligence for health (WHO)
WHO issues first global report on Artificial Intelligence (AI) in health and six guiding principles for its design and use (WHO)