【24-15】AIのソーシャルグッド発展を保障するテクノロジー倫理審査
曽 毅(中国科学院自動化研究所人工智能倫理・治理センター主任) 2024年02月20日
中国科技部(省)がこのほど、教育部や工業・情報化部、国家衛生健康委員会など10部門と共同で発表した行政法規「科学技術倫理審査弁法(試行)」は、ソーシャルグッドのためのテクノロジーという全体ビジョンを示しており、「人類幸福の増進、生命権の尊重、公平・公正の堅持、リスクの合理的管理、オープン・透明性の維持」を特に強調し、テクノロジーによる人類繁栄の促進という理念を反映している。
人工知能(AI)は人類の繁栄や社会発展を活性化させており、人類のテクノロジー活動に関することがAI倫理審査の重要な焦点となっている。「審査弁法」は「人間を試験や調査、観察などの研究活動対象としている科学技術活動、および人類の生物学的サンプル、個人情報・データなどを利用する科学技術活動を含む、人間が被験者となる研究に関連する全ての科学技術活動は、『審査弁法』のガイドラインに基づき、科学技術倫理審査を実施し、人間の基本的権利と個人情報を十分保護する必要がある」としている。また「必要に応じて、インフォームドコンセントに基づき、法律・法規を守りながら収集、分析、利用するものとする」と定めており、「生命健康、生態環境、公共秩序、持続可能な発展などの面で、倫理的なリスクや課題が生じる可能性のある科学技術活動も、科学技術倫理審査を実施する必要がある」と示している。さらに「これらの分野は、AIが社会の発展を活性化する中核および重要分野で、人類、社会、生態系の持続可能な発展を促進するとの理念に基づいてリスクを回避し、イノベーションを促進する必要がある」と指摘している。
テクノロジー倫理審査は、一般プロセス、簡易プロセス、専門家によるチェックで構成される。専門家によるチェックが必要なテクノロジー活動について「審査弁法」はリストに記載しており、人間の主観的行為や心理・感情、生命の健康などに大きな影響を与えるマンマシン融合システムに関する研究開発は専門家によるチェックを必要としている。マンマシン融合システムは、人間の知能とAIを融合させた複合ハイブリッドエージェントで、人間の知能をサポート・増強するとの目的で構築される。同システムは、人間の自主性に影響を与えることで、人間の主観的行為にも悪影響を与える可能性がある。倫理審査においては、マンマシン融合システムが人間の能動性や主観的行為に与えるマイナスの影響に特に気を付け、人間の感情に悪影響を与え、人間がシステムに依存してしまうなど、人間の心理や身体に深刻な悪影響をもたらす可能性について注意を払う必要がある。例としては、侵襲式ブレイン・マシン・インタフェース技術の物理的セキュリティリスクや、脳組織に与える潜在的な悪影響などがある。また、現時点でAIモデルの能力には限界があり、侵襲式・非侵襲式のブレイン・マシン・インタフェースは、コーディングミスやデコーディングミスを完全に回避することはできない。モデルが関係する個人データの安全性や解釈可能性、信頼性、人間の能動性・自由意志に与える悪影響などの倫理リスクについても、専門家のチェックによって審査される必要がある。
さらに、同リストは、世論の社会影響力と社会意識を誘導する力を持つアルゴリズムモデル、アプリケーション、システムの研究開発が、専門家によるチェックを受ける必要があるとしている。世論の社会影響力と社会意識を誘導する力を持つアルゴリズムモデルやサービスは、事実の歪曲やマイナスの価値観志向に使われる可能性があり、社会の安全、秩序が乱され、社会に悪影響を及ぼすからだ。こうした研究開発は、国家インターネット情報弁公室を含む4部門が共同で発表した「インターネット情報サービスアルゴリズム推薦管理規定」などの関連指示に基づき、レベル分けし、分類した安全管理を実施する必要がある。特に、関連のアルゴリズムやアプリケーション、システムが、適切に監督・管理されていない状況下で、拡散したり、潜在的に乱用される可能性があったり、悪意のある目的に使用されたりしないよう、特に注意する必要がある。
同リストはAI分野に対し、セキュリティリスクや人体の健康に悪影響を及ぼすリスクがあるシーンを対象とした、自主性が非常に高い自動意思決定システムの研究開発も専門家によるチェックが必要だとしている。自主性の高い自動意思決定システムとは、人間がほぼ関与する必要がない、または全く関与する必要のない自動意思決定システムを指す。現在のAIシステムは依然として、スマートな情報処理システムのようで、人間と同じレベルの理解力は備えていないため、カギとなる分野やハイリスクの分野においては、人間の代わりに意思決定をすることができないほか、人間が効果的に制御しなければならない。最終的な責任を負うのが人間であるというのは、世界の共通認識となっている。例えば、国際連合教育科学文化機関(ユネスコ)が発表した「人工知能の倫理に関する勧告」は「有効性という理由から、人間がAIシステムに頼ることを選択することはあり得るが、人間は意思決定及び行動についてAIシステムに頼ることはできるもののAIシステムは決して人間の最終的な責任を代替して負うことはできないため、限定的な状況において制御権限を委譲する決定は依然として人間が行う。原則として、生死に関わる決定は、AIシステムに委譲されるべきではない」としている。人間の十分で効果的な制御を受けない自主性の高い自動意思決定システムは、人間の決定の自主性を損なうと同時に、人と機械が協同するシステムにおいて人間が負うべき責任や義務も奪い、最終的に人間の心身の健康や命に大きな損害をもたらす可能性が高い。そうしたリスクは、専門家によるチェックの段階で、厳格に審査され、見極められることになる。心身の健康や命に悪影響を及ぼす可能性のある、潜在リスクを持つ自主性の高いAIシステムは不適格とし、明確に使用を禁止するべきだ。
AIテクノロジーの倫理審査は関連の法律がレッドラインとなり、「審査弁法」が指導の原則・根拠となる。しかし、AI技術が発展するにつれて、科学技術倫理の面で、新たな状況や課題が発生する可能性がある。関連する管理・審査部門、執行部門などは、科学研究者を含む関係者と密接に協力し、時代に即して調整し、適時「審査弁法」を改正し、持続可能でソーシャルグッドにつながるAI科学と技術の発展を実現し、人間本位で責任感があり、人間と生態に有益なAIを構築するべきだ。
※本稿は、科技日報「科技伦理审查确保人工智能向善发展」(2023年11月20日付8面)を科技日報の許諾を得て日本語訳/転載したものである。