科学技術
トップ  > コラム&リポート 科学技術 >  File No.23-73

【23-73】AIの健全な発展にはテクノロジーの倫理構築が必要

陳小平(中国人工知能学会AI倫理・ガバナンス活動委員会主任) 2023年12月20日

 現在、人工知能(AI)分野において、テクノロジーの倫理構築の必要性や緊急性、原則・規範の強化が共通認識となっている。このほど、中国では「科技倫理審査弁法(試行)」(以下「審査弁法」)が公布され、中国におけるテクノロジーの倫理構築がガバナンスの段階に入った。AI分野などの健全な発展の推進や責任あるイノベーションにおいて重要な現実的意義を帯びている。

課題が山積するAIの倫理審査

 現段階で、AIのテクノロジー活動倫理審査の重点ポイントと際立った課題は以下の3点にまとめられる。

 第一に、テクノロジー活動が倫理審査の対象となるかどうかを正しく判断することがある。「審査弁法」第2条は、テクノロジー活動の審査範囲を明確に定めている。内容を見ると、被験者の合法的権益や、テクノロジー活動が生命や生態系、公共的秩序、社会発展などに与える倫理的リスクが主に考慮されている。この文書はテクノロジー倫理審査の共通規定であり、個々のテクノロジー活動が審査の対象になるかどうかについての具体的な規定はまだない。そのため、テクノロジー活動を担当する機関のテクノロジー倫理審査委員会(専門家による再審査を担当する機関もあるかもしれない)は、実際の状況に合わせて、機関のテクノロジー倫理審査範囲を細分化すると同時に、「審査弁法」第9条が定めたテクノロジー倫理リスク評価方法に基づき、研究者がテクノロジー倫理リスク評価を行うよう指導し、要求に基づいて、倫理審査を申請する必要がある。現在、中国のAI学界、産業界、管理機関は倫理リスクに対する認識が高まっているものの、リスク判断能力と水準は、認識の高まりと比べて遅れを取っており、いかに正確に判断するかが新たな課題となっている。

 第二に、審査内容や基準を適切に理解することがある。「審査弁法」第15条は、テクノロジー倫理審査の内容について明確に規定している。特に、個人のプライバシーデータに関わるテクノロジー活動に対する要求を定めており、個人情報保護法やデータセキュリティ法などと、整合性が図られている。ただし、実際の活動においては、実行可能な審査の細則を制定する必要がある。また、「審査弁法」では、地方や関連産業界の主管機関、テクノロジー系社会団体が、地域、システム、分野ごとにテクノロジー倫理審査の具体的な規定や規格、ガイドラインを制定、改定できると提案している。今年2月、中国国家衛生健康委員会や教育部(省)、科学技術部などは、「ライフサイエンスと医学研究に関する倫理審査弁法」を制定し、両分野の研究に対し、より詳細な規定を定めている。一方、AI分野では具体的な規定が不足しているため、AI倫理審査実施細則の制定が今後の重要な取り組みの一つとなり、実際に審査する過程で、整備を進める必要がある。実施細則の制定においては、審査が緩すぎたり、厳格すぎる状況が発生しやすいため、そのバランスを取ることが課題となり、将来の倫理審査に体系的な影響を与えることになるだろう。もし、審査が緩すぎれば、倫理リスクが存在するテクノロジー活動の倫理審査が十分に行われず、潜在的な倫理リスクが残る可能性がある。逆に審査が厳しすぎると、それが障害となって、テクノロジー活動が順調に推進できなくなり、中国のテクノロジーの進歩や経済・社会発展が減速する可能性がある。

 第三に、テクノロジーの倫理リスクアラートとフォローアップの検討・判断の強化がある。「審査弁法」は、倫理リスクが発生する可能性が比較的大きい新興テクノロジー活動に対してリスト管理を実施すると規定している。リストの制定は倫理リスクの予測にも関わるが、そのような予測は非常に難しく、中でもAIの長期にわたる社会的影響の分析や予測は特に難しい。そのため、リストが遅れるという状況が今後も続く可能性がある。特に一部の結果では、事後処理によって解決することができなかったり、事後処理の代償があまりも大きくなったりする可能性もあり、注意が必要だ。そのため、リストを適時調整するメカニズムが特に重要となる。リスクが比較的高いテクノロジー活動の倫理リスク管理では、「テクノロジーの倫理ガバナンス強化に関する意見」が示す迅速なガバナンスに関する要求を堅持し、テクノロジーの倫理リスクアラートとフォローアップの検討・判断を強化し、管理方法と倫理規範を速やかに調整して、テクノロジーイノベーションがもたらす倫理的課題に迅速かつ柔軟に対応する必要がある。

複数の措置でAI倫理審査の確実な実施を

 AI分野の倫理審査というのは新しいものなので、テクノロジー活動を実施する人や、倫理委員会の委員、スタッフ、チェックに参加する専門家、その他スタッフなど、「審査弁法」の実施に関わる人は「審査弁法」および関連政策・規定を真剣に学び、深く理解し、背景にある知識を把握することで、実践における倫理審査能力を高め続けなければならない。

 まず、「審査弁法」の実施に関わる人は、AIに対する理解を深めなければならない。現在、AIについては誤解が多く、多くの人がAIと人間の知能が本質的に同じで、程度が異なるだけなので、人間の管理・教育方法をAIにも適用できると勘違いしている。そのような誤解や誤認識は、AIガバナンスの大きな障害となる。初めて「AI」という言葉を使い、「AIの父」と呼ばれているジョン・マッカーシー氏は「AIの仕事の大部分は、世界の知能に関する問題を研究することであって、人間や動物の研究ではない。AI研究者は人が使用していない、または使用できない方法を使うことができる」と明確に指摘していた。このように、AI倫理審査はデータやモデル、アルゴリズム、プラットフォームといったAI技術の要素の実際の特性に基づいて客観的に判断するべきで、AIと人間の知能を決して混同してはならないのだ。

 次に、倫理審査を実施する者の現状と作業の必要性に基づき、テクノロジーの倫理審査人材の育成を強化し、現段階での切実な需要を満たすことが急務となっている。そして、より長期的な視野に立ち、育成を強化し、学校教育や研修・育成などの方法を通じて、テクノロジー倫理ガバナンスの専門人材を数多く育成する必要がある。

 また、「審査弁法」は全体的な視点に立って実施しなければならず、リスト管理が極めて重要になる。AI研究と応用の発展状況・ガバナンスの必要に応じて、リストを速やかに調整し、調整内容について関連説明と実施指導を速やかに行うべきだ。条件を満たした地域、業界、機関は倫理審査活動を直ちに開始し、経験・教訓を速やかにまとめ、模範的かつ先導的役割を果たすべきだ。さらに、「審査弁法」の実施過程において、関連する経験や情報の共有を強化し、全国的に倫理審査の効率・効果を高める必要がある。

 最後に、現実より遅れるという課題とAIの特徴に対応するため、新しい研究の方向性として「AIの制御可能性」を開設することを提案する。これまでの研究は主に、プロジェクトの信頼性に焦点が当てられていたが、AIはそれだけでは不十分で、基礎理論やモデル、アルゴリズム、データ、プラットフォームといった各視点から、AIの制御可能性に関する全面的な研究を展開する必要がある。また、AI関連分野における倫理的効果や潜在リスクを積極的に探究し、中国国内におけるAIなどのテクノロジー活動のリスク予測と対処能力を強化する必要がある。


※本稿は、科技日報「让科技伦理建设为人工智能健康发展护航」(2023年11月6日付8面)を科技日報の許諾を得て日本語訳/転載したものである。