科学技術
トップ  > コラム&リポート 科学技術 >  File No.25-004

【25-005】信頼できるAIシステムをいかに構築するか(その2)

呉葉凡(科技日報記者) 2025年01月10日

信頼できるAIシステムとはどのようなシステムなのだろうか。それを構築するためにはどんなテクノロジー・ルートがあるのだろうか。これらの課題について専門家に聞いた。

その1 よりつづき)

AIアライメントが前提

 では、AIシステムの信頼性をどのようにして確保するのか。中国科学技術大学AI・データ科学学院の王翔教授は「AIアライメントと信頼できるAIシステムには密接な関係がある。AIアライメントの特徴を備えたAIシステムでなければ、信頼性という特性を高めることはできない」と強調した。

 概念から見れば、AIアライメントとは、AIシステムがタスクを実行したり、意思決定を行ったりする際、その行動や目標、価値観が人間と一致していることを指す。王氏は「つまり、AIシステムが自動で最適化したり、タスクを実行する過程において、単にタスクを効率的に完了させるだけでなく、人間の倫理や価値体系に沿う必要があり、人間が設置した目標から逸脱したり、社会に悪影響を及ぼしたりしてはならないということだ。特に、社会の倫理や安全に関する場面においては、AIが生成するコンテンが人間の価値観や道徳基準に一致することが、AIアライメントの中心的な意義になる」と説明した。

 もし、AIシステムがAIアライメントのプロセスを経ていなければ、どれだけ強力な機能や知能を備えていたとしても、人間の期待や価値観とは一致せず、信頼性の危機に直面し、悪影響を及ぼす可能性がある。王氏は「したがって、AIシステムが目標や行動の面で人間と一致しているということが、信頼できるAIシステムを構築する重要な前提となる。AIアライメントと信頼できるAIシステムの両方が実現すれば、AIのパフォーマンスが向上するだけでなく、将来においてAIを各分野で幅広く応用するための基礎を築くことができる」と指摘した。

 AIが人間中心で社会的利益に合致することを確保するためには、倫理と法律の枠組みの整備が重要な方向性となる。王氏は「技術の進歩には往々にして新たな問題の発生が伴うため、法律の境界線と倫理的規範を制定し、AIの発展のためにガイドラインと制約を設ける必要がある。これにより、AIの応用における潜在的な倫理的リスクを低減できるほか、AIの応用を規範化し、安全性を高めることもできる。また、信頼できるAIシステムを構築するためには、学際的協力が必要で、哲学や倫理学、社会学などの学科が参加することで、AIの設計と発展に対し、より全面的な視野を提供することができる」と語った。

技術の最適化は手段

 信頼できるAIシステムを構築するためには、技術レベルと実際の応用において、絶えず模索と改善を行う必要がある。王氏によると主なテクノロジー・ルートとして次の3種類がある。

 1つ目はデータ駆動だ。王氏は「データの品質と多様性は、信頼できるAIを実現する基礎となる。トレーニングデータの多様性は、モデルのバイアス問題を効果的に減らすことができ、システムの意思決定をより公平で包括的なものにする。膨大で高品質なデータを基盤として構築したAIモデルこそ、幅広い応用シーンに対応し、特殊または極端な条件下でバイアスが発生する可能性を低減することができる。データの安全性も非常に重要で、特に個人のプライバシーが関係する場合、データの安全性を確保することで、ユーザーの信頼度を高めることができる」と説明した。

 2つ目はアルゴリズム駆動だ。王氏は「アルゴリズムの最適化と制御は、信頼できるAIを実現するカギとなる。開発者はモデル設計段階で、倫理規則を設定したり、人間の価値観などの制約条件を組み込むことで、システムを実際に運用する際に、社会のルールに合致するようにできる。また、透明性の高いアルゴリズム構造を設計することでモデルの解釈可能性が向上し、ユーザーがその運用メカニズムを理解しやすくなるほか、今後のモデルのアップデートと最適化の基礎を築くのにも役立つ」と強調した。

 3つ目は賞罰制度による誘導だ。王氏は「賞罰メカニズムを合理的に設計することで、AIは試行錯誤と学習を繰り返しながら、徐々に人間の価値観と一致する行動をするようになる。例えば、賞罰システムにおいて、フィードバックメカニズムを設定し、AIの行動が期待から外れた場合、相応のペナルティを科して、自律的な訓練の過程で人間の期待と一致した行動を取るよう誘導することができる。また、賞罰メカニズムは、時代に適応する必要があり、AIシステムを運用する中で、持続的にアップデートするとともに、自身を最適化できるようにする必要がある」と語った。

 これら3種類のテクノロジー・ルートが重視しているポイントはそれぞれ異なる。王氏は「データ駆動は、高品質で多様化したデータソースを通じて、AIシステムのバイアスを減らし、システムの適用性を高めることに焦点を合わせている。アルゴリズム駆動は、モデルの設計と透明性に重点を置き、システムの行動論理が人間の期待により合致することを重視している。賞罰制度による誘導は、AIの自己学習と最適化プロセスで、効果的な指針とフィードバックを提供し、システムが次第に人間が認める方向に向かうよう誘導することを重視している。これらの異なるテクノロジー・ルートを組み合わせることで、信頼できるAIを実現するために、より多様な技術的サポートを提供することができる」と主張した。

 信頼できるAIシステムを構築するためには、実際に応用しながらイテレーションと最適化を続けることが必要になる。王氏は「評価とテストを重ねることで、異なる環境や条件下でAIシステムの性能を検証することができ、実際の応用におけるパフォーマンスが人間の期待に一致するようになる」と述べた。


※本稿は、科技日報「如何构建可信赖的AI系统」(2024年11月25日付6面)を科技日報の許諾を得て日本語訳/転載したものである。

 

上へ戻る