【25-012】解釈可能なAIモデルの構築に注力を(その2)
呉葉凡(科技日報記者) 2025年02月07日
AI技術をめぐる混乱や誤解においては、解釈可能なAIの構築が解決策になると言われている。解釈可能なモデルとはどのようなもので、人間がAIを理解するのをどうやって手助けしてくれるのだろうか。また、解釈可能なモデルの構築には、どのようなテクノロジー・ロードマップがあるのだろうか。
(その1 よりつづき)
解釈可能性の向上
モデルの解釈可能性を向上させる取り組みについて、学界では積極的な模索が行われている。中国科学技術大学人工知能・データ科学学院の王翔教授率いる研究チームは、信頼性の高いグラフベースのモデル構築に注力している。グラフベースのモデルは、複雑なグラフのデータを処理・分析できる数学モデルで、処理できるグラフデータには、ソーシャルネットワークにおける友人関係や、生物におけるタンパク質間の相互作用、通信ネットワークにおけるデバイスの接続、さらには人間の脳内におけるニューロンの連結などが含まれる。従来のグラフニューラルネットワークは通常、集約したノードの特徴やトポロジー構造の情報に基づいて学習するものの、実際のグラフデータには余分な情報やノイズ情報が含まれることがあり、モデルがタスクと関係のない特徴を捕捉してしまう可能性があった。王氏のチームは、原因と結果に基づいた内在的な解釈可能アーキテクチャ(DIR)を打ち出したことで、ノイズや不要な情報を効果的に排除し、因果関係に基づいた特徴を保持することで、モデルの透明度とロバスト性を大幅に向上させることに成功した。
産業界の模索も進展を遂げている。例えば、螞蟻集団(アントグループ)が清華大学と共同で発表したAIセキュリティ検査プラットフォーム「蟻鑑2.0」には、解釈可能性検査ツールが搭載されている。同プラットフォームでは、AI技術と専門家の知識を融合し、可視化や論理的推理、因果推論などの技術を通じて、整合性や正確性、安定性など7つの側面と20以上の評価指標に基づいて、AIシステムの解釈の質を定量的に分析。これにより、ユーザーが解釈可能なソリューションを明確に検証し、最適化できるようにしている。
テクノロジー企業の商湯科技(センスタイム)が開発した自動運転向け大規模言語モデル「DriveMLM」は、入力された情報に基づいて、自動運転の全段階での意思決定や操作の背後にある論理や推論の根拠を示すことができる。自然言語を使って、自動運転の挙動について説明することが可能で、人々が画像やレーザー・レーダー情報、交通ルール、さらには乗客のニーズなどを大規模言語モデルに「丸投げ」すれば、大規模モデルが最適な運転プランを提示し、なぜそのように運転するのかについて説明してくれる。商湯科技の共同創業者である王暁剛氏は、「自動運転の課題の一つに、AIモデルの解釈可能性が低く、意思決定プロセスを理解することが難しいというのがある。AIモデルの解釈可能性を向上させれば、自動運転技術のさらなる発展と普及を推進することができる」と述べた。
依然として存在する技術的課題
業界は、解釈可能なモデル構築という面で一定の進展を遂げているが、なお多くの技術的課題が残っており、研究者によるさらなる克服が求められている。
まず、大規模言語モデルの性能が高まり、パラメーターが向上するにつれて、その内部構造がより複雑になっており、大規模言語モデル内部の意思決定メカニズの理解もより難しくなっている。そのため、非常に複雑なモデルの解釈可能性をいかに実現するかが重要な課題となっている。
次に、一般的にはモデルの性能が高まるほど、解釈可能性が低くなるため、モデルの性能と解釈可能性の間でバランスをどのように見出すかということも、早急に解決すべき課題である。王氏は「今後、新たな解釈可能性のアルゴリズム開発が、重要な発展の方向性になる可能性がある。新たなアルゴリズムは、ディープラーニングや論理的な推理など複数のアプローチを組み合わせることで、モデルの高性能と解釈可能性のより良いバランスを見つけられる」と指摘した。
最後に、現在はモデルの解釈可能性を比較するための統一した基準がなく、モデルの解釈性をいかに正確に評価して、それを向上させるかが未解決のままとなっている。王氏は「学際的な協力を通じて、認知科学や心理学などの分野の知見を取り入れ、解釈の基準を共同で定義・定量化することで、モデルの解釈可能性を高めることができる」と語った。
※本稿は、科技日報「着力构建可解释性模型」(2025年1月6日付6面)を科技日報の許諾を得て日本語訳/転載したものである。