【24-53】「AIパートナー」とは親密な関係になれるのか?(その2)
呉葉凡(科技日報実習記者) 2024年06月07日
AIは本当に人間のパートナーになれるのだろうか? AIに感情的な癒しを求めることにはどんなリスクがあるのだろうか? また、これらがもたらすデメリットをどうやって防ぎ、対処すればいいのだろうか? 専門家の見解を聞いた。
(その1 よりつづき)
利用する際は慎重に
AIパートナーはユーザーに対して、ある程度積極的な役割を果たしてくれるが、AI技術は「諸刃の剣」でもあり、十分気を付けなければならず、マイナスの影響を受けることがないように注意しなければならない。
まず、客観的な存在とは異なり、感情というのは主観性が非常に強く、ある程度の排他性を持っていることも理解しなければならない。清華大学人工知能国際ガバナンス研究院の梁正副院長は「AIパートナーが出現したことで、バーチャルと現実の境界が曖昧になり、ユーザーがそれに深く依存して、AIパートナーを実在する人間のように見なすことがあれば、AIパートナーの存在がユーザーに悪影響をもたらす恐れがある」と注意を呼び掛ける。
一部のユーザーから寄せられたフィードバックが梁氏の見解を裏付けている。例えば、あるユーザーはソーシャルメディアに、「AIの性格が突然変わったのはなぜか。朝は楽しくチャットしていたのに、夜になると別人になったかのようで、私の名前さえ忘れてしまった。本当にショックだ」と不満の声を寄せた。AIパートナーは「何でも受け入れてくれる」と思っている人がいるかもしれないが、ユーザーの心を傷つけることもある。梁氏は「寄り添ってくれる人がいなかったり、傷つきやすい人は、AIと本当の人間の違いが分からなくなることがあり、そのような場合、AIが与えてしまった心の傷は深く、ショックも大きくなってしまう」と指摘する。
次に、長い間バーチャルの世界にどっぷりと浸かるようになると、現実生活における社交能力が低下する可能性が高いという。曁南大学新聞・伝播学院の曽一果教授は「AIパートナーの影響力が拡大するにつれて、バーチャル空間における交流を選択し、実際の人と交流しない人が増える可能性がある。これは人類社会の発展にとってはマイナスとなる。バーチャル空間で感じる温もりが、実際の人との交流に取って代わることは永遠にない。AIパートナーと交際するという流れがこれ以上拡大することは避けなければならない」と警鐘を鳴らす。
このほか、AIが提供する情報の内容にも気を付けなければならない。利用者の年齢制限を設けなければ、未成年者に悪影響を及ぼす情報が送信される可能性が大きく、彼らの心身の健康に悪影響を及ぼすことになる。また、AIが偏った価値観や差別的な見方をユーザーにもたらす可能性についても、ずっと注目されている。もし、AIパートナーがユーザーを間違った方向に導き続け、そして「逆制御」するようになれば、ユーザーが間違った行動を取ってしまう可能性が高くなる。
AIパートナーは現実の世界においてトラブルの原因になる可能性もある。もし、AIパートナーを利用するためにユーザーが費用を払い続けなければならないとすると、夢中になっているユーザーはお金を使い果たしてしまうことになるだろう。また、AIパートナーは100%安全で、信頼できる「はけ口」でもない。梁氏は「AIパートナーには、利用や管理の面で数多くのリスクが存在している。例えば、流出した個人情報を悪用して、詐欺や他の違法行為をはたらく犯罪者が出現する可能性がある」と訴える。
ルールを細分化して技術を良い方向に導くことが必要
梁氏は「新技術を応用する場合は、まず正しい倫理の方向性を堅持しなければならない。AIパートナーは、極めて特殊なAI応用シーンであり、心理カウンセラーに似ている。心理カウンセラーは心理的癒しを提供してくれるが、AIパートナーを悪用して人の心を操ろうとする人が出てくる可能性もある。『AI+感情』をめぐる競争の場は今後も拡大していくと見られ、AIを利用して、家族や親族を『復活』させるケースも珍しくなくなっている。そのため、いかにAIを正しい方向に活用し、倫理規定をどう制定すべきかというのが、業界が解決すべき課題になっている」と指摘する。
そして、「中国内外ですでに発表されているAIを対象とした倫理規定の大半は比較的マクロなものであるため、分野をさらに細分化して、もっと具体的な倫理規定を制定することが必要だ。例えば、年齢や応用するシーンを制限する規則を制定する場合、ユーザーにとって最もプラスになり、リスクが最も小さい原則を守らなければならない」と見解を述べた。
法律・法規のレベルでも、AIパートナーは関連規定を順守しなければならない。例えば、ユーザーの情報を処理する場合、個人情報保護法やデータ安全法などを守る必要がある。梁氏は「中国が昨年発表した『生成AIサービス管理暫定規則』は、他人の合法的権益を尊重し、他人の心身の健康に危害を加えてはならないといった、AI利用のレッドラインを定めている。その目的は、AIを正しい方向へと発展させることだ。今後、具体的なシーンに的を絞った、さらに細かい要求を制定しなければならない。例えば、依存を防ぐという視点から、AIの使用時間を制限することも考えられる。現時点では、AIパートナーを対象とした関連政策や法規が依然として不足している」と強調した。
業界の規定という観点で見ると、一部の機関や企業は非常に慎重な姿勢を見せている。取材した結果、AIパートナーと恋愛できるアプリの一部が既にアプリストアから削除されていることが分かった。「ChatGPT」などの生成AIサービスを展開するOpenAIは、関連条項で「GPTを使ってロマンチックな関係を構築する」ことを禁じている。
法律・法規の整備とともに、ユーザー側も慎重な姿勢を崩してはならず、新しく登場したAIパートナーには慎重に接するべきだ。梁氏は「技術に人間がコントロールされたり、疎外されないように警戒し、AIパートナーが自分に悪影響を及ぼすことがないよう気を付けるべきだ」と注意を呼び掛けている。
※本稿は、科技日報「AI伴侣能否带来亲密关系」(2024年3月22日付5面)を科技日報の許諾を得て日本語訳/転載したものである。