【23-16】いま話題のChatGPT、AIはどこまで人間の英知に迫れるのか?
彭丹妮/『中国新聞週刊』記者 脇屋克仁/翻訳 2023年04月17日
人工知能〔AI〕の自然言語処理ツール「ChatGPT」が、文章で質問すれば情報を整理して答えてくれるだけでなく、翻訳や小説のプロット作成、プログラムコードの作成などもできるとして話題をよんでいる。「強いAI」ともいわれる汎用AIの実現は近いのか。しかし、人間の側の理解と対応はまだまだ追いついていない。
「最近、ChatGPTを使い始めたが、確かに驚きだ」。ある生物学者がSNSでもらした感想だ。会社経営、子育てや出生率の低下、さらには中国の文化や政治に至るまで、おおむねどのテーマの質問にも流暢に答えたという。
米国の人工知能〔AI〕研究所OpenAIが昨年11月にリリースしたこのAI言語モデルは瞬く間に世界に広まり、ニュース記事や小説も書くことができるし、高度な議論もできると、その想像を超える聡明さで話題になっている。ChatGPTはIT業界にディスラプティブ・チェンジ〔破壊的変革〕をもたらす存在――海外メディアもそう評している。
AIのなかでもとりわけ珠玉の分野とされる自然言語処理(NLP)。ChatGPTの予想以上の聡明さは、汎用AI実現への道筋を示し、基盤モデルとしてディープラーニングにおける「規模」の意義をあらためて実証した。
文章生成界のディスラプター
GPTはGenerative Pre-trained Transformerの略で、インターネットで入手可能なデータの学習に基づいて文章を生成するディープラーニングモデルの一種である。ChatGPTはOpenAIが2020年にリリースしたGPT-3の「進化版」だが、このGPT-3は現時点で事前学習パラメータ量最多を誇るAIモデルであり、リリース当初から広く注目されていた。
今回リリースされたChatGPTは実際にはGPT-3.5である。3.0をベースに応用レベルでの学習を強化し、対話の質を高めたものだ。
AI分野で20年以上エンジニアをしているエヌビディア〔NVIDIA〕の王帥さん〔仮名〕によると、OpenAIの方法はこうだ。まずAIの回答に人間のフィードバックを与え、数ある回答のなかからより人間の予測に近い答えを選べるようにしていく。次に、こうしてバージョンアップしたAIにいくつもの対話をインプットする。とくに、一連の流れ――プロセスをもった質疑応答のなかで、このモデルの言語のロジックをより明晰で因果関係のあるものにしていく。
人工知能工程院執行院長の王詠剛氏は、1750億個ものパラメータを使ってネット上のあらゆるデータを処理し、人間の文章や言葉を理解するのがGPT-3だという。「ディープラーニング誕生以来、AIが人類の英知に最も近づいた瞬間だ」
シリコンバレーのパーセプティン〔PerceptIn〕社を創業した劉少山氏は、AIはこれまで、画像認識や音声認識といった特定のタスクでは優れた能力を発揮し、コンピューターが人間の目や耳の機能を代替するようになってきたが、汎用性の実現が常に壁だったという。いわゆる汎用AIとは、特定のタスクを実現するAIとは対をなすものだ。
米コーネル大学コンピューター工学のバート・セルマン教授は2020年にこんなことを話している。「汎用AIの実現には20年以上かかる。しかし、この先5年から10年以内に自然言語処理モデルで真のブレークスルーを果たすことができれば、その時期は早まるだろう」
ChatGPTがいままでよりも優れた言語理解能力をもっているということは、汎用的なアシスタントツールにより近づいたということであり、様々な業界との結びつきも可能になるし、応用シーンも数多く派生することになる。ChatGPTはAIの新たな扉を開いたといえる――劉少山氏はそう考える。
王詠剛氏は、インターネットのどの構成要素であっても、こと文章生成と対話に関わる限り、今後はおおむねChatGPTの「独壇場」になるといってもいいという。つまり、この言語ツールなしに人間の自然な言語対話に近づく効果は得られないということだ。
劉少山氏は自動運転を例にあげる。人間のインタラクションにはまだほど遠い自動運転のスマートシステムがChatGPTなどAIに変われば、人間の思考様式、運転行為により近づくことができる、ということだ。
シリコンバレーのITメディアの最近の報道によると、マイクロソフトはOfficeなどのアプリケーションにChatGPTを導入する検討にすでに入ったという。ダボス世界経済フォーラムの『ウォールストリートジャーナル』主催の討論会〔1月17日〕で、マイクロソフトのサティア・ナデラCEOは、OpenAIツールの商品化実現にむけてマイクロソフトは迅速に行動すると表明した。
言語や文字を使った仕事のなかには、複雑な論理的思考や判断を必要としない、規格化された重複性の高いものが多数ある。ChatGPTには人間に代わってよりスムーズかつスピーディーにこうした仕事をこなすポテンシャルがあり、Officeのようなマイクロソフトのアプリにとってこれは「切り札」になり得る。例えば、休暇申請を出すとき、「病気休暇メールの申請」と入力すれば、あとはOutlookが自動で正式な休暇申請書を作成してくれるといったことだ。
「ChatGPT+」の世界で一番注目されているのは、検索エンジン分野の変化だ。従来のキーワード検索は対話をベースにした検索に取って代わる――一定数の人がそう確信している。マイクロソフトはBingにChatGPTを導入すると発表した。
このほどリリースされたChatGPT。応用次元での学習を強化し、対話の質を高めた。写真/視覚中国
20年以上、どの国でもメインのポータルサイトといえば常にグーグル検索だった。ChatGPTなどの登場で、グーグルはいまはじめて脅威に直面している、と『ニューヨーク・タイムズ』紙は記事の中で指摘する。AI業界全体をひっくり返す巨大な技術革新がいままさに到来しようとしていると、グーグルの経営層も危機感をあらわにしている。
ディープラーニングでは先駆者だったグーグルだが、その応用に関してはOpenAIに先を越されている状況だ。グーグルのような大手ともなると、新技術の商品化にどうしても慎重になるからだと王詠剛氏はいう。
グーグルは2021年5月の開発者年次総会で、自社の最新AIシステムLaMDAを公表した。LaMDAはより「情理にかなった」質疑応答ができ、自然に対話を進めることができるという。しかも回答はあらかじめ設定されたものではない。しかし、グーグルはいまのところまだこのLaMDAのリリースに後ろ向きだ。理由の1つは比較的高い誤差が生じること、しかもそれがユーザーを傷つけかねないことだ。
ただ、エヌビディアの王帥さんは「いまはまだ判断が難しい」という。ChatGPTが現在の検索エンジンに取って代わるとしても、グーグルがそれを座視するはずがない、なぜなら大規模言語モデルに関しては、マイクロソフトにあってグーグルにないとか、あるいはその逆の技術的差異が存在しないからだ。さらにいうなら、技術はことの一側面に過ぎず、ランニングコスト、効率、ビジネスモデルなどもあわせて考慮に入れなければならないと。
実際に『ニューヨーク・タイムズ』も、おそらくグーグルはオンライン検索をこの種の新技術に変える気はないだろうと指摘している。オンライン広告に不向き――ユーザーの求める情報をChatGPTが完璧に用意してくれるなら、付加的なリンクをクリックする動機がユーザーになくなる――からだ。しかも広告は2021年、グーグルに2080億米ドルの利益をもたらしている。これはアルファベットグループ〔グーグルとグループ企業の持株会社〕の収益全体の81%を占める。
GPTは、パラメータの数量がGPT-3を上回るGPT-4へとさらに進化中だ。これが世に出れば感嘆すべき成果をもたらすかもしれない。王詠剛氏はいう。「ちょっと想像してみてほしい。GPT-3が昆虫なみの脳みそだとすれば、GPT-4は哺乳類なみの脳に達するだろう」
しかし、ChatGPTはまだ完全ではない。この種のAIチャットボットはネット上で公開されている大量のデータを吸収して成長するので、その知識は事実と虚構が併存するかたちでつくられる。したがって、偏見、なかにはヘイトスピーチといったものも伝達情報に含まれる恐れがある。冒頭の生物学者も「苦笑せざるを得ない」ともらすような間違った回答を、ChatGPTはすることもあるし、まったく回答できないこともある。
昨年11月末の『MITテクノロジーレビュー』には、「ナンセンス」なアウトプットを完全に排除できる大規模言語モデルはなく、ChatGPTはこの点でいくつかの問題をクリアしているようにみえるが、最終的なゴールにはほど遠いという厳しい指摘が見られた。OpenAIの専門家ジョン・シュルマン氏も、やらねばならないことがまだたくさんあると認めている。「この問題でいくつかの成果は出ているが、解決にはまだまだだ」
「水深100mからマリアナ海溝へ」
かなり以前から、AI分野には結論が出ない議論がある。ディープラーニングとスーパーコンピューティングに基づく大規模学習は、果たして汎用AIへと至る最後の道なのか否か。その点、OpenAIは間違いなくこの道に賭けているといえる。
OpenAIは2018年6月に「生成型事前学習による言語理解の強化」という論文を発表し、自身の言語モデルGPT-1をはじめて紹介した。GPT-1はディープラーニングモデル「トランスフォーマー」〔Transformer〕というスキーム上で、数十億のテキストドキュメントを含んだ超大規模コーパスを使って学習をおこない、パラメータは1億1700個だった。翌年2月にリリースされたバージョンアップ版GPT-2はパラメータ数15億に達し、学習モデルのデータベースもより巨大になった。そして2020年、それらを百倍上回る規模のGPT-3が誕生した。
王詠剛氏は次のようにたとえる。旧来の機械学習やAIが水深1mのところを探索していたとすれば、ディープラーニングの登場で人間は水深100mのエリアに行けるようになった。ところが、トランスフォーマーやGPTといったスキームが出て、深さ1万mを超えるマリアナ海溝にまで直接到達できるようになったのだと。
この5年、大規模事前学習言語モデルは業界内でますます重視されるようになってきた。人間によるデータラベリングとファインチューニングに頼った従来の学習方法は、データ量が大幅に増えるとパフォーマンスがよくない。それとは反対に、規模を絶えず拡大し、より多くのデータを用いて学習を繰り返すモデルが、アルゴリズムの効率を高めるのに非常に有効な方法だと、誰もが意識するようになった。王帥さんはそう指摘する。
「現段階では、この種のモデルは非常に有用だ。しかもChatGPTの成果をみるとわれわれの予想を超えている」〔王帥さん〕。絶えず規模を増大させるこの種の巨大モデルはすでにAI分野のパラダイムであり、類似の方法を使えば前進できる部分が将来この分野に増えてくるだろうという。
王詠剛氏も、「今日、世界のAI研究はさまざまな方向に広がっており、成果も大量に生まれている。しかし厳密にいえば、こうした人を感嘆させるあらゆる成果は、9割以上がトランスフォーマーに基づいてイテレートされた、こうした巨大モデルの技術によって得られたものだ」と話す。AIのタスクやプロジェクトはいま、ほとんどすべてが巨大言語モデルの技術とつながっており、AI界で研究と技術を繰り返すなら、これが最もメジャーな指針だというものになっているという。
OpenAIは2015年に設立された非営利の研究機関で、テスラ創業者のイーロン・マスク氏、Yコンビネーターのサム・アルトマンCEOといったシリコンバレーの大物たちが創設者に名を連ねる。その初志は汎用AIの実現・普及だ。
多くの人が口をそろえて言うのは、大規模言語モデルは決してOpenAIの「オリジナル技術」ではないということだ。さらにいうなら、人材や資金に恵まれたグーグル、マイクロソフト、百度といったAI分野の巨頭がChatGPTを真似できないわけではない。実際、ChatGPTの登場以前からシリコンバレーの巨人たちは大規模言語モデルの重要性を認識していた。例えば、DeepMindも対話AI「Sparrow」を出しているし、フェイスブックの親会社メタも同様の自社製品を出している。
しかし、OpenAIとそれらとの違いは、ここ数年にわたってこの一点に絞って資源を集中し続けてきたという点だ。マイクロソフトなどの巨大企業の資金力と技術力を支えにして、OpenAIはとことんこの方法論を突き詰めてきた。「規模至上主義という理念と方法論はOpenAIがとくに大事にしてきたものだ。他方、他の会社や団体はそこまでこの考えに確信をもっていなかった」と王詠剛氏はいう。
しかし、――王詠剛氏は続ける――ChatGPTがリリースされてから、関係者の心の内は複雑だという。この方向性を業界はますます重視するだろうし、リソースもどんどん投入されていくだろうと思う反面、これがAI分野唯一の核心的方法であってほしくない、さらに多くの可能性を試す余地がまだあってほしいとも思うからだ。
「ただただデータの牽引力に依拠する道筋は、顔認証のようないくつかの分野で、AIをより一層人間に近づけることができるかもしれないし、あるいは人間の水準を超えるところまでもっていけるかもしれない。とはいえ、例えば自動運転がそうだが、100%近い安全性を求められる分野もそれとは別に存在する」。コーネル大学のバート・セルマン教授はそう考える。この最後の10%、5%の詰めが、ディープラーニングそれ自体には不可能で、別の考え方が必要になるかもしれないということだ。
理解が進歩に追いつかない
昨年9月、米コロラド州の展覧会の美術コンテストで、ある若者が画像生成AI「Midjourney」を使って製作した作品「Théâtre D'opéra Spatial」〔宇宙のオペラ座〕が優勝した。デジタルアート部門の1位である。しかし、これが芸術論争と反AIアートのうねりを引き起こした。
わたしたちは芸術の死を、ただ茫然と目撃するだけの存在になってしまった――あるネット民の言葉だ。「芸術的な仕事さえ機械にのまれるのを避けられないならば、熟練した技能が求められる仕事もやがて淘汰の危機に直面するだろう。それでもなお人間に残り得るものとは何だろうか」
2018年にオークションハウス、クリスティーズで世界初となるAIによる絵画が出品され、約4800万円で落札された。写真/『中国新聞週刊』1062 期
劉少山氏はいう。AI科学者は当初、AIが発展して最初に淘汰されるのはブルーカラーの仕事や再現性のある仕事だと予測していた。ところが、ChatGPTやAlphaFoldが出てから人々は気づいた。AIの脅威を真っ先に感じるのは意外にもクリエイティブな仕事の方ではないか、フードデリバリーのような労働力と切り離せない仕事はむしろ残るのではないか、と。ロボットや自動運転などの分野では、機械と知能が二大基本モジュールである。機械の側には物理的制約が多く、いまだ超えられない技術的壁も多い。他方、ディープラーニングモデルの発展のおかげで、知能の側はむしろスピーディーに壁を乗り越えている。実際の進展からみてそうだと同氏は話す。
創造力、知的探求、情報の獲得に関連する業界は人文分野の中心であり、人間が機械化されることを最も心配する分野だ。この分野でAIが重要なブレークスルーを果たすたびに、いつも広範なモラル論議が巻き起こってきた。
米サンタフェ研究所のメラニー・ミッチェル教授は、こうした技術をやみくもに利用し、人間的交流や創意を自動化すれば、人類は機械に対するコントロールを失いかねないという。「ロボットがロボットにメールし、しかもそのロボットがロボットに返信するようになるだろう。わたしたちの人間としての特質が情報から一掃されることになる」
さらに、ニューヨーク市教育局は1月5日、公立学校でのChatGPT使用禁止を発表した。「こうしたツールは学びに悪影響だ。内容の安全性や正しさにも懸念がある」〔教育局広報担当ジュナ・ライル氏〕
また、誰もが懸念を表明しているのは、こうしたツールが学生に剽窃をすすめることになりかねないことだ。ジュナ・ライル氏は、ChatGPTは素早く簡単に答えを出すことができるが、それでは批判的思考や問題解決能力を養うことにならない、学術と人生の成功にとって重要なのはむしろこうした能力だと話す。
昨年12月27日、米ノースウェスタン大学のあるチームがプレプリントリポジトリ「bioRxiv」に論文を発表、ある研究結果を紹介した。医学雑誌に掲載された論文をChatGPTに学習させ、各論文の要約を書く=生成させる。そのあと、剽窃チェックツール、AI文章校正ツール、人間の校正者にChatGPTが書いた要約と論文執筆者が書いたオリジナルの要約を比較してもらい、それぞれどちらがChatGPTのものでどちらが人間が書いたものかを区別してもらうというものだ。
結果はこうだ。まず剽窃チェックツールはChatGPTが書いたものをすべて見抜けなかった。一方、AI文章校正ツールはChatGPTが生成したもののうち66%を見抜いた。そして校正者は、ChatGPTが生成したものを68%、オリジナルの要約を86%見分けることができた。大規模言語モデルを使って科学論文を書くことのモラルと許容範囲は、もっと明確にされる必要があると、この研究チームはコメントしている。
『Nature』は最新の規定で、どんな大規模言語モデルツールも論文の筆者にはなれず、もしもそうしたツールを使用した場合は「方法」なり「謝辞」なり、しかるべき部分に明記しなければならないとしている。
AIを使って論文を書く――こうしたことは技術上起こり得るだろうし、知識を得ることのハードルはどんどん下がっていくだろうと王帥さんは考える。「どちらかというと、これを禁止する方向には進んでいかないと思う。むしろ求められているのは教育を評価する基準と理念の変化だ。機械の助けを借りて文章がうまく、しかも大量に書けるようになればなるほど、思考の質と深さ、研究のオリジナリティといった部分がますます重要になってくるはずだ」
新しい技術、たとえば自動車や飛行機が発明されれば、それを使わないわけにはいかない。問題はいかに使うか、いかに規範化するかだ。王帥さんは、そういう意味ではChatGPTをはじめとする生成型AIも同じだという。つまり、それをとりまく各分野、その活用に関係する各分野――法律、教育、社会、モラルなど――が生成型AIの登場に追いついていないということだ。AI分野で起こりつつあることはいったい何を意味するのか、AIに携わっている人さえ完全には理解していない現実がある。
劉少山氏も、最大の問題は人間のAIに対する理解がまったく追いついていないことだという。だから、AIが社会にもたらす影響に対処することができないと。「米国の学校でChatGPTの使用を禁止するというが、その文章がChatGPTによって生成されたものか、人が書いたものか、どうやって見分けるのか。GPTは新しすぎて、管理する側もまだ理解するすべをもっていない」
AIで新しいことが起こるたびに、常に人々はなにかとてつもない変化がやってくるのではないかと考える。しかもそのとき、人間の仕事が機械に奪われるのではないかという心配がついてまわることが多い。しかし王詠剛氏はいう。人は一方でAIがすぐさまもたらす成果や影響をあまりにも過大視しがちだが、その一方で、AIにいま起こりつつある、本当の意味でそれがもたらす、不可逆的な長い変化がみえていない。
短期的にいえば、ChatGPTなどのAIの活用はこれまで通りツールとしてのものであって、仕事によってはその効率を上げたり取って代わったりすることができるだろう。しかし、コンピューターが処理できるデータ構造、モデル、アルゴリズムが膨大で複雑になるにしたがって、いわゆる「ブラックボックス問題」が大量に出てくる恐れがある。つまり、AIが出した最終的結論を人間があらかじめ予測できるとは限らない事態が生じるということだ。本当に心配しなければならないのはまさにこの点だと王詠剛氏は考える。AIはいつか決定的な一線を越え、わたしたちが見たことのない世界に入っていくかもしれない。しかし、それがいつなのか、だれも予測はできないのだ。
※本稿は『月刊中国ニュース』2023年5月号(Vol.133)より転載したものである。