【26-002】AIによる論文執筆支援、科学技術ジャーナルはどう見ているか
陳 磊(科技日報記者) 2026年01月09日
AI(人工知能)は、研究活動のあらゆる段階に浸透している。AIは効率を高める一方で、論文の代筆、データの捏造、さらには目に見えにくい「アイデアの盗用」といった新たな学術不正行為を生み出しうる存在となっており、その方法は隠蔽されやすく、学術的誠実性に全く新しい課題をもたらしている。科学技術ジャーナルは、これらをどのように見抜き、対処し、予防すべきなのだろうか。科技日報の記者がこのほど、学術誌「Lancet」副編集長であるサビーネ・クライナート(Sabine Kleinert)氏に話を聞いた。
記者:AIによって生み出される新たな研究不正の問題に対し、例えば査読やデータ検証といった従来の研究誠実性の評価方法は、機能しなくなるリスクに直面する可能性があります。科学技術ジャーナルは、いかにして「門番」としての役割を果たすべきでしょうか。
クライナート氏:研究プロセスにおける生成AIの使用が増加していると私は考えている。現在、我々は主に、著者による「自己申告」に頼っている。「Lancet」系列のジャーナルの投稿ページには、生成AIを使用したかどうかを尋ねる新しいチェックボックスが設けられている。著者が「はい」を選択した場合、我々は、具体的に使用した大規模言語モデルの名称、バージョン、正確なプロンプト、使用目的、および論文原稿のどの箇所で使用したかを詳細に説明するよう求めている。そして、これらの情報は論文と共に公表する。論文原稿の謝辞部分でも、この情報を開示する必要がある。
編集者、査読者、読者に対する透明性を確保するため、著者は生成AIの使用状況を適切に開示し、その作品の独創性、正確性、完全性に対して最終的な責任を負わなければならない。さもなければ、編集者はAIの不適切な使用を理由に投稿を却下する可能性がある。
記者:この方法の効果はどのようなものでしょうか。
クライナート氏:これは非常に大きな問題だ。過去を振り返ると、投稿した著者のうち生成AIを使用したと申告したのはわずか7%に過ぎない。生成AIの使用に関する他のいくつかの調査結果では、50%以上のユーザーが生成AIを使用したと回答しているので、この結果と大きく食い違っており、正確に開示していない著者が少なくないことが分かった。
最近、我々は申告されていないAI生成コンテンツ(AIGC)の不適切な使用を示すいくつかの明確な兆候に気づいた。主な兆候は「ハルシネーション(幻覚)引用」という形で現れている。我々の編集者は参考文献をチェックし、DOI(デジタルオブジェクト識別子)が付いているのに該当文献を確認できない引用を発見した。編集者がこれらの引用が本当に存在するかどうかを確認したところ、一部の論文では最大10~15件の存在しない引用が確認された。
記者:「ハルシネーション引用」を発見した場合、どのように対処するのですか。
クライナート氏:論文の大部分でAIが不適切に使用され、しかも申告されていない場合、我々はたとえ一度は受け付けても、最終的には却下することになる。我々はそのような行為が不適切であることを著者に伝える。こうしたケースが広く見られるようなら、我々は著者の所属機関と連絡を取り、生成AIの適切な使用に関する教育を受ける必要があることを説明する可能性もある。
記者:この理由で却下された論文の割合はどれくらいでしょうか。
クライナート氏:まだ非常に少なく、過去1カ月で数件しか発生していない。これは非常に新しい現象であり、今後どれほどの類似のケースを目にすることになるかは分からない。
また、別の種類のケースもある。我々は実質的な内容がないレター投稿は受け付けないことにしている。明らかに生成AIによって書かれた、内容が定型文的で斬新さがなく、実質的な科学的発見が全くないような原稿を毎日5本ほど目にしている。
記者:研究論文の執筆、査読、出版のプロセスにおいて、AIの使用が許されないのはどのような場合でしょうか。
クライナート氏:「Lancet」系列のジャーナルは、科学的洞察の提示、データの分析・解釈、科学的結論の導出、提言など、AIで研究者の仕事を代替するような使い方は認めていない。
現在、我々は査読プロセスにおける生成AIの使用を許可していない。なぜなら、査読者が未発表の論文を公開されたシステムに入力する可能性があり、これは機密性を損なうからだ。同様に、論文を批判的に評価する際や、研究論文に関するコメント(論評)を執筆する際にも、生成AIを使用することはできない。生成AIを利用して図やイラストを作成する場合、それは主にブレインストーミングや画像コンセプトを提案するためのツールとして使用すべきだ。
記者:では、生成AIはどのような場合に利用できるのでしょうか。
クライナート氏:論文の読みやすさを向上させるために、我々は著者が執筆プロセス中に生成AIを使用して文法や言語表現を改善すること、既存の研究を調べたり、その内容を要約したりすることは認めている。これらは妥当な利用法だ。
一部の研究者が懸念を抱いていることは理解している。彼らはAIの使用を申告することが論文に影響を与えると考えているかもしれないが、事実はそうではない。我々は、提出された研究論文において、AIを使用したかどうかを正直に開示することだけを望んでいる。最終的には、人間が監督し、責任を負うべきだ。
記者:科学技術ジャーナルは、生成AIがもたらす可能性のある研究誠実性の危機にどう対処すべきでしょうか。
クライナート氏:この分野を適切に管理するのは難しい。AI技術はすでに普及しており、広く使われているからだ。最善の方法は、何が不適切であるかを明確に指摘し、そのうえで、運用全体で誠実さと透明性を確保し、最終的な責任は使用者が負うことだ。
「Lancet」編集部内には、研究誠実性ワーキンググループが設立されており、主に二つのことに焦点を当てている。一つ目は、最新の方針・動向をフォローする。チームはすでに「Lancet」系列のジャーナルに関する生成AIの内部政策を策定している。二つ目は、扱いが難しい案件を継続的にモニタリングし、講じた対応が適切かを確認する。同時に、我々は外部ガイドラインの変化にも注目している。例えば最近、国際出版倫理委員会(COPE)は撤回ガイドラインを更新した。我々はこれらの内容に注目し、「Lancet」の内部プロセスに取り入れ、最新のガイドラインに基づいて判断する。
「Lancet」編集部は、研究誠実性委員会の設立を準備中だが、現在はまだ初期段階であり、2026年2月にキックオフミーティングを開催する予定だ。生成AIとそれが研究誠実性に与える影響は、委員会が注目する重要な内容の一つになるだろう。
記者:研究者と編集者は、生成AIを使用する際にどのような原則を考慮すべきでしょうか。
クライナート氏:人々はAIを補助的なツールとして捉えるべきだ。私は常にAIという概念における「インテリジェンス」は洞察力、見識を意味すると感じているが、AIはこれらの能力を備えていない。
研究者、編集者、出版機関は、生成AIの最適な使用方法を理解する際に、いくつかの注意点や落とし穴に十分注意する必要がある。ハルシネーション、偏見、人種差別、モデル崩壊、および研究倫理違反は、科学に対する公衆の信頼を損なう可能性がある。現在、生成AIモデルが生成するコンテンツは、表面上はもっともらしく聞こえることが多いが、実際には洞察力、斬新さ、実質的な意味に欠けている。生成AIは、次世代の研究者にとって技能が育たなくなるリスクをもたらしている。
※本稿は、科技日報「AI辅助写论文,科技期刊怎么看」(2025年12月12日付)を科技日報の許諾を得て日本語訳/転載したものである。