ChatGPTを論文執筆に活用するときの注意点
ChatGPTは、OpenAIという人工知能研究所によって開発された、自然言語処理技術を用いた人工知能(AI)ツールです。対話型(チャット型)のインターフェースが特徴で、膨大な機械学習に基づきテキスト生成をして回答します。アイデア出しや要約作成、リサーチの効率化など、論文執筆のサポートツールとしても活用できますが、使用にあたっては注意点もあります。この記事では、ChatGPTの制限事項や使用上の注意点、大規模言語モデルを論文に活用することに対する学術出版社の反応などについてご紹介します。
ChatGPTの制限事項
ChatGPTのトップ画面には、「制限事項(Limitations)」として次の3点が記載されています。
・誤った情報を生成することがある
・ときおり、有害な指示や偏った内容を生成する可能性がある
・2021年以降の世界とできごとに関する知識については正確でない可能性がある
開発元であるOpenAIは、公式サイトにおいても制限事項について解説しています。
例えば、ChatGPTはもっともらしいけれども不正確または無意味なテキストを生成することがありますが、その問題を修正することはまだ困難であるとしています。言語モデルの強化学習中に信頼できる情報源がないことや、言語モデルが知っている情報に依存した回答を生成すること、トレーニングデータの偏りなどがその理由として挙げられます。
ChatGPTを使うときの注意点
ChatGPTをはじめとする生成系のAIツールは、あくまで人間のクリエイティブ活動をサポートするツールであり、使用にはさまざまな注意点があります。ここでは、ChatGPTを使用するときの主な注意点を3つ解説します。
1.簡潔かつ具体的な指示(プロンプト)を入力する
ChatGPTは入力された指示に対して回答を生成するAIツールなので、適切な回答を得るためには、いかに適切な指示を出すかが重要となります。
例えば、ChatGPTを活用して英語のカバーレターを書きたいときは、
「英語のカバーレターはどうやって書けばいいですか?」
と質問してしまうと、カバーレターの手順やハウツーを紹介するテキストが生成されます。それを参考にして書くこともできますが、以下のような具体的な指示を入力すると、英文のカバーレターのフォーマットを生成することもできます。
「英語の論文を提出するためのカバーレターのフォーマット例を作ってください」
生成されたフォーマットの書式を参考に、自分の名前や論文タイトル、論文の概要などを書き込んでいけば、カバーレターの初稿ができあがります。また、次のようにさらに詳しく指定することもできます。
「あなたは●●大学●●部の准教授で、Science誌に英語の論文を提出しようとしています。英語の論文を提出するためのカバーレターのフォーマット例を作ってください」
このように指示すると、Science誌の宛先があらかじめ入力されたフォーマットが生成されます。正しい宛先になっているかどうかなど、全体を確認する必要はありますが、手間がひとつ減ると考えられます。
さらに、カバーレターに盛り込む「論文の概要」も、ChatGPTに適切な情報を入力して要点を作成する指示を出せば、たたき台を作ることができます。
このほかにも、回答の文字数を指定したり、使用シーンや対象者を指定したり、ChatGPTに特定の専門家などのペルソナをあらかじめ指定したりすることで、求める回答に近づける工夫ができます。プロンプトのテンプレートなどを活用しながら、自分のタスクに即した適切な指示を入力するようにしましょう。
2.生成されたテキストはたたき台として用い、必ずファクトチェックを行う
制限事項にも挙げられているように、ChatGPTは誤った情報を生成する可能性があるため、生成されたテキストに対しては必ずファクトチェックを行いましょう。特に、2021年以降のできごとについて正確でない可能性があるとしているように、最新の研究や論文、記事などについては、ChatGPTがまだ学習しきれていないと考えられます。インターネット上のテキストから学習しているため、データの範囲外の知識や専門分野については網羅できていない可能性もあります。
以上のことから、生成されたテキストをそのまま使うことは避け、情報の正確性や適切な表現かどうかなどを必ず確かめましょう。生成されたテキストはあくまで参考とするか、初稿やたたき台などとして活用し、自分の知識と経験に基づいて編集することが大切です。
3.個人情報や機密情報は入力しない
OpenAIは、ChatGPTのサービス改善のために使用する予定のデータからは、個人を特定できる情報を削除し、顧客ごとに少量のデータサンプリングのみを使用すると述べています。特に、APIを介さずChatGPTに入力した質問や指示は、言語モデルの学習材料となる可能性があります。一度学習した内容は、理論的には他のユーザーが引き出すことも可能と考えられますし、偶発的であろうとも個人情報や機密情報が漏れてしまうおそれがあります。そのため、個人情報や機密情報、未公開の研究や発明に関する情報などを具体的に入力することは避けましょう。
入力した質問や指示を学習データとして使用させないためには、オプトアウト設定をすることも可能です。
大規模言語モデルを論文に活用することに対する学術出版社の反応
ChatGPTをはじめとするAIツールは便利ではありますが、まだ発展途中の技術であり、倫理的な課題もあります。学術分野においても、ChatGPTをはじめとする大規模言語モデルについてはさまざまな議論が巻き起こっています。
2023年1月、ScienceはChatGPTなどの文章生成系AIツールは論文の著者として認めないことを表明しました。Science誌に論文を投稿する際、著者は論文の独自性についてのライセンスに署名しますが、ChatGPTなどで生成された文章は「独自」の文章に当たらないとしています。加えて、Scienceではライセンスおよび編集方針を改定し、ChatGPTをはじめとするAIツールによって生成されたテキストや図・画像を論文に使用することはできないこと、AIツールは論文の著者として認められないことを明示しました。
また、Natureは、生成系AIツールは思考の整理や研究に関するフィードバック、コード作成支援や研究文献の要約などに役立つとしながらも、文献レビューが不完全になったり、信頼性の低い研究論文が生成されたりすることに懸念を示しています。Nature誌も同じく2023年1月に、ChatGPTをはじめとする生成系AIツールの使用について一定の規制を設けることを発表しました。Natureは、大規模言語モデルを使用したAIツールは論文の著者として認められないこと、論文執筆の過程でAIツールを使用したときは、方法または謝辞のセクションでどのように使用したかを明文化する必要があることとしています。
大規模言語モデルの今後の動向に注目
ChatGPTをはじめとする大規模言語モデルについては、今後も進化する可能性が高く、並行して倫理的な議論も活発化すると予想されます。学術分野においてChatGPTなどを使用したテキストが認められるようになる可能性もありますし、逆に、全面的に禁止される方向性に傾く可能性も否定できません。今後の動向に注目しながら活用するようにしましょう。
参考文献
ChatGPT公式サイト
OpenAI公式サイト — Introducing ChatGPT
Science — ChatGPT is fun, but not an author
nature — Tools such as ChatGPT threaten transparent science; here are our ground rules for their use