[FT]生成AI、偽情報を再生産 世論を誘導も
https://www.nikkei.com/article/DGXZQOCB122J00S3A210C2000000/
『「ChatGPT(チャットGPT)」のような大規模言語モデルにはもっともらしさが備わっている。関連情報をネット上からかき集めて答えを出したり、法律文書や説得力のある論文、それらしいニュース記事を書いたりするよう訓練されているからだ。多くが生成AI(人工知能)を利用している。
ところが公開情報は間違いや意図的な作り事も含んでいるため、AIが生成する文章が必ずしも正しいわけではなく、また真実であると…
この記事は会員限定です。登録すると続きをお読みいただけます。』
『ところが公開情報は間違いや意図的な作り事も含んでいるため、AIが生成する文章が必ずしも正しいわけではなく、また真実であるとも限らない。そこで、文章を作成したのが人間か機械かを見分けるツールの開発が急がれている。科学界も後れを取るまいと、AIによる学術論文の執筆や仮説の構築を認めるべきか議論を始めている。』
『AIと人間の知能を区別する必要性は日ごとに増している。スイスの金融大手UBSのアナリストは2月、チャットGPTが1月に1億人のアクティブユーザーを獲得し、アプリの普及ペースが過去最高だったと発表した。
チャットGPTの生みの親の米オープンAIは機能の限界を認めている。同社は句読点、つづり、語順を工夫した機械読み取り式の暗号をAIの文章に埋め込むことで、AIが書いたとわかる手法を開発中だ。AIと人間がそれぞれ作った文章を使い、違いを見抜く技術の向上にも取り組んでいる。
一方、米スタンフォード大学の大学院生エリック・ミッチェル氏は仲間とともに、手間のかかる事前学習なしに違いを見分けるツールを考え出した。まずチャットボットに、ある文章が自ら生成した文章にどれだけ似ているかを聞き、類似していれば「いいね」を付けさせる。
次にツールでその文章の言い回しを少し変える。AIが作った文章は変えた後でも「いいね」がつくことが多いが、人間が書いた文章では評価がばらつくという仮説に基づく実験だ。初期段階では文章の書き手が機械か人間かを95%の確率で当てたという。』
『もちろん注意は必要だ。実験結果はまだ査読を経ていないうえ、あらゆる生成AIで一律に高い識別能力を発揮できたわけではない。AIが作った文章に人間が手を加えると、正しく見分けられない場合もある。
こうした状況は科学にどんな影響をもたらすだろう。研究の源泉である科学誌は新たなアイデアや仮説、議論、証拠を世界が共有する科学知識の中に吹き込むものだ。論文の中には、すでに研究者がAIを共同執筆者と記したものもあり、物議を醸している。
もっともらしい文章が本物の学術論文に紛れ込めば、科学知識全体が恒久的にゆがめられる。米誌サイエンスは現在、AI論文の掲載を一切禁じている。英誌ネイチャーでは明記すればAIの使用が認められるが、共同執筆者として扱うことはできない。
とはいえ、たいていの人は科学的思考を深めるために科学誌を読みはしない。悪意のある人が「なぜワクチンに効果がないか」「気候変動がでっち上げの理由」などの誤解を生む情報に、多数の引用を付けて拡散しても疑わないだろう。それを生成AIが拾ってまた新たな偽情報を生み出せば、世論を誤った方向に誘導してしまう。それこそ詐欺師の思うつぼだ。
By Anjana Ahuja 』