算数が苦手な子どもはAIと似ている 「記号接地問題」とは?
https://business.nikkei.com/atcl/gen/19/00554/062200004/?P=2
※ 『ChatGPTは、昔のAIに比べ、本当は理解していないのに理解しているふりをするのは非常にうまくなったと言えるでしょう。』
※ ここに、「本質」が凝縮されているな…。
『今井 むつみ
慶応義塾大学環境情報学部教授
ChatGPT(チャットGPT)の「無防備な活用」に警鐘を鳴らす、慶応義塾大学環境情報学部の今井むつみ教授による短期連載。認知科学や言語心理学を専門とする世界的な研究者は、何が問題だと考えているのでしょうか。今回は「記号接地問題」を手掛かりに、「AI(人工知能)の思考」と「人間の思考」の本質的な違いを考えます。人間であるのに「AI的な思考」をしてしまう子どもは、算数の文章題を苦手とする。そんな問題もあると言います。
本連載でここまで(*)、認知科学を専門とする立場から、「AIは意味を理解しない」ということを再三、申し上げてききました。
*第1回:ChatGPT活用で増殖する「間違った主張を堂々とする素人」
*第2回:ChatGPTが分数を間違う理由 どうして「100<101/100」?
この事実は、今から30年以上も昔から、「記号接地問題」として人工知能研究者の間では知られていました。
AIは一見、ことばの意味が分かり、人間が言語で言わんとすることを理解しているように見えても、実は一つ一つのことば(記号)の意味を理解しているわけではない。意味を理解しない記号を別の、やはり意味を理解しない記号で置き換えているだけで、どこまで行っても、結局、人間が言語で伝えようとする本当の「意味と意図」は理解できない、というのが「記号接地問題」です。
つまり、AIのなかでは、単語一つ一つが、経験や感覚に対応づけられていない――身体感覚に「接地していない」――状態にある。つまり、本当は単語一つ一つの「意味」を理解していない。にもかかわらず、あたかも理解しているようにふるまっている、ということです。
AIは「記号のメリーゴーラウンド」を回り続ける
「記号接地問題」を最初に指摘した認知科学者スティーブン・ハルナッド氏は、このように記しています。
あなたは中国語を学ぼうとするが、入手可能な情報源は中国語辞書(中国語を中国語で定義した辞書)しかないとしよう。するとあなたは永遠に意味のない記号列の定義の間をさまよい続け、何かの「意味」には永遠にたどり着くことができないことになる。(*)
* Harnad, S. (1990). The symbol grounding problem. Pysica D, 42, 335-346. より著者訳。該当箇所はp338
全く意味の分からない記号の意味を、他の、やはり全く意味の分からない記号を使って理解することが果たしてできるだろうか、というのがハルナッド氏の発した問いでした。ハルナッド氏は、ことばを、身体感覚や経験と結びつけずに与えられた定義だけで操ろうとしているAIを、記号から記号へ漂流し、一度も地面に降りることができずに回り続けなければならないメリーゴーラウンドのようだ、と述べています。
実際、この問題が提起された1990年ごろは、人間が使うような自然な言語をAIが理解したり、発したりすることは困難でした。それからたった30年ほどで、ChatGPTのように、巧みに自然言語を操るAIシステムが現れました。
では、ChatGPTは、記号接地問題をクリアしたのでしょうか?
「記号接地問題」を最初に指摘した、認知科学者スティーブン・ハルナッド氏は、AIの思考を「記号から記号へ漂流するメリーゴーラウンド」のようなものだとした(写真:Shutterstock)
全くクリアしていません。それは、前々回(第1回、ChatGPT活用で増殖する「間違った主張を堂々とする素人」)、前回(第2回、ChatGPTが分数を間違う理由 どうして「100<101/100」?)で示した、小中学生向けの分数の問題に対する回答からも明らかです。
ChatGPTは、分数を小数に変換するような計算は瞬時にできました。けれど、その分数が、実世界の様々な場面において、どのくらいの「量」に対応するのかは全く理解していません。「1/2(2分の1)」と「1/3(3分の1)」が、例えば、丸いケーキのどのくらいの量に当たるのかは全く分かっていない。そういうことを理解しないまま、数字(記号)として計算をして、数字(記号)の比較をしているのです。私たちの問いかけ(プロンプト)に対するChatGPTの出力を「思考」というなら、その思考は、全く記号接地していないと言えます。
ただし、ChatGPTは、昔のAIに比べ、本当は理解していないのに理解しているふりをするのは非常にうまくなったと言えるでしょう。
ChatGPTは、優秀な「文字列予測マシン」
最近、私が教える授業の課題を、ChatGPTに回答させた学生がいました。ただ回答させるだけでなく、その回答の妥当性を論評していて、とてもいい着眼点だと感心しました。
私が出した課題は「これまでの科学の理論を覆すような科学的発見と、子どもにおける概念の変化の共通性と相違点について議論してください」というものでした。
この学生は、この問いをChatGPTに伝えるとき、タイプミスをして「科学の発見をもたらす概念変化と子どもの概念変化の共通生徒違いについて教えてください」としてしまったそうです。こういう場合、以前のAIなら処理が止まってしまい、答えを返すことができなかったでしょう。しかし、ChatGPTは「共通生徒違い」がタイプミスであることを理解し、「共通性と違い」と解釈したように思える答えを返してきました(2023年3月に公開された大規模言語モデル「GPT-4」より、1世代前の「GPT-3.5」に基づく回答)。
私から見ると、ChatGPTの回答は、特に間違っていないがとても表層的で、成績をつけるとしたらC(可)といったところでしたが、文章自体はもっともらしく書かれていました。その学生も、たいした内容ではないことを理解していましたが、CharGPTが「共通生徒」というタイプミスを「共通性と」に直して読んだらしいことに対して、「僕の意図をちゃんと理解してくれた」と感激していました。
しかし、ChatGPTは学生の意図を理解したわけではありません。ChatGPTは優秀な「次にくる文字列予測マシン」です。学生がタイプした「共通」という文字列と、その後の「違い」という文字列の間には、「生徒」がくる確率は非常に低く、「性と」がくる確率は非常に高いという計算から、正しくは「共通性と違い」なのだろうと予測しただけです。
もちろんそれができるだけですごいですよね。
そんなにすごい予測機能があって、タイプミスを見つけて修正して解釈をしてくれるChatGPT。かたや、「共通□□違い」という文字列を与えて、「□□に入る2文字を推測しなさい」という問題を出したとき、「性と」と回答できない小中学生はずいぶんいそうです。』