大学紹介
入試・入学
学部・短大・大学院
研究
就職・キャリア
​学生生活
​留学・国際交流
地域連携・社会貢献
  • TOP
  • トピックス
  • 【学長通信】対話型AIはどんな「対話」をしているのか?

【学長通信】対話型AIはどんな「対話」をしているのか?

学長通信

私たちは、他人と話すとき、時に、遠まわしな表現やあいまいな言い方をすることがあります。対人関係に配慮する、あるいは忖度するときが多いようですが、そうでないときも、しばしばあいまい表現がでてきます。にもかかわらず、聞き手は話し手の意図をすぐに理解することができます。言葉になっていない意図(含意)を推測できるのです。以下の会話はそのよい例です。

夕食後の夫婦の会話
妻「コーヒー飲む?」
夫「明日ね、出張で朝が早いんだ。」

「飲む」とも「飲まない」ともいっていないにもかかわらず、「コーヒーは飲まない」ことが、了解されています。もし、この会話が、夕食後ではなく朝食時になされたのなら、「新しいシャツを用意して欲しい」「スーツケースを出しておいて」といったことを意味しているのかもしれません。その場合も、そのことはすぐに了解されるでしょう。両者の間で、適切な文脈が共有され、その文脈のもとでなされる推論が了解されているからです(時本真吾『あいまいな会話はなぜ成立するのか』岩波書店、2020年より)。

ところが、逆に、会話がすれちがって話が通じない場合も、しばしば生じます。例えば、以下の会話です(飯間浩明、Twitter 2017.1.5より)。

A「時系列で考えてみましょう」
B「時系列とは?」
語句が通じていない例です。

A「最近つくづく思うけど、サンタクロースっているよね」
B「何言ってるの。あれはあくまで伝説で‥‥」
文脈が理解されていない例です。

A「では、そのうち飯でも」
B「来週ですか、再来週ですか」
話し手の意図が理解されていない例です。

いずれも、日常会話では、普通にあることです。このような事例から、会話が成り立つためには、話し手と聞き手の間で、語句や文脈だけでなく、推論による含意が共有されることが必要なことがわかります。話し手と聞き手が帰属している社会集団―学校だったり、会社だったり、地域だったり、年齢だったりする―によって、語句や文脈や含意が異なっている場合が多いことも、これを裏付けているようにみえます。ただ、上の事例はもう少し一般的ないし普遍的な事例であるようです。

最近、生成AI(Generative Artificial Intelligence)とくに対話型AIが大きな話題となっています。生成AIとは、与えられた入力データからまったく新しいデータを生成することのできる技術です。現在、生成AIの開発競争は世界中で激しく進行しています。代表的なものとしては、テキスト生成系のChatGPT、画像生成系のStable Diffusion、音声生成系のVALL-Eなどがあります。わが国でも、今年5月下旬、東工大、富士通、理研、東北大などが協力し、スーパーコンピュータの「富岳」を使って、2023年度中に高度生成AIを開発すると発表しました。こうしたAIを使えば、文章、画像、動画、音楽、プログラムコードなどが自在に作られるようになるのです。

テキスト生成系で代表的なChatGPTは、文章で質問をすると、それに文章で回答をしてくれます。対話型AIともいわれ、あたかも人間同士が会話しているかのように、自然な対話が進行します。とはいえ、ChatGPTは質問の意味を理解して回答しているわけではありません。人間の場合は、話し手の言葉の意味が分からなければ、会話を続けることができません。しかし、ChatGPTは、ディープラーニングと呼ばれる手法をベースにした自然言語処理の学習モデルに基づいて、文章を大量に読み込む学習を繰り返すことで、質問にもっとも適合するパターンを見つけ、パターンに沿った回答をするという処理をしているに過ぎません。質問に対して続く確率が高い文章を並べているだけなのです。

こうした作業を行う基礎となっているのは、2017年に発表された新しいディープラーニングの学習法であるTransformerです。ChatGPTに使われているTransformerは、それまでのニューラルネットワークに比べて、膨大なデータを一度に処理できる大規模な自然言語学習を可能にしました。従来のニューラルネットワークが、単語を一つずつ処理したのに対し、Transformerは、単語の位置とその関係を推測し、文脈を学習するようになりました。Transformerは、言語モデルが大量の生のテキスト・データを事前学習することを実用化し、モデルのサイズを大幅に拡大しました。

対話型AIは、質問の「意味」を理解していなくても、蓄積された膨大なデータ(=文章)から、質問の文章に対応する、もっとも確率的に高い文章で答えることによって、あたかも、質問の「意味」を理解して回答しているようにみえるのです。

とすれば、対話型AIの次の課題は、あいまいな会話の「含意」を理解することができるようになるか、明示された文章に隠された「意味」を読み取れるようになるかどうかでしょう。そのためには、人間の持つ「気持ち」や「感情」を、AIが理解することが必要です。ChatGPTに、「あなたの気持ち」を聞いてみると、「私は人工知能であり、感情や気持ちを持つ存在ではありません。私はテキストベースの情報処理を行うプログラムで、人間の質問に対してテキストで回答することができますが、自己意識や感情を持つことはできません。私の目的は、情報提供や質問に対する支援を行うことです」という回答が返ってきました。

現在は、AIが意識や感情を持つことができるようになると考える研究者はほとんどいません。しかし、人間がもつ意識や感情の生成プロセスをAIが解き明かすことはありそうです。手塚治虫の鉄腕アトムは、人工知能であるアトムやウランが、意識や感情を持つ場面を多く描いてきました。手塚治虫をオマージュした浦沢直樹の『PLUTO』(小学館、2009年)も、その最後は、アトムが涙する場面です。かつては、漫画やSFの世界であった生成AI、これとどう向き合うかが、現在、強く問われています。

学長  伊藤 正直