「今日はいい天気だな」という言葉に生成系AIはもっともな返事ができるが……
少し唐突に聞こえるかもしれないが、最近話題になっているいわゆる生成系AIをめぐる議論を聞いていると、何故か私はこの一連の話を思い出す。つまりこうしたAIが生成する命題や文章はどういう意味で「真」といえるのか、という問いである。自動生成される文章がいまやかなり高度になり、それが人なのかAIなのか区別が難しくなっているという話が流布している。
ここでこの話を、複雑な科学的命題ではなく、日常会話の断片としてまず考えてみよう。例えばある人が「今日はいい天気だな」といった時にもう一人が「そうですね」と答えるという場面。最も実在論的な考えでは、ある人がそう発言をしたのは、現実の天気を見、その光りや風を体で感じ、その経験された「事実」を表現するために「今日はよい天気だな」と発話し、もう一人も同じようにその場を共有し、体感したいい天気という経験をもとに「そうですね」という場合である。
しかしこの会話の背景としては、無限に多様なバリエーションを想像で きる。相槌の相手はめんどくさい上司で、しかも電話でしゃべっているため確認しようがないが、タテ社会上同意せざるを得ない。あるいは、会話全体が実は上演中の芝居の一部で、ここでいう「いい天気」は、あくまでその舞台での設定だが、観客も「いい天気」なのだと想像してみている。演劇論的社会学者のゴフマン(E.Goffman)が好きそうな状況である。
最近流行りの新実在論的な極では、この会話の裏に物理的実在としての気流や温度、陽光の穏やかさ、そして木々の緑のあざやかさといったものを想定し、その経験を言語化したもの、という場面設定が可能である。他方、これを実在世界とは完全に切り離し、こうした会話を単なる記号のパターンと見なし、その連鎖と考える極。「いい天気だな」という記号列には、高頻度で「そうですね」という記号列が続くとすれば、それを学習し、再現すれば、それなりにもっともらしい会話の流れは作れるわけである。
この後者を非常に高度化すると、過去の膨大な発話や論文をベースにして、いくらでもそれっぽい文章を生成することができる。面白いのは、こうした自動生成の文章を実際に利用した人々が、「もっともらしい」とか「知ったかぶりをしている」という印象をうけるという点である。しかしある意味それは当然ではないか。上記の会話でも、ある文章と別の文章の間のありそうなつながりのパターンからそれ生成される場合、その「そうですね」の裏には基本何もない。文書間の表 面的なつながりの背後にあるかもしれない、言葉と現実、言葉と経験あるいは世界そのものとの関係といったものがそこにはないからである。
テキストには実在世界との関係性もある。こちらを放置したまま技術的開発に猛進している現状
しかし皮肉なことに、そういうものがなくても文章はかけるということを劇的に証明したのはルーセルのような小説家ではないのか。言葉遊びをつなげていくことで、見た事もない対象について小説が書けてしまう。言語と現実世界における指示対象という関係性を外して、言語をその音声上の連想だけで小説がかけるなら、膨大なデータベースを利用しそれを機械学習させれば、はるかにもっともらしい文章が生成できて当然である。
以前の投稿で指摘したように、はい/いいえをランダムに配しただけの実験でも、聞き手はそれを補正し、自分にとって重要な意味をそこに見いだしてしまう。まさにこれが我々のセンス・メイキングの力である。そのテキストそのものにはもともと表面的な意味しかなく、実は裏には何もないとしてでも、である。だが言語には確かにそういう側面がある一方、その反対側にはまさに実在世界との関係性という別の極値がある。そして昨今の自動生成的テキストというのは、そうした古典的な真偽との関係を全く放置したまま、技術的開発に猛進していくという点で、社会の各所で懸念の声が上がっても不思議ではない。
データベースに蓄積された見かけ倒しの真理でも、使えればいいのか
こうしたいじくり(tinkering、近年のSTSの流行語の一つ)の対象が、もしテキストではなく遺伝子であれば、即座に新・優生学だという批判を誘発し、ナチ、強制収容所といういわば絶対悪のイメージに直結する。無邪気に開発をつづける訳にはいかないのである。しかしそれがテキストへのいじくりであれば、こうした劇的な批判には直結しにくい。それがもたらす負の効果について直には判然としない面もあり、一見すると、学校教育におけるコピペ問題の延長線程度にしか感じない人もいるだろう。
それゆえ、現行の法的対応も、個人データを違法に収集したから、といった手続き論に終始し、それがもたらすより本質的な問題に関しては、あまり自覚されていないという印象もうける。データ収集がより合法的になれば話は済む、というわけでもないのである。また偽情報が氾濫するという議論もあるが、少しポイントがずれている気がする。偽情報は別に高度に自動化しなくてもいくらでも創出できるし、いままでにも既に様々な形でそれは実践されてきたからである。
むしろ問題なのは、それが真理そのものの構成と直接関係するからではないのか。ここで生成されるのは、もっともらしい嘘ではなく、いわばもっともらしい真理である。例えば、学生に何か特定の分野について質問すると、優秀な学生ほど色々読んでそれなりの答えをする。しかしそれが身についているかを判断するには、それを個別具体的な事実や経験におとしこみ、そうした固有な文脈においてそれを答えさせてみる。すると結構ボロが出ることが多い。つまり学生の理解もある意味「機械学習」のレベルに止まっていると分かるのである。
前述したように、かつての盟友を怒らせたフーコーの問いは「真理がかくも真的ではないのはどうしてなのか」というものであった。自動生成されるテキストが示す真理は、我々の身体を通じて経験された様々な現実とのせめぎ合いの歴史的、集合的な成果と基本同じものなのか、それとも単にデータベースに蓄積されたテキスト群の表面上のつながりからでっちあげられた、見かけ倒しの真理、しかもそれでも使えればいいのか。議論は始まったばかりなのである。
参照リンク
『ドゥルーズとガタリ—交差的評伝』フランソワ・ドス 杉村昌昭訳(河出書房新社 2009年)
『アザンデ人の世界―妖術・託宣・呪術』E. E. エヴァンズ=プリチャード 向井元子訳(みすず書房 2001年)
『レーモン・ルーセル』ミシェル・フーコー 豊崎光一訳(法政大学出版局 1975年)
『性の歴史I 知への意志』ミシェル・フーコー 渡辺守章訳(新潮社 1986年)
「言葉とモノ—STSの基礎理論」福島真人(藤垣裕子他編『科学技術社会論の挑戦』第三巻 東京大学出版会 2020年)
Rationality and relativism, Martin Hollis and Steven Lukes(eds)(Basil Blackwell. 1982)
編集部注:記事を参照された場合は、参照元として当記事をご紹介ください。