コンピュータはプログラミングされたとおりに動くという常識が変わりつつある
そもそも、コンピュータというものはプログラムどおり動くのが当たり前、バグがあったら停止するのが当然で、いくら記号の羅列という共通性があるといっても、ちゃんと動いたり動かなかったりするゲノムをデジタル情報処理系になぞらえるのは、いくらなんでも牽強付会が過ぎる、と思われる向きもあるかもしれない。しかし、現実のコンピュータの世界のほうで、コンピュータはプログラミングされたとおり100%間違いなく動くべき、という肝心要の常識のほうが実は変わりつつある。そう、いわゆるAIブームである。
世間ではAIという呼び方が人口に膾炙してはいるが、実際にいまAIだとして持て囃されているものは、現実には機械学習というAIのごく一分野にすぎない代物である。AI=機械学習について詳述する紙面の余裕はないし、このAIブームを受けて解説本は巷に溢れているので屋上屋を架すようなことをするつもりはないが、本書のテーマと関係する観点からごく簡単にAI=機械学習につ いて触れておこう。
従来のプログラミングでは人間がコンピュータが何をするかをきちっと決めていた。飲料自販機の例で言えば、お金が投入されたら、コインの種類を判別し、合計金額を表示、その金額で購入可能な商品の購入ボタンのランプを点灯。ボタンが押されたら、商品を送り出すと同時にお釣りの額を表示、お釣りを返して終了という具合である。このような動作のコンピュータはノイマン型と呼ばれ、手順が決まっていて一つ一つが順番に実行され、一見どんなに複雑なように見えても、この手順を逸脱して動くことは決してない。我々が普段使っているスマホやコンピュータもいろいろなこと、たとえば、文字を提示する、カーソルを動かす、音や映像を表示する、を同時にやっているように見えるが、それは単にとてつもない速度で順番にやっているため、人間には同時にやっているように感じられるだけのことだ。
だが、AI=機械学習の動作原理はこれとはまったく異なる。人間がAI=機械学習に指示するのは、漠然とした目標とデータだけだ。たとえば、多数の顔写真とどの写真が誰のものかという情報を与え、「どの写真が誰のものか判断できるようになれ」と命令するだけ。するとAI=機械学習は写真を 見て勝手に学習し、どの写真が誰のものかを学習する。するとたちどころに誰の写真か判断できるようになる。
AIは間違う。ただし、人も間違う
この技術はすでに実用に供されている。たとえば、東京国際空港(いわゆる羽田空港)や新東京国際空港(いわゆる成田空港)にはすでに顔認証ゲートが導入されており、日本国籍保持者の出入国に限っては顔認証ゲートによる「顔パス」での通過が許されている。
このAI=機械学習の動作原理はいままでのプログラミングとは全然違う。まず、人間はAI=機械学習がどうやって顔写真と人名を結びつけているかまったくわからない。それはAI=機械学習が勝手にやっていることで、人間のあずかり知らないことだ。また、ちゃんと動いていれば100%の正確な動作が保証される通常のプログラムと違い、AI=機械学習の動作精度は100%の保証はできない。他人のパスポートを持ち、変装したスパイがAIによる監視システムをくぐり抜けて、「顔パス」で絶対入国しないとは言えないのだ。どうやって顔認証しているのかわからないのだから当然だろう。ただ、その可能性はごく少なくなるまで学習させているし、人間だったら変装して他人になりすまして入国を図るスパイを100%排除できるかというとそれだって怪しいものだから顔認証ゲートが導入されたにすぎない。
また、別の問題点として、AIが仮に間違いを犯したとしても、人間には直しようがないということだ。これもどうやって顔を区別しているのか人間にはわからないのだから当然だ。こんなことを書くととてもいい加減なシステムを導入しているように思えるか もしれないが、そもそも、人間だって「この写真を○○さんだと思う理由を言葉で説明しろ」と言われたら困るだろう。強制されれば、メガネをかけているとか、髭を生やしているとか言うだろうけど、どんなに特徴を並べ立てたところでその特徴をすべてみたす、しかし、当該人物ではない写真は必ず存在するだろう。同様に、人違いをしてしまったとき、なんで間違ったのかと説明を要求されても困るだろう。なぜその人だとわかったかと問われれば、それはそうわかったからとしか答えようがないし、なぜ人違いをしたかと問われれば、それはその人に見えたからとしか言いようがない。なんのことはない、人間だってAI=機械学習と比べて大して信用がおけるようなものではないのだ。
AIの強みは人間が想定しない状況にも対応できること
昔、アイザック・アシモフというSF作家がいて、いわゆるロボットもののSFをたくさんものした。特に、彼はロボットが絡む刑事もの(いわゆるミステリ)が得意だった(実際、SF作家として、また、同時にサイエンスラ イターとして、あまりにも高名なため埋もれてしまっているが、アシモフには『黒後家蜘蛛の会』シリーズというれっきとしたミステリの連作があり、これだけで十二分に一流作家とされるだけの出来栄えである)。設定の都合上、彼が空想したロボットの頭脳、ポジトロン頭脳は、作った人間にも動作原理が不明なものとされた。ロボットだけが殺人の目撃者、という刑事ものを書くのに、ロボットの頭を開けたら現場で何が起きたか丸見え、というのでは物語が成立しないからだ。そのときは、作った人間に動作原理がわからないコンピュータなんて、なんてご都合主義的なんだ、と訝ったものだが、実際にAI=機械学習ができあがってみれば、そのとおりなのだからアシモフの慧眼には脱帽するしかない。
この、ちゃんとプログラミングされていないからミスがゼロではないが、人間が想定できない状況にも対応できるというAI=機械学習の特質は従来のプログラムを軸にしたコンピュータとはまったく異なる。たとえば、最近話題の自動運転を例に取ろう。人間がきちんとプログラムするノイマン型の計算機でこれを実行しようとすると、あり得るすべての状況を人間が想定する必要がある。この困難のために、自動運転はなかなか実現しなかった。これはフレーム問題といって広義のコンピュータにおける難問の一種である。
だが、AI=機械学習はそもそも、人間がプログラミングしてい ないので、100%の精度での動作が保証できない代わりに、人間が想定しない状況にも対応できる(これを汎化という)。このAI=機械学習の進歩なくして、自動運転が現実に実装可能な技術として脚光を浴びることはなかっただろう。
フラジャイルな人工物、ロバストな生命体
DIGIOME※1は、このAI=機械学習と同じような特質を持っている。いつも正確に同じことを繰り返すことができないのと引き換えに想定外の事態にも対応が期待できる。生命体が接する環境はどのように変化するかわからず、フラジャイルなシステムでは対応できない。その意味では現実への対応において、ロバストなAI=機械学習と同じような戦略を生命体が採用したのは偶然ではないだろう。もっとも生命体の学習時間は何十億年もあって桁が違うわけだが。
生命はロバストで人工物がフラジャイル※2なことを我々は当たり前のように捉えてきたが、「機能する」という意味ではどちらも同じもののはずだ。なぜ、人間が作るものはフラジャイルなものが多く、生命体はロバストなシステムを好むのか、AI=機械学習の登場でロバストな人工物が巷に溢れる未来を迎えるのが確実な現代、そのことはもうちょっと真剣に議論されてもバチは当たらない気がするのだが。
※1 DIGIOME(ディジオーム)……生命が持つゲノムをデジタル信号処理系として捉える考え方のことで、田口氏による造語。デジタルの「デジ」と様々なデータの総体を表現するときにつかう「オーム」を組み合わせている。田口氏は人間が作るシステムの脆弱性に比べ、生命が持つシステムの応用力の高さ、ロバスト性に注目 している。
※2 生命はロバストで人工物がフラジャイル……一般的に人工的なシステムはわずかな瑕疵が全体の動きを止めてしまうことが少なくないためフラジャイル(脆弱)である。一方、生命のシステムはどこかに欠損・欠陥があっても他の部位などがそれを補って機能しつづけることが多い。よって生命のシステムは人工的なシステムよりもロバスト(堅牢)であるといえる。
*この本文は『生命はデジタルでできている 情報から見た新しい生命像(ブルーバックス) 』(講談社 2020年)の一部を抜粋し、ModernTimesにて若干の編集を加えたものです。
イベント情報
この本の著者である田口善弘氏が登壇するイベントが、2023年3月28日にオンラインにて配信されます。タイトルは「シンギュラリティはすでに起きている? 予想を越えているAI技術とその空洞の中身」。参加費は無料。どなた様もお気軽にご参加ください。お申し込みはこちらのフォームからhttps://forms.gle/5tu8okUpbQq4uxMV6