ハイデガーと予測AI

「誰にもわかるハイデガー」(筒井康隆)

「存在と時間」、もっとも恐ろしげな哲学書にして、人の良心・倫理の極北を示す書。

「あらゆる存在者のうちひとり人間だけが、存在の声によって呼びかけられ、<存在者が存在する>という驚異のなかの驚異を経験するのである」(ハイデガー)

このわかりにくい哲学のもっともわかりやすい解説書に出会いました。「文学部唯野教授」が’90年に行った講演録。

文学部唯野教授=筒井康隆と、マルティン・ハイデガー

Bravo!筒井康隆氏。また今回解説をつけた大澤真幸氏もBravo!哲学にはユーモアをもって近づくべきと思わせる本です。

「死への先駆」と良心

巨大なハイデガー哲学のうち、ここで取り上げたいのは、良心への意志(倫理・気遣いの極大化)が「死への先駆」に最も純粋に現れるという点。

死は生きている間には経験することのできない特異点であり、死に先駆けてそれを自分事として了解するには、その「無限性の欠如」を理解しなくてはならない。これは数理論理の世界では、ゲーデルの不完全性定理により厳密に証明されたものに通ずるようですが、日々の暮らしにおいて自覚的にいることは不可能に思えます。

締切が迫ってやっと、ことに着手し、締切が過ぎたとき、純粋に良心の呵責に激しく苛まれる。よくあることです。人はそういうものなので、ハイデガーの言う「企投」※1、サルトルの言う「アンガージュマン」の態度をとるのは容易ではないのです。(あぁ青春の実存主義!)

時間性の3つの契機

「到来」(将来)と「既在」(過去)と「現成化」(現在)。死を含む未来を今ヴィヴィッドに捉え、既に在る過去と、今と言った瞬間の過去から今を瞬視する。このうち死を含む「到来」の優位のうちに3つの契機は統合されるといいます。

死は怖いのでできればその場にいたくない(笑)さらに暴力的な死の前に未了ゆえの悔恨は必然である。しかし逆に悔恨の中にこそ最も純粋な良心が生まれる。なのでそれを先取りするところから始めよう。先取りは不安によって誰にでも可能である…

🍃🍃🍃

AIによる予測モデル

話題を急に変えますが、機械学習による予測では、過去を今だとおいて、既知の未来を予測するモデルを作ります。未来は過去に含まれるという信念に基づくモデルと言えるでしょう。

例えばデジタル広告におけるクリック予測や在庫予測、レコメンデーションにも疑いなく適用されてきた方法論です。

しかし一人ひとりの行動予測がこの方法論で高精度化できると信じるとすれば、これはハイデガーの議論とは異なる、実に凡庸なもののとらえ方であり薄っぺらな人間理解、と言わざるを得ません。※2

「現存在」とAI

もし未来がわかったら、人はそれに従う・抗うように今の行動を変えます。
問題は未来がわからないことながら、特異点としての死だけは誰にも等しく認識されている。「死への先駆」から倫理的に良心に従う意志を持つ。

未来を定めて今を見て、過去と異なる選択をするのが現存在(”Dasein”たる人間)です。

「現存在の存在は時間性である」(ハイデガー)

そんな現存在」には、AIも歯が立たない。逆に今のAIに行動予測される人間は、現存在とは言い難いわけです。

現存在への個人化へ

実は、現状のAIによる個人化は、統計的な凡人化であって、統計的に当たればビジネスとしては充分儲かるからよいのですね。

しかし本来、個人化というならば、人の変化する能力とその方向をこそ予測すべきで、特にレコメンデーションは変化の後に必要になるモノを提示できることを目指すべきでしょう。殊にその人にとって未経験な領域は不安で一杯でしょうから。

レコメンドすべきは「到来」の1点か、受け入れるべき「現成化」か?

次回は実存主義的レコメンデーションの方法論を考えていきたいと思います。

🍃 🍃 🍃

※1, 2 第2次AI ブームの時、AIに対して猛烈な批判の声を上げ、「フレーム問題」「記号接地問題」を提起したドレイファスやサールといった哲学者たちは、ハイデガー研究者だったと知りました。

彼らの主張は、「人間は世界というものの中に「投げ込まれて」、自分を「企投」しつつ生きている。機械にはそうした生活世界がない。そんな機械が、どうやってものを考えられるのか?」というものでした。

本論は行動予測という、もっと小さなことしか言っておりません…

智慧と知識とシンギュラリティ

 「智慧はコピーされることがない」という言葉に出会いました。
~「ソニーから学んだ「差別化戦略」 養うべきは知識ではなく智慧」茶谷公之氏

 智慧とは「真理を見極める認識力」であり、Wikipediaによれば「一切の現象や、現象の背後にある道理を見きわめる心作用を意味する仏教用語」とあります。いやこれは確かに容易に伝達できそうにはありません。 

 一方、知識はコピーし伝達できる。法則化され原理が明確になったものが「知識」なので伝わりやすいのですね。

 単なる知識でなく智慧が生んだイノベーションの差は決定的であり、それぞれの分野で経験を積んで智慧を養おうという氏の説に大いに納得しました。

 

 少し考えてみると、AIに「知識処理」はあっても、「智慧処理」はありません。そもそも智慧処理という語感からしてなんか異な感じがします。処理対象として、知識はあっても智慧は無いということは万人共通の感覚ではないでしょうか。

 また逆に、「知恵の輪」はあっても、「知識の輪」はありません。知恵の輪は知識では解けません。つまり智慧には、「試行錯誤」が深く関わっているようです。

 知識は処理できる対象であることから、よりエレガントに整理され、ますます伝達されやすくなるのでしょう。数学の証明がまさにその例です。

 若い頃憧れた広中平祐氏。氏のフィールズ賞受賞業績である「特異点解消定理」※1。世紀の難問をいわば力業でねじ伏せた証明は218ページとか。当時の数学史上最長論文で「広中の電話帳」として有名なくらいです。理解できる人は世界に10人と、よく言われる表現で語られました。

 その後、証明は洗練されて、今では「大学院初年級の学生でも“ごまかしなし”に全体が読める証明がある程に理解が進んでいる.」(松木謙二, 数学69巻1号2017年1月)といいます。さらに、智慧の結晶である数学理論が、知識化のおかげで、今では機械学習モデルを支える定理として、実世界の課題に対して具体的な解決をもたらしているそうです。

 智慧は各所に大なり小なり必要であり、知識の体系化も様々な応用も智慧があればこそといえるでしょう。しかしなんといっても最初の着想と筋道の発見こそが、人類の智慧の集積点であり、そう、まさに特異点に違いありません。※2

 智慧はコピーもできないし、微分もできない、ということが導かれました(笑)

 

※1 任意の代数的集合(「多項式=0」で定義された集合)は,ブローアップと言われる操作を繰り返すことで 必ず特異点を解消することができる(広中の定理)。

特異点とは、微分不可能な点。ジェットコースターの影(2次元への射影)が交わっているところ、これが特異点で、実際の3次元空間で交わっていたとしたら大事故になります。

つまり次元をあげる・見方を変える、ことで特異点が解消される、という、ある意味、仏教の悟り的であり、まさに本来の意味での「智慧」がもたらしたもの、日本人が解くべきして解いた定理だったように思えます。(広中平祐, 「生きること学ぶこと」にも確かそんなようなことが書かれていて心が震えたものでした。)
最初の論文が出てから50余年の時を経て、機械学習の統計モデルにおいてこの定理が極めて重要な役割を果たしているというのは何ともロマンチックな話です。

※2 それとは別にこの「特異点」という語は、近年、特にAI文脈で特別な意味をもって取り上げられますね。いわく、2045年にシンギュラリティが訪れる!と。(技術的特異点:AI自ら人間より賢い知能を生み出す事が可能になる時点

「MLモデルはデータのViewでしかない」或いは深層学習の限界の証明

DeepMind社のリサーチャーJacob Menick 氏は「MLモデルはデータのViewでしかない」とつぶやかれています。

https://twitter.com/jacobmenick/status/1260658763687538688

これは実に真理をついていると思います。

MLモデルが y=f(x)のf と言えるならば、このf がデータのViewだと言ってるわけですね。例えば、このf (x)を

としたらいかがでしょうか? そう相加平均。こんな単純な、と思ってもこれもデータ全体を表現したひとつのViewです。つまり入出力データをモデル化するということは、「入力データの、ある目的に沿った抽象化」ととらえられます。

予測モデルでは、ある未来予測という目的に沿ってログデータを活用した抽象化だといえます。ここで目的は暗に、x に対するy という形で与えられます。

元データにすべて入っている情報を料理するのが機械学習であり、それ以外に素材としては何も使っていないわけです。

となると、元データに目的を解くカギが過不足なく入っているのか? が問題となるわけです。そしてその意味では、画像認識はまさにこの条件を満たす理想のデータ(全ピクセルのRGB値)が対象であり、このことこそが深層学習が極限までワークする理由でもあります。音声認識も然り。

一方で、人の行動予測や株価の予測はどうでしょうか?

ここでは要素還元の限界を容易にみることができます。元データ特徴量にどこまで追加しても、ことの原因をすべて入れることはできません。複雑系に対して要素還元主義は無力です。

このように、深層学習が万能でないことが証明されました。