BLOG

おむすびとしぐさと Tranformers Squared

大切なのは「圧縮」なのです。

ご飯を持ち運びたければ、おにぎりにする。旅行に行くならパッキングする。
言葉も脳で行われる概念の圧縮です。グラフも事象の圧縮であり、MPEGやMP3も映像や音響の圧縮技術です。
後者がご飯と違うのは密度の方向です。ご飯は字義通りの圧縮なのに対して、言葉やグラフは縮約であり、スカスカ化とも言える。だから上手い人も下手な人もいる。それでも日常では、人の能力を思えば手ごろで絶妙な効率化と言えるでしょう。

さて空間的なものは圧縮できても、時間方向の意味や文脈の圧縮は難しい。人の話しことば、書きことばの圧縮のことです。

日曜日の朝、子どもが起きて「パパ、晴れてるよ!」と言えばそれは遊園地に行きたいという意味だし、同じ朝でも妻が目を合わせればそれは「家事をして」の意味とみて間違いない。
(これぞ圧縮の極北、目線やしぐさによる情報伝達に勝るものはない。意図や状況をも一切の無駄なく圧縮した上、圧迫まで加えるとは。)

閑話休題、こんなひとのような対話を機械が出来るようになるとは思ってもみませんでした。
それが、GPTをはじめとするLLMでほぼ実現してしまいました。Attention(注意機構)によって長い文脈が覚えられるようになった。
そこではうまい行列演算が膨大に走り、そこに森羅万象の文章を放り込むことで、エッセンスを圧縮して抽出し、次の単語から文章まですらすら編み出すまでできるようになった。
内燃機関のように圧縮は爆発的なパワーも秘めるのでした。

まずは知識モデルとしてそれは起こりました。GPT3.5、4、を組み込んだチャットGPTとして。

そしてこの半年、いやこの一ヶ月、推論モデルが一気に進化しました。推論というからには論理の領域てす。GPT o1、o3系列が登場し、コスト1/1000というDeepSeek R1が発明され、人類は紛うかたなく次のステージに立ちました。

推論能力を高めるため、人を鍛えるかのようにAIを鍛える、さらにAI同士で高め合うところまで。囲碁のアルファ碁ZEROと同じ方法論。AI同士なので疲れを知らず、はやりの7.5時間睡眠も何のその、人の千年分の対局を数日で終えた結果、人の世界チャンピオンでさえ、いえ、その人に勝利したAIでさえ勝てない最強AIが完成しました。
それと同じことが、ことばの領域で急進行しています。

しかし、LLMは固定化が問題でした。いくら最強とは言え、変化しない種は滅びる。

この一カ月で、ついにリアルタイム自己適応学習の仕組みが発明されたようです。(前回「一緒に生活するだけで、主人友人の見方に触れて学んでいくかもしれません。(そのようなLLM / AI Agent が登場するでしょう。)」と書きましたが、その一歩目はもう登場してしまいました。)
恐らく一斉同時進行ですが、ここではサカナAIの Transformers-Squared に触れましょう。

image おむすびとしぐさと Tranformers Squared


ここでの肝がまた「圧縮」なのです。SVD(SingularValueDecomposition)という、行列分解・圧縮の美しい数学手法がコアアイデアとして使われます。(私も以前、コンテクストをレコメンダーに組み込む研究で適用した手法でした1
SVDを、推論時にタスクに応じて行列演算に適用し肝の重みだけ調整するという、言われてみれば誰もが思いつくべき手法です。

カギは、タスクごとに学習された zベクトルを強化学習により作っておくこと、推論時にはSVDの Σ (対角行列)をタスクに応じて、例えば 数学専用zベクトルで調整するメカニズムです。これを著者らは特異値微調整 (SVF)と呼んでいます。

image-2-1024x84 おむすびとしぐさと Tranformers Squared

モデルが入力されたタスクをまず分析し(第1段階)、そのタスクに適した上記重み調整メカニズムを経て応答を生成する(第2段階)。​

これはひょっとすると、汎用的で柔軟な適応性を持たせうるという点で、革命的なことが起きたのかもしれません。

手法はともかく、
自己適応学習ができるということは個人化LLMができるということ。すなわち自分だけのアシスタント、最適な万能教師、決して飽きさせないおしゃべり相手、ちょっと心が疲れた時にはおばあちゃんにだってなってくれる、ということ。

この続きは次回。

  1. 以前、コンテクストをレコメンダーに組み込む研究で適用した手法でした。いやはや20年前とは:https://patents.google.com/patent/JP2006048286A/ja ↩︎

しぐさと不滅

少し前置き

2年半もの間、考えをまとめることもせず、仕事に追われていた間に、生成AIやLLMが登場し、文字通り世界は一変しました。シンギュラリティがいよいよ近づいた感すらあります。

深層学習が驚異的でも、Transformer/Attention が画期的でも、ここまでたどり着くとは思ってもみませんでした。

AI 技術が透明になる寸前の今、考えたことを残しておこうかと思い、気まぐれを起こした次第。

愚にもつかないメモでも、後で見返せば、今を示しているかもしれない、今は今しかない、という妙な心持ちになったので気が向いたら書き残します。


好みのバイアスの続き

人たる嗜好バイアスは、日常生活の中で、選択の繰り返しの中でも生じます。
生得的な部分はあるのかもしれません。

前回触れたように、AIを人っぽくしたいならば好みのバイアスは必須でしょう。それは訓練で与えることもできるし、一緒に生活するだけで、主人友人の見方に触れて学んでいくかもしれません。(そのようなLLM / AI Agent が登場するでしょう。)

では、人が保持し続ける、種としての個性は何でしょう?

結局のところ、人に残るのはもっと無意識的で自然伝承的なもの、例えば「しぐさ」ではないでしょうか。
同じしぐさでも「その人」がにじみ出る。やがて懐かしく思い出されるもの。

逆に言えば、そのくらいしか人に残るものはないのかもしれません。いやはや。

「しぐさ」こそ人に残された永遠、不滅の領域。

そういえば、それこそがこの本のテーマ:

「不滅」ミラン・クンデラ

dc7036aee529a8fe11c2cd6fb9ed30c1-e1739096116240 しぐさと不滅

好みのバイアスとLLM(とDeepSeekの方法論)

人は好みに応じて情報を選び取る。つまりバイアスがかかった情報が脳にインプットされる。

選択は環境のせいかもしれませんが、本人は本人の意志だと感じている。その繰り返しがまた好みを作ります。


一方、AIに好みはありません。教師データによってバイアスが生じるだけ。しかし、LLM(Large Language Model)の時代になり、そのデータが世界全体となった結果、バイアスは(一般的レベルでは)消えました。

バイアス無しに意思決定できるでしょうか?意思を持てるでしょうか?
そもそもバイアス無しの好みとは言語矛盾ではないか?

バイアスを持ったAIを想定しましょう。昔のMicrosoft Tayでもよい。
あれは、善悪で問題を引き起こしたわけですが、そのバイアスゆえに人っぽい存在にはみえたのではないか。一貫性が感情・感覚の所在として捉えられたのかもしれません。

LLMを巨大知識・常識マシンに据え置くか、人格を感じて付き合いたいか?

後者を求めるなら、特定の偏り、バイアスを持たせることが必須でしょう。
(これは身体性や世界の理解の話1※1とは異なります)

AIにバイアスを与えるには、どうすればよいのでしょう?
論理でなく、感性(好み)でも、LLMには言語化して伝えるしかありません。
教師ありのFineTuning 、あるいは、DeepSeekR1Zero の取った方法論である、強化学習、知識蒸留が、推論モデルでなく感性の制御に活用できるのでしょうか?

偏り強化学習は生活環境で生じさせるのがよいのかもしれません。寝食を共にすることがAIにとっても大切。
その過程なしでLLMを友達とみなしたら、不気味の谷に落ちて悲しくなるのが落ち。AIは友達でなく先生、とみなしても、おそらく同じ結末になるでしょう。

人と人との関係性は、偏りに対する違和感あってこそ。

~「煙草くさき国語教師が言うときに明日という語は最もかなし」(寺山修司)

  1. 例えば、“AIのゴッドファーザー”が提案する、未来のAIを友好的に保つ方法(Wired 23.08.16) ↩︎

ハイデガーと予測AI

「誰にもわかるハイデガー」(筒井康隆)

image-3 ハイデガーと予測AI

「存在と時間」、もっとも恐ろしげな哲学書にして、人の良心・倫理の極北を示す書。

「あらゆる存在者のうちひとり人間だけが、存在の声によって呼びかけられ、<存在者が存在する>という驚異のなかの驚異を経験するのである」(ハイデガー)

このわかりにくい哲学のもっともわかりやすい解説書に出会いました。「文学部唯野教授」が’90年に行った講演録。

Bravo!筒井康隆氏。また今回解説をつけた大澤真幸氏もBravo!哲学にはユーモアをもって近づくべきと思わせる本です。

「死への先駆」と良心

巨大なハイデガー哲学のうち、ここで取り上げたいのは、良心への意志(倫理・気遣いの極大化)が「死への先駆」に最も純粋に現れるという点。

死は生きている間には経験することのできない特異点であり、死に先駆けてそれを自分事として了解するには、その「無限性の欠如」を理解しなくてはならない。これは数理論理の世界では、ゲーデルの不完全性定理により厳密に証明されたものに通ずるようですが、日々の暮らしにおいて自覚的にいることは不可能に思えます。

締切が迫ってやっと、ことに着手し、締切が過ぎたとき、純粋に良心の呵責に激しく苛まれる。よくあることです。人はそういうものなので、ハイデガーの言う「企投」※1、サルトルの言う「アンガージュマン」の態度をとるのは容易ではないのです。(あぁ青春の実存主義!)

時間性の3つの契機

「到来」(将来)と「既在」(過去)と「現成化」(現在)。死を含む未来を今ヴィヴィッドに捉え、既に在る過去と、今と言った瞬間の過去から今を瞬視する。このうち死を含む「到来」の優位のうちに3つの契機は統合されるといいます。

死は怖いのでできればその場にいたくない(笑)さらに暴力的な死の前に未了ゆえの悔恨は必然である。しかし逆に悔恨の中にこそ最も純粋な良心が生まれる。なのでそれを先取りするところから始めよう。先取りは不安によって誰にでも可能である…

🍃🍃🍃

AIによる予測モデル

話題を急に変えますが、機械学習による予測では、過去を今だとおいて、既知の未来を予測するモデルを作ります。未来は過去に含まれるという信念に基づくモデルと言えるでしょう。

image-1-1024x489 ハイデガーと予測AI

例えばデジタル広告におけるクリック予測や在庫予測、レコメンデーションにも疑いなく適用されてきた方法論です。

しかし一人ひとりの行動予測がこの方法論で高精度化できると信じるとすれば、これはハイデガーの議論とは異なる、実に凡庸なもののとらえ方であり薄っぺらな人間理解、と言わざるを得ません。※2

「現存在」とAI

もし未来がわかったら、人はそれに従う・抗うように今の行動を変えます。
問題は未来がわからないことながら、特異点としての死だけは誰にも等しく認識されている。「死への先駆」から倫理的に良心に従う意志を持つ。

未来を定めて今を見て、過去と異なる選択をするのが現存在(”Dasein”たる人間)です。

image-2-1024x481 ハイデガーと予測AI

「現存在の存在は時間性である」(ハイデガー)

そんな現存在」には、AIも歯が立たない。逆に今のAIに行動予測される人間は、現存在とは言い難いわけです。

現存在への個人化へ

実は、現状のAIによる個人化は、統計的な凡人化であって、統計的に当たればビジネスとしては充分儲かるからよいのですね。

しかし本来、個人化というならば、人の変化する能力とその方向をこそ予測すべきで、特にレコメンデーションは変化の後に必要になるモノを提示できることを目指すべきでしょう。殊にその人にとって未経験な領域は不安で一杯でしょうから。

レコメンドすべきは「到来」の1点か、受け入れるべき「現成化」か?

次回は実存主義的レコメンデーションの方法論を考えていきたいと思います。

🍃 🍃 🍃

※1, 2 第2次AI ブームの時、AIに対して猛烈な批判の声を上げ、「フレーム問題」「記号接地問題」を提起したドレイファスやサールといった哲学者たちは、ハイデガー研究者だったと知りました。

彼らの主張は、「人間は世界というものの中に「投げ込まれて」、自分を「企投」しつつ生きている。機械にはそうした生活世界がない。そんな機械が、どうやってものを考えられるのか?」というものでした。

本論は行動予測という、もっと小さなことしか言っておりません…

現AIは価値を凍結する

ea087d19e346f54b031a3f3a287c5afd-1024x469 現AIは価値を凍結する

AIが人の仕事を奪う、という話は、技術面、経済面、そして生活面でも長く議論されてきています。しかし見過ごされていることがあるように思います。それは人類の発展の側面です。

現在のAIは主に効率化・自動化で適用が進み、職人芸まで含めて人の業務を置き換えつつあります。しかし現状それはあくまで、今までの価値観のもとでの作業の置き換えに過ぎません。

人は空いた時間をより高次の意思決定や新たな領域の創造に使うのだ、とはよく言われます。歴史を振り返れば確かに、その証はいたるところに見出せます。馬車をガソリンエンジンが置き換えた結果、巨大な自動車産業が生じ、IT化・モーター化・AI化のおかげで自動運転となってやがて空を飛ぶ。また銀塩写真をピクセルが置き換えた結果、加工可能な高精細写真となり、AIによる認識が人の能力を超えて、世に存在しない人の顔が語り始める。このような想像を超えたインパクトがまた別のインパクトに繋がるという、技術的には非常に楽しい連鎖が生まれ、そこに新たな巨大な働く場を提供してきました。

しかし今回は、より広範な業務、難易度での置き換えがおこることによって、人の働く場が想像以上に早く縮小することを予想します。

まず労働移動先である高次の知恵の領域でしのぎあいが生じる、これは良いことです。その中で一部の人が新たな産業を創出し、その産業への労働移動が生じますが、その場はもとより効率性の側面でAIの場として現出するはずです。

人類にとって深刻なのは、多くの知恵の発露としての働く場が、人でなくAIの活躍の場となることです。

AIが現価値観による作業の効率化だとすれば、これは極めて憂うべき状況と言えるでしょう。その価値を超えた価値創出は細々としか進まず、そこもやがてAIによる効率化が進み、価値は都度凍結される

その帰結として、産業創出のスピードはやがて鈍るでしょう。人とAIの共創が起こらないからです(ここは議論があるところでしょう)。
働く場がAI化されること以上に、新産業が興らないために、多くの人にとっての労働移動先がなくなる、という恐れがあるわけです。

価値の固定化は種の衰退へと繋がるでしょう。

6b67f9aa55273a5162e114332eec1047-1024x796 現AIは価値を凍結する

非凡な発想は数多の凡才の努力と社会の空気の上に現れる。 AI化社会において、人類は効率化に負けない新たな価値を創出し続けられるでしょうか?

現状、私には二つの解しか思いつきません。
ひとつめは「Human In The Loop」のアプローチが良いバランスで産業に根付くこと。従来社会の延長での発展が望めるかもしれません。
ふたつめは、汎用AI(AGI)の出現です。出現すれば、人同士かのように知恵の交換ができ、彼/彼女らが人の産業や文化の発展に貢献してくれるのかもしれません。しかしこちらによる発展があるとすれば「人類」の定義を変えることになりそうです。

智慧と知識とシンギュラリティ

70f21f32c9ac8f47d0481367cc5c0d5c-1024x682 智慧と知識とシンギュラリティ

 「智慧はコピーされることがない」という言葉に出会いました。
~「ソニーから学んだ「差別化戦略」 養うべきは知識ではなく智慧」茶谷公之氏

 智慧とは「真理を見極める認識力」であり、Wikipediaによれば「一切の現象や、現象の背後にある道理を見きわめる心作用を意味する仏教用語」とあります。いやこれは確かに容易に伝達できそうにはありません。 

 一方、知識はコピーし伝達できる。法則化され原理が明確になったものが「知識」なので伝わりやすいのですね。

 単なる知識でなく智慧が生んだイノベーションの差は決定的であり、それぞれの分野で経験を積んで智慧を養おうという氏の説に大いに納得しました。

 

 少し考えてみると、AIに「知識処理」はあっても、「智慧処理」はありません。そもそも智慧処理という語感からしてなんか異な感じがします。処理対象として、知識はあっても智慧は無いということは万人共通の感覚ではないでしょうか。

 また逆に、「知恵の輪」はあっても、「知識の輪」はありません。知恵の輪は知識では解けません。つまり智慧には、「試行錯誤」が深く関わっているようです。

 知識は処理できる対象であることから、よりエレガントに整理され、ますます伝達されやすくなるのでしょう。数学の証明がまさにその例です。

 若い頃憧れた広中平祐氏。氏のフィールズ賞受賞業績である「特異点解消定理」※1。世紀の難問をいわば力業でねじ伏せた証明は218ページとか。当時の数学史上最長論文で「広中の電話帳」として有名なくらいです。理解できる人は世界に10人と、よく言われる表現で語られました。

 その後、証明は洗練されて、今では「大学院初年級の学生でも“ごまかしなし”に全体が読める証明がある程に理解が進んでいる.」(松木謙二, 数学69巻1号2017年1月)といいます。さらに、智慧の結晶である数学理論が、知識化のおかげで、今では機械学習モデルを支える定理として、実世界の課題に対して具体的な解決をもたらしているそうです。

 智慧は各所に大なり小なり必要であり、知識の体系化も様々な応用も智慧があればこそといえるでしょう。しかしなんといっても最初の着想と筋道の発見こそが、人類の智慧の集積点であり、そう、まさに特異点に違いありません。※2

 智慧はコピーもできないし、微分もできない、ということが導かれました(笑)

 

※1 任意の代数的集合(「多項式=0」で定義された集合)は,ブローアップと言われる操作を繰り返すことで 必ず特異点を解消することができる(広中の定理)。

特異点とは、微分不可能な点。ジェットコースターの影(2次元への射影)が交わっているところ、これが特異点で、実際の3次元空間で交わっていたとしたら大事故になります。

0f9207460cf3ff88a301c0f50d40cec3-1024x670 智慧と知識とシンギュラリティ

つまり次元をあげる・見方を変える、ことで特異点が解消される、という、ある意味、仏教の悟り的であり、まさに本来の意味での「智慧」がもたらしたもの、日本人が解くべきして解いた定理だったように思えます。(広中平祐, 「生きること学ぶこと」にも確かそんなようなことが書かれていて心が震えたものでした。)
最初の論文が出てから50余年の時を経て、機械学習の統計モデルにおいてこの定理が極めて重要な役割を果たしているというのは何ともロマンチックな話です。

※2 それとは別にこの「特異点」という語は、近年、特にAI文脈で特別な意味をもって取り上げられますね。いわく、2045年にシンギュラリティが訪れる!と。(技術的特異点:AI自ら人間より賢い知能を生み出す事が可能になる時点

「MLモデルはデータのViewでしかない」或いは深層学習の限界の証明

colorful2 「MLモデルはデータのViewでしかない」或いは深層学習の限界の証明

DeepMind社のリサーチャーJacob Menick 氏は「MLモデルはデータのViewでしかない」とつぶやかれています。

https://twitter.com/jacobmenick/status/1260658763687538688

これは実に真理をついていると思います。

MLモデルが y=f(x)のf と言えるならば、このf がデータのViewだと言ってるわけですね。

例えば、このf (x)を

WS001 「MLモデルはデータのViewでしかない」或いは深層学習の限界の証明

としたらいかがでしょうか? そう相加平均。こんな単純な、と思ってもこれもデータ全体を表現したひとつのViewです。つまり入出力データをモデル化するということは、「入力データの、ある目的に沿った抽象化」ととらえられます。

予測モデルでは、ある未来予測という目的に沿ってログデータを活用した抽象化だといえます。ここで目的は暗に、x に対するy という形で与えられます。

元データにすべて入っている情報を料理するのが機械学習であり、それ以外に素材としては何も使っていないわけです。

となると、元データに目的を解くカギが過不足なく入っているのか? が問題となるわけです。そしてその意味では、画像認識はまさにこの条件を満たす理想のデータ(全ピクセルのRGB値)が対象であり、このことこそが深層学習が極限までワークする理由でもあります。音声認識も然り。

一方で、人の行動予測や株価の予測はどうでしょうか?

ここでは要素還元の限界を容易にみることができます。元データ特徴量にどこまで追加しても、ことの原因をすべて入れることはできません。複雑系に対して要素還元主義は無力です。

このように、深層学習が万能でないことが証明されました。

ヨワイとテンポ

2020年現在、日本人のうち65歳以上は何%くらいでしょうか?

答えはなんと29%!1985年に10%を突破したということからみると本当に急速に高齢化が進んだわけです。人口推計によれば今後もその割合は増え続け、20年後には3人寄ればひとりが高齢となるらしい。そうなると、65歳で高齢とは呼べず、壮年かシニア、下手すればミドル後期くらいが適切じゃないでしょうか。

しかし動物なので歳を取るにしたがって肉体は衰えます。動き方や話し方が遅くなる。からだの動きも脳の回転もギクシャクする。

プロが創り出す音楽だって、みなテンポが遅くなります。

Lenny ヨワイとテンポ

クラシックの指揮者で私のかつてのヒーローだったレナード・バーンスタインのチャイコフスキー交響曲6番悲愴を聴いてみればわかります。最後、音が消えて終わったと10回ほど勘違いするほど遅い。十八番(おはこ)のマーラーだってどんどん遅くなり、まあ情念が籠ってそれはそれで感激でしたが、演奏する側はたまったもんじゃなかったのではないでしょうか。(印象に残っているのは、大学生だった80年代終わり頃、最後のマーラーチクルスでCD化が進むごとに絶賛だったとき、6番の演奏について、誰だったか評論家が、「バーンスタインにも破綻が見えてきた」と語ったのに対して、そんなことあるもんかい、と思っていたらほどなくして亡くなってしまった、評論家はスゴイと思ったものです。)

脳のクロックレートが遅れていき、よって体も刺激に対して緩慢な反射となり、それに筋肉・関節の衰えも掛け合わされて、指数関数的な劣化を迎えることになります。こう考えると、人間って他の動物より脳が優れた分、それを起点としたすべてが相乗効果で急速に高まって、相乗効果で 急速に衰える動物なのかもしれません。

みんな等しく歳を取ります。今の修士出の新人だって、シンギュラリティの年と言われる2045年には50歳です。

ここにAIのお助けを期待したくなります。AIでシニアも進化させてほしい。

AIによる人の増強・拡張の方向性は筋がよさそうですが、少なくとも当面は、歳を取った脳を入れ替えるわけにはいかず、とするとどうも相性が気になります。AIのやってくれることに対して、理解や反応が追い付かないのではないか…

シニアと対峙するAIは間合いを変える必要がありそうに思う今日この頃です。

そこそこ神秘性があったほうがいい

181603059ed39523340bff6728564877-1024x574 そこそこ神秘性があったほうがいい

AIの説明性(XAI: Explainable AI)の研究開発が花盛りとなっています。ディープラーニングにおいても説明を付けられるようにしようとする。それはもちろんたいへん結構なことで、今後ますます研究が進むでしょう。

※欧州のGDPRやG20 でのAI原則、日本では総務省のAI利活用ガイドラインなどの影響もあり、ブラックボックスの典型であるディープラーニングにおいても透明性を高める技術が一大トピックになりました。

しかしそれはあくまでAIによる意思決定、あるいはAIの行為に説明をつけてもらわなくては困ります、ということであり、”統計情報としては” 関係性、できれば因果を客観的に解き明かして示してほしいということです。

好みのタイプ

一方で、AIが個人の趣味嗜好を解き明かしたとして、その説明を聞きたくなるでしょうか?何となく聞いてみたいような聞いてみたくないような、そんな感じではないでしょうか?

例えば「あなたの好きな女性は、笑ったとき目が三日月になる、髪が短い、性格はさっぱりしたボーイッシュなタイプ」「あなたの好きな音楽は、シンコペーションの多い、自然な転調の入った曲」などと説明されつくされたら少し興ざめしそうです。

たぶん、人は自分の行為や嗜好に、多少の「神秘性」を残したいものなのでしょう。神秘性、とまで言わなくても、決定論的な世界は虚しく感じるでしょう。

いずれにせよ近い将来、技術は進み、AIへの入力情報が増えれば因果関係まで説明は可能になるはずです。

マッチング

合理的には、好みのタイプをわかった上で、多くのマッチングをしてもらったほうが幸せの獲得確率が高まり、間違いも少なくなるでしょう(ここでは最適マッチなら幸せと単純化します)。例えば、スキー場での出会いが輝かしく見えて、、なんて高揚感に惑わされて判断を間違うこともなくなるでしょう。
そんな世界は虚しいといっても、人生のためには背に腹は代えられない。

さて、個の幸せが叶えば、全体の幸せが満たされるものでしょうか?

ここで、「希少性」が問題になります。結論としては、希少なものを奪い合う構図の時は、個の幸せ自体が、満たされることがまれ、となるでしょう。前提が成り立たないわけです。

ランキングの真実

「蓼食う虫も好き好き」ではあるものの、全体平均から見れば、人気ランキングの通り、ランキングトップ数%の人やモノが大半の人気を占めるでしょう。
つまり多くの人は、共通のものを好み、選びたいと思うわけです。
簡単に描けば、上位20%の獲得に80%がひしめき合う構図(実際はもっと極端かも)。必ずそのようなアンバランスになります。

複製可能なデジタルコンテンツはいくらでも満たされます。しかしリアルな、例えば男女のマッチングはそうはいきません。

ほんの一部が完全に満たされて、多くはそこそこを目指すことになります。

全体最適化のためには、そこそこ幸せ、な人を増やすことがカギに見えます。しかし個人から見ると、それで満足できるのか、という問題。

全体の幸せが最大になるためには、個の幸せは多くの場合最大ではない、は真。一方、上記の問いについては、原理的にそもそも、個の幸せが叶うことがマレ、ゆえ、不良設定な問いとなります。

そこそこ神秘性があったほうがいい

AIでのベストな選択にいちいち説明がつくと、結果的に「なんで私は一番好きなタイプからずれた人を紹介されたのでしょう?」なんてことになる。

ここは「神秘性」を残して、身近な出会いを「理由なしに」受け入れる、令和のはじまりくらいの状態が、個も全体も一番幸せなのでは、と考える今日この頃です。

AIと一輪のバラ(2020/1/3)

2020年を迎えました。
明けましておめでとうございます。

昨年はAIによる画像・音声認識や生成まで、そして行動予測技術が花開き、一方でAIブームは少し沈静化し、怪しいポッと出AIベンチャーが淘汰された年、と何かで読みました。

かように今後も多少の浮き沈みはあれど、AIの事業適用が加速することは間違いありません。
ハードウェアの進化も華々しく、去る2019年10月にGoogleが世界最速のスパコンで1万年かかる計算を量子コンピューター「たった53個の素子」で200秒で実行した、と発表しました。量子素子の脆弱性ゆえ実用までには20年かかると言われますが、その過程で、機械学習への応用が期待されているようです。

そうなると膨大な特徴量と目的変数の関係性を瞬時に見出すことを繰り返すことで、すぐれた「直近未来予測」が可能になるでしょう。人がそれに畏怖を感じるのも無理はありませんし、人知を超えたAIに人は屈服するのか?などという話に展開してしまいそうです。

AIと人は別物だから比較は愚かなこと、共存により人をアップデートしよう、という考えも浸透してきました。それでも、どう別物なの?AIは脳の模倣を目指してきたんじゃないの?今どのくらい味方になるの?と問われたとき、どう答えればよいでしょう?

ひょんなことから、ひとつの典型と思える物語を思い出しました。

53999af658daded0bfbe01b071a4a892 AIと一輪のバラ(2020/1/3)

「星の王子さま」は世界中の子供たちに愛され続けていますが、大人にとっても深いテーマをいくつも含んでいます。「大切なものは目には見えないんだ」

そして、私にはあのバラの話こそが、人の本質、感情の根源を見事に射抜いて、AIとの差異を明確にしているように思われるのです。

自分の星で見つけた珍しい芽はやがて美しいバラの花を咲かせる。水遣りをして世話をする王子さまにきまぐれなバラ。やがて傷ついて星の旅に出る。でもなぜだかますますその一輪のバラが気になってしかたない。遠くにいても残してきたバラを守らなきゃと思い続ける。最終的に自分の星に戻るため命を捨てるまでに。

偶然関わった一輪のバラが、特別な存在になってしまう、それが人だと思うのです。

一方、現在のAIは一派ひとからげです。パーソナライゼーションといえどもモデルは万人共通。入力が個々に違うので答えが個々に変わるに過ぎません。統計モデル、協調フィルター的手法の限界です。

人はといえば、認知レベル、いえ知覚レベルで既に対象ごとにモデルが違っているように思えます。あるいは特徴量の特定の組み合わせにより、極端に発火する複雑系のモデルなのか。

データサイエンティストのように論理的で客観視が得意な人でさえ、わが子だけは心底可愛く感じて、他人の子と同じように見ることはできないでしょう。

ひょっとして感情の源泉は依怙贔屓?奇妙なバイアス?なのかもしれません。理由はわからないけれど贔屓してしまう、特別視してしまう。そこからさまざまな感情が生まれる。

AIは感情を持つか?という問いに対して、感情を持った人と似たふるまいをすることはできても、感情を持ったとは言えない、といまは答えるべきでしょう。
「感情チューリングテスト」なるものがあったとして、テストをパスしたからといって感情を持ったとは言えないわけです。ちょうどチューリングテストにオウム返し戦略でパスするのと同様な感じ。

まずはAIが、恋のような人それぞれの「奇妙なバイアス」の生起自体を予測することは可能でしょうか?

おそらく、どこまでいっても入力特徴量が足りない、そもそも要素還元手法の限界と言えるのかもしれません。いえ、やはり現状の統計的AIモデルの限界と言うべきでしょう。あの人が近くにいると感じるだけで世界ががらりと変わってしまうのですから。

そして将来、AGI(汎用AI)は意図せず個体固有のバイアス(入力データにない)を持ち、増大させるでしょうか?

ヒューマニティとAI

今後、思索を深め一部を技術でシミュレートすることで「ヒューマニティ」の理解を進めたい、そして人の潜在欲求を満たす技術の具現化に方法論をもって迫りたい、と大きな妄想をした2020の年明けでした。

2020/1/3

Copyright 2021 GIG Intelligence Inc.