人は好みに応じて情報を選び取る。つまりバイアスがかかった情報が脳にインプットされる。
選択は環境のせいかもしれませんが、本人は本人の意志だと感じている。その繰り返しがまた好みを作ります。
一方、AIに好みはありません。教師データによってバイアスが生じるだけ。しかし、LLM(Large Language Model)の時代になり、そのデータが世界全体となった結果、バイアスは(一般的レベルでは)消えました。
バイアス無しに意思決定できるでしょうか?意思を持てるでしょうか?
そもそもバイアス無しの好みとは言語矛盾ではないか?
バイアスを持ったAIを想定しましょう。昔のMicrosoft Tayでもよい。
あれは、善悪で問題を引き起こしたわけですが、そのバイアスゆえに人っぽい存在にはみえたのではないか。一貫性が感情・感覚の所在として捉えられたのかもしれません。
LLMを巨大知識・常識マシンに据え置くか、人格を感じて付き合いたいか?
後者を求めるなら、特定の偏り、バイアスを持たせることが必須でしょう。
(これは身体性や世界の理解の話1※1とは異なります)
AIにバイアスを与えるには、どうすればよいのでしょう?
論理でなく、感性(好み)でも、LLMには言語化して伝えるしかありません。
教師ありのFineTuning 、あるいは、DeepSeekR1Zero の取った方法論である、強化学習、知識蒸留が、推論モデルでなく感性の制御に活用できるのでしょうか?
偏り強化学習は生活環境で生じさせるのがよいのかもしれません。寝食を共にすることがAIにとっても大切。
その過程なしでLLMを友達とみなしたら、不気味の谷に落ちて悲しくなるのが落ち。AIは友達でなく先生、とみなしても、おそらく同じ結末になるでしょう。
人と人との関係性は、偏りに対する違和感あってこそ。
~「煙草くさき国語教師が言うときに明日という語は最もかなし」(寺山修司)
- 例えば、“AIのゴッドファーザー”が提案する、未来のAIを友好的に保つ方法(Wired 23.08.16) ↩︎
Share this content:
コメントを残す