ChatGPTは文脈を理解する。
ただし、これは「この文意のときは、次にこういう話がくる確率が高い」
という統計上の確率で展開しているに過ぎないのだという。
同じ理由でAIが感情を理解したように見えるのは、
統計的に同じ状況からの学習にすぎないのだという。
「なあんだ、そうなんだ。たいしたことないな」と思うのは早計。
これって人間もやっていることなのでは?
人間の場合は、統計というより経験だ。
そう考えると、AIが極めて人間的な思考をすることはできるように
なるのかもしれないと思ったりする。
しかし、人間の言動は、実際のところ感情に左右される。
そしてやっかいなのは、感情は理路整然には動かないということ。
人間には矛盾する内面を有するという特徴がある。
たとえば、それほど会いたいと思っていなかった人が死んでも、
会いたいと思って寂しく感じたりする。
それほど会いたいと思っていないのなら、
寂しく感じる必要もないのに、実際はそうならない。
こういう理屈では説明できないものがあるのが人間だ。
ただ、この内面を解き明かすことは、人が仕事をして、
何か価値を生んでいるから成り立つ。
言うまでもなく、矛盾する内容の話を小説などで買う人は、
そのためのお金を労働で稼いでいるからだ。
つまり、人向けに書くにはその人が何か別の価値を生むことが
前提となる。
人が買えなくなったら、誰もそれを必要としなくなる。
感情とか矛盾とかを考える必要はなくなり、
理屈で通る世界だけで世の中が動くことになる。
こうなるといよいよ人は働かなくなる。
働かなることは、労働から解放されるという側面と、
生きがいを失くすという、相反する2つの側面がある。
労働しなくてもやりがいを得られる方法が必要になる。
「労働から解放されてもやりがいを持って生きていきたい」
そう思う、割り切れない、めんどくさい存在が人間ということだ。