「矛盾」がキーワード 

ChatGPTは文脈を理解する。

ただし、これは「この文意のときは、次にこういう話がくる確率が高い」

という統計上の確率で展開しているに過ぎないのだという。

同じ理由でAIが感情を理解したように見えるのは、

統計的に同じ状況からの学習にすぎないのだという。

「なあんだ、そうなんだ。たいしたことないな」と思うのは早計。

これって人間もやっていることなのでは?

人間の場合は、統計というより経験だ。

そう考えると、AIが極めて人間的な思考をすることはできるように

なるのかもしれないと思ったりする。

しかし、人間の言動は、実際のところ感情に左右される。

そしてやっかいなのは、感情は理路整然には動かないということ。

人間には矛盾する内面を有するという特徴がある。

たとえば、それほど会いたいと思っていなかった人が死んでも、

会いたいと思って寂しく感じたりする。

それほど会いたいと思っていないのなら、

寂しく感じる必要もないのに、実際はそうならない。

こういう理屈では説明できないものがあるのが人間だ。

ただ、この内面を解き明かすことは、人が仕事をして、

何か価値を生んでいるから成り立つ。

言うまでもなく、矛盾する内容の話を小説などで買う人は、

そのためのお金を労働で稼いでいるからだ。

つまり、人向けに書くにはその人が何か別の価値を生むことが

前提となる。

人が買えなくなったら、誰もそれを必要としなくなる。

感情とか矛盾とかを考える必要はなくなり、

理屈で通る世界だけで世の中が動くことになる。

こうなるといよいよ人は働かなくなる。

働かなることは、労働から解放されるという側面と、

生きがいを失くすという、相反する2つの側面がある。

労働しなくてもやりがいを得られる方法が必要になる。

「労働から解放されてもやりがいを持って生きていきたい」

そう思う、割り切れない、めんどくさい存在が人間ということだ。