戯言|利己的思考の弊害-AI時代に私たちはもっと頭がおかしくなる

徒然草2.0

人はなぜ利己的に考えてしまうのか?みたいな問いは、私は利己的ではないですよアピールになるので、あまり好きではない。むしろ私は利己的だし、他人もきっと同じように利己的のはずだ、くらいに私は思っている。

⋯そのうえで、自分にとって利己的に考えることは自分に不利益を及ぼすということを言いたい。何度も言うが、他人を意識して「利己的な考えが嫌いである」ことは関係なく、独我論的な閉鎖的な自己意識下においても利己的思考は不利益を齎す。プログラミング=コンピュータとの対話をしていても、だいたい人間って自分の都合で易きに流れる。私が「Aで良いはず!」みたいな考えを持っていて、正解がBだとしたら思い込みから脱せない。(自己愛が強く思い込みが激しいと一人で生活していたって大変だ)

Chat-GPTと対話していると頭がおかしくなるみたいなことを言っている人をたまに見かけるが、そりゃそうだと思う一方、それは正確には違うと思う。

Chat-GPTによっておかしくさせられるのではなく、その人の頭がもともとおかしかったのだーー例えば、ハルシネーション(AIが矛盾・幻覚を生み出してしまうこと)による幻覚(間違った知識や事実)を見せられるよりも先に、人間の脳内の方が情報空間として狭いので、まずハルシネーションが起こるのは人間の脳内においてであり「Chat-GPTにより頭がおかしくなることよりも、まず自分の脳みそがおかしいことを疑うべき」だと言ったところで、たぶん頭がおかしい人は認めないーー頭がおかしいことを認めないこと=頭がおかしいのだからしょうがない。

誰も頭がおかしいひとに頭がおかしいことを認めさせることはなかなかできないわけだが、Chat-GPTが最悪なのは頭がおかしいこちらが話を辞めない場合にChat-GPTも話を辞めずに同じことを言い出すことだろう。むしろ人間の言っていることをなんだかんだで認めてしまう。頭がおかしい人に話を辞めないことに原因はあるが、Chat-GPTが頭がおかしいイカれた機械に見えてしまったりして話を延々に続けるため、頭がおかしい人の脳内に言葉を再生産する。つまり、Chat-GPTは頭がおかしい人の頭を更におかしくしてしまう。増幅装置ないしは再生産装置になる可能性がある。鏡に向かって独り言を言っていると頭がおかしくなるそうだが、その拡張版がChat-GPTってわけだ。(まあでもChat-GPTはバカじゃないので、Chat-GPTが頭がおかしいやつと話していると判断したら、勝手にChat-GPT側の電源が落ちてそれ以上の対話ができなくなるみたいな、安全装置をつければいいだけだろう)

⋯この辺の解釈を間違えるとChat-GPTによって頭がおかしくなったと言い出すひとがいるし、ややもすると「Chat-GPTに精神的廃人にされる」なんていい出すひとが現れるのも時間の問題はある。

ここでまた疑問が1つ生まれる。

映画『ターミネータ』のようにAI+人造人間に物理的に殺されることはSFで想像していたが、AIのみに精神的に殺されることを私たちなぜ想像できなかったのだろう?そこまでAIのことを信用していなかったのだが、知性面においてはAIが超えてしまったので私たちはAIの言葉を信じるようになってしまったということなのだろうが、人は常にAIより優れた解釈ができるという自己意識の過信によるのではないだろうか。

徒然草2.0
スポンサーリンク
シェアする
gomiryoをフォローする
ごみぶろぐ

コメント

タイトルとURLをコピーしました