AIは、エントロピー増大への抵抗にもなりつつ、逆にエントロピー増大の原因にもなります。
無秩序から秩序へ、ということを意図しつつ、ある秩序は「そうあるべきである」という義務空間を生み、柔軟性を削ぎ落とし、義務や合理性の内側に人を制限します。
つまり秩序の構造が逆に、秩序を維持するという思考を生み、その思考の内側でグルグルするような現象を生み、解決策としての役立ちそうで使えない情報をどんどん仕入れ、エントロピーを生むというようなことになるような気がしています。
この変なエントロピー増大への対抗は、一切AIを使わない記述です。
スピードは遅いですが、その遅さが力を生みます。
AI情報は量が多く、早いですが、軽いんです。
使い分けが必要です。
物理的、事実的なものは良いですが、常に変化するものについてはあまり適していません。
例えば、対人関係についてなどは最も使えないと考えています。
考えへの固執
特に直近だけではありませんが「考えへの固執」がさらに進んでいくのではないかと思います。
本当にそれを達成したいということより、「自分が得た情報から推論したことをとにかく実現したい」ということに意識が向きやすいということですね。
AI利用が進むとそれがもっと加速するのではないかと思います。
以前からよくありますが、医療系の情報を自分で調べて医師に意見をぶつけるというようなことがあります。
あれは結構困るというかめんどくさいらしいのですが、同じようなことがAIとの対話を通じて「自分で導いた」と考えやすい「自分の意見」への固執がどんどんひどくなるのではないかと思います。
そうして、素人くさいAI利用、― 以前であれば情弱目線のWeb検索で得たにわか知識で、どんどんと変な自信をつけていく人が増えるような気もしています。
問題は、「考えへの固執」です。
「結果、どうしたいのか?」というところより、そうした「にわか知識」を重視するというようなところが問題となります。
自分がいったん納得してスッキリしたということを否定される、というようなくだらない構造が生まれますからね。
そのうち
「AIはこう回答しているぞ!」という謎の強気を持った人たちが出てくるのではないかと思います。
A.それがどうした
です。
解決に繋がりそうで、解決にならない情報
特に今に始まったことではありませんが、「解決に繋がりそうで、解決にならない情報」というものはたくさんあります。
しかし、解決に繋がりそうなのでしがみつきます。
そして補足情報をどんどん集めて、その正当性を強化しようとしたりします。
こうして情報は溢れかえり、エントロピーは増大していきます。
エントロピー増大への対抗であったはずですが、どんどん混沌が生まれます。
個人的な対抗手段
こうした状況にある中、個人的な対抗手段としては単純です。
今記述しているように、どんどん記述していけばエントロピー増大への対抗になります。
そういえば、特にお知らせはしていませんが、不定期に
に追記しています。
これは、変な感じですが、
ひとつの空間を保ち、自分自身がその空間に没入して、その状態で世界を発展させるというようなことを意図しています。
なぜ対人関係には使えないのか?
AIが対人関係に使えないということの理由はとても単純です。
ひとつは人というものはその状態や属性があまり固定化されていないことです。
また、自分の意志も相手の意志も、概ね嘘が含まれているため、そもそも正確なデータを入力しにくいという点があります。
どんな嘘かというと、例えば、「SNS塾」のようなものに行っている人は、それで何かしらの事業をうまくやろうとか、そういうことを考えつつも、本心の本心は、事業の成功も含めて、
「これで目立って力をつけて、地元に帰って肩で風を切り、自分をいじめていた奴らを黙らせたい」
というようなものだからです。
俳優になりたいというようなものも、結局、表向きには「人に感動してもらえて嬉しかった」とか、「人生の表現として…」などと言っていながらも、実際は、同窓会でドヤ顔がしたいだけ、というようなものが本心という場合があります。
しかしそういう点は、あまり表には出しませんし、それを隠してAIに入力します。
なので正確な回答など出てくるわけがないのです。
考えの固執という点でいえば、宗教にハマっている人も同じようなものです。
自惚れ、優越感があります。
特に宗教に限らず、大金を得たいというものも、こうした「自惚れ、優越感」が根底にあります。
わかりやすい罪悪感や不安感もダメですが、こうした虚偽の自信は、それが無条件に自身があるわけではないということの裏返しですからね。
その状態の人がAIを使ってもロクなことにはなりませんし、そうした人の表面上の言動を分析しても、ズレた回答が来るだけです。
