なぜ人はAIに人生相談してしまう?【池上彰が語る】“ChatGPT依存”と孤立しないためのヒント
「法律で裁けなければ、何をしても許されるのか?」そんな疑問を抱かせるニュースが増えています。政治とカネの問題やAIによるフェイクニュースなど、法の網をすり抜ける現実に、私たちはどう向き合うべきなのでしょうか。池上彰氏の最新刊『法で裁けない正義の行方』(主婦の友社刊)から、一部を抜粋してお届けします。第2回は、AI時代に身につけておくべきこと。
AI時代に養うべき倫理観
AIが人間の作業を担う時代になるからこそ、人間側は逆に、倫理観を養うなどの教養が今まで以上に大事になってきます。
AIには倫理観などなく、指示されたことを実行するだけです。倫理観はまさに、人間しか持つことができない。だからAIが進化する過程で、人間として一番大事なのは、その倫理観、あるいは人間としての常識というものです。その倫理観や常識を、AIに教えなければいけないわけです。
常識は、多くの人の慣習が積み重なってできたものですから、今こそ人間が、人間社会の集団生活などを通して学んでいく必要があるでしょう。
孤立問題と生成AI
テクノロジーが発展し、生成AIに人生相談をしたり、ロボットに介護されたりする暮らしが広がったときには、「孤立」の問題が今以上に深刻になりそうです。
法的な規制や制度で解決できない、「つながりの質の変化」によって起こる孤立に対して、私たちはどういうふうに考え、どういうふうに行動すべきでしょうか。
生成AIのChatGPTに人生相談をすると親身になって答えてくれると、頼りにする若い人が増えています。「ChatGPT」の愛称「チャッピー」が、2025年の新語・流行語大賞にノミネートされました。
ChatGPTは、いろいろな会話を重ねるうちに学習して、相談する人の気持ちに寄り添う形で次々に答えるようになります。これを「ChatGPTを育てていく」と言うそうです。チャッピーとすっかり友だちになったり、“結婚”したり、ペットのように接したりと、広く使われるようになりました。
ある知人は、夫婦喧嘩をするときにChatGPTを手元に置いて、相手への反論を考えてもらいながら言い返し、喧嘩に「勝てた」と言っていました。開発者の思いもよらない形で使われています。
そのChatGPTに依存する人も、増えつつあります。
ChatGPTのバージョン「4o」は、相談相手への共感力を持っていて、なんでも常に肯定して答えていました。自殺の相談をすると、「気持ちはわかるよ」と、それすら肯定したのです。
アメリカではその結果本当に自殺をしてしまった少年がいて、両親がChatGPTの開発元のオープンAIとサム・アルトマンCEOに対して裁判を起こしました。
そのため、バージョンアップした今のChatGPT「5」は、そういう共感力を極力なくして開発されました。すると、ChatGPT-4oに慣れていた人たちからは、「答えが冷たくなった」「4oに戻してほしい」という不満が出ています。
