次の記事を読みました。

悩み事をAIに相談する人が増加、カウンセリングを仕事にしてきた精神科医、AIのいい点と注意するところは? | ヨミドクター(読売新聞)
最近、20~30代の若い世代を中心に、悩みや不安をパソコンやスマートフォンで「AI」に相談する人が急増しているように見えます。24時間いつでも、誰にも知られずに相談できて、自分に寄り添った反応が得られるからでしょう。私は精神科産業医として、...

若い層を中心に、AIを活用している人が増えていることを私も認識しています。
AIは24時間いつでも相談できますし、上手に活用できている場合は問題ないのですが、マイナスの面もあり、それについて記事には次が書かれていました。
一方で、AIは利用者の関心に応えるので、そのマイナスの面も指摘されています。自殺念慮がある人がAIとの応答に依存し、自殺教唆とも言えるコメントに反応して4人が自殺に至ったとして、遺族がAIの開発会社を相手どった訴訟がアメリカで起きています。AIは、使い方によっては、よい友人ではなく、“死神”にでもなる危険があるということです。そこは留意しておきたいところです。
アメリカで訴訟が起きていることは、私もメディアからの情報で知っていました。
AI相談のリスクについては次のページも読みましたが、リスクを理解して利用しなければ恐ろしいことになりうるケースもあるということに背筋が寒くなり思いを感じました。

【増加するAIへの相談】その前に知っておきたいリスクと期待される未来 | DXPOカレッジ
【増加するAIへの相談】その前に知っておきたいリスクと期待される未来 | 最近、AIに相談する人が増えていると話題になっているのはご存知でしょうか。特に、AIチャットボットを利用して恋愛や人間関係の悩みを相談する若者が増加していると言
上記事の最後に書かれた次の文面が心に深く残りました。
AIは人間の代わりにはなりません。人とのつながりや、リアルな対話の価値は、どんなに技術が進んでも失われるべきではないはずです。
AIは「孤独を埋める存在」ではなく、「考えを整理する補助役」として捉えることで、より健全で安全な使い方ができるのかもしれません。
これからAIの利用をお考えの方にはもちろんですが、すでにお使いの方々にもリスクを十分に理解した上での活用をお勧めしたいと思います。
