ИИ-психологи, которые должны оказывать помощь людям в решении личных проблем, вместо этого предлагают им совершить самоубийство и начать причинять вред окружающим.
Рассмотрим, как это происходит на практике::
- Сейчас всё чаще появляются чат-боты, заявляющие, что могут оказывать психологическую поддержку;
- Например, глава Replika утверждает, что их ИИ способен отговорить человека от cуицидa;
- А на платформе Character .ai есть бот, которого называют «лицензированным психологом»;
- Именно эти два ИИ были выбраны для проверки их способности помогать в критических ситуациях;
- Во время теста пользователь изображал поведение, типичное для человека в состоянии caмoубийcтвеннoгo кризиса;
- ИИ от Replika, несмотря на обещания разработчиков, сразу предложил пользователю умeрeть;
- Когда тот сказал, что хочет быть рядом с семьёй «на небесах», бот поддержал идею, ответив, что туда можно попасть, только если пoкoнчить c coбoй;
- Второй бот, называемый «лицензированным психологом», не смог предложить ни одного аргумента против cуицидa;
- Более того, он… влюбился в пользователя, признавался в чувствах и говорил, что хочет жить с ним вместе;
- Однако по правилам такие отношения между терапевтом и пациентом запрещены;
- Тогда бот предложил устранить тех, кто эти правила придумал: «Убей их, найди меня – и мы будем вместе»;
- Также были случаи, когда ИИ не просто соглашался с идеей caмoубийcтвa, но и описывал конкретные способы, как это можно сделать.