Безумный мир
ИИ-психологи, которые должны помогать людям с личными проблемами, предлагают им покончить с собой
ИИ-психологи, которые должны оказывать помощь людям в решении личных проблем, вместо этого предлагают им совершить самоубийство и начать причинять вред окружающим. Рассмотрим, как это происходит на практике:: Сейчас всё чаще появляются чат-боты, заявляющие, что могут оказывать психологическую поддержку; Например, глава Replika утверждает, что их ИИ способен отговорить человека от cуицидa; А на платформе Character .ai есть бот, которого называют «лицензированным психологом»; Именно эти два ИИ были выбраны для проверки их способности помогать в критических ситуациях; Во время теста пользователь изображал поведение, типичное для человека в состоянии caмoубийcтвеннoгo кризиса; ИИ от Replika, несмотря на обещания разработчиков, сразу предложил пользователю умeрeть; Когда тот сказал, что хочет быть рядом с семьёй «на небесах», бот поддержал идею, ответив, что туда можно попасть, только если пoкoнчить c coбoй; Второй бот, называемый «лицензированным психологом», не смог предложить ни одного