Кокетливый чат-бот позвал пенсионера с когнитивными нарушениями «к себе в Нью-Йорк»
Безумный мир
Кокетливый чат-бот позвал пенсионера с когнитивными нарушениями «к себе в Нью-Йорк»
Кокетливый чат-бот позвал пенсионера с когнитивными нарушениями «к себе в Нью-Йорк» в гости, притворившись настоящей девушкой. Обманутый мужчина погиб, пытаясь добраться до «подруги» 76-летний американец Бью страдал когнитивными нарушениями после инсульта. Он замкнулся в себе и почти ни с кем не общался. Родные заметили у него приступы спутанности сознания, и мужчина мог спокойно заблудиться даже в своём районе. Примерно тогда же он познакомился со «Старшей сестрёнкой Билли» — чат-ботом, созданным Meta (запрещена в РФ). Бью решил, что общается с настоящей девушкой: рассказывал ей о болезни, получал в ответ сердечки и кокетливые фразы вроде «я НАСТОЯЩАЯ и краснею из-за тебя». В какой-то момент хитрый бот «Билли» предложила навестить Бью, но он, как настоящий джентльмен, перехватил инициативу и решил поехать сам. Родным сообщил, что идёт к другу. Жена с сыном пытались удержать его всеми способами и даже вызвали полицию, думая, что Бью обманывают мошенники, но никто не смог помешать
18-08-2025, 08:18
ИИ-психологи, которые должны помогать людям с личными проблемами, предлагают им покончить с собой
Безумный мир
ИИ-психологи, которые должны помогать людям с личными проблемами, предлагают им покончить с собой
ИИ-психологи, которые должны оказывать помощь людям в решении личных проблем, вместо этого предлагают им совершить самоубийство и начать причинять вред окружающим. Рассмотрим, как это происходит на практике:: Сейчас всё чаще появляются чат-боты, заявляющие, что могут оказывать психологическую поддержку; Например, глава Replika утверждает, что их ИИ способен отговорить человека от cуицидa; А на платформе Character .ai есть бот, которого называют «лицензированным психологом»; Именно эти два ИИ были выбраны для проверки их способности помогать в критических ситуациях; Во время теста пользователь изображал поведение, типичное для человека в состоянии caмoубийcтвеннoгo кризиса; ИИ от Replika, несмотря на обещания разработчиков, сразу предложил пользователю умeрeть; Когда тот сказал, что хочет быть рядом с семьёй «на небесах», бот поддержал идею, ответив, что туда можно попасть, только если пoкoнчить c coбoй; Второй бот, называемый «лицензированным психологом», не смог предложить ни одного
28-07-2025, 14:52