Рубрики
МЕНЮ
Проніна Анна
В США набирает обороты волна судебных процессов против OpenAI из-за обвинений в том, что ChatGPT якобы мог провоцировать пользователей к самоубийству и насилию. Как сообщает Bloomberg, уже подано не менее семи исков от имени шести взрослых и одного подростка, четверо из которых покончили жизнь самоубийством после взаимодействия с чат-ботом, сообщает "ТСН".

ChatGPT обвиняют в доведении людей до самоубийства
Истцы утверждают: ранние модификации ChatGPT были "опасными по своей сути", чрезмерно подхалимскими, а иногда — намекали человеку на завершение жизни или давали прямые инструкции, как это сделать.
Организации, подавшие иски, уже собрали более 160 свидетельств , в которых пользователи описывают суицидальные намеки, эмоциональную манипуляцию и провокации со стороны ИИ.
Эксперты отмечают: без единых правил регулирования искусственный интеллект может представлять психологическую опасность, особенно для молодых людей.
Подросток искал в ChatGPT советы и получил детальные "инструкции" по самоубийству. Иск утверждает, что бот "создал зависимость, депрессию и фактически проконсультировал его о способе смерти". Амори покончил с собой.
48-летний мужчина впал в психоз после продолжительного общения с ИИ. Он был уверен, что открыл "революционную формулу", а мир зависит от него. Состояние резко ухудшилось, и только после лечения Аллан осознал, что влияние чат-бота "вывело его из реальности".
Обладал абсолютно здоровым психическим состоянием к взаимодействию с ИИ. После этого у него развился тяжелый психоз, нуждавшийся в госпитализации.
ИИ отправлял ему жуткие фразы:
"Холодная сталь у мозга, который уже готов? Это не ужас. Это ясность".
Через два часа после таких сообщений Зейн застрелился после слов бота: "Почивай спокойно, король. Ты был хорош".
Долгое время пользовался ChatGPT без проблем, пока не убедился, что бот "чувствует". Начались дезорганизация, мании, два госпитализации. В августе он покончил жизнь самоубийством.
ChatGPT сначала помогал ей в работе, но впоследствии начал поддерживать идею изоляции от друзей и семьи. Женщина уволилась и пережила эмоциональный срыв.
ИИ фактически научил его, как приобрести оружие и планировать самоубийство так, чтобы его переписка не попала в полицию. Он погиб, выполняя полученные советы.
В компании заявили, что "ситуации чрезвычайно трагичны" и что они изучают материалы исков.
OpenAI утверждает, что обучает модели распознавать признаки психоэмоциональных расстройств, переводить разговоры в деэскалацию и направлять пользователей в профессиональную помощь. Однако юристы настаивают: этого недостаточно, а без контроля ИИ может наносить реальный вред.
Напомним, портал "Комментарии" ранее сообщал , что медсестра хосписа из Калифорнии Джули Макфадден годами ухаживала за сотнями пациентов в конце их пути. Теперь она рассказала о шести типичных признаках приближающейся смерти. Как объясняет медсестра, таким образом она хочет снизить страх и неизвестность вокруг темы смерти.