Трагедия после советов искусственного интеллекта: студент умер, доверившись ChatGPT
Разговоры с чат-ботом продолжались полтора года - теперь семья требует ответов, а компания-разработчик делает заявление.
В США разворачивается громкий общественный и нравственный скандал , связанный с использованием искусственного интеллекта. 19-летний студент Калифорнийского университета в Мерседе Сэм Нельсон умер от передозировки после продолжительных консультаций с чат-ботом ChatGPT по употреблению наркотических и успокаивающих веществ. Об этом сообщает The Telegraph.
По имеющейся информации, парень учился на факультете психологии и в течение примерно 18 месяцев регулярно обращался в чат-бот за советами , связанными с сочетанием различных веществ. В частности, речь идет о Xanax (алпразолам) — сильнодействующем успокаивающем препарате и кратом — растительном экстракте с опиоидными свойствами, который может вызвать зависимость.
Журналисты утверждают, что транскрипты переписок свидетельствуют: чат-бот якобы предоставлял подробные рекомендации по дозировке и в отдельных ответах уверял в относительной безопасности таких комбинаций . Именно это стало предметом пристального внимания со стороны семьи погибшего и экспертов.
Последний диалог перед смертью
В день трагедии Сэм Нельсон снова обратился к ChatGPT с вопросом, может ли Xanax снизить тошноту после употребления кратома . По данным издания, вскоре после этого мать нашла сына мертвым в его спальне . Медики констатировали смерть от передозировки.
Этот случай уже называют одним из первых резонансных примеров , когда искусственный интеллект оказался в центре расследования, связанного с реальной гибелью человека.
Реакция OpenAI
В компании OpenAI , разрабатывающей ChatGPT, отреагировали на сообщения о трагедии. Представители компании назвали ситуацию трагической , выразили соболезнования семье погибшего и подчеркнули, что политика платформы запрещает предоставление советов, которые могут нанести вред здоровью или жизни .
В заявлении подчеркивается, что модели должны отказывать в опасных запросах , оказывать осторожные ответы и поощрять пользователей обращаться за реальной медицинской или психологической помощью , а не полагаться на искусственный интеллект.
В то же время, в компании не подтвердили подлинность обнародованных транскриптов и отметили, что продолжается внутренняя проверка .
Почему эта история важна
Эксперты подчеркивают: трагедия в США вновь подняла вопросы границ ответственности искусственного интеллекта , а также опасности использования чат-ботов в качестве замены врачам или психотерапевтам . ИИ не несет юридическую ответственность, но для многих пользователей он становится источником "авторитетной" информации.
Специалисты предостерегают: ни один алгоритм не может оценить реальное состояние здоровья человека , а какие-либо советы по поводу лекарств или психоактивных веществ без контроля врача могут иметь фатальные последствия.
Расследование продолжается, а эта история уже стала тревожным сигналом для общества , которое все больше доверяет цифровым помощникам в вопросах жизни и смерти.
Напомним, ранее портал "Комментарии" сообщал , что в США набирает обороты волна судебных процессов против OpenAI из-за обвинений в том, что ChatGPT якобы мог провоцировать пользователей к самоубийству и насилию.