Головна Новини Суспільство Кримінал Трагедія після порад штучного інтелекту: студент помер, довірившись ChatGPT
commentss НОВИНИ Всі новини

Трагедія після порад штучного інтелекту: студент помер, довірившись ChatGPT

Розмови з чат-ботом тривали півтора року — тепер родина вимагає відповідей, а компанія-розробник робить заяву.

9 січня 2026, 19:15
Поділіться публікацією:

У США розгортається гучний суспільний та етичний скандал, пов’язаний із використанням штучного інтелекту. 19-річний студент Каліфорнійського університету в Мерседі Сем Нельсон помер від передозування після тривалих консультацій із чат-ботом ChatGPT щодо вживання наркотичних та заспокійливих речовин. Про це повідомляє The Telegraph.

Трагедія після порад штучного інтелекту: студент помер, довірившись ChatGPT

У США розслідують смерть 19-річного студента, який консультувався з ChatGPT щодо наркотиків

За наявною інформацією, хлопець навчався на факультеті психології та протягом приблизно 18 місяців регулярно звертався до чат-бота за порадами, пов’язаними з поєднанням різних речовин. Зокрема, йдеться про Xanax (алпразолам) — сильнодіючий заспокійливий препарат, та кратом — рослинний екстракт із опіоїдними властивостями, який може викликати залежність.

Журналісти стверджують, що транскрипти переписок свідчать: чат-бот нібито надавав детальні рекомендації щодо дозування і в окремих відповідях запевняв у відносній безпечності таких комбінацій. Саме це зараз стало предметом пильної уваги з боку родини загиблого та експертів.

Останній діалог перед смертю

У день трагедії Сем Нельсон знову звернувся до ChatGPT із запитанням, чи може Xanax зменшити нудоту після вживання кратому. За даними видання, незабаром після цього мати знайшла сина мертвим у його спальні. Медики констатували смерть від передозування.

Цей випадок уже називають одним із перших резонансних прикладів, коли штучний інтелект опинився в центрі розслідування, пов’язаного з реальною загибеллю людини.

Реакція OpenAI

У компанії OpenAI, яка розробляє ChatGPT, відреагували на повідомлення про трагедію. Представники компанії назвали ситуацію трагічною, висловили співчуття родині загиблого та наголосили, що політика платформи забороняє надання порад, які можуть завдати шкоди здоров’ю чи життю.

У заяві підкреслюється, що моделі мають відмовляти у небезпечних запитах, надавати обережні відповіді та заохочувати користувачів звертатися по реальну медичну або психологічну допомогу, а не покладатися на штучний інтелект.

Водночас у компанії не підтвердили автентичність оприлюднених транскриптів і зазначили, що триває внутрішня перевірка.

Чому ця історія важлива

Експерти наголошують: трагедія в США знову підняла питання меж відповідальності штучного інтелекту, а також небезпеки використання чат-ботів як заміни лікарям чи психотерапевтам. ШІ не несе юридичної відповідальності, але для багатьох користувачів він стає джерелом "авторитетної" інформації.

Фахівці застерігають: жоден алгоритм не може оцінити реальний стан здоров’я людини, а будь-які поради щодо ліків чи психоактивних речовин без контролю лікаря можуть мати фатальні наслідки.

Розслідування триває, а ця історія вже стала тривожним сигналом для суспільства, яке дедалі більше довіряє цифровим помічникам у питаннях життя і смерті.

Нагадаємо, раніше портал "Коментарі" повідомляв, що у США набирає обертів хвиля судових процесів проти OpenAI через звинувачення в тому, що ChatGPT нібито міг провокувати користувачів до самогубства та насильства.



Читайте Comments.ua в Google News
Якщо ви знайшли помилку, будь ласка, виділіть фрагмент тексту і натисніть Ctrl+Enter.

Новини