Опасный рецепт от ИИ: семья едва не погибла от отравления

Как искусственный интеллект чуть не навредил семье: опыт пользователя Reddit

Пользователь форума Reddit поделился историей, как обращение к искусственному интеллекту Gemini от Google едва не обернулось катастрофой для его семьи. В попытке найти новый рецепт заправки для салата, мужчина не подозревал, что ИИ не всегда точен в своих ответах.

Искусственный интеллект предложил пользователю рецепт, состоящий из оливкового масла и чеснока, с указанием точных пропорций и времени настаивания. Мужчина без сомнений следовал инструкциям. Однако спустя три дня он заметил, что что-то пошло не так: соус начал странно булькать и выпускать газы.


Беспокойство заставило мужчину поискать информацию. Оказалось, что рецепт, предложенный ИИ, мог привести к формированию ботулотоксина — одного из самых мощных и опасных природных токсинов, вызывающего ботулизм, заболевание, которое парализует нервную систему и может привести к летальному исходу.

“Если бы я не проверил его за 3-4 дня, я бы ничего не узнал и потерял бы всю свою семью. Будьте осторожны и никогда не доверяйте AI, дорогие люди…”, - написал мужчина.


Читайте также на портале “Комментарии” - Фотограф Майлз Эстрей сделал необычную фотографию фламинго и решил отправить ее для участия в конкурсе изображений созданных искусственным интеллектом. Фотограф не ожидал, что его фотография победит в одной из категорий конкурса.

Ранее портал "Комментарии" сообщал, что китайская компания готовится к выпуску секс-кукол со встроенным искусственным интеллектом.

Также "Комментарии" писали, что компания "МакДональдс" решила избавиться от искусственного интеллекта в своей работе.