Сложная погода и труднопроходимая местность сделали маршрут непреодолимым для путешественников. Осознав, что они не могут продолжить путь, туристы были вынуждены вызвать спасателей. К счастью, помощь прибыла вовремя, и их удалось эвакуировать.
Этот случай демонстрирует риски использования искусственного интеллекта в задачах, требующих специализированных знаний и учёта текущей ситуации. Нейросети могут предоставлять общую информацию, но не всегда способны учитывать критические факторы, такие как погодные условия или особенности местности, что может сделать их советы опасными.
Подобные инциденты случались и раньше. Например, Google Gemini однажды дал совет, который едва не привёл к отравлению. Пользователю предложили настоять чеснок в оливковом масле при комнатной температуре. Несколько дней спустя на поверхности масла появились пузырьки газа — это указывало на размножение бактерий, вызывающих ботулизм, опасное заболевание, сопровождающееся мышечным параличом.
Другой случай произошёл, когда ИИ предложил добавить клей в соус для пиццы, чтобы начинка не сползала. А рекомендации по укусу змеи, данные нейросетью, могли ухудшить состояние пострадавшего. Некоторые советы были ещё более абсурдными: одному пользователю ИИ рекомендовал употреблять мелкие камни, чтобы избежать проблем с пищеварением.
Эти примеры подчёркивают, что использование ИИ для задач, требующих экспертного подхода, должно быть осторожным. Искусственный интеллект не может заменить знания и опыт специалистов.