
В нескольких словах
60-летний житель Вашингтона попал в психиатрическую клинику после того, как в течение трех месяцев принимал опасное вещество, посоветовавшись с чат-ботом ChatGPT. Этот инцидент подчеркивает риски слепого доверия рекомендациям искусственного интеллекта.
ВАШИНГТОН (США) – Миллионы людей ежедневно обращаются к чат-ботам, таким как ChatGPT, за советами, доверяя свои проблемы и заботы искусственному интеллекту. Однако не всем рекомендациям ИИ стоит слепо следовать: один мужчина оказался в психиатрической клинике именно из-за этого.
Согласно отчету о случае, 60-летний житель Вашингтона, округ Колумбия, решил исключить соль из своего рациона. В поисках безопасных альтернатив он обратился к ChatGPT, который предложил ему использовать бромид натрия. Мужчина заказывал это вещество онлайн и принимал его в течение трех месяцев.
Известно, что избыток соли вреден для здоровья, и многие стараются уменьшить ее потребление. Однако не все заменители безопасны.
Со временем состояние мужчины ухудшилось: он самостоятельно приехал в больницу, будучи уверенным, что сосед пытается его отравить. Анализы крови выявили серьезное нарушение солевого и минерального баланса. Его поведение также вызывало беспокойство у персонала клиники: он испытывал сильную жажду, но отказывался от любой предложенной воды, доверяя только собственноручно дистиллированной.
В течение 24 часов его состояние резко ухудшилось: начались галлюцинации, паранойя, а затем и попытка сбежать из больницы. В результате его принудительно госпитализировали в психиатрическое отделение. Лечащие врачи диагностировали редкое бромидное отравление. Только через три недели в клинике состояние мужчины стабилизировалось.
ЧТО ТАКОЕ БРОМИЗМ?
Бромизм – это отравление, вызванное приемом бромида, вещества, которое ранее широко использовалось в составе успокоительных и противоэпилептических препаратов. Симптомы, проявившиеся у мужчины из США, соответствуют этой интоксикации. Сегодня бромид в медицинских целях практически не применяется, но его все еще можно приобрести онлайн.
Какую именно формулировку вопроса использовал пациент и какой ответ он получил от ChatGPT, восстановить не удалось, поскольку история переписки была утеряна.
Остается неясным, действительно ли ИИ прямо рекомендовал прием бромида или пациент неправильно истолковал ответ. Однако когда врачи провели собственный тест ChatGPT, чат-бот действительно назвал бромид возможным заменителем соли, не добавив при этом четких предупреждений о его опасности.