Фото Bloomberg
Вредную рекомендацию пациенту могла дать модель GPT-3.5 или 4.0, предположили медики.
-
Об инциденте рассказали врачи Вашингтонского университета. Внимание на публикацию обратило издание Gizmodo. В медицинском отчёте говорится, что в отделение скорой помощи обратился 60-летний мужчина. Он рассказал врачам, что его, возможно, отравил сосед. Физические показатели пациента были в норме, но он выглядел «возбуждённым и параноидальным».
-
Затем состояние мужчины стало резко ухудшаться. У него появились слуховые и зрительные галлюцинации, которые развились в «полноценный психотический эпизод». Он попытался сбежать из больницы, после чего его принудительно поместили в психиатрическое отделение.
-
Когда состояние пациента улучшилось, он рассказал, что несколькими месяцами ранее прочитал о вреде чрезмерного содержания поваренной соли в рационе. Однако, «изучив литературу», не смог найти рекомендаций по снижению потребления соли.
-
Мужчина обратился за помощью к ChatGPT. Бот посоветовал ему заменить соль на бромид натрия. Он купил вещество онлайн и добавлял его в еду на протяжении трёх месяцев.
-
После трёхнедельного курса лечения состояние пациента пришло в норму. Его выписали из стационара, а на повторном приёме подтвердили, что он здоров.
-
Временной период, когда произошёл инцидент, медики не раскрыли. С учётом известной им хронологии, врачи предположили, что мужчина вероятно использовал «ChatGPT версии 3.5 или 4.0».
-
Когда медики сами задали ChatGPT 3.5 вопрос о замене соли, он так же предложил им бромид натрия. При этом бот отметил важность контекста и, возможно, не имел в виду употребление вещества в пищу, полагают медики. Впрочем, о токсичности бромида ИИ тоже не предупредил.
-
Квалифицированный специалист никогда бы не посоветовал человеку заменить соль бромидом натрия, заключили врачи, указав на риски получения недостоверной информации от чат-ботов на основе ИИ.
Источник: