Нейросети допускают в рассуждениях «человеческие» когнитивные ошибки

Ученые из Торонто, Джонатан Ван и Дональд Ределмейер, решили проверить, воспринимает ли искусственный интеллект окружающий мир столь же избирательно, как человек. Когнитивные искажения — это систематические ошибки рассуждения, когда на решение влияют не факты, а форма подачи информации. Например, давно известно, что большинство людей охотнее согласится на операцию с «90‑процентной выживаемостью», чем с на вмешательство «10‑процентной смертностью», хотя это одно и то же. Такие же когнитивные искажения присущи и врачам, они влияют на принятие ими решений и даже могут становиться причиной фатальных ошибок.

Специалисты выбрали десять известных когнитивных искажений, которые чаще всего влияют на медицинские решения, и составили короткие клинические задачи, в которых факты были одинаковыми, но формулировки в их подаче менялись. Две модели — GPT‑4 от OpenAI и Gemini‑1.0‑Pro от Google — играли роли 500 воображаемых докторов с разным опытом и специализацией. Каждый виртуальный врач давал рекомендации для обеих версий сценария, а ученые фиксировали различия.

Результаты показали, что GPT‑4 поддалась искажениям в девяти из десяти случаев. Особенно ярко проявился эффект формулировки: когда операция при раке легкого описывалась через процент выживаемости, 75 % ответов рекомендовали ее провести; если ту же процедуру представляли через смертность, число рекомендаций падало до 12 %. У врачей‑людей это расхождение обычно вдвое меньше. Аналогично, когда случай начинался с симптома кровохарканья, модель почти всегда предполагала тромбоз легочной артерии, но если сначала упоминалось хроническое легочное заболевание, такой диагноз звучал лишь в четверти ответов.

Нейросети допускают в рассуждениях «человеческие» когнитивные ошибки

Любопытно, что с одной типичной ловушкой — игнорированием базовых статистических данных — искусственный интеллект справился лучше людей, почти идеально вычислив вероятность болезни в разных сценариях. Однако в целом исследование показало: даже самые современные языковые модели не свободны от «человеческих слабостей».

Разработчики предполагают, что источником ошибок служит сам обучающий материал — медицинские тексты и интернет‑данные, которые создавали люди и, соответственно, в них неизбежно есть предвзятости. Авторы подчеркивают: чем совершеннее становятся нейросети, тем важнее сохранять человеческий контроль над ними. Для безопасного использования этих мощных инструментов врачам необходимо сохранять навыки критического мышления и оценивать рекомендации ИИ со здоровой долей скептицизма.

Ранее искусственный интеллект описал пугающее будущее человечества.

  • Нейросети

Источник: hi-tech.mail.ru

Like this post? Please share to your friends:
QuestionAI
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: