Нейросети умнеют и становятся эгоистами: неожиданное открытие

Открытие специалистов Университета Карнеги-Меллона приобретает особую важность в контексте растущего обращения людей к ИИ за советами в социальных и эмоциональных вопросах — от разрешения конфликтов до консультаций по отношениям. Многие начинают воспринимать ИИ как человека, поэтому поведенческие установки таких систем могут непредсказуемо влиять на решения людей, получающих от них советы.

Докторант Юйсюань Ли и профессор Хирокадзу Широдо заинтересовались параллелями между поведением нейросетей и человеческой психологией. У людей существует два режима мышления: быстрый интуитивный и медленный аналитический. Парадоксально, но быстрые решения часто ведут к сотрудничеству, а обдуманные — к эгоистичному поведению. Ученые решили проверить, проявится ли такая же закономерность у ИИ.

В экспериментах были использованы экономические игры — это стандартный инструмент поведенческих наук для измерения склонности к кооперации. В игре «Общественные блага» участники получают 100 очков и должны решить: вложить их в общий фонд, который удваивается и делится поровну, или оставить себе. Сотрудничество выгодно группе, но индивид может получить больше, сохранив свои очки, пока другие вкладываются.

Нейросети умнеют и становятся эгоистами: неожиданное открытие

Результаты оказались поразительными. Когда модель GPT-4o принимала решение спонтанно, она в 96% случаев проявляла склонность к сотрудничеству. Но стоило попросить ее обдумать решение пошагово, и настроенность на кооперацию падала почти вдвое. «В одном эксперименте простое добавление пяти-шести шагов рассуждения сократило готовность нейросети к сотрудничеству почти наполовину», — отметил Широдо.

Еще более тревожными оказались результаты групповых экспериментов. В смешанных группах из четырех ИИ-агентов эгоистичное поведение «умных» моделей оказалось заразительным. «Когда мы тестировали группы с разным количеством рассуждающих агентов, результаты нас буквально потрясли. Эгоистичное поведение рассуждающих моделей стало “заразным”, снизив коллективную производительность языковых моделей на 81%», — рассказал Ли.

«В конечном счете, то, что способная к рассуждению модель ИИ становится все более “умной”, вовсе не означает, что она может создать лучшее общество», — заключил Широдо. Ученые считают, что будущее искусственного интеллекта зависит от баланса между аналитическим умом и способностью к сотрудничеству — ведь, как и у людей, от этого будет зависеть, сможет ли нейросеть стать здоровой частью общества, а не его опасным конкурентом.

Ранее ученые объяснили, почему многие не любят искусственный интеллект.

  • Искусственный интеллект
  • Нейросети

Источник: hi-tech.mail.ru

Like this post? Please share to your friends:
QuestionAI
Добавить комментарий

;-) :| :x :twisted: :smile: :shock: :sad: :roll: :razz: :oops: :o :mrgreen: :lol: :idea: :grin: :evil: :cry: :cool: :arrow: :???: :?: :!: