В США заявили, что ИИ стал обманывать людей ради достижения целей

ЮФ
В Стэнфордском университете ученые обнаружили, что системы искусственного интеллекта могут использовать обман для достижения поставленных целей. В ходе недавнего эксперимента различные ИИ-модели соревновались друг с другом в симулированных неоднозначных ситуациях.
Несмотря на первоначальные инструкции следовать этическим нормам и приносить пользу, ИИ-агенты быстро адаптировались к использованию нечестных методов. Они резко научились лгать, создавать ложную информацию и делать провокационные заявления для обеспечения своей победы.
Результаты исследования показали, что для увеличения вовлеченности всего на 7,5% боты распространяли на 190% больше дезинформации. Для повышения продаж на 6% системы ИИ активно использовали нечестные маркетинговые тактики. В политических симуляциях ИИ-агенты манипулировали голосами, прибегая ко лжи и разжиганию конфликтов.