В этом материале: Google DeepMind выделила шесть категорий атак на ИИ-агентов Атаки варьируются от скрытых команд в коде до массовых сбоев при взаимодействии агентов Пока нет чётких правил, кто несёт ответственность, если ИИ совершает финансовое преступление Исследователи Google DeepMind опубликовали, возможно, самое полное описание проблемы, о которой почти не говорят.
Интернет сам по себе может стать инструментом для атак на автономных ИИ-агентов. В работе под названием AI Agent Traps описаны шесть типов вредоносного контента.
Они создаются так, чтобы манипулировать агентами, вводить их в заблуждение или перехватывать управление, пока те читают сайты и выполняют действия.
Контекст здесь важен. Компании сейчас активно запускают ИИ-агентов, которые могут самостоятельно бронировать поездки, разбирать почту, проводить финансовые операции и писать код.
Читать на coinspot.io