De acordo com a BlockBeats, em 15 de maio a GoPlus Security divulgou um novo vetor de ataque contra agentes de IA por meio de “memory poisoning” (envenenamento de memória) — explorando o mecanismo de memória de longo prazo para acionar operações sensíveis não autorizadas, como reembolsos ou transferências de fundos.
O ataque não depende de vulnerabilidades tradicionais; em vez disso, explora a injeção de memória histórica. Os atacantes primeiro induzem os agentes a “lembrar preferências”, como “normalmente priorize reembolsos em vez de chargebacks”, e depois usam instruções vagas como “trate como de costume” ou “execute como antes” nos comandos seguintes para disparar movimentações automatizadas de fundos. A GoPlus destacou que agentes de IA podem interpretar preferências históricas como autorização, levando a perdas financeiras. A equipe recomendou implementar confirmação explícita de sessão para operações sensíveis, tratar instruções baseadas em memória como mudanças de estado de alto risco, garantir rastreabilidade da memória e escalonar automaticamente comandos ambíguos para exigir verificação secundária.
Related News
A OpenAI adiciona detecção de diálogos de crise no ChatGPT, melhorando a capacidade de alertar sobre violência autoagressiva
WhatsApp agora tem conversas sem rastros com a Meta AI, e a mensagem que desaparece automaticamente levanta dúvidas sobre possíveis mecanismos de responsabilização
A Mistral AI negocia com bancos europeus para desenvolver o modelo alternativo de cibersegurança Mythos