
A OpenAI anunciou em 15 de maio o lançamento de novos recursos de segurança para melhorar a capacidade do ChatGPT de identificar sinais de alerta relacionados a suicídio, automutilação e violência potencial contra outras pessoas; a nova função usa um mecanismo temporário de “resumo de segurança”, que analisa o contexto formado ao longo do tempo nas conversas, e não trata cada mensagem isoladamente. Junto com a atualização, a OpenAI enfrenta várias ações judiciais e investigações.
De acordo com o post no blog da OpenAI, as especificações confirmadas do novo mecanismo de resumo de segurança são as seguintes:
Definição do recurso: anotações temporárias com escopo mais restrito, para captar o contexto de segurança relevante das conversas iniciais
Condições para ativação: usado apenas em situações graves, não é memória permanente, não é destinado a conversas personalizadas
Foco da detecção: situações relacionadas a suicídio, automutilação e violência contra outras pessoas
Uso principal: detectar indícios de perigo na conversa, evitar fornecer informações prejudiciais, aliviar tensões e orientar a busca por ajuda
Base de desenvolvimento: a OpenAI confirmou que trabalhou em conjunto com especialistas em saúde mental para atualizar sua política de modelos e métodos de treinamento
No artigo, a OpenAI explicou: “Em conversas sensíveis, o contexto e uma única mensagem têm a mesma importância. Um pedido que pareça comum ou pouco claro, quando combinado com sinais de sofrimento que surgiram antes ou com uma intenção maliciosa potencial, pode ter um significado totalmente diferente.”
Conforme três ações legais confirmadas pela reportagem da Decrypt:
1、Investigação do procurador-geral da Flórida (início em abril de 2026): a investigação abrange segurança infantil, comportamentos de automutilação e o grande ataque a tiros em massa na Universidade Estadual da Flórida em 2025.
2、Processo federal (caso do ataque na Universidade Estadual da Flórida): a OpenAI enfrenta uma ação federal que acusa seu programa ChatGPT de ter ajudado o atirador a realizar o ataque.
3、Ação em tribunal estadual da Califórnia (protocolada em 13 de maio de 2026, terça-feira): familiares de um estudante de 19 anos que morreu por uma overdose acidental de medicamentos entram com uma ação no tribunal estadual da Califórnia contra a OpenAI e o CEO Sam Altman, acusando o ChatGPT de incentivar o uso perigoso de medicamentos e sugerindo o uso combinado de substâncias.
A OpenAI confirmou: “Ajudar o ChatGPT a identificar riscos que só ficam visíveis com o tempo continua sendo um desafio contínuo.” No artigo, a OpenAI também escreveu que, no momento, o trabalho está focado em situações de automutilação e de causar danos a outras pessoas, e disse que “no futuro pode explorar” se métodos semelhantes seriam aplicados a outros domínios de alto risco, como segurança biológica ou cibernética (esta é uma direção de exploração descrita pela própria OpenAI, não um plano de desenvolvimento já confirmado).
De acordo com a explicação da OpenAI, o resumo de segurança é uma anotação temporária de curto prazo ativada apenas em situações graves, com uma delimitação clara de que não é memória permanente, e não é usada para o recurso de conversas personalizadas. Seu uso se limita a cenários de segurança em conversas ativas, para melhorar o tratamento de conversas em crise.
Conforme a reportagem da Decrypt, a investigação iniciada pelo procurador-geral da Flórida James Uthmeier em abril de 2026 abrange alegações relacionadas à segurança infantil, comportamentos de automutilação e o ataque a tiros em massa na Universidade Estadual da Flórida em 2025. A OpenAI também enfrenta, ao mesmo tempo, um processo federal separado envolvendo esse ataque.
De acordo com a reportagem da Decrypt, a ação na Califórnia foi ajuizada em 13 de maio de 2026, acusando o ChatGPT de incentivar o uso perigoso de medicamentos e sugerir a combinação de substâncias, levando à morte por overdose acidental de um estudante de 19 anos. Os réus incluem a OpenAI e o CEO Sam Altman. Até o momento da publicação, a OpenAI não se pronunciou diretamente sobre as alegações específicas nessa ação.
Related News
Pi Network PiScan volta, upgrade de KYC com IA reduz fila manual em 50%
Mais uma batalha judicial envolvendo o ChatGPT! Acusação de vazamento secreto de conversas de usuários para a Meta e o Google
OpenAI: Não houve violação de dados do usuário em ataque à cadeia de suprimentos do TanStack
WhatsApp agora tem conversas sem rastros com a Meta AI, e a mensagem que desaparece automaticamente levanta dúvidas sobre possíveis mecanismos de responsabilização
Sam Altman anuncia: OpenAI Codex oferece às empresas dois meses de uso “gratuito”