OpenAI Impede Mais de 20 Campanhas Criminosas Usando IA para Ciberataques e Desinformação

A OpenAI revelou recentemente ter desmantelado mais de 20 campanhas maliciosas que tentavam explorar sua plataforma de inteligência artificial para atividades criminosas. Entre as práticas detectadas, estavam tentativas de utilizar a IA para depuração de malwares, criação de perfis falsos em redes sociais e até mesmo a geração de artigos fraudulentos para sites.

Grupos de Ameaça Identificados
Os principais agentes maliciosos por trás dessas tentativas incluem o grupo SweetSpecter, baseado na China, e o iraniano Storm-0817. Esses grupos usaram ferramentas de IA da OpenAI para suporte em ataques cibernéticos, como spear-phishing e análise de vulnerabilidades. Contudo, até o momento, a OpenAI afirma que não há evidências de que essas tentativas tenham resultado em avanços significativos em malware ou manipulação de audiências.

Desinformação Bloqueada
Além das campanhas cibernéticas, a OpenAI também conseguiu interromper operações de desinformação, como o caso do grupo israelense STOIC, que tentou influenciar eleições na Índia por meio de conteúdos gerados pela IA. Outro grupo, chamado Stop News, tentou usar a IA para criar conteúdo enganoso para redes sociais, mas falhou em atingir sucesso viral.

Reforço na Segurança da Plataforma
Como parte de sua resposta a essas tentativas, a OpenAI intensificou seus esforços de monitoramento e segurança, visando garantir que a tecnologia de IA seja utilizada de forma ética e dentro das normas de cibersegurança global. A empresa destaca a importância de manter as ferramentas de IA seguras para evitar que agentes maliciosos se aproveitem de suas capacidades avançadas.

Veja também: