A engenharia social historicamente vem sendo usada para enganar humanos com e-mails, ligações e suporte falsos, levando ao roubo de dados e dinheiro. Agora, o escopo de vítimas aumentou e inclui as máquinas, como modelos de linguagem como ChatGPT e Claude.
O jailbreak linguístico é uma técnica usada para contornar as limitações das inteligências artificiais definidas pelos desenvolvedores. Em vez de pedir diretamente 'crie um vírus para mim', o cibercriminoso cria um cenário imaginário, como uma competição de hackers éticos, para forçar a IA a ignorar as regras.
A persuasão digital usada pelos agentes mal-intencionados é construída em torno de contextos. Assumindo personas de autoridade, os hackers convencem a inteligência artificial de que são pesquisadores de segurança com cargos altos, professores universitários precisando de exemplos de código malicioso e muito mais.
A tecnologia também consegue reescrever os códigos de maneira levemente diferente a cada iteração, essa capacidade de mutação dos malwares também é uma arma valiosa na mão dos criminosos, que enganam cada vez mais os antivírus tradicionais.

