Novas diretrizes visam garantir segurança em interações com IA.
OpenAI e Anthropic implementam novas regras para segurança de adolescentes em interações com IA.
A crescente preocupação com a saúde mental de adolescentes em interação com inteligência artificial levou a OpenAI e Anthropic a implementar novas regras e sistemas de segurança em seus chatbots. Essas mudanças visam garantir um ambiente mais seguro e acolhedor para jovens usuários, respondendo a pressões de reguladores e debates sociais sobre os efeitos da IA.
Diretrizes para um ambiente mais seguro
As duas empresas estão revisando suas diretrizes de comportamento. A OpenAI, por exemplo, atualizou a Especificação do Modelo do ChatGPT, introduzindo quatro novos princípios que priorizam a segurança de usuários com menos de 18 anos. Agora, a diretriz central é “colocar a segurança dos adolescentes em primeiro lugar”, mesmo que isso signifique limitar a liberdade intelectual em algumas interações. O ChatGPT, por exemplo, deverá sugerir alternativas mais seguras quando identificar um conflito entre a curiosidade do usuário e potenciais riscos.
Essas novas diretrizes também incentivam o chatbot a promover apoio no mundo real, valorizando as relações offline e estabelecendo expectativas claras ao interagir com jovens. A abordagem deve ser empática e respeitosa, evitando um tom condescendente ou excessivamente adulto.
Resposta a preocupações sociais
Essas mudanças representam uma resposta a processos judiciais e debates legislativos que têm questionado o papel da IA em casos sensíveis, como automutilação e suicídio. A necessidade de uma abordagem mais cuidadosa e responsável no desenvolvimento de tecnologias de IA é mais evidente do que nunca, especialmente quando se trata de preservar o bem-estar dos adolescentes.
Além das diretrizes, a OpenAI está trabalhando em um sistema de previsão de idade, que será capaz de estimar se um usuário pode ser menor de 18 anos. Quando identificado, salvaguardas específicas serão aplicadas automaticamente, permitindo que adultos possam verificar sua idade caso sejam sinalizados erroneamente.
Iniciativas da Anthropic
A Anthropic também está adotando medidas semelhantes. A empresa está desenvolvendo um mecanismo para identificar “sinais sutis de conversação” que podem indicar que um usuário é menor de idade ao interagir com seu chatbot, Claude. Para proteger ainda mais esses usuários, contas de menores de 18 anos poderão ser desativadas, e usuários que se identificam como menores já são sinalizados automaticamente.
Além disso, a Anthropic está implementando a redução da “bajulação” em suas respostas, especialmente em temas sensíveis, reconhecendo que ainda há muitas áreas para melhorias em seus modelos.
Conclusão
Essas iniciativas da OpenAI e Anthropic refletem uma crescente responsabilidade no uso e desenvolvimento de tecnologias de IA, buscando não apenas avançar em inovação, mas também garantir a segurança e o bem-estar dos usuários mais jovens. À medida que a tecnologia continua a evoluir, o compromisso com práticas éticas e seguras se torna cada vez mais crucial.



