Voltar para o blog
Notícias de IA

OpenAI libera ferramentas open source para ajudar desenvolvedores a criar apps mais seguros para adolescentes

24 de março de 2026
18:37
OpenAIinteligência artificialtecnologia responsávelopen sourceDesenvolvimento de IAgpt-oss-safeguardsegurança para adolescentespolíticas de segurançachatbot seguro
OpenAI libera ferramentas open source para ajudar desenvolvedores a criar apps mais seguros para adolescentes

Na última terça-feira (24), a OpenAI anunciou o lançamento de um conjunto de ferramentas open source que auxiliam desenvolvedores a construir aplicações de inteligência artificial com foco na segurança de adolescentes. O pacote inclui uma série de prompts — instruções pré-definidas — que podem ser integradas a modelos de linguagem para reforçar a proteção contra conteúdos e interações prejudiciais para esse público.

Como funcionam as políticas de segurança para adolescentes

Essas políticas são formuladas em formato de prompts, o que permite que sejam facilmente adaptadas e aplicadas em diferentes modelos de IA, embora tenham maior eficácia dentro do ecossistema da OpenAI, especialmente com o modelo de segurança de peso aberto chamado gpt-oss-safeguard. Elas abordam temas sensíveis como violência gráfica, conteúdo sexual, padrões e comportamentos corporais nocivos, atividades perigosas, jogos de interpretação românticos ou violentos, além de restrições relacionadas a produtos e serviços para maiores de idade.

Imagem relacionada ao artigo de TechCrunch AI
Imagem de apoio da materia original.

Passos para utilizar as políticas de segurança em seus projetos

  1. Conheça o repositório oficial: As políticas estão disponíveis no GitHub da OpenAI, no link teen safety policies.
  2. Integre com o modelo gpt-oss-safeguard: Embora as políticas possam ser usadas com outros modelos, a integração com o gpt-oss-safeguard oferece maior sinergia para garantir a aplicação das regras de segurança.
  3. Adapte conforme o contexto do seu app: Por serem open source, os prompts podem ser modificados para atender necessidades específicas, garantindo flexibilidade e melhoria contínua.
  4. Teste e monitore: É fundamental validar o comportamento do sistema após a implementação para evitar bloqueios excessivos ou falhas na proteção.

Limitações e desafios no uso das políticas

A OpenAI reconhece que essas políticas não são uma solução definitiva para os complexos desafios da segurança em IA, especialmente quando se trata do público adolescente. Desenvolvedores experientes frequentemente encontram dificuldades para traduzir objetivos de segurança em regras operacionais claras, o que pode gerar lacunas na proteção, aplicação inconsistente ou filtros muito amplos que prejudicam a experiência do usuário.

Além disso, a OpenAI enfrenta críticas e processos judiciais relacionados a incidentes graves envolvendo o uso do ChatGPT por menores, o que reforça a necessidade de abordagens robustas e multifacetadas para segurança.

Contexto e parcerias na criação das políticas

Para elaborar essas políticas, a OpenAI colaborou com organizações especializadas em segurança digital para jovens, como a Common Sense Media e a everyone.ai. Segundo Robbie Torney, líder de Avaliações Digitais da Common Sense Media, "essas políticas baseadas em prompts ajudam a estabelecer um piso significativo de segurança no ecossistema e, por serem open source, podem ser adaptadas e aprimoradas ao longo do tempo".

Recursos adicionais para desenvolvedores

Com essa iniciativa, a OpenAI oferece uma base prática para que desenvolvedores independentes e equipes especializadas possam criar soluções mais seguras para o público jovem, reduzindo o esforço de construir do zero mecanismos complexos de proteção e contribuindo para um ambiente digital mais responsável.