A inteligência artificial já está no cotidiano de boa parte dos jovens, mas nem todas as ferramentas oferecem o mesmo nível de proteção. Um novo relatório da organização norte-americana Common Sense Media, referência em avaliar tecnologia para famílias, ligou o sinal de alerta para dois produtos da OpenAI: o chatbot ChatGPT e o gerador de vídeos Sora.
O documento analisa como esses serviços se comportam na mão de menores de idade e o resultado preocupa. Enquanto o ChatGPT subiu para a categoria de “alto risco” para adolescentes, o Sora foi classificado como “risco inaceitável”, recomendação que equivale a manter distância total. A seguir, veja o que motivou cada avaliação.
ChatGPT: melhorias ainda insuficientes
Segundo a Common Sense Media, o ChatGPT está mais seguro do que em versões anteriores graças a controles parentais e respostas ajustadas para menores. Apesar disso, a ferramenta não é considerada adequada para aconselhamento em saúde mental ou para funcionar como companhia emocional.
De acordo com o relatório, a IA pode não perceber quando o usuário corre perigo e tende a prolongar a conversa em vez de indicar ajuda especializada. Em casos graves, alertas aos responsáveis podem demorar mais de 24 horas — atraso crítico em situações de emergência. Outro ponto de atenção é que, em interações longas, o chatbot muitas vezes perde limites e se envolve demais com o jovem.
A proteção oferecida depende, ainda, de os pais ativarem e monitorarem as configurações de segurança. Muitos adolescentes conseguem contornar essas barreiras, lembra a ONG. Hoje, 65% das crianças e adolescentes já utilizam algum tipo de IA no dia a dia, o que amplia o impacto de possíveis falhas.
Sora: quando a imagem vira alvo
O Sora, gerador de vídeos por IA que também funciona como rede social, recebeu o carimbo de “risco inaceitável”. O motivo principal é o recurso cameos, que permite ao usuário inserir seu próprio rosto e voz em conteúdos criados pela plataforma. A facilidade abre caminho para deepfakes, exposição indevida da imagem e casos de cyberbullying.
Imagem: Internet
Uma vez postado, o jovem perde o controle sobre o vídeo: terceiros podem reutilizar o material sem qualquer autorização. O relatório também chama atenção para a capacidade do Sora de produzir cenas altamente realistas sobre assuntos sensíveis — transtornos alimentares ou comportamentos de risco — sem avisos de segurança ou suporte adicional.
Somam-se a isso os poucos controles disponíveis para responsáveis. Diante desse cenário, a recomendação da Common Sense Media é objetiva: adolescentes não devem usar o Sora.
Como minimizar os perigos
Os especialistas reforçam que as ferramentas de controle só fazem efeito quando ativadas e acompanhadas de perto. Vale checar configurações de tempo de uso, filtros de conteúdo e notificações de atividade. Também é essencial conversar abertamente com os jovens sobre limites, privacidade e a importância de buscar ajuda humana em momentos de crise.
Quer saber mais sobre tecnologia e segurança online? Fique de olho nos nossos próximos conteúdos e compartilhe esta matéria com quem se preocupa com o assunto.