Nesta terça-feira, 14, Sam Altman, CEO da OpenAI, anunciou que o ChatGPT será capaz de gerar conteúdo erótico para adultos verificados, além da flexibilização de outras restrições de segurança, como saúde mental. No mesmo dia, a Agência Nacional de Proteção de Dados (ANPD) divulgou o Radar Tecnológico 5, que detalha e protocola mecanismos de aferição de idade.
A possibilidade de uma versão 18+ recolocou a verificação de idade e a proteção de dados no centro do debate. Sam Altman afirmou em sua conta no X (antigo Twitter) que a OpenAI sabe que tornou o ChatGPT "menos útil/agradável", e que, mitigados os problemas, poderão em breve "relaxar as restrições com segurança na maioria dos casos''.
O CEO continua e diz que, em algumas semanas, uma nova versão da IA deve ser lançada com uma personalidade mais "humana". O executivo finalizou comunicando a chegada de conteúdo erótico em dezembro, partindo da premissa de "tratar usuários adultos como adultos''.
Para Calza Neto, DPO do Corinthians, uma oferta voltada a adultos "impõe novos riscos e desafios à privacidade e à proteção de dados, exigindo um olhar criterioso sob a ótica da LGPD e das diretrizes do Radar Tecnológico nº 5 da ANPD sobre aferição de idade".
Ele defende como linha mestra os princípios de minimização, finalidade e segurança: coletar apenas o estritamente necessário para verificar a idade, usar base legal adequada preferencialmente cumprimento de obrigação legal e proteção do titular e aplicar medidas técnicas robustas, como criptografia, controle de acesso e segregação de dados.
Neto ressalta que o Relatório de Impacto à Proteção de Dados (RIPD) deve anteceder a operação: "é imprescindível para transparência e responsabilidade, mapeando riscos e definindo contramedidas".
Aferição de idade: por que autodeclaração não basta
Questionado sobre menores, o DPO é taxativo: autodeclaração isolada é insuficiente. O caminho, diz ele, passa por métodos híbridos e verificáveis: combinação de autodeclaração com verificação documental automatizada, biometria facial estimativa e prova de vida, com descarte imediato dos dados após a validação. "O sistema deve ser auditável e rastreável, documentar tentativas de fraude e reentradas bloqueadas, e demonstrar privacy by design", afirma.
O Radar 5 também menciona modelos complementares: análise de comportamento linguístico, padrões de digitação e metadados; condicionados à proporcionalidade e minimização. Para Neto, a prestação de contas (accountability) requer trilhas de auditoria, testes e revisões periódicas.
Segundo Neto, plataformas adultas devem adotar monitoramento automatizado de comportamentos suspeitos, bloqueio de interações abusivas e restrições técnicas para impedir memorização indevida de dados pessoais. "Moderação ativa, canais de denúncia e planos de resposta a incidentes garantem rastreabilidade e conformidade com a LGPD", diz.
E se vazar?
"Contratos devem proibir reuso de dados e auditorias independentes fortalecem a transparência", afirma. Há receio de que conteúdos íntimos reapareçam em diálogos futuros. O DPO lista boas práticas: isolamento de sessões, opt-out/impedimento do uso de conversas para treinamento, retenção mínima com exclusão automática, anonimização de registros e testes de segurança recorrentes.
Essa abordagem é compatível com modelos de governança de dados usuais em IA generativa, que distinguem telemetria operacional (minimizada e anonimizada) de dados sensíveis.
No Brasil, a responsabilização depende da presença local. "Se a OpenAI tiver representação no país, essa entidade é controladora local perante a ANPD e titulares, com a sede global atuando como controladora conjunta. Sem representação, aplica-se a extraterritorialidade: a OpenAI nos EUA responde integralmente pelo tratamento de dados de brasileiros", explica Neto.
Repercussão
Nesta tarde, 15, o CEO retuitou o seu pronunciamento de ontem e declarou a OpenAI "não está flexibilizando nenhuma política relacionada à saúde mental", e que "acreditam que menores necessitam de proteção significativa". Altman disse que o ChatGPT continuará não permitindo respostas que possam causar danos a terceiros e "tratará usuários que estão passando por crises de forma diferente dos que não estão".
"Mas não somos a polícia moral eleita do mundo", concluiu.