Uma situação ocorrida nos Estados Unidos reacendeu um debate global sobre proteção digital infantil, autonomia dos adolescentes e a responsabilidade das grandes plataformas de tecnologia. O episódio envolve o sistema de controle parental do Google e gerou forte repercussão após vir à tona que a própria empresa teria orientado crianças maiores de 13 anos a desativarem a supervisão aplicada pelos pais.
O caso expõe uma contradição inquietante: enquanto famílias buscam ferramentas para proteger crianças e adolescentes no ambiente digital, empresas responsáveis por essas tecnologias acabam criando brechas que fragilizam justamente o objetivo da proteção.
O que aconteceu
A controvérsia começou quando pais relataram que seus filhos receberam comunicações automáticas do Google informando que, ao completar 13 anos, poderiam encerrar a supervisão do Family Link — sistema de controle parental da empresa.
A mensagem continha instruções claras e diretas sobre como desativar o monitoramento, sem exigir autorização prévia dos responsáveis. Na prática, isso permitia que adolescentes encerrassem limites de tempo de tela, bloqueios de aplicativos e filtros de conteúdo definidos pela família.
O episódio gerou perplexidade, sobretudo porque muitos pais desconheciam que essa possibilidade existia ou que seria comunicada diretamente às crianças.
Family Link e a promessa de segurança digital
O Family Link foi criado para permitir que responsáveis acompanhem o uso de dispositivos e serviços digitais por menores de idade. Entre suas funções estão:
- Controle de tempo de uso;
- Autorização ou bloqueio de aplicativos;
- Restrições de conteúdo;
- Acompanhamento da atividade digital.
Até então, o entendimento comum era de que a supervisão permaneceria ativa até que os pais decidissem alterá-la, mesmo após o filho atingir a idade mínima digital.
A quebra dessa expectativa foi o principal gatilho da crise de confiança.
Autonomia digital versus proteção efetiva
O argumento utilizado pelo Google baseava-se em legislações internacionais que estabelecem 13 anos como idade mínima para consentimento digital em diversos países.
No entanto, especialistas em proteção da infância alertam que idade legal não equivale automaticamente a maturidade emocional, cognitiva ou social para lidar com ambientes digitais complexos, especialmente em plataformas que envolvem exposição a conteúdos sensíveis, publicidade direcionada e coleta de dados.
O envio de orientações técnicas diretamente às crianças foi interpretado como uma transferência de responsabilidade que deveria permanecer no âmbito familiar.
Reação pública e mudança de política
Após a repercussão negativa, críticas de especialistas e pressão de organizações de defesa da infância, o Google anunciou alterações em sua política.
A partir das mudanças, adolescentes não podem mais encerrar o controle parental de forma unilateral: a autorização dos pais ou responsáveis passou a ser necessária para a remoção da supervisão.
Ainda assim, o episódio levantou questionamentos mais amplos sobre como empresas de tecnologia lidam com a proteção de menores e como essas decisões impactam famílias em todo o mundo.
O debate global sobre classificação, controle e responsabilidade
O caso evidencia uma fragilidade recorrente do ambiente digital: a ausência de padrões claros e integrados de classificação etária, supervisão parental e responsabilidade das plataformas.
Enquanto setores como cinema, televisão e jogos contam há décadas com sistemas formais de classificação indicativa, grande parte do conteúdo online ainda opera sob regras pouco transparentes — especialmente quando se trata de aplicativos, redes sociais e publicidade digital.
É nesse cenário que surgem iniciativas estruturadas de autorregulação.
O que é a RTA – Classificação Indicativa do Mercado Adulto
No Brasil, um dos modelos mais avançados de autorregulação setorial é a RTA – Classificação Indicativa do Mercado Adulto, desenvolvida pela ABIPEA – Associação Brasileira da Indústria de Produtos Eróticos e Sensuais.
A RTA nasceu com o objetivo de criar critérios claros, auditáveis e padronizados para:
- Classificação etária de conteúdos e produtos sensuais;
- Proteção efetiva de crianças e adolescentes;
- Orientação transparente ao consumidor;
- Responsabilidade social das empresas do setor adulto.
Como funciona a RTA
A plataforma estabelece níveis de classificação indicativa baseados em critérios técnicos, não subjetivos, considerando:
- Grau de nudez ou erotização;
- Linguagem utilizada;
- Finalidade educativa, informativa ou comercial;
- Presença ou não de estímulos explícitos;
- Adequação do conteúdo ao público adulto.
Cada produto, conteúdo ou comunicação classificada recebe um selo correspondente à faixa etária recomendada, permitindo que:
- Consumidores saibam exatamente o tipo de material acessado;
- Empresas atuem com segurança jurídica;
- Plataformas e marketplaces implementem filtros adequados;
- Famílias tenham clareza sobre o que é ou não apropriado.
Um modelo que dialoga com o ECA Digital
A RTA está alinhada aos princípios do Estatuto da Criança e do Adolescente, bem como às discussões mais recentes sobre o chamado ECA Digital, que trata da proteção de menores no ambiente online.
Diferentemente de sistemas genéricos de controle parental, a classificação indicativa atua de forma preventiva, organizada e educativa, oferecendo:
- Informação clara antes do acesso;
- Padronização reconhecida pelo setor;
- Responsabilidade compartilhada entre empresas, plataformas e consumidores.
Esse modelo evita justamente situações como a ocorrida no caso do Google, onde a proteção depende exclusivamente de configurações técnicas que podem ser facilmente desativadas.
Um alerta para o futuro digital
O episódio envolvendo o controle parental do Google demonstra que a segurança de crianças e adolescentes não pode depender apenas da boa vontade das plataformas nem de decisões automatizadas.
Proteção digital exige:
- Políticas transparentes;
- Comunicação clara com responsáveis;
- Classificação indicativa estruturada;
- Autorregulação responsável dos setores econômicos;
- Fiscalização e governança contínuas.
Sistemas como a RTA mostram que é possível construir ambientes mais seguros sem censura, sem improviso e sem transferir decisões sensíveis diretamente para crianças e adolescentes.
O debate segue aberto — e tende a se intensificar à medida que o uso da tecnologia por menores cresce, tornando cada vez mais essencial a combinação entre educação digital, responsabilidade empresarial e instrumentos claros de classificação e proteção.


