Em um cenário de convergência regulatória, o Brasil começa a aplicar princípios semelhantes aos dos Estados Unidos para proteção de crianças online, afetando plataformas como o Roblox
Plataformas de jogos e redes sociais projetadas para interação em massa enfrentam agora um dilema prático, jurídico e técnico sobre o tratamento de dados de crianças.
Quando o desenho do serviço estimula produção contínua de informações por menores, cresce o ônus do operador em demonstrar controle, governança e a validade do consentimento parental.
Essa é a leitura que explica a recente restrição de funcionalidades infantis, conforme informação divulgada pela Gazeta do Povo.
Regulatório, não simbólico
A restrição de recursos do Roblox voltados a crianças no Brasil não deve ser vista como um gesto moral ou pedagógico, ela é, antes de tudo, uma medida regulatória, que se aproxima da lógica da COPPA dos Estados Unidos.
A COPPA opera de forma objetiva, ela se aplica a serviços direcionados a menores de 13 anos e a serviços gerais quando o operador tem conhecimento de que está coletando dados pessoais de uma criança, portanto, o foco é a combinação entre idade, características do serviço e o tratamento de informações pessoais.
Consentimento parental verificável e responsabilização
Em ambientes com alto grau de interação social, como jogos com chat, a regra é clara, antes de coletar, usar ou divulgar dados de crianças, o operador deve fornecer aviso adequado e obter consentimento parental verificável.
Não basta informar, é preciso método razoavelmente desenhado para assegurar que quem consente é de fato o responsável, e documentação que comprove essa governança, caso contrário, o modelo não se sustenta juridicamente.
Convergência entre COPPA e LGPD
A LGPD não replica literalmente a COPPA, porém estabelece um regime próprio para crianças e adolescentes, guiado pelo melhor interesse e com disciplina específica, como o artigo 14 que exige consentimento específico e em destaque por um dos pais ou responsável legal.
A equivalência está na lógica de accountability aplicada ao desenho do serviço, quanto mais aberto e social o ambiente, maior o ônus do controlador para demonstrar controle efetivo sobre a circulação de dados e a exposição produzida pela própria criança.
Consequências práticas para plataformas
Em produtos desenhados para escala, comprovar e documentar um consentimento parental robusto é um desafio operacional, não apenas teórico, e a consequência comum, observada na aplicação da COPPA, é a limitação de funcionalidades.
No Brasil, a discussão sobre um “ECA Digital” tenta preencher lacunas, mas a própria LGPD já oferece fundamentos para intervenções baseadas no desenho do serviço, tornando o chat infantil do Roblox um exemplo do dilema: ele transforma a criança em fonte contínua de dados.
Além disso, a visibilidade pública, impulsionada por influenciadores, amplia o risco reputacional e reduz a margem de tolerância regulatória, acelerando decisões técnicas que visam reduzir exposição e demonstrar conformidade.
O recado para quem cria ambientes para crianças
O debate central não é se crianças devem usar plataformas digitais, mas se essas plataformas conseguem sustentar juridicamente seu desenho, com consentimento qualificado, governança demonstrável e medidas concretas de proteção.
Em um cenário de convergência regulatória global, a mensagem é clara, quem projeta serviços para crianças precisa assumir técnica e juridicamente os riscos que esse desenho produz, caso contrário, a limitação funcional deixa de ser exceção e passa a ser regra.
Fernando Manfrin, advogado especialista em compliance e data privacy, analisou esses pontos no texto original citado, que embasa este relatório.