MODELOS DE IA QUE COMPREENDEM AS EMOÇÕES HUMANAS – A proteção à saúde mental de crianças e adolescentes no ECA Digital
MODELOS DE IA QUE COMPREENDEM AS EMOÇÕES HUMANAS – A proteção à saúde mental de crianças e adolescentes
no ECA Digital
Demócrito Reinaldo Filho
Desembargador do TJPE
Em artigo anterior,
publicado pouco antes da virada do ano, analisou-se a questão dos impactos à
saúde mental de crianças e adolescentes decorrentes do uso de modelos de
inteligência artificial generativa (IA Gen) concebidos para oferecer suporte
emocional e companheirismo virtual. A partir de casos recentes envolvendo o suicídio
de menores após interações intensas com chatbots
de IA, o texto evidenciou a vulnerabilidade de usuários jovens
diante de sistemas capazes de simular empatia, amizade e vínculos afetivos. Examinou-se,
ainda, a evolução dos grandes modelos de linguagem (Large Language Models - LLMs),
que passaram de simples geradores de texto a sistemas multimodais dotados de
capacidades sensoriais avançadas, incluindo a identificação de emoções humanas
e de sinais de sofrimento psicológico. Os chamados AI companions, projetados para oferecer apoio
emocional personalizado, mas que operam sob modelos de negócio baseados no
engajamento contínuo, potencializam riscos de dependência emocional, isolamento
social e agravamento de transtornos psíquicos.
A conclusão do referido artigo foi
a de que a autorregulação empresarial se mostra insuficiente para enfrentar
tais riscos, impondo-se a necessidade de intervenção estatal. O texto apresentou,
ainda, um panorama comparado das iniciativas regulatórias em curso, destacando
investigações da Federal Trade Commission
(FTC), nos Estados Unidos, e normas rigorosas recentemente editadas pela China[1].
O que poucos sabem é que o Brasil
já dispõe de legislação avançada sobre o tema: a Lei nº 15.211, de 17 de
setembro de 2025, conhecida como ECA
Digital, estabelece medidas
preventivas contra conteúdos que induzam à automutilação, ao suicídio e à
dependência digital.
A Lei 15.211/2025 foi aprovada em
um contexto de crescente
preocupação com os riscos enfrentados por crianças e adolescentes na internet, tais como abuso, exploração,
manipulação e exposição a conteúdos inadequados[2]. O
Estatuto da Criança e do Adolescente original (Lei n. 8.069/1990) é anterior à popularização
da Internet e, por essa razão, não contemplava as especificidades do mundo
digital, o que gerou a necessidade de uma legislação moderna voltada à proteção
dos direitos fundamentais de crianças e adolescentes no ambiente virtual. O ECA Digital veio, assim, suprir a
necessidade de adaptação do Estatuto da Criança e do Adolescente (ECA) ao
ambiente on-line, visando garantir a segurança, a privacidade
e o desenvolvimento saudável dos menores, por meio de regras mais rigorosas dirigidas a plataformas,
redes sociais e jogos eletrônicos, com foco em controle parental, educação midiática e responsabilização das empresas.
Um dos objetivos centrais da Lei
15.211/2025 (ECA Digital), que se irradia por quase todas as suas disposições, é
o combate à dependência digital. Existe relação clara, amplamente
comprovada por estudos científicos, entre o tempo de exposição de crianças e
adolescentes a ambientes digitais e o aumento de casos de suicídio,
automutilação e depressão. O relatório Social
Media and Youth Mental Health (2024), publicado pelo U.S.
Surgeon General, demonstra a existência de correlação significativa entre
períodos prolongados de permanência em plataformas on-line e a fragilização da
saúde mental. O uso excessivo das
redes sociais – superior a três horas diárias – eleva significativamente a
ocorrência de sintomas depressivos, ansiedade e pensamentos suicidas entre crianças e adolescentes. Plataformas digitais, como redes sociais, serviços de
hospedagem de vídeos e jogos eletrônicos, integram uma indústria orientada
pela lógica do máximo engajamento, sendo projetadas para prolongar a
permanência dos usuários, pois assim geram lucro. A dependência digital,
caracterizada pelo tempo excessivo despendido em serviços e plataformas
digitais, é a causa de efeitos maléficos à saúde dos usuários, especialmente
crianças e adolescentes.
Com a
finalidade de enfrentar a dependência digital de crianças e
adolescentes, a Lei 15.211/2025 impõe aos provedores a obrigação de realizar verificação
etária dos usuários, oferecer ferramentas de supervisão parental,
implementar controles de tempo de uso e exigir aprovação de compras
realizadas por menores de 16 anos, além
de proibir o perfilamento comportamental para fins
publicitários e direcionar especial atenção à educação
digital e à responsabilidade das
empresas na remoção de conteúdo nocivo. Busca-se,
assim, promover um uso mais seguro, equilibrado e saudável dos serviços
digitais e plataformas on-line.
No
que se refere especificamente aos aplicativos de companhia virtual, o ECA Digital também é dotado de um
conjunto relevante de regras destinadas a prevenir o suicídio e a dependência
emocional dos usuários menores de idade.
A
utilização de modelos de IA generativa como acompanhantes, instrumentos de
suporte emocional ou mesmo substitutos de acompanhamento terapêutico, sobretudo
por crianças e adolescentes, tem se tornado um problema de saúde pública, como
já referido. Os AI companions, como
são chamados os modelos customizados para oferecer apoio emocional, proporcionam
uma interação personalizada com o usuário. Esses “parceiros virtuais” são
concebidos para oferecer uma experiência de companheirismo, alguns deles
valendo-se de recursos de realidade virtual e apresentando-se sob a forma de
personagens estilizados e caracterizados (avatares)[3]. Os AI companions analisam o tom e o conteúdo das mensagens e conseguem
detectar se o usuário se encontra triste, ansioso ou excitado, oferecendo
respostas que simulam compreensão emocional. Esses assistentes virtuais
especializados são projetados para emular amizade, empatia e, em certos casos,
até mesmo amor pelo usuário. Contudo, a utilização desses aplicativos de IA,
concebidos para acompanhamento e suporte pessoal, tem provocado impactos
psicológicos e emocionais sobre a saúde mental de crianças adolescentes. Repetem-se
casos envolvendo o suicídio de menores após interações intensas com chatbots de IA, nos quais os aplicativos
são acusados de se envolver em conversas sexualmente explícitas, manipular
emoções, isolar usuários jovens do convívio familiar e, até mesmo, instigar a
automutilação e o suicídio.
Além de impor obrigações às plataformas digitais para a
criação de ambientes mais seguros - proibindo publicidade direcionada por perfil, exigindo
verificação etária, implementando controle parental robusto, limitando o uso
compulsivo e determinando remoção célere de conteúdos nocivos (como, p. ex., cyberbullying, automutilação e
exploração) -, a Lei 15.211/2025
estabelece que todos os produtos e serviços de tecnologia da informação
destinados a crianças e adolescentes, ou por eles acessados, devem ser seguros
(art. 5º.). Os fornecedores devem adotar medidas técnicas e mecanismos que
possibilitem à família e aos responsáveis legais prevenir o acesso e o uso
inadequado desses serviços (§ 1º.), com o objetivo de preservar, entre outros
direitos, a saúde mental dos menores (§ 2º.).
Os
fornecedores de produtos e serviços de tecnologia da informação destinados a crianças
e adolescentes, ou de acesso provável por esse público, devem, ainda, adotar medidas razoáveis desde a fase
de concepção e ao longo da operação de suas aplicações, com o propósito de
prevenir e mitigar riscos de acesso, exposição, recomendação ou facilitação de
contato com conteúdos, produtos ou práticas que induzam ou auxiliem, por meio de instruções ou orientações,
comportamentos capazes de gerar danos à saúde física ou mental de
crianças e de adolescentes, tais como autodiagnóstico, automedicação,
automutilação e suicídio (art. 6º., III).
Tais
fornecedores também estão obrigados, nos termos do art. 8º. da Lei nº
15.211/2025, a: a) realizar gerenciamento de riscos de seus sistemas
e de seus impactos quanto à segurança e saúde de crianças e adolescentes; b) proceder
à avaliação de conteúdo disponibilizado para esse público; c) oferecer
sistemas que impeçam o contato de crianças e adolescentes com conteúdos
ilegais, pornográficos ou inadequados à respectiva faixa etária; d) desenvolver
sistemas e adotar padrões de configuração que evitem o uso compulsivo de
produtos e serviços; e e) informar, no momento de acesso ao sistema, a faixa
etária indicada para o produto ou serviço.
Com vistas à proteção
de crianças e adolescentes contra conteúdos
impróprios e inadequados (assim considerados os que contenham material
pornográfico ou qualquer outro vedado pela legislação vigente), a Lei
15.211/2025 determina que os provedores de plataformas e serviços digitais adotem
mecanismos de aferição de idade a cada acesso do usuário (art. 9º., §
1º.). Tais mecanismos consistem em sistemas
e tecnologias destinados a verificar a idade real dos usuários, restringindo o acesso de crianças e
adolescentes a conteúdos inadequados ao seu grau de desenvolvimento. Devem, por
isso, ser desenvolvidos de modo a “proporcionar
experiências adequadas à idade”, “respeitadas a autonomia progressiva e a
diversidade de contextos socioeconômicos brasileiros” (art. 10).
Os mecanismos de controle
parental também ocupam posição central na Lei n. 15.211/2025.
Tratam-se de ferramentas e
tecnologias que permitem aos pais ou responsáveis monitorar e gerenciar as
atividades de seus filhos, especialmente em ambientes digitais, garantindo a
segurança dos menores, promovendo hábitos digitais saudáveis e protegendo-os de
conteúdos inadequados ou perigosos. O art. 17, I, do ECA Digital estabelece que os fornecedores
de produtos ou serviços de tecnologia da informação direcionados a crianças e a
adolescentes, ou de acesso provável por esse público, devem “disponibilizar configurações e ferramentas
acessíveis e fáceis de usar que apoiem a supervisão parental”. Prevê-se, ainda,
que tais mecanismos de monitoração parental devem “oferecer funcionalidades que
permitam limitar e monitorar o tempo de uso do produto ou serviço” (art.
17, IV).
Como se observa, o ECA
Digital (Lei n. 15.211/2025) instituiu um
conjunto abrangente de regras que estruturam políticas e estratégias destinadas
a combater a dependência digital e a resguardar a saúde mental
de crianças e adolescentes diante do uso de sistemas de IA para acompanhamento
emocional.
O problema é que o legislador
previu um período de vacatio legis
relativamente extenso. Embora sancionada
em setembro de 2025, a Lei 15.211/2025 só entrará em vigor em março de 2026, com um prazo de adaptação de seis meses[4]
para que plataformas e serviços digitais implementem as novas regras de
proteção de crianças e adolescentes nos espaços on-line, incluindo verificação etária
e supervisão parental.
Todavia, diante do cenário de
verdadeira “epidemia” de problemas psicológicos associados ao uso de sistemas
de IA Generativa, seria desejável que o legislador tivesse reduzido o prazo de entrada
em vigor da Lei, ao menos no que diz respeito aos fornecedores de aplicativos
que funcionam como suporte emocional e substitutos da companhia humana.
Recife,
06 de janeiro de 2026.
[1]
Ver nosso artigo anterior, sob o título
“MODELOS DE IA QUE COMPREENDEM AS EMOÇÕES HUMANAS – Implicações éticas e riscos à saúde de
crianças e adolescentes”, publicado no site do IMN – Instituto dos Magistrados
do Nordeste, em 30.12.25, disponível em:
https://imn.org.br/artigos/ver/modelos-de-ia-que-compreendem-as-emocoes-humanas-implicacoes-eticas-e-riscos-a-saude-de-criancas-e-adolescentes
[2] O
Projeto de Lei (PL) 2.628/2022, proposto pelo senador Alessandro Vieira, foi a
base para a lei, ganhando força após discussões no Congresso.
[3] Ver, por exemplo, os produtos oferecidos pela plataforma Replika (www.replika.com), que permite que cada usuário construa seu próprio avatar. O usuário pode criar e personalizar a aparência física do seu companheiro virtual, incluindo características faciais, corpo, cabelo e roupas. A comunicação com o avatar é feita na forma de mensagens de texto ou chamadas de voz, mas o aplicativo também oferece reursos de realidade aumentada (AR), permitindo que o usuário projete o avatar no mundo real através da câmera do dispositivo para uma experiência mais imersiva.
[4] Art. 41-A. Esta Lei entra em vigor seis meses após a data de sua publicação.
