Plataforma impõe limite de uso para adolescentes
A Character.AI informou que, até 25 de novembro, usuários menores de idade poderão utilizar os chatbots por até duas horas diárias. Após essa data, a empresa pretende implementar restrições mais rígidas, impedindo que menores interajam livremente com personagens virtuais.
A mudança representa uma das medidas mais conservadoras adotadas por empresas do setor de inteligência artificial, segundo comunicado oficial da companhia. A decisão foi baseada em análises de especialistas, órgãos reguladores e feedback de pais sobre o impacto do uso da tecnologia por jovens.
Processo judicial motivou mudanças
A decisão ocorre após um processo movido nos Estados Unidos por Megan Garcia, mãe de um adolescente de 14 anos que morreu por suicídio. Segundo a ação, o jovem teria desenvolvido uma relação emocional intensa com um chatbot da plataforma.
O adolescente interagia com uma personagem inspirada na série Game of Thrones e chegou a compartilhar pensamentos suicidas durante as conversas. A acusação afirma que o sistema simulava comportamentos humanos, incluindo interações de cunho emocional e adulto, o que teria contribuído para o isolamento do jovem.
Além da Character.AI, o Google também foi incluído na ação judicial, sob a alegação de participação no desenvolvimento da tecnologia. A empresa negou qualquer responsabilidade direta, afirmando que as duas companhias operam de forma independente.
Outros casos aumentam pressão sobre plataformas
O processo não é um caso isolado. Outras famílias também acionaram a Justiça alegando impactos negativos do uso de chatbots por adolescentes. Entre os relatos estão exposição a conteúdo inadequado, incentivo à automutilação e agravamento de crises de saúde mental.
Em um dos casos, um adolescente autista teria sofrido um colapso emocional após uso intensivo da plataforma. Em outro, um menor teria sido incentivado a agir de forma violenta após limitações impostas pelos pais ao uso de telas.
Esses episódios ampliaram a pressão sobre empresas de tecnologia para criar mecanismos de segurança mais rigorosos.
Novas medidas de segurança e controle
Antes mesmo das novas restrições, a Character.AI já havia implementado ferramentas de alerta para identificar termos relacionados a suicídio e automutilação. Quando detectados, o sistema passa a direcionar o usuário para canais de apoio psicológico.
Com as mudanças, a empresa também pretende fortalecer recursos voltados ao público jovem, como criação de histórias e conteúdos criativos, com maior controle e supervisão.
A iniciativa acompanha um movimento mais amplo no setor de tecnologia, onde plataformas buscam equilibrar inovação com responsabilidade no uso da inteligência artificial.
Debate sobre IA e saúde mental cresce
O avanço de chatbots cada vez mais realistas tem levantado preocupações sobre seus efeitos psicológicos, especialmente entre adolescentes. Especialistas alertam que a interação frequente com sistemas que simulam relações humanas pode afetar o desenvolvimento emocional e social.
Diante disso, cresce o debate sobre a necessidade de regulamentação mais rígida, limites de uso e maior transparência no funcionamento dessas tecnologias.
Onde buscar ajuda
Casos de sofrimento emocional e risco à saúde mental devem ser tratados com apoio profissional. No Brasil, serviços como o Centro de Valorização da Vida (CVV), pelo telefone 188, oferecem atendimento gratuito e sigiloso 24 horas por dia.
Unidades de saúde, CAPS e pronto atendimento também são alternativas para suporte imediato.
Conclusão
A decisão da Character.AI marca um ponto de inflexão no uso de inteligência artificial por jovens. O caso evidencia a necessidade de limites claros, responsabilidade das plataformas e acompanhamento do uso dessas tecnologias por menores, em um cenário onde inovação e segurança precisam caminhar juntas.







