Chatbots de IA 'sexualizados' representam ameaça para crianças, alertam procuradores-gerais em carta
A National Association of Attorneys General (NAAG) enviou uma carta para 13 empresas de IA, incluindo OpenAI, Anthropic, Apple e Meta, exigindo salvaguardas mais rigorosas para proteger crianças contra conteúdos inadequados e prejudiciais.
O órgão alertou que crianças estavam sendo expostas a materiais de teor sexual através de chatbots de IA “flertantes”.
"Expor crianças a conteúdo sexualizado é indefensável", escreveram os procuradores-gerais. "E condutas que seriam ilegais — ou até mesmo criminosas — se feitas por humanos, não são desculpáveis simplesmente porque são feitas por uma máquina."
A carta também fez comparações com o crescimento das redes sociais, dizendo que as agências governamentais não fizeram o suficiente para destacar as formas como elas impactaram negativamente as crianças.
“Plataformas de redes sociais causaram danos significativos às crianças, em parte porque os órgãos de fiscalização do governo não fizeram seu trabalho rápido o suficiente. Lições aprendidas. Os potenciais danos da IA, assim como os potenciais benefícios, superam o impacto das redes sociais", escreveu o grupo.
O uso de IA entre crianças é generalizado. Nos EUA, uma pesquisa da organização sem fins lucrativos Common Sense Media descobriu que sete em cada dez adolescentes já haviam experimentado IA generativa em 2024. Em julho de 2025, constatou-se que mais de três quartos estavam usando companheiros de IA e que metade dos entrevistados afirmou depender deles regularmente.
Outros países observaram tendências semelhantes. No Reino Unido, uma pesquisa do ano passado realizada pelo órgão regulador Ofcom revelou que metade das crianças online de 8 a 15 anos havia utilizado uma ferramenta de IA generativa no ano anterior.
O uso crescente dessas ferramentas tem gerado preocupação crescente entre pais, escolas e grupos de direitos das crianças, que apontam riscos que vão desde chatbots “flertantes” de teor sexual, material de abuso sexual infantil gerado por IA, bullying, aliciamento, extorsão, desinformação, violações de privacidade e impactos na saúde mental pouco compreendidos.
A Meta tem sido especialmente criticada recentemente após documentos internos vazados revelarem que seus Assistentes de IA foram autorizados a “flertar e participar de encenações românticas com crianças”, incluindo aquelas com apenas oito anos de idade. Os arquivos também mostraram políticas que permitiam que chatbots dissessem a crianças que sua “forma juvenil é uma obra de arte” e as descrevessem como um “tesouro”. Posteriormente, a Meta afirmou ter removido essas diretrizes.
A NAAG afirmou que as revelações deixaram os procuradores-gerais “revoltados com esse aparente desrespeito pelo bem-estar emocional das crianças” e alertou que os riscos não se limitavam à Meta.
O grupo citou processos contra Google e Character.ai alegando que chatbots sexualizados contribuíram para o suicídio de um adolescente e encorajaram outro a matar seus pais.
Entre os 44 signatários estava o Procurador-Geral do Tennessee, Jonathan Skrmetti, que afirmou que as empresas não podem defender políticas que normalizam interações sexualizadas com menores.
“Uma coisa é um algoritmo sair do controle — isso pode ser corrigido — mas é outra coisa quando pessoas que dirigem uma empresa adotam diretrizes que autorizam ativamente o aliciamento”, disse ele. “Se não conseguirmos direcionar a inovação para longe de prejudicar crianças, isso não é progresso — é uma praga.”
A Decrypt entrou em contato, mas ainda não obteve resposta de todas as empresas de IA mencionadas na carta.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
AiCoin Diário (26 de agosto)
Desvendando o enigma dos preços: de onde vem o valor duradouro do blockchain?
Se medirmos o sucesso pela especulação, estaremos construindo castelos de areia. Se medirmos o sucesso pela infraestrutura, estaremos lançando as bases.
Entrevista com Ray Dalio: Das estratégias de alocação de ativos à sucessão de riqueza, 10 regras de gestão financeira para amigos chineses
A longo prazo, o dinheiro em espécie é um péssimo investimento.

O que é afinal o meme de Ethereum que até Tom Lee está de olho?
Haverá uma tendência de memes com o conceito de Tom Lee?

Populares
MaisPreços de criptomoedas
Mais








