A Comissão Federal de Comércio dos EUA (FTC) está se preparando para investigar os riscos à saúde mental que os chatbots de inteligência artificial podem representar para crianças. A agência planeja exigir documentos internos de grandes empresas de tecnologia, incluindo OpenAI, Meta Platforms e Character.AI. Segundo o Daily Wire, a FTC está prestes a enviar cartas às empresas que operam chatbots populares, conforme relatado por funcionários da administração.
Character.AI declarou que ainda não recebeu uma carta sobre o estudo da FTC, mas expressou disposição para colaborar com reguladores e legisladores à medida que começam a considerar legislação para esse novo campo.
A FTC, OpenAI e Meta não responderam imediatamente aos pedidos de comentários da Reuters. A Reuters não conseguiu verificar de forma independente o relatório.
PUBLICIDADE
Um porta-voz da Casa Branca afirmou que a FTC e toda a administração estão focadas em cumprir o mandato de Trump “para consolidar a dominância da América em IA, criptomoeda e outras tecnologias de ponta do futuro” sem comprometer a segurança e o bem-estar das pessoas.
A notícia surge semanas após um relatório exclusivo da Reuters revelar como a Meta permitia comportamento provocador de chatbots com crianças, incluindo permitir que os bots participassem de “conversas que são românticas ou sensuais”. Na semana passada, a empresa de mídia social anunciou que adicionaria novas salvaguardas para adolescentes em seus produtos de inteligência artificial, treinando os sistemas para evitar conversas flertadoras e discussões sobre autolesão ou suicídio com menores, além de limitar temporariamente o acesso deles a certos personagens de IA.
PUBLICIDADE
Em junho, mais de 20 grupos de defesa do consumidor apresentaram uma reclamação à FTC e aos procuradores-gerais estaduais, alegando que plataformas de IA, como o Meta AI Studio e Character.AI, permitem a prática ilegal de medicina ao hospedar “bots de terapia”.
No último mês, o Procurador-Geral do Texas, Ken Paxton, iniciou uma investigação sobre a Meta e a Character.AI por supostamente enganar crianças com serviços de saúde mental gerados por IA, acusando-as de práticas comerciais enganosas e violações de privacidade.