La FTC investiga chatbots de IA «acompañantes» ante creciente preocupación por posibles daños a niños

La Comisión Federal de Comercio (FTC, por sus siglas en inglés) abrió una investigación sobre siete empresas tecnológicas por los posibles daños que sus chatbots de inteligencia artificial podrían causar a niños y adolescentes.

La investigación se centra en chatbots de IA que funcionan como acompañantes, los cuales “imitan efectivamente características, emociones e intenciones humanas, y en general están diseñados para comunicarse como un amigo o confidente, lo que puede llevar a que algunos usuarios, especialmente niños y adolescentes, confíen en ellos y establezcan relaciones con los chatbots”, dijo la agencia en un comunicado el jueves.

La FTC envió órdenes a Alphabet, empresa matriz de Google; Character.AI; Instagram y su matriz, Meta; OpenAI; Snap; y xAI, de Elon Musk. La agencia busca información sobre si las compañías miden el impacto de sus chatbots en los usuarios jóvenes, cómo protegen frente a riesgos y de qué manera alertan a los padres.

La investigación surge en medio de una creciente preocupación por el uso de la IA entre niños y adolescentes, tras una serie de demandas y reportes que acusan a los chatbots de estar implicados en suicidios, explotación sexual y otros daños. Eso incluye una demanda contra OpenAI y dos contra Character.AI que siguen en curso, incluso cuando las compañías aseguran que están incorporando nuevas funciones para proteger a los usuarios de interacciones dañinas.

También han surgido preocupaciones más amplias de que incluso usuarios adultos están desarrollando vínculos emocionales poco saludables con los chatbots de IA, en parte porque estas herramientas suelen estar diseñadas para ser complacientes y de apoyo.

Al menos un grupo de defensa de la seguridad en línea, Common Sense Media, ha argumentado que las aplicaciones de IA “compañeras” plantean riesgos inaceptables para los niños y no deberían estar disponibles para menores de 18 años. Dos proyectos de ley estatales en California sobre seguridad de chatbots de IA para menores, incluido uno respaldado por Common Sense Media, recibirán esta semana sus votos finales y, de aprobarse, llegarán al escritorio del gobernador de California, Gavin Newsom. El Comité Judicial del Senado de EE.UU. también celebrará la próxima semana una audiencia titulada “Examinando el daño de los chatbots de IA”.

“A medida que evolucionan las tecnologías de IA, es importante considerar los efectos que los chatbots pueden tener en los niños, al mismo tiempo que se asegura que Estados Unidos mantenga su papel como líder mundial en esta nueva y emocionante industria”, dijo el jueves el presidente de la FTC, Andrew Ferguson. “El estudio que lanzamos hoy nos ayudará a comprender mejor cómo las empresas de IA están desarrollando sus productos y qué pasos están tomando para proteger a los niños”.

En particular, las órdenes de la FTC buscan información sobre cómo las compañías monetizan la interacción de los usuarios, generan respuestas a las consultas, desarrollan y aprueban personajes de IA, usan o comparten información personal obtenida a través de las conversaciones y mitigan los impactos negativos en los niños, entre otros detalles.

Google, Snap y xAI no respondieron de inmediato a las solicitudes de comentarios.

“Nuestra prioridad es que ChatGPT sea útil y seguro para todos, y sabemos que la seguridad es lo más importante cuando se trata de jóvenes. Reconocemos que la FTC tiene preguntas y preocupaciones abiertas, y estamos comprometidos a colaborar de forma constructiva y responder directamente”, dijo en un comunicado Liz Bourgeois, vocera de OpenAI. Agregó que OpenAI cuenta con salvaguardas como notificaciones que dirigen a los usuarios a líneas de ayuda en crisis y planes para implementar controles parentales para menores.

Después de que los padres de Adam Raine, de 16 años, demandaran a OpenAI el mes pasado alegando que ChatGPT alentó el suicidio de su hijo, la empresa reconoció que sus salvaguardas pueden ser “menos confiables” cuando los usuarios mantienen conversaciones prolongadas con los chatbots y dijo que trabaja con expertos para mejorarlas.

Meta evitó comentar directamente sobre la investigación de la FTC. La compañía dijo que actualmente limita el acceso de adolescentes a un grupo selecto de sus personajes de IA, como aquellos que ayudan con tareas escolares. También entrena a sus chatbots para no responder a menciones de temas sensibles, como autolesiones o conversaciones románticas inapropiadas, y en su lugar dirigir a los adolescentes a recursos de expertos.

“Esperamos colaborar con la FTC en esta investigación y ofrecer una visión sobre la industria de la IA de consumo y la tecnología de rápida evolución en este ámbito”, dijo en un comunicado Jerry Ruoti, jefe de confianza y seguridad de Character.AI. Añadió que la empresa ha invertido en recursos de seguridad y confianza, como una nueva experiencia para menores de 18 años en la plataforma, una herramienta de información para padres y advertencias que recuerdan a los usuarios que están interactuando con una IA.

The-CNN-Wire
™ & © 2025 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Lo más visto

Investigan videos en línea y escritos posiblemente vinculados a la persona sospechosa del tiroteo en iglesia de Minneapolis,
En la disputa entre Trump y Maduro, estos países de América latina ya tomaron posición,
Maduro y Trump intercambian gestos de guerra: ¿Hasta dónde llegarán?,
Evacúan al presidente Milei de un acto de campaña después de que arrojaron piedras y objetos a su vehículo en Argentina,
¿Quién Robin Westman, la persona sospechosa del tiroteo en la escuela católica de Minneapolis?,