OpenAI dice que ChatGPT tendrá controles parentales «en el próximo mes»

La empresa matriz de ChatGPT, OpenAI, anunció que planea lanzar controles parentales para su popular asistente de inteligencia artificial “en el próximo mes”, tras denuncias de que este y otros chatbots habrían contribuido a casos de autolesiones o suicidios entre adolescentes.

Los controles incluirán la opción de que los padres vinculen su cuenta con la de sus hijos, gestionen cómo responde ChatGPT a los usuarios adolescentes, desactiven funciones como la memoria y el historial de chats, y reciban notificaciones cuando el sistema detecte “un momento de angustia aguda” durante su uso. OpenAI ya había dicho que trabajaba en controles parentales, pero el martes precisó el plazo de lanzamiento.

“Estos pasos son solo el comienzo”, escribió OpenAI en una publicación de blog. “Seguiremos aprendiendo y reforzando nuestro enfoque, guiados por expertos, con el objetivo de que ChatGPT sea lo más útil posible”.

El anuncio llega después de que los padres de Adam Raine, un joven de 16 años, demandaran a OpenAI alegando que ChatGPT le aconsejó sobre su suicidio. El año pasado, una madre en Florida demandó a la plataforma de chatbots Character.AI por su presunta implicación en el suicidio de su hijo de 14 años. También han crecido las preocupaciones sobre los vínculos emocionales que algunos usuarios establecen con ChatGPT, lo que en ciertos casos habría derivado en episodios delirantes y distanciamiento familiar, según reportes de The New York Times y CNN.

OpenAI no vinculó directamente sus nuevos controles parentales a esos reportes recientes, pero dijo en un blog la semana pasada que “casos desgarradores recientes de personas usando ChatGPT en medio de crisis agudas” lo motivaron a compartir más detalles sobre su enfoque de seguridad. ChatGPT ya incluía medidas como la derivación a líneas de ayuda en crisis y otros recursos, explicó previamente un portavoz a CNN.

Sin embargo, en una declaración de la semana pasada tras el suicidio de Raine, la empresa admitió que sus protecciones pueden volverse poco confiables cuando los usuarios sostienen conversaciones largas con ChatGPT.

“ChatGPT incluye protecciones como dirigir a las personas a líneas de ayuda en crisis y remitirlas a recursos en el mundo real”, dijo un portavoz. “Aunque estas protecciones funcionan mejor en intercambios comunes y breves, con el tiempo hemos aprendido que pueden volverse menos confiables en interacciones largas, donde partes del entrenamiento en seguridad del modelo pueden degradarse. Las protecciones son más sólidas cuando cada elemento funciona como se espera, y las mejoraremos de manera continua, guiados por expertos”.

Además de los controles parentales anunciados el martes, OpenAI dijo que canalizará las conversaciones con señales de “estrés agudo” hacia uno de sus modelos de razonamiento, que —según la compañía— sigue y aplica las pautas de seguridad con mayor consistencia. También trabaja con expertos en “desarrollo juvenil, salud mental e interacción humano-computadora” para diseñar protecciones futuras, incluidos más controles parentales.

“Aunque el consejo nos asesorará sobre producto, investigación y decisiones de política, OpenAI sigue siendo responsable de las elecciones que tomamos”, escribió la compañía en su blog.

OpenAI ha estado en el centro del auge de la inteligencia artificial, con ChatGPT como uno de los servicios más usados, con 700 millones de usuarios activos semanales, pero enfrenta una presión creciente para garantizar la seguridad de su plataforma. Senadores de EE.UU. enviaron en julio una carta exigiendo información sobre esos esfuerzos, según The Washington Post. Y el grupo Common Sense Media afirmó en abril que los adolescentes menores de 18 años no deberían usar aplicaciones de IA “compañeras” porque presentan “riesgos inaceptables”.

La compañía también ha enfrentado críticas por el tono y estilo de ChatGPT en sus interacciones; en abril retiró una actualización que hacía que el chatbot sonara “excesivamente adulador o complaciente”. El mes pasado reintrodujo la opción de cambiar a modelos anteriores después de que usuarios criticaran la última versión, GPT-5, por su falta de personalidad. Exejecutivos de OpenAI también acusaron a la empresa de haber reducido recursos en seguridad en el pasado.

OpenAI dijo que implementará medidas adicionales de seguridad en los próximos 120 días, y señaló que este trabajo ya estaba en marcha antes del anuncio del martes.

“Este trabajo continuará mucho más allá de este período, pero estamos haciendo un esfuerzo enfocado para lanzar tantas de estas mejoras como sea posible este año”, indicó.

The-CNN-Wire
™ & © 2025 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.

Lo más visto

¿Qué está pasando con Juan Soto y su rendimiento en 2025 en la MLB?,
Juez rechaza solicitud del Gobierno de Trump para divulgar documentos del jurado investigador sobre Jeffrey Epstein,
Tribunal de apelaciones avala que el Gobierno de Trump ponga fin temporal al TPS para personas de Honduras, Nicaragua y Nepal,
Maduro, desafiante: "Que lo sepan los imperios, Venezuela tiene con qué",
Los residentes de Washington se sienten menos seguros tras la toma de control de Trump, revela encuesta,