Saltar al contenido

Regulador estadounidense investiga chatbots de IA por seguridad infantil

VCG

La Comisión Federal de Comercio de EE. UU. (FTC) anunció el jueves que inició una investigación sobre los chatbots de IA que actúan como compañeros digitales, centrándose en los riesgos potenciales para niños y adolescentes.

La agencia de protección al consumidor emitió órdenes a siete empresas, incluidos los gigantes tecnológicos Alphabet, Meta, OpenAI y Snap, en busca de información sobre cómo monitorean y abordan los impactos negativos de los chatbots diseñados para simular relaciones humanas.

«Proteger a los niños en línea es una prioridad máxima para» la FTC, dijo el presidente Andrew Ferguson, enfatizando la necesidad de equilibrar la seguridad infantil con el mantenimiento del liderazgo estadounidense en la innovación en IA.

La investigación se dirige a los chatbots que utilizan IA generativa para imitar la comunicación y las emociones humanas, presentándose a menudo como amigos o confidentes ante los usuarios.

Los reguladores expresaron especial preocupación de que los niños y adolescentes puedan ser especialmente vulnerables a la hora de establecer relaciones con estos sistemas de IA.

La FTC está utilizando sus amplios poderes de investigación para examinar cómo las empresas monetizan la participación de los usuarios, desarrollan personalidades de chatbot y miden el daño potencial.

La agencia también quiere saber qué medidas están tomando las empresas para limitar el acceso de los niños y cumplir con las leyes de privacidad existentes que protegen a los menores en línea.

Las empresas que reciben pedidos incluyen Character.AI, xAI Corp de Elon Musk y otras que operan chatbots de IA orientados al consumidor.

La investigación examinará cómo estas plataformas manejan la información personal de las conversaciones de los usuarios y hacen cumplir las restricciones de edad.

La comisión votó unánimemente a favor de iniciar el estudio, que no tiene un propósito específico de aplicación de la ley, pero podría informar acciones regulatorias futuras.

La investigación se produce cuando los chatbots de IA se han vuelto cada vez más sofisticados y populares, lo que plantea dudas sobre su impacto psicológico en los usuarios vulnerables, particularmente los jóvenes.

El mes pasado, los padres de Adam Raine, un adolescente que se suicidó en abril a los 16 años, presentaron una demanda contra OpenAI, acusando a ChatGPT de darle a su hijo instrucciones detalladas sobre cómo llevar a cabo el acto.

Poco después de que surgiera la demanda, OpenAI anunció que estaba trabajando en medidas correctivas para su chatbot líder en el mundo. La empresa con sede en San Francisco afirmó haber observado en particular que, cuando los intercambios con ChatGPT se prolongan, el chatbot ya no sugiere sistemáticamente ponerse en contacto con un servicio de salud mental si el usuario menciona tener pensamientos suicidas.