_
_
_
_

Estados Unidos investiga a la empresa de ChatGPT por si infringe datos de consumidores

La FTC investiga si OpenAI pone en peligro los derechos de los usuarios en el proceso de generación contenido falso

M. J./ EP
ChatGPT está caído y no funciona correctamente. ¿Qué se puede hacer?
Una captura de la aplicación de inteligencia artificial ChatGPT. FLORENCE LO ( REUTERS)

La Comisión Federal de Comercio de Estados Unidos (FTC en inglés) ha abierto una investigación a OpenAI, la empresa que está detrás de ChatGPT, para determinar si ha violado las leyes de protección al consumidor y “pone en peligro” los derechos de los usuarios en el proceso de la generación de contenido falso.

El organismo envió esta semana una demanda de investigación civil de 20 páginas a la compañía liderada por Sam Altman donde plantea a OpenAI varias preguntas, como sus prácticas para entrenar modelos de inteligencia artificial y su manejo de la información personal de los usuarios, según informó este jueves The Washington Post. La carta muestra varios ejemplos donde se mostraría las malas prácticas de la compañía. Uno, es un incidente de 2020 en el que la empresa reveló un error que permitía a los usuarios ver información sobre otros chats e información relacionada con el pago de otros usuarios.

La FTC ha pedido a OpenAI que proporcione descripciones detalladas de todas las quejas que había recibido de sus productos que hacían declaraciones “falsas, engañosas, despectivas o dañinas”. En una de las respuestas, ChatGPT aseguró que un abogado había hecho comentarios sexualmente sugerentes e intentó tocar a un estudiante en un viaje escolar, citando un artículo que, según dijo el chatbot, había aparecido en The Washington Post. Pero dicho artículo no existía, el viaje nunca ocurrió y el abogado señaló que nunca había sido acusado de acosar a un estudiante.

La agencia estadounidense ha exigido al creador de ChatGPT una descripción detallada de los datos que OpenAI utiliza para entrenar sus productos y cómo está trabajando para evitar lo que se conoce en la industria de la tecnología como “alucinaciones”, problema que se da cuando las respuestas del chatbot están bien estructuradas pero son completamente incorrectas.

La presidenta de la FTC, Lina Khan, ya había expresado anteriormente su preocupación por la IA, afirmando que las autoridades “deben estar alerta desde el principio” con herramientas transformadoras como la inteligencia artificial, recordó Bloomberg.

Altman, que recientemente visitó Europa (en España mantuvo un encuentro con el presidente del Gobierno Pedro Sánchez), se ha mostrado en los últimos meses como un claro defensor de la regulación. En una audiencia celebrada en mayo, el CEO de OpenAI, empresa respaldada por Microsoft, dijo que el Congreso de EE UU debería crear normas de seguridad sólidas para los sistemas avanzados de inteligencia artificial.

“Si esta tecnología sale mal, puede salir bastante mal”, dijo Altman. No es el único que ha levantado la alarma sobre los posibles efectos de la IA. Elon Musk, propietario de Twitter, se unió hace unos meses a un grupo amplio de empresarios y científicos que advirtió sobre las posibles consecuencias de la generalización de la IA y pidió la suspensión durante seis meses de los sistemas “más poderosos que GPT-4″, el último modelo lanzado por OpenAI.

La investigación abierta por la FTC no es el primer toque de atención que recibe la joven empresa de Altman. El pasado 31 de marzo, la Oficina italiana para la Protección de Datos Personales dispuso el bloqueo “con efecto inmediato” de ChatGPT tras acusar a la compañía de no respetar la ley de protección de datos de los consumidores. Más tarde, en abril, La Agencia Española de Protección de Datos (AEPD) reclamó que el Comité Europeo de Protección de Datos evalúe los problemas de privacidad en torno a ChatGPT, y casi en paralelo la Comisión Nacional de Informática y Libertades (CNIL) de Francia hizo público que investiga varias quejas sobre esta aplicación de inteligencia artificial, aunque no entró en detalles.

La regulación europea respecto a la inteligencia artificial entrará en vigor en 2024 y Bruselas asegura que su objetivo principal es abordar los riesgos generados por los distintos usos de la IA a través de “un conjunto de normas complementarias, proporcionadas y flexibles”.


Sigue toda la información de Cinco Días en Facebook, Twitter y Linkedin, o en nuestra newsletter Agenda de Cinco Días

Sobre la firma

M. J./ EP
Redactora senior en la sección de Empresas de CINCODIAS. Sigue la actualidad del sector de tecnologías de la información y del ecosistema emprendedor español. Antes de incorporse al diario en 2000 trabajó en Actualidad Económica y los suplementos Futuro y Negocio en EL PAIS. Es licenciada en Periodismo por la Universidad Complutense de Madrid.

Más información

Archivado En

_
_