La Agencia Española de Protección de Datos (AEPD) anunciaba este jueves que ha iniciado de oficio actuaciones previas de investigación a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa.

También este mismo jueves, el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) informaba de que se había abierto un grupo de trabajo sobre esta inteligencia artificial generativa. Su objetivo es “promover la cooperación y el intercambio de información sobre posibles iniciativas para la aplicación del Reglamento Europeo llevadas a cabo por las Autoridades de Protección de Datos”.

La Agencia española afirma que ya la semana pasada solicitó al EDPB que se incluyera el servicio ChatGPT como tema a abordar en su reunión plenaria, al considerar que los “tratamientos globales que pueden tener un importante impacto sobre los derechos de las personas requieren de acciones armonizadas y coordinadas a nivel europeo en aplicación del Reglamento General de Protección de Datos”.

¿Y cuál es el punto de partida de todos estos movimientos? El anuncio, el pasado 30 de marzo, de una limitación provisional a ChatGPT por parte del Garante para la Protección de Datos Personales (GPDP) de Italia, que informó que bloqueaba “con efecto inmediato” el uso de la herramienta en el país.

La medida de la autoridad italiana estuvo motivada porque este chatbot sufrió el pasado 20 de marzo una pérdida de datos sobre sus usuarios y los datos de pago de sus abonados. Este jueves, Italia dio de plazo hasta el 30 de abril a OpenAI para que adapte la gestión de datos de ChatGPT a su normativa.

Preocupación de la comunidad científica y de expertos del sector tecnológico

Científicos de numerosos centros de investigación y universidades de varios países alertan, en un artículo que publicado por la revista Science, de los elevados riesgos de la IA y de las consecuencias catastróficas que los fallos que esta tecnología puede causar.

Los investigadores han subrayado que los sistemas de inteligencia artificial ya se han puesto a prueba en una amplia gama de aplicaciones, desde el diagnóstico médico hasta la navegación de coches autónomos, pero han alertado de que estos son escenarios “de alto riesgo” en los que los márgenes de error son escasos y las consecuencias de un fallo pueden ser fatales.

El artículo en Science llega apenas quince días después de que 5.500 expertos de todo el mundo publicaran una carta abierta en la que abogaban por pausar durante un tiempo los experimentos con la IA más potente y avanzada —la llamada ‘generativa’ y que es capaz de crear textos o imágenes a partir de datos ya existentes— ante los riesgos que puede entrañar para la sociedad.

Hoy firman en Science investigadores de varias instituciones académicas y científicas, entre las que están las universidades de Cambridge, Harvard, Stanford, Shandong (China), la Politécnica de Valencia, el Imperial College London, el Instituto Tecnológico de Massachusetts (MIT) y varias empresas, entre ellas Google o la británica DeepMind, una de las mayores multinacionales del sector de la inteligencia artificial.

Los sesgos en los sistemas de IA no son intrínsecos a la tecnología, sino que reflejan los prejuicios en los datos y decisiones humanas utilizados para entrenar los modelos”, ha aseverado a EFE el investigador Fernando Martínez-Plumed, científico y profesor en el Instituto Valenciano de Investigación en Inteligencia Artificial (Universidad Politécnica de Valencia). 

Martínez-Plumed ha precisado que unas tecnologías de IA pueden tener más riesgos que otras, como las que involucran la toma de decisiones críticas o el acceso a información privada, los sistemas de vigilancia o los algoritmos de contratación; o los más modernos, capaces de generar de texto, imágenes, audios o vídeos. “Son capaces de crear obras de arte y textos impresionantes, pero también presentan nuevos riesgos para la sociedad: la creación de contenidos falsos, engañosos o incluso peligrosos, como noticias falsas, contenidos ofensivos, discriminatorios e ilegales”, ha manifestado el investigador.

¿En qué situación se encuentra ChatGPT en Italia, España y el resto de Europa?

Cuando Italia comunicó su intención de vetar ChatGPT, OpenAI respondió rápidamente a la orden de la autoridad de protección de datos del país, bloqueando el acceso a su herramienta de IA generativa de texto. Eso sí, no sin que el director ejecutivo, Sam Altman, dijese en una breve —pero directa— declaración pública que piensa que siguen “todas las leyes de privacidad”.

Pero Italia no es el único país preocupado por la privacidad. Newtral indicaba que los reguladores de Alemania y Francia se han puesto en contacto con el garante italiano para investigar a ChatGPT por si deben imponer bloqueos similares. Y ahora la cosa ha llegado a la Agencia Española de Protección de Datos.

De momento, a diferencia de Italia, en estos países no se han establecido restricciones o prohibiciones a OpenAI, pero, ¿qué ocurriría si así fuera?

Qué hacer si bloquean ChatGPT en tu país

Lo cierto es que ChatGPT y, en general, las inteligencias artificiales generativas de texto, imagen, vídeo y audio viven un momento dulce. Solo hay que pararse en los datos de uso: la herramienta logró captar 10 millones de usuarios diarios en menos de 40 días desde su lanzamiento, convirtiéndose en la plataforma de Internet con el crecimiento más acelerado de toda la historia, por encima de TikTok o Facebook.

Según datos de Gfk Dam, de esos 10 millones de usuarios únicos, 2,23  eran en España. Y hablamos de datos de enero, probablemente a fecha actual tendríamos que sumar un buen paquete más. 

Así que hablamos de un número importante de personas que cada día se conectan a esta herramienta. Como casi siempre en lo que a tecnología se refiere, saltarse un veto territorial tiene truco.

Cuando OpenAI geobloqueó el acceso a su servicio en Italia, el país vio cómo el uso de servicios de VPN se disparaba.

Desde que se aplicó la prohibición el 1 de abril, el proveedor de VPN PureVPN ha registrado un aumento inusual del tráfico en su sitio web procedente de Italia

Según Atlas VPN, otra compañía del sector, durante el mes de marzo los italianos instalaron su aplicación unas 4.213 veces de media al día, mientras que el día en que OpenAI anunció su geobloqueo las instalaciones de VPN se dispararon un 121%, lo que equivale a 9.302 descargas.

El 1 de abril, las descargas de VPN originadas en Italia se dispararon un 404%. Al día siguiente, el número total de instalaciones de VPN fue un 359% superior a la media de marzo. Por último, el 3 de abril, las descargas empezaron a ralentizarse, pero seguían siendo significativamente superiores, un 270% por encima de los niveles previos a la prohibición de los servicios ChatGPT.

La compañía explica que “aunque los usuarios pueden utilizar una VPN para eludir el bloqueo cambiando a una dirección IP no italiana, es posible que las cuentas de ChatGPT registradas inicialmente en Italia ya no estén disponibles. En consecuencia, los usuarios interesados a acceder a ChatGPT desde Italia se ven en la necesidad de crear una nueva cuenta empleando una dirección IP no italiana”.

Gráfico del número de instalaciones de VPN de la empresa Atlas VPN en Italia.
Gráfico del número de instalaciones de VPN de la empresa Atlas VPN en Italia.
Atlas VPN

Los datos de Google Trends también indican que la palabra clave ‘VPN’ ganó mucho interés en Italia tras la prohibición de ChatGPT. Google Trends mide el interés de las búsquedas en una escala de 0 a 100, en la que 100 representa la máxima popularidad de un término.

Días antes del geobloqueo de ChatGPT, el interés de los italianos por las VPN era relativamente bajo. A finales de marzo, el interés rondaba los 15 puntos. El 1 de abril, el interés creció de 14 a 100, lo que indica un aumento del 600%. El interés por las VPN se mantuvo alto, sin caer por debajo de 50, durante los días siguientes.

Google Trends muestra un gran aumento en las búsquedas relacionadas con VPN desde Italia.
Google Trends muestra un gran aumento en las búsquedas relacionadas con VPN desde Italia.
20BITS

Recordamos que una VPN —abreviatura de Virtual Private Network, en español red privada virtual— es un software de seguridad que cifra todos los datos que salen de un dispositivo al tiempo que falsea la ubicación real de la dirección IP de las personas.

Eso es exactamente para lo que sirve una VPN si quieres usar ChatGPT en un país en el que está bloqueado. Al conectarse a uno de sus servidores internacionales ubicados donde la herramienta no esté vetada, los usuarios en Italia y en otros lugares donde el software está prohibido pueden acceder al chatbot avanzado en cuestión de segundos.

Desde Atlas VPN comentan: “El geobloqueo de ChatGPT en Italia y el consiguiente aumento del uso de VPN ponen de manifiesto que la gente intentará acceder a los servicios online que necesite, a pesar de las restricciones de Internet. Se trata de un poderoso recordatorio de la importancia de la libertad en la red y del papel que herramientas como las VPN pueden desempeñar para garantizar el acceso a la información y la comunicación”.

¿ChatGPT regresará realmente a Italia a finales de abril?

Como decía más arriba, la GPDP ha dado hasta el 30 de abril a OpenAI para cumplir con una serie de requisitos acordes a la privacidad. De hacerlo, ChatGPT podría regresar a Italia.

“Estamos contentos de que el Garante italiano esté reconsiderando su decisión y esperamos trabajar con ellos para que ChatGPT vuelva a estar disponible para nuestros clientes en Italia pronto”, comunicaba OpenAI.

Entre los requisitos establecidos, OpenAI ha de publicar información en su sitio web sobre cómo y por qué procesa la información personal tanto de los usuarios como de los no usuarios, así como brindar la opción de corregir o eliminar esos datos.

Además, OpenAI tendrá que confiar en el consentimiento o el “interés legítimo” para usar datos personales para entrenar los algoritmos de ChatGPT.

OpenAI también deberá realizar una campaña publicitaria antes del 15 de mayo a través de la radio y la televisión, los periódicos e Internet para informar a las personas sobre cómo utiliza sus datos personales para entrenar algoritmos.

Asimismo, se obliga a la empresa a verificar las edades de los usuarios y configurar un sistema para filtrar a los menores de 13 años y adolescentes de entre 13 y 18 años que no tengan el consentimiento de los padres.

“Solo en ese caso” la autoridad supervisora italiana levantará la orden que impuso una limitación temporal del acceso de los usuarios italianos a ChatGPT.

Cumplir con algunos de los requisitos que se plantean pueden suponer un reto para la compañía, sobre todo teniendo en cuenta que el margen de tiempo es limitado. En dos semanas veremos el resultado.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Artículo anteriorEl Comité Europeo de Protección de Datos abre un grupo de trabajo sobre ChatGPT
Artículo siguienteLos 5 requisitos que impone Italia a OpenAI para desbloquear ChatGPT en el país
Catamarca Provincia
Catamarca Provincia, Diario de Catamarca, provincia del Norte de Argentina, con toda la información de la región actualizada y seleccionada. https://catamarcaprovincia.com.ar/ Esta compuesta por 3 comunicadores que trabajan para informar los eventos mas destacados y de interés, desde política a Entretenimiento y Virales.