Uno de los grandes enigmas del entorno digital sigue sin respuesta clara: ¿alguien ha leído íntegramente los términos y condiciones de uso de las plataformas digitales, redes sociales o servicios de inteligencia artificial? Más allá de la anécdota, la falta de lectura consciente de estos documentos puede entrañar riesgos considerables para los usuarios. Y es que, aun cuando se leen, la complejidad jurídica de su redacción impide muchas veces entender las implicaciones reales de aquello que se acepta con un clic.
Está ampliamente asumido que cualquier contenido compartido en línea queda expuesto a una suerte de esfera pública. Eso significa que su control se diluye: fotografías, vídeos o mensajes pueden ser replicados, tergiversados o incluso empleados para fines ilícitos sin que el usuario original llegue nunca a saberlo.
Está ampliamente asumido que cualquier contenido compartido en línea queda expuesto a una suerte de esfera pública. Eso significa que su control se diluye: fotografías, vídeos o mensajes pueden ser replicados, tergiversados o incluso empleados para fines ilícitos sin que el usuario original llegue nunca a saberlo. La profesora Silvia Martínez, de los Estudios de Ciencias de la Información y de la Comunicación de la Universitat Oberta de Catalunya (UOC), advierte: «Muchas veces no nos damos cuenta de la cesión de derechos que otorgamos cuando hacemos uso de un determinado servicio digital. Solo vemos lo que nos aporta, pero no a lo que nos estamos comprometiendo».
La irrupción de la inteligencia artificial añade una capa de complejidad. Estos sistemas no solo pueden alterar imágenes o vídeos con sorprendente realismo, sino que también utilizan ese contenido para entrenar sus modelos. El profesor Antonio Pita, de los Estudios de Informática, Multimedia y Telecomunicación de la UOC, compara este aprendizaje con el proceso humano: «Imagina que enseñas a un niño a reconocer una cara. Le muestras varias fotos desde diferentes ángulos. Poco a poco, empieza a identificarla. Las inteligencias artificiales aprenden de forma parecida». Esa recopilación de imágenes da lugar a una suerte de huella matemática que, en manos del sistema, permite no solo identificar rostros reales sino también generar otros nuevos, lo que da origen a los conocidos deepfakes.
La distinción entre broma y estafa es cada vez más tenue. El uso indebido de la imagen personal puede derivar en manipulaciones destinadas a desinformar o incluso engañar económicamente. Lo preocupante es que muchas veces estas prácticas pasan desapercibidas hasta que el daño ya está hecho. Según Pita, «con solo unas cuantas imágenes públicas, una IA puede generar un vídeo hiperrealista en el que tú pareces hablar o decir cosas que jamás has dicho». Y en casos graves, como ya ha sucedido, estas falsificaciones han sido utilizadas para perpetrar fraudes.
Algunos gigantes tecnológicos ya han dado muestras de hasta dónde están dispuestos a llegar. Meta, por ejemplo, contempla la posibilidad de acceder a todas las fotografías almacenadas en los dispositivos de los usuarios para entrenar sus modelos de IA, incluso si esas imágenes no se han compartido en redes sociales. Aunque se trataría de una opción que el usuario podría rechazar, evidencia el apetito voraz de las plataformas por alimentar sus sistemas con todo tipo de datos personales. En Europa, sin embargo, la aplicación de medidas como ésta encuentra un muro legal en el Reglamento General de Protección de Datos (RGPD). Según Eduard Blasi, profesor de Derecho y Ciencia Política de la UOC, «el uso de imágenes personales para entrenar sistemas de IA requiere una base jurídica válida, como el consentimiento».
El nuevo Reglamento europeo de inteligencia artificial (AI Act) refuerza estas exigencias al establecer condiciones específicas para el uso de datos personales en sistemas de alto riesgo. El contraste con otros modelos regulatorios es notable: frente al enfoque flexible de Estados Unidos o el control centralizado en China, Europa opta por una protección más estricta de los derechos individuales, limitando el acceso masivo a datos, incluidos los biométricos.
Los riesgos no son teóricos. El caso de una empresa en Vigo, donde un trabajador fue engañado en una videollamada con una IA que imitaba a su CEO y transfirió 100.000 euros, es un ejemplo de cómo estos sistemas pueden ser utilizados de forma maliciosa con consecuencias reales. «Parece ciencia ficción, pero es muy real», advierte Pita.
Ante este panorama, algunos avances ofrecen cierto alivio. Varias plataformas han comenzado a etiquetar contenidos generados por IA, y nuevos sistemas permiten analizar si una imagen o vídeo ha sido manipulado. Aun así, como concluye Pita, «el sentido común, el pensamiento crítico y el conocimiento» siguen siendo las mejores defensas frente a los riesgos de una tecnología que, pese a sus amenazas, también promete mejorar nuestras vidas si se gestiona con responsabilidad.
Artículo redactado con asistencia de IA (Ref. APA: OpenAI. (2025). ChatGPT (versión 25 julio). OpenAI)