Durante años, el consentimiento ha sido la piedra angular de la protección de datos personales. La lógica parecía simple: si el usuario acepta, se puede usar su información. Sin embargo, en la práctica moderna, esta premisa se ha desdibujado.

En la era de las grandes plataformas digitales (Google, Meta, Apple, Amazon, Tik Tok y compañía) el consentimiento ha dejado de ser una expresión libre e informada para convertirse en un trámite rutinario, una especie de “sí automático” al hacer clic en Aceptar todo. Estas compañías no solo gestionan datos, los moldean, los interpretan y, sobre todo, definen qué significa consentir.

Bajo su influencia, el consentimiento ya no es una herramienta de control ciudadano, sino un mecanismo de legitimación empresarial. Lo irónico es que, mientras las leyes se esfuerzan en reforzar la voluntad del usuario, las tecnológicas perfeccionan sus estrategias para hacer que decir “si” sea la opción más fácil, rápida y rentable.

El consentimiento en el mundo ideal (y en la ley)

El Reglamento General de Protección de Datos (RGPD) y la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales (LOPDGDD) establecen que el consentimiento debe ser libre, específico, informado e inequívoco. En teoría, esto significa que el usuario debe comprender qué datos se recogen, con qué finalidad y durante cuánto tiempo, y debe poder rechazar sin sufrir consecuencias indebidas.

En un mundo ideal, ese consentimiento sería una decisión consciente, casi solemne, comparable a firmar un contrato. Pero el entorno digital no es un despacho tranquilo, sino un océano de notificaciones, formularios y pantallas emergentes. Las plataformas saben que la paciencia del usuario es finita, y que, si se le aburre o se le confunde, terminará aceptando.

Del consentimiento libre al consentimiento condicionado

Las grandes tecnológicas han transformado la estructura del consentimiento en algo condicionado. Ya no se trata de elegir entre “si” o “no”, sino entre “si” y “no”, pero perderás acceso y funcionalidad. Por ejemplo, muchos servicios requieren la cesión de datos para personalizar la experiencia.

Rechazarla significa acceder a una versión limitada o incómoda de la plataforma. En la práctica, el usuario tiene libertad formal, pero no real: la balanza está cargada hacia la aceptación. El consentimiento se convierte así en una especie de “moneda de entrada” al ecosistema digital. No se negocia, se impone. El mensaje implícito es claro: si no estás de acuerdo, vete. Y, por supuesto, nadie quiere quedarse fuera del mundo digital.

El diseño persuasivo: cuando la interfaz manda más que la ley

Las grandes compañías no necesitan coaccionar directamente al usuario, basta con diseñar la interfaz de manera estratégica. Es lo que se conoce como dark patterns o “patrones oscuros”, es decir, elementos de diseño que manipulan las decisiones.

Un ejemplo clásico es el botón de “Aceptar todo”, grande y colorido, frente a la opción de “Configurar preferencias”, escondida bajo varios clics. O los textos legales extensos, llenos de jerga, que disuaden a cualquiera a leer. Todo está pensado para que el camino más rápido, y mentalmente menos costoso, sea aceptar.

El RGPD prohíbe explícitamente este tipo de prácticas, pero son difíciles de detectar y aún más difíciles de sancionar.  Las empresas argumentan que solo están optimizando la experiencia del usuario, pero, en realidad, están moldeando su voluntad. La frontera entre elección y manipulación es cada vez más difusa.

La ilusión del control: cuando “gestionar la privacidad” es un espejismo

Las grandes tecnológicas también ofrecen al usuario paneles de control para gestionar su privacidad: se puede elegir qué datos compartir, durante cuánto tiempo y con quién. En apariencia, se trata de un avance. Pero en la práctica, estos sistemas trasladan la carga de responsabilidad al usuario sin ofrecerle una compresión real de lo que implica cada ajuste.

Por ejemplo, Google permite revisar los permisos de ubicación, pero pocos entienden cómo esos datos se correlacionan con el historial de búsquedas o con la publicidad personalizada. Facebook ofrece opciones para limitar quién ve tus publicaciones, pero no quién analiza tu comportamiento. Y Apple presume de transparencia, aunque el usuario medio no sabe qué metadatos se siguen generando en un segundo plano.

Es una paradoja elegante: el usuario cree controlar sus datos, cuando en realidad solo navega por una versión controlada de la transparencia.

Consentimiento continuo: el nuevo paradigma invisible

Otro cambio fundamental es la dinámica temporal del consentimiento. Antes se pedía una sola vez, al inicio de una relación contractual. Ahora, el consentimiento se solicita (o se renueva) constantemente, en un flujo continuo de microdecisiones: cookies, aplicaciones, actualizaciones, nuevos términos, nuevas políticas.

A primera vista, esto parece positivo: más control, más revisiones. Pero en realidad, el exceso de solicitudes produce lo contrario: fatiga del consentimiento. El usuario se acostumbra a aceptar sin leer, porque el proceso se ha vuelto rutinario e inabarcable.

Las tecnológicas lo saben, y utilizan esta saturación como escudo legal. Si el usuario acepta sin mirar, la empresa ya tiene cobertura jurídica. El consentimiento se degrada así en una ficción burocrática; un acto repetido, pero vacío de contenido legal.

El consentimiento algorítmico: la siguiente frontera

La nueva etapa no se juega en formularios, sino en algoritmos. Con la expansión de la inteligencia artificial, el consentimiento empieza a delegarse en sistemas automatizados que infieren preferencias sin necesidad de preguntarlas explícitamente.

Las plataformas observan el comportamiento del usuario (clics, tiempos de lectura, desplazamientos, pausas) y ajustan la publicidad, las recomendaciones o incluso la interfaz en tiempo real. No hay consentimiento expreso, sino consentimiento inferido: el sistema “interpreta” que si te detuviste en un vídeo de coches, te interesan los coches.

Aquí la LOPDGDD y el RGPD se quedan cortos. El consentimiento ya no es un acto humano, sino un proceso estadístico. El usuario deja de decidir, el algoritmo decide por él.