Un modelo económico consistente en la mercantilización de la experiencia humana y los datos personales, transformándolos en una nueva materia prima para obtener beneficios.

Descripción

El de la vigilancia es una tesis desarrollada y popularizada por la socióloga Shoshana Zuboff.

Ideas centrales

Extracción y explotación de datos

Materia prima

La experiencia privada y el comportamiento de los usuarios (sus clics, búsquedas, ubicación, tono de voz, hábitos, relaciones, etc.) se extraen de forma continua a través de dispositivos conectados, aplicaciones y plataformas digitales (, buscadores, asistentes virtuales, etc.).

Plusvalía de la vigilancia

Los datos que las empresas recolectan no son solo los necesarios para mejorar un servicio («datos conductuales residuales»), sino que buscan un excedente de datos, lo que Zuboff llama la «plusvalía de la vigilancia».

Fabricación de productos predictivos

Los datos masivos -a menudo recopilados sin el conocimiento o consentimiento explícito real de los usuarios- se procesan mediante avanzados algoritmos de IA y machine learning.

El objetivo final es crear «productos predictivos» que anticipan el comportamiento futuro de los usuarios (qué comprarán, qué pensarán, a qué harán clic, dónde irán).

Venta en mercados de futuros conductuales

Estos productos predictivos no se venden a los propios usuarios, sino a terceros (otras empresas, anunciantes, incluso organismos gubernamentales) en lo que Zuboff denomina «mercados de futuros conductuales».

El negocio consiste en ofrecer a los compradores la certeza de que podrán influir en el comportamiento de las personas para conseguir resultados rentables (por ejemplo, que compren un producto específico o voten por un candidato).

La explotación de la naturaleza humana

Zuboff argumenta que, mientras el capitalismo industrial explotó la naturaleza (tierra y recursos), el capitalismo de la vigilancia explota la naturaleza humana (nuestra experiencia privada).

Este proceso resulta en la desposesión por vigilancia, donde perdemos los derechos sobre nuestra propia experiencia y el conocimiento que se deriva de ella, concentrando el poder en las manos de las grandes corporaciones tecnológicas (como Google, Meta, Amazon, etc.).

Modificación del comportamiento

En una etapa más avanzada, el sistema no solo se limita a predecir, sino que busca intervenir y moldear el comportamiento de los usuarios. Mediante estímulos (notificaciones, feeds optimizados, recomendaciones), se busca empujar a las personas hacia resultados rentables para las empresas.

Ejemplos

Para entender cómo funciona el capitalismo de la vigilancia, es útil observar cómo una experiencia simple se transforma en un producto vendible.

Etapa Acción de los usuarios (experiencia) Transformación al producto (vigilancia)
1. Extracción Una usuario busca «¿dónde puedo comprar café cerca?» en Google Maps. Google registra la consulta, la hora, el dispositivo usado y, fundamentalmente, la ubicación exacta de la usuaria.
2. Excedente conductual La usuaria cierra Maps y sigue su día. Google no solo registra la ruta a la cafetería, sino que sigue rastreando si la usuaria entra, cuánto tiempo se queda, qué otras tiendas visita después y qué ruta toma para volver a casa. Estos datos extra son el excedente de la vigilancia.
3. Producto predictivo Los algoritmos analizan el excedente de datos de la usuaria, combinándolo con millones mas de otros usuarios. Se crea un perfil conductual predictivo: «Esta usuaria tiene un 85% de probabilidad de comprar una cafetera de gama alta en las próximas 48 horas si se le muestra un anuncio con un descuento del 15%.»
4. Mercado de futuros Google no le vende a la usuaria su propia predicción. Google vende esta capacidad de predicción y modificación a un anunciante (por ejemplo, una cadena de tiendas de electrodomésticos). El anunciante paga por la certeza de que su anuncio tendrá un alto índice de éxito.
5. Modificación del comportamiento Horas más tarde, la usuaria ve un anuncio muy específico de una cafetera que le gusta. El sistema ha intervenido en el entorno de la usuaria con el objetivo de manipular (o «empujar») su comportamiento hacia el resultado rentable que ha sido vendido al anunciante.

En este ciclo, la usuaria obtiene el servicio «gratuito» (el mapa o la búsqueda), pero paga con sus datos y su experiencia privada. La innovación del capitalismo de la vigilancia no es solo la recolección de datos, sino el desarrollo de la capacidad de predecir y modificar el comportamiento humano a gran escala para obtener ganancias.

Este modelo no se limita solo a la publicidad; Shoshana Zuboff argumenta que se está expandiendo al ámbito doméstico (dispositivos inteligentes, como termostatos o asistentes de voz) e incluso a áreas como los seguros y la salud.

Shoshana Zuboff argumenta que este modelo socava la democracia y la autodeterminación individual.

El ejemplo más notorio y debatido se centra en la modificación conductual dirigida a votantes durante procesos electorales, especialmente por algún escándalo que ha involucrado a plataformas de redes sociales (como Facebook/Meta) y a consultoras de datos.

Etapa Acción del usuario (experiencia cívica) Transformación al producto (vigilancia política)
1. Extracción (recolección de datos) Un usuario interactúa en una red social: reacciona a publicaciones, lee titulares, comenta en grupos, sigue páginas políticas. La plataforma y las consultoras registran cada interacción y la hora, creando un perfil psicográfico y conductual profundo.
2. Excedente conductual (plusvalía) El usuario no está buscando activamente información electoral en ese momento; está viendo fotos familiares o noticias de deportes. Los datos sobre el tono de sus comentarios, su nivel de actividad social y su propensión a la desinformación (incluso fuera del contexto político) se extraen como excedente de vigilancia.
3. Producto predictivo político Los algoritmos procesan millones de estos perfiles y excedentes de datos. Se crea un producto predictivo de influencia: una capacidad para anticipar con alta precisión el estado de ánimo, la indecisión y las vulnerabilidades psicológicas del votante.
4. Mercado de futuros conductuales La plataforma no muestra al usuario esta predicción. El producto predictivo se vende a partidos, campañas o grupos de interés que buscan garantizar resultados electorales por medio de la influencia en grupos específicos.
5. Modificación del comportamiento (intervención) El usuario es bombardeado con anuncios, artículos y noticias de amigos con contenido altamente emocional, adaptado a sus miedos específicos. El sistema utiliza el conocimiento privado para empujar el comportamiento hacia un resultado deseado: puede ser votar por un candidato específico o simplemente inducir suficiente frustración para que el votante se quede en casa (supresión del voto).

A diferencia del debate democrático tradicional, donde los candidatos presentan sus ideas a todo el electorado en un mismo foro, la micro-focalización o micro-targeting permite que las campañas digan cosas diferentes y a menudo contradictorias a subgrupos específicos, socavando la base de un conocimiento público compartido.

Bibliografía recomendada

Zuboff, Shoshana (2020). La era del capitalismo de la vigilancia. Paidós.

Zuboff, Shoshana (2025). ¿Capitalismo de la vigilancia o democracia? Unsam Edita.

Noticias

Sinónimos:
surveillance capitalism
Categorías: TIC