PERSPECTIVAS_ Nueve propuestas para acabar con la vigilancia digital

l imperativo actual de la fluidez es una reducción del mundo a devenir: movimiento de capital, flujo del deseo o del género, innovación disruptiva, activismo nervioso. Esta fluidez se manifiesta también en el capitalismo de la vigilancia que obliga a que la información personal fluya a través de todas las cosas.

Esta fluidez es incompatible con dos formas de contención fronteriza: la consciencia del individuo y el derecho de los Estados. Para evitar la primera, la consciencia del individuo, la relación individuo-máquina toma forma de estímulo psicológico prerreflexivo. Para evitar la segunda, el derecho estatal, el capitalismo de la vigilancia se apoya en la superstición tecnocrática de que la innovación no puede esperar a la regulación jurídica. En consecuencia, los intereses de los capitalistas de la vigilancia campan sin apenas fricción por el globo. Sin embargo, ¿no conviene a la dignidad del hombre y al bien común recuperar estas fronteras?

Es ya conocido el análisis de Shoshana Zuboff sobre la explotación económica de los flujos de información personal. Define el capitalismo de la vigilancia como el “nuevo orden económico que reclama para sí la experiencia humana como materia prima gratuita aprovechable para una serie de prácticas comerciales ocultas de extracción, predicción y ventas”.

Ese nuevo orden surgió en Google durante la llamada crisis de las puntocom a principios del siglo. Hasta aquel momento la empresa vivía, entre otras cosas, de vender su propia tecnología a terceros. El ingreso se separaba del dato: utilizaba los datos personales de los usuarios solo para mejorar sus servicios. Sin embargo, la crisis le urgía a encontrar una forma distinta de hacer dinero. Esto será posible gracias a los llamados “datos sobrantes”. Estos datos sobrantes son el “excedente conductual” que queda en poder de Google una vez mejorado el servicio.

El excedente conductual resulta ser la piedra angular del nuevo orden económico y social. Desde entonces Google, Facebook, Microsoft y Amazon toman secretamente la experiencia de sus usuarios como materia prima para producir predicciones conductuales. Este expolio se ha extendido a muchas empresas que no son de información, ni siquiera tecnológicas, pero saben de lo lucrativo del excedente.

¿Qué dimensiones tiene este nuevo orden económico que incluye a la vieja Ford, paradigma de la producción de cosas en masa? Hasta una empresa que produce cosas necesita reclamar para sí la experiencia humana, en este caso de la conducción. ¿Cómo de útil será vender perfiles con la personalidad –agresiva o temerosa, cuidadosa o serena– de sus conductores a una póliza de seguros?

Recuperar el entorno digital

Muchos piensan que este orden económico no se puede aceptar, pero ¿cómo salir de él? El paso inicial es hablar de ello, convertirlo en un tema. La dificultad es que el tema no sea inmediatamente barrido por otro, de acuerdo con la liquidez en la que todo no es más que en acto, en acto reciente o actualidad. Al poco de ser ya no existe. Esta dificultad hace todavía más complicada una respuesta común al problema por parte de la sociedad civil, pues no basta convertirlo en un tema, hace falta despertar una respuesta concertada.

El asociacionismo es una posibilidad: unirse a otros con el propósito común de limitar, por ejemplo, el uso de TikTok entre los adolescentes, los servicios de Google en el trabajo, etcétera, y todo esto, con independencia de los poderes públicos. Las respuestas de la sociedad civil pueden empujar o acompañar una respuesta institucional.

Si pensamos en la política legislativa hay al menos tres problemas que tienen que ver con la eficacia de las soluciones basadas en la regulación. El conocimiento prudencial exige tener en cuenta que, muchas veces, es mejor perseguir ciertos objetivos indirectamente. Hacerlo directamente puede llevar a resultados indeseados al ignorar las relaciones de un problema con el resto de la realidad.

Así, determinadas prohibiciones a los capitalistas de la vigilancia pueden conducir a que estos lleven a cabo con mayor ocultación lo que antes hacían a la vista de todos. El segundo problema se refiere a la total asimetría entre el poder de las tecnológicas y el de los Estados. ¿Obra en los últimos un poder suficiente para hacer cumplir un derecho que limite el negocio de la vigilancia? El derecho solo es eficaz si puede ser cumplido, en última instancia, con el uso de la fuerza. El tercer problema es el exceso de legislación actual que, muchas veces, no es tomada en serio ni por los propios legisladores, se contradice abiertamente o es imposible de conocer por parte del jurista.

Con la salvedad de las dificultades anteriores se ofrecen propuestas de salida al problema divididas por temas: datos, diseño y mercado.

Datos

  • Declarar que los macrodatos personales que obran en manos de los capitalistas de la vigilancia fueron robados aprovechando la radical asimetría epistemológica entre capitalistas y usuarios, con desprecio de la consciencia individual y en la total alegalidad. Por tanto, obran ilegítimamente en el poder de las empresas (y, en su caso, de las instituciones). Esta declaración tiene un valor simbólico que no puede despreciarse.
  • Tras la declaración caben dos opciones muy distintas. La primera es el borrado total de los macrodatos. La segunda es declarar los macrodatos Patrimonio Común de la Humanidad (como lo es la naturaleza), y confiarlos a alguna autoridad mundial. La elección entre la primera o la segunda respuesta depende de si consideramos que lo bueno que se puede hacer con ellos sobrepasa lo malo.
  • Para los datos ya legítimamente tratados después de la economía de la vigilancia es necesario implementar deberes fiduciarios. Se trata de que cualquiera que quiera recolectar o guardar datos personales adquiera un deber de cuidado con los sujetos de los datos. Es lo que ocurre, por ejemplo, con una relación como la del médico con el paciente.

Diseño

  • Prohibir los algoritmos antipolíticos. Es decir, aquellos que rompen con la igualdad de las opiniones en Internet y favorecen precisamente lo antipolítico, lo que destruye la polis: lo tribal, el odio, lo sórdido, etc. Esto evita la hipócrita tarea de restringir la libertad de algunos a posteriori, como ocurrió con la cuenta de Twitter de Donald Trump, que fue cerrada sin bastante justificación. ¿Quién ha erigido a Twitter en árbitro para dar o quitar la palabra a quién quiera? Esto es aún más sangrante cuando su modelo de negocio es antipolítico y no hace más que añadir a una injusta desigualdad (la algorítmica) otra desigualdad (la del presidente que no se considera digno de tener opinión en Twitter). Primero se provoca estructuralmente el incendio y luego se viene simbólicamente a apagar una de las pavesas.
  • Prohibir el diseño que es estructuralmente manipulador. Un ejemplo es el Me gusta y el reenvío con un clic. Estas opciones de diseño añadidas en 2009 están directamente vinculadas con la grave crisis mental entre adolescentes unos años después. Buscan simplemente excedente conductual y por eso han tornado la comunicación en satisfacción psicológica, lo que propiamente se comunica es la dopamina. Por ello, estas opciones estropean la posibilidad de una rica comunicación digital no psicologizada ni narcisista, aquella que era posible antes de su implementación.

Mercado

Se dice habitualmente que el problema principal es el modelo de negocio. Tanto es así que las aplicaciones de mensajería que no recaban excedente conductual en forma de macrodatos (Signal y Telegram) no son rentables y funcionan con donaciones. En definitiva: parece que no pueda uno ganar dinero si actúa decentemente en la sociedad de la información. Por eso, esto es un problema estructural, no accidental, pero se puede arreglar. Veamos más propuestas.

  • Expropiar las plataformas por considerarlas estructuras críticas de la sociedad. Esto hace desaparecer el problema del modelo de negocio, pero las dificultades de esta solución parecen insalvables al darse un desplazamiento de un dominio privado –que desprecia las consecuencias sociales en busca del lucro efectivo–, por un dominio público que busca determinados resultados sociales. ¿Podemos expropiar sin acercarnos al modelo chino?
  • Dividir a las grandes tecnológicas. Son gigantescas: Google, por ejemplo, ha comprado más de 200 empresas en su tiempo de vida. La opción de dividir parece reducir el problema al gigantismo sin tener en cuenta que no solo es dañino su tamaño, en primer lugar lo es su actividad. De modo que trocear a las grandes tecnológicas parece una mala solución. Esto conduciría a ampliar la competencia y robustecer el mercado de la vigilancia.
  • Mantener a Apple en el buen camino. La empresa de Tim Cook podría ser clave contra el capitalismo de la vigilancia si sigue la senda de la defensa de la intimidad que, en general, la ha caracterizado. Esto la colocaría frente a los otros gigantes –Google, Facebook, Microsoft y Amazon– que, por ese orden, se han instalado en la vigilancia. Problema distinto es el gigantismo de la empresa de la manzana y de las demás, un gigantismo malo para todos y que es mejor evitar indirectamente, por ejemplo, protegiendo las pymes locales. ¿Quién ha impedido a Amazon adueñarse del comercio mundial?
  • No partir de que hay que financiar la innovación por sistema. Se pretende que la historia corre precisamente por los canales que a uno le llevan a hacer dinero: “La intimidad ha muerto”, dijo Zuckerberg. Pero nuestras decisiones cuentan, y más bien habrá que poner en relación la innovación con el desarrollo humano. Con “innovación” se defiende, no pocas veces, el enriquecimiento de unos pocos y el paro de la mayoría. Por ejemplo, ¿no es mejor “financiar al hombre”, abaratar la contratación y no financiar tecnología que pueda permitir, entre otras cosas, la vigilancia (o el paro masivo)?

Conclusión

La lucha frente a esta forma de dominio tan sutil pasa por combatir los males asociados con ella. Estos son todos idolatría del movimiento y el flujo ilimitados: el subjetivismo narcisista, el espíritu tecnocrático, el capitalismo financiero o el consumismo salvaje. Frente a ellos necesitamos fronteras que pasan por devolver la alteridad a la realidad. Es decir, asumir el límite de lo indisponible: la alteridad de los otros, del pasado, de las cosas y del derecho. Todo esto son fenómenos fronterizos, frenos, que debemos recuperar para que el mundo recupere la bella solidez que un día tuvo.


La versión original de este artículo aparece la Revista Telos, de Fundación Telefónica.

CON INFORMACIÓN VÍA EL ECONOMISTA

ENTREVISTA_ Regular a las tecnológicas tiene el riesgo de dar al Estado un poder de vigilancia total. Entrevista con Shoshana Zuboff

La profesora Shoshana Zuboff se convirtió en una estrella mundial tras la publicación de su libro La era del capitalismo de la vigilancia, en el que documenta en un volumen de casi 1,000 páginas los procesos económicos, políticos y sociales que propiciaron un nuevo modelo del capitalismo especializado en la extracción de datos personales para su análisis, explotación y reventa como soluciones de predicción y manipulación del comportamiento humano. Suena increíble, pero es algo que puede constatarse cotidianamente con el uso de nuestros aparatos y sus aplicaciones de software conectadas a internet y en escándalos recientes como el de Cambridge Analytica, que moldeó las percepciones del electorado a favor de Donald Trump.

Para Shoshana Zuboff, egresada de Filosofía de la Universidad de Chicago y doctora en Psicología Social por la Universidad de Harvard, es indispensable regular a las compañías tecnológicas para entregar el poder a los ciudadanos y fortalecer el derecho a saber y a decidir qué se sabe de cada quien. Esta idea del derecho a saber y a decidir la información que se comparte de uno mismo es la base conceptual de la privacidad, completamente pulverizada por las tecnologías de vigilancia desarrolladas por las compañías tecnológicas y disfrazadas como servicios de nueva generación para la economía digital.

Zuboff es autora de In the Age of the Smart Machine (1988), Master Or Slave? The Fight for the Soul of Our Information Civilization (2017) y La era del capitalismo de la vigilancia, publicado originalmente en inglés en 2019 y en español en octubre de 2020 por la editorial Paidós. Esta es la transcripción de una extensa entrevista con Zuboff realizada vía telefónica a mediados de junio. 

—Usted coloca en un lado a las Big Tech y en otro lado a los sistemas democráticos y sus instituciones, como si se trataran de cosas separadas, ¿pero sí son cosas separadas?

—Lo que ha ocurrido con el capitalismo de la vigilancia es que comenzó como innovación y se aprovechó de una historia putativa en Estados Unidos donde hay una mínima regulación sobre las actividades de negocios. Nadie había entendido realmente que lo que estas compañías habían descubierto para salir de la crisis de la burbuja de las punto com es hacer lo que siempre ha hecho el capitalismo: encontrar cosas que estén fuera de las dinámicas del mercado y convertirlas en materias primas (commodities) que puedan ser comercializadas. Aquí lo que encontraron y mercantilizan es la experiencia humana, que siempre había sido considerada privada.

Las compañías de internet descubrieron que de una forma secreta podían acceder a la experiencia privada, convertirla en datos para después reclamar que ellos eran los dueños de esos datos y que podían utilizar su poder de cómputo para convertir esos datos en predicciones de comportamiento. En estas predicciones encontraron un gran mercado. Ese es su negocio. Lo que nadie entendía es la lógica económica que está haciendo al comportamiento humano más predecible. Si vendes predicciones quieres que esas predicciones sean buenas. Entre mejor sea la predicción mayor ingresos generará, entonces tienes que encontrar formas para utilizar los datos para moldear el comportamiento humano y hacerlo más predecible.

Es una lógica económica en todos los dominios: en el trabajo, en la sociedad, en tu auto, en tu hogar, en tu ciudad… estamos contigo cuando caminas por la calle, cuando estás en el café, cuando vas al doctor, estamos contigo en todos lados. Cuando tienes todo bajo esta lógica y cuando la materia prima para esa lógica económica está teniendo una experiencia humana, esos dos hechos producen operaciones económicas que socavan las libertades individuales, la autodeterminación, la agencia. Producen condiciones institucionalizadas que son fundamentalmente antidemocráticas, con grandes concentraciones de información y poder que definen a estas compañías y crean un nuevo eje de desigualdad social, definido en lo que sabes de mí y lo que puedes saber de mí. Y por esta razón se han convertido en adversarios entre esta lógica económica y la propia democracia.

—¿El capitalismo de la vigilancia es una consecuencia del neoliberalismo o es otra cosa?

—El neoliberalismo fue una condicionante que permitió que esta lógica económica emergiera y floreciera. A finales de los años noventa, la FTC (Federal Trade Commision, por su sigla en inglés) fue —y todavía lo es, desafortunadamente— la comisión que más se alineó con la responsabilidad sobre lo qué hacen las compañías de internet y ese es un problema, porque tener a la FTC supervisando esta área es como tener al Departamento de Agricultura supervisando a la acerera US Steel en el siglo XX. Necesitamos instituciones dirigidas para estas nuevas condiciones.

A finales de los años noventa la mayoría de los comisionados de la FTC ya entendían que las incipientes compañías de internet no iban a poder autorregularse cuando se tratara de la privacidad. Los comisionados ya entendían eso, porque la manera en que estas compañías comenzaron fue gracias al impulso de mecanismos como las cookies. Incluso en los noventa ya se hablaba de las cookies de rastreo, rastreo ocular, monitoreo, medición, la cuota de bolsillo y todos estos siniestros conceptos que surgieron del antagonismo de las grandes corporaciones de negocios, que se trasladaron simple y rápidamente hacia el ecosistema de las startups.

La FTC se dio cuenta de que a pesar de nuestro respeto por la autorregulación, en el caso de las tecnológicas no iba a funcionar y eso era evidente. En el 2000 y el 2001 se discutía una propuesta de ley para la FTC en el Capitolio, que se tornaba hacia el internet y las nuevas compañías tecnológicas. El primer tema a discusión era la privacidad, sobre si se necesitaba una ley o si se podía confiar en las compañías.

Todo eso cambió el 11 de septiembre del 2001, tras la tragedia de los ataques terroristas en la ciudad de Nueva York y otras partes de Estados Unidos. Los testigos en el Congreso dicen que en 24 horas toda la conversación cambió. Y ahí fue cuando la conversación giró de la idea de que “Internet es igual al debate sobre la privacidad” a “Internet es igual a la conciencia total de la información (total information awareness)”.

[Total Information Awareness fue el nombre de un programa de vigilancia predictiva iniciado en 2003 en Estados Unidos, sustentado en ciencias matemáticas y de computación, para combatir el terrorismo y prevenir conductas criminales].

De repente todo el mundo veía las nacientes capacidades de vigilancia de Google y de las otras compañías, y las cookies, los web bugs y el tracking eran los salvadores y parecía que serían los que nos protegerían de este vasto mundo de amenazas.

El neoliberalismo provocó un ambiente que asentó las condiciones económicas, sociales y legales para que el capitalismo de vigilancia pudiera gestarse y desarrollarse; la guerra contra el terrorismo cimentó estas condiciones y proporcionó un argumento urgente de por qué deberíamos de pintar una línea sobre estas compañías y protegerlas de la regulación.

En Estados Unidos, por mucho que la Agencia de Seguridad Nacional (NSA) y otras agencias de inteligencia puedan vigilar a los ciudadanos, estas entidades públicas siguen operando bajo la ley y los lineamientos de la Constitución estadounidense. Hay cosas que no pueden hacer y que sólo las pueden hacer las tecnológicas. Entonces la idea fue crear una especie de simbiosis y de complementariedad donde le permites a las compañías desarrollar las capacidades de vigilancia, les permites que agreguen y analicen toda la data generada por humanos, y nosotros sabemos que cuando la necesitemos esa tecnología de vigilancia estará ahí para poder aprovecharla.

—Usted ha llamado a los legisladores de Estados Unidos a contener el poder de las Big Tech. ¿Qué debe incluir una eventual regulación? ¿Qué reformas son necesarias?

—Necesitamos leyes centradas en la extracción y en el derecho a saber que mi experiencia me pertenece, que ese es un nuevo derecho que yo denomino, derechos centrados en la ética. La nueva lucha en nuestras sociedades, a medida que nos movemos a una civilización de la información, comienza con esta lucha sobre el derecho a saber.

Previo al internet y el capitalismo de vigilancia, asumimos que los individuos teníamos el derecho a saber y yo decido qué clase de mi experiencia es compartida, con quién la comparto, con qué propósito y también qué es lo que queda en privado.

Necesitaremos leyes que ataquen todas estas piezas ilegítimas de extracción y lo importante es que una vez que tengamos eso ya no estaremos atrapados en un mundo donde toda la información pertenece a los capitalistas de la vigilancia.

La información no está siendo usada por la sociedad, no la estamos utilizando como individuos, no está siendo usada para mejorar nuestras ciudades en las formas en que las queremos, no está siendo utilizada para mejorar mi vida como quiero. La información está siendo utilizada para alcanzar los objetivos económicos de estas compañías. Esto es una locura. El capitalismo de la vigilancia posee toda la información, que se suponía que era toda la data que iba a democratizar el conocimiento y llevarnos a una era dorada en el siglo digital. Pero en lugar de lograr eso está haciendo lo contrario.

Así que ir tras la extracción es algo bueno, porque eso libera todo el panorama para todo tipo de innovaciones que producen información en una verdadera asociación con las personas para hacer mejor la vida de las personas. Como se suponía que era de lo que se trataba.

Tenemos una situación muy peligrosa donde algunos de los mercados más lucrativos en nuestras economías hoy en día son mercados que comercian con las predicciones de nuestros comportamientos. Tienes a Google, una compañía con un valor de capitalización de casi un trillón de dólares, y Facebook, moviéndose con mucha velocidad por detrás.

También a Microsoft, Amazon y hasta Apple. Una gran parte de los ingresos de Apple provienen de sus aplicaciones, su tienda de aplicaciones y otros servicios, muchos de los cuales son completamente dependientes y beneficiarios del capitalismo de la vigilancia porque casi todas las aplicaciones están diseñadas para que secretamente puedan recolectar la mayor cantidad de datos posible.

Sabemos que el mercado de características humanas produce consecuencias antidemocráticas, sabemos que la extracción al por mayor de data generada por humanos casi ha destruido completamente la privacidad. Para este punto la palabra privacidad, en el año 2021, ha perdido todo su significado y si somos realmente honestos ya hemos perdido esa batalla. Las tecnológicas pueden rastrear, descifrar e inferir todo de manera ilegítima. Así que en eso se debería enfocar la ley. 

—¿Qué reformas sugiere para los países con menor poder y menos capacidad estatal para controlar a las Big Tech, como México?

—Entendiendo el poder y el balance, cualquier país de forma individual puede imponer la ley sobre el poder que tienen estas compañías, que, aunque tienen un impacto global, son compañías estadounidenses. Veámoslo desde la escala geopolítica, todo lo que te he descrito no sólo es un fracaso de la democracia estadounidense o un fracaso de la ley mexicana, este es un fracaso de toda la democracia liberal en conjunto.

México enfrenta los mismos retos que he estado describiendo y hay que reconocer que México tendrá que desarrollar instituciones especializadas para el siglo digital. El reto será asegurar que esas nuevas leyes e instituciones se impulsen dentro del prospecto democrático del país, porque la reacción inmediata consiste en imponer un control sobre el sector tecnológico de forma que se le concede mucho poder al Estado.

El tema complicado aquí es que lo que no queremos es crear leyes que frenen y restrinjan a la sociedad de la vigilancia privada sólo para empoderar al Estado a que florezca como una sociedad de vigilancia pública.

No podemos darle al Estado el control sobre la información al igual que tampoco podemos cederle dicho control a las compañías de tecnologías de la información. Por eso es que me escuchas hablar sobre instituciones, no estoy hablando sobre la solución. El punto es que la solución no es quitarles el poder a las compañías para dárselo al Estado. La solución está en crear instituciones que operen bajo el margen de la ley, que promuevan los valores democráticos y que estas instituciones permanezcan sin importar al presidente en turno o las ideologías.

CON INFORMACIÓN VÍA EL ECONOMISTA