pérdida de democracia y auge de la tecnología
digital. Una ENTREVISTA A cARISSA vÉLIZ POR SIGNAL.
Para Carissa Véliz, doctora
en Filosofía y profesora de Ética en la Universidad de Oxford, la privacidad es
poder. Por eso –advierte– las decisiones que tomemos sobre nuestra
privacidad en un mundo globalizado y digital moldearán el futuro de la
humanidad durante décadas. Hablamos a través de notas de voz de la red social
Signal en esta entrevista «en diferido» sobre «economía de datos», democracia
y ética digital.
En Privacidad
es poder adviertes de que las empresas y los gobiernos nos
están rastreando a cada minuto, utilizan nuestros dispositivos para saber
quiénes somos, predecir nuestro comportamiento e influir en él. El desarrollo
de nuevas tecnologías ha sido exponencial. ¿Crees que la situación en la que
se encuentra nuestra privacidad está siendo cada vez peor?
No es fácil determinar
exactamente si nuestra privacidad está mejor o peor que hace tres años. Por
una parte, efectivamente sí hay más tecnologías que son muy invasivas y, en
particular, la inteligencia artificial generativa ha consumido todo tipo de
datos personales y preocupa mucho que no parece que estas empresas puedan
cumplir con el Reglamento General de Protección de Datos. Por ejemplo, una
empresa como OpenIA no está segura de qué datos tiene sobre
ti y tampoco puede corregir los que sean incorrectos, ni mucho menos borrarlos.
Pero, al mismo tiempo, cada vez hay más conciencia entre las personas de la
importancia de la privacidad y también tenemos más herramientas para
protegerla, como Signal, Protonmail, DuckDuckGo. Estos
servicios están creciendo a un ritmo muy sano, lo cual sugiere que los
ciudadanos están cansados de que se viole su privacidad por doquier y están
buscando alternativas que, por otra parte, son cada vez mejores. También,
alrededor del mundo vemos que hay más intentos por regular estas tecnologías
y ahora mismo se está debatiendo en Estados Unidos una ley federal de la
privacidad. No está claro que vaya a salir adelante, pero que esté en el
debate público ya es un avance con respecto a hace unos años.
«Los ciudadanos están
cansados de que se viole su privacidad y están buscando alternativas»
¿Crees que la Ley de Servicios
y Mercados Digitales o la Ley de IA que acaba de aprobar la Unión Europea
tienen la capacidad de hacer del ciberespacio un lugar más seguro? ¿Más
ético?
En general creo que esta
regulación es un paso en la dirección correcta; sin embargo, nos falta camino
que andar. Creo que hasta que no prohibamos el comercio de datos personales va
a ser muy difícil minimizar las amenazas a la privacidad. Mientras uno pueda
vender datos personales siempre va a haber la tentación de recolectar más de
los necesarios y de venderlos al mejor postor. Otra cuestión que siento que la
ley no reconoce suficientemente es la responsabilidad moral que supone
convertir algo en datos. Se habla mucho de recolección de datos, como si
fueran algo que está allá afuera, como setas en el bosque. Pero cuando se
recolectan es que se transforma algo que no era un dato y esa decisión es
moralmente significativa, porque los datos personales son muy sensibles, muy
difíciles de proteger, y hay mucha gente que los quiere para abusar de ellos;
por ejemplo, criminales, gobiernos adversarios, y por supuesto agencias de
marketing, campañas políticas.
Además, existen diferentes
tipos de datos personales, que van desde los identificativos como el DNI, el
teléfono o la dirección postal, hasta los financieros, familiares, las
preferencias o aficiones y también están los biométricos. Hace unos meses
vimos las filas de cientos de jóvenes vendiendo la foto de su iris a Worldcoin –cofundada
por el creador de ChatGPT, Sam Altman–. La Agencia Española de
Protección de Datos prohibió que la empresa continuara con el escaneo ocular.
¿Qué consecuencias podría acarrear la venta de datos biométricos?
Uno no da simplemente los datos
que quiere dar, sino que da datos a través de los cuales se pueden hacer
inferencias. Por ejemplo, cuando tú das datos de tus gustos musicales puede
que no te importe que otro los sepa, pero estos se utilizan para, por ejemplo,
inferir tu orientación sexual o tu estado de ánimo. Igual no querías darlos,
pero no te estabas dando cuenta. Los datos biométricos son particularmente
sensibles porque no los puedes cambiar. Cuando tú tienes una contraseña, si
la pierdes, hay maneras de cambiarla. Pero si tú pierdes los datos de tu
genética, de tu iris o de tus huellas dactilares, pues no se pueden cambiar.
Por eso a los expertos en privacidad les gusta tan poco que se usen datos
biométricos para cuestiones innecesarias, porque genera un riesgo innecesario.
Si estos datos se pierden puede haber robos masivos de identidad y generar
problemas no solamente graves para los individuos sino también problemas
sistémicos.
Uno de los argumentos para
entregar los datos sin mucho sigilo es que todo el tiempo nos están
registrando, grabando: en la calle, en el transporte público; se necesita la
huella dactilar o el reconocimiento facial para desbloquear nuestro teléfono,
para abrir la app del banco. Por eso muchos concluyen que ya
no hay mucho que hacer para proteger sus datos. ¿Qué tan cierta es esta
postura?
Esa postura es intuitiva pero
incorrecta. Porque nunca sabes qué dato va a ser el que termine con un robo de
identidad o te termine causando un problema. Y no es una cuestión de blanco o
negro, no es como «o mis datos están fuera o no están». Se trata de cuántos
datos y cómo se pueden coordinar entre ellos. Una analogía es con la salud:
todos somos conscientes de que no es sano comer demasiada azúcar, ahora, si ya
te comiste una galleta, ¿eso quiere decir que ya da igual cuánta azúcar
comas? Pues no. Cuanta más azúcar comas, más riesgos generas para tu salud.
Con la privacidad es lo mismo: mientras más datos pierdas, más riesgos creas.
Lo que la gente no tiene en cuenta es que los datos personales tienen una fecha
de caducidad bastante corta, o suelen tenerla: la gente cambia de gustos, se
enferma, se cura, cambia de casa, de trabajo, y eso quiere decir que los datos
más valiosos y más importantes de proteger son los que generas ahora.
Además, hay diferencias en quién tiene los datos y para qué. Hay
compañías, como Apple, que usan tu cara para desbloquear el
teléfono –que a mí me parece un error–, pero también es verdad que esos
datos en principio no se deben compartir con nadie. Por lo que la diferencia
entre usar tu cara para desbloquear tu teléfono y dársela a una compañía
como Worldcoin es abismal. En ese debate necesitamos mucha
más educación y más matices.
«Hasta que no prohibamos el
comercio de datos personales va a ser muy difícil minimizar las amenazas a la
privacidad»
Contrario a la tendencia
mundial, en Alemania cada vez más personas están optando por pagar en
efectivo para evitar el monitoreo constante. ¿Es esta una medida viable y
efectiva para preservar la privacidad?
Es una medida viable y efectiva.
Creo que nunca deberíamos deshacernos del dinero en efectivo. Pero lo mismo
aplica para muchos otros ámbitos de la vida. Por ejemplo, vamos a comparar dos
posibilidades: comprar un ebook en Kindle o
ir a tu librería de la esquina y pagarlo en efectivo. En el caso del Kindle no
solamente es que el libro electrónico es menos robusto que el de papel,
lo tienes que poner a cargar, no lo puedes llevar a la playa fácilmente porque
si le entra arena se va a echar a perder, no se ve tan bien en el sol, se
puede hackear. Y sobre todo: te están vigilando, saben exactamente
a qué velocidad lees, qué pasajes te llaman la atención, qué subrayas, y
están monetizando todos esos datos y uniéndolos a tu tarjeta, a lo que has
comprado y lo que has visto online, tratando de perfilarte en una personalidad
u otra. En cambio, el libro en papel no lo tienes que cargar, se puede caer de
un edificio y probablemente sobreviva, y además es realmente tuyo. No sé si
has tenido esa experiencia de estar leyendo un libro electrónico y de pronto
hay una actualización y se cambian o te borran partes, lo que te recuerda que
no es tuyo, habrás pagado por él, pero no es realmente tuyo, no como un libro
de papel. Y, claro, cuando uno se imagina dentro de un régimen democrático,
no parece demasiado grave que las corporaciones o el gobierno o ambos sepan
qué lees. Pero en cuanto te imaginas un gobierno menos benévolo, te das
cuenta de lo importante que es para la libertad de pensamiento.
Has dicho que, mientras las
empresas tengan acceso a nuestros datos, no podremos estar seguros de que no se
utilizarán para mal, pues no existe una policía de datos que los vigile.
¿Cuán utópico sería que algún día se creara esa «policía de datos» que
proteja nuestra información? ¿Qué se requeriría?
No es utópico, en absoluto.
Desde luego, entre lo ideal y la situación actual hay mucho camino por andar.
Y más importante todavía que tener una policía de datos es prohibir el
comercio de datos personales. Al prohibirlo, se lucha contra el incentivo de
recolectar la mayor cantidad posible.
Más allá de los datos
personales, en la era de la economía de la atención y del «capitalismo de la
vigilancia», ¿también está en juego nuestra privacidad mental?
Hasta cierto punto, la privacidad
siempre es mental [risas]. Por ejemplo, si alguien tiene acceso a los datos de
tu buscador, tiene acceso a muchos de tus pensamientos, a lo que te está
preocupando, si te preocupa algo de salud, si estás buscando la solución a un
problema, si estás buscando un préstamo. Y, en algunos sentidos, es
todavía más grave que se pueda acceder a tu buscador que a tu cerebro, porque
todavía tenemos problemas decodificando el cerebro, e igual tú no te acuerdas
de qué buscaste hace 28 días a las 12 de la tarde, pero tu buscador sí. Pero
también es cada vez mayor el riesgo para la privacidad cerebral. Se están
desarrollando muchas tecnologías para leer las señales neuronales y todavía
no son lo suficientemente sofisticadas para ser un riesgo importante, pero a
mí me sorprende el hecho de que tanta gente esté trabajando en ello. Y me
alarma. Por ejemplo, Apple ha aplicado a una patente de
tener AirPods que lean las ondas cerebrales. ¿Por qué
necesitamos eso? ¿Realmente es lo que necesita el mundo para ser un sitio
mejor?
«El código tiende a ser un
instrumento muy autoritario»
Como están las cosas, con
cada vez más noticias de filtraciones de datos (incluso de bases de datos
bancarias), más páginas web que «obligan» a aceptar las cookies y más
estudios que revelan las amenazas para la privacidad en los hogares «inteligentes»,
¿se puede hablar hoy realmente de ética digital? ¿Cómo plantarle cara a la
opacidad tecnológica sin caer en el neoludismo?
Cuando se desarrolló la ética
médica fue a partir de escándalos que hicieron muy tangible y muy obvio por
qué la necesitábamos. Precisamente porque nos estamos encontrando con
prácticas muy poco éticas es que la ética digital está surgiendo como una
disciplina. Porque si todas estas empresas utilizaran prácticas éticas, pues
no habría tanta necesidad de un cambio. La acusación de que si te preocupan
las prácticas éticas es que estás en contra de la tecnología es pura
retórica. Porque estar en contra de la tecnología mal diseñada, de
tecnología que está dañando a la gente, no tiene nada que ver con la buena
tecnología. Encontraríamos muy pocas personas que están en contra de la
tecnología por principio. Hay que diseñar mejor la tecnología para que
respete los derechos humanos y para que sea una influencia positiva en la
democracia y no negativa.
Para cerrar, ¿crees que la
constante transgresión a la privacidad está poniendo en jaque al sistema
democrático?
Creo que las democracias están
en un momento peligroso. Todos los años The Economist hace un
estudio del estado de la democracia en el mundo y preocupa que en los últimos
años la democracia está perdiendo terreno, no solamente en el número de
países democráticos, sino también en la calidad de las democracias. Creo que
no es una coincidencia que esta pérdida de democracia se dé al mismo tiempo
que el auge de la tecnología digital. Y en parte es una pérdida de
privacidad. La privacidad es importante porque nos protege de abusos de poder,
y cuando hay instituciones, ya sea corporaciones, ya sea gobiernos, que tienen
demasiado poder, eso suele erosionar la democracia. También hay que tener en
cuenta que el código tiende a ser un instrumento muy autoritario. Si tú
tienes una ley de que no puedes manejar a cierta velocidad, puedes romper esa
ley –y tiene consecuencias–, pero cuando el código del coche no te deja ir a
cierta velocidad, no hay negociación posible, no hay posibilidad de romper la
regla y pagar un precio por ello, da igual si tienes una emergencia, una buena
razón o una mala: el código es autoritario. Y sí, el código puede ser mucho
más eficiente, pero no tenemos democracias para maximizar la eficiencia, sino
para maximizar la libertad, el bienestar y la protección de los derechos.
https://ethic.es/entrevistas/entrevista-carissa-veliz/