martes, 17 septiembre 2019

La hiperconectividad nos hace vulnerables porque inconscientemente facilitamos gran cantidad de información.

Vivimos un tiempo en el que el teléfono móvil es capaz de recomendarnos un libro o un restaurante más acorde a nuestros gustos que nuestra familia y amigos, en el que los especialistas en big data e inteligencia artificial salieron hace mucho tiempo del campo exclusivo de la ingeniería informática y se adentraron en otros como la medicina hasta dar un poco de miedo, y habitamos en casas llenas de aspiradoras, frigoríficos y otros electrodomésticos conectados a Internet. En ese contexto, el experto Guillermo Iribarren defiende que “la privacidad ha dejado de existir, pero nos podemos proteger en términos de seguridad”.

Y si alguien piensa que los desafíos éticos del big data y a inteligencia artificial no es un tema que tenga que ver con su día a día, se equivoca. Hablamos con Guillermo Iribarren, que trabaja en Small World Financial Services, y es experto en protección de datos en los campos jurídico, técnico y organizativo. Además, imparte clases en la Universidad Internacional de La Rioja y en la IE Business School.guillermoiribarren

“Todos debemos tener en mente que estamos en una transición. De una economía y unos sistemas jurídicos, políticos y sociales basados en la industria, en la revolución industrial, a otra cosa. A medida que nos adentramos en la revolución tecnológica y digital las prioridades van cambiando necesariamente”, explica.

DATOS FRENTE A PERSONAS

“La economía digital se basa en los datos, y la gran discusión es si el centro de esa economía son los datos o son las personas. En esa gran pugna están los reguladores y los estados, que han creado la Ley de Protección de Datos, para decir que si bien la economía se basa en el libre flujo de la información y de los datos, también debe respetar los derechos y libertades fundamentales de las personas”. Lo que era la libertad de prensa y la de libre expresión en la economía industrial, son los datos en la economía digital, en definitiva.

“Las fake news son diseñadas con cantidades ingentes de datos para atacar sectores concretos, porque las personas están perfectamente segmentadas por sus peferencias”

Allí donde las leyes y las regulaciones no llegan, se generan áreas grises que necesitan un nuevo marco, porque los que teníamos antes no encajan o no funcionan”. Un buen ejemplo de ello son las fake news, que no son tan inocentes como podrían parecer las bromas que nos llegan a través de redes sociales. “Son informaciones falsas diseñadas con cantidades ingentes de datos, las personas están perfectamente segmentadas a través de sus preferencias psicológicas, políticas, sociales… y se diseñan campañas específicas para atacar esos sectores concretos”.

Las personas compran la información como cierta y no solo eso, incluso la comparten y la viralizan. “Es un hackeo de la persona. La tecnología tiene un conocimiento profundo de los seres humanos, tanto que no nos damos ni cuenta. Pero los likes que damos, las páginas que visitamos, dejan una huella digital que con la analítica de datos puede hackear nuestro subconsciente, nuestro criterio. Se pone en juego el concepto fundamental de la libertad individual”. Como por ejemplo el voto en las elecciones: “Si yo soy así de manipulable no está claro que mi voto por el Brexit o por Donald Trump sea tan libre. Es el caso de Cambridge Analytica… son cosas que se pueden hacer y se están haciendo pero, ¿debemos hacerlas?”, se pregunta Iribarren. La segmentación de votantes estadounidenses era tal que cruzando millones de datos los robots sabían que muchas personas que daban like a la publicidad de Wrangler votaban republicano, y si le daban a Levi´s, demócrata. ¿Para qué preguntar, si ya lo anunciamos con nuestras preferencias?

“Los likes que damos, las páginas que visitamos, dejan una huella digital que con la analítica de datos puede hackear nuestro subconsciente”.

Otro ejemplo, las fotos se consideran manipulables desde hace mucho tiempo, pero los vídeos eran más difíciles de modificar. “A día de hoy ya se puede: los desarrolladores han creado tecnologías llamadas deep fake, que recolectan fotos de fuentes públicas (RRSS, Google…) y con inteligencia artificial logra modificar vídeos en movimiento con tus propios gestos”. Iribarren, con todo, no se declara “enemigo de la transformación digital” y, en cualquier caso, asegura que es ya inevitable: “Debemos abrir el debate cuanto antes. son muchos los ejemplos de pugna entre la disrupción tecnológica y las viejas estructuras”, apunta.

VALORES SOCIALES EN JUEGO

A su juicio, están en juego “valores fundamentales de la sociedad”, como los derechos humanos y la libertad individual. “La estructura de cómo funciona la sociedad está en entredicho. El tamaño del desafío es ese, no es cuestión de privacidad, es cómo está organizada la sociedad”, recalca.

Para estar al día en materia de seguridad digital, recomienda hacer caso de la Agencia Española de Protección de Datos. No es cuestión de volverse conspiranoico y guarecerse bajo un gorro de papel de aluminio, pues la reacción ludista a la Revolución Industrial ya nos enseñó que romper las máquinas es una batalla perdida. Con el tiempo, la sociedad supo adaptarse a las máquinas, y seguro que lo hará también a la tecnología digital. La pregunta es qué precio deberemos pagar por ello.

Una información de Miguel M. Ariztegi para NavarraCapital.es

Para acceder a más noticias relacionadas con la Innovación en Navarra… LEER AQUÍ.


To Top