Tiene 59 años y se llama Ranga Yogeshwar. Es hijo de una artista luxemburguesa y de un ingeniero indio. Pasó su infancia en India, su adolescencia en Luxemburgo y su juventud a caballo entre Suiza y Alemania. Estudió Astrofísica y Física Experimental de Partículas. Trabajó en el Instituto Suizo para la Investigación Nuclear y en el CERN. Y desde hace 35 años se dedica a la divulgación científica.

Es una auténtica estrella en Alemania, donde ha presentado numerosos programas de radio y televisión y donde ha vendido más de dos millones de ejemplares de algunos de sus libros. El último de ellos lleva por título “Próxima estación Futuro”, analiza cómo la ciencia y la tecnología van a transformar nuestras vidas y acaba de ver la luz en España de la mano de la editorial Arpa.

Vivimos rodeados de algoritmos. ¿Pueden los algoritmos modificar el comportamiento humano?

Sí, puede ocurrir, hay potencial para ello. Hay algunos campos en los que tenemos que ser muy cuidadosos, porque los algoritmos pueden de algún modo dictar nuestra vida. Le pongo un ejemplo: en los próximos años, al hacer seguros de salud y de vida las compañías evaluarán el riesgo de que la persona en cuestión enferme, muera, etc. Y al existir cada vez más datos, serán capaces de señalar esos riesgos de manera más específica y los seguros ofrecerán descuentos en las pólizas a aquellos clientes que salgan a correr o hagan algún tipo de ejercicio físico. De ese modo la gente saldrá a hacer jogging por las mañanas no por diversión o porque les guste sino por imposición del seguro.
De hecho ya hay seguros de vida que hacen rebajas a sus clientes por hacer ejercicio…
Lo sé. Y esos seguros se jactan de que no imponen nada, de que sus clientes son libres de elegir. Pero lo que está claro es que si no tenemos cuidado la tecnología pude terminar siendo cada vez más y más opresiva, la tecnología y los algoritmos pueden frenar a la gente de decir ciertas cosas, de comportarse de cierta forma. En los próximos años los algoritmos sabrán prácticamente todo de nosotros en todos los aspectos de nuestra vida, estaremos más vigilados. Y uno se comporta de manera diferente cuando se sabe observado. Yo trabajo en televisión y soy muy conocido en Alemania, sé que si voy a un restaurante la gente va a estar pendiente de lo que hago, de lo que pido, de si río, de si me divierto, de si no me divierto… Si sabemos que nos miran, nos comportamos de modo distinto. Entramos en una era en la que como sociedad vamos a ganar en algunas cosas, pero vamos a perder en libertad.
Usted sostiene que los algoritmos pueden incluso poner en peligro la democracia…
Es algo que ya estamos viendo. La principal motivación de Facebook, de Twitter y de todas las redes sociales es comercial. El negocio de Facebook está basado en la atención, en conseguir que los usuarios pasen el mayor tiempo posible en Facebook, porque eso por un lado amplía el tiempo en que están expuestos a la publicidad y por otro permite reunir más y más datos individuales sobre ellos. Esos algoritmos ahora los están adoptando también las agencias de noticias; los grandes medios están empleando algoritmos que hacen que los artículos más leídos suban en la jerarquía y se sitúen en los puestos preferentes. No es la calidad lo que importa, ni siquiera la verdad, lo importante es la atención que despiertan. Se buscan mecanismos para obtener más atención, y a estas alturas todos sabemos que eso aumenta la circulación de noticias falsas. Numerosos estudios, algunos de Harvard y del MIT, muestran por ejemplo que en Twitter las noticias falsas se propagan seis veces más deprisa, seis, que las noticias verdaderas. Y cuando la prioridad es ganar la atención, se está incitando a lanzar noticias falsas.
¿Qué efecto tienen a nivel social las fake news?
La propagación de noticias falsas, unida a la existencia de burbujas cerradas en las que mucha gente se encierra para reafirmarse en sus creencias, está dividendo las sociedades. Se están creando burbujas en las que cada uno se encierra en su propia verdad, se aísla y no participa en las decisiones comunes. Y eso es muy desestabilizador para una democracia, porque las democracias necesitan una plataforma de acuerdos a nivel social.
Además la revolución tecnológica está haciendo aumentar la brecha entre ricos y pobres, ¿no es así?
Las compañías con más valor en el mundo hace 20 años eran petroleras, farmacéuticas. En 1998, el ranking lo encabezaban General Electric, Exon, Intel, Coca-Cola, Wal-Mart… Ahora, las más importantes compañías del mundo son Apple, Alphabet (es decir, Google), Amazon, Facebook, Alibaba… Dos de ellas, Apple y Amazon, valen cada una un billón de dólares americanos, una cifra superior a los presupuestos generales de muchos países. Se trata de una enorme concentración en un número muy pequeño de compañías, propiedad de un número bastante pequeño de personas extremadamente ricas, mientras que el resto de la sociedad en general no está viendo aumentar su riqueza. En el mundo hay lo que se llama un ‘juego de suma cero’, en el que lo que gana o pierde alguien se hace a costa de lo que gana o pierde otro alguien. Si se observan los datos, se ve una ruptura de las clases medias y un aumento de la brecha entre los muy ricos y los muy pobres. Y en los próximos años, cuando haya nuevos algoritmos y avances en inteligencia artificial, la situación aún se agravará más, porque habrá muchos trabajos que los hagan las máquinas.
¿La robotización irá acompañada de desestabilización social?
Sí. Le pongo un ejemplo: un call center. En los próximos cinco años los call centers no necesitarán personas, porque las máquinas serán mejores que los humanos haciendo ese trabajo. ¿Qué haremos con la gente que trabajaba allí? Es verdad que esas cosas siempre han pasado cuando surgían nuevas tecnologías, pero por primera vez creo que no vemos alternativas viables. Los cambios son tan rápidos, se producen a una velocidad tan vertiginosa, en un periodo tan breve, que no nos da tiempo a encontrar una alternativa. Y eso puede provocar una enorme inestabilidad social; si se alcanza un punto crítico de personas desempleadas o con rentas muy bajas es de imaginar que habrá conflictos sociales. En muchos países ya está empezando a haber desestabilización, con el surgimiento de partidos que no comparten los ideales democráticos. Es algo que no sólo ocurre en Europa o en Estados Unidos con Donald Trump, sino también en países como India, es a nivel global.
Las máquinas están empezando a aprender por sí mismas y con sus propios patrones. ¿Nos superarán, nos dominarán?
Ahora estamos en un primer estadio en el que las máquinas sólo son mejores que los humanos en algunas tareas muy específicas, como el clásico ejemplo del ajedrez o algunos campos de la medicina. Si te sometes a rayos X para saber si tienes un tumor, las máquinas ya son mejores que los humanos interpretando esas radiografías. Poco a poco, las máquinas van siendo mejores que nosotros en más y más campos. Ahora mismo las máquinas son capaces de hablar de tal modo que las personas somos incapaces de distinguir si se trata de una máquina o de un ser humano. Y en el futuro veremos cosas increíbles. Imagínese por ejemplo un algoritmo que coja los millones de fotos que hay en Instagram y analice las caras, será capaz de predecir quién padece un problema de alcoholismo, antes incluso de que la persona que es alcohólica sea consciente de que lo es.
Sinceramente, da un poco de miedo…
Hay motivos para estar alerta. Las máquinas, los algoritmos, no son neutrales; son subjetivos, depende de los datos que se les introduzca. Y eso puede dar lugar a problemas de grave discriminación. Ya lo estamos viendo en algunas áreas muy importantes, como por ejemplo la prevención de crímenes. En Estados Unidos hay un sistema llamado COMPAS que hace un seguimiento de las personas que han cometido delitos y que calcula la probabilidad de que vuelvan a delinquir. Pero eso puede ser muy discriminatorio, y de hecho las predicciones de COMPAS respecto a los negros son mucho peores que respecto a los blancos. ¿Y sabe por qué lo son? Lo son porque su software es discriminatorio, porque el algoritmo no está funcionando bien. Eso es peligroso, muy peligroso. Hay sistemas que funcionan a grandes rasgos, pero que tienen fallos. Y existe la tentación de utilizarlos a pesar de todo, y eso en campos de gran relevancia social como puede ser la legalidad o el sistema financiero puede ser terrible. El sistema informático de un banco le puede negar un crédito sin tener motivos de peso para hacerlo, sólo por un algoritmo.

Ver fuente de origen

* Recuerde. Al pulsar el enlace “Ver más, Leer más, Ver fuente de origen o Visitar Sitio Web”, usted abandonará nuestro entorno. En ese caso, la web a la que accederá no es propiedad nuestra y por lo tanto, nosotros no nos hacemos cargo de los contenidos, informaciones o servicios presentes en ella, ni de la política de privacidad que aplique el sitio web de un tercero.

Abrir chat
Gracias por venir ¿En que te puedo ayudar?
Powered by