¿Pueden pensar las máquinas? De Alan Turing al big data

¿Pueden pensar las máquinas? De Alan Turing al big data

Texto: David G. Maciejewski | Ilustración: Bárbara López

La era digital deja un frente abierto disputado entre tecnoptimistas y tecnófobos. El miedo a la autoconsciencia robótica y su dominio sobre el ser humano aflora en el imaginario colectivo por culpa de la literatura y el cine. Sin embargo, se trata de una quimera, porque los peligros de la inteligencia artificial débil son mucho mayores. TikTok y Siri son potencialmente más peligrosos que los Blade Runner. Sin un humanismo de la era digital, es difícil calibrar las consecuencias de los avances tecnológicos. Pero no perdamos el foco.

Imagina que un lunes te despiertas despreocupado, sin la necesidad de tener que apagar el irritante pitido de la alarma del móvil porque sabes que no debes ir a trabajar. No sientes la presión de tomarte el café a toda prisa para no perder el tren que te lleva a una rutina monótona y gris. Te desperezas con tranquilidad porque una máquina tiene tu desayuno preparado. Nada más cruzar la puerta de la cocina, la televisión se enciende con tu canal favorito sintonizado mientras una voz metálica te da los buenos días. «¿Cómo te encuentras esta mañana?», pregunta. Parece un mundo utópico e imposible imaginado por Alan Turing, pero el avance exponencial de las nuevas tecnologías nos hace pensar que en un futuro no muy lejano tendrán la capacidad de brindarnos todas las comodidades que necesitemos.

Al menos eso es lo que el cine, la literatura y la publicidad han conseguido proyectar en el imaginario colectivo: un concepto idealizado y fantástico de lo que significa la inteligencia artificial. La visión de los más ingenuos es la de una llave hacia el progreso, una suerte de elixir mágico que nos llevará a un mundo de felicidad y comodidad absolutas. Por el contrario, existe una visión apocalíptica e igual de exagerada que representa los avances tecnológicos como una amenaza ineludible: hipervigilancia, obsolescencia humana y control de las acciones y los pensamientos; una suerte de pesadilla orwelliana en la que imágenes como Terminator, HAL 9000, las distopías de Black Mirror y los cacharros insufribles de Brazil se superponen en una danza tecnológica macabra orquestada por el mismísimo Aldous Huxley.

Turing, el padre de la computación, no fue ni idealista ni apocalíptico, sino pragmático. Sentó las bases teóricas para desarrollar ordenadores inteligentes que pudieran resolver problemas matemáticos mediante algoritmos. La máquina universal de Turing, los conceptos sobre hipercomputación o los principios de la biología matemática le deben su existencia, o al menos su apariencia actual. Él creía que algún día las máquinas serían lo suficientemente inteligentes como para ser consideradas autónomas, y por eso ideó su famoso Test de Turing con el objetivo de diferenciar un amasijo de cables y códigos binarios de un humano pensante.

No sabemos si llegaremos a tener un robot tan inteligente para escapar de las trampas de Turing, pero lo que sí es una evidencia es que el cambio tecnológico disruptivo ha llegado para quedarse, y la gramática digital de los robots inteligentes ya forma parte del ADN moderno. El problema es que, cuanto más se inserta en nuestras vidas, menos se comprende su funcionamiento y más se difumina la fina línea que separa ficción de realidad. Pensamos y nos preguntamos: ¿puede llegar a sentir una máquina?, ¿son los replicantes de Blade Runner una hipótesis realista?, ¿podremos enamorarnos de un programa informático como Joaquin Phoenix en Her?, ¿será capaz de llorar un algoritmo?, ¿se camuflarán los androides entre los viandantes de la Gran Vía o Nueva York?, ¿nos robarán nuestros puestos de trabajo?, ¿serán amigables y nos darán los buenos días después de prepararnos un té ecológico o tratarán de aniquilarnos por quejarnos de que está demasiado caliente?

Los sentimientos de un robot

Para comprender cómo puede funcionar la mente de un robot, Pablo Haya, doctor en Ingeniería Informática y Telecomunicación por la UAM y director del área de Social Business Analytics del Instituto de Ingeniería del Conocimiento, primero considera fundamental diferenciar los dos tipos de inteligencia artificial (IA) que existen: la Inteligencia Artificial General, también denominada fuerte, y la específica o débil. «La primera busca construir sistemas informáticos capaces de imitar alguna tarea humana específica», explica. Algunos ejemplos serían los smartphones, las recomendaciones de contenido de Twitter y Facebook, las búsquedas de voz de Siri o los motores de IA de los videojuegos, la mayoría herramientas que tratan de hacer por nosotros una tarea determinada. «Por el contrario, el objetivo de la IA fuerte es construir máquinas capaces de realizar cualquier tarea cognitiva humana de manera indistinguible a los humanos». En esa categoría entrarían los Blade Runner o la maquiavélica nave espacial de Stanley Kubrick. ¿Podrían llegar a existir y tener sentimientos?

Los científicos no son capaces de ponerse de acuerdo sobre el futuro que le espera a la inteligencia artificial fuerte: «Existen dos corrientes», reflexiona Haya. «La primera está encabezada por Raymond Kurzweil, doctor de ingeniería en Google, quien defiende que se podrá construir una máquina computacional que algorítmicamente sea capaz de pensar como un humano y tener consciencia, algo similar a lo que se plantea en la película Her, donde hay una interconexión entre la inteligencia artificial y la inteligencia humana. La segunda corriente conjetura que es imposible construir una máquina que pueda replicar a un cerebro humano. En esa línea está el reciente premio Nobel, Roger Penrose, quien sostiene que se precisa algo de un sustrato biológico, como las neuronas, para reconstruir un cerebro».

Para llegar a comprender las limitaciones que sufre la inteligencia artificial fuerte, Haya se remite al Blue Brain Project, un proyecto arrancado en 2005 con el objetivo de simular un cerebro humano. La meta era tan ambiciosa y compleja que en 2020 el objetivo se rebajó a tratar de recrear el cerebro de un ratón. Un desencanto que enlaza con la idea de Raúl Arrabales, doctor en Ciencias de la Computación e Inteligencia Artificial: aún estamos muy lejos de construir un robot que sea tan inteligente y hábil como una mosca y que además consuma tan poco y tenga tanta autonomía. «Construir una máquina indistinguible de un humano seguirá siendo ciencia ficción por muchos años», considera Arrabales. «El reto está en lograr emular la Inteligencia Artificial General (IAG) que caracteriza a los humanos, que somos capaces de tener un desempeño bueno en diversos dominios. La IA es muy buena solucionando algunos problemas específicos, pero muy mala en su intento de adaptarse a condiciones y problemas cambiantes».

Raúl Arrabales: «La IA es muy buena solucionando algunos problemas específicos, pero muy mala en su intento de adaptarse a condiciones y problemas cambiantes»

La posibilidad de crear un superrobot con capacidades humanas está lejos de ser real, y además queda el problema de la consciencia. «Una computadora puede ser llamada inteligente si logra engañar a una persona haciéndole creer que es un humano», decía Alan Turing. Él no pudo responder si un robot sería capaz de pensar o no, pero sí consiguió crear un método para diferenciar una máquina de un ser humano: el antes mencionado Test de Turing. Un ejercicio sencillo en el que un entrevistador debería ser capaz de discernir si un sujeto encerrado en una habitación es una máquina o un ser humano en base a sus respuestas y estímulos, un sistema que ninguna máquina ha conseguido superar en su planteamiento original. ¿Pero podría llegar a hacerlo? ¿Es posible la consciencia robótica?

«No hay ninguna evidencia científica de que esto no sea posible», explica Arrabales. «Hemos de considerarlo una posibilidad. Así es como funciona la ciencia y el desarrollo tecnológico. En cualquier caso, se suele especular con la idea de que la consciencia que tendría una máquina sería diferente de la de un humano por el hecho de tener sustratos y cuerpos físicos diferentes», añade el doctor. Por su parte, Pablo Haya considera la autoconsciencia robótica una hipótesis poco probable. «Las emociones y los sentimientos están relacionados con las funciones cognitivas de alto nivel; es la consciencia la que reinterpreta las señales bioquímicas que se generan en nuestro cuerpo. Tener una máquina que sienta de verdad, que tenga empatía o emociones está altamente relacionado con crear una conciencia, pero actualmente somos incapaces de definir qué es la conciencia y cómo emerge».

El problema ya está entre nosotros

En este punto llegamos a un callejón sin salida. Los robots autoconscientes podrían formar parte del futuro humano, pero están lejos de sustituirnos. Ni siquiera la IA débil hace prescindible a una persona. Lo podemos comprobar en los kaitenzushi, establecimientos en los que una cinta transporta comida alrededor de las mesas de los comensales y estos escogen qué quieren degustar. La venta al público la hacen las máquinas, sí, pero estas dependen enteramente de los humanos: nosotros las hemos programado. Tampoco cobran a los comensales ni limpian las mesas. Ni siquiera las tiendas de Amazon Go, donde el comprador entra, paga con su teléfono móvil y se marcha sin necesidad de tratar con el personal del local, hacen que los terrícolas quedemos obsoletos. ¿Qué pasa con los envíos a domicilio? ¿Y con el mantenimiento técnico? ¿Quién coloca los objetos en los escaparates? Aunque nos quiten un puesto de trabajo específico, seguimos siendo imprescindibles para que todo lo demás funcione.

Es precisamente este tipo de avances tecnológicos concretos o débiles los que preocupan a Nuria Oliver, doctora en Inteligencia Artificial por el MIT. «Creo que el debate público no debería estar en si vamos a tener o no una superinteligencia artificial general, sino en discutir y entender qué impacto está teniendo hoy la inteligencia artificial específica». Estamos tan obsesionados con saber si podríamos tener un parque temático como el de Westworld que nos olvidamos de dónde debemos poner el verdadero foco de atención.

Nuria Oliver: «El debate público no debería estar en si vamos a tener o no una superinteligencia artificial general, sino en entender qué impacto está teniendo hoy la inteligencia artificial específica»

«Hay algoritmos de inteligencia artificial que están decidiendo qué contenidos vemos, qué noticias leemos, qué amigos tenemos, hacia dónde conducimos, qué tratamiento médico recibimos, qué sentencia judicial se nos dictamina o si nos aceptan en un trabajo o en una universidad», visibiliza la también cofundadora de ELLIS (European Laboratory for Learning and Intelligent Systems). Cuestiones que tienen muy poco que ver con si la Tercera Guerra Mundial será contra unas máquinas sedientas de sangre humana o si conseguiremos tener una pareja virtual en un holograma. «Es muy importante no distraerse con el tema de la inteligencia artificial general [fuerte], porque mientras tanto las empresas que dominan la específica [débil] siguen controlando nuestras vidas».

Esta doctora considera que hay una serie de retos tecnológicos que la humanidad debe arrostrar sin contemplaciones. Uno de ellos es la violación computacional de la privacidad y la manipulación del comportamiento humano: existen una serie de algoritmos que se encargan de guiar nuestra orientación política o sexual, principalmente a través de las redes sociales, y que tratan de maximizar el tiempo que pasamos utilizando las plataformas particulares. «Se monetiza nuestra atención y nuestro tiempo», advierte Oliver. «Los algoritmos tratan de encontrar qué elementos nos van a mantener pegados a la pantalla, pero hay una línea muy fina entre recomendar y manipular la toma de decisiones». Una amenaza que también analizó en profundidad el exitoso documental de Netflix El dilema de las redes.

El exitoso documental de Netflix El dilema de las redes pone sobre la mesa la fina línea entre recomendar y manipular la toma de decisiones

El problema entronca directamente con uno de los anglicismos tecnológicos más famosos de nuestro tiempo: el big data. El Doctor Arrabales lo define como sistemas que manejan volumen, variedad y velocidad, «pero una definición más práctica es que se trata de un servicio de inteligencia, como la CIA, con la salvedad de que en big data se espía a todos los consumidores de forma indiscriminada». Su objetivo es convertir datos en valor para las organizaciones que estudian esos mismos datos. «Eso puede tomar muchas formas, desde la automatización de procesos a la mejora de la experiencia del cliente». Lo peor de todo, matiza, es que somos nosotros quienes le damos ese poder: «Cumplen la ley y avisan previamente a los consumidores a través de la aceptación de licencias o condiciones de uso de un servicio», recuerda. Sí, se refiere a esas 20 páginas de condiciones que nunca leíste al crear tu cuenta de Facebook. Son la llave de acceso a su intimidad.

Sesgos algorítmicos, deepfakes y big data: la verdadera amenaza

Otro de los campos de batalla abiertos es el de los sesgos algorítmicos, algoritmos que potencialmente deberían ayudarnos a tomar decisiones más justas, pues el ser humano es susceptible de corromperse y hacer el mal voluntariamente. Nuria Oliver vuelve a la carga: «El problema es que estos sistemas también pueden discriminar porque hayan sido entrenados con datos de una realidad subyacente donde exista un patrón de discriminación, algo que el algoritmo no solo aprende, sino que puede llegar a magnificar».

A este debate le sigue un tercero que tiene que ver con el mundo periodístico: la veracidad de la información y el auge de las redes neuronales profundas que generan los llamados deepfake. «Ves un vídeo modificado de Obama diciendo una barbaridad y te lo crees, pero es completamente falso. Un algoritmo ha generado esa noticia utilizando técnicas de aprendizaje profundo, los conocidos como deep learning». La respuesta en esta batalla de la desinformación la tiene, de nuevo, la inteligencia artificial específica o débil: contrarrestar los algoritmos nocivos con algoritmos que sean capaces de detectar la manipulación y la falsedad. No es una tarea sencilla. De hecho, existen mecanismos regulatorios y marcos éticos que contemplan las consecuencias del mal uso de la inteligencia artificial y ponen límites teóricos a abusos como los que ocurren en regímenes totalitarios como el de China.

Un falso Obama dice que Trump es «un completo idiota» en este vídeo creado por BuzzFeed para advertir sobre el peligro de las 'deepfakes'.

España presentó recientemente su Estrategia de Inteligencia Artificial y la Unión Europea también lanzó en 2018 el Marco Ético Europeo para el Desarrollo de la Inteligencia Artificial. «El problema no es la falta de marcos éticos, sino cómo se conecta la definición de esos principios con el mundo real y los algoritmos que ya funcionan en nuestro día a día y quién vela porque esos marcos éticos se cumplan», advierte la doctora. «La ética no es legislación. Por eso en el contexto europeo, en febrero de 2020 la Comisión Europea publicó un white paper sobre una posible regulación de la IA en Europa cuya próxima versión ya está en fase de elaboración para su posterior integración. Ahí se esbozan unas líneas regulatorias relacionadas con la IA».

No vamos mal encaminados. Sin embargo, cualquier desliz en el camino podría llevar a la mala praxis y a una violación de los principios éticos y la vulneración de nuestros derechos y libertades. El problema, según remata el doctor Arrabales, es que «sufrimos de un gran analfabetismo digital», algo extremadamente peligroso. «La tecnología puede atontarnos o aumentarnos, y hacia qué lado se incline la balanza depende de lo bien educados que estemos al respecto». Por tanto, antes de teorizar sobre cómo serán los robots inteligentes del futuro, primero debemos comprender los peligros potenciales de las tecnologías del presente. Es la única manera de integrar el factor humano en una era marcada por la hibridez humano-digital.

Utilizamos cookies para mejorar tu experiencia. Política de cookies