La inteligencia artificial, un miedo irracional

La noticia del nacimiento de la oveja Dolly, en 1996, provocó ‘fake news’ sobre clonación de embriones humanos

Por Santiago J. Santamaría Gurtubay 

Francisco Herrera (Jódar, 1966) es andaluz, jienense, afincado en Granada, y uno de los científicos más citados en inteligencia artificial (IA), la disciplina que probablemente tenga actualmente la tasa de cambio de conocimiento más alta y también la que está llamada a revolucionar la organización de nuestras sociedades. Colocarse en los primeros puestos de la investigación en este campo es realmente difícil para cualquier investigador, pero especialmente si trabaja fuera del downtown científico. Gracias a este científico y a un puñado de investigadores sobresalientes, la visibilidad y el impacto a nivel mundial de la IA granadina está por encima de cualquier otra universidad española, en tercera posición a nivel europeo y en la treinta y tres a nivel mundial, según el reciente ranking U.S. NEWS. En la revista cultural editada en Madrid, Jot Down, fue entrevistado por Juan Manuel García Ruiz, profesor de investigación del CSIC del Laboratorio de Estudios Cristalográficos de Granada. En 2005 recibió el Premio Maimónides concedido por la Junta de Andalucía.

“La inteligencia artificial es la ciencia e ingeniería para crear máquinas (físicas o software) que se comporten de una forma que llamaríamos inteligente si un humano tuviese ese comportamiento. Esta es la definición que dio John McCarthy en el año 1955 y que sigue vigente. Esas máquinas son hoy en día imbatibles en ajedrez, como Deep Blue, una máquina que ganó al campeón del mundo de ajedrez. El ejemplo más simple podríamos situarlo en un cajero automático, que con un conjunto simple de reglas es capaz de darnos el dinero que solicitamos y es una aplicación de los años 70 y 80. Los robots aspiradora comenzaron a entrar en nuestras vidas en los años 90. Y actualmente interactuamos con asistentes de navegación para guiarnos en una ruta, los sistemas de recomendaciones como los de Amazon para sugerir compras o Netflix para sugerir películas, los asistentes virtuales en los móviles o en nuestras viviendas… Un modelo de sistema inteligente más avanzando conduce de forma autónoma, los coches autónomos sin conductor. Los sistemas inteligentes harán parte de nuestro trabajo, de prácticamente todos nuestros trabajos el día de mañana. Es impresionante el impacto que va a tener en nuestra forma de vida. Nos sorprendemos de los cambios que han ocurrido entre nuestra generación y la de nuestros nietos, pero serán nimios comparados con los cambios que ocurrirán entre la de ellos y la generación de sus nietos e incluso la de sus hijos. Es difícil de imaginar los cambios que nos esperan en los próximos veinte años y más difícil todavía los que vendrán después. Ahora sí es verdad eso de que en vez de ir nosotros hacia el futuro es el futuro el que se nos echa encima. ¡Y de qué forma! Basta ver el avance en el impacto de la inteligencia artificial que se ha dado en el último año. En 2022 ha habido una eclosión de la inteligencia artificial, se volvió creativa. Los modelos de IA ya pueden producir texto, imágenes e incluso vídeos convincentes con solo unas indicaciones de texto: DeepMind Flamingo (Google), DALL-E 2 (OpenAI), Make-A-Scene (Meta), ImagenVideo (Google), ChatGPT (OpenAI), LaMDA (Google), Midjourney… Desde jugar al ajedrez, crear arte, encontrar estructuras de proteínas, o mantener conversaciones… cada vez hay más tareas que pasan el test de Turing, es decir en las que cuesta distinguir si algo ha salido de un cerebro humano o de un sistema inteligente. El ritmo de la innovación en 2022 y en lo que llevamos del 2023 ha sido tremendo, a veces, abrumador”. 

Ha sido una eclosión más rápida de lo esperado. La inteligencia artificial está empezando a conquistar dos ámbitos que los humanos siempre hemos considerado un espacio propio, la creación artística de imágenes, con todo lo que esta representa, y el lenguaje. Ambas capacidades han dejado de ser exclusivamente propias, privativas de los humanos. La tecnología y la disponibilidad de datos masivos. En el noventa y mucho por ciento de las aplicaciones de inteligencia artificial lo que impera es aprender a partir de datos, extraer modelos que aportan conocimiento que están en esos datos. Es lo que se llama aprendizaje automático (en inglés ‘machine learning’). El aprendizaje automático es un área central de la IA actual. De forma simplificada, podríamos decir que el aprendizaje automático utiliza datos y respuestas para descubrir las reglas o patrones subyacentes a un problema. El aprendizaje automático engloba principalmente tres familias de tecnologías, denominadas aprendizaje supervisado, no supervisado y por refuerzo. En el aprendizaje supervisado el algoritmo aprende a partir de ejemplos o de datos etiquetados. Este proceso de aprendizaje es similar al proceso de aprendizaje humano, el cual requiere que un supervisor (maestro) enseñe el significado de los ejemplos para que el humano los pueda identificar y generar nuevo conocimiento. Por ejemplo, supongamos que queremos distinguir imágenes de gatos de las de perro. Hemos de enseñar al sistema diferentes fotos digitalizadas de gatos y perros, las procesará, aprenderá un modelo que trabajando sobre los pixeles de la imagen pueda posteriormente procesar una imagen y dar como acción la clase asociada a ella (gato o perro). Actualmente los métodos de aprendizaje automático que están marcando el estado del arte en la mayoría de los problemas de clasificación o regresión son las redes neuronales y el aprendizaje neuronal profundo. 

El aprendizaje no supervisado trata de encontrar patrones a partir de datos no etiquetados. Es un proceso de búsqueda de similitudes entre los datos, categorizándolos, para así predecir nuevos comportamientos. Dentro de este tipo de aprendizaje destacan los algoritmos de segmentación (en inglés clustering). Una aplicación clásica es la segmentación de clientes en los bancos, aseguradoras … atendiendo al ingreso y otras variables. Siguiendo con la analogía entre el aprendizaje automático y el humano, el aprendizaje por refuerzo requiere de elementos de refuerzo para premiar el correcto aprendizaje (refuerzo positivo) y para castigar los errores cometidos (refuerzo negativo). Este mismo esquema puede aplicarse al aprendizaje automático, y es lo que se conoce como aprendizaje por refuerzo (en inglés reinforcement learning). Un ejemplo clásico es el uso de estos modelos para diseñar sistemas inteligentes para jugar a los videojuegos. Por ejemplo, el sistema inteligente denominado Agent57 de la empresa DeepMind Google aprende a jugar a cincuenta y siete videojuegos retro de consolas clásicas de Atari (entre ellos el comecocos), logrando en todos ellos superar a la media de los jugadores humanos. Pero lo que particularmente ha eclosionado dentro del aprendizaje automático es el aprendizaje profundo (en inglés ‘deep learning’), modelos neuronales con muchas capas de neuronas artificiales que han permitido procesar las imágenes mejor que los algoritmos de aprendizaje automático clásicos. Fue en el año 2012 cuando se llegó a alcanzar un resultado impresionante en la competición ImagineNet (un problema de clasificación de más de veinte mil clases de imágenes, entrenando con varios millones de imágenes). El modelo de deep learning AlexNet mejoró en un 10 % los resultados previos alcanzados (la llamada medida Top-5); fue el momento de eclosión. AlexNet ha inspirado la creación de nuevos modelos de deep learning durante estos últimos diez años, con una capacidad de procesar imágenes y vídeo tremendas, y esto, como he comentado, ha explotado en el año 2022 (sistemas inteligentes de generación de imágenes a partir de texto como Dall-E 2, Midjourney, Stable Diffusion…). En paralelo, se han desarrollado grandes modelos de procesamiento de lenguaje basados en deep learning, en inglés large language models, que nos han asombrado por su calidad en los últimos meses. Pero además de esos cambios importantes en el desarrollo de los algoritmos que se usan, lo que ha ocurrido es que grandes compañías como Google y OpenAI han olido el negocio y han realizado una enorme inversión económica, metiendo mucho talento, disparando la capacidad de computación y de procesamiento masivo de imágenes y de texto, y poniendo a disposición de los algoritmos enormes bancos de datos. Todo eso tiene una historia de desarrollo y cambio de paradigma en los últimos años… 

Hace más de veinte años se produce uno de los grandes logros de la IA. Ganar un torneo de ajedrez al mejor maestro humano. El reto era tremendo. En el año 1996, el famoso ordenador de IBM Deep Blue, era capaz de evaluar cien millones de posiciones por segundo. Le ganó la primera partida a Garri Kaspárov, pero perdió el torneo. Al año siguiente en el 97, la máquina es mejorada técnicamente con estrategias de IA, y además se duplicó la capacidad de cálculo, para evaluar doscientos millones de posiciones por segundo; Deep Blue derrotó a Kaspárov 3.5-2.5. Era un modelo que usaba el ámbito simbólico de representación, el cálculo simbólico, el procesamiento clásico hasta ese momento, y su potente capacidad de cálculo. No neuronal.  No aprendía de la experiencia. En este siglo se produce el cambio de paradigma, se produce con la eclosión del aprendizaje profundo y el aprendizaje basado en datos masivos y el cambio de paradigma frente a la inteligencia artificial simbólica. En el año 2014, Google compra una empresa llamada DeepMind que estaba haciendo desarrollo de modelos neuronales para aprendizaje por refuerzo, y estaban teniendo avances muy importantes. Pronto presentaron modelos para jugar a los famosos videojuegos de Atari, el Comecocos y otros juegos. Habían conseguido entrenar a la máquina para jugar a estos videojuegos, y ganar en trece de ellos a los humanos. Por ejemplo, en el juego de los bloques, que tratas de romper un muro de ladrillos con una paleta y una pelota, la máquina había aprendido que si colocas la pelota en la esquina entra en la estructura y entonces empieza a romper ladrillos por dentro, y consigue terminar con una precisión y rapidez mayor que los humanos que tendemos a enviar la pelota al centro, a romper la estructura de ladrillitos por el centro. Ese juego se llamaba el Arkanoid, aunque el de Atari era anterior y se llamaba Breakout. Esto se hizo con sistemas neuronales aplicados al llamado aprendizaje por refuerzo, reforzando las acciones positivas del sistema inteligente que se estaba entrenando. DeepMind, estaba desarrollando modelos de gran calidad, y Google, que vio el negocio, la compró por cuatrocientos millones de libras en el 2014. Eran tres socios. Uno de ellos era Demis Hassabis, un niño prodigio del ajedrez, que fue uno de los grandes maestros a los catorce años, que hizo un doctorado en inteligencia artificial en el University College of London, y acabó montando DeepMind junto con otros colegas. Se plantean entonces a un reto mayor, el juego go, un juego de mesa que requiere más creatividad que el ajedrez. En 2016, su programa AlphaGo le gana a Lee Sedol, coreano, el mejor jugador de la historia del go. Y además gana con estrategias de juego que no se habían usado nunca, que ningún humano había usado antes. Aprendió a jugar de una forma diferente y mejor que los humanos. Desde entonces, para los que no lo tenían claro, ya no se puede decir eso de que las máquinas no son creativas. 

Un poco más tarde, en el año 2017 DeepMind crea AlphaZero, un sistema inteligente que juega al ajedrez japonés (shogi), a nuestro ajedrez occidental, y al go y que es capaz de ganar sin duda a cualquier humano y que entrena solo, sin intervención humana, solo conociendo las reglas de cada juego. En estos últimos cinco años DeepMind ha seguido presentando resultados impresionantes, creando sistemas inteligentes en diferentes ámbitos de aplicación, plegamiento de proteínas, generación de código, otros juegos de estrategia… Los resultados impresionaron por su capacidad para resolver los problemas abordados. Ya se comenzaba a vislumbrar una nueva era de la inteligencia artificial en esos años. En paralelo, Elon Musk, junto con otros líderes tecnológicos crearon la empresa de inteligencia artificial OpenAI en 2015, aunque Elon Musk salió de ella en el año 2018 y ahora es Microsoft la compañía que más está invirtiendo en ella. Estas dos empresas, DeepMind y OpenAI han estado compitiendo desde entonces. OpenAI en 2021 informa de la disponibilidad de su sistema inteligente para crear imágenes a partir de texto que se llama Dall-E, un guiño a Dalí, que es como se pronuncia en inglés. Tú le das un texto descriptivo de lo que quieres y la máquina te dibuja una imagen. Ellos mismos se dan cuenta que tienen algo sorprendente, algo nuevo que va a ser impactante. Es verdad que es un modelo por imitación, que aprende de una gigantesca base de datos de millones de imágenes, cada una de ellas descrita por un texto. El sistema es capaz de aprender utilizando lo que se llaman redes neuronales generativas y por sí sola genera imágenes. El éxito de la versión 2D del software de 2022, Dall-E 2, ha sido tremendo. Y no es solo OpenAI. Hay otras muchas empresas que durante el año 2022 han mostrado sistemas inteligentes capaces de generar imágenes. Por ejemplo, Midjourney, que es una empresa pequeña que presenta en julio de 2022 un software para crear imágenes de una calidad impresionante, incluso más realistas que Dall-E. Tiene ya más de un millón de usuarios. En una competición de arte en Colorado, en la Feria Estatal de Colorado, en agosto 2022, hay una modalidad de arte digital, arte creado o retocado digitalmente. Un tal Jason Allen, un experto de videojuegos, crea con Midjourney dos imágenes y las presenta. Y una de ellas llamada Théâtre d’opéra spatial gana el concurso ¡una imagen creada por un sistema de inteligencia artificial! Se montó la de san Quintín porque fue tan alabado como odiado, por la irrupción que supone en el mundo de las artes. Leí que los jueces se disculparon diciendo que nadie les había avisado que eran imágenes creadas por inteligencia artificial. Pero se trataba justamente de eso, de que fuese evaluada por un jurado que no se percatara de que esa imagen había sido creada por una inteligencia artificial. Era un concurso de imágenes digitales, claro. 

El premio nobel de economía, Paul Krugman, publicaba recientemente un artículo alrededor de esta pregunta: ¿nos quitarán el trabajo los robots? Decía que hace unos pocos años creíamos que la IA no iba a afectar a lo que eran los empleos del conocimiento de forma inmediata, que afectaría a otras profesiones como conductores, empleados administrativos… Que afectaría a áreas donde se repetían continuamente las acciones, y que no requerían conocimiento profundo. Pero que esto ha cambiado ya, que ahora los empleos del conocimiento están también amenazados. Decía Krugman que ChatGPT es una tecnología que parece capaz de realizar tareas que requieren una considerable formación académica. Y se preguntaba, a ver, realmente de lo que hacemos en el día a día ¿cuánto requiere alto nivel de creatividad? ¿Dónde está realmente la originalidad del trabajo de los llamados profesionales del conocimiento? O sea, ¿cuánto hay de originalidad y cuánto hay de saber manejar la situación en la que te encuentras? Por ejemplo, si tú le dices al ChatGPT: hazme un artículo de divulgación o un artículo de opinión sobre un tema cualquiera, con algunas palabras concretas que lo orienten. Estamos ante estos retos actuales de la inteligencia artificial. El primero los chatbots multipropósito: OpenAI está diseñando GPT4 y parece que puede manejar más que solamente lenguaje, combinando las capacidades de GPT3 y DALL-E 2. Pero los modelos de la próxima generación de lenguaje heredarán la mayoría de problemas de esta generación, como la incapacidad de distinguir los hechos de la ficción y la tendencia hacia los prejuicios. El mayor reto es que nadie ha descubierto cómo entrenar modelos con datos extraídos de internet sin absorber lo peor de internet (sesgo, discriminación, odio, machismo, homofobia o diatribas racistas, la llamada suciedad de los datos), de momento utilizan filtros para detectar el lenguaje ofensivo integrado en el propio modelo. 

El segundo de los retos es la regulación de la IA, leyes y reglas reguladores (líneas rojas de la IA). Ya existe el Reglamento de Inteligencia Artificial de la Comisión Europea, llamado Artificial Intelligence Act. En el futuro se responsabilizará a las empresas de las infracciones de privacidad o decisiones injustas tomadas por los sistemas inteligentes. Es el inicio de una era de desarrollo de una IA más respetuosa con la privacidad y la equidad. En tercer lugar, los grandes modelos de código abierto que pueden favorecer el desarrollo de la IA, más allá de las grandes multinacionales. Hace unos años fueron los modelos de aprendizaje profundo, y ahora los modelos de lenguaje como Stable Difussion, que genera imágenes a partir de texto y rivaliza con DALL-E 2 de OpenAI, BLOOM, modelo de lenguaje de código abierto y multilingüe, creado por un equipo de más de mil investigadores de IA, BigScience. Esto permitiría que la agenda de investigación de la IA esté menos definida por las grandes empresas, porque las grandes compañías tecnológicas desarrolladoras de grandes modelos de lenguaje (Google, OpenAI, Facebook) restringen su uso a personas externas y no han publicado información sobre el funcionamiento interno de sus modelos. En cuarto lugar, la entrada de la IA en la medicina y los grandes retos farmacéuticos. Los bancos de proteínas públicos producidos por la IA (AlphaFold de DeepMind, ESMFold de Meta), los fármacos diseñados con IA… Google ha creado una compañía separada para trabajar en IA y biotecnología, Isomorphic Labs. En este caso, en mi opinión, la IA abre la posibilidad de soñar con una industria farmacéutica más abierta y transparente, con mayor sensibilidad social. Y el quinto reto y más apasionante es la creación de una inteligencia artificial de propósito general, que pueda realizar diferentes tareas (multitarea) frente a modelos de una única tarea. Google y OpenAI anuncian que avanzan hacia el objetivo de una inteligencia artificial general a medio plazo. DeepMind presentó hace unos meses el sistema inteligente GATO que aborda realizar aproximadamente seiscientas tareas diferentes. 

Hace tres meses leía una entrevista a Oriol Vinyals, director de investigación de DeepMind, y decía que su generación verá una inteligencia artificial que iguale o supere a la del ser humano. La inteligencia artificial general o fuerte (AGI, de Artificial General Intelligence) era la idea de los pioneros de la inteligencia artificial de los años sesenta, que se planteaban crear una máquina que superará a los humanos en general. Marvin Minsky y otros pioneros proclamaban que iban a crear máquinas que serían tan inteligentes como los humanos. Stanley Kubrick, el director de ‘2001: Una odisea del espacio’ fue asesorado por Minsky, quien inspiró HAL 9000, el ordenador que controla la nave, y que llega a atentar contra los humanos para preservar la misión que era su primer objetivo. Una máquina que incluso tiene sentimientos y conciencia de existir; recuerda cuando dice aquello de “no quiero morir”. Esa idea de la AGI fracasó, la idea de un sistema de inteligencia que fuera capaz de igualar al humano globalmente, fue un absoluto fracaso de predicción. Y vino el llamado invierno de la inteligencia artificial con enormes críticas por parte de algunos filósofos como Dreyfus. En los años 80 y 90 se cambiaron los objetivos de desarrollo para resolver problemas concretos, lo que se denominaba inteligencia artificial débil o estrecha. Me centro en un problema concreto y voy a hacer un sistema que sea tan bueno como el humano para superarlo en ese problema concreto. Una máquina para ganar al ajedrez, pero la máquina que juega al ajedrez no sabe jugar a las damas. Y la que pretende conducir un coche no sabe hacer otra cosa. Lo que hoy es la inteligencia artificial que conocemos, y eso ha sido un éxito tremendo, como hemos visto. Pero hay una línea de desarrollo que sigue pensando en ese modelo que pretende hacer máquinas que lo hacen todo, máquinas que superen a los humanos en muchas cosas. Como dije antes, Google presentó el año pasado GATO, un sistema inteligente que puede abordar hasta seiscientas tareas conjuntamente. Son los llamados modelos multimodales. Estamos en el inicio de estos desarrollos, pero ya se habla de ello, y se tiene el objetivo de desarrollar un algoritmo que pueda hacer múltiples tareas.

Resulta que las grandes empresas en la frontera de la investigación de IA te dicen que van hacia una IA general, y que la van a conseguir dentro de unos pocos años, durante esta generación. Yo, que hace tres años era escéptico ante ese planteamiento, ya no me atrevo a afirmar ahora que la inteligencia artificial general no sea factible en un tiempo razonable. 

Ahora pensamos que construir algo que sea más inteligente que el ser humano, con un tipo de inteligencia quizás diferente pero más eficaz, es un objetivo que está al alcance de la mano, ¿qué pasa con la conciencia? Esas máquinas tan inteligentes, ¿podrían desarrollar la conciencia? Hoy no, pero ¡qué podemos negar hoy que se pueda hacer en el futuro! Antonio Damasio, el neurólogo que fue premio Príncipe de Asturias, en su libro ‘El extraño orden de las cosas’, creo recordar que era el título, decía que la gran diferencia entre los humanos y la máquina estaba realmente en los sentimientos. Cuando se habla del ajedrez se pone un ejemplo muy claro. La máquina nos gana ya al ajedrez, pero no tiene el sentimiento que tú tienes cuando haces una jugada bonita, cuando ganas una partida. Y eso es así. Lo que venga no será la conciencia humana, no será la inteligencia humana. No podemos negar la creatividad actual en las máquinas y los avances continuos. Pero es que las máquinas van a aprender a mejorarse sin necesidad de que los humanos le digamos cómo. ¿Hacia dónde le puede llevar a la máquina entrar en un proceso de automejora? Ese es el planteamiento y la preocupación de Nick Bostrom, el filósofo y director del Instituto del Futuro de la Humanidad de Oxford, que escribió un libro muy famoso, Superinteligencia, en el que analiza los riesgos de la “superinteligencia” de las máquinas, y muestra su preocupación por lo que representa para la humanidad. Él razona que si la máquina es más inteligente que nosotros va a tener capacidad de automejorarse. Ya no seremos los humanos los que haremos los nuevos modelos de machine learning para mejorar la máquina. La propia máquina los va a hacer para automejorarse, y en algún momento nos superará. Tendrá mayores, y mejores capacidades. Si esa máquina tiene como objetivo preservar el planeta, y llega a pensar que somos los humanos los que estamos destruyendo el planeta, a lo mejor decidiría que los que sobran en el planeta son los humanos. Por eso Stephen Hawking decía hace unos años que el mayor peligro para la humanidad era la inteligencia artificial. 

¿O sea, que no podemos confiar en la inteligencia artificial? Es un tema interesante de debate y análisis. Europa está liderando este debate. La Comisión Europea está hablando de inteligencia artificial fiable (en inglés trustworthy artificial intelligence). Una IA que cumple con la ley, que es ética, y es robusta en su comportamiento y con un control de fallos. Estamos hablando de que los sistemas inteligentes sean más transparentes, que expliquen qué hacen y cómo lo hacen, que respeten la privacidad, que se evite el sesgo en los datos y la discriminación en la toma de decisiones, la mencionada robustez… Toda una serie de preceptos y con la supervisión, por supuesto, de un humano. El último de ellos es la regulación legal que debe cumplir siempre un sistema inteligente. Regulación y control para evitar llegar a tener una inteligencia artificial pueda decidir lo que hacer o que estuviese fuera del control humano. La Comisión Europea ha publicado las primeras normas reguladores que describen los llamados escenarios de riesgo, donde se puede afectar a los derechos fundamentales de las personas o a la seguridad física. En esos escenarios hay que cumplir un conjunto de requisitos para que el sistema inteligente se pueda utilizar, siempre bajo parámetros de supervisión y fiabilidad. Los escenarios de riesgo, incluyen el acceso a la educación y a los servicios públicos, el uso de herramientas de recursos humanos para selección de personas para un trabajo, el control de fronteras, o el uso de la IA en instalaciones críticas… En resumen, se habla de todo un conjunto de espacios donde es importante cumplir con los requisitos de la inteligencia artificial fiable. En China hay cientos de millones de cámaras que identifican a los ciudadanos, observan lo que hacen y te dan puntos por tu comportamiento, puntos positivos o negativos. Existe el llamado ‘ranking social’, y si un ciudadano chino pierde puntos y está por debajo de un umbral entonces no podría acceder a ciertos servicios (como comprar un billete de avión, clase especial en tren, o el acceso a otros servicios públicos del Estado). Eso no va a pasar no va a pasar en nuestras sociedades democráticas porque la Comisión Europea plantea escenarios donde es inaceptable el uso de la IA, como en la identificación biométrica (como la facial) de forma general no se puede utilizar para identificar ciudadanos en cualquier lugar. Se pone el ejemplo de la práctica en China que no es aceptable para su implantación en Europa. España está siendo pionera en el desarrollo de la regulación de acuerdo con la Comisión Europea. Es el país europeo que está creando la primera Agencia Nacional de Supervisión de la IA, con el objetivo de tener el primer escenario de pruebas (los llamados Sandbox). Estamos dando pasos para evitar una inteligencia artificial descontrolada y que podamos tener la confianza necesaria en la IA. 

Está claro que vamos a tener que saber trabajar con máquinas, tomar decisiones con máquinas. Y habrá trabajos que van a desaparecer parcialmente, que donde había diez personas en el futuro puede haber tres trabajando en colaboración con sistemas inteligentes. También se crearán nuevos tipos de trabajo para humanos. El Foro Económico de Davos planteaba en el 2020 una predicción sobre el proceso de automatización de la sociedad y el trabajo. Planteaba que en el 2025 se podrían automatizar el 50% de nuestras tareas profesionales. Fue una predicción en el inicio de la pandemia, con un horizonte de transformación digital sin precedentes por la situación en la que nos encontrábamos, pero este horizonte de predicción para 2025 se puede extender a esta década y pensar en el 2030 como horizonte. Esa revolución en el mercado de trabajo es inevitable. A nivel puestos de trabajo se predecía que podrían haberse perdido en esta década ochenta y cinco millones de puestos de trabajo y creado noventa y siete millones de nuevos puestos de trabajo asociados a las nuevas tecnologías. Es que en toda revolución tecnológica se destruye un tipo de empleo y se construye otro. Antes de la segunda revolución industrial, a principios del siglo XX, el 95% de la población americana trabajaba en la agricultura. Llegó primero la máquina de vapor, la electricidad con esta segunda revolución y la mecanización, hay una transformación, se industrializa el campo americano y los campesinos migran a las ciudades. Actualmente la ocupación en la agricultura en Estados Unidos está por debajo del 5%. Eso fue un proceso lento. Esa es la diferencia. La IA entra mucho más rápido en la tecnología, que aquí vamos a tener un proceso rápido. Hoy mismo hay profesiones que en el 2015 no existían. En marketing digital, mánager de redes sociales, conductores de drones… Se dice que el 65 % de los niños actuales van a trabajar en profesiones que hoy no existen. A ver, esto va a ser rápido, pero no inmediato. El taxista de cincuenta años se va a jubilar de taxista, pero un chaval joven que empieza con veinte años de taxista, yo no sé; si fuera mi hijo le diría que se lo piense. Lo que veremos a partir de ahora es que los que trabajamos en crear conocimiento también estamos afectados, como decía Krugman. Ya no es solo los taxistas, los camioneros, los vendedores, las cajeras…, ya nos tocará a todos.

Un ejemplo reciente ha sido la resolución de la estructura de decenas de miles de proteínas por la IA de Alphafold. Al contrario de lo que han interpretado algunos periodistas, no es que hayan quitado trabajo a los cristalógrafos estructurales. Al revés, ofrecen una información que ahora los cristalógrafos podemos usar para resolver a alta resolución usando la técnica de reemplazamiento molecular. En mi laboratorio ya se han resuelto estructura de proteínas a alta resolución a partir de la información de Alphafold que es de baja resolución y no fiable al cien por cien. Tenemos que entender que la IA entra silenciosamente en nuestras vidas. Tenemos que acostumbrarnos a convivir con las máquinas inteligentes, a usar las máquinas y adaptarnos a trabajar con ellas. Insisto, la eclosión en los últimos seis meses de la IA es algo que anuncia que el mundo va a cambiar, por todo lo que hemos hablado. Yo estoy convencido que la realidad va a superar a las expectativas de futuro para la IA en los próximos años. Y por supuesto, cambiar el sistema educativo. Si hace un año me dicen que va a existir un generador de lenguaje que va a ser capaz de hacerles los deberes a cualquier chaval para sacarse un 8 o un 9, hubiese dicho que todavía faltaba un tiempo. Los sistemas inteligentes nos conducen a cambiar nuestra forma de enseñar, de evaluar. Prohibir las nuevas herramientas de la IA o despreciar su capacidad de impacto es un sinsentido. Ignorar lo nuevo, las nuevas tecnologías, está a mitad camino entre el miedo y el desconocimiento. Lo que tenemos que pensar es cómo trabajar con esas máquinas, cómo usarlas para mejorar, para aliviar nuestro trabajo. No me la prohíbas, que no le podemos poner barrera a la ciencia. Y no despreciemos la tecnología porque tiene defectos. Piensa que lo que tenemos hoy es la punta del iceberg, que en el 2025 el GPT-5 va a ser tremendo, no fallará en nada. Te sacará un 10 en selectividad. No neguemos el cambio que se está produciendo, porque en tres años va a ser tremendo.

Entramos en un mundo que está cambiando rápidamente, se pueden optimizar y automatizar todos los procesos de producción y de negocio. En el ámbito médico, se está hablando de progresos importantes para la salud de las personas, la detección del cáncer, el manejo y análisis de imágenes médicas en el área de radiología del hospital, en la cirugía el uso de robot para hacer intervenciones quirúrgicas. En agricultura se habla de la agricultura de precisión con inteligencia artificial, se va a tener que hacer un control milimétrico del uso del agua, que te mide el estrés hídrico de las plantas, robots que realizan múltiples tareas… En movilidad, la conectividad 5G permitirá la conexión de los vehículos y el control en tiempo real del tráfico, las mejoras en la administración pública con el uso de sistemas inteligentes… Será un cambio global en todos los ámbitos de nuestra sociedad. Y es que además para todo ese futuro que se atisba no es necesario ningún descubrimiento paradigmático. Con lo que hay, ya es suficiente para alcanzarlo. Y además ha entrado ya en el sistema productivo, en la economía. A saco. Va a ser apasionante. Yo, lo repito, no me atrevo a decir dónde está el límite. Y si la computación cuántica llega a hacerse realidad, ¿cómo va a afectar a todo esto? Hoy por hoy la mayor preocupación de la llegada de computadores cuánticos es en el ámbito de la ciberseguridad, porque tendría la capacidad de romper las claves de muchos modelos criptográficos. Estos podrían ser fácilmente desencriptables, se convierten en problemas fácilmente resolubles, en la clase de los llamados problemas tipo P, es decir, de resolución en un tiempo polinomial con respecto a la entrada, frente a su categorización en computación clásica como problemas NP, no polinomiales. En lo que respecta a la inteligencia artificial, la combinación con la computación cuántica puede producir un salto muy importante, se reducen los costes de cálculo, alcanzando capacidades hoy impensables. Podríamos pensar en el entrenamiento de grandes modelos de lenguaje (Large Language Models), hoy muy costoso, que podrían entrenarse muy rápidamente y con la reducción de energía que la computación cuántica puede conllevar, y la posibilidad de procesar modelos aún más complejos y con mayor capacidad de aprendizaje. Muy probablemente sería un salto tan grande que crearía máquinas mucho más inteligentes que los humanos. ¿Y con consciencia? ¿Quién se atreve hoy a negar técnicamente la imposibilidad de ese futuro? Pero como hemos comentado, será otra forma de inteligencia, de conciencia…  Ahí entraríamos en el campo de los sueños, de la ciencia ficción. ¿Cómo de cerca estamos de cómo la ciencia ficción ve ese futuro de robots, androides, ginoides, etc.? Tenemos ‘Blade Runner’ con sus replicantes, o ExMachina, o la serie de la detective Bruna Husky de Rosa Montero, ‘Lágrimas en la lluvia’ (su primer volumen), y tantas películas y libros. Pensar hoy en una máquina que pueda comportarse como un humano, un humanoide o replicante, eso no es posible porque los computadores que se requieren son muy grandes, y se necesitarían correr y entrelazar miles de programas distintos. Meter todo lo que hace el cerebro de los humanos en una cajita, eso hoy en día no es viable porque tenemos la limitación del tamaño de computación y la vamos a tener por mucho tiempo. 

¿Por qué todos los robots son antropomorfos, o cuando menos biomorfos? ExoMars, el robot que la ESA pretende enviar a Marte o los Sojourner, Curiosity o Perseverance, de la NASA, todos tienen dos ojos, dos brazos… No tiene mucha lógica ¿no? Lo único que no es biomorfo son las ruedas, porque la vida nunca inventó la rueda. Es verdad, hay una tendencia a imitar nuestras formas. Pero es algo que no es necesario, ni siquiera conveniente. De hecho, hay más problemas, más retos para hacer robots en la parte de la ingeniera mecánica que en la parte de IA. Vamos a llegar más rápido a ese nivel de inteligencia artificial avanzado que la bioingeniería al robot que vemos en las películas. Podríamos tener sistemas inteligentes como en la película ‘Her’, de Spike Jonze, en la que Samantha, la ‘robot’ de la que se enamora el protagonista interacciona con él solo con la voz, era un sistema operativo inteligente que no tiene forma física. La forma no es relevante en este caso y los robots del futuro no serán seguramente antropomorfos. ¿Qué podemos hacer los humanos ante las amenazas de la IA?  Los humanos tenemos la última palabra para utilizar la IA, para regular la IA, para determinar hasta dónde debe llegar y para velar por nuestra privacidad. Tenemos la capacidad para hacer de esta tecnología un vehículo de desarrollo de nuestra sociedad. Una IA centrada en las personas, al servicio de las personas. Hemos de analizar los peligros, como hacemos con otras muchas tecnologías, y regular cómo utilizarla. También hemos de discutir e introducir las medidas correctoras que requiere nuestra sociedad a consecuencia de la IA, medidas de justicia social en todo el proceso de cambio y transformación del trabajo. Cuando una innovación tecnológica causa revuelo en la prensa porque, pese a las indudables ventajas que pueda traer, implica también algunos peligros y amenazas, es recurrente que algunos analistas se atrevan a sugerir la conveniencia de legislar al respecto para evitar al menos los peores escenarios que podrían darse, e igualmente recurrente son las protestas acerca de lo irrealizable o indeseable de dicha regulación. En español, la frase más repetida entonces es “no se le pueden poner puertas al campo”. Recuerdo cómo, cuando saltó la noticia del nacimiento de la oveja Dolly, allá por 1996, la frase fue profusamente usada en las tertulias y entrevistas, y lo mismo cuando en 2004 un científico coreano anunció (falsamente) haber clonado embriones humanos. Una versión más sofisticada de la idea que hay detrás dice que en tecnología, lo que puede hacerse, se hará.

Es lo que en filosofía de la tecnología se conoce como “imperativo tecnológico” y da expresión breve a una doctrina que, pese a estar desacreditada en la literatura sobre el tema, sigue teniendo un fuerte apoyo en los medios de comunicación. Me refiero al determinismo tecnológico. En pocas palabras, lo que esta doctrina sostiene es que, por su propia naturaleza, la tecnología (o al menos las tecnologías más potentes) son intrínsecamente incontrolables. Solo obedecen a una lógica interna que el ser humano no tiene capacidad para reconducir. Su máximo defensor fue el filósofo francés Jacques Ellul en el libro ‘La tecnología o la apuesta del siglo’, publicado en 1954. Nadie puede negar que la regulación del desarrollo tecnológico no es fácil. No es como regular la conducta apropiada en una residencia universitaria, pero esto no significa que no sea factible y conveniente. Como argumentó hace ya más de dos décadas el filósofo finlandés Ilkka Niiniluoto, lo contrario del determinismo, que sería algo así como un “voluntarismo ingenuo” no resulta plausible. La tecnología presenta sus ‘imperativos’, pero son imperativos condicionados a valores y deseos, y podemos desobedecerlos o cambiarlos. En el caso concreto de la IA, cuya regulación parece cada vez más urgente dado que incluso especialistas destacados han pedido en una carta abierta una moratoria (no una prohibición) en la investigación en IA avanzada, he podido leer estos días varias objeciones a las que me gustaría responder. Aclaro que no soy especialista ni en IA ni en ética o filosofía del derecho. Mi especialidad es la filosofía de la ciencia y la tecnología, así que tómese esto que digo solo en lo que valga. Se ha dicho, por ejemplo, que estas reacciones precautorias se basan en un miedo irracional a una nueva tecnología, como ha sucedido siempre en el pasado. No son más que una muestra de conservadurismo, que, además, retrata un panorama apocalíptico que nunca se va a producir. A esto yo respondería que también el pasado nos ha mostrado suficientemente que no toda innovación tecnológica es necesariamente un progreso, o bien que trae aparejadas consecuencias indeseables que es importante evitar o paliar. Los indudables beneficios no anulan los perjuicios. Yo estoy de acuerdo en que los escenarios apocalípticos, tipo ‘Terminator’, que algunos dibujan son bastante improbables, pero se crea o no en la posibilidad futura de una Superinteligencia Artificial General, el desarrollo de la IA presenta ya efectos negativos que conviene regular. 

Se ha aducido también que ninguna regulación será efectiva, porque algunos países no se someterán a ella, y donde se haga la regulación, habrá personas que intentarán saltársela y actuarán clandestinamente, como en pasó durante la Ley Seca. No tenemos el poder para imponer internacionalmente ninguna regulación al respecto y si se consiguiera, no podríamos controlar el cumplimiento ni castigar al infractor. Los países que más abusan de las nuevas técnicas contra la propia ciudadanía nunca coinciden con los que muestran más sensibilidad sobre los límites éticos de su utilización. Cada vez que se prohíben en Occidente peligrosos experimentos de vanguardia con seres humanos, llegan confusas noticias sobre laboratorios en China o Corea del Norte que desprecian tales prohibiciones y podrían estar haciendo los mismos experimentos que Europa y Estados Unidos rechazan. ¿Tiene sentido que los países democráticos se hagan a sí mismos prohibiciones que no van a respetar los países autoritarios, que investigan lo que quieren sin dar cuenta ni pedir permiso a nadie? Por supuesto que tiene sentido. Toda regulación, toda ley, puede ser incumplida, pero eso no inutiliza la ley, ni convierte en absurdas o inútiles las normas, más bien muestra que eran necesarias. Si todo el mundo hiciera el bien por inclinación natural y procurara siempre evitar cualquier daño, no haría falta ninguna normativa. Es verdad que una regulación debe prever los mecanismos de sanción para el que la incumple. Otra cosa es que no tengamos los medios para imponer la sanción, como pasaría en el caso que comentamos, o como pasaba en el salvaje Oeste, pero eso no impide que la legislación sea conveniente e incluso tenga efectos positivos. El salvaje Oeste terminó siendo pacificado precisamente porque se hicieron leyes, aunque no pudieran ser impuestas durante años. Por lo menos, se señala con ello un referente moral. Incluso China terminó sancionando al científico He Jiankui después de hacer que nacieran dos niñas genéticamente manipuladas. No podemos, por otra parte, esperar a la unanimidad para intentar desarrollar cualquier legislación internacional. Ni siquiera la Declaración Universal de Derechos Humanos consiguió esa unanimidad, y hoy seguro habría más países que antes que no la firmarían, pero no vamos a negar por ello sus efectos beneficiosos.

Pero si no desarrollamos nosotros esta tecnología –se dirá–, lo van a hacer otros con toda seguridad. ¿Nos dejará eso en una desventaja inasumible frente a rivales geoestratégicos? No necesariamente. Nadie (excepto algún exaltado) habla de una prohibición total de la investigación en IA. Nadie pide que en Europa no se investigue sobre sistemas de reconocimiento facial, sino que no se usen, como en Rusia y China, de formas que violan los derechos fundamentales. No parece desmedida ni alocada una petición así. Así que no tenemos por ello que quedar rezagados en nada (al menos, en nada deseable). La regulación ha mostrado hasta ahora ser útil y beneficiosa para todos. Hemos regulado durante décadas (aunque ahora desgraciadamente con la guerra de Ucrania esto sea papel mojado) la producción de armas nucleares, hemos regulado y prohibido el uso de armas químicas y biológicas, hemos regulado muchos aspectos de la biotecnología, como el trasplante de órganos o la clonación humana, se prohibió con éxito el uso del DDT y de los gases clorofluorocarbonados, que destruían la capa de ozono. Esto lo sabemos bien y lo saben las autoridades políticas. En caso contrario, ¿qué sentido tendría que en la actualidad se pida la realización de un estudio de impactos, incluyendo cuestiones éticas, a la hora de aprobar la implementación o el comienzo de cualquier proyecto tecnológico relevante? De hecho, la gobernanza de la IA se ha convertido hoy en una preocupación central en la UE y en otros países desarrollados. Se dice también que todo esto va muy deprisa y que cualquier regulación quedaría obsoleta en poco tiempo. Bien, pues ahí tenemos un desafío para los técnicos y legisladores, pero no una razón para no hacer nada. En todo caso, las cuestiones fundamentales tampoco están cambiando tan deprisa.

Se dice que cualquier regulación impediría el progreso. Pero es evidente que no todo lo que nos pueda traer la tecnología es necesariamente un progreso en el sentido de que sea un cambio para mejor. Y tampoco está claro que la regulación de la IA vaya a impedirlo. ¿Impidió el progreso la regulación de la clonación en embriones humanos? ¿La prohibición de la clonación reproductiva en humanos? No, a no ser que consideremos un progreso poder hacer un hermano gemelo. Se dice, y con esto acabo con las objeciones, aunque sé que hay muchas más, que las ventajas de la IA serán mucho mayores que los inconvenientes, que la IA no tiene nada que ver con tecnologías más preocupantes o peligrosas como la energía nuclear. Muy bien, supongamos que sea así. En tal caso, no habrá ningún problema en que preveamos algunas posibles consecuencias negativas, aunque sean pocas e improbables, para tratar de evitarlas. ¿Cuál es la alternativa? ¿Dejamos que las grandes compañías tecnológicas y los poderes económicos decidan por nosotros sin ninguna cortapisa, con nuestra bendición además? La plausibilidad inicial del determinismo tecnológico debe ser puesta en contraste con un hecho que, si bien no lo convierte en falso, sí que al menos debería prevenirnos contra su aceptación pasiva: el determinismo tecnológico es paralizante. Conduce a la inacción e impide que tomemos las decisiones adecuadas ante los graves desafíos que se nos presentan. Al admitir que todo lo que pueda hacerse técnicamente se hará tarde o temprano, sea cual sea nuestro juicio sobre ello, lo que indirectamente se sugiere es que hemos de estar preparados para asumir cualquier resultado posible y que nuestros deseos o la calificación moral que nos merezcan los resultados de la tecnología están aquí fuera de lugar. No me parece una posición muy razonable.

@SantiGurtubay

@BestiarioCancun

www.elbestiariocancun.mx

No hay comentarios