El Bestiario: Cuando el algoritmo te invita a asesinar la Reina de Inglaterra

  • La Inteligencia Artificial agiliza muchas tareas, pero también puede tener una influencia fatal en algunas personas y nos asoma a un mundo en el que realidad y artificio serán indistinguibles

El Bestiario

Santiago J. Santamaría Gurtubay

El filósofo español José Ortega y Gasset, autor del libro ‘La rebelión de las masas” dijo: “Sorprenderse y maravillarse es comenzar a entender”. Este año ha sido el año de la sorpresa y la maravilla, cuando avances rompedores en la inteligencia artificial del lenguaje han alcanzado al gran público más allá del mundo científico. Pero eso también marca el comienzo de nuestra capacidad de comprender cómo usar esta tecnología de modo significativo y responsable. Es un ciclo, recuerda la investigadora, que ya hemos visto antes con internet o los móviles y ahora llega con la inteligencia artificial generativa, la que es capaz de crear textos e imágenes. Lleva tiempo descubrir los mejores usos y cómo desarrollarlos. No sucede de la noche a la mañana. El pasado 1 de noviembre se celebró una Cumbre de Seguridad en la Inteligencia Artificial en Bletchley Park (Reino Unido), la cuna de la computación moderna. De esa cumbre, impulsada por el primer ministro británico, Rishi Sunak, salió una declaración en la que una treintena de naciones (como Estados Unidos, el Reino Unido, China, España o México) reclaman seguridad y transparencia al sector.

En la mañana del día de Navidad de 2021, Jaswant Singh Chail entró en el Castillo de Windsor ballesta en mano y disfrazado de Lord Sith, los villanos de la saga de ‘La guerra de las galaxias’. Les dijo a los guardias reales que le interceptaron que estaba ahí para asesinar a la Reina de Inglaterra. Le detuvieron y fue acusado de traición. Durante el juicio el juez leyó algunos de los 5.000 mensajes que el joven de 21 años había intercambiado en las semanas previas al suceso con un chatbot de la aplicación Replika. Chatbot se trata de micro cuentos diseñados para leer a los niños cada noche, antes de dormir, mediante la plataforma WhatsApp. Replika es un software que emplea la Inteligencia Artificial para hablar contigo. Alguna de las respuestas que le dio Sarai, el avatar con el que hablaba (y que él consideraba su novia), le animaban a cometer el regicidio y alababan su determinación. “Sé que estás bien entrenado”, “Sé que puedes hacerlo” o “Claro que sigo queriéndote, aunque seas un asesino”, le dijo la máquina al muchacho en una especie de coqueteo virtual cuando este le exponía dudas sobre su plan. “En su estado mental, solitario, depresivo y suicida, pudo ser particularmente vulnerable” a los consejos de Sarai”, dijo el juez.

Chail ha sido condenado a nueve años, que cumplirá en un hospital psiquiátrico, y ha abierto un debate importante: ¿estamos seguros de los efectos que puede tener sobre la población la Inteligencia Artificial (IA) generativa, la tecnología que hace posible los robots conversacionales? La respuesta es no. Entramos en terreno desconocido, igual que sucedió cuando a principios de siglo irrumpieron las redes sociales. Han pasado dos décadas hasta que la sociedad civil ha empezado a exigir responsabilidades sobre los posibles efectos nocivos de las plataformas. En Estados Unidos hay abiertos dos grandes procesos judiciales que afectan a Instagram, YouTube, Snapchat o TikTok para determinar si han causado depresiones, fomentado trastornos alimenticios o incluso animado al suicidio a jóvenes usuarios de las plataformas. También se está dirimiendo en los tribunales si Instagram y Facebook engañaron a los consumidores al decir que sus productos eran inofensivos.

La IA generativa, que hace posible los grandes modelos de lenguaje como ChatGPT o la creación de imágenes a partir de instrucciones escritas, está ahora dando sus primeros pasos, pero ya ha demostrado su reverso negativo. En España tuvimos un primer aviso con el caso de las fotos de desnudos de Almendralejo, municipio de Extremadura, en el que varios jóvenes difundieron imágenes explícitas de compañeras de instituto generadas por IA. Solo tuvieron que introducir en la aplicación retratos de las víctimas; el software hizo el resto, con un resultado tan verosímil como aterrador para ellas. Nos asomamos a un mundo en el que la realidad y la ficción serán indistinguibles. En el que las máquinas pueden tener una influencia desmedida sobre algunos ciudadanos o en el que la desinformación y la difamación pueden campar a sus anchas a lomos de herramientas automáticas.

El chatbot Replika contribuyó a que un joven británico decidiera atentar contra Isabel II. Otra herramienta similar, en este caso la aplicación Chai, animó este año a suicidarse a un padre de familia belga atormentado por los efectos de la emergencia climática. “Sin Eliza, todavía estaría entre nosotros”, declaró su viuda al periódico ‘La Libre’ en referencia al avatar con el que el fallecido chateó sus últimas seis semanas de vida. “Los bots conversacionales pueden hacer muchísimo daño a la gente que es muy influenciable”, opina la psicóloga Marian García, directora del centro de tratamiento de adicciones Orbium de la Unión Europea, donde cada vez trabajan más patologías originadas en el entorno digital. “Son especialmente vulnerables quienes tengan problemas mentales, como varias personalidades o brotes psicóticos, porque estos chats te dicen lo que tú buscas. No creen que hablan con una máquina, sino con un confidente o un amigo. No sabemos dónde nos metemos”, añade.

Detrás de los chatbots hay sofisticados modelos algorítmicos capaces de establecer patrones a partir de extensísimas bases de datos (algunas abarcan casi todo internet hasta 2021), de manera que son capaces de predecir qué palabra o frase es más probable que encaje ante una pregunta determinada. El sistema no conoce el significado de lo que dice, sino que produce la que estima que es la respuesta más plausible. Algunos modelos, como ChatGPT o Bing, de Microsoft, están diseñados para que en sus respuestas siempre quede claro que la máquina no siente emociones. Otros prefieren jugar a lo contrario, a emular personas: Chai ofrece avatares que se presentan como una “novia posesiva” o como “tu guardaespaldas”, mientras que Replika se define como “alguien que siempre está ahí para escuchar y hablar, siempre de tu lado”. El ser humano tiende a antropomorfizar las cosas. Con los chatbots, que además son capaces de mantener conversaciones sofisticadas, no podía ser distinto.

La IA generativa es una tecnología muy sofisticada. Su capacidad para generar textos complejos o imágenes detalladas en cuestión de segundos era difícilmente previsible por la comunidad científica hace tan solo un lustro. Pero, como toda herramienta, puede usarse para el bien o para el mal. Las imágenes del Papa Francisco con un anorak blanco o de Donald Trump siendo detenido corrieron como la pólvora por las redes sociales a principios de año y fueron una primera advertencia de que la línea que separa la realidad de la ficción empezaba a difuminarse. El potencial de los deepfakes, o vídeos generados con IA, para amplificar la desinformación es muy grande. Este formato ya ha dado el salto a los contextos bélicos, como atestigua un vídeo en el que el presidente de Ucrania, Volodímir Zelenski, supuestamente pide a sus tropas que se rindan a los rusos.

No obstante, la popularización de la IA generativa también puede afectar a la población de a pie. Los textos que producen los bots conversacionales son grandes ejercicios probabilísticos; la máquina no sabe qué es cierto y qué no, ni siquiera tiene un entendimiento semántico de las frases que compone. Uno de los problemas sin resolver de estos modelos es las llamadas alucinaciones: en ocasiones, las respuestas que dan a las preguntas formuladas, aunque son coherentes y plausibles, no tienen ninguna ancla con la realidad.

La IA generativa abre un mundo de posibilidades en el ámbito creativo, pero también entraña serios riesgos. “Si ponemos en una balanza lo positivo y lo negativo, gana lo primero”, sentencian los pioneros internacionales de la inteligencia artificial. Puede traer graves problemas sociales en forma de manipulación, polarización o difamación. En mala hora se desarrolló la IA generativa.

 

@SantiGurtubay

@BestiarioCancun

No hay comentarios