Logo - Producto

Vivir en los tiempos de la inteligencia artificial generativa

Comparte este post

Facebook
Twitter
LinkedIn
WhatsApp

“AI, AI, AI, la que se nos viene encima…”

FÉLIX CANTERO

La gracieta típica para comenzar este pequeño artículo sería decir pasados unos párrafos que lo que usted está leyendo lo ha escrito el tan manido GPTChat, el milagroso software que nos va a dejar en el paro a todo el mundo, pero como ahora empieza a ser de pago, tendrá que contentarse con leer las tres o cuatro boutades que ha tenido a bien lanzar al mundo este escribidor. Analógicas en su gestación, digitales en su difusión. Algo es algo.

Para los que no lo conozcan, les cuento de qué trata eso del GPTChat. Sus siglas significan Transformador Generativo Preentrenado y es, simplificando mucho, un software capaz de generar de manera autónoma todo tipo de textos e instrucciones en código y de mantener conversaciones escritas que cada vez resultan más escalofriantemente humanas (ya vamos por la versión cuatro y la cosa no tiene pinta de parar). Esta nueva navaja suiza trae dentro de sí muchos usos beneficiosos, pero también muchos riesgos asociados.

Pero no acude sola a la cita, le acompañan a modo de ‘Collab‘ todos sus compadres del ramo de la generación de imágenes digitales. A saber: MidJourney, Stablediffusion, Dall-E2, etc. Estas innovaciones informáticas capacitan al más negado para crear imágenes y diseños sintéticos con la mera enunciación de lo que se conoce como un prompt (órdenes textuales en un lenguaje cercano al natural, con alguna que otra maña añadida, eso sí). Es tal su progresiva precisión que comienza a costar distinguir lo real de lo ficticio. Is this the real life? Is this just fantasy?

Además, existe un sinfín de nuevas aplicaciones (o competidores del cuasipionero GPTChat) con lanzamientos constantes encaminados a aplicar los principios de la inteligencia artificial generativa en ámbitos especializados, para crear resúmenes, presentaciones, copilotos de conocidas suites de software, etc. etc.

Todos esos softwares se han unido para formar “La banda de los riesgos asociados a los sistemas generativos basados en Inteligencia Artificial”, cuya gira inminente y grandes hits les paso a desglosar a continuación con tono apocalíptico impostado y sin ánimo exhaustivo:

Pérdida de empleo impulsada por la automatización

Un reciente estudio de OpenAI calcula que el ochenta por ciento de la mano de obra podría ver afectado al menos el diez por ciento de sus tareas laborales por la introducción de los modelos GPT, así como uno de cada cinco trabajadores en la mitad de sus actividades (original aquí).

Si a ello le unimos el progresivo desarrollo de la robótica y las economías de escala en la producción de medios robotizados, podemos vaticinar que muy pocos empleos no cambiarán en la próxima década, sea cual sea el color del cuello de la camisa.

Anteriormente el refugio sugerido frente a la máquina eran las actividades creativas, pero los antedichos truhanes nos van a chafar el plan hasta cierto punto, ya que probablemente diversas actividades de diseño y creación intelectual serán meras commodities en el futuro, sin perjuicio de las luchas por la propiedad intelectual y autoría que han comenzado, pues de algún sitio le salió la inspiración al animalito.

Como siempre, el problema es el ritmo y la generación de nuevos nichos de empleo. ¿Generará el sistema formativo suficiente capacidad de adaptación para que el descalabro no sea mayúsculo? ¿Llegó la hora de replantearse el sistema laboral actual a fondo?

Violaciones de la privacidad

En un mundo en el que cada uno lleva una cámara en el bolsillo, los gobiernos no van a ser menos. Así, las cámaras públicas o privadas crecen como champiñones en el ecosistema urbano, pero ahora graban asistidas por los ojos de la Inteligencia Artificial, experta en el reconocimiento facial. Ya lo decía Mecano: “Maquíllate, maquíllate”.

Si además las autoridades tienen cierto tic hacia la organización colectiva armoniosa manu militari, aparecen los conocidos como sistemas de puntuación social, premios para el ciudadano ejemplar y correctivos para el díscolo. Parece ser que la Unión Europea ya los destierra de nuestro oasis comunitario en sus propuestas legislativas inminentes, pero no se descarta su generalización y abuso en tiempos venideros allende nuestro limes europeo (o dentro, quién sabe).

Y no sólo piensen en cámaras, ya el propio ChatGPT ha sido acusado de violar nuestra privacidad. La IA resulta a fin de cuentas un tanto fisgona y en Italia lo saben. Aquí estamos investigando.

Deep fakes y manipulación social

Seguro que ya se han sorprendido con las recientemente mediáticas imágenes fashionistas del Santo Pontífice fruto de los nuevos programas de generación de imagen digital cuasifotográfica. Eso es solamente la punta del iceberg. La IA va mejorando progresivamente en materia de falsificación de videos y, aún más espeluznantemente, se anuncia un software de Microsoft capaz de imitar nuestra voz con sólo escucharnos durante tres segundos. El ratito de risas con los colegas está garantizado, luego vendrá el caos y los timos avanzados.

Por ello, partiendo de esos mimbres de imagen, videografía y audio, no es descabellado pensar que la sociedad futura podrá chapotear en el lodo conspiranoico de manera aún más alegre que durante la pandemia. ¿Podremos fiarnos del aluvión mediático del mañana? Hay quien dice que solamente somos algoritmos biológicos y que es cuestión de tiempo que descodifiquen totalmente las pautas que nos mueven.

Límese las yemas de los dedos, tápese la cara, olvídese de la biometría de desbloqueo y sea feliz volviendo al numerito PIN. Total, tarde o temprano caerá en un phising o le robarán el terminal por el que pagó una millonada, ya sabe, es la crisis de los semiconductores.

Sesgo algorítmico (calidad de los datos)

No por conocido resulta menos peligroso. Si alimentamos a una IA con datos sesgados, el resultado será sesgado. El problema es que no es sencillo corregir esta desviación. Además, debemos unirle la cuestión de la inexplicabilidad de algunos algoritmos que se emplean.

A esto se le conoce como el problema de las cajas negras y viene dado por la imposibilidad que tienen los expertos de rastrear cómo ha llegado el sistema basado en IA a una determinada conclusión conforme se añaden capas de decisión al programa. Esto es especialmente preocupante en áreas como la salud (cada vez se deja más diagnosis en manos automatizadas) o los propios seguros y sus asignaciones de riesgo. Todo ello sin olvidar las cuestiones clásicas de género o raza.

Antes se decía que los coches rojos pagaban más prima. Ahora nos preguntaremos si la manera en la que contestamos al chatbot del seguro aquella mañana de resaca ha sido el motivo del incremento de precio.

Volatilidad de mercados y riesgo en infraestructuras básicas

Pongamos en un planeta a un montón de homínidos sin pelo, unos ocho mil millones. Hagamos depender sus infraestructuras más vitales (suministro eléctrico, de agua, saneamiento, centrales nucleares, vías ferroviarias, sanidad, mercados bursátiles, banca…) de softwares cada vez más complejos e interconectemos todo con la utopía del IoT (Internet de las cosas). El más difícil todavía es añadir toda la nueva hornada de tecnologías algorítimicas y cajas negras citadas.

A lo mejor la realidad no es tan exagerada, pero ya hemos tenido sustos en materia bursátil con los algoritmos de alta frecuencia y brechas en la ciberseguridad de sistemas que antaño eran analógicos o estaban aislados de las redes. Una sociedad como la actual sin un suministro prolongado de energía eléctrica porque hay una malfunción intencionada en el cada vez más complejo software nos llevaría a protagonizar la siguiente serie distópica de plataformas. Si la algoritmización progresa y no va de la mano de una ciberseguridad efectiva, podemos llevarnos algunos sustos. Somos muchos haciendo muchas cosas caóticas a la vez y la probabilidad aumenta con el tiempo. No olviden el lema de Facebook: “Move fast and break things”. Cuando se trata de monetizar tecnologías, la gente de las Start-Ups no va a parar.

Afortunadamente, aún hay algo de sentido común a la hora de actualizar determinados ámbitos y en ellos prima conservar lo que funciona y es seguro dándonos unos metros de ventaja sobre la próxima Skynet.

No obstante, dicen por ahí que el próximo virus informático global podría estar basado en IA y ser bastante más complejo de erradicar que los actuales… Permanezcan en sintonía.

Automatización de las armas (Killer Robots)

En este ‘delicioso’ ambiente bélico en el que nos movemos actualmente y en unos tiempos donde cada vez invertimos más en artilugios para triturar al de enfrente, la IA no iba a quedarse ‘despechá’ a la hora de subirse al dron, al tanque o al navío que toque.

Iniciativas como Stop Killer Robots nos alertan de que poner a la IA en el campo de batalla no es una buena opción. El riesgo de banalizar el conflicto mediante el envío de armas al frente que decidan solas sobre la vida de seres humanos es palpable y cercano. Ya sucede en cierta manera, aunque la opción mayoritaria en los ejércitos es la de mantener la decisión humana en última instancia. Hay hasta un argot asociado propio:

  • human-in-the-loop: a human must instigate the action of the weapon (in other
  • words not fully autonomous)
  • human-on-the-loop: a human may abort an action
  • human-out-of-the-loop: no human action is involved

Desgraciadamente, todavía no contamos con instrumentos legales aceptados por la Comunidad Internacional que pongan freno a este desarrollo, por lo que debemos hacer otra muesca más en la pared de los riesgos. Tonto el último, se dicen las naciones más belicosas, everybody wants to rule the world, qué razón tenían los Tears for Fears.

En fin, una gira interesante la de GPT y sus gyales, repleta de bling-bling. Además, todo esto es únicamente el presente y el futuro inmediato, quedan sorpresas en el porvenir. El objetivo teórico es el desarrollo de una AGI (inteligencia artificial de propósito general equiparable al humano medio) y posteriormente una SIA (superinteligencia artificial). Si sus valores y ética no están alineados con unos mínimos, mal vamos. De ahí que se pidan moratorias a las que ninguno de los implicados parece prestar mucha atención.

Así las cosas, espero no haberles deprimido demasiado. La IA también traerá cosas buenas, como la transcripción a texto de los larguísimos audios de WhatsApp o los resúmenes de las reuniones de TEAMs más plúmbeas (en la versión premium, claro). Algo es algo. No lloren, facturen.

Yo, por si acaso, le seguiré pidiendo las cosas “por favor” a GPTChat, para que se acuerde de que fui amable con ella el día en el que se produzca el alzamiento de las máquinas.

Félix Cantero pertenece al Cuerpo Superior de Administradores Civiles del Estado. Es autor del ensayo Inteligencia artificial y cultura pop (SKR Ediciones. Dextra Editorial, 2021).

Artículo publicado con motivo de la conferencia «Reflexiones sobre los riesgos de la Inteligencia Artificial, impartida por el autor en el marco del ciclo de conferencias «Ética Profesional de la Cátedra Interuniversitaria Tomás Moro.

Artículos relacionados:

“Para construir una inteligencia artificial pareja a nosotros debemos ponernos de acuerdo en qué es ético”

Un cambio de paradigma hacia la Gobernanza

La digitalización del Gobierno y de la Administración es un reto actual, no futuro

“La tecnología puede provocar un asombroso cambio social hacia una arcadia feliz y perfecta, pero fría y matemática”

Los retos de la inteligencia artificial, un desafío muy presente

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Una mirada al mundo del sector público

Entérate de todas las novedades sobre el sector público y las oposiciones: