Imagen generada por Stable Difussion.
La inteligencia artificial (IA) está generando, durante el primer trimestre de 2023, intensos debates. Tras la puesta a disposición al público de herramientas como ChatGPT o las opciones que la competencia de OpenAI se ha apresurado a distribuir, como Bard o similares, se han despertado miedos ancestrales.
Ya durante 2021 y 2022 las nuevas versiones de Dall-e o Stable Difussion habían generado debate en el mundo de la fotografía y la ilustración, con menor nivel de difusión, pero similar intensidad.
He llegado a oír de expertos estos días frases literales como que “está en peligro la democracia” o que “puede socavar los cimientos de nuestra civilización”. No en programas milenaristas o esotéricos en los que se habla de cosas “inquietantes”, sino en programas serios e informados de medios respetables.
Cualquier tecnología, aprovechando las ideas que ya Neil Postman nos dejó en la muy recomendable “Tecnópolis”, se expandirá hasta ocupar todos los espacios posibles, muy por encima de los que los propios creadores hayan imaginado. Esto no es nuevo en nuestra historia, pasó con el reloj, la imprenta, el motor de combustión, el teléfono móvil, la comprensión de archivos y cientos de otros ejemplos.
Los seres humanos en general y los gobiernos en particular no pueden detener este proceso, aunque si pueden encauzarlo ya sea para mejorar el bien común o para tratar de evitar desastres como ha sido el caso de tecnologías con un claro potencial destructor como la tecnología nuclear o la edición genética de armas biológicas. Ya en mis tiempos mozos por 1990 leíamos con preocupación artículos en la lamentablemente recién desaparecida Investigación y Ciencia que nos revelaban el poder devastador de los nuevos desarrollos de armas nucleares o de neurotoxinas que pueden matarte con entrar en contacto con la piel en pocos segundos. ¿Tiene la IA un potencial tan devastador?
Hay que tener un debate sosegado, profundo y extenso sobre estos temas en los que las moratorias de 6 meses, Pause Giant AI Experiments[1], que no van a poder ser globales (¿Cuántos científico o líderes chinos han firmado la carta solicitando la moratoria?…). no van a ofrecer soluciones, lo que me pone en contra de 1100 reputados especialistas. Comparto con ellos y ellas su reflexión final “La humanidad puede disfrutar de un futuro próspero con la IA. Tras haber logrado crear potentes sistemas de IA, ahora podemos disfrutar de un «verano de la IA» en el que cosechemos los frutos, diseñemos estos sistemas para el claro beneficio de todos y demos a la sociedad la oportunidad de adaptarse”.
En los ejemplos de los miedos ante la tecnología, comprensibles pero no por ello defendibles y menos aún magnificables, y su regulación tenemos ejemplos exitosos, pero también podemos traer a la memoria ejemplos como la legislación que obligaba a una persona a caminar delante de los primeros vehículos de motor sen el reino unido, la «Red Flag Act», promulgada en 1865 y que exigía que una persona que llevara una bandera roja caminara delante de cualquier vehículo autopropulsado. Se mantuvo en vigor durante 31 años hasta 1896.
En una reciente entrevista que Lex Fridman le hizo a Sam Altman[2], CEO de OpenAI, y que recoge también Jordi Pérez Colomé en su newsletter de tecnología en el País, Altman tiene un visón algo más naíf pero que comparto más que la de los premonitorios apocalípticos al estilo Skynet. Me parece muy reveladora su reflexión sobre el ajedrez: tras 25 años de la victoria de Deep Blue sobre Kasparov, la gente no ha dejado de jugar, aunque nunca más un ser humano podrá ganar a una máquina.
Los debates sobre la IA abarcan muchas esferas de nuestra existencia, como los son por ejemplo los debates sobre internet, y no ayudan los fuegos artificiales de tinte milenaristas para reflexionar sobre ellos. Tres ejemplos para abrir boca aunque cada uno de ellos necesitaría un artículo completo.
El empleo: Es verdad que el potencial de la IA para destruir empleo es enorme debido a su capacidad para automatizar trabajos rutinarios y no tan rutinarios. Sobre este foco he venido advirtiendo a propios y extraños cuando hasta hace poco el mensaje era de “si, bueno , pero creara muchos otros”. No. La IA será un destructor neto de empleo. Pero esto ya lo hemos vivido antes con otros procesos de introducción tecnológica (mecanización del campo, sector textil, agencias de viaje, discográficas…) y caminamos hacia una sociedad de ocupación sin empleo, pero este es otro debate en el que la IA solo está acelerando algunas tendencias.
Los sesgos: Está también todo el problema de los sesgos que se debe a los modelos de entrenamiento, occidental, blanco, etc., aunque sólo hay que ver los perfiles de los 10 primeros firmantes de del citado manifiesto para apreciar también el nivel de diversidad que se está dando en los líderes de la IA. Desastroso cómo afecta por ejemplo al mundo de los seguros de salud en USA a la hora de discriminar sectores de la población. Sin embargo creo que es algo detectable y corregible y que obedece a otros intereses.
La propiedad de los datos y la propiedad intelectual. Bienvenidos a “la era del capitalismo de la Vigilancia” que nos ha ofrecido Shoshana Zuboff. No es algo nuevo. Los desarrolladores de la IA están avanzando por el camino que como un cortahielos fueron abriendo Facebook, Google, Amazon y similares.
Y así podríamos ir desgranado más y más temas que no son exclusivos de lo que representa la IA y que deben ser tratados en su conjunto con una visón menos catastrofista, más eficaz y esperanzadora.
Uno de los efectos positivos que va a tener la IA es una nueva puesta en valor de referentes personales, de gente honesta y profesional que haga bien su trabajo y que le da la vuelta como un calcetín a la frase de cabecera. “Es mejor que me crea a mí, un ser humano que aun con mis defectos puedo gozar de credibilidad y que he trabajado a fondo un tema, que a sus propios ojos”. Esto pone el foco en el buen periodismo, con más trabajo profesional claro, o la ciencia excelente, que no necesitó del IA para que se propagaran conspiraciones de microchips en las vacunas por poner dos ejemplos.
El efecto en el periodismo creo que es uno de los motivos por lo que han tenido tanta repercusión las novedades en la IA, ya que ha hecho de importante caja de resonancia, a mi entender con mucho miedo y poco criterio. Photoshop, el conocido software de edición de imágenes, se lanzó en 1990 y ya entonces se podían manipular y crear nuevas realidades. Algunos estudios dicen que el 90% de los profesionales de la imagen lo utilizan en 2022. Sin necesidad de la IA tenemos el debate sobre la manipulación de imágenes en artículos científicos[3]. Una vez más es la honestidad de la persona la que va a marcar la diferencia. ¿Cuál es la diferencia fundamental para que nos rasguemos las vestiduras en marzo de 2023 con las fotos del Papa o la falsa detención de Donal Trump?. “Ahora cualquiera puede hacerlo y cada vez va a ser más difícil detectar el engaño” me dirán. Bienvenidos a la era de “nometragotodoloquemellegaporWhatsApp”. Si sirve para eso, sea bienvenido el sano escepticismo, el juicio racional y el trabajo profesional bien hecho.
También podemos recordar los debates sobre el fin de la privacidad con la llegada de las cámaras de fotos a los móviles o la debacles del fotoperiodismo que se iba a producir ahora que todo el mundo tiene una cámara en la mano. Los mejores siguen ahí, con esfuerzo y más trabajo, pero siguen.
Y para colofón lo que me contesta el chat de Bing ya con la tecnología de GPT3 inside: “La frase “¿A quién vas a creer: a mí o a tus propios ojos?” es una de las frases más famosas de Groucho Marx. Aunque se le atribuye a Groucho Marx, en realidad la dijo Chico Marx disfrazado de Groucho en la película Sopa de ganso. La frase se ha utilizado para referirse a situaciones en las que alguien intenta convencer a otra persona de algo que es claramente falso”.
Aprovecho para hacer una actulaización con la carta publicada el 31 de marzo de 2023 por Distributed AI Research Institute y de la que destaco sólo este apartado (traducido por DeepL que es también un sistema de IA): «Esos riesgos hipotéticos son el centro de una peligrosa ideología llamada largoplacismo que ignora los daños reales derivados del despliegue de los sistemas de IA en la actualidad. La carta no aborda ninguno de los daños actuales de estos sistemas, incluyendo 1) la explotación de los trabajadores y el robo masivo de datos para crear productos que benefician a un puñado de entidades, 2) la explosión de los medios sintéticos en el mundo, que reproduce los sistemas de opresión y pone en peligro nuestro ecosistema de información, y 3) la concentración de poder en manos de unas pocas personas que exacerba las desigualdades sociales.(…) Lo que necesitamos es una normativa que imponga la transparencia. No sólo debe quedar claro en todo momento que nos encontramos ante medios sintéticos, sino que también debe exigirse a las organizaciones que construyen estos sistemas que documenten y divulguen los datos de entrenamiento y las arquitecturas de los modelos.»
[1] https://futureoflife.org/open-letter/pause-giant-ai-experiments/
[2] https://lexfridman.com/sam-altman/
[3] Opinion | Science Has a Nasty Photoshopping Problem – The New York Times (nytimes.com)
Deja una respuesta