Un chatbot peligrosamente bueno

El ChatGPT ha generado una gran expectativa, así como temores de despido de algunas profesiones. Sin embargo, es fundamental analizar quién financia y desarrolla esta tecnología, a quién beneficiará y quién quedará excluido.

El chatbot ChatGPT, impulsado por inteligencia artificial, arrasó en el mundo de la tecnología. Fue lanzado como prototipo y disponible para pruebas públicas el 30 de noviembre de 2022, lo que generó un gran revuelo.

En menos de una semana consiguió un millón de suscriptores. La gente se ha sorprendido y divertido con sus respuestas casi humanas sobre una amplia gama de temas. Ha producido poesía, prosa a lo Shakespeare, código de software y recetas médicas.

Profesores y educadores están alarmados porque los alumnos utilizan ChatGPT para sus trabajos. Los medios de comunicación anuncian con entusiasmo que ChatGPT ha aprobado exámenes de derecho, medicina y gestión (aunque esto último no es precisamente un signo de inteligencia).

Los resúmenes de ChatGPT para revistas de investigación médica han engañado a los científicos haciéndoles creer que los habían escrito humanos. Toneladas de artículos han anunciado la próxima desaparición de varias profesiones, desde el periodismo a la escritura, pasando por la creación de contenidos y el trabajo de abogados, profesores, programadores de software y médicos. Empresas como Google y Baidu, que se sienten amenazadas por ChatGPT, se han apresurado a anunciar sus propios chatbots basados en IA.

La tecnología básica de ChatGPT es un modelo de IA llamado GPT-3, o Generative Pre-Trained Transformer Version 3 (Transformador Generativo Preentrenado Versión 3). El calificativo “generativo” implica que GPT pertenece a una clase de algoritmos de IA capaces de generar nuevos contenidos como texto, imágenes, audio, vídeo, código de software, etc. “Transformer” se refiere a un nuevo tipo de modelo de IA descrito por primera vez en un documento de 2017 de Google.

Los modelos Transformer aprenden sobre el contexto de las palabras rastreando correlaciones estadísticas en datos secuenciales, como las palabras de una frase. Suponen un cambio radical en el campo de la IA y han dado lugar a avances significativos. En un artículo de 2021, los investigadores de Stanford los denominaron “modelos fundacionales” y escribieron que su “enorme escala y alcance… en los últimos años han ampliado nuestra imaginación de lo que es posible”.

En la actualidad, los modelos de IA más populares utilizan “redes neuronales”, evocando imágenes de un cerebro artificial mediante ordenadores. En realidad, incluso con los enormes avances en hardware informático y densidad de chips, no estamos ni cerca de simular el cerebro humano.

En cambio, las redes neuronales artificiales pueden considerarse una serie de ecuaciones matemáticas cuyos “pesos” o constantes se ajustan para realizar regresiones logísticas con eficacia. En cierto modo, los modelos de IA utilizan “datos de entrenamiento” para realizar elaborados ejercicios de ajuste de curvas. Una vez entrenados, las ecuaciones de las “curvas” que se ajustan a los datos de entrenamiento se utilizan para predecir o clasificar nuevos datos.

Antes de los transformadores, los modelos de IA necesitaban ser “entrenados” por conjuntos de datos, que los humanos etiquetan. Por ejemplo, un modelo de IA de visión se entrenaría con millones de imágenes, cada una de ellas etiquetada manualmente por humanos como, por ejemplo, un gato, una persona, una montaña o un río. Este proceso, muy laborioso, limita los datos con los que se puede entrenar una IA.

Los modelos de transformadores escapan a esta limitación mediante un entrenamiento no supervisado o autosupervisado, es decir, no necesitan los conjuntos de datos etiquetados. De este modo, pueden entrenarse con billones de imágenes y petabytes de datos de texto en Internet.

Estos modelos lingüísticos de IA también se denominan “grandes modelos lingüísticos” debido al enorme volumen de datos con los que se entrenan. Los modelos desarrollan correlaciones estadísticas entre palabras y partes de frases que aparecen juntas.

GPT-3 es un gran modelo lingüístico generativo basado en transformadores. Una vez entrenado, dada una secuencia de palabras, puede predecir la siguiente palabra probable. En realidad, predice una distribución de la siguiente palabra más probable. La siguiente palabra se elige aleatoriamente basándose en esta distribución de probabilidad.

Cuantos más datos se utilicen para entrenar el modelo, más coherente será su resultado, hasta el punto de que no sólo produce pasajes gramaticalmente correctos, sino también con sentido. Sin embargo, eso no significa que pueda producir pasajes precisos o apropiados.

GPT-3.5 es un derivado de GPT-3 que utiliza el aprendizaje supervisado para ajustar sus resultados. Los humanos valoran y corrigen los resultados de GPT-3, que se incorporan al modelo. Se informó que OpenAI subcontrató el trabajo de etiquetado de decenas de miles de fragmentos de texto. Así, el modelo se entrena para producir resultados que no contengan falsedades obvias o contenido inapropiado, al menos mientras los humanos valoren o corrijan la categoría general de temas a los que se pide que responda el modelo.

ChatGPT es la adaptación de GPT-3.5 para chatear con humanos. Es un avance significativo respecto a las generaciones anteriores de chatbots con IA, lo que explica el entusiasmo que ha generado. Pero ChatGPT es sólo un modelo de transformador que se ha desplegado. Google, por ejemplo, ha construido un modelo llamado BERT para comprender las consultas de los usuarios en las búsquedas de google desde 2019.

En el futuro, los modelos basados en transformadores podrían ayudar en la creación y curación de contenidos, en las búsquedas y como ayudas para la investigación en campos como la programación de software e incluso el descubrimiento de fármacos (a través de simulaciones de plegamiento de proteínas basadas en IA). Sin embargo, debemos entender que estamos en la infancia de este nuevo salto tecnológico y necesitamos mucha más investigación para hacer realidad algunas de estas promesas y posibilidades.

OpenAI ha proclamado que tiene un camino hacia el santo grial de la IA -la Inteligencia General Artificial o AGI-, que se refiere a máquinas que desarrollan una inteligencia similar a la humana. Aunque los modelos de transformador son un avance significativo en la IA, debemos desconfiar de una pretensión tan elevada.

Muchos han informado de que ChatGPT proporciona respuestas incorrectas o un galimatías que suena superficialmente significativo. Un médico ha informado de que ChatGPT hizo un diagnóstico médico impresionante y una extraña afirmación que parecía errónea. Cuando se le preguntó, proporcionó una referencia de una revista de renombre, haciendo referencia a los autores que contribuyeron a la revista. El único problema era que la referencia no existía. ChatGPT se la había inventado de la nada. Esto significa que no sólo no es fiable, sino que no puede “entender” como lo hacemos los humanos.

Simplemente genera contenidos de acuerdo con su modelo estadístico, que es muy bueno para engañarnos haciéndonos creer que puede hacerlo. Deberíamos guardarnos de las exageraciones sobre el camino hacia la inteligencia artificial. Nuestra inteligencia e instintos son el resultado de cientos de millones de años de evolución y más de cien mil años de desarrollo de la sociedad humana.

Es improbable que incluso máquinas muy potentes con sofisticados algoritmos de aprendizaje, que consumen todos los textos escritos y las imágenes y sonidos que los humanos han producido, sean capaces de desarrollar una comprensión o una inteligencia comparables a la humana en modo alguno. Sin embargo, las máquinas pueden aprender muy bien a realizar tareas específicas utilizando los métodos descritos anteriormente.

A partir de este conocimiento general, analizaremos algunos de los problemas que plantean estos modelos. Para empezar, su potencia se debe a la gran cantidad de datos con los que se entrenan y al enorme tamaño de sus redes neuronales de entrenamiento. GPT-3 tiene 175.000 millones de parámetros, frente a los 1.500 millones de GPT-2.

El funcionamiento de modelos tan masivos requiere enormes cantidades de datos. Ejecutar modelos tan masivos requiere enormes cantidades de hardware. Se calcula que el banco de entrenamiento de OpenAI cuenta con más de 10.000 GPU y 285.000 núcleos de CPU. Microsoft, que invirtió unos 3.000 millones de dólares en OpenAI, presumía de que se trataba de uno de los mayores clusters de superordenadores. Gran parte de esa financiación sufragó el coste de utilizar esta configuración. Está en conversaciones para invertir otros 10.000 millones de dólares en la empresa.

Este tipo de investigación está fuera del alcance de la mayoría de las instituciones académicas e incluso de las empresas. Solo los mayores monopolios digitales, como Google, Microsoft, Amazon, Facebook, etc., o las empresas que financian, pueden permitirse semejante precio y acceso a los enormes datos de diversas fuentes necesarios para entrenar el modelo.

El desarrollo y los beneficios económicos que se deriven de estas tecnologías futuras sólo beneficiarían a estas empresas, lo que reforzaría sus monopolios digitales en expansión. Y no sólo eso, es poco probable que estas empresas compartan los datos utilizados para entrenar los modelos o las reglas empleadas para filtrar esos datos.

Esto plantea cuestiones éticas, ya que estos modelos pueden estar sesgados en función de las decisiones tomadas con los datos. Tenemos ejemplos del pasado en los que los modelos de IA desarrollaron un sesgo racial o de género. Es poco probable que estas empresas y sus equipos tecnológicos tengan la capacidad o la inclinación para abordar estas cuestiones.

Más allá de la selección de datos de entrenamiento, los modelos también son opacos. Ni siquiera las personas que trabajan en ellos entienden del todo cómo funcionan, qué significan los parámetros y a qué corresponden los valores de los parámetros en la vida real.

Se trata de gigantescos modelos de regresión estadística basados en cantidades ingentes de datos a los que se permite “averiguar” cosas sin supervisión. Además, como dicen los investigadores de Stanford, los modelos son fundacionales en el sentido de que se pueden crear a partir de ellos múltiples adaptaciones y aplicaciones diferentes en campos no relacionados. Así que, incluso después de completamente desarrollados, los modelos pueden funcionar en la mayoría de los casos, pero ni siquiera estas grandes empresas apreciarán -y mucho menos tendrán en cuenta- los errores fatales que pueden causar en cualquier campo.

La mayoría de las instituciones académicas no podrían permitirse una configuración de hardware tan cara, y es poco probable que estas empresas la pongan a disposición de la investigación académica. Por tanto, no será posible que terceros prueben y revisen estos modelos. Hasta ahora, la ciencia y la tecnología han progresado gracias a la colaboración entre iguales. Teniendo en cuenta el gran daño que los algoritmos de las redes sociales han desatado en las democracias y las sociedades al crear sus burbujas de filtros y la proliferación de noticias falsas y de odio, nos estremecemos al pensar en los horrores de estos nuevos modelos para las comunidades.

Pero la preocupación más inmediata será lidiar con la perspectiva extremadamente cortoplacista de los monopolios tecnológicos y las startups como OpenAI que están financiando.

Los modelos transformadores son un salto crítico en la tecnología de la IA, pero aún están en fase de investigación. Aún queda mucho por saber sobre su funcionamiento. Necesitan muchas generaciones de mejoras antes de que puedan desplegarse de forma responsable. Sin embargo, vemos esfuerzos para lanzar inmediatamente ChatGPT comercialmente. OpenAI ha anunciado un “plan profesional” de 42 dólares al mes para la API ChatGPT. Esto abriría el modelo ChatGPT para que los desarrolladores lancen ofertas comerciales. Para aliviar los temores de los educadores, OpenAI ha anunciado un servicio que identificaría los escritos producidos con ChatGPT. Así, después de crear el problema del plagio, OpenAI podría forrarse vendiendo la solución a escuelas y universidades de todo el mundo.

Dada la exageración y la avaricia del capital riesgo, ya tenemos ofertas a medio hacer para que en un futuro próximo los operadores de atención al cliente, escritores, artistas, creadores de contenidos, periodistas, abogados, educadores y programadores de software sean redundantes. Estas ofertas harán sufrir a las personas que trabajan en estos campos en términos de pérdida de puestos de trabajo y, teniendo en cuenta su despliegue prematuro, harán un gran flaco favor a las profesiones.

Por ejemplo, el periodismo está vaciado en todo el mundo, y las organizaciones de noticias están haciendo profundos recortes de costes para sobrevivir en la era digital. Las noticias y la opinión generadas por IA pueden exacerbar esta tendencia. Dado que estos modelos generan superficialmente contenidos razonables (y muchas profesiones se enfrentan a presiones de costes), los directivos se verían tentados a eludir la supervisión humana de los contenidos generados por IA, lo que daría lugar a graves errores.

También existen preocupaciones éticas en torno al arte, la literatura y las películas generadas por IA. Aunque produce obras de arte aparentemente novedosas, en realidad aprende de estilos artísticos ya existentes y los reproduce sin copiar el contenido. De este modo se elude la acusación de plagio, pero estas obras de arte equivalen a un plagio de alta tecnología, ya que los modelos son incapaces de creatividad. Generan contenidos basándose en algoritmos de predicción aprendidos.

Entonces, ¿cómo debería abordar la sociedad estas preocupaciones?

Aunque los modelos de IA basados en transformadores representan un avance sustancial en el aprendizaje automático, todavía están en fase de investigación y quedan muchas preguntas sin respuesta sobre la ética y la normativa relativas a su uso.

La indecorosa precipitación y codicia de sus creadores y financiadores puede causar grandes daños a la sociedad. Los gobiernos deben actuar con rapidez para evitar otro ciclo de auge y caída de la tecnología y el daño que causan a las sociedades. Debido a su naturaleza fundacional, los gobiernos deben tratar estas tecnologías como bienes públicos.

Los gobiernos deberían crear iniciativas públicas para financiar la investigación y el desarrollo de estas prometedoras tecnologías, de modo que se desarrollen y utilicen de forma segura y ética por el bien de la humanidad.

*Este articulo fue escrito por Bappa Sinha, tecnólogo con más de 25 años de experiencia en sistemas embebidos y software. Es el CTO de Virtunet Systems y miembro del Movimiento de Software Libre de la India.