Un poco de sobriedad holandesa ante tanta alarma social sobre el uso de la IA generativa

Por: <br><strong>Richard Benjamins</strong>

Por:
Richard Benjamins

Estamos atribuyendo a la IA características humanas que no tienen, como la intención, el sentido común, la capacidad de razonamiento y el dominio de las relaciones causales.
Por: <br><strong>Richard Benjamins</strong>

Por:
Richard Benjamins

El mundo de la inteligencia artificial está “on fire”; no paran de aparecer noticias en los medios. La inteligencia artificial generativa como ChatGPT representa un salto importante en el avance de la inteligencia artificial. Antes, la inteligencia artificial manipulaba los datos. Ahora, es capaz de manipular también nuestro lenguaje, la característica principal que separa a los humanos del resto de los seres vivos.

ChatGPT, el programa que permite hacer preguntas sobre cualquier asunto y que te genera respuestas coherentes, ha arrasado en las noticias. Puede escribir relatos, poemas, responder a preguntas de exámenes, resumir, etc. Casi se puede decir que ChatGPT es capaz de pasar la prueba de Turing, que busca determinar si una máquina puede sostener una conversación en lenguaje natural de manera tan convincente que sea indistinguible de un ser humano. 

Por otro lado, también hemos visto que es capaz de inventar cosas que no son verdaderas; las llamadas “alucinaciones”. Esto no es un problema para una persona que colabora con ChatGPT para producir un texto en un ámbito que domina bien, ya que será capaz de distinguir la verdad de las “mentiras”. Pero, sí es un problema si el texto, por ejemplo, es generado por un alumno de la ESO qué tiene que escribir un trabajo sobre el cambio climático. Además, ChatGPT podría generar una enorme cantidad de desinformación (noticias falsas) en muy poco tiempo. En manos equivocadas podría causar serios problemas en las sociedades hasta influir en elecciones democráticas. Es tan bueno que hasta los profesionales jurídicos o médicos pueden sentir una tentación de usarlo para su trabajo, con todas las consecuencias y riesgos.

Con todos estos retos, y los muchos más que no he mencionado aquí, han surgido varias iniciativas que proponen poner límites a la inteligencia artificial (generativa).

Propuestas para limitar el riesgo de sistemas de IA generativa

La primera organización que ha reconocido los riesgos del uso de la inteligencia artificial generativa ha sido la Unión Europea. En la última versión de su propuesta para la regulación europea de la inteligencia artificial, ha añadido una categoría nueva llamada “modelo fundacional”: un modelo de IA que se entrena a escala con datos amplios y puede adaptarse a una amplia gama de tareas.

La segunda iniciativa, que ha atraído mucha atención, ha sido la petición del Future of Life Institute para una pausa de seis meses en el desarrollo de todos los sistemas de IA generativa. En concreto, una moratoria de seis meses en modelos más potentes que GPT4, el motor que está por debajo de ChatGPT. La carta, que ha sido firmado por más de 30.000 personas, dice que la inteligencia artificial puede provocar profundos cambios en nuestras vidas y en el planeta, y que estos cambios requieren una reflexión y un plan. Mientras que este plan no exista, no se debería continuar el desarrollo de una IA generativa más potente que la que existe actualmente. 

Y más recientemente, ha habido un llamamiento por científicos de IA y personas notables como Geoffrey Hinton, Yoshua Bengio y Sam Altman, entre muchos, para considerar el riesgo de extinción de la humanidad por la IA como una prioridad mundial junto con otros riesgos como las pandemias y la guerra nuclear.

La desmitificación de la IA generativa

Ante tantas peticiones de poner límites a la inteligencia artificial generativa, no viene mal explicar cómo funciona la tecnología, qué es lo que hace y qué no puede hacer. Programas como ChatGPT se basan en las llamadas Large Language Models (LLMs), modelos de lenguaje muy grandes (fundacionales), que se entrenan con una gigantesca cantidad de texto obtenido desde Internet, libros digitales, bibliotecas digitales, prensa, etc., etc. 

El entrenamiento consiste en, dada una frase, enmascarar una palabra y pedir al modelo que prediga cuál es la palabra que falta (fill the mask), hasta que acierte. Este método de aprendizaje automático se llama “auto supervisado”. Al realizar esto muchísimas veces, el modelo aprende la estadística de un lenguaje natural, es decir, el modelo aprende qué palabras van con qué otras palabras. La sorpresa ha sido que estos modelos son capaces de realizar muchas tareas de lengua que antes requerían un entrenamiento específico.

Es importante entender, entonces que, aunque el resultado del Chat GPT es impresionante, no entiende lo que le preguntas ni lo que responde. Simplemente, predice las palabras que vienen después de la consulta (prompt). A partir de este conocimiento, también es fácil entender por qué hay alucinaciones o “mentiras”: ChatGPT no recupera información, sino que predice qué palabras vienen después. Fijándose, es posible observar que todas las alucinaciones o mentiras van sobre la misma temática que la verdad y esto es, como hemos visto, porque la predicción se basa en un modelo estadístico del lenguaje.

Con los pies en el suelo – sobriedad holandesa 

Con este conocimiento adquirido sobre la inteligencia artificial generativa, ¿cómo tenemos que interpretar las diversas peticiones de poner límites a la inteligencia artificial? ¿Estamos realmente ante un posible desastre de una magnitud enorme? La verdad es que nadie puede responder a esta pregunta con certeza científica. Pero sí hay ingredientes importantes a tener en cuenta para responderla.

El primer punto y más importante es que las consecuencias del uso de la IA generativa dependen de las personas u organizaciones que la aplican y no de la tecnología en sí. Estamos atribuyendo a la IA características humanas que no tienen, como la intención, el sentido común, la capacidad de razonamiento, el dominio de las relaciones causales, etc. Se está dando por hecho que casi estamos llegando a la inteligencia artificial general (artificial general intelligence), la inteligencia que equivale a la inteligencia humana en todos sus aspectos. Pero, como hemos visto, estamos hablando de un modelo estadístico, aunque gigantesco, que no tiene sentido común, no sabe razonar ni sabe de relaciones causales (aunque parezca que tenga todo este conocimiento – recuerda la prueba de Turing), y no tiene consciencia. Pero el mero hecho de que lo manifieste, no quiere decir que lo tenga. 

Hay algunos que dicen que a partir de un modelo tan gigantesco como son los modelos fundacionales, estas características de la inteligencia humana “emergen automáticamente”. Puede ser o no, es una opinión, pero no la mía (siendo también una opinión más).  Recomiendo leer el libro “A Thousand Brains: A New Theory of Intelligence” de Jeff Hawkins para una nueva, innovadora teoría sobre cómo funciona la inteligencia humana, que no emerge simplemente como consecuencia de la complejidad del sistema. 

Ante la falta de tener una intención o una consciencia, muchas de las posibles consecuencias distópicas del uso de la IA dependen de nosotros, los humanos. Las grandes empresas, actualmente propietarios monopolios de esta tecnología, están diseñados para obtener beneficios económicos e instruyen sus sistemas de IA con este fin. Y está claro que esto es un uso lícito. Pero puede tener consecuencias (in)directas o secundarias que son dañinas. Ante el descubrimiento de algo así, las empresas deberían actuar con responsabilidad y evitar, o por lo menos mitigar, el efecto negativo.

Mucho mejor aún sería pensar siempre de antemano en las posibles consecuencias negativas, aunque no intencionadas, del uso de la inteligencia artificial. Este movimiento se denomina “el uso responsable de la inteligencia artificial desde el diseño”. Implica que, para cada sistema de inteligencia artificial que queremos aplicar a un dominio concreto, tenemos que hacernos las preguntas adecuadas para estimar, de antemano, cuál podría ser el impacto negativo en las personas, la sociedad o el planeta. Un ejemplo de estas preguntas se puede ver en un cuestionario desarrollado por la GSMA. 

Obviamente, si alguien quiere hacer un uso malicioso de la IA para hacer daño, lo puede hacer, aunque esté prohibido por muchas leyes. Pero otra vez, somos las personas la causa del daño, no la inteligencia artificial. 

En resumen, el hecho de que cada vez más organizaciones hagan reflexiones sobre los posibles impactos negativos del uso de la inteligencia artificial es importante, necesario y positivo. Pero no deberíamos recurrir a películas de ciencia ficción y parar todo.