Regular la Inteligencia Artificial: el difícil pero necesario equilibrio entre la responsabilidad y la competitividad

Por: <br><strong>Justo Hidalgo</strong>

Por:
Justo Hidalgo

Inteligencia Artificial. IA. Un concepto que en el pasado estuvo envuelto en mística y ciencia ficción, es ahora una poderosa fuerza transformadora de innovación. A lo largo de mi trayectoria, he tenido el privilegio de presenciar de primera mano su desarrollo como técnico, emprendedor, gestor de productos y ahora como director de IA en una […]
Por: <br><strong>Justo Hidalgo</strong>

Por:
Justo Hidalgo

Inteligencia Artificial. IA. Un concepto que en el pasado estuvo envuelto en mística y ciencia ficción, es ahora una poderosa fuerza transformadora de innovación. A lo largo de mi trayectoria, he tenido el privilegio de presenciar de primera mano su desarrollo como técnico, emprendedor, gestor de productos y ahora como director de IA en una asociación empresarial centrada en la economía digital. Los famosos inviernos de la IA fueron muy, muy fríos pero ahora es una parte fundamental de nuestras vidas y negocios cotidianos.

La IA ha demostrado ser tanto un catalizador como un desafío. Puede impulsar a la sociedad a un ritmo nunca visto, pero también plantea interrogantes éticos y normativos sin precedentes. Nos encontramos en una coyuntura en la que el papel de la IA remodela sectores que van desde el cuidado de la salud hasta las finanzas, y que se extiende desde ofrecer contenido personalizado en nuestras pantallas hasta conducir vehículos autónomos en nuestras carreteras. En su mayoría, esta extensión es positiva; no puedo imaginarme un mundo sin motores de búsqueda, sin traducción automática, sin algoritmos contra el fraude o el spam, sin las herramientas de mantenimiento predictivo y seguridad en el trabajo en gran cantidad de industrias. Pero este alcance en expansión conlleva una necesidad innegable: establecer y comprender los límites de la IA. Además de las limitaciones técnicas en la capacidad de los grandes modelos de lenguaje en los que están basados productos como GPT de OpenAI, Bard de Google, Claude de Anthropic o LLaMA de Meta, debemos prestar especial atención a las fronteras éticas, cruciales para garantizar que la IA sea un benefactor y no un detractor en nuestras vidas. En general, cuando hablamos de estos temas nos referimos a la necesidad de construir una IA responsable.

La ética, desde mi punto de vista, siempre ha sido el corazón palpitante de la IA responsable. Sirve como nuestra brújula moral en este mar de avances tecnológicos, guiándonos para desarrollar y utilizar la IA de manera que respete la autonomía humana, la privacidad y la dignidad. Un enfoque responsable de la IA exige reflexión sobre principios éticos como la transparencia en el funcionamiento de los sistemas, la responsabilidad cuando las cosas salen mal, la mitigación de riesgos de sesgo o la seguridad frente a ataques externos o internos. Y, de manera crucial, el diseño centrado en el ser humano. 

Recientemente, la Unión Europea (UE) ha dado un paso importante al establecer pautas éticas con la introducción del Reglamento de Inteligencia Artificial. Aunque aún en borrador al momento de escribir estas líneas, representa un salto significativo en la forma en que se regula la IA en la Unión, estableciendo altos estándares de transparencia, responsabilidad y protección de los derechos fundamentales de los ciudadanos. 

Sin embargo, la introducción de este marco ha suscitado muchísimo debate. Existe la preocupación de que esta regulación, muy estricta en el caso de sistemas de IA considerados de alto riesgo o cuando conformen modelos fundacionales tales como los grandes modelos de lenguaje mencionados anteriormente, pueda poner a Europa en desventaja en comparación con entornos menos regulados. Esto podría ralentizar el progreso tecnológico y el crecimiento económico. Se prevé una mejora del PIB mundial de hasta un 14% en 2030 gracias a la IA. No formar parte de este crecimiento representa un gran riesgo para la UE, tanto como institución como para sus países y empresas en el ámbito de la competitividad, y para sus ciudadanos en cuanto a la posibilidad de quedarse atrás en innovaciones que pueden ser increíblemente beneficiosas para el avance de la humanidad.  

El Reglamento de la IA representa un esfuerzo reflexivo para lograr un equilibrio entre protección de derechos fundamentales y competitividad. Aspira a crear un ecosistema de IA basado en la confianza y que coloque a los humanos en el centro. También subraya la necesidad de que este marco regulatorio sea adaptable, evolucione con el panorama tecnológico y esté equipado para abordar cualquier implicación imprevista. Que la versión final lo consiga es fundamental, pues el borrador actual todavía deja demasiadas dudas en apartados críticos, como la definición de qué es un sistema de IA de alto riesgo, los criterios para decidir si un sistema de IA ha evolucionado con mejoras lo suficientemente significativas como para tener que reevaluar su nivel de riesgo, la responsabilidad de las pequeñas y medianas empresas involucradas en la creación de sistemas de IA, o el papel del software de código abierto. 

Al llegar a esta parte del artículo, querido lector, es fundamental recordar que la regulación no es enemiga de la innovación. Por el contrario, sirve para guiarla y darle forma de manera  que se alinee con los valores sociales. Desde mi experiencia, los desarrollos más sostenibles e impactantes son aquellos que respetan estos límites. Como se suele decir al crear productos y servicios digitales, la innovación es más efectiva cuando se tienen en cuenta las restricciones desde las que se parte.

Encontrar este delicado equilibrio no recae exclusivamente en los reguladores. Es un compromiso colectivo que demanda la acción conjunta y responsabilidad de empresas, instituciones y ciudadanos. Las instituciones tienen la tarea de crear un entorno en el que la innovación se pueda desarrollar dentro de los confines éticos y de seguridad. Los ciudadanos, en su papel de usuarios finales y beneficiarios de la IA, deben convertirse en actores informados capaces de navegar sabiamente en este mundo cada vez más impulsado por la IA. En último lugar, las empresas tienen el deber de desarrollar y utilizar la IA de manera ética. En este sentido, adelantarse a la publicación de reglamentos mediante la autorregulación en aspectos como la transparencia de los algoritmos y datos utilizados es un gran paso para evidenciar el compromiso por una IA responsable. 

Este esfuerzo conjunto para establecer principios robustos, políticas, procesos, herramientas y sistemas de gobernanza no solo es un desafío, sino también una oportunidad para que Europa se posicione como líder y referente en el escenario mundial. Al reconciliar la protección de los derechos fundamentales con el impulso a la innovación y la competitividad, Europa tiene el potencial para establecer un nuevo estándar de desarrollo y uso responsable de la IA. Es una ocasión para redefinir la percepción en torno a la regulación y demostrar que no es un obstáculo, sino una brújula que nos guía en el camino hacia una IA responsable.

Mi viaje vital me indica que trazar el futuro de la IA implica la convergencia de la protección al ciudadano, el respeto a la ética, el establecimiento de límites prudentes en el uso de la IA y la determinación de mantener a Europa a la vanguardia de la innovación. Se trata de un baile extremadamente delicado, pero que debemos ejecutar con vigilancia y cuidado para asegurarnos de que la IA sea una herramienta a nuestro servicio y no una fuerza que nos domine. Creo profundamente que como sociedad estaremos a la altura de este desafío esencial.

Justo Hidalgo