Este año 2023 fuimos testigos de grandes avances en el campo de la inteligencia artificial, desde el despliegue desde GPT-4 hasta la llegada de Google Bard, así como también la presentación del nuevo modelo Gemini de Google, eso por no mencionar el progreso de generadores de imágenes como Stable Difussion y DALL·E 3; y estamos seguros de que ustedes nuestros queridos lectores también tienen sus herramientas preferidas basadas en IA. Al mismo tiempo, compañías proveedoras de chips para IA como Nvidia y AMD, se están lucrando como nunca debido a la creciente demanda de GPUs para aplicaciones de IA.
Lo que queremos transmitir con este prefacio, es que estamos ante una creciente carrera armamentística en el terreno de la inteligencia artificial. Tanto compañías como gobiernos tienen planes para esta tecnología y nadie quiere quedarse por fuera, especialmente al tratarse de la invención más revolucionaria de la humanidad hasta la fecha (o al menos así es como la definen algunos).
Dicho eso, en el ímpetu por el avance y constante progreso de esta tecnología, parece que se nos está olvidando algo muy importante, y se trata del control y la moderación, pues después de todo, toda tecnología es un arma de doble filo que tiene tanto el potencial de beneficiarnos como de perjudicarnos. La IA no es diferente, de hecho, algunos eruditos y expertos en el tema creen fielmente que la inteligencia artificial tiene el mayor potencial de beneficio y también el mayor riesgo asociado para la humanidad.
Con todo eso en mente, el viernes 8 de diciembre de 2023 tuvo lugar el que quizás pase a la posteridad como el primer esfuerzo histórico por regular la tecnología, pues la Unión Europea culminó el primer acuerdo provisional sobre la ley de inteligencia artificial, también conocido como AI Act.
#TRILOGUE | DEAL! DEAL! DEAL! @EUCouncil and @Europarl_EN have reached a provisional agreement on the artificial intelligence act #AIAct
The regulation aims to ensure that AI systems placed and used in the EU are safe and respect fundamental rights and european values. pic.twitter.com/F1YoFf5x60
— Presidencia española del Consejo de la UE (@eu2023es) December 8, 2023
AI Act: Reglas para modelos de IA grandes y potentes
Entrando en materia, AI Act es una regulación concebida por el parlamento de la Unión Europea, la cual tiene por objetivo “garantizar que los derechos fundamentales, la democracia, el Estado de derecho y la sostenibilidad medioambiental estén protegidos frente a la IA de alto riesgo, al mismo tiempo que se impulsa la innovación y se convierte a Europa en líder en este ámbito”.
Para lograr su cometido, la ley AI Act veta ciertos usos de la inteligencia artificial (como puntuación social), establece salvaguardias frente a la inteligencia artificial de propósito general y limitaciones en cuanto al uso de sistemas de identificación biométrica. De igual manera, garantiza el derecho de los consumidores de expresar sus quejas y recibir respuestas, así como también contempla multas de hasta 35 millones de euros o el 7% de la facturación global de las entidades que incumplan con las reglas.
Hablando de las reglas, empecemos por ver cuáles son las aplicaciones prohibidas para la IA o altamente reguladas.
Aplicaciones vetadas
Reconociendo las potenciales amenazas a los derechos de los ciudadanos, los legisladores acordaron a prohibir los siguientes usos para la IA:
- Sistemas de categorización biométrica que utilizan características sensibles. Por sensible se entienden aspectos como inclinaciones políticas, creencias filosóficas, religión, orientación sexual, raza, entre otros.
- Creación de bases de datos de reconocimiento facial mediante recolección no dirigida de imágenes de Internet o de CCTV.
- Reconocimiento de emociones en lugares de trabajo o educativos.
- Sistemas de “Social Scoring”, es decir, puntuación social basada en el comportamiento personal de los individuos, algo que ya es una realidad en China, por muy distópico que parezca.
- Sistemas de IA que manipulan el comportamiento humano para eludir el libre albedrío.
- El uso de sistemas de IA para aprovecharse de las vulnerabilidades de personas, como por ejemplo la edad, situación social o económica.
Exenciones de aplicación de la ley
Es importante acotar que se acordaron una serie de salvaguardias y excepciones estrechas para el uso de sistemas de identificación biométrica en espacios de acceso público, pero solo para fines policiales y siempre sujetos a autorización judicial.
En este sentido, se permite el uso de sistemas de identificación biométrica “Post-remotos” en la búsqueda de convictos o personas sospechosas de haber cometido un crimen. De igual manera, se plantea que los sistemas de identificación biométrica en tiempo real cumplirán con estrictas condiciones y son válidos únicamente en 3 escenarios. En primer lugar, en la búsqueda de víctimas desaparecidas ya sea por secuestro, tráfico de seres humanos, explotación sexual, entre otros. En segundo lugar, para la prevención de amenazas terroristas. Tercero y último, para la localización o identificación de personas sospechosas de haber cometido crímenes graves mencionados en la regulación.
Obligaciones para sistemas de alto riesgo
Aquellos sistemas de IA catalogados como de alto riesgo tienen obligaciones claras que cumplir. Por alto riesgo se entienden aquellos con un posible impacto a la salud, el ambiente, a la democracia y el cumplimiento de la ley, como por ejemplo sistemas utilizados para influir en elecciones políticas. Sea como sea, los representantes del parlamento europeo buscan asegurar el derecho de los ciudadanos a emitir quejas y recibir explicaciones sobre sistemas impulsados por IA que puedan impactar sus derechos.
Lineamientos para sistemas generales de IA
Para ChatGPT y otros sistemas de inteligencia artificial de propósito general, el parlamento busca el cumplimiento de ciertos criterios de transparencia. En este sentido, se acordó que se debe proporcionar la documentación técnica acorde con la ley de derechos de autor de la Unión Europea y también resúmenes detallados del contenido usado para entrenar el modelo en cuestión.
Para modelos GPAI de alto impacto con riesgo sistémico, los negociadores del parlamento lograron garantizar obligaciones más estrictas. Estamos hablando de evaluación de modelos, pruebas adversarias y la obligación de reportes sobre incidentes, eficiencia energética y garantías de ciberseguridad.
Sanciones y medidas de apoyo a la innovación y a las pymes
La última parte del proyecto de ley publicado por el parlamento europeo habla sobre un acuerdo que promueve entornos de pruebas regulatorios y pruebas en el mundo real, esto con el fin de que las pymes puedan desarrollar soluciones de IA sin presión. Por otro lado, la ley no piensa dejar impune a ningún listillo que la incumpla, por lo que se proponen multas que van desde 35 millones de euros o el 7% del volumen de negocios global hasta 7,5 millones o el 1,5% del volumen de negocios, todo dependiendo de la infracción y el tamaño de la empresa que la cometió.
Por último, la ley AI Act entrará en vigencia previsiblemente en 2026, pues todavía queda mucho por discutir y ratificar, aunque cabe mencionar que las sanciones propuestas estarán operativas antes de esa fecha.
¿Es necesaria la regulación de la inteligencia artificial?
La conversación sobre si la IA necesita regulación no es precisamente nueva, pero tampoco tiene una respuesta sencilla, lo único que está claro es que es un tema que debe abordarse con urgencia, pues como mencionamos con anterioridad, su potencial es tan grande como su riesgo, y esto no lo decimos nosotros. Para muestra un botón, por un lado, tenemos a figuras como Samuel Altman, CEO de OpenAI, quien sostiene que la IA será el “salto adelante en la calidad de vida de las personas” más tremendo que hayamos tenido. Por otro lado, tenemos a Elon Musk quien, aún consciente de sus beneficios y estando favor de la tecnología, la considera como uno de los riesgos existenciales más grandes para la humanidad.
No es necesario entrar en el terreno de la ciencia ficción ni escuchar a los gurús tecnológicos para darnos cuenta de que esta incipiente tecnología tendrá repercusiones en el futuro, y muchas de ellas aún no se conocen o no las alcanzamos a comprender. De igual manera, su avance dará paso a una transformación laboral; si creemos las predicciones de la firma Goldman Sachs, la inteligencia artificial generativa podría sustituir el equivalente a 300 millones de puestos de trabajo a tiempo completo para el año 2030.
Con esos ejemplos creemos que ya queda claro que hay mucho juego como para no hacer algo al respecto, y más allá de ser una opinión personal, gobiernos y organizaciones a lo largo del mundo piensan igual, entre ellos Estados Unidos, China, Japón y la Unión Europa (como ya queda claro). Incluso compañías como la propia OpenAI han accedido a regulaciones.
Por lo tanto, creemos que la respuesta es un rotundo si, necesita regulación, pero de aquí surgen a su vez muchas interrogantes y cuestiones éticas que plantearnos.
Los retos de regular la inteligencia artificial
Por un lado, está claro que es necesario regular cualquier tecnología nueva que llega al mercado, y la IA no es una excepción; por otro lado, el objetivo tampoco es asfixiar la innovación y ralentizar el progreso, así que no es tarea fácil balancear las dos cosas.
Como verán, es una tarea titánica regular una tecnología que está en constante desarrollo y evolución, pues las leyes del ayer pueden no aplicar al presente. Considerando que la IA todavía no alcanza su meseta de productividad, se dificulta desarrollar regulaciones específicas y que sean aplicables a todos los sistemas de inteligencia artificial. Actualmente solo podemos coincidir en aspectos generales que priorizar, entre ellos la transparencia, equidad y seguridad.
Asimismo, es difícil predecir sus riesgos, puesto que apenas estamos conociendo sus capacidades. De igual forma, sabemos que los Chatbots son propensos a ser corrompidos y dar información sesgada, lo que constituye otro tema que abordar. Sin embargo, hemos de reconocer que se han hecho esfuerzos en la categorización de los niveles de riesgo de las aplicaciones de inteligencia artificial, así que ya podemos decir que hay progreso.
Estos desafíos han avivado un debate sobre si la IA debe ser regulada o no, y nuevamente, de un lado tenemos a los que defienden que es necesario regularla para proteger a las personas de sus posibles riesgos, mientras que otro grupo asegura que la regulación solo estancaría el progreso.
También hay dudas asociadas a la forma y efectividad con la que se regule la IA, pues de nada sirve establecer reglas si habrá organizaciones o países que no cumplan con las regulaciones globales, o peor aún (y disculpen si esto suena conspiranoico) que una pequeña élite use estas herramientas sin regular para su propio beneficio y ejercer su poder sobre las masas.
¿Qué otros esfuerzos se han hecho para regular la IA?
Quizás no los suficientes. En este sentido, en los últimos 3 años se han presentado en forma de borrador varios otros proyectos de ley, que intentan crear alguna forma de supervisión de la industria, incluida la Ley de la Comisión Nacional de IA en Estados Unidos y la reciente AI Act aquí en Europa, pero hasta ahora ninguna ha entrado en vigor como tal.
Una fuerza impulsora detrás del interés regulatorio en la IA es el temor de que un adversario extranjero desarrolle o abuse de esta poderosa tecnología, pero eso también contribuye con la carrera armamentística, pues después de todo, quedarse por detrás es un prospecto mucho peor para la mayoría de países y compañías de IA.
A principios de 2023 fuimos testigos de la carta abierta que pesos pesados en el campo de la IA como Elon Musk, Emad Mostaque (CEO de Stability AI), Steve Wozniak (cofundador de Apple) y Yoshua Bengio (Premio Turing 2018) enviaron a OpenAI con la intención de pausar durante al menos medio año la creación de IAs más potentes que GPT-4. Pero como sabrán, esto de poco sirvió, pues hoy en día ya existen modelos más potentes que GPT-4, entre ellos PaLM y Gemini de Google, así como también Jurassic-1 Jumbo de China.
Este año también tuvo la exigencia de la UE a 44 gigantes tecnológicos como Google, Meta, TikTok y Twitter de etiquetar todo el contenido generado por IA que circule en sus redes sociales. Como sabrán, los deepfakes e imágenes generadas por IA se están haciendo bastante creíbles, más de uno puede caer por ellas sin el contexto adecuado.
No obstante, aún no se ponen a la orden sistemas de etiquetado para contenido generado por IA en las redes más populares, así que diríamos que todavía queda muchísimo trabajo por hacer.
Inteligencia artificial general (AGI), el siguiente paso
Toda esta conversación sobre regulaciones precede a la llegada de la siguiente fase evolutiva de la IA, la llamada Inteligencia artificial general (AGI), la cual en teoría puede realizar con éxito cualquier tarea intelectual que un humano realice, pero de manera mucho más rápida y eficaz.
Los teóricos y entendidos del tema sostienen que, una vez alcanzado este punto, el sistema AGI podrá mejorarse a sí mismo a un ritmo exponencial hasta llegar a un nivel en el que su inteligencia opere a un nivel incomprensible para nosotros los humanos. Este momento se le conocerá como la Singularidad, y algunos sostienen que podría llegar tan pronto como en 2045. En este punto es imposible saber que haría una superinteligencia más avanzada que nosotros, pero si algo sabemos, es que nos conviene que, llegado el momento, esa inteligencia esté bien regulada y de nuestro lado.