¿Cómo regular la IA?

Columna del Consejo de Ética y Autorregulación de la AMDD por Elías Mohor, miembro del Consejo y abogado asociado de Carey Abogados.


Hemos sido testigos del vertiginoso desarrollo de la inteligencia artificial generativa y su rápida adopción por el público general, lo que ha despertado un importante debate respecto de sus beneficios y riesgos. 

Entre otros aspectos, se ha señalado el potencial uso que puede hacerse de la IA para crear y difundir contenidos falsos y ejercer mayor control social; sus sesgos algorítmicos, con los riesgos de discriminación que conllevan; el daño patrimonial que puede generar a quienes crean contenido —artistas, periodistas o intelectuales—cuyas creaciones son analizadas, “parafraseadas” y difundidas por la IA sin que se les pague una compensación; y la concentración de conocimiento y poder económico y geopolítico que se puede generar en las principales compañías detrás de esta tecnología.

Estos aspectos han levantado la pregunta de si es o no necesario regular la IA y cómo sería la mejor manera de hacerlo. El Reglamento de IA que la Unión Europea aprobó en 2024, introdujo un enfoque basado en riesgos, clasificando los sistemas entre aquellos de riesgo inaceptable (sistemas de puntuación social, manipulación subliminal o vigilancia biométrica masiva en tiempo real), de alto (uso de IA en educación, justicia, salud) y limitado o mínimo (chatbots). 

Parte de la norma ya ha entrado en vigor y está previsto que el resto lo haga de forma gradual en los próximos años. Y aunque ha recibido comentarios positivos, también ha sido objeto de críticas, principalmente de algunos actores que advierten un riesgo de que la UE pueda quedarse atrás en el desarrollo de esta tecnología.

Otro actor que ha regulado esta materia es China, adoptando también el enfoque de identificar potenciales riesgos, aunque ha puesto un énfasis mayor en aquellos que la IA representa para el orden público y social

La normativa exige que los servicios de IA se enmarquen en los valores socialistas y que no generen contenido que incite a la subversión o al derrocamiento de aquel sistema, o que dañen la imagen del país o el orden social o económico. Prohíbe la generación y difusión de noticias falsas; obliga a rotular el contenido de IA que pudiera generar confusión en el público; y establece requerimientos para la operación de servicios de IA que puedan impactar la opinión pública o generar movilización social. 

Asimismo, busca promover la construcción de infraestructura para la IA generativa y facilitar el entrenamiento de algoritmos compartiendo recursos informáticos y datos. 

Finalmente, tenemos a Estados Unidos. En 2023 el presidente Biden aprobó una orden ejecutiva que seguía un enfoque inspirado en la gestión de riesgos. Entre otros aspectos, obligaba a los desarrolladores de sistemas de IA que impliquen riesgos significativos para la seguridad nacional, la salud o la economía a compartir con el gobierno federal los resultados de sus pruebas de seguridad, además de establecer directrices para evitar sesgos discriminatorios en algoritmos y requisitos de etiquetado para el contenido de IA, a fin de evitar fraudes o suplantaciones (deepfakes).

Esta normativa fue derogada por el presidente Trump y en julio de 2025 fue reemplazada por un plan de acción de IA con un enfoque opuesto, centrado en establecer menor regulación para las empresas que trabajan en esta área y promover la supremacía estadounidense en la materia, facilitando la construcción de data centers y fábricas de semiconductores en el país, y exportando los modelos y estándares estadounidenses para consolidar su influencia global.

Por su parte, el Gobierno de Chile presentó en mayo de 2024 un proyecto de ley para regular la IA, fuertemente influenciado por la normativa europea. El pasado agosto fue aprobado en general por la Cámara de Diputados. Queda su aprobación en particular en la misma Cámara y luego su discusión en el Senado. Se ha enfrentado a argumentos a favor y en contra muy similares a los que ha enfrentado la norma europea que lo inspira.

Como se puede ver, existen perspectivas encontradas. Por una parte, el corazón del problema parece ser el conflicto entre proteger los derechos fundamentales y prevenir riesgos para las personas. Por otra, está el no frenar o limitar excesivamente el desarrollo de la industria, asunto que preocupa especialmente a los países de gran influencia geopolítica y que no quieren quedar en desventaja frente a sus naciones competidoras. ¿Podrá el mundo encontrar un equilibrio entre innovación y protección de derechos?