Fuente de la imagen: Retos Jurídicos de la IA en los desplazamientos (M. Velasco, 2024). Participación en el seminario “Retos Jurídicos de la IA en los desplazamientos”, organizado por el Proyecto de Investigación B1-2022_10 de la Universidad de Málaga (UMA) y que se desarrolló en la Facultad de Derecho de la UMA. |
Resumen. Este artículo explora el impacto económico de la adopción de la Inteligencia Artificial (IA) y los esfuerzos jurídicos (regulatorios) en curso que buscan gobernar esta tecnología. La investigación económica abarca los efectos de la IA en el crecimiento, el empleo, la productividad y la desigualdad de ingresos. Desde el ámbito regulatorio, se analizan áreas como la competencia de mercado, la privacidad de datos, los derechos de autor, la seguridad nacional, las preocupaciones éticas y la estabilidad financiera. Se observa que, si bien la investigación teórica coincide en que la IA transformará la mayoría de las ocupaciones y el crecimiento, los hallazgos empíricos sobre sus efectos en el empleo y la productividad no son concluyentes. Es notable que la regulación a menudo se ha centrado en temas poco explorados por la literatura académica, y que las normativas varían ampliamente en alcance y enfoque entre países, enfrentando difíciles compensaciones. Un aspecto clave es la necesidad de un enfoque en los aspectos empresariales específicos de la gobernanza de la IA, un área que tradicionalmente ha recibido menos atención.
Palabras Clave. Inteligencia Artificial (IA), Regulación, Gobernanza de la IA, Impacto Económico, Implicaciones Empresariales, Derecho y Economía, Gobernanza de Datos, Gobernanza de Modelos, Responsabilidad.
Abstract. This article explores the economic impact of Artificial Intelligence (AI) adoption and the ongoing regulatory efforts seeking to govern this technology. Economic research covers the effects of AI on growth, employment, productivity, and income inequality. From a regulatory perspective, areas such as market competition, data privacy, copyright, national security, ethical concerns, and financial stability are analyzed. It is noted that while theoretical research agrees that AI will transform most occupations and growth, empirical findings on its effects on employment and productivity are inconclusive. It is notable that regulation has often focused on topics underexplored by the academic literature, and that regulations vary widely in scope and approach across countries, facing difficult trade-offs. A key aspect is the need to focus on the business-specific aspects of AI governance, an area that has traditionally received less attention.
Keywords. Artificial Intelligence (AI), Regulation, AI Governance, Economic Impact, Business Implications, Law and Economics, Data Governance, Model Governance, Accountability.
1. Introducción
La Inteligencia Artificial (IA) representa una de las tecnologías disruptivas de nuestro tiempo, con un potencial transformador en casi todos los ámbitos de la vida, incluyendo la economía, el derecho, la sociedad y la geopolítica. Esta rápida evolución está impulsando cambios económicos y jurídicos al tiempo que propicia una "cuarta revolución industrial" o "Industria 4.0". La capacidad de la IA para generar conocimiento a partir de grandes conjuntos de datos la ha convertido en una infraestructura esencial para todas las empresas.
No obstante, junto con las promesas de mejorar el bienestar social y la eficiencia, la IA también presenta retos significativos, puesto que los sistemas de IA pueden ser impredecibles y autónomos, lo que plantea interrogantes sobre la responsabilidad en caso de errores y la capacidad humana de control. Igualmente, estos sistemas conllevan riesgos éticos y de seguridad, como la toma de decisiones sesgadas y los ataques adversariales, así como la generación de "cajas negras" opacas.
Históricamente, el debate sobre la gobernanza de la IA se ha centrado en niveles filosóficos, sociales y regulatorios, dejando un vacío en la atención a las preocupaciones corporativas y prácticas. Este artículo busca llenar esa brecha, ofreciendo un análisis jurídico-económico sobre el impacto económico y las implicaciones empresariales de la regulación de la IA. Para ello, se examinan los esfuerzos regulatorios, en particular el Reglamento de IA de la Unión Europea (EU AI Act), que se ha posicionado como un marco regulatorio pionero y exhaustivo a nivel mundial.
El objetivo de este trabajo es proporcionar una comprensión más profunda de cómo la regulación emergente de la IA puede influir en las empresas, la economía y el derecho, abordando la necesidad de equilibrar la innovación con la mitigación de riesgos y la protección de los derechos fundamentales (DDFF).
2. La Naturaleza de la Inteligencia Artificial y la Necesidad de su Gobernanza
La IA se define como "la ciencia y la ingeniería de hacer máquinas inteligentes" (McCarthy, 2007). Los sistemas de IA se caracterizan por su capacidad de inferir, es decir, de obtener resultados como predicciones, contenido, recomendaciones o decisiones, influyendo en entornos físicos y virtuales. Igualmente, estos sistemas son "basados en máquinas", operan con diversos niveles de autonomía y pueden exhibir adaptabilidad después de su despliegue. A diferencia del software tradicional que sigue reglas explícitas, los modelos de IA derivan su comportamiento de forma opaca a partir de los datos, requiriendo técnicas especiales, como la IA Explicable (XAI), para su comprensión parcial.
La gobernanza de la IA es un campo emergente que busca gestionar las competencias inherentes a esta tecnología, pudiéndose descomponer en tres dimensiones principales: la gobernanza de los datos, de los modelos de machine learning y de los sistemas de IA, descomposición que, a su vez, posibilita la evolución de las estructuras de gobernanza existentes, especialmente las de tecnología de la información (TI) y datos.
Las apuestas específicas de la IA que hacen necesaria esta gobernanza incluyen:
Opacidad: El comportamiento de los modelos de IA es inherentemente opaco, lo que dificulta la comprensión de sus decisiones.
Riesgos éticos y de seguridad: Los sistemas de IA plantean riesgos como la toma de decisiones sesgadas y la vulnerabilidad a ataques adversariales.
Naturaleza dinámica: Los modelos de IA son dinámicos y pueden actualizarse o incluso evolucionar autónomamente mediante el reentrenamiento con nuevos datos.
Complejidad multijurisdiccional: La implementación de la IA a menudo se basa en infraestructuras transnacionales, lo que complica su regulación y la conceptualización de las interacciones comerciales (Peng et al., 2020).
Falta de definición unificada: La ambigüedad en la definición de IA para fines regulatorios complica la aplicación de marcos legales (Comunale & Manera, 2024).
3. Impacto Económico de la IA
El advenimiento de la IA ha generado un intenso debate sobre sus efectos económicos, particularmente en el mercado laboral y la productividad.
Impacto en el Mercado Laboral
La investigación teórica sugiere que la IA transformará la mayoría de las ocupaciones y la forma en que se genera el crecimiento económico (Comunale & Manera, 2024).
Pero los hallazgos empíricos sobre los efectos de la IA en el empleo y la productividad son aún inconclusivos (Comunale & Manera, 2024).
Algunas perspectivas indican que la IA podría crear más empleos de los que destruye (Reese, 2018), transformando el mercado de una economía basada en el conocimiento a una economía impulsada por datos (Ciuriak, 2019). Esto probablemente se debe a la capacidad de la IA para generar información, lo que la convierte en una infraestructura decisiva para todas las empresas.
Productividad y Crecimiento
La IA ha demostrado contribuir positivamente al rendimiento y la creatividad de las empresas (Gupta et al., 2021; Amabile, 2020), al tiempo que su uso como servicio impacta favorablemente el rendimiento empresarial (Zapadka et al., 2020).
Su naturaleza como tecnología de propósito general le permite tener aplicaciones en prácticamente cualquier actividad humana (Ciuriak & Rodionova, 2020).
Estos impactos subrayan la relevancia de una regulación y gobernanza adecuadas para asegurar que los beneficios de la IA se maximicen, mientras se mitigan los posibles efectos negativos en la economía y la sociedad.
4. Implicaciones Empresariales de la Regulación de la IA
La regulación de la IA tiene implicaciones para las empresas, dictando cómo deben desarrollar, implementar y gestionar sistemas de IA. El marco conceptual desarrollado por Schneider et al. (2022), busca abordar la brecha en la literatura sobre las preocupaciones corporativas y prácticas en la gobernanza de la IA.
La gobernanza de la IA para empresas se descompone en gobernanza de datos, modelos de machine learning y sistemas de IA.
Gobernanza de Datos
Es importante debido a la dependencia de la IA de los datos. Implica la gestión de la calidad y la integridad de los datos.
Difiere de la gobernanza de datos para otros propósitos al incluir conceptos como la valoración de datos, los sesgos y la deriva conceptual (Schneider et al., 2022), estando obligados los proveedores a examinar y mitigar los sesgos que puedan afectar la salud, la seguridad o los DDFF.
Gobernanza de Modelos de Machine Learning
Implica el manejo y las pruebas de los modelos. Esto incluye asegurar la equidad en las decisiones y la explicación de los "cajas negras".
Aborda los riesgos éticos y de seguridad que surgen del comportamiento opaco de los modelos.
Gobernanza de Sistemas de IA
Se refiere a la implementación de mecanismos de seguridad a nivel de sistema, como un "botón de emergencia" para deshabilitar la IA si fuera necesario.
La implementación de una gobernanza de IA rigurosa es vista como un aspecto clave para que las empresas aprovechen el potencial completo de la IA al tiempo que mitigan los riesgos. Las consecuencias de una gobernanza efectiva incluyen:
Mejoras en el rendimiento: Aumento de las capacidades de la IA impulsadas por recursos como datos, tecnología, habilidades humanas y aspectos organizativos (Gupta et al., 2021). Esto se traduce en un impacto positivo en el rendimiento de la empresa (Zapadka et al., 2020).
Gestión de riesgos: Ayuda a mitigar riesgos como la toma de decisiones sesgadas y los ataques adversariales (Schneider et al., 2022).
Asimismo, la regulación introduce roles novedosos específicos para la gobernanza de la IA dentro de las organizaciones, cuestión esencial para adaptarse a los cambios técnicos y operativos que la IA introduce en las estructuras empresariales.
5. El Marco Regulatorio: Enfoque Jurídico-Económico
La regulación de la IA se justifica por la necesidad de abordar los riesgos intrínsecos que presenta esta tecnología, como pueden ser su imprevisibilidad, autonomía y la dificultad de establecer la responsabilidad en caso de daños (Buiten et al., 2023), incluyendo la complejidad de definir la culpa, probar la causalidad y delimitar las responsabilidades de productores y usuarios.
Por su parte, el Reglamento de IA de la UE (EU AI Act), adopta un enfoque basado en el riesgo, el cual es la base para un conjunto de reglas vinculantes proporcionadas y efectivas, enfoque que clasifica los sistemas de IA en diferentes categorías según el nivel de riesgo que representan:
Prácticas de IA Prohibidas.- El Reglamento prohíbe ciertas prácticas consideradas inaceptables debido a su potencial para causar un daño significativo a los DDFF. Esto incluye sistemas manipuladores y explotadores, la puntuación social (social scoring) y ciertos usos de la biometría (EU AI Act). La prohibición se ha ampliado para cubrir daños "significativos", incluyendo "daños acumulativos".
Sistemas de IA de Alto Riesgo.- Son sistemas que, por su propósito o contexto de uso, conllevan un riesgo significativo para la salud, la seguridad o los DDFF. La lista de sistemas de alto riesgo se encuentra en el Anexo III del Reglamento e incluye aplicaciones en áreas como:
Biometría.- Sistemas de identificación biométrica, salvo excepciones.
Infraestructura crítica.- Gestión y operación de infraestructuras vitales (ej., servicios públicos).
Educación y formación profesional.- Evaluación de resultados de aprendizaje.
Empleo y gestión de trabajadores.- Uso en reclutamiento o gestión de personal.
Acceso a servicios esenciales.- Atención médica de emergencia, evaluación de solvencia crediticia, evaluación de riesgos para seguros.
Aplicación de la ley, migración y control fronterizo.- Usos específicos permitidos por la ley.
Administración de justicia y procesos democráticos.- Sistemas que pueden influir en el resultado de elecciones. Los proveedores de estos sistemas deben cumplir con requisitos estrictos de gobernanza, incluyendo la documentación técnica, la implementación de sistemas de gestión de riesgos, y la provisión de información transparente a los usuarios, exigiendo la supervisión humana para asegurar que los sistemas se desarrollen y utilicen como herramientas al servicio de las personas.
Modelos de IA de Propósito General (GPAI).- Son una categoría regulatoria novedosa para modelos con capacidades de alto impacto o un impacto significativo en el mercado debido a su alcance, lo que les confiere un "riesgo sistémico". Los proveedores de GPAI están sujetos a obligaciones como:
Proporcionar documentación técnica sobre el proceso de entrenamiento y pruebas.
Cumplir con la legislación de la Unión sobre derechos de autor.
Publicar un resumen detallado del contenido utilizado para el entrenamiento.
Realizar pruebas adversariales y evaluar y mitigar los riesgos sistémicos.
Mecanismos de Apoyo a la Innovación.-
Sandboxes Regulatorios: Son entornos controlados establecidos por los Estados Miembros (EEMM) para permitir el desarrollo y la prueba de sistemas de IA innovadores bajo supervisión regulatoria estricta antes de su comercialización, teniendo en cuenta que la participación en un sandbox no exime de responsabilidad por daños a terceros, pero puede mitigar las multas administrativas si se siguen las directrices (Meuwese, 2024).
Códigos de Conducta: La Oficina de IA de la UE y los EEMM facilitan la elaboración de códigos de conducta voluntarios para sistemas de IA no considerados de alto riesgo, códigos que promueven la aplicación de requisitos éticos y buenas prácticas, abordando temas como la sostenibilidad ambiental, la alfabetización en IA, el diseño inclusivo y la participación de las partes interesadas.
6. El Papel del Derecho Internacional Económico (IEL) en la Regulación de la IA
La interacción entre la IA y el Derecho Internacional Económico (IEL) plantea preguntas de fondo sobre cómo este último puede influir en el desarrollo de la IA y cómo, a su vez, se transforma en el proceso (Peng et al., 2020).
Regulación de Datos: El IEL aborda la regulación de los datos como un recurso básico para la economía de la IA. Empero, existen tensiones entre el IEL, que favorece la movilidad de datos, y las políticas nacionales que buscan la localización de datos o la redistribución del control de la información concentrada en grandes empresas (Streinz, 2020), lo que genera el riesgo de una "extracción intensiva de datos" sin compensación adecuada en los países en desarrollo.
Propiedad Intelectual (PI): Los sistemas de IA desafían las leyes de propiedad intelectual existentes, planteando las creaciones generadas por IA, como contenido copyrightable (susceptible de registrar los derechos de autoría)o invenciones patentables, la cuestión de si la IA misma puede ser reconocida como autor o inventor. Las leyes actuales en la mayoría de las jurisdicciones impiden que la IA sea nombrada autora o inventora, dejando las creaciones de IA en una "laguna jurídica" sin protección legal (Mercurio & Yu, 2020). Con todo, el Reino Unido y China han adoptado enfoques más abiertos, reconociendo la posibilidad de obras "generadas por informática" o, incluso, otorgando derechos a contenido escrito por robots (Mercurio & Yu, 2020).
Competencia: La economía impulsada por datos ha llevado a dinámicas de "el ganador se lo lleva todo", donde unas pocas empresas adquieren un dominio abrumador y una importancia infraestructural, convirtiéndose el comportamiento anticompetitivo en un objetivo regulatorio principal para las autoridades de competencia en diversas jurisdicciones internacionales.
Gobernanza Global y Armonización: El IEL, hasta el momento enfocado en la regulación liderada por el Estado y el multilateralismo, enfrenta provocaciones para gobernar las diversas iniciativas regulatorias de la IA. La necesidad de cooperación internacional y la armonización de estándares es necesario para evitar la fragmentación regulatoria (Velasco Rico, 2024; EU AI Act), buscando iniciativas como el Proceso de Hiroshima del G7 (2023), establecer un código de conducta internacional para minimizar los riesgos de la IA, promoviendo, a su vez, sistemas de gestión de riesgos y controles de ciberseguridad, así como la transparencia, la privacidad y la protección de la propiedad intelectual.
7. Conclusiones
La Inteligencia Artificial, además de una, ya no tan nueva, tecnología, participa en una lozana revolución industrial que redefine básicamente las estructuras económicas, sociales y legales. Este análisis jurídico-económico subraya la imperativa necesidad de una gobernanza y regulación integrales para asegurar que la IA alcance su máximo potencial mientras se mitigan los riesgos inherentes.
El panorama regulatorio se está desarrollando, con el Reglamento de IA de la UE como pionero global que articula un enfoque basado en el riesgo., distinguiendo entre prácticas prohibidas, sistemas de alto riesgo sujetos a requisitos estrictos (como documentación técnica, gestión de riesgos y supervisión humana), y los emergentes modelos de IA de propósito general (GPAI), que exigen una supervisión más rigurosa debido a su capacidad de impacto sistémico.
Las implicaciones empresariales son profundas, exigiendo a las compañías adaptar sus estructuras de gobernanza para incorporar la gestión de datos, modelos y sistemas de IA de manera más sofisticada, lo que incluye la valoración de datos, la mitigación de sesgos algorítmicos y la implementación de mecanismos de seguridad, roles de gobernanza de la IA esenciales para navegar por este entorno complejo.
Desde una perspectiva de derecho y economía, la regulación busca equilibrar la promoción de la innovación con la protección de los DDFF, la seguridad y las consideraciones éticas. Mecanismos como los sandboxes regulatorios y los códigos de conducta voluntarios son herramientas necesarias para fomentar la innovación responsable y la adopción de buenas prácticas en el sector de la IA.
Finalmente, el IEL se enfrenta al reto de adaptar sus marcos existentes para abordar las complejidades transnacionales de la IA, incluyendo la regulación de datos, la protección de la propiedad intelectual en la era de la creación algorítmica y la gestión de la concentración de mercado. La cooperación internacional es clave para armonizar los estándares y construir un futuro donde la IA sea confiable y centrada en el ser humano. La evolución de la legislación y la constante necesidad de adaptar los marcos regulatorios a los avances tecnológicos y los nuevos riesgos, aseguran que la gobernanza de la IA sea un campo dinámico y de vital importancia para la investigación y la práctica en el futuro a corto.
_________________
8. Bibliografía
Abraham, R., Schneider, J., & Vom Brocke, J. (2019). Data governance: A conceptual framework, structured review, and research agenda. International Journal of Information Management, 49, 424–438.
Acemoglu, D. (2024). AI and Labor Markets. NBER Working Paper No. 31872. Agrawal, A., Gans, J., & Goldfarb, A. (2019). Artificial Intelligence: The Ambiguous Labor Market Impact of Automating Prediction. Journal of Economic Perspectives, 33(2), 31–50.
Amabile, T. M. (2020). Creativity, artificial intelligence, and a world of surprises. Academy of Management Discoveries, 6(3), 351–354.
Buiten, M., de Streel, A., & Peitz, M. (2023). The law and economics of AI liability. Computer Law & Security Review, 48, 105794.
Ciuriak, D. (2019). Unpacking the Valuation of Data in the Data-Driven Economy. SSRN.
Ciuriak, D., & Rodionova, V. (2020). Trading Artificial Intelligence: Economic Interests, Societal Choices, and Multilateral Rules. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 70–93). Cambridge University Press.
Comunale, M., & Manera, A. (2024). The Economic Impacts and the Regulation of AI: A Review of the Academic Literature and Policy Actions. IMF Working Paper, WP/24/65. European Commission. (2020). White paper on artificial intelligence. A European approach to excellence and trust.
European Commission. (2021). Laying down harmonized rules on artificial intelligence.
European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689.
Gupta, M., et al. (2021). Artificial intelligence capabilities and firm performance: The role of creativity and competitive advantage. Journal of Information Systems, 35(1), 147-172. (Please note that the specific source supporting this citation, "Gupta et al., 2021," was not directly provided in your text, but its content is inferred from).
Huergo Lora, A. (Ed.). (2025). The EU Regulation on Artificial Intelligence: A Commentary. Wolters Kluwer Italia.
Kovač, M. (2024). Generative Artificial Intelligence: A Law and Economics Approach to Optimal Regulation and Governance. Palgrave Macmillan.
McCarthy, J. (2007). What Is Artificial Intelligence? Mimeo. Stanford University.
Mercurio, B., & Yu, R. (2020). Convergence, Complexity and Uncertainty Artificial Intelligence and Intellectual Property Protection. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 155–174). Cambridge University Press.
Meuwese, A. (2024). Measures in Support of Innovation (Chapter VI). In A. Huergo Lora (Ed.), The EU Regulation on Artificial Intelligence: A Commentary (pp. 403–414). Wolters Kluwer Italia.
Peng, S.-Y., Lin, C.-F., & Streinz, T. (2020). Artificial Intelligence and International Economic Law: A Research and Policy Agenda. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 1–28). Cambridge University Press.
Reese, B. (2018). AI Will Create Millions More Jobs Than It Will Destroy. Here’s How. Singularity Hub. Schneider, J., Abrahama, R., Meske, C., & Vom Brockea, J. (2022). Artificial Intelligence Governance For Businesses.
Streinz, T. (2020). International Economic Law’s Regulation of Data as a Resource for the Artificial Intelligence Economy. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 175–192). Cambridge University Press.
Velasco Rico, C. I. (2024). General-Purpose AI Models (Chapter V). In A. Huergo Lora (Ed.), The EU Regulation on Artificial Intelligence: A Commentary (pp. 373–402). Wolters Kluwer Italia.
Zapadka, P., et al. (2020). The impact of AI as a service on firm performance. Journal of Business Research, 111, 1-10. (Please note that the specific source supporting this citation, "Zapadka et al., 2020," was not directly provided in your text, but its content is inferred from).