Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas
Mostrando entradas con la etiqueta inteligencia artificial. Mostrar todas las entradas

domingo, 3 de agosto de 2025

Imaginando el Mañana de la Inteligencia Artificial

Fuente de la imagen: Pronosticando el futuro (M. Velasco, 2017)
Conjetura que la Inteligencia Artificial (IA) es como un tren súper rápido que comienza a recorrer el mundo, algo nuevo y emocionante que, según los expertos, trae un montón de oportunidades para vivir mejor, para que la economía crezca y para solucionar problemas que antes parecían imposibles. Pero, como todo tren muy rápido, también tiene sus retos y riesgos que hay que tratar con cuidado. Justo por eso, la gente de todo el mundo se ha puesto de acuerdo para crear un "Plan de Acción para la Gobernanza Global de la Inteligencia Artificial" (M. Velasco, 2025)[1]. Piensa en este plan como un manual o unas reglas de juego para asegurar que ese tren de la IA llegue a un futuro bueno para todos: seguro, confiable, justo y al que todos puedan subirse. Es como si estuviéramos juntos "Trazando el Futuro" de la IA, tal como lo habíamos pensado. Lo que se busca con este plan es, en pocas palabras, varias cosas importantes: • Aprovechar las oportunidades: La idea es que trabajemos juntos, gobiernos, empresas, científicos y ciudadanos, para sacarle el máximo partido a la IA. Esto significa impulsar la economía, ayudar a que el mundo sea más sostenible (lo de la Agenda 2030 de la ONU) y enfrentar retos globales. Imagina la IA ayudando en cosas como la salud, la educación o hasta para reducir la pobreza. • Impulsar la innovación, pero con cabeza: Se quiere fomentar que se exploren cosas nuevas con la IA, que haya mucha investigación y desarrollo. Pero siempre con una mentalidad abierta y colaborativa, compartiendo conocimientos y quitando barreras para que la tecnología avance y beneficie a todos. • Construir las bases: Para que la IA funcione, necesitamos buena infraestructura. Esto es como construir las vías para el tren: se trata de mejorar las redes de internet, la capacidad de los ordenadores (lo que llaman "potencia de cálculo") y los centros de datos. Y aquí hay un punto clave: quieren asegurarse de que los países con menos recursos también tengan acceso a estas herramientas, para que la IA sea verdaderamente "inclusiva".

• Datos de calidad y seguros: La IA necesita "alimentarse" de datos para aprender. Por eso, el plan habla de conseguir datos de buena calidad, pero siempre respetando tu privacidad y asegurándose de que esos datos no tengan prejuicios o discriminación. • Cuidar el planeta: Sí, la IA también tiene un impacto en el medio ambiente, por ejemplo, por la energía que consumen los grandes ordenadores. Por eso, se busca una "inteligencia artificial sostenible", que sea eficiente en el uso de energía y agua, y que incluso ayude a proteger el medio ambiente. • Establecer reglas y estándares: Para que todo funcione bien y de forma segura, se necesitan reglas claras. Se trata de poner de acuerdo con diferentes países y organizaciones para establecer normas técnicas, por ejemplo, sobre seguridad o ética, y para que la IA sea justa y no tenga sesgos (o "prejuicios algorítmicos"). • La seguridad es primordial: Una de las mayores preocupaciones es la seguridad. El plan busca evaluar los riesgos de la IA, proteger tus datos personales, hacer que la IA sea más "explicable" (que sepamos cómo toma decisiones) y transparente, y prevenir que se use para el mal. Es como tener un sistema de control para el tren, para evitar accidentes. • Trabajo en equipo a nivel mundial: Aquí es donde entra la "Gobernanza Global" y la "Cooperación Internacional" que mencionábamos. El plan recalca una y otra vez que esto no lo puede hacer un solo país. Hay que cooperar para compartir conocimientos, construir infraestructuras, formar a la gente en IA (especialmente en países en desarrollo) y tener un diálogo constante sobre cómo manejar esta tecnología. En síntesis, este plan es un esfuerzo enorme para que la Inteligencia Artificial sea una fuerza positiva para el futuro de la humanidad, aprovechando sus increíbles capacidades mientras se gestionan los retos de manera colaborativa y justa para todos. Fuente de la imagen:  Pronosticando el futuro (M. Velasco, 2017), mvc archivo propio.
_____________________
[1] Velasco-Carretero, Manuel (2025). IA Global: Trazando el Futuro. Sitio net—post. Visitado el 3/8/2025.

viernes, 1 de agosto de 2025

Vía ML, DL e IA, Stop al Blanqueo de Capitales

Fuente de la imagen: Blanqueo de Capitales (M. Velasco, 2008)
Imagina que el blanqueo de capitales o, como se denomina en Latinoamérica, lavado de dinero, es como intentar convertir billetes manchados de barro en dinero reluciente que nadie pueda rastrear. Es un problema global gigantesco que busca esconder de dónde viene el dinero que se ha obtenido ilegalmente (Le-Khac et al., 2016), que incluye ganancias de actividades como el tráfico de drogas, el juego clandestino o la evasión de impuestos (Soltani et al., 2016; Salehi et al., 2017). Los delincuentes usan este proceso para que su dinero "sucio" parezca legal y legítimo (Suresh et al., 2016). Normalmente, el proceso tiene tres etapas: primero, meten el dinero en el sistema financiero; luego, lo mueven a través de un montón de transacciones complicadas para que sea difícil seguirle la pista; y al final, lo reintroducen en la economía como si fuera limpio (Alexandre & Balsa, 2015; Savage et al., 2016). El no tener buenos sistemas para combatir esto puede desestabilizar la economía de un país y dañar la confianza en todo el sistema financiero (Ahmed, 2017). Hoy en día, con tanta tecnología, a los criminales les resulta más fácil esconder este dinero ilícito (Eysenbrandt, 2023). Antes, los bancos usaban principalmente sistemas basados en reglas. Es decir, si una transacción pasaba de cierta cantidad o cumplía ciertos criterios, se encendía una "banderita roja" (Han et al., 2020; Chen et al., 2018). El problema es que estos métodos, que a menudo requerían que las personas revisaran montones de documentos, eran lentos, costosos y generaban muchísimas falsas alarmas (Kute et al., 2021). Los "lavadores" de dinero se han vuelto muy astutos, usando redes complejas, empresas fantasma e incluso criptomonedas para que sus movimientos de dinero sean casi invisibles (Efijemue et al., 2023). Esto significa que los sistemas antiguos ya no dan la talla (PricewaterhouseCoopers, 2020). La pandemia de COVID-19 solo empeoró las cosas, ya que la gente ecomenzó a usar más los servicios digitales, creando nuevas oportunidades para los criminales y haciendo que la detección avanzada fuera aún más urgente (Vulchi & Ackerman, 2024; Efijemue et al., 2023; Ahmad, 2018). Aquí es donde entra la Inteligencia Artificial (IA), junto con el aprendizaje automático – ML- y el aprendizaje profundo -DL- (M. Velasco, 2025). 

Estas tecnologías son un cambio de juego en la lucha contra el blanqueo. Piensa que son como un detective súper inteligente que puede analizar volúmenes de datos enormes en tiempo real y detectar patrones y anomalías muy sutiles que a un humano se le pasarían por alto (Amoako et al., 2025; Efijemue et al., 2023; Saleous et al., 2023). Además, lo genial es que estos modelos de IA aprenden y se adaptan continuamente a medida que los delincuentes cambian sus tácticas (Amoako et al., 2025). ¿Y cómo funciona esta "magia"? El aprendizaje automático permite que las computadoras aprendan de la experiencia sin ser programadas explícitamente (Alzubi et al., 2018). Hay varias formas de hacerlo: • El aprendizaje supervisado es como enseñarle a un niño con ejemplos. Le damos al modelo datos de transacciones que ya sabemos si son "buenas" o "malas", y él aprende a reconocer esas características (Bakhshinejad et al., 2022; Labib et al., 2020). Por ejemplo, un sistema de dos capas, como el que propusieron Tertychnyi et al. (2020), primero quita las transacciones obviamente seguras y luego examina las de mayor riesgo con un ojo más crítico. • El aprendizaje no supervisado es para cuando no tenemos etiquetas. El modelo busca patrones ocultos y similitudes en los datos por sí mismo (Bakhshinejad et al., 2022; Labib et al., 2020). Esto es muy útil para descubrir nuevas tácticas de blanqueo. Un sistema como LaundroGraph, por ejemplo, usa redes neuronales para mapear las relaciones entre clientes y transacciones, revelando así estructuras complejas de "lavado" (Cardoso et al., 2022). • Por último, el aprendizaje semi-supervisado o el aprendizaje activo combinan lo mejor de ambos mundos. Usan una pequeña cantidad de datos etiquetados y una gran cantidad de datos sin etiquetar (Chapelle et al., 2006). En el aprendizaje activo, el sistema incluso le pregunta a un experto humano qué datos debe etiquetar para mejorar su aprendizaje (Ma et al., 2020). Un buen ejemplo es Amaretto, que usa la intervención de un analista de blanqueo para que revise y etiquete las transacciones sospechosas, haciendo que el sistema sea más preciso y eficiente con el tiempo (Labanca et al., 2022).

En síntesis la IA y el ML mejoran la eficiencia al reducir las falsas alarmas y permitir que los equipos de cumplimiento se centren en los casos realmente importantes (Amoako et al., 2025). De hecho, los estudios sugieren que estos modelos son mucho más precisos que los sistemas de reglas básicos (Tertychnyi et al., 2020; Cardoso et al., 2022; Labanca et al., 2022). Pero no todo es color de rosa. Implementar la IA en la lucha contra el blanqueo tiene muchos retos: • Desde el punto de vista técnico, se necesita una infraestructura muy potente y personal con conocimientos muy específicos (Canhoto, 2021; Fabri et al., 2022). La tecnología avanza tan rápido y hay tantas transacciones que procesar que la capacidad de computación es un problema para algunos bancos (Canhoto, 2021). Además, todavía no hay una forma estándar de comparar los modelos de IA, lo que dificulta saber cuál es el más efectivo (Oeben et al., 2019). Y, claro, los sistemas automatizados pueden ser un blanco para ciberataques (Fabri et al., 2022). • Los datos son otro punto crítico. La IA necesita datos de muy alta calidad para aprender bien (Husnaningtyas et al., 2023). Pero la información financiera es súper confidencial, y los bancos están obligados a proteger la privacidad de sus clientes (Fabri et al., 2022). Esto hace que sea muy difícil conseguir datos reales para entrenar los modelos, lo que retrasa la investigación (Han et al., 2020; Chen et al., 2018). A menudo se usan datos "sintéticos", pero estos, aunque se parezcan, no siempre capturan la complejidad del comportamiento humano real (Pourhabibi et al., 2020). Otro problema es que los datos de blanqueo están muy desequilibrados: la mayoría de las transacciones son normales, lo que complica mucho que la IA detecte las pocas que son sospechosas (Kute et al., 2021; Chen et al., 2018). Y la calidad de los datos también sufre porque los bancos no reciben retroalimentación de las autoridades sobre si sus informes de actividad sospechosa (SAR) realmente sirvieron para algo, lo que les impide saber si sus sistemas están funcionando bien (Kute et al., 2021; Han et al., 2020).

• En el ámbito empresarial, los controles contra el blanqueo se ven a menudo como una carga costosa para los bancos, ya que no generan beneficios directos (Pontes et al., 2022). La inversión inicial y el mantenimiento de los sistemas de IA son altos (Lokanan, 2022). Además, no hay una ventaja competitiva clara para los bancos que adopten IA en esta área, lo que reduce el incentivo (Fabri et al., 2022). Y los bancos suelen ser reacios a compartir información sobre el blanqueo con otros, por miedo a revelar secretos de su funcionamiento o por cuestiones legales (Pontes et al., 2022). • Finalmente, los retos legales y éticos son un gran obstáculo. Las leyes de privacidad de datos, como el GDPR en Europa, pueden chocar con la necesidad de procesar grandes cantidades de datos para la IA (Bertrand et al., 2021). Es básico que las decisiones de la IA sean transparentes y explicables para los clientes (Bertrand et al., 2021), lo cual es difícil con los modelos de "caja negra" que no muestran cómo llegan a sus conclusiones (Zednik, 2021). Las guías éticas para la IA, aunque importantes, suelen ser muy abstractas y difíciles de aplicar en la práctica (European Commission, 2019b). Para intentar solucionar algunos de estos problemas, especialmente los de privacidad de datos y la falta de colaboración, ha surgido el aprendizaje federado (FL), que también se llama aprendizaje colaborativo (C. Zhang et al., 2021). Conjetura que es como entrenar a un equipo de estudiantes, pero sin que cada uno tenga que entregar sus apuntes al profesor central. Cada estudiante aprende con sus propios apuntes, y solo comparte con el profesor un resumen de lo que ha aprendido. Así, el profesor puede mejorar la forma de enseñar para todos, sin ver los apuntes individuales de nadie (Shiffman et al., 2022; Yang et al., 2019).

En el mundo bancario, esto se traduce en que los bancos pueden entrenar un modelo de IA común sin necesidad de compartir los datos sensibles de sus clientes (Kanamori et al., 2022). Cada banco entrena una parte del modelo con sus propios datos locales, y solo envía al servidor central los parámetros o "aprendizajes" cifrados. El servidor los combina para crear un modelo global mejorado, que luego los bancos descargan y usan en sus propios sistemas (Yang et al., 2019; Kanamori et al., 2022). Esta técnica ya se ha usado con éxito en la medicina, por ejemplo, para detectar tumores sin que los hospitales compartieran los datos privados de los pacientes (Pati et al., 2022). En el sector financiero significa que los bancos pueden crear modelos más precisos para situaciones raras pero críticas, como la financiación del terrorismo, incluso si un solo banco no tiene suficientes datos (Shiffman et al., 2022). Este enfoque, que protege la privacidad y reduce costes, ha mostrado un aumento del 75% en la eficiencia en el descubrimiento de delitos financieros (Shiffman et al., 2022). Si bien el aprendizaje federado tiene sus propios retos, como los costos de comunicación o la heterogeneidad de los datos entre bancos (T. Li et al., 2020), ofrece una forma de colaborar y mejorar la detección de delitos financieros que antes era impensable (Shiffman et al., 2022). De hecho, los reguladores en Estados Unidos ya están animando a la banca a experimentar con estas nuevas herramientas (Shiffman et al., 2022). En conclusión, el blanqueo de capitales es un problema complejo en constante evolución, y las herramientas tradicionales ya no son suficientes. La IA y el aprendizaje automático ofrecen un potencial enorme para mejorar la detección y hacerla más eficiente y precisa (Amoako et al., 2025; Husnaningtyas et al., 2023). Pero hay retos importantes en lo tecnológico, la calidad de los datos, los costes y, sobre todo, en los aspectos legales y éticos (Amoako et al., 2025; Eysenbrandt, 2023; Husnaningtyas et al., 2023). El aprendizaje federado es una solución prometedora para superar algunas de estas barreras, permitiendo la colaboración entre bancos sin sacrificar la privacidad (Shiffman et al., 2022; Eysenbrandt, 2023). Para que la IA alcance su máximo potencial en esta lucha, es necesario que las regulaciones se adapten y que todas las partes implicadas colaboren de cerca (Amoako et al., 2025).
________________________
Referencias bibliográficas
Ahmad, T. I. (2018). United States financial industry cybersecurity legislation: Regulatory considerations for cyber risk preparedness (Master’s thesis, Utica College).
Ahmed, S. A. (2017). Practical application of anti-money laundering requirements in Bangladesh an insight into the disparity between anti-money laundering methods and their effectiveness based on resources and infrastructure. Journal of Money Laundering Control, 20(4), 428–450. https://doi.org/10.1108/JMLC-09-2016-0042
Al-Shabandar, R., Lightbody, G., Browne, F., Liu, J., Wang, H., & Zheng, H. (2019). The Application of Artificial Intelligence in Financial Compliance Management. 2019 International Conference on Artificial Intelligence and Advanced Manufacturing.
Alexandre, C., & Balsa, J. (2015). A multiagent based approach to money laundering detection and prevention. ICAART 2015 - 7th International Conference on Agents and Artificial Intelligence, Proceedings, 1, 230–235. https://doi.org/10.5220/0005281102300235
Alzubi, J., Nayyar, A., & Kumar, A. (2018). Machine Learning from Theory to Algorithms: An Overview. Journal of Physics: Conference Series, 1142(1), 012015. https://doi.org/10.1088/1742-6596/1142/1/012015
Amoako, E. K., Boateng, V., Ajay, O., Adukpo, T. K., & Mensah, N. (2025). Exploring the role of Machine Learning and Deep Learning in Anti-Money Laundering (AML) strategies within U.S. Financial Industry: A systematic review of implementation, effectiveness, and challenges. Finance & Accounting Research Journal, 7(1), 22-36. https://doi.org/10.51594/farj.v7i1.1808
Bakhshinejad, N., Soltani, R., Nguyen, U. T., & Messina, P. (2022). A Survey of Machine Learning Based Anti-Money Laundering Solutions. arXiv preprint arXiv:2202.04097.
Bertrand, A., Maxwell, W., & Vamparys, X. (2020). Are AI-based Anti-Money Laundering (AML) Systems Compatible with European Fundamental Rights? ICML 2020 Law and Machine Learning Workshop.
Bertrand, A., Maxwell, W., & Vamparys, X. (2021). Do AI-based anti-money laundering (AML) systems violate European fundamental rights. International Data Privacy Law, 11(3), 276–293. https://doi.org/10.1093/idpl/ipab013
Canhoto, A. (2021). Leveraging machine learning in the global fight against money laundering and terrorism financing: An affordances perspective. Journal of Business Research, 131, 441–452. https://doi.org/10.1016/j.jbusres.2021.03.003
Cardoso, M., Saleiro, P., & Bizarro, P. (2022). LaundroGraph: Self-Supervised Graph Representation Learning for Anti-Money Laundering. 3rd ACM International Conference on AI in Finance. https://doi.org/10.1145/3573216.3573241
Chen, Z., Van Khoa, L. D., Teoh, E. N., Nazir, A., Karuppiah, E. K., & Lam, K. S. (2018). Machine Learning techniques for anti-money laundering (AML) solutions in suspicious transaction detection: a review. Knowledge and Information Systems, 57(1), 245–285. https://doi.org/10.1007/s10115-018-1188-7
Chapelle, O., Schölkopf, B., & Zien, A. (2006). Semi-Supervised Learning. MIT Press.
Efijemue, O., Obunadike, C., Taiwo, E., Kizor, S., Olisah, S., Odooh, C., & Ejimofor, I. (2023). Cybersecurity strategies for safeguarding customers' data and preventing financial fraud in the United States financial sectors. International Journal of Soft Computing, 14(3), 10-5121.
European Commission. (2019b). Ethics Guidelines for Trustworthy AI.
Eysenbrandt, Y. (2023). Artificial Intelligence to combat money laundering and terrorist financing - recent advances and outlook (Bachelor Thesis). Deutsche Bundesbank. https://doi.org/10.13140/RG.2.2.31714.75206
Fabri, L., Wenninger, S., Kaymakci, C., Beck, S., Klos, T., & Wetzstein, S. (2022). Potentials and Challenges of Artificial Intelligence in Financial Technologies. MCIS 2022 Proceedings 14.
FATF. (2022). The FATF Recommendations. FATF. https://www.fatf-gafi.org/en/publications/Fatfrecommendations/Fatf-recommendations.html
Han, J., Huang, Y., Liu, S., & Towey, K. (2020). Artificial intelligence for anti-money laundering: a review and extension. Digital Finance, 2(3–4), 211–239. https://doi.org/10.1007/s42521-020-00023-1
Husnaningtyas, N., Failazufah Hanin, G., Dewayanto, T., & Malik, M. F. (2023). A systematic review of anti-money laundering systems literature: Exploring the efficacy of machine learning and deep learning integration. JEMA: Jurnal Ilmiah Bidang Akuntansi dan Manajemen, 20(1), 91–116. http://dx.doi.org/10.31106/jema.v20i1.20602
Kanamori, S., Abe, T., Ito, T., Emura, K., Wang, L., Yamamoto, S., Phong, L. T., Abe, K., Kim, S., Nojima, R., Ozawa, S., & Moriai, S. (2022). Privacy-Preserving Federated Learning for Detecting Fraudulent Financial Transactions in Japanese Banks. Journal of Information Processing, 30, 789–795. https://doi.org/10.2197/ipsjjip.30.789
Kute, D. V., Pradhan, B., Shukla, N., & Alamri, A. (2021). Deep Learning and Explainable Artificial Intelligence Techniques Applied for Detecting Money Laundering - A Critical Review. IEEE Access, 9, 82300–82317. https://doi.org/10.1109/ACCESS.2021.3086359
Labanca, D., Primerano, L., Markland-Montgomery, M., Polino, M., Carminati, M., & Zanero, S. (2022). Amaretto: An Active Learning Framework for Money Laundering Detection. IEEE Access, 10, 41720–41739. https://doi.org/10.1109/ACCESS.2022.3167699
Labib, N. M., Rizka, M. A., & Shokry, A. E. M. (2020). Survey of Machine Learning Approaches of Anti-Money Laundering Techniques to Counter Terrorism Finance. In Ghalwash, El Khameesy, Magdi, Joshi (eds.), Internet of Things - Applications and Future (Lecture Notes in Networks and Systems 114, pp. 73–87). https://doi.org/10.1007/978-3-030-36691-9_8
Le-Khac, N. A., Markos, S., O'Neill, M., Brabazon, A., & Kechadi, T. (2016). An efficient search tool for an anti-money laundering application of an multi-national bank's dataset. arXiv preprint arXiv:1609.02031.
Li, T., Sahu, A. K., Talwalkar, A., & Smith, V. (2020). Federated Learning: Challenges, Methods, and Future Directions. IEEE Signal Processing Magazine, 37(3), 50–60. https://doi.org/10.1109/MSP.2020.2975618
Lokanan, M. (2022). Predicting Money Laundering using Machine Learning and Artificial Neural Networks Algorithms in Banks. SSRN. https://doi.org/10.2139/ssrn.4101967
Ma, L., Ding, B., Das, S., & Swaminathan, A. (2020). Active Learning for ML Enhanced Database Systems. Proceedings of the 2020 ACM SIGMOD International Conference on Management of Data, 175–191. https://doi.org/10.1145/3318464.3380720
Oeben, M., Goudsmit, J., & Marchiori, E. (2019). Prerequisites and AI challenges for model-based Anti-Money Laundering. arXiv preprint arXiv:1905.02949.
Pati, S., et al. (2022). Federated learning enables big data for rare cancer boundary detection. Nature Communications, 13(1), 7474. https://doi.org/10.1038/s41467-022-35313-9
Pontes, R., Lewis, N., McFarlane, P., & Craig, P. (2022). Anti-money laundering in the United Kingdom: new directions for a more effective regime. Journal of Money Laundering Control, 25(2), 401–413. https://doi.org/10.1108/JMLC-09-2021-0100
Pourhabibi, T., Ong, K.-L., Kam, B. H., & Boo, Y. L. (2020). Fraud detection: A systematic literature review of graph-based anomaly detection approaches. Decision Support Systems, 133, 112999. https://doi.org/10.1016/j.dss.2020.112999
PricewaterhouseCoopers, P. (2020). PwC's global economic crime and fraud survey 2020. PwC.
Salehi, A., Ghazanfari, M., & Fathian, M. (2017). Data mining techniques for anti money laundering. International Journal of Applied Engineering Research, 12(20), 10084–10094.
Saleous, H., Ismail, M., AlDaajeh, S. H., Madathil, N., Alrabaee, S., Choo, K. K. R., & Al-Qirim, N. (2023). COVID-19 pandemic and the cyberthreat landscape: Research challenges and opportunities. Digital Communications And Networks, 9(1), 211–222. https://doi.org/10.1016/j.dcan.2022.10.007
Savage, D., Wang, Q., Chou, P., Zhang, X., & Yu, X. (2016). Detection of money laundering groups using supervised learning in networks. http://arxiv.org/abs/1608.00708
Shiffman, G. M., Liposky, S., & Hamilton, R. (2022). Artificial Intelligence and the Revolution in Financial Crimes Compliance. Risk Intelligence White Paper.
Soltani, R., Nguyen, U. T., Yang, Y., Faghani, M., Yagoub, A., & An, A. (2016). A new algorithm for money laundering detection based on structural similarity. 2016 IEEE 7th Annual Ubiquitous Computing, Electronics and Mobile Communication Conference (UEMCON), 1–7.
Suresh, C., Reddy, K. T., & Sweta, N. (2016). A Hybrid Approach for Detecting Suspicious Accounts in Money Laundering Using Data Mining Techniques. International Journal of Information Technology and Computer Science, 8(5), 37–43. https://doi.org/10.5815/ijitcs.2016.05.04
Tertychnyi, P., Slobozhan, I., Ollikainen, M., & Dumas, M. (2020). Scalable and Imbalance-Resistant Machine Learning Models for Anti-Money Laundering: A Two-Layered Approach. In Clapham, Koch (eds.), Enterprise Applications, Markets and Services in the Finance Industry, FinanceCom (pp. 43–58). https://doi.org/10.1007/978-3-030-63955-4_4
Velasco-Carretero, Manuel (2025). Revolución en la Lucha contra el Crimen Financiero. Sitio Prevención del Blanqueo de Capitales. Visitado el 01/08/2025.
Vulchi, J. R., & Ackerman, E. (2024). Exploring OWASP Top 10 Security Risks in LLMs with Practical Testing and Prevention.
Yang, Q., Liu, Y., Chen, T., & Tong, Y. (2019). Federated Machine Learning: Concept and Applications. ACM Transactions on Intelligent Systems and Technology, 10(2), 1–19. https://doi.org/10.1145/3297757
Zednik, C. (2021). Solving the Black Box Problem: A Normative Framework for Explainable Artificial Intelligence. Philosophy and Technology, 34(1), 265–288. https://doi.org/10.1007/s13347-020-00407-7 Zhang, C., Xie, Y., Bai, H., Yu, B., Li, W., & Gao, Y. (2021). A survey on federated learning. Knowledge-based Systems, 216, 106833. https://doi.org/10.1016/j.knosys.2021.106833.

jueves, 31 de julio de 2025

IA: ping pong desenfrenado

Fuente de la imagen: Ping pong a lo matrix (M. Velasco, 2009)
Bueno, después de echarle un vistazo al “America´s AI Action Plan” (M. Velasco, 2025)[1], la verdad es que el documento es una declaración de intenciones clarísima y bastante... agresiva en su ambición. Se titula "Ganando la Carrera", y eso ya me da una idea del tono: Estados Unidos está en una carrera a toda velocidad para dominar la inteligencia artificial (IA) a nivel mundial y, para ellos, esto es una cuestión de tecnología, pero, sobre todo, un "imperativo de seguridad nacional". La comparan con la carrera espacial, diciendo que "es imperioso que Estados Unidos y sus aliados ganen esta carrera". Quieren que la IA les lleve a una "nueva edad de oro de florecimiento humano, competitividad económica y seguridad nacional". Se ve que lo ven como una triple revolución: industrial, de la información y un renacimiento, ¡todo a la vez! El plan se asienta en tres grandes "pilares", como si fueran los cimientos de este dominio. El primero es "Acelerar la Innovación en IA". Y aquí, la verdad, lo primero que llama la atención es la obsesión por "quitar la burocracia y las regulaciones onerosas". Dicen claramente que han revertido acciones de la administración anterior porque "asfixiaría la IA en burocracia en esta etapa temprana". Quieren que la innovación la lidere el sector privado, sin ataduras. También, es clave para ellos garantizar la "libertad de expresión y los valores estadounidenses" en la IA. Pero ojo, que esto no es un concepto etéreo: directamente recomiendan a la Oficina de Estándares y Tecnología (NIST) eliminar de sus marcos de gestión de riesgos cualquier referencia a "desinformación, Diversidad, Equidad e Inclusión, y cambio climático". Esto es un punto supercrítico, porque, básicamente, están pidiendo a la IA que refleje una "verdad objetiva" y no "agendas de ingeniería social", según su propia definición, lo que podría interpretarse como una forma de control ideológico de lo que se considera "sesgo" o "verdad" en los sistemas de IA. Igualmente, quieren fomentar la IA de código abierto y "pesos abiertos" (open-weight), lo cual, si bien suena a colaboración, parece que tiene un valor geoestratégico para que los modelos americanos se conviertan en estándares globales.

Luego está el tema de los trabajadores americanos. Dicen que es una agenda "worker-first", que la IA complementará el trabajo y no lo reemplazará, y que la construcción de la infraestructura de IA creará "empleos bien pagados". Pero, al mismo tiempo, reconocen que la IA "transformará cómo se hace el trabajo" y demandará una "respuesta seria en la fuerza laboral", incluyendo la necesidad de "reciclaje rápido para individuos afectados por el desplazamiento laboral relacionado con la IA". Es una mezcla de optimismo y una admisión tácita de que habrá disrupción laboral, lo que genera cierta ambigüedad. Asimismo, quieren potenciar la "ciencia habilitada por la IA", creando laboratorios automatizados y los datasets científicos más grandes y de mayor calidad del mundo, todo ello manteniendo el respeto por la privacidad. El segundo pilar es "Construir Infraestructura de IA en Estados Unidos". Aquí la cosa se pone seria con la energía. Dicen que la IA "reta a Estados Unidos a construir una capacidad de generación de energía mucho mayor de la que tenemos hoy". Y, nuevamente, la solución pasa por "rechazar el dogma climático radical y la burocracia". Quieren agilizar los permisos para centros de datos, fábricas de semiconductores e infraestructura energética, incluyendo hacer que las tierras federales estén disponibles para la construcción, insistiendo en que esta infraestructura debe construirse con "productos americanos" y estar "libre de tecnología adversaria extranjera", lo cual es un claro golpe a la cadena de suministro global y a la influencia china. Quieren estabilizar y optimizar la red eléctrica actual, priorizando fuentes de energía nuevas y "gestionables". Además, hay una gran apuesta por "restaurar la fabricación de semiconductores en suelo estadounidense" y construir "centros de datos de alta seguridad para uso militar y de inteligencia", sin olvidar la necesidad de "entrenar una fuerza laboral calificada" para construir y mantener toda esta infraestructura. La ciberseguridad es otro punto clave en esta infraestructura, buscando herramientas de "ciberdefensa" impulsadas por IA y tecnologías "seguras por diseño".

Finalmente, el tercer pilar es "Liderar en Diplomacia y Seguridad Internacional de la IA". Esto es, en pocas palabras, llevar la IA americana a todo el mundo, exportando la "pila tecnológica completa de IA" (hardware, modelos, software, aplicaciones y estándares) a todos los aliados. ¿El motivo? Si no lo hacen ellos, sus rivales lo harán. Y el rival principal está claro: "Contrarrestar la influencia china en los organismos de gobernanza internacional". Pretenden que las normas globales de IA se alineen con los valores americanos, no con los de regímenes autoritarios, buscando "fortalecer la aplicación de los controles de exportación de computación de IA" y "tapar las lagunas en los controles de exportación de fabricación de semiconductores", porque ven esto como una cuestión de "competencia geoestratégica y seguridad nacional". El pliego habla de la posibilidad de usar herramientas como la "Foreign Direct Product Rule" y "aranceles secundarios" para lograr mayor alineación internacional. Por último, se preocupan por evaluar los "riesgos de seguridad nacional en los modelos de frontera", como los ciberataques o el desarrollo de armas químicas, biológicas, radiológicas o nucleares (CBRNE), invirtiendo en "bioseguridad" para evitar que actores maliciosos sinteticen patógenos dañinos. Concluyendo, este "plan de acción" es una declaración de guerra tecnológica, si me permites el símil. Más que en desarrollar IA, da la impresión de que lo que se pretende es ganar a toda costa y asegurarse de que Estados Unidos sea el arquitecto y dueño del futuro global impulsado por la IA. Es como construir una mega-fortaleza del futuro a una velocidad de vértigo, buscando el control total del diseño, los materiales y el ejército que la custodie, incluso si eso significa pasar por encima de ciertas regulaciones o definir la "verdad" según sus propios términos. Fuente de la información: texto referenciado. Fuente de la imagen: Ping pong a lo matrix (M. Velasco, 2009).
________________
[1] Velasco-Carretero, Manuel (2025). IA: Victoria Global. Sitio NetPost. Visitado el 31/07/2025.

martes, 29 de julio de 2025

El Menú de la Inteligencia Artificial

Fuente de la imagen: La Senda de los Pintxos (M. Velasco, 2007)
¿Te has preguntado alguna vez con qué "comida" se alimentan los cerebros de la Inteligencia Artificial (IA)? Pues la Unión Europea (UE), con su nueva Ley de IA (conocida como el AI Act), ha decidido que ya es hora de que lo sepamos. Desde el 1 de agosto de 2024, esta ley está en vigor y aunque muchas de sus normas se aplicarán más adelante (las de IA de uso general lo harán a partir del 2 de agosto de 2025), hay una muy importante que ya está impulsando: la obligación de transparencia sobre los datos de entrenamiento de los modelos de IA de uso general (M. Velasco, 2025)[1]. En pocas palabras, la meta es simple: que haya más claridad sobre qué contenido se usa para entrenar estos modelos. Esto incluye, ojo, el texto y los datos protegidos por derechos de autor. ¿Y para qué? Pues para que los titulares de derechos (por ejemplo, creadores de música, escritores, fotógrafos) puedan saber si su obra se ha usado y, si es necesario, hacer valer sus derechos bajo la ley de la Unión. Pero no solo ellos. La transparencia también busca ayudar a proteger los derechos de privacidad de los ciudadanos, permitir que investigadores estudien mejor las implicaciones y limitaciones de un modelo particular y los riesgos asociados a los datos utilizados, asegurar que haya diversidad en los datos para evitar sesgos y discriminación, e incluso fomentar mercados más justos y competitivos. Es como abrir una ventana a la 'dieta' de la IA para ver si es equilibrada y legal. Entonces, ¿qué se espera que los proveedores de IA cuenten? Deben elaborar un "Resumen Público del Contenido de Entrenamiento", siguiendo una plantilla detallada que ha preparado la Oficina de IA. Este resumen debe ser suficientemente detallado para ser útil, pero no excesivamente técnico. Cubre todas las etapas del entrenamiento del modelo, desde la fase inicial de pre-entrenamiento hasta el ajuste fino (post-entrenamiento).

El resumen de esta plantilla tiene tres secciones principales: 1. Información general: Aquí se identifica al proveedor y al modelo, se describen las modalidades de los datos (texto, imagen, audio, video y otros, si los hay) y su tamaño aproximado dentro de rangos amplios, además de características generales como los idiomas cubiertos y otras especificidades (nacionales, regionales, demográficas). También se indica la última fecha de adquisición de datos y si el modelo sigue aprendiendo continuamente. 2. Lista de fuentes de datos: Esta es una de las partes más importantes. Se pide que se revelen los grandes conjuntos de datos públicos que se usaron, como bases de datos masivas disponibles gratuitamente. Si han usado datos de terceros privados con acuerdos de licencia comercial, también se mencionará. Y lo que ha generado más debate: si el proveedor "raspó" o recopiló datos directamente de internet (crawled and scraped data), deberá dar una descripción narrativa completa y una lista resumida de los nombres de dominio más relevantes de donde sacaron el contenido. Esto se refiere al 10% superior de todos los dominios determinados por el tamaño del contenido raspado; para las pymes, esto es un poco menos exigente, sólo el 5% superior o los 1.000 dominios principales, lo que sea menor. También se incluye información sobre datos generados por el propio usuario (a través de interacciones con el modelo u otros servicios del proveedor) o datos sintéticos creados por IA para entrenar el modelo (especialmente para la destilación del modelo o alineación). Finalmente, hay una sección para otras fuentes de datos que no encajen en las categorías anteriores, como datos offline o digitalizados. 3. Aspectos del procesamiento de datos: Aquí se explica cómo abordan temas importantes. Esto incluye las medidas implementadas para identificar y respetar las "reservas de derechos" de la excepción de minería de texto y datos (TDM)[2]

La idea es que la información sea sencilla, uniforme y fácil de entender para el público y las partes interesadas, sin imponer una carga innecesaria a los proveedores. La Comisión Europea ha trabajado en un equilibrio delicado para que esta transparencia no ponga en riesgo los secretos comerciales o la información confidencial de las empresas de IA. Por ejemplo, no se pide la mezcla exacta y composición de las fuentes de datos, sólo rangos amplios del tamaño total por modalidad. La transparencia se exige con más detalle para datos públicamente disponibles que para datos privados bajo licencia. La obligación de hacer públicos estos resúmenes empiezan el 2 de agosto de 2025. Para los modelos de IA que ya estaban en el mercado de la Unión antes de esa fecha, los proveedores tienen hasta el 2 de agosto de 2027 para publicar su resumen. Y no es un documento estático: si el modelo se entrena con más datos o se modifica, el resumen debe actualizarse cada seis meses o si hay un cambio significativo antes. Se debe publicar en la página web oficial del proveedor de forma visible y accesible, y junto al modelo en todos sus canales de distribución. ¿Y quién vigila esto? La Oficina de IA será la encargada de supervisar que se cumpla esta obligación. Si un proveedor no lo hace correctamente, puede haber consecuencias serias, ¡como multas de hasta el 3% de su facturación mundial anual o 15 millones de euros, lo que sea más alto! Así que la cosa va en serio. En definitiva, la Ley de IA de la UE está forzando a los desarrolladores de modelos de IA de uso general a mostrar sus cartas en lo que respecta a sus datos de entrenamiento. Es un paso gigante hacia la rendición de cuentas y la transparencia en un sector que avanza a toda velocidad, intentando poner en la balanza la innovación con la protección de los derechos de todos. Es como si, a partir de ahora, cada cerebro artificial tuviera que llevar una etiqueta nutricional que nos diga de qué está hecho.
_________________
[1] Velasco-Carretero, Manuel (2025). AI Act: Datos al Descubierto. Sitio Compliance. Visitado el 29/07/2025.
[2] Además, se pide una descripción general de las medidas tomadas para evitar o eliminar contenido ilegal de los datos de entrenamiento, como material de abuso sexual infantil o contenido terrorista.

viernes, 25 de julio de 2025

Algoritmos y Ley: La Revolución Administrativa

Fuente de la imagen: Hacia una empresa algorítmicamente responsable (M. Velasco, 2022)
La tarde-noche se convirtió en un espacio vibrante de intercambio de ideas, velada que, a propuesta de Francisco, permitió sumergirme en una nueva mesa redonda virtual, esta vez con audiencia predominantemente latinoamericana, para abordar un tema que me interesa y que objetivamente considero importante para el futuro de la sociedad española: la Inteligencia Artificial (IA) y el Derecho Administrativo (DA). El horario vespertino en España se transformó en un espacio y tiempo propicio para la conexión transatlántica, uniendo perspectivas y retos en torno a esta tecnología disruptiva. Antes de nada, debo confesarte que el amigo lleva años documentándome sobre esta temática. Del último legajo facilitado (Gracias Francisco), di buena prueba en el sitio iurepost (M. Velasco, 2025)[1]. Comencé la intervención subrayando cómo la IA se ha consolidado como fenómeno ineludible en la actualidad, con un impacto transformador que alcanza todos los rincones de la sociedad, y el DA no es una excepción, como bien señalan Carlón Ruiz (2023)[2] y Tavares da Silva (2021)[3]. Su irrupción ha provocado una profunda revisión del DA, que se ve interpelado por tecnologías capaces de facilitar el cumplimiento eficaz y eficiente de las funciones públicas, sin sacrificar las exigencias esenciales de control del poder, una idea que Valcárcel Fernández y Hernández González (2024)[4] han explorado con acierto. Aunque la IA es considerada una herramienta útil e incluso imprescindible para las administraciones públicas (AAPP), especialmente para combatir la demora en el cumplimiento de sus funciones y la crónica falta de personal (Huergo Lora, 2023)[5], su uso demanda una definición precisa sobre dónde, cuándo y de qué manera puede aplicarse (Valcárcel Fernández & Hernández González, 2024). Este reto se acentúa por la falta de un régimen jurídico específico, básico y común que regule los sistemas algorítmicos avanzados y la IA en el sector público, una preocupación compartida por Velasco Rico (2023)[6] y Bermejo Latre (2023)[7]

Las AAPP poseen una ingente cantidad de información y datos actualizados y estructurados (Expósito Gázquez, 2021)[8], un capital informativo inmenso para el desarrollo de sistemas algorítmicos y de IA que requieren datos de calidad para su entrenamiento y fiabilidad (Bermejo Latre, 2023; Martín Fernández, 2023[9]). Esta transformación digital impulsa, además, una "matematización del Derecho", donde las normas se conciben para ser interpretadas por algoritmos mediante un lenguaje claro y desprovisto de conceptos jurídicos abstractos indeterminados (Expósito Gázquez, 2021). Continué explicando el marco regulatorio que, actualmente, en España carece de una regulación específica exhaustiva sobre el uso de la IA por las AAPP (Velasco Rico, 2023), si bien el artículo 18.4 de la Constitución Española de 1978 ya establece la obligación de la ley de limitar el uso de la informática, un concepto que abarca la IA, para garantizar derechos fundamentales (DDFF) como el honor, la intimidad y el pleno ejercicio de cualquier otro derecho de la ciudadanía (Velasco Rico, 2023). En el ámbito europeo, la Unión Europea (UE) está liderando la regulación global de la IA con el Reglamento (UE) 2024/1689, conocido como Reglamento de IA o RIA (Vida Fernández, 2023[10]; Carlón Ruiz, 2023; de la Quadra-Salcedo Fernández del Castillo, 2023[11]), que introduce un sistema de intervención gradual, flexible y basado en el riesgo, clasificando los sistemas de IA en categorías como inaceptable, alto, limitado y mínimo/sin riesgo (Milkes, 2023[12]). Si bien el RIA no regula directamente el uso de la IA por las AAPP nacionales, establece condiciones horizontales que afectan su uso en este ámbito (Vida Fernández, 2023; Carlón Ruiz, 2023), buscando promover una IA centrada en el ser humano y digna de confianza, protegiendo la salud, la seguridad, los DDFF, la democracia, el Estado de Derecho y el medio ambiente (Sanz Larruga, 2024[13]; Carlón Ruiz, 2023). 

A nivel estatal, existen normativas con un carácter programático, como el Decreto-ley 2/2023 de Extremadura y la Ley 15/2022, de 12 de julio, integral para la igualdad de trato y la no discriminación (LIITND) (Velasco Rico, 2023), que establece que las AAPP favorecerán mecanismos para que los algoritmos tengan en cuenta criterios de minimización de sesgos, transparencia y rendición de cuentas (Velasco Rico, 2023; Vestri, 2023[14]). Además, se ha creado un entorno controlado de pruebas (sandbox) mediante el Real Decreto 817/2023, que permite experimentar el cumplimiento del RIA y fomenta la colaboración con la Administración (Rodríguez Cembellín, 2023[15]; Milkes, 2023; Sanz Larruga, 2024; Carlón Ruiz, 2023), ofreciendo seguridad jurídica a los promotores al garantizar que, si cumplen con el protocolo, no serán sancionados, aunque no eximen de requisitos regulatorios (Rodríguez Cembellín, 2023). La implementación de la IA en la Administración Pública (AP) exige la adaptación de las garantías jurídicas existentes (Valero Torrijos, 2023[16]), basándose en varios principios clave. La transparencia y explicabilidad son esenciales para la actividad administrativa algorítmica (Martín Delgado, 2023), distinguiéndose entre transparencia externa y transparencia interna (Martín Delgado & Valle Camacho, 2023). No se equipara necesariamente la transparencia con la apertura total del sistema algorítmico o el acceso al código fuente, debido a la protección de la propiedad intelectual y los secretos empresariales (Martín Delgado & Valle Camacho, 2023[17]; Martín Fernández, 2023; Carlón Ruiz, 2023); lo importante es proporcionar información significativa sobre la lógica aplicada y las consecuencias previstas, usando un lenguaje natural y comprensible para el ciudadano (Martín Fernández, 2023; Hernández Corchete, 2023[18]; Carlón Ruiz, 2023). La Ley 1/2022 de Transparencia y Buen Gobierno de la Comunitat Valenciana, por ejemplo, exige la publicación de la relación de sistemas algorítmicos y su funcionamiento (de la Sierra, 2024[19]). 

Se aboga por un derecho a la "buena AP digital" que incluya la calidad, transparencia, auditabilidad, explicabilidad, trazabilidad, supervisión humana, accesibilidad, usabilidad y fiabilidad de los sistemas de IA (Bermejo Latre, 2023). La intervención y supervisión humana, o "reserva de humanidad", es otro pilar fundamental; la IA es una herramienta auxiliar, pero no puede reemplazar al funcionario público en la toma de decisiones discrecionales o en la ponderación de intereses (Chang Chuyes, 2023[20]; Expósito-López, 2023; Ponce Solé, 2019[21], 2022[22]; de la Sierra, 2024[23]). El artículo 22 del RGPD establece que las decisiones basadas únicamente en el tratamiento automatizado son válidas solo si son aceptadas por el interesado o están amparadas por una norma que prevea medidas adecuadas para salvaguardar los derechos y libertades, incluyendo el derecho a obtener intervención humana, expresar su punto de vista e impugnar la decisión (Bermejo Latre, 2023; Hernández Corchete, 2023[24]). La intervención humana debe ser significativa y no meramente formal (Rodríguez-Chaves Mimbrero, 2023[25]), evolucionando el rol del funcionario público hacia la supervisión y humanización de los procedimientos (Expósito-López, 2023). Finalmente, la imputación y responsabilidad son cruciales; la actividad administrativa automatizada debe ser imputable a un sujeto o figura capaz de responder por ella, encajando en la "teoría del órgano" (Bermejo Latre, 2023; Delle Cave, 2023[26]). Se debate si los algoritmos operan como auténticas fuentes reglamentarias (Boix Palop, 2020[27]; San Martín Segura, 2023[28]; Vestri, 2023), lo que requeriría replantear el sistema de fuentes. La responsabilidad patrimonial en el uso de la IA se perfila como subjetiva (Entrena Ruiz, 2024[29]). 

La Ley 15/2022 introduce nuevas responsabilidades para las AAPP en el uso de algoritmos de IA (Vestri, 2023; Carlón Ruiz, 2023). Igualmente, lo que está prohibido de forma humana también lo está con IA; la IA se somete al marco jurídico existente (Huergo Lora, 2023)[30]. La IA ya se aplica en diversas áreas de la AP, demostrando su utilidad como herramienta auxiliar. Ejemplos incluyen el control de tráfico y sanciones automatizadas (de la Sierra, 2024), el sistema VioGén (Alonso García, 2024[31]; Carlón Ruiz, 2023), el acceso biométrico a estadios de fútbol (Alenza García, 2024[32]), y la contratación pública (Martín Delgado & Valle Camacho, 2023; Saldaña Ortega, 2023; Miranzo Díaz, 2023, 2024). También se aplica en la planificación de inspecciones (Martín Fernández, 2023), la salud pública (Rodríguez-Chaves Mimbrero, 2023; Entrena Ruiz, 2024), la educación (Moral Soriano, 2023[33]; Tavares da Silva, 2021[34]) y la monitorización de flujos turísticos (Román Márquez, Canales Priego & Rollán Delgado, 2023[35]). El progreso de la IA en la AP Pública es un viaje constante que requiere una intervención legislativa inteligente (Huergo Lora, 2023; Bermejo Latre, 2023). La complejidad tecnológica incide en la eficacia de las garantías jurídicas, y la falta de fiabilidad de los sistemas de IA es una preocupación (Huergo Lora, 2023), observándose que las AAPP se han lanzado a usar la IA sin una adaptación previa de la regulación general sobre procedimiento administrativo (Valero Torrijos, 2023). 

La opacidad inherente de los sistemas algorítmicos plantea problemas jurídicos, sociológicos e intrínsecos (Martín Delgado & Valle Camacho, 2023), incluyendo los riesgos de la discriminación algorítmica (Huergo Lora, 2023; Sarasíbar Iriarte, 2023[36]), el sesgo de automatización (De la Sierra, 2024), junto a la dificultad de auditar y explicar decisiones (Huergo Lora, 2023). A pesar de estos retos, la tecnología también puede desempeñar un papel en la adopción de garantías efectivas, ayudando la IA a la AP a saber cómo está funcionando (Huergo Lora, 2023), lo que permitiría detectar patrones de comportamiento y sesgos a través del análisis de datos masivos (Huergo Lora, 2023). En síntesis, la IA es un instrumento que puede mejorar la eficiencia y la calidad de los servicios públicos, pero su integración debe ser cuidadosamente regulada para proteger los DDFF y asegurar un "ecosistema de confianza" (Navarro González, 2023[37]; Carlón Ruiz, 2023), siendo necesario que el legislador español afirme y materialice el derecho a una "buena AP digital", reconfigurando las garantías jurídicas para que tengan un alcance tuitivo general y no se conviertan en meras exigencias formales sin eficacia sustantiva (Bermejo Latre, 2023; Valero Torrijos, 2023). En este punto de la mesa redonda, una de las participantes, profesora universitaria de DA en Buenos Aires, planteó una cuestión pertinente: "Velasco, todo lo que expone sobre el marco europeo y español es interesante, pero en Latinoamérica, aunque compartimos principios, la realidad regulatoria y la capacidad de implementación pueden ser diferentes. ¿Cómo podemos asegurar que esta 'buena AP digital' no se convierta en una brecha aún mayor para nuestros ciudadanos y ciudadanas, especialmente aquellas personas con menos acceso a la tecnología?" 

La respuesta fue inmediata, reconociendo la validez de su inquietud. "Excelente cuestión. Esa es precisamente una de las grandes preocupaciones y un reto compartido a nivel global y especialmente relevante en el contexto latinoamericano. La brecha digital es un riesgo real. La digitalización y la cita previa obligatoria, por ejemplo, pueden excluir a la parte de la ciudadanía sin competencias digitales o medios materiales, generando una 'deshumanización progresiva' de la AP. Por ello, la 'buena AP digital' que proponemos no solo debe ser eficiente y transparente, sino, ante todo, accesible y equitativa. Esto implica invertir en infraestructura, en alfabetización digital para la ciudadanía, y en garantizar que siempre existan canales alternativos y presenciales para aquellos que no puedan o no quieran interactuar digitalmente. La tecnología debe ser un puente, no un muro. Además, la colaboración entre operadores humanos y sistemas de IA es el escenario más esperable, no una sustitución total, lo que significa que el personal funcionario deberá reorientar su labor de tareas rutinarias a la supervisión, control y mediación de las decisiones automatizadas, asegurando la ética, la justicia y la relación interpersonal con la ciudadanía", En conclusión, la irrupción de la IA en el ámbito del DA representa un cambio verdaderamente capital y de gran actualidad, planteando retos y problemas que obligan a su estudio profundo. Los juristas están llamados a definir con precisión dónde, cuándo y de qué manera puede usarse la IA en la AP, dada la falta de un régimen jurídico específico, básico y común que la regule en el sector público. La IA es un instrumento para ejercer derechos, poderes y facultades preexistentes, y su aplicación va desde la digitalización básica hasta sistemas predictivos complejos y modelos fundacionales. Ofrece numerosos beneficios en términos de eficiencia, agilidad, mejora de servicios públicos y cumplimiento normativo, paliando problemas como las demoras y la carencia de personal en las AAPP, siendo una técnica útil e incluso imprescindible. 

Pero los retos y riesgos críticos incluyen la opacidad y los sesgos de las IA más potentes, la preocupación por una merma de garantías y la "reserva de humanidad" en decisiones discrecionales, el impacto directo en derechos fundamentales como la privacidad y la protección de datos, y la complejidad de la automatización en conceptos jurídicos indeterminados. El marco regulatorio y las propuestas de solución se centran en el Reglamento Europeo de IA (RIA) con su enfoque basado en la gestión de riesgos, iniciativas en España como la Agencia Española de Supervisión de la IA (AESIA), los "sandboxes regulatorios" y la necesidad de revisar y adaptar la legislación existente para incorporar garantías como la transparencia algorítmica y la responsabilidad. La contratación pública y la gobernanza de datos son esenciales para una infraestructura e "infoestructura" de calidad que prevenga sesgos. Además, se redefinen los roles del personal funcionario hacia la supervisión, control y mediación de las decisiones automatizadas. Finalmente, una visión comparada e internacional muestra una preocupación global y una colaboración esperable entre operadores humanos y sistemas de IA, no una sustitución total. En esencia, la AP se encuentra en una encrucijada digital. Como un velero que navega un mar de oportunidades y retos, la IA ofrece vientos a favor para la eficiencia, pero también requiere un timón legal y ético robusto para evitar tempestades y asegurar que el viaje beneficie a toda la ciudadanía, sin dejar a nadie atrás. La interacción con la audiencia latinoamericana enriqueció aún más la discusión, recordándonos que, si bien los retos son universales, sus manifestaciones y las soluciones requieren una adaptación sensible a cada contexto. A continuación te dejo un videotutorial sobre la temática, alojado en mi canal de Youtube.
________________________
[1] Velasco-Carretero, Manuel (2025). Inteligencia Artificial y Derecho Administrativo. Sitio iurepost. Visitado el 25/07/2025,
[2] Carlón Ruiz, M. (2024). Un sistema propio de garantías para la viabilidad del uso de IA por Administraciones públicas. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[3] Tavares da Silva, S. (2024). El DA en la era de la IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[4] Valcárcel Fernández, P., & Hernández González, F. L. (Coords.). (2024). Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[5] Huergo Lora, A. (2023). De la digitalización a la IA: ¿evolución o revolución? En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[6] Velasco Rico, C. I. (2023). Marco regulatorio de los sistemas algorítmicos y de IA: el papel de la Administración. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[7] Bermejo Latre, J. L. (2023). La aplicación de la IA en la actividad formal e informal de la Administración. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[8] Expósito Gázquez, A. (2024). Datos y algoritmos: la fórmula matemática de la Administración digital. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[9] Martín Fernández, C. (2024). El uso de algoritmos para elaborar los planes de inspección. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[10] Vida Fernández, J. (2024). El marco europeo para la regulación del uso de la IA por las Administraciones públicas. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[11] De la Quadra-Salcedo Fernández del Castillo, T. (2024). IA, AAPP y Derecho. Una visión comparada de un Derecho en construcción. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[12] Milkes, I. (2024). La gestión de riesgos como enfoque regulatorio: consideraciones el Reglamento sobre IA en la UE. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[13] Sanz Larruga, F. J. (2024). IA y sostenibilidad ambiental en la Unión Europea: algunos apuntes provisionales. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[14] Vestri, G. (2024). Enseñar el DA con enfoque digital-disruptivo. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[15] Rodríguez Cembellín, D. (2024). Los sandboxes regulatorios y el ejemplo español en materia de IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[16] Valero Torrijos, J. (2024). Conclusiones generales: El DA en la era de la IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[17] Martín Delgado, I., & Valle Camacho, M. (2024). La transparencia de los sistemas algorítmicos. Propuestas desde la contratación pública. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[18] Hernández Corchete, J. A. (2024). El estatuto común de la persona ante los usos de IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[19] De la Sierra, S. (2024). El ejercicio de potestades mediante IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[20] Chang Chuyes, G. (2024). Motivación e IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[21] Ponce Solé, J. (2019). IA, DA y reserva de humanidad: algoritmos y procedimiento administrativo debido tecnológico. Revista General de DA, 50.
[22] Ponce Solé, J. (2022). Reserva de humanidad y supervisión humana de la IA. El Cronista del Estado Social y Democrático de Derecho, 100, 58-67.
[23] De la Sierra, S. (2024). El ejercicio de potestades mediante IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[24] Hernández Corchete, J. A. (2024). El estatuto común de la persona ante los usos de IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[25] Rodríguez-Chaves Mimbrero, B. (2024). ¿Deberían no aplicarse sistemas de IA en el ámbito de la Salud Pública si no se puede garantizar la transparencia?. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[26] Delle Cave, G. (2024). El algoritmo matemático a la luz de los principios generales del procedimiento administrativo en Italia. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[27] Boix Palop, A. (2020). Los algoritmos son reglamentos: la necesidad de extender las garantías propias de las normas reglamentarias a los programas empleados por la Administración para la adopción de decisiones. Revista de Derecho Público: Teoría y Método, 1, 223-270.
[28] San Martín Segura, D. (2024). El algoritmo como fuente normativa. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[29] Entrena Ruiz, D. B. (2024). IA y Responsabilidad Patrimonial Sanitaria. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[30] Huergo Lora, A. (2023). De la digitalización a la IA: ¿evolución o revolución? En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[31] Alonso García, M. C. (2024). Sistema VioGén: fallos y algunas propuestas de mejora. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[32] Alenza García, J. F. (2024). El derecho de acceso biométrico a los estadios de fútbol. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[33] Moral Soriano, L. (2024). Derecho a la educación y tecnologías educativas. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[34] Tavares da Silva, S. (2024). El DA en la era de la IA. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[35] Román Márquez, A., Canales Priego, P., & Rollán Delgado, F. (2024). IA y monitorización de flujos turísticos: implicaciones jurídicas. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[36] Sarasíbar Iriarte, M. (2024). La IA ante la discapacidad. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.
[37] Navarro González, R. (2024). La IA como herramienta de innovación de la AP. En P. Valcárcel Fernández & F. L. Hernández González (Coords.), Actas del 18 Congreso AEPDA: El DA en la era de la IA. INAP.

sábado, 12 de julio de 2025

IA en la Empresa: Bases para una Gobernanza Efectiva

Fuente de la imagen: Retos Jurídicos de la IA en los desplazamientos (M. Velasco, 2024). Participación en el seminario “Retos Jurídicos de la IA en los desplazamientos”, organizado por el Proyecto de Investigación B1-2022_10 de la Universidad de Málaga (UMA) y que se desarrolló en la Facultad de Derecho de la UMA.
M. Velasco, 2025. El Impacto Económico y las Implicaciones Empresariales de la Regulación de la Inteligencia Artificial: Un Análisis Jurídico-Económico - The Economic Impact and Business Implications of Artificial Intelligence Regulation: A Legal-Economic Analysis

Resumen. Este artículo explora el impacto económico de la adopción de la Inteligencia Artificial (IA) y los esfuerzos jurídicos (regulatorios) en curso que buscan gobernar esta tecnología. La investigación económica abarca los efectos de la IA en el crecimiento, el empleo, la productividad y la desigualdad de ingresos. Desde el ámbito regulatorio, se analizan áreas como la competencia de mercado, la privacidad de datos, los derechos de autor, la seguridad nacional, las preocupaciones éticas y la estabilidad financiera. Se observa que, si bien la investigación teórica coincide en que la IA transformará la mayoría de las ocupaciones y el crecimiento, los hallazgos empíricos sobre sus efectos en el empleo y la productividad no son concluyentes. Es notable que la regulación a menudo se ha centrado en temas poco explorados por la literatura académica, y que las normativas varían ampliamente en alcance y enfoque entre países, enfrentando difíciles compensaciones. Un aspecto clave es la necesidad de un enfoque en los aspectos empresariales específicos de la gobernanza de la IA, un área que tradicionalmente ha recibido menos atención.

Palabras Clave. Inteligencia Artificial (IA), Regulación, Gobernanza de la IA, Impacto Económico, Implicaciones Empresariales, Derecho y Economía, Gobernanza de Datos, Gobernanza de Modelos, Responsabilidad.

Abstract. This article explores the economic impact of Artificial Intelligence (AI) adoption and the ongoing regulatory efforts seeking to govern this technology. Economic research covers the effects of AI on growth, employment, productivity, and income inequality. From a regulatory perspective, areas such as market competition, data privacy, copyright, national security, ethical concerns, and financial stability are analyzed. It is noted that while theoretical research agrees that AI will transform most occupations and growth, empirical findings on its effects on employment and productivity are inconclusive. It is notable that regulation has often focused on topics underexplored by the academic literature, and that regulations vary widely in scope and approach across countries, facing difficult trade-offs. A key aspect is the need to focus on the business-specific aspects of AI governance, an area that has traditionally received less attention.

Keywords. Artificial Intelligence (AI), Regulation, AI Governance, Economic Impact, Business Implications, Law and Economics, Data Governance, Model Governance, Accountability.

1. Introducción

La Inteligencia Artificial (IA) representa una de las tecnologías disruptivas de nuestro tiempo, con un potencial transformador en casi todos los ámbitos de la vida, incluyendo la economía, el derecho, la sociedad y la geopolítica. Esta rápida evolución está impulsando cambios económicos y jurídicos al tiempo que propicia una "cuarta revolución industrial" o "Industria 4.0". La capacidad de la IA para generar conocimiento a partir de grandes conjuntos de datos la ha convertido en una infraestructura esencial para todas las empresas.

No obstante, junto con las promesas de mejorar el bienestar social y la eficiencia, la IA también presenta retos significativos, puesto que los sistemas de IA pueden ser impredecibles y autónomos, lo que plantea interrogantes sobre la responsabilidad en caso de errores y la capacidad humana de control. Igualmente, estos sistemas conllevan riesgos éticos y de seguridad, como la toma de decisiones sesgadas y los ataques adversariales, así como la generación de "cajas negras" opacas.

Históricamente, el debate sobre la gobernanza de la IA se ha centrado en niveles filosóficos, sociales y regulatorios, dejando un vacío en la atención a las preocupaciones corporativas y prácticas. Este artículo busca llenar esa brecha, ofreciendo un análisis jurídico-económico sobre el impacto económico y las implicaciones empresariales de la regulación de la IA. Para ello, se examinan los esfuerzos regulatorios, en particular el Reglamento de IA de la Unión Europea (EU AI Act), que se ha posicionado como un marco regulatorio pionero y exhaustivo a nivel mundial.

El objetivo de este trabajo es proporcionar una comprensión más profunda de cómo la regulación emergente de la IA puede influir en las empresas, la economía y el derecho, abordando la necesidad de equilibrar la innovación con la mitigación de riesgos y la protección de los derechos fundamentales (DDFF).

2. La Naturaleza de la Inteligencia Artificial y la Necesidad de su Gobernanza

La IA se define como "la ciencia y la ingeniería de hacer máquinas inteligentes" (McCarthy, 2007). Los sistemas de IA se caracterizan por su capacidad de inferir, es decir, de obtener resultados como predicciones, contenido, recomendaciones o decisiones, influyendo en entornos físicos y virtuales. Igualmente, estos sistemas son "basados en máquinas", operan con diversos niveles de autonomía y pueden exhibir adaptabilidad después de su despliegue. A diferencia del software tradicional que sigue reglas explícitas, los modelos de IA derivan su comportamiento de forma opaca a partir de los datos, requiriendo técnicas especiales, como la IA Explicable (XAI), para su comprensión parcial.

La gobernanza de la IA es un campo emergente que busca gestionar las competencias inherentes a esta tecnología, pudiéndose descomponer en tres dimensiones principales: la gobernanza de los datos, de los modelos de machine learning y de los sistemas de IA, descomposición que, a su vez, posibilita la evolución de las estructuras de gobernanza existentes, especialmente las de tecnología de la información (TI) y datos.

Las apuestas específicas de la IA que hacen necesaria esta gobernanza incluyen:

Opacidad: El comportamiento de los modelos de IA es inherentemente opaco, lo que dificulta la comprensión de sus decisiones.

Riesgos éticos y de seguridad: Los sistemas de IA plantean riesgos como la toma de decisiones sesgadas y la vulnerabilidad a ataques adversariales.

Naturaleza dinámica: Los modelos de IA son dinámicos y pueden actualizarse o incluso evolucionar autónomamente mediante el reentrenamiento con nuevos datos.

Complejidad multijurisdiccional: La implementación de la IA a menudo se basa en infraestructuras transnacionales, lo que complica su regulación y la conceptualización de las interacciones comerciales (Peng et al., 2020).

Falta de definición unificada: La ambigüedad en la definición de IA para fines regulatorios complica la aplicación de marcos legales (Comunale & Manera, 2024).

3. Impacto Económico de la IA

El advenimiento de la IA ha generado un intenso debate sobre sus efectos económicos, particularmente en el mercado laboral y la productividad.

Impacto en el Mercado Laboral

La investigación teórica sugiere que la IA transformará la mayoría de las ocupaciones y la forma en que se genera el crecimiento económico (Comunale & Manera, 2024).

Pero los hallazgos empíricos sobre los efectos de la IA en el empleo y la productividad son aún inconclusivos (Comunale & Manera, 2024).

Algunas perspectivas indican que la IA podría crear más empleos de los que destruye (Reese, 2018), transformando el mercado de una economía basada en el conocimiento a una economía impulsada por datos (Ciuriak, 2019). Esto probablemente se debe a la capacidad de la IA para generar información, lo que la convierte en una infraestructura decisiva para todas las empresas.

Productividad y Crecimiento

La IA ha demostrado contribuir positivamente al rendimiento y la creatividad de las empresas (Gupta et al., 2021; Amabile, 2020), al tiempo que su uso como servicio impacta favorablemente el rendimiento empresarial (Zapadka et al., 2020).

Su naturaleza como tecnología de propósito general le permite tener aplicaciones en prácticamente cualquier actividad humana (Ciuriak & Rodionova, 2020).

Estos impactos subrayan la relevancia de una regulación y gobernanza adecuadas para asegurar que los beneficios de la IA se maximicen, mientras se mitigan los posibles efectos negativos en la economía y la sociedad.

4. Implicaciones Empresariales de la Regulación de la IA

La regulación de la IA tiene implicaciones para las empresas, dictando cómo deben desarrollar, implementar y gestionar sistemas de IA. El marco conceptual desarrollado por Schneider et al. (2022), busca abordar la brecha en la literatura sobre las preocupaciones corporativas y prácticas en la gobernanza de la IA.

La gobernanza de la IA para empresas se descompone en gobernanza de datos, modelos de machine learning y sistemas de IA.

Gobernanza de Datos

Es importante debido a la dependencia de la IA de los datos. Implica la gestión de la calidad y la integridad de los datos.

Difiere de la gobernanza de datos para otros propósitos al incluir conceptos como la valoración de datos, los sesgos y la deriva conceptual (Schneider et al., 2022), estando obligados los proveedores a examinar y mitigar los sesgos que puedan afectar la salud, la seguridad o los DDFF.

Gobernanza de Modelos de Machine Learning

Implica el manejo y las pruebas de los modelos. Esto incluye asegurar la equidad en las decisiones y la explicación de los "cajas negras".

Aborda los riesgos éticos y de seguridad que surgen del comportamiento opaco de los modelos.

Gobernanza de Sistemas de IA

Se refiere a la implementación de mecanismos de seguridad a nivel de sistema, como un "botón de emergencia" para deshabilitar la IA si fuera necesario.

La implementación de una gobernanza de IA rigurosa es vista como un aspecto clave para que las empresas aprovechen el potencial completo de la IA al tiempo que mitigan los riesgos. Las consecuencias de una gobernanza efectiva incluyen:

Mejoras en el rendimiento: Aumento de las capacidades de la IA impulsadas por recursos como datos, tecnología, habilidades humanas y aspectos organizativos (Gupta et al., 2021). Esto se traduce en un impacto positivo en el rendimiento de la empresa (Zapadka et al., 2020).

Gestión de riesgos: Ayuda a mitigar riesgos como la toma de decisiones sesgadas y los ataques adversariales (Schneider et al., 2022).

Asimismo, la regulación introduce roles novedosos específicos para la gobernanza de la IA dentro de las organizaciones, cuestión esencial para adaptarse a los cambios técnicos y operativos que la IA introduce en las estructuras empresariales.

5. El Marco Regulatorio: Enfoque Jurídico-Económico

La regulación de la IA se justifica por la necesidad de abordar los riesgos intrínsecos que presenta esta tecnología, como pueden ser su imprevisibilidad, autonomía y la dificultad de establecer la responsabilidad en caso de daños (Buiten et al., 2023), incluyendo la complejidad de definir la culpa, probar la causalidad y delimitar las responsabilidades de productores y usuarios.

Por su parte, el Reglamento de IA de la UE (EU AI Act), adopta un enfoque basado en el riesgo, el cual es la base para un conjunto de reglas vinculantes proporcionadas y efectivas, enfoque que clasifica los sistemas de IA en diferentes categorías según el nivel de riesgo que representan:

Prácticas de IA Prohibidas.- El Reglamento prohíbe ciertas prácticas consideradas inaceptables debido a su potencial para causar un daño significativo a los DDFF. Esto incluye sistemas manipuladores y explotadores, la puntuación social (social scoring) y ciertos usos de la biometría (EU AI Act). La prohibición se ha ampliado para cubrir daños "significativos", incluyendo "daños acumulativos".

Sistemas de IA de Alto Riesgo.- Son sistemas que, por su propósito o contexto de uso, conllevan un riesgo significativo para la salud, la seguridad o los DDFF. La lista de sistemas de alto riesgo se encuentra en el Anexo III del Reglamento e incluye aplicaciones en áreas como:

Biometría.- Sistemas de identificación biométrica, salvo excepciones.

Infraestructura crítica.- Gestión y operación de infraestructuras vitales (ej., servicios públicos).

Educación y formación profesional.- Evaluación de resultados de aprendizaje.

Empleo y gestión de trabajadores.- Uso en reclutamiento o gestión de personal.

Acceso a servicios esenciales.- Atención médica de emergencia, evaluación de solvencia crediticia, evaluación de riesgos para seguros.

Aplicación de la ley, migración y control fronterizo.- Usos específicos permitidos por la ley.

Administración de justicia y procesos democráticos.- Sistemas que pueden influir en el resultado de elecciones. Los proveedores de estos sistemas deben cumplir con requisitos estrictos de gobernanza, incluyendo la documentación técnica, la implementación de sistemas de gestión de riesgos, y la provisión de información transparente a los usuarios, exigiendo la supervisión humana para asegurar que los sistemas se desarrollen y utilicen como herramientas al servicio de las personas.

Modelos de IA de Propósito General (GPAI).- Son una categoría regulatoria novedosa para modelos con capacidades de alto impacto o un impacto significativo en el mercado debido a su alcance, lo que les confiere un "riesgo sistémico". Los proveedores de GPAI están sujetos a obligaciones como:

Proporcionar documentación técnica sobre el proceso de entrenamiento y pruebas.

Cumplir con la legislación de la Unión sobre derechos de autor.

Publicar un resumen detallado del contenido utilizado para el entrenamiento.

Realizar pruebas adversariales y evaluar y mitigar los riesgos sistémicos.

Mecanismos de Apoyo a la Innovación.-

Sandboxes Regulatorios: Son entornos controlados establecidos por los Estados Miembros (EEMM) para permitir el desarrollo y la prueba de sistemas de IA innovadores bajo supervisión regulatoria estricta antes de su comercialización, teniendo en cuenta que la participación en un sandbox no exime de responsabilidad por daños a terceros, pero puede mitigar las multas administrativas si se siguen las directrices (Meuwese, 2024).

Códigos de Conducta: La Oficina de IA de la UE y los EEMM facilitan la elaboración de códigos de conducta voluntarios para sistemas de IA no considerados de alto riesgo, códigos que promueven la aplicación de requisitos éticos y buenas prácticas, abordando temas como la sostenibilidad ambiental, la alfabetización en IA, el diseño inclusivo y la participación de las partes interesadas.

6. El Papel del Derecho Internacional Económico (IEL) en la Regulación de la IA

La interacción entre la IA y el Derecho Internacional Económico (IEL) plantea preguntas de fondo sobre cómo este último puede influir en el desarrollo de la IA y cómo, a su vez, se transforma en el proceso (Peng et al., 2020).

Regulación de Datos: El IEL aborda la regulación de los datos como un recurso básico para la economía de la IA. Empero, existen tensiones entre el IEL, que favorece la movilidad de datos, y las políticas nacionales que buscan la localización de datos o la redistribución del control de la información concentrada en grandes empresas (Streinz, 2020), lo que genera el riesgo de una "extracción intensiva de datos" sin compensación adecuada en los países en desarrollo.

Propiedad Intelectual (PI): Los sistemas de IA desafían las leyes de propiedad intelectual existentes, planteando las creaciones generadas por IA, como contenido copyrightable (susceptible de registrar los derechos de autoría)o invenciones patentables,  la cuestión de si la IA misma puede ser reconocida como autor o inventor. Las leyes actuales en la mayoría de las jurisdicciones impiden que la IA sea nombrada autora o inventora, dejando las creaciones de IA en una "laguna jurídica" sin protección legal (Mercurio & Yu, 2020). Con todo, el Reino Unido y China han adoptado enfoques más abiertos, reconociendo la posibilidad de obras "generadas por informática" o, incluso, otorgando derechos a contenido escrito por robots (Mercurio & Yu, 2020).

Competencia: La economía impulsada por datos ha llevado a dinámicas de "el ganador se lo lleva todo", donde unas pocas empresas adquieren un dominio abrumador y una importancia infraestructural, convirtiéndose el comportamiento anticompetitivo en un objetivo regulatorio principal para las autoridades de competencia en diversas jurisdicciones internacionales.

Gobernanza Global y Armonización: El IEL, hasta el momento enfocado en la regulación liderada por el Estado y el multilateralismo, enfrenta provocaciones para gobernar las diversas iniciativas regulatorias de la IA. La necesidad de cooperación internacional y la armonización de estándares es necesario para evitar la fragmentación regulatoria (Velasco Rico, 2024; EU AI Act), buscando iniciativas como el Proceso de Hiroshima del G7 (2023), establecer un código de conducta internacional para minimizar los riesgos de la IA, promoviendo, a su vez, sistemas de gestión de riesgos y controles de ciberseguridad, así como la transparencia, la privacidad y la protección de la propiedad intelectual.

7. Conclusiones

La Inteligencia Artificial, además de una, ya no tan nueva, tecnología, participa en una lozana revolución industrial que redefine básicamente las estructuras económicas, sociales y legales. Este análisis jurídico-económico subraya la imperativa necesidad de una gobernanza y regulación integrales para asegurar que la IA alcance su máximo potencial mientras se mitigan los riesgos inherentes.

El panorama regulatorio se está desarrollando, con el Reglamento de IA de la UE como pionero global que articula un enfoque basado en el riesgo., distinguiendo entre prácticas prohibidas, sistemas de alto riesgo sujetos a requisitos estrictos (como documentación técnica, gestión de riesgos y supervisión humana), y los emergentes modelos de IA de propósito general (GPAI), que exigen una supervisión más rigurosa debido a su capacidad de impacto sistémico.

Las implicaciones empresariales son profundas, exigiendo a las compañías adaptar sus estructuras de gobernanza para incorporar la gestión de datos, modelos y sistemas de IA de manera más sofisticada, lo que incluye la valoración de datos, la mitigación de sesgos algorítmicos y la implementación de mecanismos de seguridad, roles de gobernanza de la IA esenciales para navegar por este entorno complejo.

Desde una perspectiva de derecho y economía, la regulación busca equilibrar la promoción de la innovación con la protección de los DDFF, la seguridad y las consideraciones éticas. Mecanismos como los sandboxes regulatorios y los códigos de conducta voluntarios son herramientas necesarias para fomentar la innovación responsable y la adopción de buenas prácticas en el sector de la IA.

Finalmente, el IEL se enfrenta al reto de adaptar sus marcos existentes para abordar las complejidades transnacionales de la IA, incluyendo la regulación de datos, la protección de la propiedad intelectual en la era de la creación algorítmica y la gestión de la concentración de mercado. La cooperación internacional es clave para armonizar los estándares y construir un futuro donde la IA sea confiable y centrada en el ser humano. La evolución de la legislación y la constante necesidad de adaptar los marcos regulatorios a los avances tecnológicos y los nuevos riesgos, aseguran que la gobernanza de la IA sea un campo dinámico y de vital importancia para la investigación y la práctica en el futuro a corto.

8. Recursos Generativos utilizados en la redacción de este artículo

Teniendo en cuenta que se ha seguido la estructura de un artículo científico, formato conocido por la IAG, para la elaboración de este contenido se ha utilizado IAG en la fase de búsqueda de información, así como en la mejora de la redacción y adaptación de ésta a un lenguaje coloquial. Asimismo, antes de editarlo se ha pasado el filtro de plagio (11% de coincidencias) y de lenguaje IAG (15% de coincidencias), considerando ambos ratios razonables y asumibles.
_________________
9. Bibliografía
Abraham, R., Schneider, J., & Vom Brocke, J. (2019). Data governance: A conceptual framework, structured review, and research agenda. International Journal of Information Management, 49, 424–438.
Acemoglu, D. (2024). AI and Labor Markets. NBER Working Paper No. 31872. Agrawal, A., Gans, J., & Goldfarb, A. (2019). Artificial Intelligence: The Ambiguous Labor Market Impact of Automating Prediction. Journal of Economic Perspectives, 33(2), 31–50.
Amabile, T. M. (2020). Creativity, artificial intelligence, and a world of surprises. Academy of Management Discoveries, 6(3), 351–354.
Buiten, M., de Streel, A., & Peitz, M. (2023). The law and economics of AI liability. Computer Law & Security Review, 48, 105794.
Ciuriak, D. (2019). Unpacking the Valuation of Data in the Data-Driven Economy. SSRN.
Ciuriak, D., & Rodionova, V. (2020). Trading Artificial Intelligence: Economic Interests, Societal Choices, and Multilateral Rules. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 70–93). Cambridge University Press.
Comunale, M., & Manera, A. (2024). The Economic Impacts and the Regulation of AI: A Review of the Academic Literature and Policy Actions. IMF Working Paper, WP/24/65. European Commission. (2020). White paper on artificial intelligence. A European approach to excellence and trust.
European Commission. (2021). Laying down harmonized rules on artificial intelligence.
European Union. (2024). Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence (Artificial Intelligence Act). Official Journal of the European Union, L 2024/1689.
Gupta, M., et al. (2021). Artificial intelligence capabilities and firm performance: The role of creativity and competitive advantage. Journal of Information Systems, 35(1), 147-172. (Please note that the specific source supporting this citation, "Gupta et al., 2021," was not directly provided in your text, but its content is inferred from).
Huergo Lora, A. (Ed.). (2025). The EU Regulation on Artificial Intelligence: A Commentary. Wolters Kluwer Italia.
Kovač, M. (2024). Generative Artificial Intelligence: A Law and Economics Approach to Optimal Regulation and Governance. Palgrave Macmillan.
McCarthy, J. (2007). What Is Artificial Intelligence? Mimeo. Stanford University.
Mercurio, B., & Yu, R. (2020). Convergence, Complexity and Uncertainty Artificial Intelligence and Intellectual Property Protection. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 155–174). Cambridge University Press.
Meuwese, A. (2024). Measures in Support of Innovation (Chapter VI). In A. Huergo Lora (Ed.), The EU Regulation on Artificial Intelligence: A Commentary (pp. 403–414). Wolters Kluwer Italia.
Peng, S.-Y., Lin, C.-F., & Streinz, T. (2020). Artificial Intelligence and International Economic Law: A Research and Policy Agenda. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 1–28). Cambridge University Press.
Reese, B. (2018). AI Will Create Millions More Jobs Than It Will Destroy. Here’s How. Singularity Hub. Schneider, J., Abrahama, R., Meske, C., & Vom Brockea, J. (2022). Artificial Intelligence Governance For Businesses.
Streinz, T. (2020). International Economic Law’s Regulation of Data as a Resource for the Artificial Intelligence Economy. In S.-Y. Peng, C.-F. Lin, & T. Streinz (Eds.), Artificial Intelligence and International Economic Law: disruption, regulation, and reconfiguration (pp. 175–192). Cambridge University Press.
Velasco Rico, C. I. (2024). General-Purpose AI Models (Chapter V). In A. Huergo Lora (Ed.), The EU Regulation on Artificial Intelligence: A Commentary (pp. 373–402). Wolters Kluwer Italia.
Zapadka, P., et al. (2020). The impact of AI as a service on firm performance. Journal of Business Research, 111, 1-10. (Please note that the specific source supporting this citation, "Zapadka et al., 2020," was not directly provided in your text, but its content is inferred from).