miércoles, 29 de abril de 2026

Inteligencia Artificial Generativa: Oportunidad y Riesgo

Fuente de la imagen: captura de pantalla búsqueda perfil en IA Google
La Inteligencia Artificial Generativa (IAG) son algoritmos o modelos que han aprendido de grandes volúmenes de datos existentes para luego crear contenido nuevo, ya sean textos, imágenes, audios, videos o incluso código (M. Velasco, 2025). Esta tecnología exhibe una notable versatilidad y su evolución ha pasado de modelos estadísticos y de aprendizaje (como las Redes Generativas Adversariales o GANs de 2014) a los Grandes Modelos de Lenguaje (LLMs) y Modelos Multimodales, que combinan texto, visión y audio. La IAG tiene el potencial de impulsar la digitalización al automatizar o asistir en una amplia variedad de tareas que tradicionalmente requerían la creatividad y la comprensión humana. Sus oportunidades son vastas: pueden generar documentos formales, crear material de capacitación y simular escenarios complejos para la formación. En el ámbito de la seguridad informática, las IAG pueden ayudar a comprender vulnerabilidades, sugerir configuraciones seguras o detectar contenido no deseado como spam o correos de phishing. Más allá del texto, los generadores de imágenes y videos facilitan la producción de efectos visuales o la creación de prototipos de interfaces de usuario (UI) de forma rápida y sencilla, haciéndolos accesibles incluso para personas sin conocimientos explícitos de diseño gráfico. Un beneficio reside en el fomento del open source (código abierto), que permite que el código, los pesos del modelo y los datos sean inspeccionados y reutilizados por cualquier persona, lo que aumenta la transparencia, impulsa la investigación y democratiza el acceso a herramientas potentes, ayudando a reducir las desigualdades económicas. Además, la naturaleza abierta permite a las comunidades adaptar los modelos a sus idiomas y contextos culturales específicos, cubriendo necesidades que los modelos cerrados, creados principalmente por grandes empresas occidentales, a menudo ignoran.
Fuente de la imagen: IAG: Transformación, Retos y Pensamiento Crítico. Sitio net—post (M. Velasco, 2025)
Pero a pesar de sus beneficios transformadores, la IAG introduce retos técnicos, éticos y sociales que requieren una atención cuidadosa por parte de las autoridades y las empresas. Uno de los riesgos inherentes es la falta de garantía sobre la calidad o la veracidad de las salidas generadas, lo que se conoce comúnmente como "alucinación": la invención de información falsa que es lingüísticamente impecable. En el caso de los generadores de imágenes, esto puede manifestarse en representaciones incorrectas de proporciones o fenómenos físicos. Otro riesgo significativo, especialmente cuando los modelos se ofrecen como servicios en línea, es la falta de confidencialidad de los datos que las personas ingresan, ya que la empresa operadora podría acceder a ellos y utilizarlos para reentrenar el modelo, poniendo en riesgo la privacidad. Además, como la IAG se entrena con enormes conjuntos de datos recogidos de internet, puede reproducir o incluso amplificar sesgos y estereotipos culturales o toxicidad presentes en el material de entrenamiento, lo que lleva a salidas problemáticas o discriminatorias. El desafío más apremiante, sobre todo en contextos educativos y laborales, es el peligro de la dependencia acrítica de estos sistemas. Si las y los estudiantes, o el profesorado y el personal en general, confían en los resultados de la IAG sin aplicar un escrutinio crítico o verificar la información (fenómeno llamado sesgo de automatización), se limita el desarrollo del análisis autónomo y el pensamiento crítico. Para mitigar estos problemas, es necesario que las organizaciones implementen medidas como aumentar la concienciación sobre las fortalezas y debilidades de los modelos, establecer directrices claras de uso ético, y garantizar que la alfabetización digital y ética de la IA se convierta en una competencia transversal, capacitando a todas las personas para cuestionar y validar la información generada. Fuente de las imágenes: mvc archivo propio.
__________________
Referencias
Alt, T., Ibisch, A., Meiser, C., Wilhelm, A., Zimmer, R., Ditz, J., Dresen, D., Droste, C., Karschau, J., Laus, F., Müller, O., Neu, M., Plaga, R., Plesch, C., Sennewald, B., Thaeren, T., Unverricht, K., & Waurick, S. (2025). Generative AI Models: Opportunities and Risks for Industry and Authorities. Federal Office for Information Security.
Eiras, F., Petrov, A., Vidgen, B., Schroeder de Witt, C., Pizzati, F., Elkins, K., Mukhopadhyay, S., Bibi, A., Purewal, A., Csaba, B., Steibel, F., Keshtkar, F., Barez, F., Smith, G., Guadagni, G., Chun, J., Cabot, J., Imperial, J. M., Nolazco-Flores, J. A., Landay, L., Jackson, M., Torr, P. H. S., Darrell, T., Lee, Y. S., & Foerster, J. (2024). Risks and Opportunities of Open-Source Generative AI.
Kumar, R. (2025). A Survey on the Evolving Journey of Generative AI: From Language Models to Multimodal Intelligence. International Research Journal of Modernization in Engineering Technology and Science, 7(12).
Muñoz Martínez, C., Roger-Monzo, V., & Castelló-Sirvent, F. (2025). IA generativa y pensamiento crítico en la educación universitaria a distancia: desafíos y oportunidades. RIED-Revista Iberoamericana de Educación a Distancia, 28(2), 233-273.
Velasco-Carretero, Manuel (2025). IAG: Transformación, Retos y Pensamiento Crítico. Sitio net—post. Visitado el 29/42026.