![]() |
Fuente de la imagen: mvc archivo propio |
Pero no cabe duda de que esta nueva capacidad también plantea desafíos metodológicos importantes: ¿Cómo podemos asegurarnos de que los análisis realizados por una máquina sean objetivos y precisos? ¿Qué papel debe desempeñar la interpretación humana en este proceso? ¿Cómo evitamos que la tecnología se convierta en un filtro que distorsione nuestra percepción del pasado? Uno de los riesgos éticos es la posibilidad de que se perpetúen y amplifiquen los sesgos presentes en los datos con los que se entrenan estas tecnologías, ya que si los conjuntos de códigos que utilizamos para entrenar un modelo de IA generativa o de visión por ordenador reflejan desigualdades sociales o prejuicios culturales, es muy probable que se reproduzcan estos sesgos en sus resultados, lo que puede tener consecuencias muy desagradables en el ámbito de las humanidades, donde el estudio de la diversidad y la representación es básico para comprender la complejidad de la experiencia humana. Pensemos, por ejemplo, en un modelo de IA generativa entrenado para crear retratos de personajes históricos; si se alimenta, principalmente, de retratos de hombres blancos europeos, es muy probable que genere imágenes que reproduzcan el mismo patrón, dejando de lado o marginando a personas de otros géneros y orígenes étnicos. En este caso, la IA estaría repitiendo un sesgo ya existente y, a la par, contribuyendo a que se perciba como algo natural e inmutable. El ejemplo obliga a reflexionar sobre el papel del contexto y la interpretación en el uso de la IA en las humanidades, puesto que, si bien estas tecnologías pueden ser herramientas poderosas para analizar grandes cantidades de información o para formular nuevas hipótesis, no pueden reemplazar la capacidad humana de comprender el significado y el valor de las expresiones culturales
¿O sí? Se acepta la vacilación. El caso es que el contexto histórico, social y cultural en el que se produce una obra de arte, un texto o un acontecimiento es esencial para su interpretación y este contexto no siempre puede ser capturado en su totalidad por un algoritmo ¿Y en un futuro? Es lógica la incertidumbre. Además, la interpretación de los resultados obtenidos con la ayuda de la IA requiere un ejercicio constante de reflexión crítica, por lo que debemos ser conscientes de que nuestras propias perspectivas y experiencias influyen en la forma en que vemos el mundo y que estos sesgos también pueden afectar en el enfoque utilitario de la tecnología. Por lo tanto, es primordial que las investigadoras e investigadores en humanidades no nos limitemos a aceptar los resultados de la IA como verdades objetivas, sino que los analicemos cuidadosamente, los contrastemos con otras fuentes de información y los situemos en un marco teórico que nos permita comprender su significado en toda su complejidad. Propuse algunas líneas de acción que considero cardinales para promover un uso ético y responsable de la IA generativa y la visión por computadora en las humanidades. En primer lugar, es esencial que los modelos de IA que utilizamos sean transparentes y explicables. Necesitamos comprender cómo funcionan estas tecnologías y cómo llegan a sus conclusiones, para poder identificar posibles sesgos y errores, y para comunicar nuestros hallazgos de manera efectiva a otras personas. En segundo lugar, debemos ser conscientes de la importancia de la diversidad en los datos que utilizamos para entrenar nuestros modelos de IA. Esto implica un esfuerzo por recopilar y seleccionar información que refleje la pluralidad de voces y experiencias humanas, evitando así la perpetuación de desigualdades.
En tercer lugar, se requiere un diálogo constante entre investigadoras e investigadores de diferentes disciplinas. La colaboración de humanistas, informáticos, científicos sociales y otros expertos puede enriquecer la comprensión de las implicaciones de estas tecnologías y ayudar a desarrollar enfoques metodológicos más sólidos y éticamente "enjaretados", relación interdisciplinar que puede adoptar muchas formas, desde proyectos de investigación conjuntos hasta la creación de plataformas y recursos compartidos, siendo importante que las humanidades participen activamente en el diseño y desarrollo de las herramientas de IA, aportando su conocimiento sobre la complejidad de la cultura y la sociedad y asegurando que estas herramientas se utilicen de manera que respeten los valores y principios éticos de la disciplina. Tampoco debemos olvidar el necesario fomento de la formación de nuevas generaciones de personas investigadoras que posean conocimiento de las humanidades y sólida comprensión de las tecnologías de IA, lo que implica la creación de programas de estudio y proyectos de investigación que integren ambas áreas, y que preparen al estudiantado para abordar los retos y oportunidades que plantea la IA en el ámbito de las humanidades. Para lograr esto, es necesario que las universidades y centros de investigación desarrollen planes de estudio innovadores, como el certificado de extensión universitaria que estoy realizando, que combinen la formación tradicional en humanidades con la enseñanza de habilidades en programación, análisis de datos e IA, sin olvidar la promoción de la investigación interdisciplinaria, creando espacios donde estudiantado y academia de diferentes áreas puedan colaborar en proyectos que exploren las aplicaciones de la IA en las humanidades.
Más allá de la formación académica, es importante que se promueva una cultura de aprendizaje continuo y actualización profesional entre las investigadoras e investigadores en humanidades. La IA es un campo en constante evolución, por lo que hay que mantenerse al día de los últimos avances y tendencias[3]. También, es importante que las instituciones académicas y las organizaciones profesionales ofrezcan recursos y apoyo a sus miembros para facilitar este proceso de aprendizaje continuo. En ese contexto, las humanidades deberían desarrollar un marco ético sólido para guiar el uso de la IA en la investigación y la enseñanza, que debe basarse en los valores y principios fundamentales de la disciplina, como puede ser el respeto a la dignidad humana, la diversidad cultural, la libertad de pensamiento y la búsqueda de la verdad, teniendo en cuenta las implicaciones sociales más amplias del uso de la IA, incluyendo su potencial para exacerbar las desigualdades existentes o para crear nuevas formas de discriminación. Obviamente, el desarrollo de este marco ético debe ser un proceso participativo y sostenible, que involucre a investigadoras e investigadores de diferentes áreas de las humanidades, así como a otros expertos y a la sociedad en general. ¿Y el establecimiento de mecanismos para garantizar la rendición de cuentas y la transparencia en el uso de la IA? Esto puede implicar la creación de comités de ética o consejos asesores que supervisen el desarrollo y la aplicación de estas tecnologías en la disciplina humanística, que proporcionen orientación y apoyo a la investigación que las utiliza, implicando la adopción de normas y estándares para la documentación y el intercambio de datos y código, lo que facilitaría la replicación y verificación de los resultados de la investigación.
¿Y en términos de financiación y recursos? Puesto que el desarrollo y la implementación de proyectos de investigación que utilizan IA generativa y visión por ordenador a menudo requieren inversiones significativas en hardware, software y experiencia técnica, es perentorio que las instituciones académicas y las agencias de financiación reconozcan el potencial de estas tecnologías para transformar la investigación humanística, proporcionando los recursos necesarios para que las personas investigadoras puedan utilizarlas de manera efectiva y responsable, lo que puede propiciar la creación de nuevos programas de financiación, el establecimiento de centros de investigación especializados y la promoción de colaboraciones entre universidades, empresas y otras organizaciones. ¿Y la participación activa de las humanidades en el debate público sobre el papel de la IA en la sociedad? Larga tradición de reflexión crítica sobre la condición humana, la cultura y la historia se encuentran en la mochila de esta especialidad, estando bien posicionada para aportar perspectivas valiosas a este debate, debiendo comunicar sin modestia los hallazgos y reflexiones a un público amplio, utilizando un lenguaje claro y accesible y participando en discusiones interdisciplinarias con expertos de otros campos[4]. Por último, no hay que olvidar que la IA es solo una herramienta y que su valor depende del uso que se haga de ella, siendo prioritario que quienes trabajen en las humanidades desarrollen una actitud reflexiva y crítica hacia estas tecnologías, cuestionando sus presupuestos, evaluando sus limitaciones y explorando sus implicaciones a largo plazo. El encuentro entre la IA generativa, la visión por ordenador y las humanidades está planteando desde hace unos años provocaciones conmovedoras, abriéndonos a un mundo de oportunidades[5].
____________________
[1] Velasco-Carretero, Manuel (2025). Descubriendo el Secreto Digital de las Humanidades. Sitio visitado el 02/05/2025.
[2] Fuente de la información: trabajo presentado en el marco del I Certificado de Extensión Universitaria en Introducción a las Metodologías de Investigación Digital en el Ámbito de las Humanidades.
[3] Lo que puede implicar la participación en cursos y talleres especializados, la asistencia a conferencias y congresos, y la lectura crítica de la literatura científica más reciente.
[4] Al hacerlo, se contribuye a que la IA se desarrolle y se utilice de una manera que beneficie a toda la humanidad.
[5] Si abordamos este encuentro con responsabilidad ética y rigor metodológico, podremos aprovechar el potencial de estas tecnologías para enriquecer nuestra comprensión del ser humano y su cultura, y para construir un futuro más justo y sostenible para todas las personas.