![]() |
Fuente de la imagen: ¿Es ético el uso de ChatGPT en investigación doctoral? (M. Velasco, 2023) |
Por eso, en los artículos técnicos, desde hace un año estoy incorporando el siguiente apartado: “Recursos Generativos utilizados en la redacción de este artículo. - Teniendo en cuenta que se ha seguido la estructura de un artículo científico, formato conocido por la IAG, para la elaboración de este contenido se ha utilizado IAG en la fase de búsqueda de información, así como en la mejora de la redacción y adaptación de esta redacción a un lenguaje coloquial. Asimismo, antes de editarlo se ha pasado el filtro de plagio (x% de coincidencias) y de lenguaje IAG (y% de coincidencias), considerando ambos ratios razonables y asumibles”. Y es que la IAG, es una tecnología que ha irrumpido con fuerza, con capacidad de cosechar contenido supuestamente nuevo y original, basándose en los datos con los que fue entrenada y siguiendo las instrucciones de los usuarios (Diakopoulos et al., 2024; Shi & Sun, 2024), disparándose su notoriedad a principios de esta década (2022) con la propulsión de instrumentales como ChatGPT, que consiguió cerca de cien millones de usuarios en solo unos meses (Diakopoulos et al., 2024). Pero no pasó mucho tiempo antes de que otras entidades tecnológicas lanzaran sus propias herramientas, como Gemini de Google o Copilot de Microsoft e, incluso, se integrara en programas populares como Adobe Photoshop (Diakopoulos et al., 2024). Si bien las versiones de esta tecnología existen desde 2018, fue en 2022 cuando realmente empezaron a funcionar, propiciando un abanico de opciones para el trabajo y el ocio a la par que forjando serias ansiedades sobre la precisión, el origen de la información y el aumento de la desinformación (Diakopoulos et al., 2024). No cabe duda de que también está transformando rápidamente diversos sectores, y el periodismo, la blogosfera, la generación de contenidos diversos en social media y la investigación científica no son la excepción (AlSamhori & Alnaimat, 2024; Shi & Sun, 2024). En el periodismo, la blogosfera y el social media la IAG ya está cambiando la forma en que se produce y distribuye la información (Shi & Sun, 2024).
Medios de comunicación comenzaron a usar IA a mediados de la penúltima década, para automatizar informes financieros, lo que les permitió ser más eficaces (Shi & Sun, 2024). En esta década, la IAG se utiliza especialmente para creación de contenido textual como titulares, publicaciones para redes sociales, resúmenes o edición de textos (Diakopoulos et al., 2024; Shi & Sun, 2024); contenido multimedia: creación de ilustraciones, videos (Diakopoulos et al., 2024); traducción (Diakopoulos et al., 2024; Shi & Sun, 2024); recopilación de información y análisis de datos: descubrir noticias, investigar, generar ideas y curtir contenido (Diakopoulos et al., 2024; Shi & Sun, 2024). Los periodistas y las organizaciones de noticias tienen la esperanza de expandir su uso en la recopilación de información, el trabajo con datos y la creación de metadatos e, incluso, explorar nuevas experiencias de usuario con chatbots y la personalización (Diakopoulos et al., 2024). La IAG promete ahorrar tiempo y mejorar la eficiencia, permitiendo a los profesionales centrarse en tareas más importantes como la verificación de hechos (Diakopoulos et al., 2024; Shi & Sun, 2024), lo que ha provocado la aparición de nuevos papeles, como "proyectista de prompts", "editor de IA" o "especialista en IA", y un cambio en los flujos de trabajo donde los humanos editan y revisan los resultados de la IA (Diakopoulos et al., 2024). A pesar de los posibles beneficios en eficiencia, algunos usuarios han notado que, a veces, el uso de modelos de IA puede consumir más tiempo del que ahorra debido a problemas de calidad como la falta de precisión o la monotonía del texto generado, y la dificultad para escribir "prompts" efectivos (Diakopoulos et al., 2024). En la investigación científica, la IAG está demostrando ser una herramienta interesante (AlSamhori & Alnaimat, 2024; Vega-Figueroa, 2023), analizando grandes volúmenes de datos para revelar tendencias y patrones que, de otro modo, pasarían desapercibidos (Vega-Figueroa, 2023), abarcando todas las fases del proceso de investigación:
• Planificación y diseño metodológico: La IAG puede generar nuevas hipótesis o preguntas de investigación, y ayudar a diseñar experimentos más eficientes (Vega-Figueroa, 2023). Por ejemplo, podría analizar datos de encuestas y registros médicos para proponer hipótesis sobre la relación entre el consumo de alcohol y el riesgo de cáncer que los investigadores no habían considerado (Vega-Figueroa, 2023). • Trabajo de campo y recolección de datos: La IAG automatiza tareas como la generación de cuestionarios personalizados o la transcripción precisa de entrevistas (Vega-Figueroa, 2023). Inclusive, puede generar datos sintéticos para entrenar modelos de aprendizaje automático, lo cual es útil para crear conjuntos de datos más grandes o diversificados o para obtener información de entornos comprometidos o arcaicos (Vega-Figueroa, 2023). Igualmente, permite crear herramientas de recopilación, como chatbots para entrevistas automatizadas o entornos de realidad virtual (Vega-Figueroa, 2023). • Análisis y elaboración de informes: generar tablas y gráficos, analizar datos de manera eficiente para identificar patrones, y redactar informes de investigación automáticamente (Vega-Figueroa, 2023). Permite crear visualizaciones dinámicas como animaciones y modelos 3D y formatos de informes que combinan texto, imágenes y videos (Vega-Figueroa, 2023). • Comunicación de resultados: Puede producir formatos más atractivos y accesibles, como videos explicativos, animaciones, infografías, o versiones simplificadas y multilingües de textos (Vega-Figueroa, 2023), lo que ayuda a que los hallazgos científicos lleguen a un público más amplio y sean más entendibles (Vega-Figueroa, 2023). No obstante, la integración de la IAG plantea importantes retos éticos en ambos campos (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024; Shi & Sun, 2024), girando las preocupaciones en torno a la falta de supervisión humana, la inexactitud y el sesgo (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024; Shi & Sun, 2024), pudiendo generar información incorrecta o "alucinaciones", lo que hace necesario la verificación por parte de los humanos (Diakopoulos et al., 2024; Shi & Sun, 2024).
Además, los datos con los que se entrenan los modelos de IA pueden contener sesgos sociales relacionados con el género o la raza, que luego son amplificados por la IA en sus resultados (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024; Shi & Sun, 2024). La falta de transparencia sobre el uso de la IAG es otra preocupación, ya que se teme que no se divulgue cuándo se han utilizado estas herramientas (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024). Igualmente, existe el riesgo de reducción de la calidad del contenido, con la preocupación de que el exceso de contenido generado por IA pueda devaluar el trabajo humano en la investigación (Diakopoulos et al., 2024; Shi & Sun, 2024). La originalidad y el plagio son retos característicos, especialmente cuando el contenido generado por IA es indistinguible del creado por humanos, planteando preguntas sobre la autoría y la integridad académica (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024; Shi & Sun, 2024). La privacidad de los datos es importante, ya que muchas aplicaciones de IA recopilan información personal sin consentimiento explícito (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024; Shi & Sun, 2024). Por último, existe una ambivalencia sobre los derechos de autor; la industria de las noticias está dividida sobre si las empresas tecnológicas deberían poder entrenar sus modelos con el contenido de las organizaciones de noticias sin compensación (Diakopoulos et al., 2024; Shi & Sun, 2024). En el abordaje de estos retos, es básico establecer estrategias para un uso responsable (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024; Shi & Sun, 2024), percibiendo en las directrices y los marcos legales un camino a seguir, como el Acta de IA de la UE (Diakopoulos et al., 2024; AlSamhori & Alnaimat, 2024).
La supervisión humana es importante, debiendo ser la IA una herramienta de apoyo, no un sustituto del juicio crítico y la experiencia humana (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024) e invirtiendo las organizaciones en programas de formación y educación para sus equipos de trabajo, enseñándoles las mejores prácticas, cómo interactuar eficazmente con las herramientas (por ejemplo, mediante "prompting") y cómo evaluar sus resultados (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024). También, se necesita una mayor transparencia sobre cómo se utilizan los modelos y sus datos de entrenamiento, y la implementación de pruebas y auditorías internas para asegurar su calidad y detectar sesgos (Diakopoulos et al., 2024). Finalmente, se ha sugerido limitar o prohibir el uso de la IAG para ciertas tareas, como la generación completa de contenido, especialmente en el periodismo, debido a las preocupaciones sobre la fiabilidad y la necesidad del juicio humano (Diakopoulos et al., 2024). En propiedad, la IAG ofrece un futuro más eficiente y nuevas posibilidades tanto en el periodismo, la blogosfera, el social media o la investigación, pero su adopción exige una reflexión y un compromiso con la ética, la transparencia y la supervisión humana (AlSamhori & Alnaimat, 2024; Diakopoulos et al., 2024), encontrándose el quid de la cuestión en alcanzar una ponderación que consienta fructificar los favores de la IAG sin enredar la integridad y los valores fundamentales de estas actividades (AlSamhori & Alnaimat, 2024). Para finalizar, un dato, Teniendo en cuenta que se ha seguido la estructura de un artículo científico, citando a los autores, antes de editarlo se ha pasado el filtro de plagio (bajándolo al 16% de coincidencias) y de lenguaje IAG (19% de coincidencias), considerando ambos ratios razonables y asumibles. Así que uso razonado y razonable de la IAG y "tonterías las justas".
_______________
Bibliografía
AlSamhori, A. R. F., & Alnaimat, F. (2024). Artificial intelligence in writing and research: Ethical implications and best practices. Central Asian Journal of Medical Hypotheses and Ethics, 5(4), 259–268. https://doi.org/10.47316/cajmhe.2024.5.4.02
Diakopoulos, N., Cools, H., Li, C., Helberger, N., Kung, E., & Rinehart, A. (2024). Generative AI in Journalism: The Evolution of Newswork and Ethics in a Generative Information Ecosystem. The Associated Press.
Shi, Y., & Sun, L. (2024). How Generative AI Is Transforming Journalism: Development, Application and Ethics. Journalism and Media, 5(2), 582–594. https://doi.org/10.3390/journalmedia5020039
Vega-Figueroa, E. (2023). Inteligencia Artificial Generativa e Investigación Científica [Presentation]. ResearchGate. https://www.researchgate.net/publication/376202660
[1] Velasco-Carretero, Manuel (2024). Redefiniendo la Creación y la Ética. Sitio net-post. Visitado el 06/08/2025.