martes, 8 de agosto de 2023

¿Es ético el uso de ChatGPT en investigación doctoral?

Fuente de la imagen: mvc archivo propio
Interesante debate en el que participé en la tarde del lunes, acerca de ChatGPT y su utilización y uso en el sector turismo, incluida la investigación. Si eres follower de este sitio sabes que tengo mis reservas sobre esta aplicación. En “Inteligencia Artificial, Protección Datos y Valores[1] me hacía eco de la reflexión del supervisor europeo de protección de datos, Wojciech Wiewiórowski, publicado por la European Data Protection Supervisor (EDPS), bajo el título Artificial Intelligence, data and our values – on the path to the EU’s digital future[2], que traducido es algo así como “Inteligencia artificial, datos y nuestros valores: en el camino hacia el futuro digital de la UE”, donde ofrece lo más destacado de las principales observaciones del EDPS así como los detalles de las evaluaciones en el dictamen del EDPS sobre la estrategia de datos. Las expectativas del creciente uso de la IA y las ventajas económicas relacionadas para quienes controlan las tecnologías[3], han dado lugar a una feroz competencia por el liderazgo tecnológico. Todo eso puede estar muy bien pero cabe preguntarse por qué la aplicación no cita debidamente las fuentes bibliográficas o de otro tipo así como la práctica del antiplagio. Igualmente ¿Es ético el uso de los resultados de esta Inteligencia Artificial en la investigación doctoral?

En “Riesgos para los derechos de los usuarios de ChatGPT[4], enumeraba algunos de los riesgos que la RIPD[5] inventariaba, considerando que este servicio, que brinda respuestas directas a preguntas formuladas por los usuarios[6], puede conllevar riesgos para los derechos y libertades de los usuarios en relación con el tratamiento de sus datos personales, que abarcan aspectos tales como los fundamentos legales para dichos tratamientos, la información que se brinda al usuario, el ejercicio de los derechos reconocidos en las normativas de protección de datos, las posibles transferencias de datos personales a terceros sin contar con el consentimiento de los titulares o el no contar con medidas de control de edad para impedir que menores accedan a su tecnología[7]. A los riesgos anteriores, se añaden otros, como la desinformación, pues las respuestas generadas están basadas en el conocimiento obtenido de cantidades masivas de datos de Internet. Es decir, ChatGPT no tiene conocimientos o experiencia en un dominio específico, por lo que la precisión y profundidad de la respuesta puede variar en cada caso, o generar respuestas con sesgos culturales, raciales o de género, así como falsas. 

Ante esta situación, las autoridades que componen la RIPD se han propuesto iniciar una labor de supervisión sobre dicho servicio en el ejercicio de sus competencias y coordinarán sus acciones en el marco de la Red por primera vez en su historia. En tanto esta acción que se lleva a cabo sobre el servicio Chat no concluya y se despejen los posibles riesgos citados, se recomienda a los usuarios que consulten la política de privacidad asociada al servicio que quieren utilizar, valoren la conveniencia de aportar sus datos personales, incluidas las propias consultas que realicen, tomen con cautela la información que el servicio les suministra[8] y hagan uso de los derechos que las normativas de protección de datos les reconocen. En “El ChatGPT investigado por la AEPD[9] recogía el inicio de oficio de actuaciones previas de investigación por parte de la AEPD[10], a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa. Lo anterior no solo no me despeja mis dudas en el uso de la aplicación en investigación en general y en el caso específico del turismo, sino que se acrecientan. 

R. Nautiyal y otros[11] recogen doctrina con la que me alineo. Por ejemplo, que la herramienta puede generar “información engañosa”[12] o que no es neutral en lo político[13]. Y en lo que al plagio se refiere, algunos investigadores van más allá, en el sentido de “revisar la política de mala conducta académica”[14], mientras que otros pasan tres pueblos de esas “preocupaciones” y abrazan esta tecnología[15]. En mi opinión, en el momento que cualquier redactor o generador de contenidos, sea “humano o máquina”, no respeta las reglas de la propiedad intelectual, copiando a diestro y siniestro, tuneando las “ideas ajenas” mediante transformaciones algorítmicas... está “plagiando en toda regla” y si llegado el caso, como apunta Cassidy[16], “puede ser imposible probar el plagio relacionado con el modelo de lenguaje a gran escala”, debería ser rechazado de plano por toda la comunidad científica hasta tanto no se superen esos indudables quiebros de las reglas antiplagio. En cuanto a la coautoría, dependerá de la aportación genuina de la aplicación al texto o creación original de la que ha partido o se ha basado. Concluyo: hasta que no se encuentren claras las reglas relativas a la especificación de las fuentes bibliográficas o de otro tipo así como todo lo relativo al plagio, no se debería contemplar el uso de los resultados de esta Inteligencia Artificial en la investigación doctoral.
____________________________
[1] Velasco Carretero, Manuel. Inteligencia Artificial, Protección Datos y Valores. 2020. Sitio visitado el 08/08/2023.
[2] Wojciech Wiewiórowski, Artificial Intelligence, data and our values – on the path to the EU’s digital future. European Data Protección Supervisor (EDPS). 2020. Sitio visitado el 08/08/2023.
[3] Así como su apetito por los datos.
[4] Velasco Carretero, Manuel. Riesgos para los derechos de los usuarios de ChatGPT. 2023. Sitio visitado el 08/08/2023.
[5] Red Iberoamericana de Protección de Datos. Foro regional constituida por 16 autoridades de protección de datos de 12 países de la región, cuyo objetivo es promover y garantizar el derecho fundamental a la protección de datos personales.
[6] Desarrollado por la empresa Open AI, L.L.C.
[7] Así como no saber si cuenta con adecuadas medidas de seguridad para la protección y confidencialidad de los datos personales recabados.
[8] Ojo con los derechos de propiedad intelectual de terceros.
[9] Velasco Carretero, Manuel. El ChatGPT investigado por la AEPD. 2023. Sitio visitado el 08/08/2023.
[10] Agencia Española de Protección de Datos.
[11] Rajesh Nautiyal, Julia N. Albrecht, Ashish Nautiyal. ChatGPT and tourism academia. Department of Tourism, University of Otago, Dunedin, New Zealand Ed. Scott McCabe. 2023.
[12] Susnjak, T. ChatGPT: The end of online exam integrity? arXiv. 2022.
[13] Hartmann, J., Schwenzow, J., &Witte,M. The political ideology of conversational AI: Converging evidence on ChatGPT's pro-environmental, left-libertarian orientation. arXiv. 2023.
[14] Black, B. Transdisciplinary UCalgary team investigates ethical use of AI in post-secondary. University of Calgary January 9. 2023.
[15] O'Connor, S., & ChatGPT. Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Education in Practice, 66. 2023.
[16] Cassidy, C. College student claims app can detect essays written by chatbot ChatGPT. The Guardian. January 11.2023.