Fuente de la imagen: mvc archivo propio |
En “Riesgos para los derechos de los usuarios de ChatGPT”[4], enumeraba algunos de los riesgos que la RIPD[5] inventariaba, considerando que este servicio, que brinda respuestas directas a preguntas formuladas por los usuarios[6], puede conllevar riesgos para los derechos y libertades de los usuarios en relación con el tratamiento de sus datos personales, que abarcan aspectos tales como los fundamentos legales para dichos tratamientos, la información que se brinda al usuario, el ejercicio de los derechos reconocidos en las normativas de protección de datos, las posibles transferencias de datos personales a terceros sin contar con el consentimiento de los titulares o el no contar con medidas de control de edad para impedir que menores accedan a su tecnología[7]. A los riesgos anteriores, se añaden otros, como la desinformación, pues las respuestas generadas están basadas en el conocimiento obtenido de cantidades masivas de datos de Internet. Es decir, ChatGPT no tiene conocimientos o experiencia en un dominio específico, por lo que la precisión y profundidad de la respuesta puede variar en cada caso, o generar respuestas con sesgos culturales, raciales o de género, así como falsas.
Ante esta situación, las autoridades que componen la RIPD se han propuesto iniciar una labor de supervisión sobre dicho servicio en el ejercicio de sus competencias y coordinarán sus acciones en el marco de la Red por primera vez en su historia. En tanto esta acción que se lleva a cabo sobre el servicio Chat no concluya y se despejen los posibles riesgos citados, se recomienda a los usuarios que consulten la política de privacidad asociada al servicio que quieren utilizar, valoren la conveniencia de aportar sus datos personales, incluidas las propias consultas que realicen, tomen con cautela la información que el servicio les suministra[8] y hagan uso de los derechos que las normativas de protección de datos les reconocen. En “El ChatGPT investigado por la AEPD”[9] recogía el inicio de oficio de actuaciones previas de investigación por parte de la AEPD[10], a la empresa estadounidense OpenAI, propietaria del servicio ChatGPT, por un posible incumplimiento de la normativa. Lo anterior no solo no me despeja mis dudas en el uso de la aplicación en investigación en general y en el caso específico del turismo, sino que se acrecientan.
R. Nautiyal y otros[11] recogen doctrina con la que me alineo. Por ejemplo, que la herramienta puede generar “información engañosa”[12] o que no es neutral en lo político[13]. Y en lo que al plagio se refiere, algunos investigadores van más allá, en el sentido de “revisar la política de mala conducta académica”[14], mientras que otros pasan tres pueblos de esas “preocupaciones” y abrazan esta tecnología[15]. En mi opinión, en el momento que cualquier redactor o generador de contenidos, sea “humano o máquina”, no respeta las reglas de la propiedad intelectual, copiando a diestro y siniestro, tuneando las “ideas ajenas” mediante transformaciones algorítmicas... está “plagiando en toda regla” y si llegado el caso, como apunta Cassidy[16], “puede ser imposible probar el plagio relacionado con el modelo de lenguaje a gran escala”, debería ser rechazado de plano por toda la comunidad científica hasta tanto no se superen esos indudables quiebros de las reglas antiplagio. En cuanto a la coautoría, dependerá de la aportación genuina de la aplicación al texto o creación original de la que ha partido o se ha basado. Concluyo: hasta que no se encuentren claras las reglas relativas a la especificación de las fuentes bibliográficas o de otro tipo así como todo lo relativo al plagio, no se debería contemplar el uso de los resultados de esta Inteligencia Artificial en la investigación doctoral.
____________________________
[1] Velasco Carretero, Manuel. Inteligencia Artificial, Protección Datos y Valores. 2020. Sitio visitado el 08/08/2023.
[2] Wojciech Wiewiórowski, Artificial Intelligence, data and our values – on the path to the EU’s digital future. European Data Protección Supervisor (EDPS). 2020. Sitio visitado el 08/08/2023.
[3] Así como su apetito por los datos.
[4] Velasco Carretero, Manuel. Riesgos para los derechos de los usuarios de ChatGPT. 2023. Sitio visitado el 08/08/2023.
[5] Red Iberoamericana de Protección de Datos. Foro regional constituida por 16 autoridades de protección de datos de 12 países de la región, cuyo objetivo es promover y garantizar el derecho fundamental a la protección de datos personales.
[6] Desarrollado por la empresa Open AI, L.L.C.
[7] Así como no saber si cuenta con adecuadas medidas de seguridad para la protección y confidencialidad de los datos personales recabados.
[8] Ojo con los derechos de propiedad intelectual de terceros.
[9] Velasco Carretero, Manuel. El ChatGPT investigado por la AEPD. 2023. Sitio visitado el 08/08/2023.
[10] Agencia Española de Protección de Datos.
[11] Rajesh Nautiyal, Julia N. Albrecht, Ashish Nautiyal. ChatGPT and tourism academia. Department of Tourism, University of Otago, Dunedin, New Zealand Ed. Scott McCabe. 2023.
[12] Susnjak, T. ChatGPT: The end of online exam integrity? arXiv. 2022.
[13] Hartmann, J., Schwenzow, J., &Witte,M. The political ideology of conversational AI: Converging evidence on ChatGPT's pro-environmental, left-libertarian orientation. arXiv. 2023.
[14] Black, B. Transdisciplinary UCalgary team investigates ethical use of AI in post-secondary. University of Calgary January 9. 2023.
[15] O'Connor, S., & ChatGPT. Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse? Nurse Education in Practice, 66. 2023.
[16] Cassidy, C. College student claims app can detect essays written by chatbot ChatGPT. The Guardian. January 11.2023.