La integridad académica frente a la Inteligencia Artificial:

reflexiones y discusiones en torno a la regulación de ChatGPT en el aula de clase

 

Daniel Alejandro Contreras Castro[1]

 

Resumen

Este artículo examina los desafíos éticos surgidos en el ámbito académico debido al uso creciente de la Inteligencia Artificial (IA) en la producción de trabajos estudiantiles. A través de una exhaustiva revisión bibliográfica, se exploran las implicaciones de la automatización en la autenticidad del trabajo académico y se plantean dos enfoques principales para abordar este problema: regulación y prohibición de las IA en las aulas de clase. Se argumenta que, si bien la IA ofrece beneficios en términos de eficiencia y precisión, su uso descontrolado puede socavar la integridad académica al facilitar la copia y el plagio. Se analizan los límites de la autenticidad en la producción académica, destacando la importancia de mantener la originalidad y el pensamiento crítico en el proceso educativo. En cuanto a las soluciones propuestas, se examinan los enfoques regulatorios que buscan establecer pautas claras para el uso ético de la IA en las aulas. El artículo concluye que se debe promover un uso responsable y ético de la tecnología, garantizando que los beneficios tecnológicos se aprovechen sin comprometer la autenticidad y la integridad del conocimiento académico, pues prohibir la IA podría limitar las oportunidades educativas y de investigación.

Palabras clave: inteligencia artificial, integridad académica, producción académica, ChatGPT.

 

Abstract

This article examines the ethical challenges arising in academia due to the increasing use of Artificial Intelligence (AI) in the production of student work. Through a comprehensive literature review, the implications of automation on the authenticity of academic work are explored and two main approaches are put forward to address this issue: regulation and banning of AI in classrooms. It is argued that while AI offers benefits in terms of efficiency and accuracy, its uncontrolled use can undermine academic integrity by facilitating copying and plagiarism. The limits of authenticity in academic production are analyzed, highlighting the importance of maintaining originality and critical thinking in the educational process. As for proposed solutions, regulatory approaches that seek to establish clear guidelines for the ethical use of AI in classrooms are examined. The article concludes that responsible and ethical use of technology must be promoted, ensuring that technological benefits are harnessed without compromising the authenticity and the integrity of academic knowledge, given that banning AI could limit educational and research opportunities.

 

Keywords: artificial intelligence, academic integrity, academic production, ChatGPT.

 

Introducción

La integración de la inteligencia artificial-IA, especialmente representada por herramientas como ChatGPT, en el ámbito académico está transformando la forma en que se realiza la investigación, se enseña y se aprende. Esta revolución tecnológica promete eficiencia y avances significativos en la producción de conocimiento, pero también plantea interrogantes críticos sobre la autenticidad y la ética en la academia.

En primer lugar, la IA como ChatGPT ha demostrado ser una herramienta invaluable para asistir en la redacción, la corrección lingüística y la generación de ideas. Su capacidad para procesar grandes volúmenes de texto y generar respuestas coherentes ha facilitado tareas repetitivas y ha ofrecido nuevas formas de iterar y refinar ideas en entornos académicos. No obstante, esta misma capacidad plantea desafíos significativos, especialmente en términos de veracidad y originalidad. Sin embargo, puede generar contenido que, aunque coherente y bien estructurado, carece de fundamento en hechos reales y puede incluso propagar información errónea si no se supervisa adecuadamente (Sabzalieva y Valentini, 2023; Díaz y Ribera, 2024).

Esto plantea la necesidad urgente que los usuarios, especialmente en contextos académicos, sean conscientes de estas limitaciones y supervisen activamente el trabajo de la IA para garantizar la precisión y la integridad de los resultados. Desde una perspectiva ética, la introducción de la IA en las aulas de clase requiere un marco regulatorio que equilibre la innovación tecnológica con la preservación de estándares académicos rigurosos. La regulación debe abordar no solo la supervisión de la IA en la producción de conocimiento, sino, abarcar a su vez la formación ética y el fomento del pensamiento crítico entre estudiantes y académicos.

Por lo anterior, es esencial que los usuarios comprendan no solo cómo utilizar la IA de manera responsable, sino también cómo mitigar los riesgos asociados, como la generación de contenido inexacto o la dependencia excesiva de la IA en detrimento del pensamiento humano crítico y creativo (Khalil & Er, 2023; Rahimi y Abadi, 2023). La falta de conocimiento específico en dominios particulares y la incapacidad para aplicar sentido lógico en contextos complejos son limitaciones bien documentadas de la IA generativa como ChatGPT (Ji, 2022; Puertas, 2024).

En conclusión, mientras que la IA promete revolucionar la educación y la investigación académica, su implementación como el caso de ChatGPT, debe ser guiada por principios éticos y regulaciones que aseguren su uso responsable y beneficioso. La discusión sobre los límites de la autenticidad en la producción académica frente a la IA no solo es pertinente, sino crucial para garantizar un futuro académico donde la innovación tecnológica y la integridad intelectual coexistan de manera armoniosa. Por otro lado, la prohibición total de la IA en las aulas podría ser contraproducente, limitando las oportunidades de exploración y descubrimiento que estas tecnologías ofrecen. En cambio, una regulación adaptativa y bien diseñada podría facilitar un entorno educativo en el cual la IA se utilice como una herramienta complementaria para mejorar la eficiencia y la calidad del aprendizaje, sin comprometer la originalidad y la integridad académica.

Presentación del caso

Los comienzos del siglo XXI se caracterizan por las transformaciones sociales, culturales, políticas y económicas que han cambiado las dinámicas en la sociedad frente a otras épocas de la humanidad, debido a la influencia y dependencia hacia la tecnología que se ha consolidado en las diferentes dimensiones del ser humano. Ahora, un fenómeno emergente como las inteligencias artificiales-IA parece ser un punto de inflexión que va acrecentar más esta dependencia debido a que se está integrando en las nuevas tecnologías, ambientes digitales y procesamiento de datos de las redes, planteando nuevos dilemas, retos y peligros frente a nuestra identidad digital, la creatividad y la ética (Khalil  &  Er, 2023; Lopezosa, 2023), debido a que éstas son sistemas informáticos que realizan acciones atribuidas antes a la capacidades e inteligencia humana (Ortiz y Buchaca, 2024).

De esta manera, uno de los campos de acción de las inteligencias artifíciales que han generado una mayor influencia en los sectores no especializados es el Procesamiento del Lenguaje Natural-PNL, el cual permite a las computadoras entender y generar lenguaje humano, al utilizar una arquitectura llamada Transformer, que organiza capas de codificación y decodificación para procesar y generar texto. Este modelo es "preentrenado", lo que significa que se ha alimentado con grandes cantidades de datos para aprender patrones lingüísticos. En el año 2022 surgió ChatGPT  como una IA que se fundamenta en el PLN, a partir del entrenamiento con una gran cantidad de datos generales, pero puede tener lagunas en conocimientos específicos como medicina o historia local (Puertas, 2024).

Ahora, cuando se usa el ChatGPT, éste puede predecir palabras o completar texto basado en el contexto proporcionado, por lo cual, se hace útil en aplicaciones como asistencia virtual y generación de texto, facilitando interacciones más naturales con usuarios no especializados (Ortiz y Buchaca, 2024). Esto ha conllevado que las IA se conviertan en herramientas clave para el proceso creativo humano, permitiendo resultados sorprendentes, sin embargo, planteando cuestiones éticas sobre autoría, originalidad y sesgo, debido a la responsabilidad que se debe asumir al publicar y utilizar los resultados generados por IA, dado que, estas prácticas desafían las nociones tradicionales de creatividad, fusionando tecnología y creatividad humana, y abriendo nuevas formas de colaboración en las producciones textuales y visuales  (Pérez y Gurieva, 2024; López et al., 2023; Puertas, 2024).

Ante el incremento del uso de inteligencia artificial en la educación, Graham (2023) y López et al. (2023) señalan que se han identificado desafíos significativos relacionados con el aumento del plagio y la deshonestidad intelectual. Este fenómeno subraya la necesidad que los educadores y las instituciones educativas enfrenten el desafío de cultivar habilidades en los estudiantes para la generación de ideas originales, la promoción de aprendizajes efectivos y autónomos, así como la capacidad para discernir los límites éticos de la IA en el uso de fuentes académicas.

De esta forma, los docentes deben adaptar sus métodos pedagógicos para fomentar la creatividad y el pensamiento crítico, aspectos esenciales para contrarrestar el impacto negativo del uso indiscriminado de IA en la educación, además, es crucial que los programas educativos incluyan formación específica sobre ética académica y el uso responsable de herramientas tecnológicas como la IA, preparando a los estudiantes para enfrentar los desafíos éticos y prácticos que estas tecnologías presentan en el contexto académico moderno (López et al., 2023; Ribera & Díaz, 2024).

Así, al analizar las limitaciones y desafíos de las IA en el ámbito académico, se evidencia que estas tecnologías aún enfrentan obstáculos significativos que requieren atención cuidadosa y ética. Como señaló Ji (2022) que éstas pueden incurrir en lo que se conoce como "alucinación", completando información con datos falsos o inventados. Además, como destaca Puertas (2024), las respuestas de las IA, aunque pueden ser coherentes superficialmente, carecen a menudo de sentido lógico en el contexto específico de una conversación o de una investigación académica. Este aspecto resalta la importancia de no solo utilizar estas herramientas tecnológicas como apoyo, sino también de integrar un juicio crítico humano para evaluar la relevancia y coherencia de los resultados generados.

Por lo cual, Pérez y Gurieva (2024) añaden una capa adicional de preocupación al señalar que el aumento del plagio, las fuentes académicas falsas y la falta de originalidad son problemas emergentes exacerbados por la disponibilidad y la utilización de IA como ChatGPT en entornos educativos. Esto subraya la necesidad urgente de implementar políticas y prácticas que promuevan un uso ético y responsable de la IA en la producción académica, enfocándose en preservar la autenticidad y la integridad de las contribuciones académicas y científicas.

Ante este panorama, este fenómeno plantea riesgos graves en contextos académicos, donde la precisión y la veracidad de la información son fundamentales para la integridad académica, relegando la función que tenían el diccionario, libros de textos especializados y enciclopedias como fuentes de apoyo y documental, a IA como ChatGPT, Meta AI, Copilot, Gemini, entre otras. Ocasionando que los estudiantes en diferentes niveles e incluso en los primeros semestres de la educación superior, sean transcriptores de la información que les suministra las IA sin juicio crítico a las inquietudes, exámenes, actividades y talleres. Esto conlleva analizar los límites de la autenticidad en las producciones académicas frente a la IA en el contexto de la integridad académica y la preservación de la originalidad (Currie, 2023), especialmente en una sociedad donde la información es accesible y abierta.

Metodología

La metodología siguió revisión sistemática de 50 documentos seleccionados mediante una metodología rigurosa. Para identificar los estudios primarios, consultaron bases de datos reconocidas, como Scopus, Web of Science y Google Scholar, utilizando términos clave como “integridad académica”, “ChatGPT en educación” y “regulación de IA en el aula”, combinados con operadores booleanos. Los criterios de inclusión contemplaron publicaciones en inglés y español entre 2018 y 2024, que abordaran la relación entre inteligencia artificial y la integridad académica en contextos educativos (Pardal-Refoyo, 2023; Moreno et al., 2018).

Se excluyeron estudios que no enfocaban específicamente a ChatGPT o que carecían de revisión por pares. Tras la selección, los autores llevaron a cabo un análisis crítico de los artículos, extrayendo datos pertinentes para evaluar la evidencia y las implicaciones de la IA en la integridad académica. Se utilizó un análisis cualitativo hermenéutico y de triangulación para evaluar tendencias y conclusiones relevantes. Además, se evalúo los posibles sesgos de los estudios seleccionados y el grado de evidencia aportado, reconociendo tanto las fortalezas de la revisión sistemática como sus limitaciones inherentes, como la posible exclusión de estudios no accesibles o no publicados (Pardal-Refoyo, 2023; Moreno et al., 2018).

Discusión

A lo largo de la historia, numerosos descubrimientos científicos y avances tecnológicos han marcado la evolución del ser humano, influenciando también el ámbito educativo. En la actualidad, la transformación digital y las tecnologías basadas en Inteligencia Artificial-IA están encontrando aplicación en el aula y fuera de ella, como son la realidad aumentada, la realidad virtual, las redes sociales, las aplicaciones móviles y los chatbots (Díaz y Ribera, 2024). Además, la analítica de aprendizaje, que recopila y procesa datos de los educandos, está optimizando el proceso educativo. Esta evolución implica una adaptación de los métodos de enseñanza por parte de los docentes, quienes utilizan la tecnología para mejorar su motivación y participación (Díaz y Ribera, 2024; Pérez y Guviera, 2024; Khalil & Er, 2023).

De esta forma, según Díaz y Ribera (2024) la integración de la IA en el contexto educativo está destinada a mejorar el proceso de enseñanza-aprendizaje, al brindar automatización de las tareas del profesorado como el procesamiento de documentos, la planificación y la atención individualizada a los estudiantes, al usarse como una herramienta que no sólo optimiza estas funciones administrativas, sino que también facilita la tutoría personalizada, lo que podría mejorar significativamente la experiencia educativa.

Por otro lado, Dave & Singh (2023) subrayan que la expansión de la IA en la producción académica presenta tanto desafíos como oportunidades significativas. Destacando herramientas avanzadas como el procesamiento de lenguaje natural y los algoritmos de aprendizaje automático, los cuales están transformando la manera en que se redactan y evalúan las investigaciones. Esta revolución tecnológica abre nuevas dimensiones en la creación de conocimiento al permitir análisis más profundos y precisos de los datos, lo que puede llevar a descubrimientos y avances innovadores en diversos campos académicos. Ante esto, Sabzalieva y Valentini (2023) se enfocaron en determinar cuándo es apropiado utilizar ChatGPT en la producción académica poniendo énfasis en la autenticidad y precisión de los resultados para esto proponen un diagrama de flujo con preguntas clave para asegurar un uso responsable de la IA.

De esta forma, primero, se evalúa la importancia de la veracidad: si no es crucial, el uso de ChatGPT es seguro; de lo contrario, se procede al siguiente paso. Luego, se considera la experiencia del usuario en verificar la precisión de los resultados, para finalizar, se analiza la responsabilidad por errores, destacando la necesidad de supervisión humana y responsabilidad ética en el uso de IA en entornos académicos (Sabzalieva y Valentini, 2023). En contraste, Águilera-Eguía et al. (2024) plantean una crítica fundamentada en la resistencia hacia los cambios que la IA está introduciendo en el ámbito académico. Cuestionan cómo se puede mantener la integridad científica cuando las máquinas desempeñan roles cruciales en la redacción y revisión de trabajos académicos.

Esta reflexión destaca preocupaciones éticas sobre cómo la eficiencia de la IA podría reemplazar o comprometer el pensamiento crítico y la creatividad, elementos inherentes a la labor académica. Esto puede desincentivar el cotejo, contraste y verificación de la veracidad en entornos como Meta AI, Copilot, Gemini y ChatGPT. Asimismo, se están creando ciclos de producción académica con mínima intervención humana, ya que se emplean herramientas de IA como ChatPDF, Humata.AI y Claude AI para procesar documentación. Posteriormente, otras IA generadoras de texto son utilizadas para realizar análisis expositivo-argumentativos, lo que evidencia la falta de creatividad y pensamiento crítico en la producción de conocimiento, debilitando así el sentido formativo dentro del aula.

En este contexto, Desaire et al. (2023) y Alkhaqani (2023) defienden la originalidad y la integridad académica como principios fundamentales en la educación superior, sin embargo, Alharbi (2023) y Cotton et al. (2023) argumentan que los estudiantes deben cultivar habilidades para generar ideas auténticas y comunicar hallazgos con honestidad y claridad, sin embargo, señalan que la IA puede desempeñar un papel positivo al mejorar la detección de plagio y verificar la autenticidad de los contenidos académicos.

En el ámbito académico contemporáneo, el uso de IA como herramientas para preservar la originalidad y la integridad académica ha generado un debate profundo, por lo cual, Eager & Brunton (2023), Desaire et al. (2023) y Kumar (2023), destacan la importancia de adoptar un enfoque ético y competente en entornos educativos que están cada vez más influenciados por la tecnología. Así, Kumar (2023) enfatiza la necesidad de fortalecer la formación ética de los individuos frente a la convergencia tecnológica, subrayando cómo la IA puede ser una aliada en este proceso de formación.

Por otro lado, Currie (2023) y Li et al. (2023) abogan por una revisión crítica y exhaustiva de las aplicaciones de IA en la educación superior. Este enfoque busca identificar tendencias emergentes y desafíos pendientes para desarrollar políticas más éticas y robustas que guíen el uso de estas tecnologías emergentes en el ámbito educativo. Este análisis no se limita únicamente a la eficiencia en la detección de plagio, sino que también explora cómo la IA está transformando la cultura académica en su totalidad, planteando nuevas preguntas sobre la ética y el impacto cultural de estas herramientas tecnológicas.

Ahora bien, este panorama refleja una discusión más profunda sobre el sentido y significado de la formación pedagógica de los educadores dentro de la práctica pedagógica, cuestionando la perspectiva epistemológica constructivista de la enseñanza y de la didáctica, en entornos de formación cada vez más dinámicos y complejos que se interrelacionan competencias, habilidades digitales y la formación integral, en el contexto de la educación en sus diferentes niveles, lo que cuestiona el papel y pertinencia de la institucionalidad de la Escuela y la Universidad.

En este punto, Moya et al. (2023) amplían aún más el debate al considerar cómo la IA puede influir en la cultura académica en general. Este enfoque promueve una reflexión profunda sobre los efectos éticos y prácticos de la integración de la IA en la educación y la investigación. Ante esto, Khalil & Er (2023) subrayan la importancia de desarrollar competencias éticas y creativas en los individuos que utilizan estas tecnologías, destacando la necesidad de un enfoque integral que no solo valore la eficiencia tecnológica, sino también los principios éticos que guíen su aplicación en contextos educativos y profesionales.

Por su parte, según Pérez y Gurieva (2024) señalan que las inteligencias artificiales, como ChatGPT, han emergido como herramientas poderosas que facilitan respuestas rápidas y apoyo en la creación artística y académica. Sin embargo, existe el riesgo inherente de simplificar el proceso creativo humano al priorizar respuestas rápidas y superficiales sobre la reflexión crítica profunda. Este fenómeno plantea interrogantes sobre la influencia de la IA en la calidad y la originalidad del trabajo académico y artístico, sugiriendo que la eficiencia ofrecida por la IA podría comprometer la profundidad y la autenticidad del proceso creativo.

Por otro lado, Ji (2022) y Puertas (2024) señalan que la capacidad de la IA para llenar lagunas en conocimientos específicos con información inventada es una preocupación significativa. Aunque ChatGPT puede generar respuestas coherentes y bien estructuradas, carece de sentido lógico y comprensión contextual en áreas donde no tiene datos suficientes o relevantes. Esta falta de discernimiento puede resultar en respuestas inexactas o incluso en la propagación involuntaria de desinformación, lo cual subraya la importancia de aplicar un pensamiento crítico riguroso al utilizar estas herramientas tecnológicas.

La dualidad entre eficiencia y precisión resalta la necesidad urgente de desarrollar y aplicar marcos éticos sólidos en el uso de IA en entornos académicos y profesionales. Lopezosa (2023) destaca la importancia de integrar principios éticos en la formación y la aplicación de IA para mitigar riesgos como la desinformación y garantizar la integridad académica. Esto conlleva para Rahimi y Abadi (2023) enfatizar la transparencia y la responsabilidad como pilares fundamentales en la implementación de estas tecnologías, promoviendo su uso como herramientas complementarias pero no sustitutivas en procesos críticos como la verificación de información, donde la supervisión humana sigue siendo crucial para asegurar la exactitud y la fiabilidad de los resultados.

Conclusiones

En el contexto de la integridad académica frente a la inteligencia artificial-IA, emergen reflexiones y discusiones en torno a la autenticidad en la producción académica y su regulación en el aula, se destacan conclusiones fundamentales que orientan hacia la necesidad de una supervisión rigurosa y una responsabilidad ética. La IA, representada por herramientas como ChatGPT, ofrece indudables ventajas para la investigación y la creación académica, pero también plantea riesgos significativos de desinformación y falta de veracidad. Por lo tanto, es necesario establecer mecanismos que garanticen la supervisión humana y la responsabilidad ética para mitigar estos riesgos (Pérez y Gurieva, 2024; Ji, 2022).

De esta manera, se recomienda utilizar la IA como asistente, inspiración y corrector lingüístico, útil para transformar textos y refinar ideas. Sin embargo, su falta de conocimiento del mundo puede llevar a errores graves si se utiliza sin supervisión crítica (Sabzalieva y Valentini, 2023; Díaz y Ribera, 2024). Además, es esencial proporcionar una formación ética y fomentar el pensamiento crítico entre estudiantes y académicos. Esto les permitirá utilizar la IA de manera responsable, asegurando la preservación de la originalidad y la integridad académica en sus investigaciones y trabajos académicos (Khalil & Er, 2023; Lopezosa, 2023).

A pesar de las mejoras que la IA puede ofrecer en tareas como la detección de plagio, persisten limitaciones significativas en su capacidad para comprender contextos específicos y aplicar lógica coherente en sus respuestas (Puertas, 2024; Diakopoulos, 2023). Por lo tanto, la implementación de regulaciones adaptativas y políticas educativas que guíen el uso de IA en las aulas es crucial. Estas regulaciones deben encontrar un equilibrio entre fomentar la innovación tecnológica y asegurar estándares académicos rigurosos y éticos (Rahimi y Abadi, 2023).

Por último, al reflexionar en torno sobre la regulación o prohibición de la IA en las aulas, la literatura analizada demuestra una contundente evidencia que sugiere que la regulación cuidadosa es preferible a la prohibición absoluta, por lo que, prohibir la IA podría limitar las oportunidades educativas y de investigación, mientras que una regulación adecuada puede promover un uso responsable y ético de la tecnología, garantizando que los beneficios tecnológicos se aprovechen sin comprometer la autenticidad y la integridad del conocimiento académico.

 

Referencias

Aguilera-Eguía, R. A., Amaya, J. P., Roco Videla, Á., Polevoy, G., & Fuentes-Barria, H. (2024). Exploring new realities: An analogy between AI in scientific writing and Plato's allegory of the cave. Revista Chilena de Nutrición, 51(2), 101-102. https://dx.doi.org/10.4067/s0717-75182024000200101

Aïmeur, E., Amri, S. y Brassard, G. (2023). Fake news, disinformation and misinformation in social media: a review. Social Network Analysis and Mining, 13, 30. https://doi.org/https://doi.org/10.1007/s13278- 023-01028-5

Alharbi,  W.  (2023).  AI  in  the  Foreign  Language  Classroom:  A  Pedagogical  Overview  of Automated   Writing   Assistance   Tools. Education   Research   International, 2023. https://doi.org/10.1155/2023/4253331

Alkhaqani, A. L. (2023). ChatGPT and Academic Integrity in Nursing and Health Sciences Education  ChatGPT  and  academic  integrity  in  nursing  and  health  sciences  education. OURNAL OF MEDICAL RESEARCH AND REVIEWS, 1(1). https://doi.org/10.5455/JMRR.20230624044947

Carbajal-Degante, E., Gutiérrez, M. H., & Sánchez-Mendiola, M. (2023). Hacia revisiones de la literatura más eficientes potenciadas por inteligencia artificial. Investigación en Educación Médica, 12(47), 111–119.

Cotton, D. R. E., Cotton, P. A., & Shipway, J. R. (2023). Chatting and cheating: Ensuring academic  integrity  in  the  era  of  ChatGPT. Innovations  in  Education  and  Teaching International, 00(00), 1–12. https://doi.org/10.1080/14703297.2023.2190148

Currie, G. M. (2023). Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? Seminars in Nuclear Medicine, 53(5), 719-730. https://doi.org/https://doi.org/10.1053/j.semnuclmed.2023.04.008

Currie, G. M. (2023). Academic integrity and artificial intelligence: is ChatGPT hype, hero or heresy? Seminars in Nuclear Medicine, 53(5), 719–730. https://doi.org/https://doi.org/10.1053/j.semnuclmed.2023.04.008

Dave, T., Athaluri, S. A., & Singh, S. (2023). ChatGPT in medicine: An overview of its applications, advantages, limitations, future prospects, and ethical considerations. Frontiers in Artificial Intelligence, 6. https://doi.org/10.3389/frai.2023.00000

Diakopoulos, N. (2023). Can ChatGPT help journalist’s fact-check faster? Medium. https://generative-ai-newsroom.com/can-chatgpt-help-journalists-fact-check-faster-351e64a2ef32

Díaz, O., Ribera, M. (2024). Introducción en Ribera, M., & Díaz, O. (Coords.), ChatGPT y educación universitaria: posibilidades y límites de ChatGPT como herramienta docente. Universitat de Barcelona. IDP/ICE & Ediciones. https://diposit.ub.edu/dspace/bitstream/2445/206141/1/9788410054011.pdf

Eager,  B.,  &  Brunton,  R.  (2023).  Prompting  Higher  Education  Towards  AI-Augmented Teaching   and   Learning   Practice. Journal   of   University   Teaching   and   Learning Practice, 20(5). https://doi.org/10.53761/1.20.5.02

Frąckiewicz, M. (2023). ChatGPT-4 and the future of fake news detection: AI-driven fact-checking and information verification. TS2. https://ts2.space/en/chatgpt-4-and-the-future-of-fake-news-detection-ai-drivenfact-checking-and-information-verification/

Graham,  A.  (2023).  ChatGPT  and  other  AI  tools  put  students  at  risk  of  plagiarism allegations,     MDU     warns. BMJ     (Clinical     Research     Ed.), 381,     p1133. https://doi.org/10.1136/bmj.p1133

Hoes, E., Altay, S. y Bermeo, J. (2023). Leveraging ChatGPT for efficient fact-checking. PsyArCiv Preprints, 16. https://doi.org/10.31234/osf.io/qnjkf

Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., Ishii, E., Jin, Y., Bang, J., Madotto, A. y Fung, P. (2023). Survey of hallucination in natural language generation. ACM Computing Surveys, 55 (12), 1-38. https://doi.org/10.1145/3571730 

Khalil,  M.,  &  Er,  E.  (2023). Will  ChatGPT  get  you  caught?  Rethinking  of  Plagiarism Detection. 1–13. http://arxiv.org/abs/2302.04335

Kumar, R. (2023). Faculty members’ use of artificial intelligence to grade student papers: a case  of  implications. International  Journal  for  Educational  Integrity, 19(1),  1–10. https://doi.org/10.1007/s40979-023-00130-7

Li,Z., Zhang, Y., Liu, Y., Wu, Y., & Wu, S. (2023). Applying Coding Behavior Features to Student  Plagiarism  Detection  on  Programming  Assignments. Journal  of  Circuits, Systems and Computers. https://doi.org/10.1142/S0218126623502869

López,  O.,  Navarro,  V.,  & Cuéllar,  F.  (2023). Escritura  ,  creatividad  e  inteligencia artificial    .    ChatGPT    en    el    contexto    universitario. 47–57.Disponible    en: https://dialnet.unirioja.es/servlet/articulo?codigo=9010088

Lopezosa, C. (2023). ChatGPT and scientific communication: towards the use of artificial intelligence that is as useful as it is responsible. Hipertext.Net, 26, 17-21. https://doi.org/https://doi.org/10.31009/hipertext.net.2023.i26.03

Moreno, B., Muñoz, M., Cuellar, J., Domancic, S., Villanueva, J., & Moreno, B., et al. (2018). Revisiones sistemáticas: Definición y nociones básicas. Revista Clínica de Periodoncia, Implantología y Rehabilitación Oral, 11(3), 184-186.

Moya,  B.  A.,  Eaton,  S.,  Pethrick,  H.,  Hayden,  K.  A.,  Brennan, R.,  Wiens,  J.,  McDermott, B.,  &  Lesage,  J.  (2023).  Academic  Integrity  andArtificial  Intelligence  in  Higher Education Contexts : A Rapid Scoping Review Protocol. Canadian  Perspectives  on Academic Integrity, 5(2), 59–75. https://doi.org/10.11575/cpai.75990

Ortiz, D. y Buchaca, D. (2024). La tecnología tras ChatGPT en Ribera, M., & Díaz, O. (Coords.), ChatGPT y educación universitaria: posibilidades y límites de ChatGPT como herramienta docente. Universitat de Barcelona. IDP/ICE & Ediciones. https://diposit.ub.edu/dspace/bitstream/2445/206141/1/9788410054011.pdf

Pardal-Refoyo, José Luis. (2023). Los artículos de revisión. Orientaciones para los autores y revisores. Revista ORL14(3), e31646. Epub 04 de marzo de 2024.https://dx.doi.org/10.14201/orl.31646

Pérez Aguilera, C. A., & Gurieva, N. (2024). Desafíos Éticos y Creativos de la Inteligencia Artificial en el Arte. JÓVENES EN LA CIENCIA26, 1–9. https://www.jovenesenlaciencia.ugto.mx/index.php/jovenesenlaciencia/article/view/4227

Puertas, E. (2024). Indicaciones prácticas para usar ChatGPT en Ribera, M., & Díaz, O. (Coords.), ChatGPT y educación universitaria: posibilidades y límites de ChatGPT como herramienta docente. Universitat de Barcelona. IDP/ICE & Ediciones. https://diposit.ub.edu/dspace/bitstream/2445/206141/1/9788410054011.pdf

 Rahimi, F. y Abadai, A. T. B. (2023). ChatGPT and publication ethics. Archives of Medical Research, 54 (3), 272-274. https://doi.org/10.1016/j.arcmed.2023.03.004

Ribera, M., & Díaz, O. (2024). ChatGPT y educación universitaria: posibilidades y límites de ChatGPT como herramienta docente. Universitat de Barcelona. IDP/ICE & Ediciones Octaedro. https://diposit.ub.edu/dspace/bitstream/2445/206141/1/9788410054011.pdf

Sabzalieva, E. y Valentini, A. (2023). ChatGPT e inteligencia artificial en la educación superior: guía de inicio rápido. https://unesdoc.unesco.org/ark:/48223/pf0000385146_spa 

Xames,  M.  D.,  &  Shefa,  J.  (2023).  ChatGPT  for  research  and  publication:  Opportunities and   challenges. Journal   of   Applied   Learning   and   Teaching, 6(1),   390–395. https://doi.org/10.37074/jalt.2023.6.1.20



[1] Doctorando en Ciencias de la Educación de la Universidad Cuauhtémoc de México, Magíster en Pedagogía e Investigación en el Aula de la Universidad de la Sabana, Licenciado en Lengua Castellana y Literatura de la USTA, Normalista Superior de la ENS de Villavicencio. Miembro del grupo de investigación Nakota categoría A de la USTA. Docente e investigador, enfocado en los campos de la pedagogía, la formación docente y la investigación formativa.