Lineamientos sobre uso de Inteligencia Artificial en Wimb lu
Consideraciones generales sobre el uso de recursos de Inteligencia Artificial (IA) en la revista Wimb lu
La inteligencia artificial generativa (IA) se desarrolla rápidamente y representa tanto una oportunidad como un gran reto para la investigación y la divulgación científica. Por lo tanto, es preciso establecer lineamientos que permitan aprovechar sus potenciales beneficios y mitigar sus potenciales efectos perjudiciales. Además, es necesario una actualización permanente para poder hacer un uso eficiente y ético de los recursos que puede aportar. Asimismo, es necesaria la transparencia en cuanto a su uso, si es con fines de asistencia o para generar contenido. En este segundo caso, el filtro humano siempre será requerido y nunca deberá aparecer la IA como responsable legal o moral de los contenidos generados (COPE 2026).
I. Consideraciones en torno al uso de la IA en la escritura académica
a. La opacidad de los algoritmos de IA, la carencia de lineamientos éticos y principios de derechos humanos en los sistemas de IA y la dificultad para determinar la responsabilidad por las decisiones producidas por los sistemas de IA pueden producir daños a los derechos humanos, sin que esté claro en todos los casos quién debe asumir las responsabilidades al respecto (UNESCO 2023, COPE 2026).
b. Las IA se generan a partir de redes neuronales artificiales (RNAs) cuyo funcionamiento interno no está abierto a la inspección. Por lo tanto, no es posible comprender y explicar cómo obtienen sus resultados (UNESCO 2024).
c. Las IA heredan y diseminan los sesgos existentes en la información que se utiliza para sus entrenamientos, los cuales pueden ser difíciles de detectar y modificar (UNESCO 2024).
d. Las IA pueden violar la privacidad de los datos y los derechos de propiedad intelectual debido a que se construyen a partir de grandes cantidades de datos frecuentemente obtenidos de Internet sin gestionar los permisos respectivos internacionales en curso en relación con la cuestión (UNESCO 2024, 2025, COPE 2026).
e. Las IA pueden generar información que es imprecisa o incorrecta, presentándola de manera convincente, lo que la hace parecer realista y relevante. Por lo tanto, sin una mediación desde una perspectiva especializada y ética de quien fundamenta su argumento en IA, la divulgación académica puede reforzar información imprecisa, incorrecta y reproducir sesgos y estereotipos que perjudican no sólo el avance en el desarrollo del conocimiento sino también a poblaciones particulares (UNESCO 2023, 2024).
f. Las IA pueden amenazar, especialmente con un incremento en su uso, la capacidad para escribir y realizar otras actividades creativas, generando progresivamente una dependencia hacia su uso que limite el desarrollo de habilidades intelectuales y la acción humana en general. La escritura está asociada con la estructuración y el desarrollo del pensamiento. Por lo tanto, al escribir con el apoyo de IA se corre el riesgo de “escribir sin pensar” (UNESCO 2024, 2025). El riesgo es que desaparezca la voz de la autoría y la creatividad en la escritura (COPE 2026).
g. Las IA pueden profundizar la exclusión y las desigualdades estructurales, así como generar nuevas formas de discriminación, especialmente por el sesgo de los desarrolladores. Por ejemplo, la IA puede contribuir a diseminar y reforzar estereotipos para ciertos grupos poblacionales con razón de su sexo, género, religión, raza, entre otros. Asimismo, la obsolescencia o irrelevancia de la información utilizada por la AI podría causar resultados inadecuados, incorrectos o sesgados en determinados contextos geográficos, culturales e históricos (Penabad-Camacho et al. 2024; UNESCO 2025).
h. Las IA no están informadas de observaciones del mundo real ni de otros aspectos clave del método científico. En su lugar, las IA tienden a producir solo respuestas basadas en los valores de la información que fue utilizada para su entrenamiento, la cual suele representar posiciones dominantes. Por lo tanto, el riesgo es limitar un pluralismo de ideas (UNESCO 2024).
i. La IA puede intensificar el cambio climático (UNESCO 2025).
II. Algunos principios orientadores
- La IA es una herramienta en expansión y que puede apoyar y fortalecer el trabajo científico y académico. Por lo tanto, en vez de bloquear o prohibir su uso, se elige transparentar y regular su uso (Penabad-Camacho et al. 2024, COPE 2026).
- El uso de la IA debe estar acompañado y regulado por las instituciones académicas, a fin de enseñar y fomentar las mejores prácticas, incluyendo el respeto a los derechos humanos y la ética profesional (Penabad-Camacho et al. 2024; UNESCO 2023, COPE 2026).
III. Lineamientos para el uso ético y responsable de la IA
Equipo editorial
- El equipo editorial notificará a las personas autoras el uso de IA en la evaluación de sus artículos y durante el procesamiento editorial (Penabad-Camacho et al. 2024, COPE 2026).
- El equipo editorial informará a las personas lectoras el uso de IA en los artículos publicados (Penabad-Camacho et al. 2024, COPE 2026).
Personas revisoras
- Las personas revisoras deben declarar el uso de IA para la evaluación de artículos (Penabad-Camacho et al. 2024, COPE 2026).
- La IA no reemplaza la responsabilidad de la revisión de los textos ni en la rendición de cuentas sobre los criterios y recomendaciones emitidas (Penabad-Camacho et al. 2024, COPE 2026).
Personas autoras
- Las personas autoras deben asumir la responsabilidad de realizar una contribución sustancial al contenido publicado, asumir la responsabilidad moral y legal y rendir cuentas sobre la precisión e integridad de lo escrito, responder legal y éticamente por los contenidos publicados, dar el visto bueno o avalar las versiones finales de los contenidos por publicar y responder ante conflictos de interés. Ninguna de las responsabilidades anteriormente señaladas puede ser delegada a la IA (Penabad-Camacho et al. 2024).
- Las personas autoras deben tener un conocimiento suficiente del tema sobre el que escriben cuando utilizan el apoyo de IA. Este conocimiento debe ser suficiente para que les permita identificar sesgos, información imprecisa, citas inexistentes, entre otros (UNESCO 2024).
- Las personas autoras deben explicar de forma argumentada y transparente qué uso han dado a la IA y cómo, durante su uso, han evitado crear o propagar sesgos en la información (Penabad-Camacho et al. 2024).
Referencias bibliográficas
Committee of Publication Ethics (COPE). Should there be limits to the editorial use of assistive AI tools?. Consultado el 18 de febrero de 2026. https://publicationethics.org/guidance/case/should-there-be-limits-editorial-use-assistive-ai-tools
Penabad-Camacho, L., Morera-Castro, M., & Penabad-Camacho, M. A. (2024). Guía para uso y reporte de inteligencia artificial en revistas científico-académicas. Revista Electrónica Educare, 28(S), 1–41. https://doi.org/10.15359/ree.28-S.19830
UNESCO. (2023). Kit de herramientas global sobre IA y el estado de derecho para el poder judicial. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000387331_spa
UNESCO. (2024). Guía para el uso de IA generativa en educación e investigación. UNESCO. https://unesdoc.unesco.org/ark:/48223/pf0000389227
UNESCO. (2025). Marco de competencias para docentes en materia de IA. https://unesdoc.unesco.org/ark:/48223/pf0000393813

