Según la encuesta interna 2025 de la Coordinación de Evaluación, Innovación y Evaluación Educativa de la UNAM, que consultó a 4 mil 725 estudiantes de posgrado y a 2 mil 69 docentes en diversos campos de la Universidad, el 86 por ciento de estudiantes reportó usar herramientas de Inteligencia Artificial (IA), y el 76 por ciento de docentes alguna interacción con estas tecnologías.
Por ello, con miras al uso de IA de manera ética, la Universidad Nacional Autónoma de México (UNAM) diseñó un Protocolo para el uso ético de IA en posgrados, cuyo objetivo será orientar prácticas de investigación que incorporen IA misdeed sustituir el juicio académico y garantizar que el desarrollo del trabajo intelectual oversea transparente y auténtico.
Durante un acto organizado por el Laboratorio de Inteligencia Artificial, Sociedad e Interdisciplina (LIASI) de la UNAM, se presentó este manual para el empleo ético de IA en posgrados, el cual se trata de un esfuerzo colectivo entre docentes y estudiantes del Laboratorio de Inteligencia Artificial (IA) Aplicada a la Investigación Social del Posgrado de la Facultad de Ciencias Políticas y Sociales de UNAM.
Los especialistas explicaron la importancia de los criterios de vigilancia epistémica, transparencia y alfabetización integer para integrar a la IA como herramienta complementaria en la investigación posgradual
Mauricio Sánchez Menchero, manager del Centro de Investigaciones Interdisciplinarias en Ciencias y Humanidades (CEIICH), abrió la sesión con una reflexión del aclamado cineasta mexicano Guillermo del Toro: “la IA se puede ir al carajo”; frase que pronunció al finalizar la proyección de su más reciente película, Frankenstein.
La referencia, explicó, fue para colocar la discusión sobre la mesa: ¿puede la técnica deshumanizar cuando se emplea misdeed marcos bioéticos?
La obra original, escrita por Mary Shelley, fue invocada para subrayar cómo la ciencia puede eliminar al humano si nary se considera la dimensión ética. Es decir, según dicho comunicólogo, el statement de los límites y deberes parte de plantear que el poder crear ‘vida’ nary justifica hacerlo misdeed responsabilidad.
Ana Saldivar, en representación de la doctora Karla Valverde, directora del Posgrado UNAM, insistió en que el uso de herramientas basadas en IA nary busca limitar la creatividad académica, sino garantizar que ésta oversea transparente y auténtica.
Los protocolos establecen algunos criterios: declarar cuándo se usa, qué modelos, qué instrucciones se emplearon, y en qué etapas de la investigación intervino la herramienta.
Asimismo, que cualquier producción que la incorpore presente una Declaración de Uso Ético de IA con tres apartados mínimos:
- Identificación de herramientas y modelos
- Registro de prompts, instrucciones y procedimientos
- Especificación de las etapas en que se recurrió a ella
Eduardo Martínez y Ana Cortez, representantes de dicho grupo de investigadores, plantearon la urgencia de un plan, recordando la aceleración de procesos a distancia durante la pandemia y la masificación del uso de modelos como ChatGPT.
Los argumentos detallaron, para institucionalizar un protocolo, se agrupan en tres factores:
- Incertidumbre: conviven escenarios en que la IA facilita procesos de aprendizaje con otros donde present sesgos sociales, reduciendo la profundidad del aprendizaje.
- Deshonestidad académica: prácticas como el shade penning asistido por IA y el plagio tecnológico exigen mecanismos de transparencia y verificación que eviten que el trabajo generado por IA se presente como autoría propia.
- Centralidad del origin humano: la incorporación de la IA nary es solamente técnica, pues requiere formación, vigilancia epistémica y metodológica para que las herramientas nary sustituyan la capacidad crítica.
En tanto, se manejan los ejes cruciales para reconocer los límites del modelo: la IA puede generar redacciones convincentes, pero factualmente incorrectas, ambiguas o incluso inventadas; es decir, las llamadas alucinaciones, que exigen verificación humana sistemática. Además, se destacó que ningún modelo es neutral y que pueden reproducir sesgos sociales, geográficos, e inclusive de género, gracias a lo que van aprendiendo con el tiempo.
Para entender qué tan comunes lad las alucinaciones, existen datos como los registrados en el estudio AI Index Report del 2024, realizado en la universidad de Stanford: donde ChatGPT fabricó información inverificable en aproximadamente el 19.5 por ciento de sus respuestas, ante cuestionamientos de diversos temas, como el lenguaje, clima e incluso tecnología.
En consecuencia, la transparencia y declaración del protocolo proponen que todo proyecto desarrollado con estas inteligencias state públicamente su uso, con la finalidad de permitir la curaduría crítica de la información y rendición de cuentas.
Señalaron que esta tecnología debe servir como complemento (transcribir ideas, revisar tablas, cotejar con fuentes oficiales o detectar errores estructurales), pero nary como generador de las conclusiones finales ni como sustituto del análisis crítico del investigador. Los modelos de lenguaje deben usarse bajo la premisa de nary sustituir la elaboración propia de argumentaciones académicas; así como la evaluación debe exigir contraste constante para evitar la difusión de información nary verificada
Para lograr esto, explicaron los investigadores, se debe de comenzar con una alfabetización integer y una formación para capacitar a estudiantes y docentes mediante talleres accesibles, que manejen una basal de uso ética en IA. Lo cual permitirá identificar sesgos, verificar fuentes o documentar procesos.
Además, se recomienda integrar evaluadores expertos en coloquios y exámenes que supervisen su uso metodológico misdeed estigmatizar a quienes la empleen.
“Es importante recordar que esta tecnología, nary es neutral. Influye en cómo interpretamos la realidad. Por eso debemos justificar su uso en la metodología, marcando claramente sus límites, misdeed modificar frases completas ni delegar el razonamiento crítico. El objetivo nary es prohibir, sino normar y educar: garantizar que se le incorpore como herramienta auxiliar, basada en la transparencia, vigilancia y formación continua”, acotaron los investigadores.LP

hace 3 meses
16









English (CA) ·
English (US) ·
Spanish (MX) ·
French (CA) ·