Desventajas de la IA en la formación académica
Desde mi experiencia como docente universitario de pregrado y posgrado respondo la pregunta "¿La IA es mala?"
INTELIGENCIA ARTIFICIAL
Posdoctor Daniel Silva Nieves
7/20/20254 min read
Ya lo he mencionado en artículos anteriores, una realidad que ahora resulta incuestionable para quienes ejercemos la docencia universitaria es que cada vez más estudiantes integran la inteligencia artificial en su día a día académico. Esta situación genera distintas opiniones, pues esta tecnología ha traído consigo tanto aportes significativos como ciertas falencias. En esta ocasión, quiero compartir algunas reflexiones basadas en mi experiencia como profesor en los niveles de pregrado y posgrado a lo largo de los últimos años. A diferencia del pasado, hoy hablaré de las desventajas o limitaciones que posee la inteligencia artificial en la formación académica. Para ello, presentaré casos concretos que he observado al dictar clases en las áreas de administración, derecho, educación, medicina y traducción.
1. Menor desarrollo del pensamiento analítico y la retención
Desde mi experiencia en la docencia universitaria, tanto en pregrado como en posgrado, he notado que cuando los estudiantes confían demasiado en la inteligencia artificial, se debilitan sus capacidades cognitivas.
En Administración, si la IA resuelve tus cálculos contables, puedes perder de vista la lógica detrás de los estados financieros.
En Derecho, si delegas a la IA la redacción de demandas, corres el riesgo de no comprender los fundamentos jurídicos.
En Educación, planificar clases con IA sin reflexionar sobre los objetivos formativos resta profundidad pedagógica.
En Medicina, dejar que un sistema interprete síntomas puede limitar tu habilidad para diagnosticar en contextos reales.
En Traducción, traducir siempre con IA puede atrofiar tu creatividad lingüística y tu sentido de estilo.
Estudios recientes advierten sobre un descenso en la capacidad de memoria activa por el uso abusivo de tecnologías generativas, lo que se conoce como “amnesia digital” (Herald Sun, 2025).
2. Riesgo de conductas académicas deshonestas
Como profesor con años en el aula, me preocupa ver cómo algunas herramientas de IA pueden facilitar la deshonestidad académica.
En carreras como Administración, he visto informes producidos por IA sin que el estudiante comprenda su contenido.
En Derecho, se presentan trabajos con análisis jurídicos superficiales creados por sistemas automáticos.
En Educación, algunos estudiantes presentan sesiones diseñadas íntegramente por algoritmos.
En Medicina, se entregan artículos con referencias falsas generadas por IA.
En Traducción, he detectado entregas sin revisión humana, con errores de coherencia y registro.
Investigaciones recientes destacan que los mecanismos para detectar este tipo de contenido no siempre son fiables, lo cual genera falsos positivos y afecta la equidad, sobre todo en alumnos no angloparlantes (Kumar et al., 2023).
3. Posibilidad de recibir datos imprecisos o fabricados
En mi experiencia, cuando los estudiantes asumen que todo lo que dice la IA es correcto, cometen errores por confiar sin contrastar.
En Administración y Medicina, hay informes con cifras inventadas o mal interpretadas.
En Derecho, he visto menciones a normas inexistentes o precedentes que nunca ocurrieron.
En Educación, explicaciones que parecen verídicas, pero están plagadas de conceptos erróneos.
En Traducción, he corregido textos bien redactados, pero mal contextualizados o sin sentido cultural.
Este fenómeno, llamado hallucination, es uno de los problemas más discutidos en la actualidad (Wikipedia, 2025; University of Illinois, 2024).
4. Menor interacción social y desconexión emocional
A lo largo de mi carrera como docente, valoro profundamente el vínculo humano en el proceso de enseñanza. El uso desmedido de IA puede llevarte a un aprendizaje aislado y carente de interacción significativa.
Tanto en Derecho, Medicina, Administración, Traducción como en Educación, los espacios de debate, retroalimentación y colaboración tienden a desaparecer si todo lo hace una máquina.
Esto no solo afecta las habilidades comunicativas, sino que puede incrementar sentimientos de desmotivación o ansiedad académica.
5. Barreras tecnológicas y desigualdad de acceso
Como educador, soy consciente de que no todos los estudiantes cuentan con los medios para aprovechar la IA.
Estas herramientas requieren buena conexión a internet, dispositivos adecuados y, en algunos casos, suscripciones pagadas.
Esto genera brechas de aprendizaje entre quienes tienen acceso y quienes no, especialmente en universidades públicas o regiones con menor infraestructura (Wikipedia, 2025; TechStrong.AI, 2025).
6. Falta de transparencia en los procesos y dilemas éticos
Desde mi rol como profesor-investigador, también me preocupa que muchos sistemas de IA funcionan como cajas negras: no siempre sabemos cómo llegaron a una conclusión.
En la evaluación automatizada, esta opacidad puede traducirse en injusticias.
Además, el uso de tus datos personales por parte de estas plataformas no siempre es claro.
La falta de trazabilidad y los riesgos de manipulación, como los ataques de prompt injection, han sido señalados incluso en procesos como la revisión por pares académica (Washington Post, 2025; ScienceDirect, 2025).
Referencias
Debora Weber‑Wulff, D., et al. (2023). Testing of detection tools for AI‑generated text. International Journal for Educational Integrity. https://edintegrity.biomedcentral.com/articles/10.1007/s40979-023-00146-z
EdTech Magazine. (Junio de 2025). AI Ethics in Higher Education: How Schools Are Proceeding. https://edtechmagazine.com/higher/article/2025/06/ai-ethics-higher-education-how-schools-are-proceeding-perfcon
Herald Sun. (2025). Experts warn AI tools are dumbing down Australian students. https://www.heraldsun.com.au/education/experts-warn-ai-tools-are-dumbing-down-aussie-kids-and-impacting-their-memory/news-story/76f2a1bc52835ee0993030478da5e601
Kumar, R., Eaton, S. E., Mindzak, M., & Morrison, R. (2023). Academic integrity and artificial intelligence: An overview. En Handbook of Academic Integrity (pp. 1–14). Springer. https://www.researchgate.net/publication/372025045_Academic_Integrity_and_Artificial_Intelligence_An_Overview
Packback. (2025). Moving Beyond Plagiarism and AI Detection: Academic Integrity in 2025. https://packback.co/resources/blog/moving-beyond-plagiarism-and-ai-detection-academic-integrity-in-2025/
ScienceDirect. (2025). Reporting the potential risk of using AI in higher Education: Subjective perspectives of educators. https://www.sciencedirect.com/science/article/pii/S2451958825001083
Shah, H. (8 de mayo de 2025). Conversational AI as an accessibility enabler: Empowering the hearing impaired with intelligent interfaces. TechStrong.ai. https://techstrong.ai/features/conversational-ai-as-an-accessibility-enabler-empowering-the-hearing-impaired-with-intelligent-interfaces/
University of Illinois. (24 de octubre de 2024). AI in Schools: Pros and Cons. https://education.illinois.edu/about/news-events/news/article/2024/10/24/ai-in-schools--pros-and-cons
Washington Post. (17 de julio de 2025). Researchers are using AI for peer reviews—and finding ways to cheat it. https://www.washingtonpost.com/nation/2025/07/17/ai-university-research-peer-review/
Wikipedia. (Julio de 2025). Artificial intelligence in education. https://en.wikipedia.org/wiki/Artificial_intelligence_in_education
Wikipedia. (Julio de 2025). Hallucination (artificial intelligence). https://en.wikipedia.org/wiki/Hallucination_(artificial_intelligence)
Zhai, C. et al. (2021). The effects of over‑reliance on AI dialogue systems on students. Smart Learning Environments. https://slejournal.springeropen.com/articles/10.1186/s40561-024-00316-7