Cuando la IA permite "aprobar sin estudiar", ¿qué le queda a la universidad?
El 90% de los universitarios usa IA, pero eso es solo la superficie. La verdadera cuestión es que la IA está revelando una contradicción fundamental del sistema educativo: cuando el conocimiento deja de ser escaso y los exámenes pueden eludirse con tecnología, ¿cuál es el sentido de aprender?
Anthropic realizó recientemente una entrevista en la que reunió a cuatro estudiantes de Princeton, Berkeley, la London School of Economics y la Universidad Estatal de Arizona para hablar sobre la situación real de la IA en el campus. La conversación duró casi 40 minutos, sin discursos promocionales: solo confusión, ansiedad y reflexión genuinas.
Esta entrevista revela un problema más profundo: la IA no solo está cambiando la forma de aprender, sino que está desarmando la lógica fundamental de todo el sistema educativo.
Una realidad imposible de ignorar
Al inicio de la entrevista, el moderador hizo una pregunta directa: ¿cuál es el ambiente actual respecto a la IA en el campus?
La respuesta: el 90% de los estudiantes usa IA. No de forma ocasional, sino como parte de su flujo de trabajo diario: resumir apuntes de clase, responder cuestionarios, obtener retroalimentación sobre tareas, analizar casos de negocio, hacer investigación de mercado, completar análisis financieros. Algunos estudiantes incluso la usan para resolver exámenes, con una razón muy práctica: cuando se es estudiante de posgrado y se tienen varios trabajos simultáneamente, no siempre hay tiempo disponible.
Pero lo más interesante es que, aunque casi todos la usan, nadie sabe cuáles son las reglas. Algunos cursos prohíben explícitamente la IA, otros la fomentan activamente, y la mayoría se encuentra en una zona ambigua. Los estudiantes no saben dónde están los límites; los profesores tampoco saben cómo gestionarlo. Este estado se describe como una "zona gris": quieren usarla, pero temen violar las normas; si no la usan, sienten que se quedan atrás.
Lo más peligroso de esta zona gris no es que los estudiantes puedan infringir las reglas, sino que impide que ocurran discusiones verdaderamente valiosas. Los estudiantes no pueden compartir abiertamente las mejores prácticas de uso de IA, los profesores no pueden orientar a los estudiantes sobre cómo usar la herramienta de manera responsable, y toda la comunidad académica queda atrapada en un estado incómodo de prohibición superficial y uso privado.
Y cuando las reglas no pueden aplicarse de manera efectiva, se convierten en un filtro que separa a "quienes saben disimular" de "quienes no saben disimular". Una prohibición formal pero con uso generalizado en privado no impedirá que los estudiantes usen IA; solo impedirá que discutan abiertamente cómo usarla mejor.
La IA es un espejo
En la entrevista surgió una observación muy aguda: la inteligencia artificial, y en particular la forma en que los estudiantes la usan, revela mucho sobre sus motivaciones.
La idea detrás de esta afirmación es que la IA se ha convertido en un espejo que refleja el verdadero propósito de ir a la universidad.
La entrevista clasifica los objetivos universitarios en tres categorías: primero, profundizar en el conocimiento especializado y dominar la comprensión profunda de un campo; segundo, prepararse para la carrera profesional, encontrar un buen empleo y construir una red de contactos; tercero, ampliar las relaciones sociales, disfrutar de la vida social y experimentar la cultura universitaria. Cada estudiante asigna un peso diferente a estos tres objetivos, y la forma en que usa la IA expone esos pesos con precisión.
Si a usted solo le importa "aprobar el examen" y "obtener el título", enviará directamente el resultado de la IA como tarea. Esto no es un juicio moral, sino una realidad: cuando la tecnología permite alcanzar un objetivo con el mínimo esfuerzo, ¿por qué tomar el camino largo? Si su objetivo siempre fue obtener un título para conseguir empleo, usar IA para completar tareas es una decisión perfectamente racional.
Pero si usted realmente quiere aprender y comprender un campo en profundidad, usará la IA como un interlocutor. Le hará preguntas, le pedirá que explique conceptos y luego reformulará las ideas con sus propias palabras. Le pedirá que escriba una primera versión del código y luego usted mismo lo refactorizará y optimizará. Se asegurará de que en cada etapa comprende verdaderamente lo que está sucediendo.
Esta polarización no solo existe entre distintos estudiantes, sino también entre distintas disciplinas. Los estudiantes de humanidades tienden a prescindir de la IA, porque su aprendizaje requiere lectura atenta: leer cuidadosamente el texto original, saborear los matices del lenguaje, comprender la intención del autor. La IA interfiere con este proceso, porque ofrece resúmenes y paráfrasis, no la experiencia directa del texto original. Los estudiantes de ingeniería y negocios, en cambio, usan la IA extensamente, porque reduce las barreras técnicas y permite que personas sin formación en informática puedan escribir código, crear sitios web y analizar datos.
Esta polarización es, en esencia, una diferencia en la comprensión de "qué vale la pena aprender". Para el estudiante de humanidades, la experiencia de leer a Shakespeare en el original ya es aprendizaje en sí misma; para el estudiante de ingeniería, lo importante es si puede resolver el problema, no si escribe personalmente cada línea de código. La IA hace que esta diferencia sea aún más evidente.
¿Herramienta o muleta? Un criterio simple para distinguirlas
En la entrevista surgió una pregunta clave: ¿cómo distinguir si la IA es una herramienta o una muleta?
Los estudiantes dieron una respuesta sorprendentemente unánime: si puede explicarlo o no.
Si usted no puede explicar lo que creó, si no puede describir qué papel desempeñó la IA en el proceso, entonces es una muleta. Si puede explicarlo como si estuviera hablando con un estudiante de primaria, si puede ofrecer explicaciones tanto de nivel básico como avanzado, entonces es una herramienta.
Este criterio parece simple, pero toca la esencia del aprendizaje. La lógica central del método Feynman es: si no puede explicar un concepto con palabras sencillas, entonces aún no lo ha comprendido realmente. El aprendizaje en la era de la IA sigue la misma lógica: si no puede explicar lo que la IA hizo por usted, entonces solo está "externalizando el pensamiento", no "potenciándolo".
En la entrevista se mencionó un ejemplo interesante: un estudiante desarrolló una herramienta que permite cargar las diapositivas de una clase, y la IA genera anotaciones similares a las de un profesor junto a cada diapositiva. Este estudiante dijo: "Funciona bien porque yo ya le he indicado qué quiero saber: las definiciones de ciertos elementos en las diapositivas. Las diapositivas a veces son abstractas, carecen de contexto, y es necesario agregar explicaciones al margen."
La clave está en "yo ya le he indicado qué quiero saber". Este estudiante conoce sus propias lagunas de conocimiento, sabe qué tipo de ayuda necesita y luego guía activamente a la IA para que brinde esa ayuda. Esto es una herramienta. Si en cambio simplemente le entrega las diapositivas a la IA y le pide que "resuma esta clase", y luego memoriza ese resumen, eso es una muleta.
La diferencia radica en la proactividad y la comprensión. Quien usa una herramienta sabe lo que está haciendo y controla todo el proceso. Quien usa una muleta cede el control a la tecnología y se convierte en un receptor pasivo.
El rezago de las instituciones no es lentitud de reacción, sino una incapacidad estructural para responder
En la entrevista se mencionaron algunos esfuerzos institucionales. La London School of Economics tiene un curso obligatorio que comienza a orientar a los estudiantes sobre cómo usar Claude: conversar con la herramienta, asignarle diferentes roles y luego entregar los registros de conversación para que se evalúe cómo interactuaron con la IA. El centro de gestión profesional de la Universidad Estatal de Arizona creó una biblioteca de prompts con plantillas para diferentes escenarios. Todos estos son buenos intentos, y la idea central es: no prohibir la IA, sino enseñar a los estudiantes a usarla de manera responsable.
Pero estos son la minoría. La mayoría de las universidades aún debate si "deberían permitir que los estudiantes usen IA". Algunos profesores dicen que se puede usar, pero hay que indicar cómo se utilizó en la tarea; algunos cursos la prohíben directamente; otros simplemente no la mencionan, asumiendo que los estudiantes no la usarán. No hay un marco integrado, no hay estándares unificados; todo el sistema está en un estado de caos.
El problema más profundo es: esta cuestión, por su naturaleza, no puede resolverse con normas y reglamentos.
La lógica de supervisión de la educación tradicional es: la institución establece reglas, los estudiantes las cumplen y quienes las violan son sancionados. Esta lógica funciona bajo la premisa de que "el comportamiento infractor puede ser detectado". Pero la IA rompe esa premisa.
Se puede prohibir que los estudiantes usen IA al entregar una tarea, pero no se puede monitorear si la usaron durante el proceso de reflexión. Se pueden usar herramientas de detección de IA, pero la precisión de estas herramientas está lejos de alcanzar un nivel que justifique sanciones: la tasa de falsos positivos es demasiado alta, y los estudiantes aprenden rápidamente a evadir la detección. Más importante aún, fundamentalmente no se puede distinguir entre "una tarea de alta calidad realizada con ayuda de IA" y "una tarea de alta calidad realizada de forma independiente", porque un buen uso de la IA debería ser precisamente imperceptible.
En la entrevista se dijo algo muy directo: fundamentalmente, ningún reglamento va a cambiar la forma en que los estudiantes usan la IA. La responsabilidad está en manos de los estudiantes. Esto no es evadir responsabilidades, sino reconocer la realidad.
Cuando la tecnología hace posible "aprobar sin estudiar", las instituciones educativas no enfrentan un problema de gestión, sino un problema existencial: si los exámenes no pueden demostrar el aprendizaje, ¿cuál es la razón de ser de la universidad?
La lógica fundamental del sistema educativo se ha roto
Esta pregunta toca la contradicción fundamental del sistema educativo.
La educación tradicional se construyó sobre varias premisas centrales: primero, el conocimiento es escaso y se necesitan instituciones especializadas (universidades) y profesionales (profesores) para transmitirlo; segundo, los resultados del aprendizaje pueden medirse mediante exámenes; tercero, un título demuestra que usted domina el conocimiento de un campo y, por lo tanto, está calificado para trabajar en él.
La IA está rompiendo estas premisas una por una.
El conocimiento ya no es escaso. En YouTube hay cursos gratuitos de Stanford, Claude puede responder sus preguntas en cualquier momento, en GitHub hay innumerables proyectos de código abierto para estudiar. No se necesita ir a la universidad para acceder al conocimiento, y ni siquiera es necesario pagar una suscripción para obtener tutoría básica con IA.
Los exámenes no pueden medir el aprendizaje. Cuando la IA puede completar la mayoría de las preguntas de un examen, este pasa de ser "una herramienta para medir el nivel de comprensión" a "una herramienta para medir si se sabe usar IA". Esto no significa que los exámenes sean completamente inútiles, sino que ya no pueden distinguir con precisión entre "quien realmente aprendió" y "quien sabe aprovechar las herramientas".
El valor del título está disminuyendo. Cuando los empleadores se dan cuenta de que un título no garantiza que el candidato realmente domina los conocimientos relevantes, le dan más importancia a las pruebas de capacidad real: portafolios, experiencia en proyectos, desempeño en prácticas profesionales. El título pasa de ser una "prueba de competencia" a un simple "requisito mínimo".
Cuando estas premisas se quiebran, la propuesta de valor del sistema educativo necesita ser redefinida.
La entrevista ofrece una respuesta: el valor de la universidad pasa de "transmitir conocimiento" a "proporcionar un entorno". Un entorno donde se puede cometer errores, explorar y confrontar ideas con otras personas. Donde se puede pasar un fin de semana con los compañeros de residencia haciendo una "lista de deseos antes de graduarse", probar ideas "probablemente tontas" en un hackathon, debatir con los profesores, discutir con los compañeros y aprender del fracaso sin arriesgar la carrera profesional.
Los proyectos estudiantiles mencionados en la entrevista ilustran bien este punto: "recordatorio automático de inscripción de materias", "buscador de aulas vacías", "ranking de deseos antes de la graduación". Ninguno de estos proyectos es técnicamente complejo, y muchos de sus creadores ni siquiera tienen formación en informática. Pero nacen de emociones humanas reales: el miedo a perderse algo, la búsqueda de comodidad, el aprecio por la vida universitaria.
Cuando las barreras técnicas se reducen, lo importante ya no es "si sabe programar", sino "qué problema quiere resolver". La universidad ofrece un espacio para explorar libremente estas preguntas, un entorno donde se pueden convertir ideas en realidad y aprender del fracaso.
La IA puede completar sus tareas, pero no puede vivir por usted ese período en el que "se puede errar y se puede explorar".
La paradoja del mercado laboral
La segunda mitad de la entrevista abordó el empleo, revelando otra paradoja.
Los estudiantes usan IA para redactar currículos; las empresas usan IA para filtrarlos. Todo el ciclo de contratación se convierte en hablarle a una pantalla: primero se usa IA para escribir la carta de presentación, luego se responden preguntas frente a una cámara, y finalmente se recibe una carta de rechazo generada por IA. Desde el envío del currículum hasta la recepción del rechazo, pueden pasar solo 15 minutos. La eficiencia es alta, pero la humanidad es escasa.
Esto ha creado un mercado laboral de "IA contra IA". Los estudiantes entrenan a la IA para escribir "buenos" currículos; las empresas entrenan a la IA para filtrar "buenos" candidatos. El papel de los seres humanos reales en este proceso es cada vez menor. Hablarle a una pantalla no genera química, no permite mostrar esas cualidades difíciles de cuantificar pero muy importantes: el sentido del humor, la capacidad de adaptación, las sutilezas del trabajo en equipo.
Pero la otra cara de la paradoja es que el dominio de la IA se ha convertido en una nueva ventaja competitiva. Las cuatro grandes firmas de consultoría solían contratar MBA generalistas; ahora buscan específicamente MBA con habilidades en IA. Si usted sabe cómo aplicar la IA en diferentes industrias, será su candidato preferido.
La paradoja es esta: la IA hace que el mercado laboral sea más frío, y al mismo tiempo hace que el mercado laboral valore más las habilidades en IA. No se puede escapar; solo se puede aprender a usarla de manera efectiva.
Esto nos lleva de vuelta a la pregunta central: ¿qué significa "usar de manera efectiva"? No es saber usar ChatGPT para escribir correos electrónicos, sino ser capaz de identificar qué problemas son aptos para ser resueltos con IA, poder diseñar prompts que guíen a la IA hacia los resultados que usted necesita, y poder evaluar la calidad del resultado de la IA y realizar las correcciones necesarias.
Esta capacidad no se cultiva prohibiendo la IA, sino a través de mucha práctica y ensayo y error. Por eso las universidades que adoptan activamente la IA, que crean Claude Builder Clubs y organizan hackathons, están ofreciendo a sus estudiantes una educación más valiosa: permiten que los estudiantes aprendan a colaborar con la IA en un entorno relativamente seguro.
La transferencia de la responsabilidad
La observación más importante de la entrevista quizás sea esta: cuando la tecnología permite "aprobar sin estudiar", el sentido del aprendizaje en sí mismo se convierte en una pregunta que cada persona necesita responder por sí misma.
Se trata de una transferencia de responsabilidad. De la institución al estudiante, de las reglas a la autodisciplina, de la motivación extrínseca a la motivación intrínseca.
La motivación en la educación tradicional es extrínseca: se necesita aprobar los exámenes para obtener el título, y se necesita el título para conseguir empleo. Este sistema de incentivos externos impulsa a los estudiantes a estudiar. Pero cuando la IA permite aprobar sin estudiar, este sistema de incentivos deja de funcionar.
Lo único que queda es la motivación intrínseca: ¿realmente quiere aprender? ¿De verdad le interesa este campo? ¿Realmente quiere comprender en profundidad, o solo quiere obtener un título?
En la entrevista hay un detalle muy revelador. Un estudiante mencionó que el posgrado tiene su lado negativo: se tienen varios trabajos simultáneamente, no hay tiempo, así que a veces se usa la IA para completar rápidamente un examen. Pero luego añadió: el posgrado debería ser el período en el que se desarrolla el pensamiento crítico, en el que se muestra una faceta más decidida. Era consciente de la contradicción, pero eligió la eficiencia.
Esto no es un juicio moral. Bajo la presión de la realidad, la eficiencia suele ser más importante que los ideales. Pero esta elección revela un hecho: cuando la presión externa (completar el examen) y la motivación interna (aprender en profundidad) entran en conflicto, muchas personas eligen la primera.
La IA agudiza este conflicto, porque hace que "cumplir con los exámenes" sea extremadamente fácil. En la era anterior a la IA, incluso si solo se quería cumplir con el examen, era necesario aprender algo para aprobarlo. La IA elimina ese paso intermedio: se puede aprobar sin aprender absolutamente nada.
Esto obliga a cada persona a enfrentar esa pregunta directamente: ¿para qué va usted a la universidad?
Si la respuesta es "para obtener un título y conseguir empleo", entonces usar IA para completar las tareas es perfectamente razonable. Si la respuesta es "realmente quiero aprender este campo", entonces necesita resistir activamente la tentación de los atajos que ofrece la IA.
La universidad no puede tomar esa decisión por usted. Las reglas no pueden obligarlo a desarrollar motivación intrínseca. Es su propia responsabilidad.
La tecnología no esperará a que usted esté listo
Al final de la entrevista, hay una actitud que se mantiene constante: "Ya encontraremos la manera de resolverlo."
¿Las reglas de la universidad no se actualizan a tiempo? Se empieza a usar la herramienta primero y luego se le dice a la institución qué funciona. ¿La IA podría usarse para hacer trampa? Poco a poco se aprende a usarla de manera responsable. ¿El mercado laboral cambió? Se adapta uno a las nuevas reglas del juego.
Esto no es optimismo ciego, sino realismo. La tecnología ya está aquí y no va a esperar a que usted esté listo para empezar a cambiar el mundo. Se puede elegir resistir o adaptarse, pero no se puede elegir detener el tiempo.
La relación de esta generación de estudiantes con la IA no es de miedo ni de adopción ciega, sino de exploración en medio del caos y aprendizaje a través del ensayo y error.
Los proyectos que hacen en el Claude Builder Club no son técnicamente complejos, pero resuelven problemas reales. Las ideas que prueban en los hackathons pueden ser tontas, pero al menos lo están intentando. La confusión que sienten en clase —las reglas no son claras— al menos los lleva a reflexionar.
Esta actitud de "aprender haciendo" probablemente sea más útil que cualquier reglamento para ayudarlos a adaptarse a la era de la IA.
Kevin Kelly propuso en What Technology Wants el concepto de "technium": la tecnología, como un todo, parece tener voluntad propia y querer volverse cada vez más poderosa. En la entrevista hay una observación que resuena con esta idea: en los últimos dos años, todo lo que la IA ha necesitado para seguir avanzando, lo ha conseguido. El cambio de actitud hacia la energía nuclear, la discusión sobre centros de datos espaciales: cada vez que un cuello de botella podría frenar la IA, el obstáculo es eliminado.
Pero quizás la formulación más precisa sea: los estudiantes crearán lo que necesiten.
La IA es solo una herramienta. Lo que determinará el futuro es cómo esta generación de estudiantes elija usarla: si para evadir el pensamiento o para potenciarlo; si para cumplir con los exámenes o para explorar el mundo; si como muleta o como herramienta.
Esa decisión no la puede controlar la universidad; solo ellos mismos pueden tomarla.
Y a juzgar por esta entrevista, al menos una parte de los estudiantes está reflexionando seriamente sobre esta cuestión. Eso probablemente sea suficiente.
Comentarios
Selecciones Curadas
Reflexiones y resúmenes de videos y blogs de expertos en tecnología, registrando aprendizajes y perspectivas
Pensar como un Agent: la filosofia de diseno de herramientas del equipo de Claude Code
Analisis de la experiencia de Thariq, ingeniero de Anthropic, en el diseno de herramientas para Agents — de tres fracasos a la divulgacion progresiva, como el equipo de Claude Code aprendio a "ver el mundo como un Agent"