Más del 80% de los estudiantes de Middle College en Middle Master usan IA generativa para cursos, según investigaciones recientes que realicé con un colega y economista Zara Performer. Esta es una de las tasas de registro más rápidas en las actas, la salida del 40% de las tasas de adopción de adultos, y eso sucedió en menos de dos años después del lanzamiento público del ChatGPT del ChatGPT.
Aunque examinamos solo una universidad, nuestros resultados se armonizan con estudios similares, proporcionando la imagen resultante de la tecnología en la educación superior.
Entre diciembre de 2024 y febrero, examinamos más del 20% del cuerpo estudiantil a Manbury, o 634 estudiantes, para comprender mejor cómo los estudiantes usan inteligencia artificial y publicamos nuestros resultados en documentos de trabajo que aún no han pasado a través de la revisión.
Lo que encontramos los desafíos del pánico narrativo en la educación superior y, en cambio, indica que la política institucional se centra en cómo y se usa, no si debe prohibirse.
No solo una máquina doméstica
Al contrario de los títulos alarmantes que sugieren que "Chatggpt estaba desenrollando todo el proyecto académico" y "y hacer trampa se está deteriorando", descubrimos que los estudiantes usan y mejoran principalmente su aprendizaje, no para mejorar su aprendizaje.
Cuando le preguntamos a los estudiantes sobre 10 uso académico diferente de la IA, desde la explicación de los conceptos y resumiendo las lecturas para revisar, crear código de programa y, sí, incluso escribir ensayos, explicando los conceptos que explican la lista. Los estudiantes a menudo describieron la IA como un "tutor de demanda", un recurso que era especialmente valioso cuando las horas de oficina no están disponibles o necesitaban ayuda inmediata a altas horas de la noche.
Agrupamos la IA en dos tipos: "Aumentar" para describir el uso que mejoran el aprendizaje y la "automatización" para usar que el producto funcione con un esfuerzo mínimo. Hemos descubierto que el 61% de los estudiantes que usan IA usan estas herramientas para aumentar, mientras que el 42% las usa para tareas de automatización, como escribir ensayos o generar código.
Por supuesto, el medio es una pequeña universidad liberal con una parte relativamente grande de los estudiantes ricos. ¿Qué pasa con cualquier otro lugar? Para aprender, analizamos los datos de otros investigadores que cubren más de 130 universidades en más de 50 países. Los resultados reflejan los hallazgos de nuestro comité medio: los estudiantes globales que usan IA tienen más probabilidades de usarlo para aumentar los cursos de TI, no automáticamente automáticamente.
Los datos de las antropías muestran que las "explicaciones técnicas" representan el uso principal, en nuestro hallazgo de que los estudiantes usan con mayor frecuencia la IA para explicar los conceptos. Del mismo modo, Antrópico descubrió que el diseño de problemas de práctica, ensayos y materiales de resumen constituye una parte significativa del uso de los estudiantes, que se alinea con nuestros resultados.
En otras palabras, nuestro auto-Limit encuestado coincide con los datos de IA reales sobre la conversación.
¿Por qué es importante?
Como se observa recientemente el escritor y académico Hua HSU ", no hay figuras confiables cuántos estudiantes estadounidenses usan IA, solo historias sobre cómo están todos". Estas historias tienden a enfatizar ejemplos extremos, como el estudiante de Columbia que usó IA "para engañar a casi todas las tareas".
Pero estas anécdotas pueden difundir la adopción generalizada por las trampas universales. Nuestros datos confirman que el uso y realmente extendido, pero los estudiantes se utilizan principalmente para mejorar el aprendizaje, no reemplazarlo. Esta diferencia son las cosas: al pintar todo y usar como engaño, cobertura de alarma, puede normalizar la deshonestidad académica, con respecto a los estudiantes responsables para sentirse ingenuos por las siguientes reglas cuando creen que "todos los demás lo hacen".
Además, esta imagen distorsionada proporciona información sesgada a los administradores universitarios, lo que requiere información precisa sobre las formas reales de estudiantes de estudiantes para pruebas de política basada en evidencia.
Que sigue
Nuestros hallazgos sugieren que las políticas extremas, como la prohibición de prohibiciones o el uso ilimitado, conllevan riesgos. Las prohibiciones pueden desproporcionarse con los estudiantes que usan más de las funciones de enseñanza de la IA durante la creación de ventajas injustas para las transferencias de reglas. Pero el uso ilimitado podría permitir prácticas de automatización nocivas que puedan ser socavadas por el aprendizaje.
En lugar de una política única: todas las políticas, nuestros hallazgos me declararon creer que las instituciones deberían centrarse en ayudar a los estudiantes que distinguen útiles y usan potencialmente dañinos. Desafortunadamente, la investigación de los efectos de aprendizaje reales de la IA permanece en la infancia: ningún estudio probó que los diferentes tipos y uso están influenciados por los estudiantes de aprendizaje o si las influencias son positivas para algunos estudiantes, sino negativos para otros.
Si bien esta evidencia no está disponible, todos los interesados en cómo esta tecnología cambia la educación debe usar su mejor juicio para determinar cómo y puede alentar el aprendizaje.
0 Comentarios