El surgimiento de la inteligencia artificial generativa (IA) está cambiando nuestra relación con la tecnología. Un sistema de IA puede devolvernos un resultado inadecuado sin romperlo o utilizarlo adecuadamente. Simplemente puede "cometer un error" y, como haríamos con un humano, tenemos la opción de corregirlo.
Esta posibilidad hace que la confianza que depositamos en la inteligencia artificial y la forma en que la utilizamos cambie significativamente respecto a la forma en que utilizamos otras herramientas tecnológicas donde suele quedar mucho más claro si ha habido un error. Los sistemas de IA nos hacen preguntarnos si lo están haciendo mal y comprobar los resultados que nos ofrecen.
Esta diferencia tiene un impacto muy directo en el sector educativo, tanto en docentes como en estudiantes. En este ámbito, las posibilidades de la inteligencia artificial van desde usos para un mejor aprendizaje hasta usos contraproducentes para el aprendizaje. Y la confianza que depositamos en él está íntimamente relacionada con cada una de estas dos opciones.
Tecnología y confianza: una relación cambiante
La confianza es un factor esencial en el uso de la tecnología. Si bien el exceso de confianza puede generar dependencia y exposición cuando esa tecnología falla (o es "incorrecta"), la falta de confianza puede conducir a un uso ineficaz o incluso al rechazo de su uso. En un contexto educativo, el segundo es menos problemático que el primero: la desconfianza obligaría al alumno a comprobar que la información recibida es correcta, lo que debería ser positivo para su aprendizaje.
Para comprobar si este es el caso, investigué hasta qué punto los estudiantes confían en la información proporcionada por la inteligencia artificial y cómo la verifican.
Los resultados del estudio muestran que casi el 80% de los 132 estudiantes participantes lo utilizan a menudo o muy a menudo. Ninguno de ellos afirmó haber utilizado alguna vez esta herramienta con fines académicos.
Autopercepción versus realidad
Más del 75% de los estudiantes utiliza métodos que se consideran poco fiables para comprobar los resultados ofrecidos. Alrededor del 40% ni siquiera realiza acciones básicas como buscar fuentes en las que se basa la respuesta. Esto es particularmente preocupante dado que más del 75% admite que las herramientas de inteligencia artificial a veces o muy a menudo dan respuestas inapropiadas.
Pero lo más interesante es que la gran mayoría (más del 90% de los encuestados) consideró que eran capaces de identificar respuestas inapropiadas al menos ocasionalmente, y nadie informó no poder hacerlo. Por otro lado, creen que los profesores no son capaces de detectar dichos errores.
subjetividad irracional
La mayoría de universidades promueven el uso de la inteligencia artificial con formación específica tanto para profesores como para estudiantes. Por ejemplo, la Universidad Camilo José Cela, donde doy clases e investigo, hace un esfuerzo importante que va desde la formación continua hasta la organización de grandes eventos como el Foro Mundial de Educación o la financiación de investigaciones como ésta.
Pero un gran número de estudiantes no confían en las herramientas de inteligencia artificial pagas que ofrece la universidad porque les preocupa que su privacidad se vea comprometida. Creen que la universidad puede acceder a sus consultas y saber si han utilizado la IA de forma inapropiada.
Y lira también: ¿Usar ChatGPT para escribir un trabajo de fin de carrera es una trampa?
Nuestro estudio muestra el grado de subjetividad irracional en los estudiantes, lo que indica que el uso de esta herramienta no es el adecuado. Esto es cierto en términos de verificación de información, pero también en términos de qué herramientas son más apropiadas para el uso académico y cómo utilizarlas. Muchos profesores notan cada día como los alumnos ni siquiera son conscientes de que lo están utilizando de forma incorrecta en su proceso de aprendizaje.
Cuanta más confianza, peor es el aprendizaje
La inteligencia artificial es útil para realizar tareas académicas, pero esto no necesariamente significa que sea útil para el aprendizaje. Cuando los estudiantes confían en las respuestas proporcionadas por la IA y no verifican sus instrucciones, el aprendizaje no puede ser el mismo.
Leer más: Cuatro formas de experimentar con inteligencia artificial en el aula universitaria
Este exceso de confianza en la inteligencia artificial dificulta su uso como herramienta de aprendizaje, ya que el pensamiento crítico y la metacognición no intervienen: los procesos mentales que funcionan cuando necesitamos resolver un problema. Paradójicamente, la mayor parte del tiempo que los estudiantes "ahorran" en estas tareas lo dedican a eliminar la posibilidad de ser detectados mediante IA.
Si bien el uso de la inteligencia artificial puede ser crucial para su desempeño laboral, los estudiantes deben aprender a utilizarla como una herramienta de aprendizaje, lo cual es algo diferente a su hipotético uso en un ámbito profesional. Por tanto, queda un largo camino por recorrer para conseguir que la IA se integre eficazmente en el contexto educativo, y son necesarios estudios de este tipo para tomar el pulso y adoptar las medidas necesarias.
0 Comentarios