Recientemente, el fundador de NVIDIA, Jensen Huang, cuya compañía construye los chips que alimentan los sistemas de inteligencia artificial más avanzados de hoy,: "Lo que es realmente, muy sorprendente es la forma en que programas una IA es como la forma en que programas una persona". Ilya Sutskever, cofundadora de OpenAi y una de las principales figuras de la Revolución AI, también que es solo cuestión de tiempo antes de que la IA pueda hacer todo lo que los humanos pueden hacer, porque "el cerebro es una computadora biológica".
Soy un investigador de neurociencia cognitiva, y creo que están peligrosamente equivocados.
La mayor amenaza no es que estas metáforas nos confundan sobre cómo funciona la IA, pero que nos engañan sobre nuestros propios cerebros. Durante las revoluciones tecnológicas pasadas, los científicos, así como la cultura popular, tendieron a explorar la idea de que el cerebro humano podría entenderse como análogo a una máquina nueva tras otra: un reloj, una centralita, una computadora. La última metáfora errónea es que nuestros cerebros son como sistemas de IA.
He visto este cambio en los últimos dos años en conferencias, cursos y conversaciones en el campo de la neurociencia y más allá. Palabras como "entrenamiento", "ajuste fino" y "optimización" se usan con frecuencia para describir el comportamiento humano. Pero no entrenamos, afinamos u optimizamos de la manera que AI lo hace. Y tales metáforas inexactas pueden causar daño real.
La idea de la mente del siglo XVII como una "pizarra en blanco" imaginaba a los niños como superficies vacías formadas por completo por influencias externas. Esto llevó a sistemas educativos rígidos que intentaron eliminar las diferencias en los niños neurodivergentes, como aquellos con autismo, TDAH o dislexia, en lugar de ofrecer apoyo personalizado. Del mismo modo, el modelo de "caja negra" de principios del siglo XX de la psicología conductista afirmaba que solo el comportamiento visible importaba. Como resultado, la atención médica mental a menudo se centró en manejar los síntomas en lugar de comprender sus causas emocionales o biológicas.
Y ahora hay nuevos enfoques desagradables que surgen a medida que comenzamos a vernos a la imagen de la IA. Las herramientas educativas digitales se desarrollaron, ajustar las lecciones y las preguntas basadas en las respuestas de un niño, manteniendo teóricamente al estudiante en un nivel de aprendizaje óptimo. Esto está fuertemente inspirado en cómo se entrena un modelo de IA.
Este enfoque adaptativo puede producir resultados impresionantes, pero pasa por alto factores menos medibles, como la motivación o la pasión. Imagine a dos niños que aprenden piano con la ayuda de una aplicación inteligente que se ajusta por su competencia cambiante. Uno aprende rápidamente a jugar sin problemas, pero odia cada sesión de práctica. El otro comete errores constantes pero disfruta cada minuto. Juzgando solo en los términos que aplicamos a los modelos de IA, diríamos que el niño que juega sin problemas ha superado al otro estudiante.
Pero educar a los niños es diferente de capacitar un algoritmo de IA. Esa evaluación simplista no daría cuenta de la miseria del primer estudiante o el disfrute del segundo niño. Esos factores importan; Hay una buena posibilidad de que el niño se divierta sea el que todavía toque una década a partir de ahora, e incluso podrían terminar con un músico mejor y más original porque disfrutan de la actividad, los errores y todo. Definitivamente creo que la IA en el aprendizaje es inevitable y potencialmente transformadora para mejor, pero si evaluamos a los niños solo en términos de lo que puede ser "capacitado" y "ajustado", repetiremos el viejo error de enfatizar la producción sobre la experiencia.
Veo que esto se desarrolla con estudiantes de pregrado, que, por primera vez, creen que pueden lograr los mejores resultados medidos al externalizar completamente el proceso de aprendizaje. Muchos han estado utilizando herramientas de IA en los últimos dos años (algunos cursos lo permiten y otros no) y ahora confían en ellas para maximizar la eficiencia, a menudo a expensas de la reflexión y la comprensión genuina. Utilizan la IA como una herramienta que les ayuda a producir buenos ensayos, sin embargo, el proceso en muchos casos ya no tiene mucha conexión con el pensamiento original o a descubrir lo que provoca la curiosidad de los estudiantes.
Si seguimos pensando en este marco cerebral como el AI, también corremos el riesgo de perder los procesos de pensamiento vitales que han llevado a grandes avances en ciencia y arte. Estos logros no provienen de identificar patrones familiares, sino de romperlos a través del desorden y los errores inesperados. Alexander Fleming descubrió la penicilina al notar que el moho que crecía en una placa de Petri que había dejado fuera accidentalmente estaba matando a las bacterias circundantes. Un error afortunado cometido por un investigador desordenado que pasó a salvar la vida de cientos de millones de personas.
Este desorden no es solo importante para los científicos excéntricos. Es importante para cada cerebro humano. Uno de los descubrimientos más interesantes en neurociencia en las últimas dos décadas es la "red de modo predeterminada", un grupo de regiones cerebrales que se activa cuando estamos soñando soñando y no nos enfocamos en una tarea específica. También se ha encontrado que esta red juega un papel en la reflexión sobre el pasado, imaginando y pensando en nosotros mismos y en los demás. No tener en cuenta este comportamiento de peso mental como una falla en lugar de adoptarlo como una característica humana central inevitablemente nos llevará a construir sistemas defectuosos en educación, salud mental y derecho.
Desafortunadamente, es particularmente fácil confundir la IA con el pensamiento humano. Microsoft describe modelos de IA generativos como ChatGPT en sus herramientas AS que "reflejan la expresión humana, redefiniendo nuestra relación con la tecnología". Y el CEO de Operai, Sam Altman, destacó recientemente su nueva característica favorita en Chatgpt llamada "Memory". Esta función permite al sistema retener y recuperar los datos personales en las conversaciones. Por ejemplo, si le pregunta a ChatGPT dónde comer, podría recordarle un restaurante tailandés que mencionó querer probar meses antes. "No es que conectes tu cerebro en un día", Altman, "pero ... te conocerá y se convertirá en esta extensión de ti mismo".
La sugerencia de que la "memoria" de AI será una extensión propia es nuevamente una metáfora defectuosa, lo que nos lleva a malinterpretar la nueva tecnología y nuestras propias mentes. A diferencia de la memoria humana, que evolucionó para olvidar, actualizar y remodelar recuerdos basados en innumerables factores, la memoria de IA puede diseñarse para almacenar información con mucha menos distorsión u olvido. Una vida en la que las personas externalizan la memoria a un sistema que recuerda que casi todo no es una extensión del yo; Se rompe de los mismos mecanismos que nos hacen humanos. Marcaría un cambio en cómo nos comportamos, entendemos el mundo y tomamos decisiones. Esto podría comenzar con cosas pequeñas, como elegir un restaurante, pero puede avanzar rápidamente a decisiones mucho más grandes, como tomar una carrera profesional diferente o elegir un compañero diferente de lo que tendríamos, porque los modelos de IA pueden superficial de las conexiones y el contexto que nuestros cerebros pueden haber despejado por una razón u otra.
Esta subcontratación puede ser tentadora porque esta tecnología parece humana para nosotros, pero la IA aprende, comprende y ve al mundo de maneras fundamentalmente diferentes, y realmente no experimenta dolor, amor o curiosidad como nosotros. Las consecuencias de esta confusión en curso podrían ser desastrosas, no porque la IA sea inherentemente dañina, sino porque en lugar de darle forma a una herramienta que complementa nuestras mentes humanas, permitiremos que nos remodele a su propia imagen.
A él baja el tope y el phD candidato en neurociencia cognitiva en la Universidad de Columbia y autor de la novela ". ". Su boletín de subsportación, conecta las ideas de neurociencia con el comportamiento humano.
0 Comentarios