La aparición de grandes modelos de idiomas (LLM), como Chatggpt, lanzó una discusión apasionada sobre su posible naturaleza consciente.
Hay pocos usuarios, entre ellos personas con capacitación científica o humanista, que afirman notar los signos de la vida interna, las emociones e incluso en estos sistemas. Argumentan que ciertos intercambios verbales revelan emociones complejas, empatía, autocersistencia e incluso sufrimiento.
Esta ilusión describió al científico y filósofo estadounidense Douglas Richard Hofstadter como una confusión peligrosa entre el uso sofisticado del lenguaje y la experiencia subjetiva de la conciencia real. Su crítica indica la forma en que muchos entusiastas interpretan la complejidad verbal como una señal integral, sin reparar una diferencia crucial entre el lenguaje y la experiencia en la generación. Esta es exactamente la diferencia, entre los productos textuales y la subjetividad de la vida, lo que permite la cuestión de la idea de que el sistema de idiomas está en sí mismo, alcanzar la conciencia.
Ilusión de conciencia y efectos de Eliza
Este fenómeno no es nuevo. 1966 El científico informático Joseph Weizenbaum desarrolló Eliza, un programa simple que imitó al terapeuta. A pesar de su simplicidad, muchos usuarios llegaron a creer que el sistema los entendía. Esta reacción fue profundamente preocupada por el programa, que advirtió en su influyente libro Fuerzas y la razón humana (1976) de riesgos éticos y epistemológicos para atribuir la vida mental al software.
Los modelos lingüísticos como chatgpt no entienden
Hoy, sesenta años después, con una capacidad verbal de LLM, Eliza Effect ha regresado reforzado. Los sistemas actuales no solo reformulan las preguntas, sino que generan textos con coherencia narrativa, referencias filosóficas, giros elegantes e incluso formas de humor. Sin embargo, esta competencia verbal no implica el interior o la comprensión.
LLM no comprende los conceptos que indican o tienen experiencia sobre lo que describen. EIF Eliza es proyectar la conciencia donde solo existen estructuras lingüísticas generadas estadísticamente. El resultado son técnicas sofisticadas que maximizan la probabilidad de la siguiente palabra basada en patrones extraídos de un gran corpus de lenguaje.
Fluidez de los modelos de idiomas
Una de las grandes trampas epistémicas LLM es su fluidez. Su capacidad para construir un discurso por cohesión y elegancia gramatical los hace extremadamente convincentes. El científico y filósofo estadounidense Douglas Hofstadter (2007) calificó esta capacidad de "fluidez superficial". Es, la capacidad de combinar condiciones y expresiones sin importar reflexión o conciencia real. Lo que parece un pensamiento profundo es en realidad con una sofisticada mación verbal.
Esto es, en términos del filósofo Luciano Florida (2019), "inteligencia artificial sin semántica". O, en términos del filósofo de la ciencia, Daniel Dennett (2018), "Habilidad sin comprensión".
¿Qué es ser un bate?
Para entender por qué la fluidez verbal no significa concienzudamente, es apropiado volver a la filosofía. Filósofo Thomas Nagel, en su famoso ¿Qué es ser un bate? (1974) (¿Cómo está el murciélago?), Afirma que la conciencia implica un punto de vista subjetivo, una calidad fenomenológica que evita una descripción objetiva.
Esta opacidad de la experiencia subjetiva, llamada Qualia, define la conciencia de Nagel como si algo difiera radicalmente de cualquier simulación de computadora. Por mucho que entendamos el funcionamiento del cerebro del murciélago, nunca sabremos lo que siente.
Los modelos de idiomas no tienen experiencias internas. Crean frases que "hablan" de amor, miedo o muerte, pero sin sentir amor, miedo o saben qué morir. Carecen de lo que el filósofo Thomas Metzinger (2003) llama "modelos con acceso consciente". Son máquinas sin punto de vista.
Sin sistemas
Para profundizar esta diferencia, la fenomenología del filósofo francés Maurice Merlea-Ponti revela especialmente. Merleau-Ponti afirma que la conciencia no es un mero proceso mental o un conjunto de datos simbólicos, sino que está conectado incapilmente con el cuerpo sino con el mundo encarnado. En su fenomenología de la percepción (1945), describe la conciencia como una experiencia en la que el cuerpo no es solo un objeto, sino el objeto primario a través del cual el mundo se experimenta y habitan.
Fingir que el sistema sin un cuerpo, sin un mundo vivo y sin tiempo interno, puede experimentar conciencia es equivalente a eliminar sus condiciones básicas.
Los LLM pueden articular frases sobre el sufrimiento o la belleza, pero no pueden mudarse, porque carecen por completo de una experiencia sensorial motora de que están en el hijo de Merlea-Ponti que no está en un estado de verdadera conciencia.
Habitación china
En una línea similar, el filósofo John Searle (1980) ilustra esta ausencia de comprensión a través de su experimento mental de la sala china. Una persona sin conocimiento chino puede ser respondida perfectamente en problemas en ese idioma si hay un manual con reglas sintácticas precisas. A los ojos de un observador externo, parece entender eso. Pero no hay comprensión real, solo manipulación sintáctica.
Por lo tanto, están trabajando, para ser imbuidos, sistemas informáticos: pueden simular la comprensión, pero no pretenden o una experiencia consciente. Esta analogía está directamente relacionada con las LLM: producen textos creíbles sin comprensión semántica o intenciones comunicativas.
La crítica del filósofo Hubert Dreifus complementa esta perspectiva. En el cual las computadoras no pueden hacer (lo que las computadoras no pueden hacer, 1972), insiste en que la inteligencia humana surge de una relación práctica y encarnada con el mundo, la posibilidad de mover contextos complejos que los algoritmos no poseen. Por lo tanto, aunque los LLM pueden crear textos consistentes y sofisticados, sin una comprensión experimental y situacional que la base de la conciencia y la inteligencia humana.
La ilusión de la conciencia en LLM es un espejismo que nace al diseñar experiencias humanas en máquinas que carecen del cuerpo y la experiencia.
Trampa de espejo
La clave del problema no vive en máquinas, sino en humanos. Lo que sucede en muchos casos es que diseñamos nuestros esquemas cognitivos en máquinas. Eso es lo que Hofstadter llama "trampa de espejo": creemos que vemos la mente donde solo hay palabras. Vemos la conciencia porque queremos verlo, porque anhelaremos encontrar el reflejo de nuestro lado interior en el fondo. Como explica la socióloga Sherri Turkle (2011), no estamos buscando máquinas conscientes, sino también relaciones significativas, aunque ilusorias, con entidades que nos devuelven "mirar".
Esta proyección puede tener consecuencias importantes. A nivel afectivo, corremos el riesgo de desarrollar relaciones con entidades que no pueden adaptarse a ellas. A nivel epistemológico, confundimos el rendimiento con la realidad. A nivel social, podríamos legitimar las decisiones automatizadas que simulan la empatía sin tenerla y podría debilitar nuestra comprensión humana al confundir la experiencia con la experiencia. A nivel legal, incluso podría conducir a los derechos de entrega y responsabilidad a los sistemas que no pueden experimentarse.
Si no aprendemos a distinguir el lenguaje y la experiencia, entre patrones y antecedentes, entre perforación y tema, corremos el riesgo de empaparse en una nueva forma de tecnociencia del animismo.
Antes de que ella declarara que las máquinas estaban emocionadas, tal vez deberíamos despertar nuestra fascinación con sus reflejos.
0 Comentarios