La prensa siempre ha utilizado metáforas y ejemplos para simplificar problemas complejos y facilitarlos para comprender. Con el aumento en el chatbot, la tendencia se intensifica por la tendencia de la ingeniería humana, ya sea en comparación con la medicina, la imagen familiar o los escenarios distópicos.
Aunque lo que está detrás y no es más que códigos y círculos, los medios a menudo representan algoritmos y cualidades humanas. Bueno, ¿qué perdemos y qué obtendremos, cuando deja de ser un mero dispositivo y se convierte en un alter ego humano lingüístico, que "piensa", "siente" e incluso "preocuparse"?
A Lire Aussi: La empatía artificial de Chatgpt es un truco de idiomas. Así es como funciona
Cerebro digital
Esta forma de escribir reemplaza la jerga técnica (modelo básico, parámetros, GPU, etc.) con un órgano que todos reconocemos como el núcleo de la inteligencia humana. Esto tiene dos resultados. Permite a las personas comprender el tamaño y la naturaleza de la tarea ("pensamiento") qué máquina se realiza. Sin embargo, también sugiere que la IA tiene una "mente" que puede traer juicios y memoria de contextos, algo que actualmente está lejos de la realidad técnica.
Esta metáfora se ajusta a la teoría conceptual clásica de la metáfora de George Lakoff y Mark Johnson, que afirma que los conceptos sirven para ayudar a las personas a comprender la realidad y permitirles pensar, pensar y pensar. En una conversación sobre la IA, significa convertir las habilidades pesadas y abstractas ("cálculo estadístico") en conocido ("pensamiento").
Si bien es potencialmente útil, esta tendencia corre el riesgo de atenuar la diferencia entre la correlación estadística y la comprensión semántica. Una ilusión más fuerte de que los sistemas informáticos realmente pueden "saber" algo.
Máquinas con sentimientos
En febrero de 2025. ABC ha publicado un informe sobre la "IA emocional" que preguntó: "¿Llegará el día cuando puedan sentir?" El texto fue contado por el equipo español que estaba tratando de equipar los sistemas de IA conversacionales con un "sistema límbico digital".
Aquí la metáfora se vuelve más audaz. El algoritmo ya no es pensar, pero también puede sufrir o sentir alegría. Esta comparación dramatiza la innovación y más cerca del lector, pero conlleva errores conceptuales: por definición, los sentimientos están asociados con la existencia corporal y la autoconciencia, que el software no puede tener. La presentación de IA como un "tema emocional" hace que sea fácil exigir empatía o culpar a la crueldad. Por lo tanto, el enfoque moral se transfiere de las personas que diseñan y programan la máquina misma.
Un artículo similar reflejaba que "si la inteligencia artificial parece humana, hay sentimientos como el hombre y las vidas como el humano ... ¿Qué es importante es una máquina?"
Leer también: Humanización y podría llevarnos a deshumanizarnos
Robots a quienes les importa
Los robots humanoides a menudo se presentan en estos términos. El informe en El Pai en el culo chino para el cuidado de ancianos de Android los describió como máquinas que "se preocupan por sus mayores". Decir "Cuidado", un miembro se refiere al deber de la familia de ver a sus mayores, y el robot se presentó como un pariente que proporcionaría socialización emocional y asistencia física previamente proporcionada por la familia o el personal de cuidado.
Este cuidador de metáfora no es todo malo. Él legitima la innovación en el contexto de la crisis demográfica, y al mismo tiempo calmando los temores tecnológicos que representan a los robots como un apoyo básico para el personal, a diferencia de los trabajos amenazantes.
Sin embargo, podría verse como la atenuación de problemas éticos que rodean la responsabilidad al cuidar los trabajos en las máquinas que administran empresas privadas, sin mencionar una naturaleza insegura de este tipo.
Asistente de doctorado
En el segundo informe de El Pais, los modelos de idiomas grandes se presentan como un asistente de médico o "extensión", lo que puede revisar los registros médicos y sugerir diagnósticos. La metáfora del puesto de "bisturí inteligente" o "residente incansable" AI en el sistema de salud como un colaborador confiable, no un sustituto.
Este marco híbrido, ni un colega inercio ni autónomo, fomenta la aceptación pública, porque respeta la administración médica mientras promete eficiencia. Sin embargo, también abre discusiones de responsabilidad: si la "extensión" es incorrecta, ¿la culpa se encuentra con los profesionales, el software o la empresa de profesionales humanos que lo beben?
¿Por qué la prensa se basa en la metáfora?
Más que la floración ornamental, estas metáforas tienen al menos tres propósitos. Primero y lo más importante, facilitar la comprensión. La explicación de las redes neuronales profundas requiere tiempo y jerga técnica, pero hablan de "cerebro" más fácil para los lectores de digerir.
En segundo lugar, crean un drama narrativo. El periodismo tiene éxito en historias con protagonistas, conflictos y resultados. La humanización y esto crea, junto con héroes, villanos y mentores y aprendices.
Tercero, las metáforas sirven para formular juicios morales. Solo si el algoritmo se asemeja al objeto, se puede corresponder o otorgar un préstamo.
Sin embargo, estas mismas metáforas pueden interferir con el debate público. Si "siente", entonces significa que debe regularse como ciudadanos. Igualmente, si se ve como si estuviera en nuestra inteligencia superior, parece natural que aceptemos su autoridad.
Un lire aussi: tenemos que dejar de fingir ser inteligente, así es como
Cómo hablar de AI
El aumento de estas metáforas sería imposible, ni es algo por lo que debemos luchar. El lenguaje figurativo es la forma en que los seres humanos entienden lo desconocido, pero es importante que lo use críticamente. Con ese fin, ofrecemos algunas recomendaciones para escritores y editores:
Primero, es importante agregar anti-Tues técnicos. Esto significa, después de la introducción de la metáfora, brevemente, pero explicando claramente lo que el sistema en cuestión no hace.
También es importante evitar dar y las agencias absolutas del hombre. Esto significa que las frases como "AI decide" deben estar calificadas: ¿el sistema "Recomendar"? ¿El algoritmo "clasifica"?
Otra clave es mencionar los recursos humanos responsables. El nombramiento de desarrolladores y reguladores nos recuerda que la tecnología no aparece del vacío.
Del mismo modo, deberíamos diversas metáforas y explorar menos imágenes antropomórficas, por ejemplo, "microscopio" o "motor estadístico", que pueden enriquecer la conversación.
Si bien la inteligencia artificial de "humanización" en la prensa ayuda a familiarizarse con la tecnología compleja, tanto como nosotros, es más fácil proyectar miedos, esperanzas y responsabilidades con los servidores y líneas del código.
Como esta tecnología se desarrolla aún más, una tarea que enfrenta periodistas, así como sus lectores, serán un equilibrio sensible entre el poder evocador de la metáfora y la precisión conceptual que necesitamos si tenemos que continuar discutiendo sobre el futuro.
0 Comentarios