¿Están las empresas de inteligencia artificial manteniendo a la humanidad a salvo de los posibles daños de la IA? No apuestes por ello, dice una nueva boleta de calificaciones.
A medida que la IA desempeña un papel cada vez más importante en la forma en que los humanos interactúan con la tecnología, los daños potenciales se vuelven más claros: las personas usan chatbots impulsados por IA para recibir asesoramiento y luego, o usan IA para. También existen riesgos futuros: la IA se utiliza para fabricar armas o derrocar gobiernos.
Sin embargo, no hay suficientes incentivos para que las empresas de IA den prioridad a mantener a la humanidad segura, y eso se refleja en un informe publicado el miércoles por la organización sin fines de lucro Future of Life Institute, con sede en Silicon Valley, que tiene como objetivo dirigir la IA hacia una dirección más segura y limitar los riesgos existenciales para la humanidad.
"Son la única industria en Estados Unidos que fabrica tecnología poderosa que no está completamente regulada, lo que los coloca en una carrera hacia el fondo donde simplemente no tienen los incentivos para priorizar la seguridad", dijo en una entrevista el presidente del instituto y profesor del MIT, Max Tegmark.
Las calificaciones generales más altas otorgadas fueron solo una C+, otorgada a dos empresas de inteligencia artificial de San Francisco: OpenAI, que produce ChatGPT, y Anthropic, conocida por su modelo de chatbot de inteligencia artificial Claude. La división de inteligencia artificial de Google, Google DeepMind, recibió una C.
En una clasificación aún más baja quedaron Meta, la empresa matriz de Facebook con sede en Menlo Park, y xAI, la empresa con sede en Palo Alto de Elon Musk, que recibieron una D. Las empresas chinas Z.ai y DeepSeek también obtuvieron una D. La calificación más baja se la dio a Alibaba Cloud, que obtuvo una D-.
Las calificaciones generales de las empresas se basaron en 35 indicadores en seis categorías, incluida la seguridad existencial, la evaluación de riesgos y el intercambio de información. El índice recopiló evidencia basada en materiales disponibles públicamente y respuestas de las empresas a través de una encuesta. La puntuación fue realizada por ocho expertos en inteligencia artificial, un grupo que incluía académicos y jefes de organizaciones relacionadas con la IA.
Todas las empresas del índice se ubicaron por debajo del promedio en la categoría de seguridad existencial, que tiene en cuenta las intervenciones de seguimiento y control interno y la estrategia de seguridad existencial.
"Si bien las empresas aceleran sus ambiciones de AGI y superinteligencia, ninguna ha demostrado un plan creíble para prevenir un mal uso catastrófico o la pérdida de control", según el informe AI Safety Index del instituto, que utiliza el acrónimo de inteligencia artificial general.
Tanto Google DeepMind como OpenAI dijeron que están invirtiendo en esfuerzos de seguridad.
"La seguridad es fundamental para la forma en que construimos e implementamos la IA", dijo OpenAI en un comunicado. "Invertimos mucho en investigaciones de seguridad de vanguardia, incorporamos salvaguardias sólidas en nuestros sistemas y probamos rigurosamente nuestros modelos, tanto internamente como con expertos independientes. Compartimos nuestros marcos de seguridad, evaluaciones e investigaciones para ayudar a avanzar los estándares de la industria, y fortalecemos continuamente nuestras protecciones para prepararnos para capacidades futuras."
Google DeepMind dijo en un comunicado que requiere "un enfoque riguroso y basado en la ciencia para la seguridad de la IA".
"Nuestro esquema describe protocolos específicos para identificar y mitigar riesgos severos de poderosos modelos de inteligencia artificial fronterizos antes de que se manifiesten", dijo Google DeepMind. "A medida que nuestros modelos se vuelven más avanzados, continuamos innovando en seguridad y gobernanza al ritmo de nuestras capacidades".
El informe del Future of Life Institute dice que xAI y Meta "carecen de compromisos de seguimiento y control a pesar de tener marcos de gestión de riesgos, y no han presentado pruebas de que inviertan más que una mínima parte en investigación de seguridad". Otras empresas como DeepSeek, Z.ai y Alibaba Cloud carecen de documentos disponibles públicamente sobre la estrategia de seguridad existencial, afirmó el instituto.
Meta, Z.ai, DeepSeek, Alibaba y Anthropic no respondieron a una solicitud de comentarios.
"Mentiras de los medios heredados", dijo xAI en una respuesta. Un abogado que representa a Musk no respondió de inmediato a una solicitud de comentarios adicionales.
Musk también es asesor del Future of Life Institute y ha proporcionado financiación a la organización sin fines de lucro en el pasado, pero no participó en el Índice de seguridad de la IA, dijo Tegmark.
Tegmark dijo que le preocupa que si no hay suficiente regulación de la industria de la IA, esto podría llevar a ayudar a los terroristas a fabricar armas biológicas, manipular a las personas de manera más efectiva que ahora o incluso comprometer la estabilidad del gobierno en algunos casos.
"Sí, tenemos grandes problemas y las cosas van en mala dirección, pero quiero enfatizar lo fácil que es solucionarlo", dijo Tegmark. "Sólo tenemos que contar con normas de seguridad vinculantes para las empresas de IA".
Ha habido esfuerzos en el gobierno para establecer una mayor supervisión de las empresas de IA, pero algunos proyectos de ley han recibido el rechazo de grupos de presión tecnológicos que argumentan que una mayor regulación podría frenar la innovación y hacer que las empresas se trasladen a otros lugares.
Pero ha habido alguna legislación que tiene como objetivo monitorear mejor los estándares de seguridad en las empresas de IA, incluida la legislación que fue firmada por el gobernador Gavin Newsom en septiembre. Requiere que las empresas compartan sus protocolos de seguridad e informen incidentes como ataques cibernéticos al estado. Tegmark calificó la nueva ley como un paso en la dirección correcta, pero se necesita mucho más.
Rob Enderle, analista principal de la firma de servicios de asesoría Enderle Group, dijo que pensaba que el Índice de Seguridad de la IA era una forma interesante de abordar el problema subyacente de que la IA no está bien regulada en los EE. UU. Pero existen desafíos.
"No me queda claro que Estados Unidos y la administración actual sean capaces de tener regulaciones bien pensadas en este momento, lo que significa que las regulaciones podrían terminar haciendo más daño que bien", dijo Enderle. "Tampoco está claro que alguien haya descubierto cómo implementar las regulaciones para garantizar su cumplimiento".
0 Comentarios