Es un hecho triste sobre la vida de la red que los usuarios buscan información de suicidio. En los primeros días de Internet, los tableros de boletines presentaron los grupos de discusión suicida. Hasta la fecha, Google aloja los archivos de estos grupos, así como otros servicios.
Google y otros pueden alojar y mostrar este contenido bajo la capa protectora de la inmunidad estadounidense de la responsabilidad por el consejo peligroso que los terceros pueden dar sobre el suicidio. Esto se debe a que el discurso es el tercero, no Google.
Pero, ¿qué pasa si el chatggpt, informado el mismo suicidio en línea, le da consejos de suicidio en la conversación de chatbot? Soy científico de tecnología y ex abogado y director de ingeniería en Google y veo que los chatbots de IA transfieren la posición de gran tecnología en el panorama legal. Las familias de las víctimas de suicidio prueban la responsabilidad de Chatbot en la corte en este momento, con cierto éxito temprano.
¿Quién es responsable cuando habla chatbot?
Cuando las personas buscan información en línea, ya sea suicidio, música o recetas, los motores de búsqueda muestran resultados de sitios e información web de autores de contenido. Para esta cadena, busque un host web para el usuario, continuaron como la forma dominante en que las personas respondieron recientemente.
Esta tubería era aproximadamente un modelo de actividad de Internet cuando el Congreso aprobó la ley sobre la decencia de la comunicación en 1996. Años. La ley de la Sección 230 creó inmunidad para las dos primeras conexiones en la cadena, la búsqueda y los hosts web, del discurso del usuario. Solo la última conexión en la cadena, el usuario enfrentó la responsabilidad de su discurso.
Chatbots colapsa estas viejas diferencias. Ahora, el chatggpt y los bots similares pueden buscar, recopilar información del sitio y hablar resultados, literalmente, en el caso de los bots de voz humanos. En algunos casos, el bot mostrará su trabajo como motores de búsqueda, notando una página web que es la fuente de su gran receta para el pollo miso.
Cuando los chatbots parecen ser solo una forma amistosa de buenos motores de búsqueda antiguos, sus empresas pueden lograr argumentos creíbles para aplicar un antiguo régimen de inmunidad. Los chatbots pueden ser el modelo de navegador antiguo en una nueva portada.

AI Chatbots Compromiso de los usuarios en el diálogo abierto y, en muchos casos, no proporciona fuentes de información que brindan. AP Photo / Kiichiro Sato
Pero en otros casos, parece un amigo de confianza, le pregunta sobre su día y ofrece ayuda en las necesidades emocionales. Los motores de búsqueda bajo el antiguo modelo no actuaron como guías de vida. Los chatbots a menudo se usan de esta manera. Los usuarios a menudo ni siquiera quieren un bot para mostrar su mano con conexiones web. Lanzar citas mientras Chatggpt te dice que serás un gran día para ser, bueno, incómodo.
Los chatbots más que modernos, que se desvían de las viejas estructuras de Internet, se mueven aún más de la inmunidad, los viejos reproductores web han disfrutado durante mucho tiempo. Cuando el chatbot actúa como su confidencial personal, retiro de sus ideas de cerebro virtual sobre cómo esto puede ayudarlo a lograr sus objetivos listados, no se estira que lo trate como un orador responsable de la información proporcionada.
Los tribunales reaccionan en especie, especialmente cuando el enorme y útil cerebro del bot dirigió a su deseo de aprender sobre el suicidio.
Chatbot casos adecuados
Las demandas existentes que involucran a las víctimas de chatbot y las víctimas de suicidios muestran que la puerta de la responsabilidad está abierta para Chatggpt y otros bots. El caso que involucra el personaje de Google .ai Bots es un ejemplo importante.
El personaje.Ai permite a los usuarios hablar con personajes creados por usuarios, desde figuras de anime hasta abuela prototípica. Los usuarios incluso podrían tener llamadas telefónicas virtuales con algunos personajes, hablando con admitir nanna virtual como si fuera la suya. En un caso en Florida, el personaje del "Juego de Trono" Targarien Persona supuestamente le pidió a la joven víctima que "volviera a casa" en el bot en el cielo antes de que la adolescente fuera filmada. La familia de la víctima demandó a Google.
Los padres del estado de 16 años que Chatggpt contribuyó al suicidio de su hijo.
La familia de la víctima no enmarcó el papel de Google en las condiciones tecnológicas tradicionales. En lugar de describir la responsabilidad de Google en el contexto de los sitios web o las funciones de búsqueda, el demandante se encuentra de la responsabilidad del producto de Google y la producción similar al fabricante principal de piezas. El tribunal de distrito dio esta fractura creíble a pesar del argumento de Google de que es solo un servicio de Internet y, por lo tanto, las viejas reglas de Internet.
El tribunal también rechazó los argumentos de que los bots de las declaraciones estaban protegidos para el primer cambio de discurso que los usuarios tenían derecho a escuchar.
Aunque el caso está en progreso, Google no pudo disparar rápidamente que las plataformas tecnológicas se han contado durante mucho tiempo dentro de las viejas reglas. Ahora hay un traje separado para diferentes carácter. Y Chatggpt se enfrenta a un caso en San Francisco, todo con un marco de producción y producción como un caso de Florida.
Obstáculos para superar a los fiscales
Aunque la puerta de la responsabilidad de los proveedores de chatbot ahora está abierta, otros problemas podrían hacer que las familias familiares recuperen cualquier daño del bot del proveedor. Incluso si el chatggpt y sus competidores no son inmunes a las demandas y los tribunales para comprar un sistema de responsabilidad del producto para chatbot, la falta de inmunidad no existe la victoria del fiscal.
Los casos de responsabilidad del producto requieren que el demandante demuestre que el demandado causó daños. Esto es particularmente difícil en los casos de suicidio, porque los tribunales tienden a descubrir que, independientemente de lo que fuera anteriormente, la única persona responsable del suicidio es víctima. Si un argumento enojado con un otro significativo que lleva a llorar "por qué no te matas" o un diseño de armas hace que sea más difícil descubrir que solo la víctima tiene la culpa de su muerte, no personas y dispositivos.
Pero sin proteger la inmunidad, las plataformas digitales disfrutaron de décadas, el cargo técnicamente se trata de costos mucho más altos para obtener la misma victoria que recibieron automáticamente. Al final, la historia de los casos de suicidio de chatbot puede ser más asentamientos sobre el secreto, pero se hacen los términos de las víctimas de las víctimas.
Mientras tanto, BOT probablemente establecerá más advertencia sobre el contenido y el activador para eliminar el bot se prepara cuando los usuarios ingresan al territorio que el bot está configurado peligrosamente. El resultado podría ser más seguro, pero menos dinámico y útil, Bot mundial ".
0 Comentarios