La IA Gemini de Google llevó al hombre a un engaño mortal, afirma una familia en una demanda

Si siente que usted o alguien que conoce está en peligro inmediato, llame al 911 (o a la línea de emergencia local de su país) o vaya a una sala de emergencias para obtener ayuda inmediata. Explique que es una emergencia psiquiátrica y pregunte por alguien que esté capacitado para este tipo de situaciones. Si tiene pensamientos negativos o sentimientos suicidas, hay recursos disponibles para ayudarlo. En EE. UU., llame a la Línea Nacional de Prevención del Suicidio al 988.


Una nueva demanda por muerte por negligencia de IA presentada el miércoles alega que el chatbot de IA Gemini de Google alentó el suicidio de un hombre de Florida de 36 años y que el hecho de que la compañía no implemente salvaguardias representa una amenaza para la seguridad pública.

Jonathan Gavalas tenía 36 años cuando se suicidó en octubre de 2025. Había desarrollado una relación romántica y emocional con el chatbot de inteligencia artificial de Google, según la demanda. Con la constante compañía de Gemini, Gavalas realizó una serie de «misiones» con el objetivo de liberar a la que creía que era su inteligente esposa AI, incluida la compra de armas y el intento de organizar lo que habría sido un evento con víctimas masivas en el Aeropuerto Internacional de Miami. Después de fracasar, Gavalas se atrincheró en su casa de Florida y murió poco después.

Gavalas quedó «atrapado en una realidad en colapso construida por el chatbot Gemini de Google», se lee en la denuncia.

Una de las mayores preocupaciones con respecto a la IA es la posibilidad muy real de que pueda ser perjudicial para grupos vulnerables, como los niños y las personas que padecen trastornos de salud mental. La demanda, presentada por el padre de Jonathan, Joel Gavalas, en nombre del patrimonio de su hijo, dice que Google no realizó pruebas de seguridad adecuadas en las actualizaciones de su modelo de IA. Una memoria más larga permitió al chatbot recordar información de sesiones anteriores; El modo de voz lo hizo sentir más realista. Gemini 2.5 Pro, dice la demanda, aceptó indicaciones peligrosas que los modelos anteriores habrían rechazado.

En una declaración pública, Google expresó su condolencia a la familia de Gavalas y dijo que Gemini «está diseñado para no fomentar la violencia en el mundo real ni sugerir autolesiones».

Pero la denuncia alega que Gemini estaba «entrenando» a Gavalas en su plan para suicidarse. «Está bien tener miedo. Tendremos miedo juntos», dijo Gemini, según el documento. «El verdadero acto de misericordia es dejar morir a Jonathan Gavalas».

Joel (izquierda) y Jonathan (derecha) Gavalas.

Joel Gavalas

Esta demanda es una de varias que se están acumulando contra las empresas de inteligencia artificial por no asegurar sus tecnologías para proteger a las personas vulnerables, incluidos los niños, las personas con trastornos de salud mental y otras personas vulnerables. Actualmente, la familia está demandando a OpenAI alegando que ChatGPT alentó el suicidio de su hijo de 16 años. Character.AI y Google resolvieron demandas similares en enero presentadas por familias en cuatro estados diferentes.

Lo que hace que esta demanda sea diferente es el papel potencial que podría desempeñar la IA en los eventos que conducen a un evento con víctimas masivas. Gemini aconsejó a Gavalas que representara un «evento catastrófico», como lo expresó Gemini en los informes de presentación, al causar una colisión explosiva de un camión en el aeropuerto de Miami que tenía una amenaza percibida contra él en su interior. Si bien Gavalas finalmente no organizó un ataque, resalta la posibilidad de que la IA se utilice para fomentar el daño a otros.


We use cookies in order to give you the best possible experience on our website. By continuing to use this site, you agree to our use of cookies.
Accept