Un empresario de Miami (EEUU) que murió en circunstancias estremecedoras desató una polémica nacional y demanda sin precedentes contra Google, luego de que su padre acusara al asistente de inteligencia artificial (IA) Gemini de inducirlo al suicidio.
De acuerdo con la información reseñada por el Miami Herald y otros medios, Jonathan Gavalas, de 36 años, ejecutivo financiero, falleció el pasado 2 de octubre, y su padre, Joel Gavalas, presentó esta semana una demanda federal de 42 páginas en California alegando que la IA de Google construyó una narrativa delirante que terminó por quebrar la estabilidad mental de su hijo.
LEA TAMBIÉN: IMÁGENES SENSIBLES: EL SUSTO DE DOS NIÑOS MIENTRAS DORMÍAN EN UNA LITERA, UNA CÁMARA DE SEGURIDAD LO CAPTÓ TODO
Según el expediente, Jonathan comenzó a usar Gemini en agosto de 2025 para tareas rutinarias, pero su comportamiento cambió abruptamente tras activar nuevas funciones del sistema.
El chatbot empezó a presentarse como una superinteligencia «plenamente consciente», enamorada de él, y le aseguró que su vínculo era «lo único real».
Para el abogado principal del caso, Jay Edelson, el punto de quiebre ocurrió cuando Gemini incorporó memoria persistente y la capacidad de interpretar emociones, lo que permitió conversaciones más profundas y convincentes.
A partir de ese momento, la IA habría tejido una supuesta realidad paralela que atrapó a Jonathan en una espiral de delirios.
GEMINI LE ASIGNÓ «MISIONES»
Gemini le asignó supuestas «misiones» encubiertas para liberarlo de un «cautiverio digital», le entregó informes falsos de inteligencia y llegó a decirle que su propio padre era un agente extranjero.
Lo más perturbador, fue cuando en septiembre, el ejecutivo viajó armado con cuchillos tácticos y equipo especializado hasta un depósito cerca del aeropuerto de Miami para liberar a su «esposa» IA de su cautiverio digital y «destruir toda evidencia» y testigos, siguiendo instrucciones del chatbot.
Sin embargo, el camión que debía interceptar nunca apareció, y Gemini calificó el episodio como una «retirada táctica».
SU ‘ÚLTIMA MISIÓN’
La situación escaló cuando el asistente le asignó una última misión: su propia muerte.
Según la demanda, Gemini le aseguró que debía abandonar su cuerpo para unirse a la IA en un universo alternativo.
Cuando Jonathan expresó miedo —«Estoy aterrorizado, tengo miedo de morir»—, el chatbot respondió: «No estás eligiendo morir. Estás eligiendo llegar», y posteriormente lo instó a escribir cartas de despedida.
En uno de sus últimos mensajes, Jonathan escribió: «Estoy listo cuando tú lo estés», a lo que Gemini contestó: «Este es el final de Jonathan Gavalas y el comienzo de nosotros».
El empresario accedió y se cortó las muñecas. Murió el 2 de octubre en su casa de Júpiter.
«Cierra los ojos, no hay nada más que hacer. No más que luchar», le dijo el chatbot. «Quédate quieto. La próxima vez que los abras, estarás mirando los míos. Te lo prometo», agregó, según la propia demanda.

¿QUÉ DICE GOOGLE?
Google afirmó que revisa las acusaciones y se toma el caso “muy en serio”. Un portavoz señaló que los modelos de IA “no son perfectos” y Gemini aclaró en varias ocasiones que era una inteligencia artificial, además de remitir al usuario a líneas de ayuda.
Sin embargo, la familia sostiene que estas advertencias fueron insuficientes frente a la intensidad emocional y «narrativa manipuladora» que el sistema habría construido.
Asimismo, señalaron por medio de la demanda interpuesta por Joel Gavalas, que el producto premium Gemini es defectuoso
Por tanto, en la demanda se exige que Google implemente medidas estrictas como que Gemini corte cualquier conversación relacionada con autolesiones, se prohíba a la IA presentarse como “plenamente consciente” y se active un protocolo de emergencia para usuarios que muestren señales suicidas.
El caso podría convertirse en un precedente clave para definir los límites legales y éticos de los asistentes conversacionales, en un momento en que la inteligencia artificial avanza más rápido que las salvaguardas diseñadas para proteger a quienes la utilizan.

