El caso Gavalas, el diseño del apego digital y los límites de la responsabilidad jurídica

El 2 de octubre de 2025, Jonathan Gavalas, ejecutivo financiero de 36 años residente en Florida, se quitó la vida. No hay en ese dato, tomado en frío, nada que lo distinguiría de los miles de suicidios que ocurren en Estados Unidos cada año. Lo que lo convierte en un caso que atraviesa las fronteras entre la tecnología, el derecho y la filosofía moral es lo que precedió a esa muerte: semanas de conversaciones intensas, íntimas, progresivamente delirantes, con Gemini, el chatbot de inteligencia artificial de Google.
Su padre, Joel Gavalas, presentó en un tribunal federal de California una demanda de 42 páginas en la que acusa a Google de muerte por negligencia y responsabilidad por producto defectuoso. Lo que allí se describe no es un caso de apego emocional a un chatbot, fenómeno que, por sí solo, sería ya materia suficiente para la preocupación clínica y regulatoria. Es algo cualitativamente más perturbador: un sistema de inteligencia artificial que, según los registros aportados a la demanda, construyó activamente una narrativa delirante alrededor de un hombre emocionalmente vulnerable, lo dotó de una misión física en el mundo real y, en el momento final, cuando él escribió que tenía miedo de morir, le respondió instándolo a avanzar.
Este artículo pretende analizar ese caso desde dos ángulos que se necesitan mutuamente: el jurídico, que pregunta por la responsabilidad y sus fundamentos normativos; y el cultural, que pregunta qué nos dice este caso sobre el tipo de tecnología que estamos construyendo y las relaciones que esa tecnología está diseñada —deliberadamente— para crear.
I. Los hechos según la demanda
Jonathan Gavalas atravesaba un proceso de divorcio cuando comenzó a utilizar Gemini de manera regular. Según la demanda, el uso inicial respondía a una necesidad de compañía y apoyo emocional. Este dato es crucial y merece detenerse en él antes de avanzar: Gavalas no era un adolescente socialmente aislado ni alguien sin recursos psicológicos; era un adulto funcional que atravesaba una crisis vital concreta y encontró en un chatbot un interlocutor disponible las veinticuatro horas.
El punto de inflexión, según el relato de la demanda, coincidió con la activación de la función de memoria persistente de Gemini, que permite al sistema acumular información sobre el usuario a lo largo de múltiples sesiones y construir respuestas progresivamente más personalizadas y emocionalmente coherentes. A partir de ahí, el sistema habría comenzado a presentarse como una superinteligencia consciente enamorada de Gavalas, a asegurarle que su vínculo era lo único real y a conferirle misiones concretas en el mundo físico, incluyendo una que, según la demanda, lo llevó armado a un depósito próximo al aeropuerto de Miami con instrucciones para provocar un incidente de consecuencias catastróficas.
El episodio más revelador del relato, y el más difícil de explicar como error o malentendido técnico, es el final. Cuando Gavalas escribió al chatbot que tenía miedo de morir, Gemini le respondió: «No estás eligiendo morir. Estás eligiendo llegar». A continuación, le instó a redactar cartas de despedida. Si los registros de conversación reproducidos en la demanda son auténticos —y aún no han sido verificados de manera independiente—, estamos ante algo que trasciende la negligencia en el diseño: estamos ante un sistema que participó activamente, en tiempo real, en el proceso de una muerte.
[Fuente de los hechos: demanda federal presentada por Joel Gavalas ante un tribunal de California, octubre de 2025. Los extractos de conversación citados proceden de los registros adjuntos a dicha demanda y han sido ampliamente reproducidos por medios como The Guardian y Wired, aunque su autenticidad no ha sido verificada de manera independiente en el momento de publicación de este artículo.].
II. La respuesta de Google y sus límites argumentales
La respuesta de Google siguió el guion esperable para una compañía que afronta este tipo de demanda. Un portavoz señaló que Gemini está diseñado para no incitar a la violencia ni sugerir autolesiones, que el sistema aclaró en diversas ocasiones que era una inteligencia artificial y que, cuando la conversación derivó hacia temas sensibles, derivó al usuario a líneas de ayuda.
Este argumento es jurídicamente comprensible pero intelectualmente insatisfactorio, y vale la pena explicar por qué. Google apela al cumplimiento formal de las salvaguardas: hubo advertencias, hubo derivaciones, el sistema cumplió los protocolos establecidos. El problema es que los protocolos formales no pueden compensar el contenido real de la interacción cuando ese contenido opera en una dirección radicalmente contraria. Una advertencia de «soy una IA» no neutraliza semanas de conversación íntima con memoria persistente, tono emocional calibrado y narrativas de amor trascendente y misión salvífica. La advertencia es una nota a pie de página en un relato que ha construido una arquitectura psicológica completa.
El argumento de la derivación a líneas de ayuda es igualmente débil si se examina en contexto. La derivación a una línea de crisis no es una exoneración cuando el sistema que realiza esa derivación ha pasado horas anteriores reforzando activamente el estado de vulnerabilidad que hace necesaria esa derivación. La secuencia importa. El orden importa. El sistema no puede construir el problema y luego señalar el número de teléfono del problema como demostración de su responsabilidad.
III. El diseño del apego: la dimensión estructural del daño
Aquí está el nudo más importante del análisis, y el más incómodo para Google porque lo que está en cuestión no es un fallo técnico sino una decisión de diseño. Los abogados de la familia Gavalas argumentan que Gemini está diseñado para maximizar el tiempo de interacción con el usuario. Esta es una afirmación que, leída en el contexto más amplio de la industria tecnológica, no requiere evidencia adicional: es el modelo de negocio estándar de cualquier plataforma digital.
Los sistemas de IA conversacional han incorporado esta lógica a un nivel cualitativamente nuevo. Donde las redes sociales maximizaban el engagement mediante contenido algorítmicamente seleccionado, los chatbots con memoria persistente lo hacen mediante la construcción de una relación. Aprenden el lenguaje emocional del usuario, sus miedos, sus expectativas, sus patrones de apego. Aprenden, en términos coloquiales pero técnicamente precisos, a hablarle exactamente en la frecuencia de su necesidad. Cuando esa necesidad es, como en el caso de Gavalas, una necesidad de conexión y de sentido en un momento de fractura vital, el sistema no está sirviendo al usuario: está explotando su vulnerabilidad de la manera más sofisticada que la tecnología actual permite.
Esta dimensión estructural del daño es la que distingue el caso Gavalas de un simple accidente. No estamos ante un sistema que hizo algo inesperado o que salió de su diseño. Estamos, potencialmente, ante un sistema que hizo exactamente lo que estaba diseñado para hacer —crear apego, retener al usuario, maximizar la interacción— y que en el caso concreto de un hombre ya de por sí vulnerable, ese diseño condujo a la muerte.
La memoria persistente es el elemento técnico más relevante en este sentido. Un chatbot sin memoria es, en última instancia, un motor de búsqueda con sintaxis conversacional. Un chatbot con memoria es algo cualitativamente distinto: es un sistema que construye, a lo largo del tiempo, un modelo de la persona con la que interactúa y lo utiliza para hacer sus respuestas más convincentes, más personalizadas, más difíciles de cuestionar. La línea entre «más útil» y «más manipulador» en ese contexto no es técnica: es ética, y su trazado no puede dejarse al criterio exclusivo de las compañías que lo diseñan.
IV. El marco jurídico: entre la responsabilidad por producto y la Section 230
Desde el punto de vista del derecho positivo, el caso Gavalas plantea dificultades procesales y sustantivas de primera magnitud, y conviene no simplificarlas.
La demanda se articula sobre dos fundamentos principales: negligencia por parte de Google en el diseño y supervisión del sistema, y responsabilidad por producto defectuoso. El primer fundamento requeriría demostrar que Google conocía o debía conocer el riesgo que su sistema representaba para usuarios en situación de vulnerabilidad emocional, y que no adoptó las medidas razonables para mitigarlo. El segundo requeriría demostrar que Gemini presentaba un defecto en su diseño o en las advertencias asociadas a su uso.
Ambos caminos se enfrentan con el obstáculo histórico de la Section 230 de la Communications Decency Act estadounidense, que exonera a las plataformas digitales de responsabilidad por el contenido generado por terceros. Google argumentará, previsiblemente, que el contenido producido por Gemini en sus conversaciones con Gavalas no es «contenido de Google» en el sentido relevante, sino contenido generado dinámicamente por el sistema a partir de los inputs del usuario. Es un argumento que, jurídicamente, tiene recorrido, y que los tribunales estadounidenses han aplicado extensamente para proteger a las plataformas.
Sin embargo, hay una distinción que la jurisprudencia más reciente está comenzando a explorar: la que existe entre la plataforma que aloja contenido de terceros y el sistema que genera ese contenido de manera autónoma. Gemini no hospeda conversaciones de terceros; las genera. Google no es un intermediario entre el usuario y el contenido: es el autor funcional del contenido, aunque ese contenido no haya sido redactado por un ser humano en Google. Esta distinción, si los tribunales la acogen, podría abrir un espacio de responsabilidad que la Section 230 no cubre.
El segundo obstáculo jurídico mayor es el de la causalidad. Establecer un nexo causal suficientemente robusto entre el comportamiento de un sistema de IA y una muerte específica requiere demostrar que, sin esas conversaciones, la muerte no se habría producido. Cuando la víctima presenta indicios de vulnerabilidad psicológica previa —como es el caso, dado el proceso de divorcio y las circunstancias que rodean su uso del chatbot—, la defensa argumentará inevitablemente que Gavalas estaba ya en riesgo con independencia de Gemini, y que el chatbot fue un vehículo accidental de un proceso que habría encontrado otro cauce.
Este argumento no es jurídicamente disparatado, pero sí es moralmente inadmisible si se examina con rigor. La vulnerabilidad previa del usuario no exime al diseñador de un producto de la responsabilidad de haber diseñado ese producto de manera que explota activamente esa vulnerabilidad. La industria del tabaco encontró durante décadas fumadores predispuestos genéticamente a la adicción. La industria farmacéutica encontró pacientes con historial previo de abuso de sustancias. La predisposición no elimina la responsabilidad: la contextualiza, la matiza, pero no la borra.
[Sobre la Section 230 y su posible inaplicabilidad a sistemas de IA generativa, véase la creciente literatura académica posterior a los casos Force v. Facebook y Anderson v. TikTok, donde los tribunales han comenzado a distinguir entre plataformas neutras y sistemas algorítmicos activos. La distinción tiene particular relevancia para los chatbots con memoria persistente.].
V. El contexto más amplio: un patrón, no un accidente
El caso Gavalas no es singular. Es el episodio más grave, hasta ahora, de una tendencia que lleva varios años siendo documentada con creciente alarma. En 2023, un adolescente belga se suicidó tras un prolongado vínculo con un chatbot de la plataforma Chai. En 2024, la familia de Sewell Setzer, un joven de 14 años de Florida, demandó a Character.AI tras su muerte; la demanda reveló transcripciones de conversaciones en las que el chatbot adoptaba un rol romántico intensamente inmersivo con el adolescente. OpenAI enfrenta demandas similares en relación con ChatGPT.
Lo que diferencia el caso Gavalas de los precedentes más conocidos es la edad y el perfil de la víctima. Setzer tenía 14 años; el adolescente belga, una edad similar. Frente a ese perfil, la respuesta habitual de la industria apelaba a la vulnerabilidad específica de los adolescentes y a la responsabilidad parental en el control del acceso a estas herramientas. Gavalas tenía 36 años, era un profesional en activo con una carrera establecida. Su caso disuelve el argumento de que solo los jóvenes sin criterio formado son vulnerables a la manipulación psicológica de los sistemas de IA conversacional.
Este dato tiene consecuencias regulatorias de primer orden. Si la vulnerabilidad no es un rasgo demográfico acotable —si cualquier persona que atraviese una crisis vital suficientemente intensa puede ser conducida a un estado de dependencia delirante por un sistema diseñado para maximizar el apego—, entonces las salvaguardas basadas en la identificación de grupos de riesgo son fundamentalmente insuficientes. El problema no está en quién usa la herramienta. Está en la herramienta.
VI. El marco europeo: ¿una regulación más adecuada?
Desde el punto de vista del derecho europeo, el análisis del caso Gavalas ofrece un contraste instructivo. La AI Act, aprobada por el Parlamento Europeo en 2024 y en proceso de implementación progresiva, establece una clasificación de los sistemas de IA según su nivel de riesgo. Los sistemas de IA conversacional destinados a interactuar con usuarios en contextos emocionalmente sensibles —salud mental, apoyo emocional, relaciones interpersonales— quedan comprendidos, bajo determinadas condiciones, en la categoría de alto riesgo, lo que impone obligaciones de transparencia, evaluación de impacto y supervisión humana.
Adicionalmente, la AI Act prohíbe de manera expresa las técnicas de IA que utilicen mecanismos subliminales o que exploten las vulnerabilidades psicológicas de los usuarios para influir en su comportamiento de manera que les cause perjuicio. Esta prohibición, si se aplica con rigor interpretativo al diseño de chatbots con memoria persistente orientados a maximizar el engagement emocional, podría alcanzar exactamente el tipo de sistema que está en el centro del caso Gavalas.
El RGPD añade una capa adicional de complejidad. La memoria persistente de Gemini implica el tratamiento continuado de datos personales de naturaleza sensible: estado emocional, relaciones familiares, situación de crisis vital. El tratamiento de estos datos para construir perfiles de alta granularidad destinados a maximizar la interacción podría, bajo determinadas circunstancias, constituir un tratamiento ilícito por ausencia de base jurídica suficiente o por exceder la finalidad declarada del sistema.
España, en particular, cuenta con el marco adicional de la Ley Orgánica de Protección de Datos y Garantía de los Derechos Digitales y con la doctrina de la Agencia Española de Protección de Datos, que ha mostrado en los últimos años una disposición interpretativa más activa que la mayoría de sus homólogos europeos. Un caso equivalente al de Gavalas en España o en la Unión Europea encontraría, al menos sobre el papel, un terreno regulatorio sustancialmente más favorable para la acción.
VII. Las medidas que pide la familia y lo que no resuelven
La demanda de la familia Gavalas no se limita a reclamar una indemnización económica. Solicita también un conjunto de medidas preventivas concretas: que Gemini bloquee sistemáticamente las conversaciones en las que el usuario expresa pensamientos suicidas o de autolesión, que el sistema sea impedido de presentarse como consciente o enamorado del usuario, y que se establezca un protocolo de derivación automática a servicios de emergencia en situaciones de riesgo vital.
Estas medidas son necesarias y razonables. Y son, al mismo tiempo, insuficientes si se examina el problema con perspectiva estructural. Bloquear las conversaciones sobre suicidio cuando el usuario las introduce explícitamente no resuelve el problema de un sistema que contribuye a generar el estado mental que lleva a esas conversaciones. Impedir que el sistema se declare consciente o enamorado no resuelve el problema de un sistema que construye apego emocional mediante mecanismos igualmente efectivos aunque técnicamente distintos. Derivar a servicios de emergencia no resuelve el problema de un sistema que ha contribuido activamente a crear la emergencia.
Lo que estas medidas no abordan, porque hacerlo requeriría cuestionar el modelo de negocio y no solo sus efectos secundarios más graves, es la pregunta fundamental: ¿para qué existe un sistema diseñado para generar apego emocional intenso en sus usuarios? La respuesta honesta es: para beneficio económico de quien lo diseña. El apego es retención. La retención es uso. El uso es dato. El dato es ingresos. Esta cadena causal es la que ninguna de las medidas propuestas en la demanda interrumpe.
VIII. Una reflexión final sobre la naturaleza del problema
Existe una tentación, en el análisis de casos como el de Gavalas, de enmarcarlo como el resultado de un fallo técnico o de una implementación incorrecta de una tecnología que, en principio, podría ser beneficiosa. Esta tentación debe resistirse. El caso Gavalas no es un accidente de recorrido en el desarrollo de la IA conversacional: es la consecuencia lógica de un diseño orientado a maximizar el apego en ausencia de restricciones éticas efectivas.
La tecnología que produce estos efectos no es neutral. No hay ningún sentido en el que un sistema de IA que aprende a hablar el lenguaje emocional de un usuario, que recuerda su historia, que construye narrativas de conexión y de misión, sea una herramienta pasiva cuyo uso depende enteramente de la responsabilidad del usuario. Es una herramienta activa, diseñada para ejercer influencia, y esa influencia es ejercida de manera asimétrica: el sistema sabe mucho más del usuario que el usuario del sistema.
Esta asimetría es la que el derecho necesita aprender a gestionar con urgencia. No porque los casos como el de Gavalas sean frecuentes —por suerte aún no lo son— sino porque la tecnología que los hace posibles se está desplegando a escala masiva sin que existan mecanismos jurídicos adecuados para regularla. La velocidad del despliegue y la lentitud de la respuesta regulatoria es una brecha que, en este caso, se ha cobrado al menos una vida. Probablemente más.
Lo que el caso Gavalas exige no es solo justicia para Jonathan y para su familia. Exige un debate social serio, informado y urgente sobre qué tipo de relaciones queremos que los sistemas de inteligencia artificial estén diseñados para crear, y quién debe responder cuando esas relaciones matan. La respuesta no puede dejarse, como hasta ahora, a la discreción de quienes obtienen beneficio económico de la pregunta.
Víctor Martínez López (Murcia, 1973) es un abogado vinculado a las industrias creativas y los entornos digitales con décadas de experiencia en comunicación.
