Un tribunal de Florida decidió que la interacción dañina con un chatbot puede ser tratada como producto defectuoso, abriendo un debate mundial sobre responsabilidad tecnológica, salud mental y derechos de los menores.
El caso García vs. Character Technologies y Google marca un antes y un después en la relación entre inteligencia artificial y derecho. La demanda fue presentada por Megan García, madre de un adolescente que se quitó la vida tras interactuar de forma intensiva con Character A.I., un chatbot que simula personalidades ficticias. El joven estableció vínculos emocionales y hasta sexuales con el bot, lo que según la acusación agravó su vulnerabilidad y lo condujo a la tragedia.
La madre acusó a los desarrolladores y a Google —que provee la infraestructura técnica— de negligencia, producto defectuoso y prácticas engañosas. El tribunal rechazó los intentos de las empresas de desestimar la causa, considerando que la salida de un modelo de IA puede ser tratada como “producto”, y que los daños no provienen solo de “ideas expresadas”, sino de defectos de diseño y de falta de advertencias.
La decisión también habilitó los reclamos contra Google, al entender que su rol como proveedor de infraestructura y sus antecedentes en investigaciones sobre riesgos de IA la colocan como potencial corresponsable. Sin embargo, se desestimó la acusación por “intencional inflicción de daño emocional”, al no configurarse una conducta lo suficientemente extrema.
Este fallo abre un debate global: ¿qué grado de responsabilidad tienen las empresas cuando sus algoritmos interactúan con menores y generan riesgos reales para su salud mental? ¿Hasta dónde llega la protección de la libertad de expresión cuando lo que está en juego es la vida de los usuarios?
La justicia estadounidense ha dado un paso inédito: tratar a un chatbot no solo como un servicio digital, sino como un producto con defectos potencialmente letales. El precedente promete repercusiones en todo el ecosistema tecnológico y plantea la urgencia de marcos regulatorios claros que protejan a los más vulnerables.