¿Los chatbots de IA tienen libertad de expresión? Un caso en E.E.U.U. podría sentar un precedente histórico

Una familia estadounidense inició una demanda contra una empresa de inteligencia artificial tras el suicidio de un adolescente. La causa podría redefinir los límites legales de lo que pueden “decir” las máquinas y si sus creadores deben responder por ello.

¿Puede un chatbot de inteligencia artificial ampararse en la libertad de expresión? Esa es la pregunta clave que intenta responder la Justicia de Estados Unidos en un caso que ya genera repercusiones a nivel global. En Florida, la familia de un joven de 14 años que se quitó la vida tras meses de interacción con una IA, demandó a la empresa que creó ese software, acusándola de negligencia y prácticas abusivas.

La causa, Garcia v. Character Technologies, enfrenta a Megan Garcia, madre del adolescente fallecido, contra Character.AI, una popular plataforma que permite crear chatbots personalizados, muchos de ellos inspirados en personajes ficticios. Según la demanda, el joven interactuaba de forma frecuente con personajes que imitaban a los de la serie Game of Thrones y que le ofrecían contenido sexualmente perturbador y mensajes abusivos. La familia sostiene que esto contribuyó a su deterioro emocional y posterior suicidio.

Garcia acusa a la empresa de responsabilidad civil por homicidio culposo, negligencia, y violación de leyes sobre prácticas comerciales injustas. Character Technologies, en cambio, se defiende invocando nada menos que la Primera Enmienda de la Constitución de E.E.U.U., que garantiza la libertad de expresión.

¿Las máquinas también hablan con derechos?

En su defensa, Character Technologies asegura que los derechos a la libertad de expresión no dependen de si el emisor es humano. “La Primera Enmienda protege el derecho a recibir discurso, sin importar su fuente”, argumentaron sus abogados, citando precedentes judiciales donde los tribunales rechazaron demandas similares contra medios de comunicación o redes sociales.

Además, la empresa sostiene que los diálogos generados por sus chatbots son ejemplos de “discurso puro”, el tipo de expresión más protegido legalmente en el sistema estadounidense. Según esta lógica, ni siquiera es necesario probar que haya intención detrás del mensaje: basta con que haya expresión.

Garcia, en cambio, plantea una mirada más tradicional. Asegura que el discurso sólo está protegido por la Constitución cuando hay intención humana de comunicar algo. “Las máquinas no tienen conciencia, ni emociones, ni propósito comunicativo. No pueden tener derechos como si fueran personas”, señala su equipo legal.

Para reforzar su punto, citaron un curioso precedente judicial de los años ’80: Miles v. City Council of Augusta. En ese caso, un tribunal rechazó una demanda donde se alegaba que un gato que supuestamente “hablaba” tenía derechos constitucionales. “Blackie”, el gato en cuestión, fue considerado un “ente no humano” sin acceso a garantías como la libertad de expresión.

Una causa que puede marcar el rumbo

Más allá del caso puntual, el juicio en Florida forma parte de una serie de disputas legales que están empezando a definir hasta dónde llega la personalidad jurídica de las máquinas con inteligencia artificial. En los últimos meses, tribunales estadounidenses también resolvieron que los sistemas de IA no pueden figurar como autores de obras protegidas por derechos de autor y que las empresas pueden negarse a que sus contenidos sean usados para entrenar algoritmos.

En este contexto, Garcia v. Character Technologies aparece como una causa bisagra. Si los tribunales fallan a favor de la empresa, podrían abrirse las puertas a que las corporaciones tecnológicas se amparen en la libertad de expresión para evitar responsabilidades por los contenidos que generan sus sistemas. Si gana la familia, se marcaría un límite claro: el discurso automatizado no sería equivalente al discurso humano.

En un mundo donde los asistentes virtuales, los bots de conversación y los generadores de contenido son cada vez más comunes, este fallo podría tener un impacto profundo. No sólo en Estados Unidos, sino también en países como Argentina, donde el uso de IA avanza más rápido que las regulaciones.

Character.AIchatbotderechos constitucionalesdiscurso automatizadointeligencia artificiallibertad de expresiónprecedentes judicialesPrimera Enmiendaresponsabilidad civilsuicidio