Chatbots y derecho del consumidor, ¿Es vinculante lo que digan?

La reciente decisión de la justicia canadiense marca un precedente importante en la responsabilidad de las empresas por la información proporcionada por chatbots. Un pasajero, mal asesorado por un chatbot de aerolínea sobre las tarifas por duelo, gana un caso contra Air Canada, subrayando la obligación de las empresas de garantizar la precisión de la información automatizada.

Un pasajero afectado por información errónea de un chatbot de la aerolínea Air Canada sobre tarifas especiales llevó su caso a la justicia canadiense y obtuvo un fallo favorable.

Este caso pone de relieve la responsabilidad de las empresas por las acciones y la información proporcionada por sus sistemas automatizados, incluidos los chatbots.

La decisión se basa en la premisa de que las empresas deben asegurar que la información brindada, ya sea por personal humano o por medios automatizados como los chatbots, sea precisa y coherente en todo el sitio web, enfatizando la importancia de la transparencia y la fiabilidad en la interacción con los consumidores.

 

 

Por Gabriel Hernán Quadri

La justicia canadiense acaba de resolver un caso muy interesante. Una persona, frente a la muerte de un familiar, decide sacar un pasaje.

Como existían tarifas especiales para estos casos, y el pasajero no sabía muy bien cómo funcionaban, acude al sitio web de la aerolínea y hace la consulta al chatbot que tenía disponible.

El chatbot le da información incorrecta: le sugiere que reserve el vuelo y luego pida el reembolso. En realidad, y según se informaba en otra parte del sitio de la aerolínea, la política de tarifas por duelo no funcionaba así, ya que no operaba retroactivamente, una vez que el vuelo ya se había pagado. En definitiva: el pasajero hizo lo que le dijo el chatbot, y terminó perjudicado.

El caso judicial

Como no lograba resolver la cuestión por otros medios, acudió a la justicia y los tribunales canadienses le terminan dando la razón al pasajero. (link al fallo). Lo llamativo del caso fueron la información que brindó el pasajero, las defensas que esgrimió la aerolínea y cómo se termina resolviendo.

Básicamente, el pasajero aportó una captura de pantalla de lo que el chatbot le había informado.  Dentro de la información que el chatbot le daba, algunas palabras aparecían como un hipervínculo y, de acuerdo con lo sostenido por la aerolínea, accediendo a ese hipervínculo, quedaba en claro que lo que estaba diciendo el chatbot no era correcto. En una de sus defensas, la empresa sostenía no es responsable por lo que hubiera hecho el chatbot.

El tribunal le responde así:

“Air Canada sostiene que no puede ser considerada responsable por la información proporcionada por uno de sus agentes, empleados o representantes, incluido un chatbot. No explica por qué cree que ese es el caso. De hecho, Air Canada sugiere que el chatbot es una entidad legal separada que es responsable de sus propias acciones. Esta es una afirmación notable. Aunque un chatbot tiene un componente interactivo, sigue siendo solo una parte del sitio web de Air Canada. Debería ser obvio para Air Canada que es responsable de toda la información en su sitio web. No hace diferencia si la información proviene de una página estática o de un chatbot”.

Y considera razonable que el pasajero hubiera confiado en la información que le brindaba el chatbot.
Por eso, admite su demanda.

Como vemos, es una situación que puede darse muy frecuentemente y, en nuestro derecho, la solución sería la misma.
Un bot, en definitiva, es software, que puede incluirse dentro de determinado sitio web para llevar a cabo determinadas funciones: desde brindar información hasta cerrar, por sí mismo, operaciones de manera automatizada.

Los chatbots y la ley

Los chatbots permiten que los usuarios, valiéndose de un entorno virtual preconfigurado, puedan realizar consultas y que las mismas sean respondidas por la aplicación en tiempo real, emulando la conversación con un humano.

En su obra sobre “Contratos Electrónicos” (La Ley, 2ª Ed., 2023) Bielli y Ordoñez lo explican muy claramente: los chatbots no tienen personalidad jurídica y cuando un bot realiza una actividad contractual, lo que está haciendo es plasmar en el mundo real la voluntad de la persona (humana o jurídica) que solicitó la configuración y utilización de este tipo de software.

Su materialización en un entorno virtual fue delegada a un bot mediante directivas expresamente prestablecidas, produciéndose de tal forma una asociación de actos prácticamente inescindible, sin perjuicio de las eventuales responsabilidades del programador derivada de desperfectos o errores.

Al tratarse de un contrato de consumo, le serían aplicables los artículos pertinentes del Código Civil y Comercial (1092 y siguientes) y la ley 24.240, todo bajo el paraguas protector del art. 42 de la Constitución Nacional.

La utilización de los chatbots estaría, en el ámbito del derecho del consumo, constituyendo un medio para el cumplimiento del deber de información establecido en la ley 24.240 (art. 4) e incluso lo que indicara el chatbot conforma parte de la oferta que realiza la empresa (art. 7 ley 24.240).

Luego, el incumplimiento de este deber de informar en forma cierta, clara y detallada las condiciones de comercialización, genera responsabilidad en cabeza de la empresa frente al daño que pudiera sufrir el consumidor (art. 1716 CCyCN y 10 bis ley 24.240) dándole a este, incluso, la posibilidad de solicitar la resolución del contrato.

Desde ya que la empresa no podría prevalecerse -por ejemplo- de información que pudiera constar en una parte del sitio web, si el chatbot indicó otra cosa.

En este sentido, las empresas -obrando de buena fe- quedan ligadas a los defectos de información que pudieran haberse derivado de los medios elegidos para cumplir con su obligación de informar, siendo previsible que las personas, al haber un chatbot disponible, utilicen el mismo, por su mayor facilidad y sencillez, antes de estar navegando por todo el sitio web buscando información.

Con lo cual, se intensifican los deberes, en cabeza de las empresas, de asegurarse que estos sistemas se ajusten, muy precisamente, a los deberes que pesan sobre ellas y a las condiciones de contratación que tienen pensado ofrecer a sus potenciales clientes.

Por todo esto, la empresa será responsable por los daños que se pudieran haber derivado al consumidor frente a cualquier déficit o imprecisión en el cumplimiento de este deber de informar, sea que la información hubiera estado contenida en lugares estáticos de su sitio web o que la misma hubiera sido proporcionada, como en el caso de Air Canada, por un chatbot.

Además, si existiera contradicción entre una y otra, no será un argumento oponible al consumidor, si este llegara a sufrir algún daño y entabla un reclamo en consecuencia: es que para nada se estaría cumpliendo el deber de informar con claridad las condiciones de comercialización si el sitio web brinda información diversa, según se acceda a uno u otro lugar dentro del mismo.

En definitiva: si contrataste con una empresa, y el chatbot te dio mala información, tenés todo el derecho de entablar un reclamo, y de llevar como antecedente el caso de la justicia canadiense, que se ajusta totalmente a lo que nuestro sistema establece para estos casos.


El autor es abogado. Miembro de E-Procesal

aerolíneaAIAir Canadabuena fecaptura de pantallacaso interesantechatbotchatbotscódigo civil y comercialconstitución nacionalcontrato de consumocontratos electrónicosdaños al consumidordeber de informacióndefensasdemandaderechoentidad legalfamiliarGabriel Hernán QuadrihipervínculoIAimprecisióninformación incorrectajusticia canadienselawleyley 24.240línea aéreamuerteobligación de informarpasajepasajeroperjudicadopersonalidad jurídicapoliticareclamoreembolsoresolución de contratoresponsabilidadresponsabilidad empresarialsitio webtarifas especialestarifas por duelotribunales canadienses