El “abogado robot” que no lo era: la FTC sanciona a DoNotPay por publicidad engañosa

La Comisión Federal de Comercio de Estados Unidos (FTC, por sus siglas en inglés) ordenó a la startup DoNotPay, que se promocionaba como “el primer abogado robot del mundo”, a pagar 193.000 dólares por realizar afirmaciones falsas y engañosas sobre sus servicios de inteligencia artificial.

La resolución marca un precedente importante: es la primera vez que el organismo estadounidense sanciona a una empresa de IA por promesas infundadas, y se inscribe dentro de una ofensiva más amplia para regular el discurso comercial en torno a la inteligencia artificial.


Promesas sin pruebas

La FTC reveló que DoNotPay nunca realizó pruebas adecuadas para garantizar que su chatbot legal pudiera ofrecer resultados equiparables a los de un abogado humano.

La investigación determinó que la compañía no contrató profesionales del derecho para validar los resultados generados por su sistema y que, en consecuencia, sus publicidades constituían publicidad engañosa bajo la Ley de la FTC.

DoNotPay se había lanzado en 2015 como un proyecto disruptivo y socialmente atractivo: una aplicación gratuita para ayudar a los usuarios a apelar multas de estacionamiento. Con un enfoque accesible y lenguaje sencillo, el emprendimiento creció rápidamente y se presentó como una alternativa al costoso sistema legal tradicional.

Con el paso del tiempo, sin embargo, su fundador —Joshua Browder— amplió las promesas. La plataforma comenzó a ofrecer asistencia en más de 200 áreas legales, desde reclamos por incumplimiento de contrato hasta órdenes de restricción, acuerdos de divorcio o demandas por daños.

A medida que su alcance crecía, también lo hacía su modelo de negocio: DoNotPay dejó de ser gratuito y comenzó a cobrar una suscripción de 36 dólares cada dos meses, promocionándose como una herramienta capaz de “demandar a cualquiera con un solo clic”.

El problema era que nada de eso podía demostrarse. Según la FTC, la tecnología no estaba basada en un conocimiento jurídico profundo ni actualizado, y tampoco se habían realizado pruebas de precisión o confiabilidad en los documentos legales que generaba la IA.

Para peor, la empresa utilizó en su publicidad una cita engañosa tomada de un artículo escrito por un estudiante de secundaria, publicado en una sección juvenil del Los Angeles Times. En su material promocional, la frase aparecía presentada como si se tratara de una reseña periodística profesional que aseguraba que el sistema era “asombrosamente similar—o incluso superior—a lo que hacen los abogados humanos”.


La respuesta de la FTC

Ante ese conjunto de irregularidades, la FTC decidió intervenir. El organismo acusó a DoNotPay de violar la Ley de la FTC por engañar a los consumidores sobre la naturaleza y las capacidades de su producto.

Aunque la empresa no admitió responsabilidad, aceptó un acuerdo económico que incluye el pago de 193.000 dólares —una cifra relativamente simbólica pero con fuerte valor disuasivo—, siempre que la resolución se confirme tras un período de comentarios públicos de 30 días.

Además, la compañía se comprometió a notificar a los consumidores que utilizaron el servicio entre 2021 y 2023 acerca de las limitaciones reales de sus herramientas de IA, y a abstenerse de realizar nuevas afirmaciones no verificadas sobre la capacidad de su tecnología para reemplazar servicios legales profesionales.

Un portavoz de la startup señaló que DoNotPay estaba “contenta de haber trabajado de manera constructiva con la FTC para resolver el caso sin admitir responsabilidad”, y aclaró que los servicios en cuestión ya habían sido descontinuados hace varios años.


Un caso emblemático para la regulación de la inteligencia artificial

La sanción contra DoNotPay no se explica solo por sus errores empresariales: se inscribe dentro de una nueva estrategia regulatoria que busca imponer límites éticos y legales al marketing de herramientas de IA.

La presidenta de la FTC, Lina Khan, lidera una iniciativa denominada “Operación AI Comply”, destinada a fiscalizar y sancionar a las compañías que utilicen inteligencia artificial para engañar o manipular al público.

“Utilizar herramientas de IA para engañar, confundir o defraudar a las personas es ilegal”, afirmó Khan. “La FTC está asegurándose de que las empresas honestas y los innovadores tengan una oportunidad justa y que los consumidores estén protegidos”.

Este caso se vuelve paradigmático porque traslada las reglas clásicas de la publicidad veraz al terreno de la IA, dejando claro que la fascinación tecnológica no exime a las empresas del cumplimiento de las normas básicas de consumo, transparencia y responsabilidad profesional.


El contexto histórico: de promesa revolucionaria a exceso de confianza

Desde sus inicios, DoNotPay había sido objeto de críticas por la falta de supervisión legal detrás de sus productos. En 2018, su propio fundador reconoció que los servicios legales de la compañía no estaban revisados por abogados.

En 2022, bajo la presión del Colegio de Abogados de California, Joshua Browder prometió dejar de promocionar a la empresa como “el primer abogado robot del mundo”, pero incumplió su palabra. Esa falta de cumplimiento derivó en una orden de cese y desista emitida en 2023.

El mismo año, la empresa enfrentó una demanda individual presentada por un usuario que alegó que los documentos generados por DoNotPay eran de “baja calidad” y con errores básicos.

Pese a todo, la compañía mantuvo una importante base de usuarios. Según Business Insider, más de 200.000 suscriptores seguían activos en abril de 2024, lo que demuestra el atractivo que todavía ejercen las promesas de automatización legal.


Reflexión: entre innovación y responsabilidad

El caso DoNotPay deja una enseñanza que va más allá del ámbito jurídico: la inteligencia artificial no puede eludir las normas que rigen para cualquier otro servicio profesional.

El uso de lenguaje técnico o de marketing futurista no sustituye la validación profesional, ni la transparencia con el consumidor. Si un sistema no fue evaluado, supervisado o testeado con rigor, presentarlo como capaz de “reemplazar” a un abogado —o a cualquier profesional— es una forma de fraude informativo.

A su vez, la intervención de la FTC marca el inicio de una nueva etapa: la regulación activa del discurso sobre inteligencia artificial, donde ya no alcanza con invocar la palabra “AI” para captar inversiones o usuarios.

En otras palabras, la tecnología puede innovar, pero la ley también evoluciona. Y en ese equilibrio —entre la automatización prometida y la ética profesional exigida— se juega el futuro de la inteligencia artificial en el campo del derecho.

abogado de IAchatbot legalderecho automatizadoderechos de los consumidoresDoNotPayFTCIAinteligencia artificialinteligencia artificial y leyes.Joshua Browdermultas de estacionamientooperación AI Complyprotección al consumidor.publicidad engañosaregulación de IAservicios legalestecnología legal