Novedades del derecho y las leyes argentinas para el ciudadano

Utah autoriza a una IA a pedir recetas sin médicos y pone a prueba el derecho a la salud

Un caso de aplicación de la inteligencia artificial a la medicina

El Estado de Utah autorizó a un sistema de inteligencia artificial a renovar recetas médicas sin intervención directa de un médico, en el marco de un programa piloto que ya despertó fuertes críticas de especialistas en salud pública y derecho sanitario.

La iniciativa fue aprobada dentro del esquema de regulatory sandbox del estado y permite que un chatbot desarrollado por la startup de telemedicina Doctronic renueve prescripciones de medicamentos comunes para enfermedades crónicas, sin revisión humana caso por caso.

Un experimento regulatorio con pacientes reales

El regulatory sandbox de Utah fue diseñado para facilitar la prueba de productos “innovadores” mediante la flexibilización temporal de regulaciones. En este caso, la excepción impacta de lleno en uno de los núcleos más sensibles del sistema jurídico: el ejercicio de la medicina.

Según el esquema aprobado, los pacientes deben verificar residencia en Utah, ingresar a la plataforma de Doctronic y dialogar con un chatbot que se presenta como “médico de IA”. El sistema accede al historial de recetas y ofrece la renovación de fármacos habilitados, a cambio de una tarifa de USD 4.

Quedan excluidos algunos medicamentos —como analgésicos, drogas para TDAH y fármacos inyectables—, pero el alcance sigue siendo amplio: 190 medicamentos para tratamientos crónicos.

Durante la etapa inicial, los primeros 250 casos por clase de medicamento serán revisados por médicos humanos. Superado ese umbral, la IA opera de manera autónoma.

Desde el punto de vista legal, el diseño es inusual: en la mayoría de los estados, renovar una receta es un acto de juicio médico, no una tarea administrativa.


El argumento empresarial: precisión y eficiencia

Doctronic defiende el sistema con datos propios. La empresa cita un estudio preliminar (no revisado por pares) sobre 500 consultas de telemedicina, según el cual:

  • la IA coincidió con el diagnóstico de médicos humanos en el 81 % de los casos;

  • los planes de tratamiento fueron “consistentes” en el 99 %.

Los directivos aseguran que el chatbot está diseñado para “errar hacia la seguridad” y derivar al paciente a un médico humano cuando detecta incertidumbre.

El problema jurídico es evidente: es la propia IA la que decide cuándo hay incertidumbre. En términos de responsabilidad profesional, la delegación no elimina la obligación de cuidado; solo desplaza la pregunta clave: ¿quién responde cuando el sistema falla?


¿Práctica médica sin médico?

Las críticas no tardaron en aparecer. Organizaciones de control sanitario advierten que el programa cruza una línea peligrosa.

Robert Steinbrook, director del área de investigación en salud del grupo Public Citizen, calificó la iniciativa como “un primer paso peligroso hacia una medicina autónoma”, y cuestionó que un sistema de IA pueda renovar recetas o autodenominarse “médico”.

El planteo no es solo sanitario, sino jurídico: en Estados Unidos, el ejercicio de la medicina está reservado a profesionales licenciados, sujetos a control disciplinario, estándares de cuidado y responsabilidad por mala praxis.
Una IA no tiene licencia, no tiene matrícula y no puede ser sancionada por un colegio médico.


El silencio de la FDA y el vacío regulatorio

El caso expone un vacío regulatorio relevante.

Tradicionalmente, la práctica médica es competencia de los estados. Sin embargo, la Food and Drug Administration sostiene que tiene autoridad para regular dispositivos médicos que diagnostican, tratan o previenen enfermedades.

La pregunta es inevitable:
¿un sistema de IA que decide si una receta debe renovarse es un dispositivo médico… o una simple herramienta administrativa?

Por ahora, la FDA no intervino. Ese silencio abre la puerta a que otros estados adopten esquemas similares, con criterios dispares y distintos niveles de control.


Por qué importa más allá de Utah

Aunque se lo presenta como un piloto, este tipo de programas rara vez quedan confinados a una sola jurisdicción. Si el modelo reduce costos y tiempos —aunque tenga márgenes de error—, puede extenderse rápidamente a otros estados, aseguradoras y plataformas.

El sistema legal estadounidense se apoya en tres pilares:
licencias profesionales, estándares de cuidado y responsabilidad legal.
La prescripción autónoma por IA tensiona los tres.

La discusión ya no es si la inteligencia artificial va a usarse en salud. Eso ya ocurre.
La verdadera pregunta es cuánto juicio humano está dispuesto a resignar el derecho… y quién asume el costo cuando la automatización se equivoca.

Los comentarios están cerrados, pero trackbacks Y pingbacks están abiertos.