Una patata caliente: Los Centros de Servicios de Medicare y Medicaid (CMS) es la agencia federal estadounidense que gestiona el programa Medicare y decide los estándares de atención sanitaria correspondientes. La organización envió recientemente un nuevo memorando a las aseguradoras que explica la forma correcta de utilizar los algoritmos de IA y qué pasará si infringen las reglas.
Las aseguradoras que ofrecen planes Medicare Advantage (MA) han recibido una nueva nota del CMS, un documento similar a preguntas frecuentes que ofrece aclaraciones detalladas sobre el uso (o abuso) de las predicciones de la IA. La agencia dice que las compañías aseguradoras no pueden negar cobertura a personas enfermas basándose únicamente en esas predicciones porque la IA no tiene en cuenta el panorama completo de la condición del paciente.
Los documentos de CMS vienen después de los pacientes. cargos presentados contra UnitedHealth y Humana, dos compañías de seguros que emplearon una herramienta de inteligencia artificial conocida como nH Predict. Las demandas afirman que las empresas negaron erróneamente cobertura de atención médica a los pacientes bajo los planes MA, haciendo predicciones incorrectas sobre sus períodos de rehabilitación.
Las estimaciones proporcionadas por nH Predict no son confiables, dicen las demandas, y son mucho más restrictivas en comparación con los planes oficiales de MA. Por ejemplo, si un plan fue diseñado para cubrir hasta 100 días en un asilo de ancianos después de la cirugía, UnitedHealth supuestamente utilizó el juicio artificial de nH Predict para limitar la cobertura a sólo 14 días antes de negar más cobertura.
CMS ahora dice que herramientas como nH Predict no son suficientes para negar seguro a los pacientes de MA. El algoritmo tiene aparentemente ha sido entrenado sobre una base de datos de 6 millones de pacientes, por lo que tiene un conocimiento limitado de posibles condiciones de salud o necesidades de atención médica. La agencia estadounidense afirma que las aseguradoras de MA deben basar su decisión en las «circunstancias individuales del paciente», que incluyen el historial médico, las recomendaciones del médico y las notas clínicas.
Los algoritmos de IA se pueden utilizar para hacer una predicción y «ayudar» a los proveedores de seguros, afirma el CMS, pero no se puede abusar de ellos para cancelar los servicios de atención post-aguda. La condición de un paciente debe ser reevaluada minuciosamente antes de finalizar la cobertura, dice la agencia, y las aseguradoras deben brindar una explicación «específica y detallada» sobre por qué ya no brindan el servicio.
Según demandas presentadas contra UnitedHealth y Humana, a los pacientes nunca se les explicaron los motivos de sus rechazos de atención médica decididos por AI. El CMS también proporciona una explicación precisa, aunque amplia, sobre lo que se considera inteligencia artificial y predicciones basadas en algoritmos para garantizar que las compañías de seguros comprendan claramente sus obligaciones legales. La agencia añade que las empresas que incumplan podrían recibir cartas de advertencia, planes correctivos o incluso multas y sanciones monetarias.