Los sistemas de IA de los médicos están alucinando problemas médicos inexistentes durante las citas con los pacientes

Un informe especial del auditor general de Ontario advirtió que los escribas médicos de IA no fueron evaluados adecuadamente y pueden presentar información fabricada a los profesionales médicos.

El informe examinó 20 plataformas de escribas de IA y encontró que todos los sistemas de escribas de IA de los 20 proveedores aprobados por el gobierno mostraron una o más inexactitudes en la fase de pruebas de adquisición, como alucinaciones, información incorrecta o información faltante o incompleta. Las inexactitudes en las notas médicas generadas por los sistemas de escribas de IA podrían resultar en planes de tratamiento inadecuados o dañinos que podrían afectar los resultados de salud del paciente. Aclarando la situación, el Ministro de Servicios Públicos y de Entrega de Negocios de Ontario, Stephen Crawford, señaló que las alucinaciones se observaron durante las pruebas por parte de los reguladores estatales y no se habían registrado durante las visitas médicas reales. Sin embargo, la auditoría general, Shelley Spence, destacó que los diversos escribas están en uso por alrededor de 5,000 médicos en Ontario. Spence incluso solicitó a su médico que revisara la transcripción al finalizar su visita. Esta noticia surge mientras otro sistema de escriba de IA, OpenEvidence, enfrenta un creciente escrutinio en EE. UU. por alucinaciones y respuestas incompletas. Varios médicos han señalado que OpenEvidence puede ocasionalmente sacar conclusiones excesivamente fuertes de estudios médicos con tamaños de muestra relativamente pequeños.
¿Cómo afectarán las inexactitudes de los escribas de IA la calidad del cuidado médico y la confianza del paciente en los sistemas de salud?
.

.

.

RESUMEN BASADO EN EL ARTÍCULO PUBLICADO EN Global News EL fecha no especificada. Leer original

https://futurism.com/artificial-intelligence/ai-scribe-hallucinating-medical-issues

Otras entradas que te pueden interesar