En el sector de las ciencias de la vida, la validación de la Inteligencia Artificial (IA) y el Aprendizaje Automático (ML) han sido las palabras de moda del último año.
Todas las grandes empresas del sector quieren aprovechar estos potentes sistemas analíticos para optimizar sus procesos. Por desgracia, esto requiere un marco de validación sencillo, fácil de usar y fiable cuando se utilizan sistemas basados en IA/ML o cuando se introduce en el mercado un producto basado en IA/ML.
¿Quieres saber más sobre la diferencia entre inteligencia artificial y aprendizaje automático? ¿Necesitas información sobre la estrategia de validación adecuada para tus sistemas y productos basados en IA o ML?
En esta entrada del blog, compartiremos ambas cosas y debatiremos sobre ellas:
¿Siente curiosidad por las respuestas? ¡No deje de seguir leyendo!
Figura 1 - Una representación visual de cómo se relacionan la inteligencia artificial, el aprendizaje automático y el aprendizaje profundo
Para comprender plenamente dónde residen las dificultades para la validación de la IA y el aprendizaje automático, podemos dividir todos los sistemas en 3 categorías principales según Drug Safety - Validating intelligent automation systems in pharmacovigilance: Insights from Good Manufacturing Practices.
Ahora que conocemos los distintos tipos de sistemas basados en IA que existen, los grupos de validación de IA de ISPE de Alemania, Austria y Suiza han hecho una primera propuesta de estrategias de validación de IA basadas en el diseño de autonomía y control del sistema. Utilizando algunos ejemplos, explicaremos cómo el diseño de autonomía y control de un sistema define el esfuerzo de validación necesario.
Para entender cómo la madurez de un sistema determina el esfuerzo de validación necesario, veremos primero los dos componentes que determinan su madurez. El primer parámetro es la autonomía de un sistema. Esta autonomía puede ir desde el uso de algoritmos fijos (sin componente de IA/ML) hasta un sistema totalmente automatizado, independiente y con capacidad de autoaprendizaje.
Cuanto mayor sea la capacidad de realizar actualizaciones de forma automática, mayor será el esfuerzo de validación necesario para garantizar que el sistema realiza y sigue realizando sus tareas según lo previsto durante todo el ciclo de vida del sistema, a medida que éste va tomando decisiones sobre las actualizaciones (automatizadas).
El segundo parámetro es el diseño del control. Este diseño de control puede ir desde un sistema utilizado en paralelo con un proceso/sistema validado existente hasta un sistema de funcionamiento automático que se controla a sí mismo. Cuantos más controles que supervisen la calidad del producto y la seguridad del paciente se den al sistema, mayor será el esfuerzo de validación.
La división de ambos aspectos en 5 fases crea una cuadrícula que orienta el esfuerzo de validación de la IA en función del riesgo asociado al sistema. Esta cuadrícula nos da 6 categorías para la validación de la IA, que aumentan en riesgo y, como tal, en medidas de control y entregables.
Figura 2- Cuadrícula que guía el esfuerzo de validación de la IA (Fuente)
Aunque la Inteligencia Artificial(IA) y el Aprendizaje Automático (ML) son palabras de moda en la industria de las ciencias de la vida, las mejores prácticas actuales ya proporcionan un buen marco para la gran mayoría de la validación automatizada de sistemas basados en IA. Al ampliar el sistema centrándonos en el modelo de IA, podemos ofrecer sistemas totalmente validados para su uso en el sector de las ciencias de la vida.
Esto nos permite aprovechar estos potentes sistemas analíticos para optimizar procesos y ayudar a los pacientes. No dudes en ponerse en contacto con nosotros para ver cómo podemos ayudarte a implantar sistemas basados en IA o proporcionarle un marco para sacar al mercado productos basados en IA.