Cada vez más empresas están preparadas para basarse en datos e incorporar la IA. Esto pone sobre la mesa temas como la mitigación de riesgos y la adaptación a nuevas culturas y procesos. Muchos líderes digitales se sienten frustrados con sus actuales soluciones y necesitan respuestas para poder operar con más agilidad y flexibilidad.
Buena parte de ellos desconoce una de las razones más comunes por la que los proyectos de IA fracasan: los usuarios finales no pueden aprovechar óptimamente los resultados y suele ser por un desajuste entre las necesidades de estos y la solución ofrecida (1) (2). Todo ello podría evitarse incluyendo consideraciones UX en las fases de diseño y validación del desarrollo.
Por otra parte, se espera que la IA genere valor añadido. Para ello, hay que entender que las soluciones de IA necesitan nuevos enfoques, requieren más infraestructura y que su complejidad repercutirá en el mantenimiento. Es vital definir una propuesta de valor clara para el usuario final y definir un modelo de negocio al respecto. En resumen: equilibrar la complejidad de la solución y el valor para el negocio.
Conocer el valor real que se obtiene cuando el usuario final interactúa con la solución es esencial para saber si se cumplen las expectativas y sirve para afrontar mejoras de forma informada. Una verificación útil pasaría por:
- Definir hipótesis y expectativas claras en la fase diseño.
- Definir y seleccionar KPIs que cuantifiquen el impacto de la solución. Mejor centrarse en un único KPI. Si se opta por varios, elegir uno a partir del que tomar decisiones; de lo contrario, al final de la fase de validación, la decisión estará sesgada. Es clave elegir los KPIs pensando qué métricas reflejarían mejor el impacto deseado. Es recomendable optar por las que midan el primer contacto del usuario final con la solución. Elegir métricas de alto nivel pueden ser más fáciles de entender y relevantes para la dirección, pero podrían no reflejar el verdadero impacto.
- Reservar tiempo para planificar y llevar a cabo un experimento aleatorio (3) (por ejemplo, prueba A/B) para validar la solución midiendo el impacto en los KPIs. Se evita caer en errores típicos y asegura resultados fiables.
- Aprender de los resultados y adaptar el plan de acción.
A medida que la empresa cambie, también lo harán los datos almacenados. Los resultados obtenidos con un modelo ‘obsoleto’ podrían dejar de ser pertinentes, ofrecer valores erróneos y generar decisiones mal informadas. Se evita diseñando e implantando una solución que, gracias a su flexibilidad, sea posible adaptarla con rapidez y seguir desarrollándola a medida que el negocio evolucione.
(1) UX Design Innovation: Challenges for Working with Machine Learning as a Design Material. Dove, K. Halskov, J. Forlizzi, and J. Zimmerman. 2017 https://dl.acm.org/doi/10.1145/3025453.3025739
(2) Will You Accept an Imperfect AI?: Exploring Designs for Adjusting End-user Expectations of AI Systems. Kocielnik, S. Amershi, and P. N. Bennett. 2019. www.microsoft.com/en-us/research/uploads/prod/2019/01/chi19_kocielnik_et_al.pdf
(3) World Economic Forum. Online Controlled Experiments and A/B Testing. 2017 https://link.springer.com/referenceworkentry/10.1007%2F978-1-4899-7687-1_891