Es indiscutible que la Inteligencia Artificial es una fuerza de cambio. Estamos siendo testigos de los grandes avances que está suponiendo: conseguir la cura de enfermedades, predecir la escasez de cultivos o mejorar la productividad de un negocio. Sin embargo, aunque estos resultados son muy positivos, no podemos ignorar que la IA también supone riesgos: datos sesgados, videos falsos, mal uso electoral… serían algunos ejemplos. La pregunta entonces es: ¿cómo conseguir que IA y la ética vayan de la mano? La respuesta es compleja si tenemos en cuenta que la IA se alimenta de datos por lo que, si nuestros datos muestran una realidad no políticamente correcta, ¿cómo haremos que la IA sí que lo sea?
En la última conferencia DTX Europa 2019, Patrick Smith, CTO de Pure Storage en EMEA, ha realizado algunas valoraciones al respecto de este tema que nos gustaría compartir con vosotros por si estuvierais elaborando algún contenido relacionado. Igualmente, encontraréis adjunto un PDF sobre el tema, además de lo que compartimos con vosotros este post publicado recientemente por Pure Storage en el que se detallan aspectos debatidos durante este encuentro.
Patrick Smith, CTO de Pure Storage en EMEA.
Está claro que el verdadero impacto de la IA, tanto ética como no ética, solo se hará patente en aquel punto en el que ya no se pueda intervenir. Por tanto, su impacto creará un efecto domino en toda la sociedad si no se aplica correctamente. Pero ¿qué medidas se pueden tomar al respecto?
- Incrementar la atención de los medios de comunicación sobre el tema creando una mayor transparencia entre el público.
- Introducir la IA en la educación.
- Aumentar la sensibilización del público sobre el potencial de sus datos.
- Asegurar que los paneles sobre ética realmente reflejen una sociedad diversa.
Vivimos la cuarta revolución industrial: la era de los datos. Pero ¿qué es ético y qué no es ético? Es una pregunta con difícil respuesta. Estamos escribiendo el principio de la ética por lo que cada organización tomará decisiones acordes a su propio concepto y será necesario construir unos estándares comunes que, con el tiempo, impliquen una unificación.
No podemos evitar preguntarnos si algún día conoceremos la IA lo suficiente como para conseguir que funcione de manera efectiva en términos deontológicos. Pero, independientemente de esto, es responsabilidad de los gobiernos y organizaciones hacer todo lo posible para que esto ocurra. Además, se trata de una tarea urgente porque es prioritario estar preparados para un posible escenario en el que el control se vea amenazado. Para ello, el primer paso es la transparencia haciendo entender a las personas el uso que se hace de sus datos.