Conecta con nosotros

Noticias

El 65% de directivos no saben cómo toman decisiones los modelos de Inteligencia Artificial

Publicado el

El 65% de directivos no saben cómo toman decisiones los modelos de Inteligencia Artificial

A pesar de que cada vez hay más empresas de todos los sectores que comienzan a utilizar herramientas de Inteligencia Artificial, el 65% de los directivos de estas empresas no son capaces de explicar cómo toman las decisiones los modelos de Inteligencia Artificial. Tampoco cómo realizan las predicciones. Así queda reflejado en una encuesta de Corinium para la empresa de analítica FICO, que han realizado entre 100 directivos de datos y analítica y que tiene como objetivo comprender cómo están desplegando la Inteligencia Artificial las organizaciones, y si se aseguran de que se usa de manera ética.

El estudio realizado a partir de la encuesta refleja que el 33% de los equipos directivos no tienen un conocimiento completo de la ética en Inteligencia Artificial. Los equipos de TI, analítica y cumplimiento de normativa son los que que tienen una percepción mayor del tema, pero la comprensión varía mucho de un departamento a otro. Como resultado, hay barreras notables al desarrollo del apoyo a la IA. De hecho, el 73% de los que apoyan su uso aseguran haber tenido problemas para conseguir el apoyo de la dirección para observar unas prácticas de Inteligencia Artificial responsables.

Además, la implementación de la Inteligencia Artificial de una manera responsable significa cosas distintas para cada empresa. Para algunas, la responsabilidad implica adoptar la IA de manera ética, transparente y responsable. Para  otros, asegurarse de que su uso de Inteligencia Artificial está en línea con las leyes, regulaciones, normativas, expectativas del clientes y valores organizativos. En cualquier caso, el uso de una IA responsable promete proteger del uso de datos o algoritmos sesgados, proporcionando la seguridad de que las decisiones automatizadas están justificadas y son explicables. Al menos en teoría.

Así, mientras que el 49% de los encuestados apuntan un aumento de los recursos asignados a los proyectos de Inteligencia Artificial a lo largo del año pasado, solo el 39% y el 28% dicen que han dado prioridad a la gobernanza de la IA y al mantenimiento y supervisión de modelos, respectivamente. La principal razón potencial para esto es la falta de consenso entre los directivos de las responsabilidades de las empresas  en lo que respecta a la Inteligencia Artificial.

El 55% de las empresas está de acuerdo en que la IA para la ingestión de datos debe cumplir unos estándares éticos básicos y que los sistemas empleados para las operaciones de backoffice deben ser explicables. Otro 43% asegura que no tienen más responsabilidades que las que marcan las regulaciones para la gestión de sistemas de Inteligencia Artificial en lo relacionado con la gestión de sistemas de IA cuyas decisiones puedan afectar de manera indirecta a las vidas de la gente.

Un paso importante que pueden dar las empresas para mejorar en el uso responsable de la Inteligencia Artificial es combatir el sesgo, pero solo el 38% de empresas dicen que tienen han avanzado en la integración de sistemas para ello en los procesos de desarrollo de sus modelos. De hecho, solo un 20% monitoriza activamente sus modelos en producción para vigilar su justicia y la ética. Y solo el 33% tiene un equipo de validación de modelos para asesorar sobre modelos desarrollados recientemente.

De las empresas encuestadas, menos de la mitad de las que habían desplegado la Inteligencia Artificial a escala tenían implementaciones de IA maduras y responsables. Un 59% evalúa la justicia de los resultados de los modelos para detectar un sesgo de modelos, mientras que un 55% aísla y valora las funciones de modelos para buscar el sesgo, y el 50% dicen que cuentan con una definición matemática codificada para el sesgo de los datos y lo busca activamente en fuentes de datos desestructurados.

Las empresas también reconocen que las cosas tienen que cambiar. Un 90% están de acuerdo en que los procesos ineficientes para la monitorización de modelos representan una barrera para la adopción de la Inteligencia Artificial. Por suerte, el 63% de los encuestados creen que una IA ética y responsable se convertirá en un elemento principal de la estrategia de su organización en los próximos dos años.

Redactora de tecnología con más de 15 años de experiencia, salté del papel a la Red y ya no me muevo de ella. Inquieta y curiosa por naturaleza, siempre estoy al día de lo que pasa en el sector.

Lo más leído