Noticias
Sólo un 8,8% de españoles creen que hay una normativa estricta para regular la IA
A principios de agosto ha entrado en vigor el régimen sancionador del Reglamento Europeo de Inteligencia Artificial (RIA), que implica que las empresas que no cumplan la normativa fijada para el desarrollo, implementación y uso de sistemas de Ia podrán ser multadas con importantes sanciones económicas, además de tener que cumplir diversas medidas restrictivas. Las multas que pueden recibir pueden alcanzar los 35 millones de euros, o el 7% de su facturación anual global.
Sin embargo, el escepticismo en España sobre la regulación existente entre la sociedad es claro, y revela una preocupación elevada por la privacidad de los datos. Según los últimos datos de la encuesta sobre la percepción de la ciudadanía con respecto a la IA de la consultora tecnológica Entelgy, solo un 8,8% de los encuestados cree que hay en la actualidad una normativa de regulación de la IA que es lo bastante estricta.
Esta sensación de desconfianza no se limita a la normativa. Los ciudadanos tampoco están convencidos con las autoridades que se encargan de la seguridad y el desarrollo adecuado de la IA. Así, un 88,6% de los participantes en la encuesta considera que las instituciones no transmiten la seguridad necesaria con respecto al control y supervisión de la IA. Esto refleja una brecha entre las expectativas de la sociedad y la acción de las instituciones.
A esto se une un nivel de conocimiento bajo de la normativa en vigor. Solo un 11,4% de los ciudadanos encuestados asegura que está al corriente de las regulaciones actuales sobre IA. El porcentaje es algo superior entre las personas de 18 a 29 años, ya que alcanza un 19,3%.
Por otro lado, a la falta de confianza se une una preocupación generalizada por la privacidad. Un 80% de los ciudadanos muestran inquietud por la posibilidad de que un sistema de IA recoja información personal sin que haya garantías de protección suficientes. Esta inquietud es especialmente elevada entre las personas de entre 20 y 49 años (81,4%) y los mayores de 50 años, con un 81%.
Desde el 2 de agosto, las prácticas que serán sancionadas según el Reglamento Europeo de Inteligencia Artificial en España son las consideradas como riesgo inaceptable para los derechos y libertades fundamentales de las personas. Por ejemplo la manipulación subliminal o engañosa, la explotación de vulnerabilidades, el «social scoring», el reconocimiento facial masivo, el análisis de emociones en entornos laborales y educativos, la categorización biométrica y la predicción delictiva.
Además, para evitar sanciones relacionados con la transparencia y los datos con que se entrenan los modelos de IA, las empresas deberán asegurarse de que sus sistemas de IA cumplen con la normativa europea, garantizando la transparencia, la documentación técnica adecuada y la supervisión humana cuando sea necesario.
Tendrán que informar con claridad a los usuarios cuando estén interactuando con una IA, y colaborar activamente con la Agencia Española de Supervisión de Inteligencia Artificial (AESIA). También será clave que revisen con rigor los modelos de propósito general que integren en sus servicios, incorporando salvaguardas para evitar riesgos legales.
Desde Entelgy señalan que «la entrada en vigor del régimen sancionador del Reglamento Europeo de Inteligencia Artificial representa un paso fundamental para garantizar que el desarrollo y uso de la IA se realice de manera segura, ética y responsable. El bajo nivel de conocimiento que tienen los ciudadanos sobre la normativa vigente dificulta generar confianza en las instituciones para proteger sus derechos frente a estas tecnologías y demanda un esfuerzo adicional en transparencia y formación«.
-
A FondoHace 5 díasPíldora roja o píldora azul
-
NoticiasHace 14 horasQNAP estrena la segunda beta abierta de QuTS hero h6.0
-
NoticiasHace 6 díasASUS presenta el portátil para empresas, ExpertBook B3 G2
-
NoticiasHace 5 díasNextcloud Hub 26 Winter: más facilidades para migración y mejoras en rendimiento y colaboración

