A Fondo
La IA en el trabajo: dos mundos paralelos
Trabajar con la IA se ha convertido en una necesidad. A nivel profesional la mayoría nos ponemos al día ante la inevitabilidad de una revolución que está en plena aceleración, pero para las empresas la angustia es aún mayor con el miedo a perder competitividad y la evidencia de una fuerza laboral aún por formar (y convencer). El mayor problema estratégico de la adopción de la IA en las organizaciones no es tecnológico. Es de percepción. Los datos de 2026 muestran que directivos y empleados operan con visiones radicalmente distintas de la misma realidad, y esa brecha produce dos riesgos críticos para el negocio: inversiones mal calibradas y una epidemia silenciosa de uso no autorizado de herramientas de IA que está exponiendo datos confidenciales fuera del perímetro corporativo.
Creer que la IA ya está integrada en la operativa diaria sin medirlo es el error más costoso que puede cometer un directivo en 2026. Esa falsa certeza lastra la planificación de inversión y bloquea la detección de riesgos reales antes de que escalen. El informe de Multiverse de marzo de 2026 lo documenta con precisión: el 59% de los líderes cree que sus empleados colaboran con IA a diario, pero sólo el 42% de los empleados confirma hacerlo. La divergencia se amplía en las capas superiores: el 23% de los CEOs cree que sus empleados ya delegan tareas completas a la IA, mientras que apenas el 8% de los empleados dice hacerlo.
Gary Eimerman, Chief Learning Officer de Multiverse, extrae una conclusión directa: la brecha del 30% en adopción entre niveles de antigüedad es una señal de que el enfoque único para la IA está fallando. Esa lectura distorsionada convierte cualquier justificación de inversión en tecnología de IA en un ejercicio de planificación sobre datos incorrectos.
Compañero o herramienta: el abismo conceptual
La brecha entre empleadores y empleados sobre la IA no es solo de uso sino de identidad. Mientras la dirección redefine la IA como un integrante del equipo, la plantilla la percibe como una utilidad más. Esa divergencia conceptual bloquea la estrategia de adopción antes de que empiece a ejecutarse.

El Digital Work Trends Report de Slingshot e Infragistics (marzo de 2026), elaborado por la firma de investigación Dynata sobre 500 trabajadores, cuantifica esa fractura con precisión. El 41% de los empleadores está dispuesto a abrazar la IA como otro miembro del equipo, pero los empleados no están alineados con esa caracterización. El 52% de la plantilla sigue viendo la IA principalmente como una herramienta útil, y solo el 20% la considera un colaborador. La generación que más asume el modelo de «compañero de equipo» sigue siendo minoritaria: incluso entre los empleados de la Generación Z (18-28 años) y los Millennials (29-44 años), los más receptivos a esa visión, un 19% y un 17% respectivamente expresan preocupación por ser sustituidos por la IA.
El mismo estudio revela además una cadena de transmisión rota entre la cúpula y el resto de la organización. El 86% de los ejecutivos del C-suite cree que el uso de la IA es un requisito en las operaciones de su empresa, pero al bajar un escalón, apenas el 49% de los mandos intermedios está de acuerdo y lo traslada a sus equipos. Y a nivel de empleado de base, solo el 19% depende de la IA y un 2% dice que no podría hacer su trabajo sin ella. Ese dato revela un problema estructural de gobernanza interna: la directriz se enuncia en el comité de dirección pero se disuelve antes de llegar a la operativa.
La misma desconexión aparece en la percepción del uso de datos. El 70% de los ejecutivos afirma que sus empleados dependen constantemente de los datos para tomar decisiones, pero solo el 31% de los empleados confirma ese uso intensivo. Para el CIO, esto es especialmente relevante: cualquier inversión en infraestructura de datos e IA se está justificando, en buena medida, sobre una percepción ejecutiva que triplica la realidad operativa.
Dean Guida, CEO de Infragistics y fundador de Slingshot, extrae la conclusión estratégica correcta: las empresas reciben el mensaje de que si siguen viendo la IA como una herramienta ya van por detrás, y ajustan sus estrategias en consecuencia. Pero esa mentalidad de «compañero de equipo» no se filtra automáticamente a toda la organización. Para que una empresa pueda aprovechar el potencial real de la IA, es necesario un enfoque ascendente centrado en la formación, las políticas claras y la transparencia sobre el papel de la tecnología.
El informe de Parte 1 del mismo estudio, publicado en enero de 2026, añade un matiz que agrava el diagnóstico: el 45% de los empleados oculta su uso de la IA en el trabajo. Mientras el 47% de los empleadores cree que esto se debe al miedo a perder el empleo, solo el 24% de los empleados lo corrobora. La razón real es otra: el 34% teme que usar IA sea percibido como hacer trampa y el 27% teme ser juzgado negativamente por sus compañeros o superiores. Es decir, los empleados ya usan la IA, pero lo hacen en silencio, por vergüenza o por incertidumbre sobre las reglas del juego. Esa ocultación sistemática es el caldo de cultivo directo de la Shadow AI, como veremos más adelante.
La paradoja de la IA invisible
Las encuestas corporativas sobre adopción de IA están midiendo el problema equivocado. Cuando la IA se convierte en una capa de un producto existente, el empleado la usa sin saberlo, y ninguna métrica interna lo captura. Eso significa que el uso real es simultáneamente mayor y más opaco de lo que reflejan los cuadros de mando.
Es precisamente el hallazgo central del informe Top 100 Gen AI Consumer Apps de Andreessen Horowitz publicado en marzo de 2026 por Olivia Moore, socia de a16z. El informe constata que herramientas de uso diario como Canva, Notion o CapCut han integrado la IA generativa en su núcleo funcional hasta el punto de que la IA ya no es el producto: es la infraestructura invisible del producto. Notion ha pasado de un 20% a más de un 50% de usuarios de pago que utilizan sus funciones de IA en un solo año, y esas funciones representan ya cerca de la mitad de sus ingresos recurrentes anuales.

La consecuencia metodológica es contundente: un trabajador del conocimiento que dicta cada correo a través de Wispr o que usa las funciones de IA de Notion ocho horas al día apenas registra actividad en los sistemas de seguimiento de adopción corporativa. El informe concluye que los rankings de uso infracontabilizan de forma estructural los productos de IA más utilizados, precisamente porque la IA ha dejado de ser un destino y ha pasado a ser una funcionalidad. Para el CIO, esto tiene una implicación directa: los informes de adopción interna no están midiendo el uso de IA, están midiendo el uso de aplicaciones etiquetadas como IA. Son dos cosas distintas y la diferencia importa a la hora de calibrar tanto la inversión como el riesgo.
Mando y control como sustituto de estrategia
Pero prescindiendo del hecho de que no tenemos datos fiables de la adopción de la IA en las empresas, la realidad es que la adopción de dichas herramientas ya no es opcional y es necesario tener un plan que sea eficaz y al mismo tiempo convincente para nuestras plantillas. Responder a la brecha de adopción con mandatos coercitivos sin infraestructura de formación ni gobernanza es una apuesta de alto riesgo operativo. Genera presión sobre la plantilla, pero no produce capacidad instalada ni, en absoluto, seguridad.
El caso más citado en los últimos meses es el de Tobi Lütke, CEO de Shopify. En un memo interno que publicó en X para evitar una filtración, declaró que el uso reflexivo de la IA es ahora una expectativa de base en Shopify. El documento establece que los empleados deben justificar por qué una tarea no puede realizarse con IA antes de solicitar recursos adicionales, y que la competencia en IA pasará a formar parte de las evaluaciones de desempeño y de los procesos de contratación. El analista J.P. Gownder de Forrester señala que este tipo de mandato ignora que no todos los empleados tienen la comprensión, las capacidades y la conciencia ética necesarias para usar la IA de forma apropiada.
El problema de fondo no es si el mandato es legítimo o no. El problema es que cuando las organizaciones presionan hacia la adopción sin proporcionar herramientas corporativas seguras ni formación estructurada, empujan a los empleados hacia una solución alternativa que ya tiene nombre propio en el sector: Shadow AI. Como siempre lo primero es conocer nuestro negocio y construir una cultura de empresa en las que las herramientas tecnológicas no sean un añadido sino que pasen a formar parte de esa cultura como parte integrante de los procesos con una gobernanza eficaz y abierta a las innovaciones. Mucho más complicado de lo que parece…
La IA en la sombra crece
Ya lo hemos mencionado pero el caso es que la Shadow AI (uso de herramientas de IA sin autorización del departamento de TI) es hoy el principal vector de exposición de datos confidenciales fuera del perímetro corporativo, y afecta por igual a empleados de base y a la propia cúpula directiva.
Los datos de 2026 son inequívocos. Según una encuesta de BlackFog a 2.000 trabajadores en empresas de más de 500 empleados, el 49% admite usar herramientas de IA sin la aprobación del empleador. Más preocupante aún: el 69% de presidentes y miembros del C-suite y el 66% de directores y vicepresidentes senior parecen tolerarlo, priorizando la velocidad sobre la privacidad en la carrera por adoptar IA. Según CIO Magazine, el fundador de BlackFog, Darren Williams, señala que muchos directivos no quieren admitir que ellos mismos usan IA, lo que complica aún más la detección del problema.
El patrón de comportamiento es siempre el mismo: el empleado no actúa con malicia, actúa con la lógica de cualquier usuario frente a una herramienta que multiplica su productividad. El 38% de los empleados comparte datos confidenciales con plataformas de IA sin autorización, según una investigación de CybSafe y la National Cybersecurity Alliance sobre 7.000 personas. Y la percepción de riesgo es prácticamente nula en la plantilla: el 91% de los empleados cree que la Shadow AI plantea un riesgo mínimo o que los beneficios de productividad superan cualquier riesgo, creando una brecha peligrosa en la percepción de amenazas.
El informe de Moore añade un matiz que agrava el diagnóstico: si la IA ya está integrada de forma invisible en herramientas de consumo ampliamente utilizadas, como CapCut, Canva o Notion, la línea entre uso corporativo autorizado y Shadow AI se ha vuelto estructuralmente borrosa. Un empleado que usa la versión personal de Notion con funciones de IA activadas para redactar un informe estratégico no percibe que está haciendo nada fuera de lo ordinario. Técnicamente, puede estar transfiriendo información sensible fuera del perímetro corporativo sin que ningún sistema de detección lo registre.
El coste real: GDPR, IP y brechas
La Shadow AI no es un problema de cultura digital. Es un problema de cumplimiento normativo con consecuencias financieras directas y calculables, especialmente bajo el marco regulatorio europeo. Cuando un empleado introduce en ChatGPT o en cualquier herramienta de IA no corporativa un contrato, una estrategia comercial, datos de clientes o código propietario, está transfiriendo información fuera del perímetro de control de datos de la organización. Bajo el Reglamento General de Protección de Datos (RGPD), esto puede constituir una transferencia internacional de datos no autorizada, con multas de hasta el 4% del volumen de negocio anual global. Bajo NIS2 (la directiva europea de ciberseguridad), la ausencia de controles sobre el uso de herramientas de terceros puede ser considerada negligencia en la gestión de riesgos de la cadena de suministro digital.

Según el informe de IBM sobre el coste de las brechas de datos de 2025, los casos asociados a IA costaron a las organizaciones más de 650.000 dólares por incidente. El diagnóstico de Zylo resume bien el estado del sector: el 93% de los responsables de TI tiene distintos grados de preocupación sobre los riesgos de seguridad de datos asociados a herramientas de IA, pero menos del 30% ha implementado controles técnicos más allá de declaraciones de política. Una política que nadie cumple no es seguridad: es documentación de responsabilidad.
Prohibir no funciona
La respuesta defensiva al fenómeno de la Shadow AI, que consiste en bloquear el acceso o sancionar el uso no autorizado, es contraproducente y estratégicamente ineficiente. Las organizaciones que han seguido ese camino han documentado el mismo resultado: el uso se vuelve más opaco, no desaparece.
Casi la mitad (47%) de las personas que usan plataformas de IA generativa lo hace a través de cuentas personales que sus empresas no supervisan, según el informe de seguridad en la nube de Netskope. El 21% de los empleados cree que su empleador simplemente hará la vista gorda mientras el trabajo salga adelante. El problema no son los empleados: es la ausencia de una oferta corporativa que compita en usabilidad con las herramientas de consumo. Como demuestra el informe de Olivia Moore, los productos de consumo como Canva o Notion ya han ganado esa carrera en amplios segmentos de la fuerza laboral. La respuesta correcta no es prohibir sino ofrecer alternativas corporativas seguras que no penalicen en productividad.
Frameworks como COBIT 2019 e ITIL 4 ya contemplan la gestión del riesgo asociado a herramientas de terceros no controladas dentro del gobierno de TI. La categoría de Gartner denominada AI Governance Platforms y las soluciones de Data Loss Prevention (DLP) de siguiente generación son hoy la respuesta técnica estándar. Las pasarelas de IA seguras (Secure AI Gateways) permiten que el empleado acceda a los mismos modelos que usaría por su cuenta, pero bajo políticas de gobernanza corporativa, con trazabilidad total de los datos enviados al modelo y sin que la información salga del perímetro de la organización.
El primer paso es medir la realidad con la metodología correcta: no basta con auditar el uso de aplicaciones etiquetadas como IA. Hay que mapear también el uso de IA embebida en herramientas de productividad generales, tal como documenta el informe de a16z. Con esa base factual, el segundo paso es construir una oferta corporativa competitiva que elimine el incentivo para el uso no autorizado, priorizando la experiencia de usuario sobre la restricción. El tercer paso es articular un programa de formación segmentado por perfil y nivel de uso, no genérico, siguiendo el diagnóstico de Multiverse sobre la brecha de adopción por seniority. El cuarto paso es integrar la gestión de la Shadow AI dentro del marco de cumplimiento normativo (RGPD, NIS2, DORA si aplica al sector) y documentar los controles técnicos implementados, no solo las políticas escritas. La organización que llega a 2027 sin ese inventario ni esos controles no tiene un problema de adopción de IA: tiene un problema de exposición regulatoria que ya está activo.
Encaja perfectamente. El informe del WEF aporta la dimensión que faltaba en el artículo: el coste organizativo de no actuar, con datos sobre la brecha de competencias y el riesgo de «vaciamiento» de los mandos intermedios. Lo colocaría **justo antes de la «Hoja de ruta para el CIO»**, como sección de cierre analítico antes de los próximos pasos.
El coste de no transformarse
La brecha de percepción y la Shadow AI no son síntomas aislados. Son la expresión de un problema estructural más profundo: las organizaciones han adoptado herramientas de IA sin rediseñar los modelos operativos ni las trayectorias profesionales que esas herramientas transforman de forma irreversible. El Foro Económico Mundial lo documenta con claridad en su informe Organizational Transformation in the Age of AI (enero de 2026): en 2026 la IA ya ha superado la fase de experimentación, las organizaciones pueden señalar mejoras medibles y están comenzando a integrarla en sus flujos de trabajo centrales. La oportunidad ahora es realizar su valor completo repensando cómo se realiza el trabajo, cómo se toman las decisiones y cómo se diseñan los modelos operativos.
El informe, elaborado con datos de más de 20 grandes compañías tecnológicas entre las que figuran Cisco, ServiceNow y Microsoft, identifica una consecuencia concreta que los responsables de recursos humanos y tecnología no están anticipando suficientemente: el riesgo de vaciamiento no afecta principalmente a los puestos de entrada, sino a los mandos intermedios. Los empleados junior usan copilots e inteligencia artificial de conocimiento para participar en tareas complejas e interacciones con clientes que antes requerían más experiencia, acelerando la progresión por niveles y cambiando la forma del desarrollo profesional. Esto tiene una implicación directa para la estructura organizativa: la escalera corporativa tradicional está perdiendo sus peldaños intermedios, lo que obliga a replantear la formación, la promoción y el rol de supervisión de los mandos medios.

Los casos documentados por el WEF ilustran lo que ocurre cuando la integración es real y no cosmética. Una empresa analizó tres meses de datos fiscales y 150 páginas de regulación compleja con IA, comprimiendo un proceso de semanas a tres días y descubriendo 120 millones de dólares en ahorro. Otra compañía redujo un procedimiento de 30 minutos a segundos, recuperando 30.000 horas operativas anuales. Estos resultados, señala el informe, solo se producen cuando la IA se integra en profundidad en los flujos de trabajo, no cuando se añade como una capa superficial sobre procesos existentes.
El informe también fija la condición más ignorada para que esa integración funcione: la confianza. Steve Rudolph, VP de Estrategia y Transformación en Pegasystems, señala que la IA debe ser orquestada para garantizar resultados consistentes y auditables, en lugar de operar como una caja negra impredecible. Esa auditabilidad no es solo un requisito regulatorio bajo marcos como NIS2 o el AI Act europeo: es la condición mínima para que los empleados confíen en las herramientas que se les pide usar, y dejen de buscar alternativas no supervisadas. El WEF estima además que casi el 40% de las competencias requeridas en los puestos de trabajo cambiarán antes de 2030, y que el 63% de los empleadores ya identifica la brecha de habilidades como la principal barrera para la transformación. Una organización que no gestiona esa brecha hoy no solo pierde competitividad: está construyendo las condiciones para que la Shadow AI sea, en pocos años, la única IA que su plantilla realmente sabe usar.
-
A FondoHace 6 díasAMD amplía sus CPUs para sistemas integrados con Ryzen AI Embedded P100
-
A FondoHace 5 díasAMI Labs: mil millones para una IA diferente sin alucinaciones
-
A FondoHace 6 díasIntel presenta nuevos procesadores para embebidos y el edge IA
-
A FondoHace 6 díasMicrosoft cambia las reglas del juego agéntico empresarial con Copilot Cowork

