Visualização de leitura

Why a modern data foundation takes more than a new platform

Too many data modernization efforts begin with the platform. The conversation turns to replacing the underlying data environment, moving reporting workloads to the cloud or retiring legacy tooling. Those decisions matter, but in my experience, they are rarely what makes the work hard.

What makes the work hard is everything that has built up around the platform over time.

I have seen this most often in organizations that inherited legacy architecture through acquisition, accumulated technical debt through years of deferred investment or saw reporting logic and master data evolve without enough enterprise discipline. On the surface, the environment may still appear functional. Dashboards are still refreshing. Reports still go out. Teams still find ways to get numbers. But once the business begins to scale, the weaknesses become much harder to hide.

The warning signs usually appear before the platform itself becomes the problem. Different teams start using different numbers for the same KPI, critical reporting logic begins to live outside core systems and analysts spend more time reconciling data than interpreting it. New business units take longer to onboard, reporting changes become harder than they should be and, before long, the issue is no longer just the data platform. It becomes a broader problem of trust, scalability and control.

That is why too many modernization efforts are scoped too narrowly. Replacing the platform is only one part of the challenge. The real work is untangling years of logic, definitions and integration patterns that were never designed to scale together.

The platform is only one layer of the problem

One of the clearest lessons I have learned is that legacy data environments rarely fail in an isolated way. They fail by becoming harder to trust and harder to change.

In many environments, the data platform is carrying far more than data. It is carrying years of workarounds for things that source systems were never able to handle cleanly. Reporting logic ends up split across ETL jobs, SQL transformations, scripts, spreadsheets and side databases. Some of it was built quickly to solve immediate business needs. Some of it was necessary at the time. But over time, those decisions create duplicated logic, hidden dependencies and handoffs that become harder to govern every time the business changes.

The issue is not only technical debt in the traditional sense. It is also reporting debt, where inconsistent definitions and duplicated logic across reports make data harder to trust and maintain. KPI definitions evolve differently across functions. Business logic gets embedded in too many places. Teams build local workarounds to compensate for mismatched source data. The business keeps moving, but the data foundation falls further behind.

That is why I think CIOs need to treat modernization less like a platform replacement and more like an effort to restore architectural separation and control.

In practice, that means separating ingestion, transformation and reporting instead of allowing all three to collapse into the same layer. It means reducing the number of places where business logic can live. It means establishing a clear source of truth for key metrics before they show up in executive dashboards. It also means making sure master data is defined consistently enough that teams are not comparing duplicate records or conflicting definitions and assuming the platform is to blame.

Fit matters more than feature depth

Platform decisions are often misunderstood.

On paper, most modern data platforms are capable. They all promise scale, flexibility and performance. But in practice, the decision is rarely about capability alone. It is about fit.

In recent modernization work, I have seen firsthand that the wrong decision is not always choosing an inferior technology. More often, it is choosing a platform that introduces unnecessary complexity into an environment that is already fragmented.

That complexity shows up quickly in the form of another cloud to manage, another billing model to track, another toolchain to support, another integration layer to maintain, another set of skills to build and another governance surface to control.

Those costs do not always show up clearly in vendor comparisons, but they show up immediately in execution.

That is why I have become more disciplined about asking a different question. Not what is the most powerful platform on paper, but what choice best aligns with the operating model, capabilities and simplification goals of the enterprise.

There is no one-size-fits-all answer. For some organizations, a separate cloud native warehouse may make perfect sense. For others, a more unified platform approach is the better fit because it leverages current skills, preserves momentum and avoids duplicating effort inside an ongoing modernization program.

That distinction matters.

The goal is not to build the most theoretically flexible architecture. It is to build one where the organization can actually govern, extend and operate over time.

Master data is where credibility starts

Modernization does not become credible until master data starts to improve.

That is not a side effort. It is part of the foundation.

In many enterprises, the root problem is not just the reporting layer. It is the fact that core entities such as customers, products, suppliers and locations are still defined differently across systems. When that happens, every downstream discussion about trust, reporting consistency and AI readiness becomes harder than it should be.

One area where this becomes tangible is syndication and deduplication. In most legacy environments, the same customer, product or supplier exists multiple times across systems, often with slight variations in naming, attributes or hierarchy. Over time, teams build local workarounds to compensate, which only reinforces the fragmentation.

Deduplication is not just a technical exercise. It forces alignment to what defines a unique entity. Syndication operationalizes that alignment, ensuring that once data is standardized, it is consistently distributed across systems and downstream processes. Without both, organizations end up maintaining multiple versions of the same truth and the platform becomes harder to trust regardless of how modern it is.

That is why I keep coming back to master data discipline. If important reports are not built on agreed business definitions and trusted logic, leaders end up looking at different versions of the same KPI. If customers, products and suppliers are not defined consistently across the business, the platform may look modern while the reporting remains hard to trust.

That is also why phased execution matters. Master data does not have to be fully resolved upfront, but it does need to be mature enough in the right domains to support the first releases and give the organization a foundation it can extend with confidence.

A modern foundation has to be engineered for change

What has worked best in my experience is a disciplined architecture that separates ingestion, transformation and reporting instead of mixing them together in ways that are hard to maintain.

That is where the medallion model becomes practical, giving the organization a structured way to separate raw data, standardized data and business-facing reporting. Bronze is where data first comes in from different systems. Silver is where it gets standardized, so the business is not working from conflicting definitions or duplicate records. Gold is where reporting and KPIs can sit on a more trusted foundation. That separation makes the environment easier to scale, troubleshoot and govern over time. The value is not in terminology, but in the discipline behind it.

I have seen organizations modernize into cloud data warehouses, data lakes and lakehouse architectures. The pattern is the same. If the underlying logic, master data and governance are still fragmented, the new platform inherits the same trust problems as the old one.

That same discipline has to carry through to the platform itself. If the environment is going to hold up under growth, the pipelines have to be observable, versioned and resilient enough to support change without constant rework. Environment separation, CI/CD workflows and operational monitoring are not extras. They are part of what makes the platform sustainable.

I also would not lead a modernization effort with AI, even when the pressure is high. AI raises the stakes, but it does not change the core problem. If the data foundation is still fragmented, poorly governed or inconsistent, a new AI layer will not solve it. That is increasingly showing up in the market, with Gartner warning that many generative AI efforts will stall because of poor data quality, inadequate risk controls, escalating costs or unclear business value. Foundry’s latest AI research reinforces this, identifying data storage and management as a top foundational investment for internal AI.

Final thought

The technology will continue to evolve.

The organizations that benefit most will not be the ones chasing every new platform. They will be the ones making disciplined decisions about how those platforms fit into their operating model and executing against them consistently.

Modernization does not fail because the technology is not good enough.

It struggles when the decisions behind it are not grounded in how the business actually runs.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

How UKG puts AI to work for frontline employees

As organizations rebrand themselves as AI companies, most of the conversation is focused on knowledge workers rather than the people in retail, manufacturing, and healthcare who can benefit from AI just as much. Prakash Kota, CIO of UKG, one of the largest HR tech platforms in the market, which delivers a workforce operating platform utilized by 80,000 organizations in 150 countries, explains how his company uses agentic AI, voice agents, and a democratized innovation framework to transform the frontline worker experience, and why the CIO-CHRO partnership is critical to making it stick.

How do you leverage AI for growth and transformation at UKG?

UKG is one of the largest HR, pay, and workforce management tech platforms in the market, and our expertise is in creating solutions for frontline workers, which account for 80% of the world’s workforce. This is important because when companies rebrand themselves as AI for knowledge workers, they’re not talking about frontline workers. But people in retail, manufacturing, healthcare, and so on also benefit from AI capabilities.

So the richness of our data sets, and our long history with the frontline workforce, positions us well for AI driven workforce transformation. 

What are some examples?

We use agentic AI for dynamic workforce operations, which shows us real-time labor demand. Our customers employ thousands of frontline workers, and the timely market insights and suggested actions we give them are new and valuable.

We also provide voice agents. Traditionally, when a frontline worker requests a shift, managers would review availability, fill out paperwork or update scheduling software, and eventually offer an appropriate job. With voice agents, AI works directly with the frontline worker, going through background and skills validation, communication, and even workflow execution. The worker can also ask if they can swap shifts or even get advice on how to make more money in a particular month. This is where AI changes the entire frontline worker experience.

We also launched People Assist, an autonomous employee support agent. Typically, when an employee is onboarded, IT and HR need to trigger and approve workflows. People Assist  not only tracks workflows, but also performs those necessary IT and HR onboarding activities so new employees are productive from day one.

What framework do you use to create these new capabilities?

For internal AI usage for our own employee experience, we use an idea-to-implementation framework, which involves a community of UKG power users who are subject matter experts in their area. Ideas can come from anybody, and since we started nine months ago, more than 800 ideas have been submitted. The power users set our priorities by choosing the ideas that will make the most impact.

Rather than funneling ideas through a small central team — a linear process that kills momentum — we’ve democratized innovation across the business. We give teams the governance frameworks, change models, and risk guardrails they need to move quickly.  With AI, the most important thing isn’t to launch, but to land.

But before we adopted the framework, we defined internal personas so we could collaborate with different employee groups across the company, from sales to finance.

With the personas and the framework, we can prioritize ideas by persona, which also facilitates crowd sourcing. You’re asking an entire persona which of these 10 ideas will make their lives better, rather than senior leaders making those decisions for them.

Why do so many CIOs focus on personas for their AI engine?

Across the enterprise, every function has a role to play. We hire marketing, sales, and finance for a particular purpose. Before AI, we gave generic packaged tools to everyone. AI allows us to build capabilities to make a specific job more effective. Even our generic AI tools are delivered by persona. Its impact on specific roles is the reason personas are so important right now. Our focus is on the actual jobs, the people who do them, the skills and tasks needed, and the outcomes they want to achieve.

We know our framework and persona focus work from employee data. In our most recent global employee engagement survey, 90% said they’re getting the right AI tools to be effective. For the AI tools we’ve launched broadly across the company, eight out of 10 employees use them. For me, AI isn’t about launching 10,000 tools, because if no one uses them, it’s just additional cost for the CIO and the company.

Is the build or buy question more challenging in this nascent stage of AI?

The lifecycle of technology has moved from three years to three hours, so whenever we build at UKG, we use an open architecture, which allows us to build with a commercial product if one comes on the market.

Given the speed of innovation, we lean toward augmentation rather than build. There are areas, like our own native products, where a dedicated engineering team makes sense. But for most of our AI capabilities — customer support and voice agents, for example — we work with our vendor partners. We test and learn with multiple vendors, and decide on one usually within two weeks.

This is what AI is giving all CIOs: flexibility, rapid adoption, interoperability, and the ability to quickly switch vendors. It’s IT that’s very different from what it used to be.

Given the shift to augmentation, how will the role of the software engineer change?

For software builders, business acumen — the ability to understand context — is no longer optional. In the past, the business user would own the business context, and the developer, who owns the technology, brings that business idea to life. Going forward, the builder has the business context to create the right prompts to let AI do the building, and the human in the loop is no longer the technology builder, but the provider of context, prompts, and validation of the work. So the engineer doesn’t go away, however they now finish a three-week scope of work in hours. With AI, engineers operate at a different altitude. The SDLC stays, but agility increases where a two-week concept compresses into two days.

At UKG, you’re directly connected to the CHRO community. What should they be thinking about how the workforce is changing with AI?

The best CHROs are thinking about the skills they’ll need for the future, and how to train existing talent to be ready. They’re not questioning whether we’ll need people, but how to sharpen our teams for new roles. The runbooks for both IT and HR are evolving, which is why the CIO-CHRO partnership has never been more critical to create the right culture for AI transformation.

CIOs can deliver a wealth of employee data like roles, skillsets, and how people spend their time. And as HR leaders help business leaders think through their roadmap for talent —  both human and AI — IT leaders can equip them with exactly that intelligence.

What advice would you give to CIOs driving AI adoption?

Invest in AI fluency, not just AI tools. Your people don’t need to become data scientists, but they do need a new kind of literacy — the ability to work alongside AI, question its outputs, and know when to override it. That’s a training and culture investment, not a software investment.

And redesign work before you redeploy people. Don’t just drop AI into existing workflows. Use this moment to ask what work really matters. AI is forcing us to have the job design conversations we should’ve had years ago, so it’s important to be transparent about the journey. What’s killing workforce trust now is ambiguity. Your people can handle hard truths but not silence. Leaders who communicate openly about where AI is taking the organization will retain the talent they need to get there.

El agua quiere dejar de ser un “novato digital”

El agua está tan integrada en nuestra vida cotidiana que ya ni siquiera nos parece algo especial. Abrimos el grifo, tiramos de la cisterna o activamos el chorro de la ducha y allí está, esperando. Sin embargo, para que eso ocurra tienen que pasar muchas cosas, un complejo ciclo del agua que garantiza no solo que circule sino también que sea óptima para el consumo humano. Es un proceso en el que la tecnología también está muy presente.

“Se puede decir que toda el agua es tecnológica. Otra cosa es que sea analógica o digital”, explica Luis Babiano, gerente de la Asociación Española de Operadores Públicos de Abastecimiento y Saneamiento (AEOPAS). “Es un sector altamente tecnificado. Otra cosa es que estemos en el inicio de la digitalización. Nos falta todavía mucho para ser unos auténticos campeones digitales”, reconoce a CIO ESPAÑA.

“Aunque el agua sigue siendo un recurso físico, su gestión hoy es cada vez más digital”, explica al otro lado del correo electrónico María Gil, responsable de Idrica en España. Las utilities han incorporado a nivel global “sensores IoT, sistemas SCADA avanzados, telelectura, plataformas de analítica y, más recientemente, arquitecturas de datos tipo data lake que permiten integrar información de toda la operación”, apunta, lo que permite hacer una gestión más basada en datos.

Aun así, la digitalización del ciclo del agua es uno de los retos a los que se enfrenta el sector, uno que se vuelve mucho más acuciante cuando se tiene en cuenta el contexto en el que opera el agua. “La importancia es enorme porque el agua es un recurso cada vez más escaso y sometido a una gran presión”, explica Gil.

Las organizaciones ecologistas llevan años alertando sobre el impacto que tiene la presión creciente sobre los acuíferos, así como el coste que la crisis climática pasa en término de sequías. Según un informe de la ONU publicado en enero, el mundo ha entrado ya en una fase de “bancarrota hídrica”. “Muchas regiones han vivido muy por encima de sus posibilidades hidrológicas. Es como tener una cuenta bancaria a la que se le extrae dinero cada día sin que entre un solo depósito. El saldo ya es negativo”, explicaba entonces Kaveh Madani, el autor principal del informe.

España es, de hecho, uno de los terrenos más complejos en lo que presión hídrica se refiere. WWF advierte de que el país “se queda sin agua”, por ejemplo, y cada vez se habla más de estrés hídrico.  La situación es compleja, porque, como advierte la propia industria del agua, también se pierden cantidades importantes por culpa de los problemas de las propias infraestructuras que dan soporte al ciclo del agua. Algunas estimaciones hablan de que entre el 19 y 20% del agua se desperdicia por fugas o averías.

La digitalización podría ayudar a ser más eficaces y, sobre todo, a mejorar la eficiencia y resiliencia del ciclo del agua. Como apuntan las fuentes expertas, se podría prever situaciones complejas, identificar problemas, optimizar redes y mejorar las cosas.

El estado de las cosas en España

En este proceso de salto a la digitalización, hay luces y elementos positivos, pero también hay matices que invitan a poner en cierta perspectiva el optimismo. Esto es, hablar con el sector deja claro que se están haciendo cosas y que existe mucho interés, pero que se necesita mucha más inversión y mucha más sensibilidad ante la importancia del problema y la necesidad de actuar para mejorar esas infraestructuras del agua.

“España es uno de los países más avanzados en gestión del agua y eso se está trasladando también al ámbito digital”, defiende Gil. “Estamos viendo utilities que ya operan con plataformas integradas, modelos de gemelo digital, analítica avanzada y despliegues amplios de telelectura”, ejemplifica.

El PERTE del agua (que destinó parte de los fondos europeos del Plan de Recuperación, Transformación y Resiliencia a la digitalización del ciclo del agua) ha servido para dar impulso a la transformación. “El PERTE del agua ha sido una auténtica semilla para sembrar la digitalización en el sector y esto es muy positivo”, señala Babiano. También Gil confirma que “está acelerando” el cambio. Así, ya existen proyectos que incorporan herramientas clave y que “pueden servir de locomotoras”, como apunta el gerente de AEOPAS. Pero esto es solo una parte de la foto. “El reto no es tanto tecnológico —la tecnología ya existe— como de adopción, integración y cambio cultural dentro de las organizaciones”, indica Gil.

Babiano es claro a la hora de pintar el panorama del sector: la digitalización del agua necesita financiación, una que llegue de forma sostenida. Puede que esto lleve a que cambien las tarifas del agua, pero Babiano apunta que se necesitan “también fuentes públicas para su desarrollo”. “Entre otras cosas, porque la digitalización debe ir de la mano con un proyecto país”, defiende. Un aspecto clave por el que es importante que se integre en una visión a nivel Estado y no se quede solo en algo de casos concretos es que se necesita que la digitalización llegue a todas partes. O, como asegura el experto, “no solo nos debemos centrar en las ciudades, sino también en los municipios pequeños”. Se trata de evitar que existan “dos velocidades”, una para municipios capaces de ser digitales y otra para aquellos que se quedarán con “unas carencias importantes en todo tipo de infraestructura, incluida la digitalización”.

Las ‘utilities’ han incorporado a nivel global “sensores IoT, sistemas SCADA avanzados, telelectura, plataformas de analítica y, más recientemente, arquitecturas de datos tipo ‘data lake’ que permiten integrar información de toda la operación”, apunta María Gil (Idrica)

Aquí entra, además, otro factor importante en el que incide Babiano. La digitalización del ciclo del agua necesita una base sólida: antes, hay que optimizar la propia infraestructura física que lleva el agua a la ciudadanía. Puede que hablar de cañerías y plantas de depuración no sea tan cool como hablar de IA, pero esa es la base del ciclo del agua y ahí es donde aparecen los primeros problemas. Ahora mismo, todavía existen zonas de España sin depuradoras (a pesar de que la normativa comunitaria lo penaliza). Además, en líneas generales, la infraestructura del agua tiene ya sus décadas, lo que crea focos de tensión. “Más del 30% de nuestras redes tiene más de 40 años”, recuerda Babiano. Para entenderlo solo hay que pensar en la reforma del baño de casa: llega un momento en el que cambiar las cañerías es inevitable. Aquí pasa a una mayor escala.

“La digitalización nos permite pasar de un nivel razonable de solvencia y mantenerlo en el tiempo”, afirma Babiano. Pero la transformación digital no debe ir sola: el experto advierte que “primero, se trata de optimizar nuestras pérdidas, invertir en nuestras redes, etc y luego entrar (o entrar en paralelo) en la digitalización”.

Los retos del agua

Todo esto ocurre, igualmente, en ese momento lleno de retos para el sector que no se debe perder de vista. “Estamos ante una necesidad imperiosa de una transición”, asegura Babiano. Las cuencas hidrográficas se enfrentan a sequías, a danas (que, como recuerda el experto, llevan al límite en tiempos récord a las infraestructuras, como a las plantas depuradoras que deben asumir una avalancha de agua) y a una mayor presión. “Y, sin embargo, no tenemos un proyecto muy claro en torno a cómo invertir en esta transición hídrica”, asegura. Babiano compara la situación de esta transición con la que viven la transición energética o la de movilidad, en las que existen planes, medidas fiscales e incentivos para la inversión con los que ellos no cuentan. La transición hídrica no cuenta con una situación parecida, aunque desde el sector insisten en que debería serlo.

En ese contexto de transición, la digitalización podría convertirse en una aliada para afrontar los retos del agua. “La tecnología no es la única solución, pero sí es un habilitador clave”, indica Gil. “Los grandes retos del agua (sequía, estrés hídrico, sobreexplotación) tienen una dimensión estructural, climática y también de gobernanza”, explica, pero recuerda que “sin tecnología es prácticamente imposible gestionarlos de forma eficiente”. Permite ver qué está ocurriendo, qué puede fallar y tomar mejores decisiones, al tiempo que “aporta transparencia y trazabilidad”. Como resume Babiano, “la digitalización aumenta exponencialmente nuestra excelencia”. “Por ejemplo, si monitorizas toda tu red, sabes la localización inmediata de los puntos donde está perdiendo más agua de lo normal”, muestra. Se puede avisar al usuario final de lo que está pasando y localizar la fuga (y solventarla).

En España, asegura Babiano, ya existen este tipo de soluciones. “Gran parte de la reducción de muchos de nuestros consumos está viniendo de la mano de los contadores inteligentes y de la monitorización y digitalización de nuestras redes”, apunta. “Lo que no estamos logrando todavía es mayores automatismos”, señala, recordando que alcanzar los niveles más elevados de mejoras llevará un tiempo. “Todavía estamos en una fase de, podemos decir, paso del ‘novato digital’ a la ‘integración vertical’”, resume.

Tecnologías emergentes para el cambio

Pero ¿qué herramientas TI son las que esperan a la vuelta de la esquina cuando se alcanza un nivel avanzado en la digitalización?

Unas cuentas tecnologías se han convertido en emergentes en la gestión global del agua, según concluye un informe de la plataforma de software Xylem Vue. Según enumera su análisis son la colaboración entre la administración pública y la empresa privada, las arquitecturas basadas en agentes, la ciberseguridad, los sistemas de alerta temprana y, por supuesto, la ya ubicua IA generativa.

El salto a la digitalización tiene otra cara, la de las potenciales amenazas de ciberseguridad

“La inteligencia artificial está empezando a jugar un papel muy relevante, especialmente cuando ya existe una base sólida de datos”, explica Gil (Idrica es, junto con Xylem, quienes están detrás de Xylem Vue). “Su principal aportación es la capacidad de encontrar patrones complejos y optimizar decisiones en entornos con múltiples variables”, apunta. “Es importante entender que la IA no sustituye al conocimiento experto de la operación”, recuerda, pero señala que cuando se combinan ambos se logran grandes resultados. Otro de los puntos destacados son los sistemas de alerta temprana, que, como explica la experta, “son uno de los mayores cambios de paradigma en la gestión del agua”. En lugar de esperar a que el fallo se produzca e impacte en el propio servicio, se adelantan a lo que va a ocurrir. “El valor está en ganar tiempo: pasar de reaccionar a prevenir. Y en un sistema tan complejo y sensible como el del agua, esa anticipación tiene un impacto directo en la continuidad del servicio, en los costes operativos y en la confianza del ciudadano”, indica.

Aunque, eso sí, el salto a la digitalización tiene otra cara, la de las potenciales amenazas de ciberseguridad. El agua no deja de ser una infraestructura crítica y muy sensible. “Sin duda, la digitalización amplía la superficie de exposición, y el sector del agua no es ajeno a ello”, reconoce Gil, que suma que esto se ha convertido ya “en una prioridad creciente”. “Lo que estamos viendo es una evolución hacia modelos de seguridad más maduros”, afirma. “También hay una mayor concienciación en el sector”, suma. “La clave está en que la digitalización y la ciberseguridad avancen de la mano. No son elementos independientes”.

El riesgo de los agentes de IA para el CIO: la pérdida de perspectiva

El escenario no es hipotético: algunas de las empresas que más lejos llegaron en sustituir personas por IA han tenido que revertir parte del camino. Para el CIO, ese desajuste es especialmente relevante, porque los agentes están rediseñando cómo TI detecta problemas, decide y responde. Y porque esa perspectiva completa es justo la que la dirección y otras áreas necesitan que alguien ponga sobre la mesa.

1. El caso Klarna: cuando la oportunidad de la IA no dejó ver la realidad

Klarna se convirtió en 2024 en una referencia europea de lo que la IA podía hacer por una empresa. Su asistente de IA llegó a gestionar dos tercios de los chats de atención al cliente en su primer mes, con un trabajo equivalente al de 700 agentes a tiempo completo. Como resultado, decidieron congelar las contrataciones, y la plantilla bajó de unos 5.000 a 3.800 empleados. Apenas un año después, el propio CEO admitió que la compañía había ido demasiado lejos al sustituir personas por agentes, lo que fue en detrimento del servicio y del producto. De hecho, la empresa revirtió el camino: volvió a contratar agentes humanos para asegurarse de que el cliente siempre pudiera hablar con una persona.

Lo interesante aquí no es entenderlo como que la IA había fallado. El problema fue otro: entender la función de atención al cliente en clave de productividad y costes, sin ver el conjunto. Si se medía por tiempos de respuesta y FTE equivalentes, la automatización era óptima. Medida por satisfacción, calidad percibida y capacidad de resolver casos complejos, el resultado era otro, y acabó obligando a dar marcha atrás.

2. La lección que importa: la IA rediseña cómo se entrega una función

Es tentador leer Klarna en clave de una historia de atención al cliente. Pero el patrón afecta a cualquier función de negocio. Introducir agentes de IA no es añadir una herramienta más: reordena la toma de decisiones, el aprendizaje del día a día y, en última instancia, cómo se entrega el servicio.

Si solo se piensa en términos de productividad (es decir, qué se automatiza, cuánto se ahorra, cuántas FTE equivalentes libera), es fácil perder de vista las implicaciones más profundas. Es fácil terminar descubriendo tarde que lo que se entrega ya no es lo mismo, aunque sobre el papel se produzca más.

Esto es algo difícil de ver al principio. Una función puede realizarse peor y, aun así, mostrar mejores métricas operativas durante meses. Las consecuencias aparecen en otras áreas, lejos de la función que se automatizó: en reputación, en clientes perdidos o en decisiones mal tomadas.

3. En TI, con los agentes, el efecto es más intenso

En el terreno del CIO este patrón aparece antes y con más fuerza. Cuando un agente deja de ser un asistente que ayuda y pasa a intervenir, entonces llegan los cambios. Por ejemplo, condiciona qué alertas llegan al equipo, qué modificaciones de código se proponen o qué incidencias se priorizan. Esto va más allá de acelerar el trabajo: se decide lo que el equipo ve o deja de ver, y se desplaza el espacio donde se toman las decisiones.

En otras palabras, los agentes no solo ejecutan. Cambian la forma de detectar los problemas, la forma de responder e incluso la de aprender. Si este fenómeno se evalúa únicamente con métricas de rendimiento, se corre exactamente el riesgo de Klarna dentro de casa: ganar velocidad y perder perspectiva.

4. La paradoja: más capacidad de acción, menos visión directa

De ahí la paradoja que muchos responsables de TI empiezan a notar. La organización puede actuar más rápido, entregar más volumen y automatizar más decisiones, y a la vez perder el contacto con la complejidad de la realidad.

Antes, un equipo de soporte aprendía no solo resolviendo incidencias, sino viendo dónde fallaban las integraciones, o qué comportamientos del usuario revelaban un problema más profundo. Si ese trabajo pasa por sistemas automatizados, la organización puede seguir resolviendo, pero los empleados pierden recorrido de aprendizaje.

El riesgo que corre el equipo es que la IA funcione lo suficientemente bien como para desplazar fuera del primer plano el conocimiento y capacidades sobre cómo debe operar una unidad de negocio.

5. El CIO, portador de la perspectiva completa dentro y fuera de TI

Es aquí donde cambia de verdad el papel del CIO. No se trata de que sea el responsable de adoptar agentes y automatizar procesos de forma inteligente. Pasa a ser quien aporta, dentro y fuera de su área, la lectura completa de lo que la IA hace con una función de negocio. Es decir, ir más allá de las ganancias de productividad, aportando otros aspectos que no se ven, como la experiencia, la perspectiva de negocio y los cambios en la entrega de un servicio, sea hacia el empleado o hacia el cliente.

Esa perspectiva tiene un gran valor tanto en la dirección general y en otras áreas como operaciones, atención al cliente y, por supuesto, Recursos Humanos. En el contexto actual, donde se ven continuos anuncios de reducción de plantilla, la conversación tiende a quedarse en ahorro de costes y tiempos. El CIO, está bien situado para aportar la otra parte: dónde conviene mantener una supervisión sólida, qué puede delegarse en la IA y dónde hace falta prever la posibilidad de revertir una automatización que, sobre el papel, funcionaría.

Esa capacidad de revertir es, de hecho, una de las que la organización no puede perder. No todas las organizaciones pueden recuperar capacidades con la rapidez con la que se pierden.

6. La misión: entender y comunicar la delegación en agentes de IA

La misión, por tanto, no es frenar la IA ni desconfiar por principio de los agentes. Es aportar claridad qué puede delegarse y qué no conviene ceder sin perder capacidad de intervención. En unos casos la respuesta es clara: tareas repetitivas, clasificación inicial, generación de borradores o búsqueda técnica. En otros la frontera es más delicada: priorizar riesgos, decidir excepciones, cambiar sistemas heredados o actuar sobre procesos sin suficiente supervisión.

Ese será uno de los servicios más relevantes en el papel del CIO durante los próximos años. Más allá de avanzar en la adopción de los agentes, tendrá que aportar, dentro y fuera de la TI esa lectura necesaria del impacto de los agentes en una función de negocio. Y, finalmente, conservar la capacidad de revertir cuando no se entregue lo que debería, por muy bien que luzca en las métricas.

Todo esto apunta una dirección: el papel del CIO se está ensanchando más allá de lo puramente tecnológico. Gobernar bien la IA exige capacidades nuevas, que hoy apenas empezamos a nombrar y que van a marcar buena parte de la diferencia en los próximos años. A ellas dedicaremos las próximas tribunas.

Más allá del césped: así es la revolución digital del Atlético de Madrid 

En el fútbol de élite, la diferencia ya no se mide solo en el césped. La experiencia del aficionado, la eficiencia operativa o la capacidad de anticipar decisiones se juegan también en el terreno digital. En ese contexto, el Atlético de Madrid lleva años avanzando en una transformación tecnológica que sitúa al club entre los referentes europeos en innovación aplicada al deporte. 

La clave de esta evolución está en una idea clara: la tecnología no es un complemento, sino un eje estructural del modelo de negocio. “En nuestro club hay una apuesta clarísima por la inversión en tecnología desde el traslado al Riyadh Air Metropolitano”, explica René Abril Martín, director de Tecnología y Desarrollo Digital del Atlético de Madrid

Ese punto de inflexión marcó el inicio de una estrategia en la que lo digital pasó a formar parte de los objetivos cada temporada. “La inversión inicial en tecnología en el estadio y la intención del club, basada en que la experiencia digital también acompañara a nuestros aficionados y visitantes no solo en los partidos de fútbol, sino también en el resto de los eventos que alberga nuestro estadio, fue clave en aquel momento. Desde entonces, la tecnología y el desarrollo digital están presentes en nuestros objetivos de cada temporada”, señala. 

El “corazón del club”: el aficionado 

La estrategia tecnológica del Atlético de Madrid tiene una prioridad clara: el aficionado. “Todas nuestras prioridades giran en torno a su experiencia, que siempre debe de ser excelente. Son el corazón del Atlético de Madrid, y también nuestro motor de crecimiento”, explica Abril. 

Esa visión se combina con otras prioridades internas, como la eficiencia operativa, la seguridad de la red y el apoyo tecnológico a la estrategia ESG. “Actualmente estamos enfocados en reforzar la seguridad de la red, algo tan básico como clave. Todos nuestros servicios, tanto de experiencia de usuario como de empleado, corren por nuestra red multiservicio”, explica. En ese sentido, insiste en que la solidez de la red es un elemento crítico para sostener la experiencia digital. 

En esta nueva realidad, el dato se ha convertido en un activo fundamental. “La cantidad de datos que se generan diariamente en un club de élite es ingente. Toda interacción en un entorno digital genera datos, y el análisis de dichos datos nos ayuda a comprender mejor qué está ocurriendo y, por tanto, cómo mejorar aún más la experiencia”, añade. 

Del estadio inteligente al estadio conectado 

Durante los últimos años, muchos clubes han hablado del estadio inteligente. Sin embargo, Abril pone el foco en una capa previa. “A mí me gusta pensar que el estadio conectado es clave y un paso previo, porque se basa en la infraestructura”, afirma. 

Para el Atlético de Madrid, esa base es crítica en un entorno de alta densidad. “Sin una infraestructura bien diseñada, segura y con capacidades de escalar a las necesidades cada vez más altas de conectividad de servicios, esto es imposible de ejecutar en un recinto con más de 70.000 personas conectadas”, sostiene. 

René Abril Martín, director de Tecnología y Desarrollo Digital del Atlético de Madrid

René Abril Martín, director de Tecnología y Desarrollo Digital del Atlético de Madrid.

Atlético de Madrid

“Poder tener datos de la movilidad dentro del estadio y cómo los aficionados y el personal del club interactúan con nuestra infraestructura de red es muy valioso”

La prioridad es clara y operativa: garantizar el rendimiento en los momentos críticos. “Nuestra prioridad número 1 es que nuestras redes puedan soportar esos picos de demanda. Que en esos momentos se asegure la conectividad de los usuarios finales y aficionados, pero también la de los servicios críticos, como staff, operaciones, food and beverage”, explica. “Todo lo demás viene después”. 

El Riyadh Air Metropolitano, una infraestructura preparada para una nueva etapa 

La evolución más visible de esta estrategia es el proyecto de modernización tecnológica del Riyadh Air Metropolitano junto a HPE Networking, que se desarrollará en dos fases durante las temporadas 2025/26 y 2026/27. Para el club, no se trata solo de actualizar tecnología. “Queremos ofrecer la mejor experiencia a nuestros aficionados. Sentimos que llevamos años ofreciendo unas comunicaciones óptimas en nuestro estadio, pero a la vez queremos incorporar todos los avances que la tecnología de redes ha traído desde su inauguración en 2017”, explica. 

Estos años han servido al club para detectar y planificar casos de uso que eran complicados de ejecutar con tecnología de hace 10 años y que ahora los equipos de HPE sí ofrecen. “La primera es el entendimiento de la red. Las herramientas de HPE Networking Central y la información que ofrecen a nuestros ingenieros y administradores es alucinante. Incluso las capacidades que nos trae la Inteligencia Artificial que incluye esta plataforma nos hará entender aspectos de la red que ni siquiera estaban en nuestros requerimientos originales, pero que van a ser cruciales para mejorar”. 

El despliegue contempla la renovación de la infraestructura inalámbrica con más de 1.500 puntos de acceso y la incorporación de tecnologías WiFi 6 y WiFi 7. “Nos van a ofrecer mucha más capacidad y estabilidad en un entorno con muchos dispositivos conectados simultáneamente. La reducción de latencia es otro de los beneficios que los aficionados van a disfrutar con el nuevo despliegue”, detalla Abril. Lo que se busca es mejorar la experiencia en tiempo real, especialmente en los momentos de mayor demanda. 

Para HPE, el enfoque es estructural. “Cuando abordamos la renovación tecnológica de un estadio como el Riyadh Air Metropolitano no hablamos únicamente de sustituir equipamiento, sino de rediseñar la infraestructura digital sobre la que se apoyará toda la experiencia del recinto en los próximos años”, señala Álvaro Morán, director de HPE Networking. Para ello, añade Morán, “incorpora capacidades de optimización automática mediante inteligencia artificial, analítica de presencia y eficiencia energética. En otras palabras, la red deja de ser un elemento pasivo para convertirse en un sistema vivo”. 

IA, datos y eficiencia operativa 

Uno de los ejes del proyecto es su capacidad para generar inteligencia operativa. “El despliegue aporta nuevas funcionalidades en dos aspectos claves para las operaciones: información y comunicación”, explica Abril. 

La red permitirá obtener datos sobre el comportamiento dentro del estadio. “Poder tener datos de la movilidad dentro del estadio y cómo los aficionados y el personal del club interactúan con nuestra infraestructura de red es muy valioso”, señala. 

Esa información se traduce en herramientas concretas. “Nuestro equipo interno de análisis de datos se encarga de transformar todos esos datos en cuadros de mando que son de grandísima utilidad tanto durante los eventos como tras finalizar estos”, explica. “Nos permite tomar decisiones mejor informadas”. 

La inteligencia artificial ya está integrada en ese ecosistema. “Los modelos basados en Inteligencia Artificial están incluidos prácticamente en cualquier tecnología, mejorando sustancialmente los procesos y la velocidad de respuesta”, afirma. 

El fútbol sigue estando en el césped 

Pese a la apuesta tecnológica, el Atlético de Madrid marca un límite claro. “Cualquier tecnología con la que contemos en el estadio o en el club no pretende redefinir la esencia de un partido”, afirma Abril. “Eso pasa en el césped, y todo el protagonismo está en el partido”. 

La tecnología, en cambio, actúa en el entorno. “Toda esa experiencia alrededor de ese momento especial que es el comienzo de un partido cada vez es más conectada”. 

Atlético de Madrid

Atlético de Madrid

Más allá del fútbol 

Pero este modelo no se queda solo en el deporte, sino que se extiende a otros eventos. “Nosotros somos fútbol, evidentemente, pero cada vez tiene más peso en nuestra actividad el uso de nuestras sedes para albergar cualquier tipo de evento multitudinario que necesite grandes espacios y en el que el uso de la tecnología sea diferencial”, explica. 

“Creo que esto último es una ventaja competitiva”, continúa.” Nadie quiere ir a un concierto si estar junto a otros 60.000 espectadores significa estar desconectado. Voy más allá, la experiencia en el concierto mejora si tienes la capacidad de compartir en directo lo que vives con la gente con la que quieres compartir esa emoción, o la de un gol que te da la victoria”. 

Aun así, el objetivo final no cambia. “Nuestro objetivo no está tanto en el papel que queremos jugar como club, sino en que aficionados, visitantes y profesionales tengan siempre la mejor experiencia”. 

How NOV is moving from FOMO to calculated scaling

For decades, the industrial sector has operated on the simple mantra to live by automation, die by automation. In the oil and gas industry, where precision is measured in millimeters and safety in lives, automation is a necessity, not just nice to have. But as gen AI sweeps through the enterprise, a new challenge has emerged in how a global leader in energy services should transition from experimental chatbots to industrial-grade AI without compromising safety or security.

Here, Alex Philips, CIO of NOV, formerly National Oilwell Varco, discusses implementing OpenAI and securing it with zero trust for 25,000 employees, and why the next phase of agentic AI requires a fundamental shift in how to view human expertise and digital safeguards.

From FOMO to ROI

Like many global companies, NOV’s initial move into gen AI was driven by executive pressure fueled by fear of missing out. Philips remembers the early talks with his CEO about the investment.

“I said we have this opportunity, and it costs this much,” he says. “He asked about the ROI and I replied that’s something I couldn’t calculate, nor what it’d replace or what it’d displace in cost, but I couldn’t say any of that for email either.”

Just as no modern business can function without email, even without a direct line-item ROI, Philips argues that LLMs will soon become the standard for employee productivity. Currently, NOV reports about 50% of its workforce actively use the tool to enhance productivity.

The results, though qualitative, are profound. Philips says that response times for urgent customer requests, for instance, have plummeted, language barriers are crumbling, and employees are tackling complex analyses once considered out of reach.

The six-month validation lesson

One example Philips details involves an engineer who spent six months mastering a highly specialized skill. With ChatGPT, the engineer was able to replicate that six-month learning process in just 10 minutes.

And while his initial response was to think he wasted six months of his life, the response was to show him he spent six months to validate what the AI told him. “This is a great example of why humans are still needed in the AI loop,” says Philips. “AI execution without human validation can lead to errors that cost companies significant time and money.”

This underscores the crucial pillar of NOV’s AI strategy of human accountability because in an industrial setting, AI dictating terms is never an acceptable excuse. Whether designing a drill bit or automating a workflow, the end user remains responsible for the output.

Securing the Wild West of shadow AI

As AI becomes more widespread, shadow AI poses a significant security risk. To address this, NOV uses Zscaler to route all traffic, and ensure visibility and control. And by doing so, the company can:

  • Redirect users: If an employee tries to use a non-approved LLM, they’re redirected to a page that explains NOV’s policy, and directed to the approved enterprise OpenAI instance.
  • Monitor SaaS evolution: Many authorized SaaS applications are now adding agentic features during contract periods. Zscaler provides the visibility needed to identify these changes before sensitive IP is fed into an unvetted model.
  • Enforce data privacy: Preventing intellectual property from leaking into public training sets is the first step in any industrial AI deployment.

The shift to agentic AI

In software development, NOV already benefits from AI-assisted coding, where AI works alongside developers who accept about 32% of AI suggestions. “We’re now beginning to explore the next evolution of full agentic coding,” says Philips, adding that this next stage truly supercharges teams, enabling them to move faster and better meet customer demand for innovation.

However, this efficiency feeds the dilemma of a widening talent gap. The challenge moving forward is if all the low-level, entry-level tasks can be automated, and what’s the best way to develop skilled workers. “I don’t know how we’ll adapt to it, but we’ll figure it out,” he says.

Safety first

In the oil field, some processes are too critical to be left entirely to a black-box algorithm. Philips is adamant that for safety issues, AI remains an advisor, not a decider. NOV uses AI-powered vision to monitor red zones, or dangerous areas on a drilling rig. If the AI detects a person in a restricted area, it can trigger an emergency stop. However, for actual drilling operations, the final call remains with an onsite human operator. “You can’t have a hallucination,” he says. “You can’t say it’s right 90% of the time. It has to be all the time.”

NOV’s journey shows that transitioning to industrial-grade AI isn’t just about choosing the best model but building a framework of trust, transparency, and responsibility. By using Zscaler for governance and GitHub Advanced Security for code validation, NOV is moving toward a future where AI becomes more essential to the oil industry.

“Development teams should produce twice the output with half the people in half the time,” he says. “The only remaining question is how do we train the next generation of developer experts to control the machines that do the work.”

“적은 자원으로 더 많은 성과를” 글로벌 CIO가 AI로 IT 생산성 한계를 깨는 법

보안 기술 기업 넷스코프의 최고 디지털·정보 책임자 마이크 앤더슨은 IT 직원들에게 이례적인 과제를 부여했다. 각자의 역할을 반영한 ‘제미나이 젬(Gemini Gems)’ 디지털 트윈을 생성하고, 기술 문서 등 다양한 정보를 AI에 입력해 해당 역할의 업무와 필요 역량을 학습시키라는 것이다.

앤더슨은 이러한 AI 기반 디지털 트윈이 직원들의 업무 수행을 지원할 것으로 기대하고 있다. 간단한 질의만으로도 거의 실시간에 가까운 속도로 필요한 정보를 찾아볼 수 있도록 돕는다는 설명이다.

그는 “팀이 의지할 수 있는 전문가 역할의 젬(Gems)를 만들었다”라며 “각 직원이 일정 시간을 절약할 수 있도록 하는 것이 목표”라고 말했다.

이 같은 시도는 IT 부서의 효율성과 생산성을 높이기 위해 앤더슨이 추진 중인 다양한 워크플로우 및 프로세스 혁신 전략 중 하나다. 실제로 일부 성과도 나타나고 있다.

예를 들어 개발팀은 AI를 활용해 코드를 생성하고 있다. 직원들은 ‘바이브 코딩’을 통해 빠르게 초기 결과물을 만든 뒤 이를 반복 개선하는 방식으로 개발을 진행하며, 기존 제품 개발 일정에서 수개월을 단축하고 있다. 또한 앤더슨의 팀은 특정 요소, 특히 보안 통제가 AI 생성 코드에 항상 포함되도록 하는 ‘프리미티브’를 구축해 IT 인력의 업무 시간을 줄이고 있다.

앤더슨은 이러한 효율 향상에 대한 구체적인 투자 대비 효과(ROI)는 산출하지 않았지만, 결과적으로 더 적은 자원으로 더 많은 성과를 낼 수 있게 됐다고 강조했다. 그는 “예산을 유지한 상태에서도 이전보다 더 많은 기능과 결과물을 제공할 수 있다”고 말했다.

“현재 인력으로 더 많은 성과를”

CIO는 오랫동안 ‘적은 자원으로 더 많은 성과를 내야 한다’는 압박을 받아왔다. 그리고 그 압박은 지금 더욱 커지고 있다. 시장조사업체 가트너의 조사에 따르면 CIO의 57%는 생산성 향상, 52%는 비용 절감 요구에 직면해 있다.

동시에 CIO들은 기술, 특히 AI를 활용해 전사 워크플로우를 혁신하고 생산성과 효율성을 끌어올려야 하는 과제를 안고 있다. 이러한 변화는 IT 부서 내부에서도 동일하게 요구되고 있다.

네트워크 기업 익스트림 네트웍스의 최고 정보·고객 책임자 아니샤 바스와니는 “AI를 통해 IT 프로세스를 과감하게 재정의하고, 새로운 가능성을 탐색함으로써 가치를 창출해야 한다”고 말했다.

바스와니는 IT 워크플로우 혁신을 핵심 과제로 설정했다. 앤더슨과 마찬가지로 AI, 특히 클로드 코드를 활용해 코딩 속도를 높이고 있다. 또한 업무 방식을 재편해 직원들이 직접 코드를 작성하는 대신 프롬프트 설계, 결과 검토, 품질 관리에 집중하도록 전환했다.

아울러 다른 CIO들과 마찬가지로 헬프데스크 운영도 변화시키고 있다. AI와 자동화를 활용해 셀프서비스 비중을 확대하는 방식이다.

더 복잡한 워크플로우에서도 성과가 나타나고 있다. 바스와니는 AI를 활용해 테스트 전략을 생성하고 테스트를 자동화함으로써 IT의 QA 기능을 확장하고 있다. 그는 “수작업으로 수주가 걸리던 작업을 몇 분으로 줄일 가능성이 크다”고 설명했다. 또한 AI 활용을 통해 비용 증가 없이 처리 역량을 확대할 수 있을 것으로 보고 있다.

이와 함께 신규 제품 개발이나 기능 개선 과정에서 사용자 요구사항을 보다 효과적으로 수집하는 데 AI를 활용하는 방안도 모색하고 있다.

바스와니는 “IT가 비즈니스 파트너와 상호작용하는 방식을 재정의해 더 민첩하고 대응력 있게 만들고 싶다”라며 “이를 통해 더 자주 가치를 제공하고 고객 중심성을 강화할 수 있다”고 말했다. 이어 “목표는 현재 인력으로 더 많은 일을 해내는 것”이라며 “더 빠르게 혁신하고 더 많은 결과를 만들어내는 데 있다”고 강조했다.

변화 요구 커지는 IT, 핵심은 ‘워크플로우 재설계’

컨설팅 기업 웨스트 먼로의 디렉터 알렉스 와이어트는 IT 업무가 본질적으로 프로세스 중심이기 때문에 혁신 가능성이 큰 영역이라고 진단했다.

그는 “AI가 이 논의를 다시 촉발했다”라며 “현재 CIO들은 비용 절감 압박이 커지고 있고, 이사회는 ‘이 프로세스를 50% 더 효율적으로 만들어야 한다’고 요구하고 있다”고 말했다.

와이어트는 CIO들이 조직 전반과 마찬가지로 비교적 쉬운 과제부터 시작해 성과를 쌓고 역량을 확보한 뒤, 점차 난이도가 높은 영역으로 확장해야 한다고 조언했다. 그는 “워크플로우와 프로세스 최적화에는 여러 단계가 존재한다”고 설명했다.

초기 단계는 반복적인 업무를 AI로 자동화하고, 인력은 이를 감독하는 역할로 전환하는 것이다. 동시에 IT가 사용하는 도구와 기술에 이미 내장된 기능을 최대한 활용하는 것도 포함된다.

와이어트는 “이 단계가 가장 빠르게 성과를 낼 수 있는 영역이며, 투자 대비 효과도 가장 크다”라며 “이후 보다 고도화된 기회를 공략해야 한다”고 말했다.

다만 그는 AI가 유일한 해법은 아니라고 강조했다. “AI가 워크플로우와 프로세스 혁신을 부각시킨 것은 맞지만, 순수한 프로세스 개선 기회도 여전히 존재한다”며 린(Lean) 프로세스 설계를 예로 들었다.

이어 “비효율적인 프로세스를 그대로 자동화할 위험이 있기 때문에, 원하는 결과와 핵심성과지표(KPI)를 기준으로 업무를 어떻게 재구성할지 고민해야 한다”며 “단순히 도구를 늘린다고 효율이 높아지는 것이 아니라, 워크플로우와 업무 방식 자체를 재정의해야 한다”고 강조했다.

이 같은 조언은 오랜 기간 검증된 접근법이다. 와이어트는 “공격적인 워크플로우 및 프로세스 재설계를 통해 50% 이상의 성과 개선도 가능하다”라며 “이를 위해서는 업무 수행 방식 자체를 근본적으로 재검토하고 이를 뒷받침할 시스템을 구축해야 한다”고 말했다.

모든 CIO가 이러한 수준의 혁신을 추진할 수 있는 것은 아니지만, 그렇다고 시도를 미뤄서는 안 된다는 점도 짚었다. 그는 “기본적인 프로세스 재설계만으로도 10~20% 수준의 개선 효과를 얻을 수 있으며, 여기에 AI를 더하면 추가적인 성과를 기대할 수 있다”고 설명했다.

에베레스트 그룹의 파트너이자 CIO 리서치 및 자문을 총괄하는 로스 티스노프스키 역시 ‘변환’의 중요성을 강조했다. 그는 “워크플로우 재설계 없이 자동화만 진행할 경우 문제가 발생할 수 있다”고 지적했다.

티스노프스키는 코딩과 테스트 영역을 사례로 들었다. AI 도입으로 코딩 생산성은 70% 이상 향상된 반면, 테스트 효율은 약 30% 수준에 머물고 있다는 것이다. 이로 인해 워크플로우를 재구성하지 않은 조직에서는 코드 생성 속도가 테스트 처리 능력을 앞지르는 불균형이 발생한다.

그는 “많은 AI 프로젝트가 기대만큼의 가치를 창출하지 못하는 이유는 워크플로우를 함께 재설계하지 않았기 때문”이라고 분석했다.

이중 압박 속 IT 혁신, 핵심은 명확한 목표 설정

알렉스 와이어트는 CIO들이 IT 조직의 업무 방식을 혁신하는 과정에서 또 다른 도전에 직면한다고 지적했다.

우선 CIO와 IT 조직은 이미 기업 내 다른 부서들의 혁신 작업을 지원하는 데 상당한 자원을 투입하고 있다. 특히 매출 확대, 시장 점유율 상승, 고객 유지율 개선 등 직접적인 성과로 이어지는 영역이 우선순위를 차지하는 경우가 많다.

와이어트는 “IT는 독특한 위치에 있다. 전사 차원의 혁신을 추진하는 동시에 IT 내부 혁신도 요구받고 있다”라며 “이중의 압박을 받고 있는 셈”이라고 설명했다.

이로 인해 CIO들은 IT 워크플로우를 재설계하는 데 필요한 자원과 역량을 충분히 배분하기 어려운 상황에 놓이게 된다.

기존에 자리 잡은 워크플로우를 바꾸는 것도 쉽지 않다. 와이어트는 “처음부터 새로 구축한다면 전혀 다른 방식으로 설계할 수 있는 업무가 많지만, 레거시 워크플로우는 변화의 동력을 확보하기 어렵다”며 “재설계에는 상당한 시간과 비용이 필요하다”고 말했다.

그는 선도적인 CIO들이 이러한 문제를 극복하는 방식도 다른 경영진과 크게 다르지 않다고 설명했다. 변화의 필요성을 입증하는 비즈니스 케이스를 수립하고, 달성하고자 하는 목표를 명확히 하며, 그 결과가 가져올 가치를 구체적으로 제시해 필요한 자원을 확보한다는 것이다.

또한 “기회가 생길 때마다 워크플로우를 재정비하는 접근도 병행한다”고 덧붙였다.

로스 티스노프스키는 이러한 흐름이 이어지면서 CIO들이 점차 더 복잡한 영역으로 혁신을 확대하게 될 것으로 내다봤다. 그는 인프라 운영과 IT 지식 관리 체계 등 고도화된 워크플로우 영역에서도 변화가 본격화될 것이라고 전망했다.

직원 주도형 업무 혁신 확산

기술 기업 베이전의 CIO 패트릭 필립스는 AI만으로는 최대 효율을 달성할 수 없다는 판단 아래, 프로세스 개선 경험과 직원들의 현장 인사이트를 결합해 IT 워크플로우 혁신에 나서고 있다.

그는 “기존 프로세스에 AI를 덧붙이는 방식이 아니라, 프로세스 자체를 완전히 다시 정의해야 한다”라며 “만약 지금 AI 네이티브 도구로 처음부터 프로세스를 설계한다면 어떤 모습일지를 고민하고 있다”고 말했다.

필립스는 반복적이고 표준화된 업무가 많은 워크플로우를 중심으로, 직원들이 직접 혁신 대상 영역을 발굴하도록 했다.

그는 “직원들이 자신의 업무 방식을 어떻게 바꿀지 고민할 것으로 기대한다”며 “이를 위해 필요한 도구와 교육, 그리고 워크플로우를 처음부터 다시 설계할 수 있는 권한을 제공하는 것이 우리의 역할”이라고 설명했다.

대표 사례로 헬프데스크 조직이 있다. 필립스는 이 팀에 AI 기반 코드 에디터 ‘커서(Cursor)’를 도입하고, “이상적인 헬프데스크를 직접 설계해보라”고 주문했다.

필립스는 “직원들은 무엇이 불편한지 이미 알고 있었고, 업무를 더 쉽게 만들 동기가 충분했다”라며 “단순한 비밀번호 재설정보다 더 가치 있고 흥미로운 일을 하고 싶어 하기 때문에 스스로 효율성을 높이려 한다”고 말했다.

그 결과 헬프데스크 팀은 워크플로우를 재구성해 효율을 높였고, 확보된 시간을 기획 회의 참여 등 보다 부가가치가 높은 업무에 투입할 수 있게 됐다.

지속적 개선 문화로 전환

데이터 보호 및 사이버 복원력 플랫폼 기업 컴볼트의 CIO 하 호앙은 이러한 변화가 CIO에게 필수 과제라고 강조했다.

그는 “그동안 CIO들은 매출, 재무, 고객 지원 등 ROI가 명확한 비즈니스 워크플로우 혁신에 집중해왔다”라며 “하지만 IT는 상대적으로 소외된 영역이었다. 이제는 달라져야 한다”고 말했다.

이어 “IT가 조직의 혁신을 주도하려면 스스로 모범을 보여야 한다”며 “자동화와 AI, 효율성을 강조하면서 정작 내부는 티켓 처리, 수작업 중심 프로세스, 반복적인 업무 전환에 묶여 있어서는 안 된다”고 지적했다.

그는 “따라서 CIO들은 내부 IT 워크플로우에도 동일한 수준의 엄격함을 적용해야 한다”며 “이는 신뢰 확보와 비용 효율성을 동시에 달성할 수 있는 가장 빠른 방법”이라고 강조했다.

하 호앙과 그의 팀은 AI, 생성형 AI, 그리고 에이전트 기반 기능을 계기로 단순 최적화를 넘어 워크플로우 자체를 근본적으로 재검토하고 있다.

그는 “과거에는 ‘이 프로세스를 어떻게 더 빠르게 만들 것인가’를 고민했다면, 이제는 ‘이 프로세스가 왜 존재하는가’를 묻는다”고 설명했다.

이러한 접근은 다양한 영역에서 변화를 이끌고 있다.

우선 헬프데스크부터 혁신을 시작했다. AI 기반 셀프서비스와 가상 에이전트를 도입하고, 티켓 분류와 라우팅을 자동화했으며, 반복적인 문제는 자동으로 해결되도록 했다. 그 결과 IT 인력에게 전달되는 티켓 수가 줄고, 처리 속도는 빨라졌으며, 업무는 사후 대응 중심에서 보다 가치 중심으로 전환됐다.

이후 핵심 IT 워크플로우 전반으로 혁신을 확대하고 있다.

예를 들어 정책 기반 접근 권한을 자동으로 부여하는 체계를 구축해 수작업 승인 절차를 최소화하고 있다. 또한 데이터와 AI를 활용해 위험도가 낮은 변경 작업을 간소화하고, 변경 관리 과정의 병목을 줄이고 있다. 아울러 AI 기반 검색과 어시스턴트를 도입해 지식 관리와 문제 해결 과정에서 발생하는 사일로를 제거하고 대응 속도를 높이고 있다.

하 호앙은 이러한 변화가 시작에 불과하다고 강조했다.

그는 “이제 워크플로우 혁신은 일회성이 아니라 지속적으로 이어지는 활동이 됐다”라며 “가장 큰 변화는 기술이 아니라 사고방식의 전환”이라고 말했다.
dl-ciokorea@foundryco.com

Incentive drift: Why transformation fails even when everything looks green

On paper, this project was a masterpiece. Every light on the dashboard was “green”: The budget was under, the timeline was hit perfectly, and adoption stats were sitting pretty at 92%. The CIO even walked away with a bonus for a job well done.

But the celebration didn’t last. Six months later, the CFO walked in with a serious reality check: A printout showing that customer churn had spiked by 8% during that exact same period.

The bank had launched a “digital front door” initiative, a chatbot-first strategy designed to slash call center costs by 20%. At first glance, it worked like a charm. Calls were deflected, targets were crushed and the steering committee was thrilled.

But there was a massive blind spot. Nobody was tracking the fact that the chatbot was so incredibly frustrating that customers weren’t just “deflecting” to another channel. They were quitting the bank entirely.

The most frustrating part? The director of customer experience saw the train wreck coming and flagged it in the second month. But because she reported to marketing instead of the transformation office, her warning hit a wall. They were living in different worlds with different budgets and different KPIs.

When the CFO finally asked the program sponsor why nobody managed to connect the dots, he gave the ultimate corporate shrug: “That wasn’t my scope.”

This isn’t a story about bad execution. It’s a story about incentive drift: The systematic separation of authority from accountability that causes transformations to optimize for the wrong thing while everyone involved acts completely rationally. I’ve previously explored how transformation outcomes quietly collapse even when dashboards look green (“Lost in plain sight”) and introduced outcome observability as a detection mechanism (“How to prevent transformation outcomes from quietly collapsing”). But even with perfect visibility, drift persists. Why? Because the structures themselves create the drift.

This article is the closing piece of that arc. The first named the problem. The second introduced the detection layer. This one reveals the structural causes and shows how to dismantle them. Four patterns repeat across industries, and one meta-pattern explains why organizations never learn from them. Together, they form the anatomy of incentive drift.

Because the system isn’t designed to protect meaning. It’s designed to optimize for delivery. And if nobody’s watching the gap, transformation will keep failing in the same predictable ways.

Pattern 1: The ownership vacuum

Nobody owns the full meaning chain. Strategy owns intent at formation. Delivery owns execution. Operations own what happens after go-live. The thread connecting all three lives in the structural gaps between those functions. And nobody’s performance review depends on what happens in those gaps.

Seven weeks before go-live on a supply chain modernization program, a PM proposed descoping “historical inventory reconciliation” to save $47K and hit the deadline. The CFO approved it: “Different budget, different problem.” Six months post-launch: $380K in manual workaround costs because the new system couldn’t reconcile legacy data. The PM had been promoted. The CFO’s budget was fine. Operations absorbed the cost.

The decision wasn’t reckless. It was rational optimization within a system that separates the authority to make trade-offs from accountability for their consequences.

Pattern 2: The budgetary firewall

This is structural asymmetry at the ledger level. Organizations incentivize sponsors to prioritize “on time/0n budget” (CapEx) even when it directly destroys “usable/valuable” (OpEx). The override feels reasonable because the person approving the decision is shielded from its cost by the organizational chart.

A health insurance company cut user acceptance testing by three weeks to hit a go-live date. Saved $120K in project costs. Post-launch: The claims processing system had so many edge-case bugs that Operations hired six contractors for eight months to manually fix errors. Total cost: $340K. But that showed up in a different budget line, under a different VP, in a different fiscal year.

The firewall prevents anyone from seeing the full P&L of the decision.

Pattern 3: Language capture

The vocabulary of your transformation gets gradually redefined until it describes something completely different from what you originally meant. This doesn’t happen through conspiracy. It happens through the slow accumulation of how words get used in meetings, dashboards and status reports.

A retail bank deployed a loan origination platform to eliminate paper applications. Success was defined as “90% digital adoption by Q4”: 90% of loans fully processed without paper.

By month three, adoption sat at 34%. The system was clunky. Loan officers hated it. But the quarterly board report was due, and the program director needed the dashboard green. Someone suggested: “Why don’t we track logins instead? If they’re logging in, they’re adopting it.” It sounded reasonable. It got approved.

By Q4, “adoption” hit 92%. Celebration. Bonus paid. Reality: Loan officers logged in (dashboard counted it), immediately minimized the window, processed everything on paper, then uploaded the scan. The system became a glorified PDF repository. Nothing changed except the definition of success.

When a compliance officer later asked, “Why are we still ordering paper forms?” the answer was: “I don’t know, but adoption is at 92%.”

The semantic drift happened so gradually that by the time anyone noticed, the dashboard was gospel.

Pattern 4: The ejection seat

The average tenure for S&P 500 executives is 4.8 years. Enterprise digital transformations typically run 7 to 12 years. This creates a temporal disconnect where the person who authorizes the trade-off is rarely present for the consequences.

The executive who allows the scope override in Q1 is promoted by the time operational disruption hits in Q3. The product owner who stops defending strategic logic under sprint pressure has moved to the next program before adoption stalls. Research from Bain & Company, based on analysis of more than 24,000 transformation initiatives, found that 88% of business transformations fail to achieve their original ambitions. This is consistent with a pattern where temporal misalignment between decision-makers and outcomes compounds every other structural vulnerability.

The system structurally rewards leaders for initiating visible change and advancing before downstream effects materialize. There’s no feedback loop. The organization might learn something, but the person who needed the lesson never receives it.

Notice the common thread across all four patterns. In every case, the person making the decision was acting rationally within their own scope while the system-level outcome degraded. This is not a people problem. It’s a structure problem. And structure problems require structural solutions.

These are the alignment decay signals I described in Lost in Plain Sight, except now we can see the structural machinery that produces them.

Prosci’s “Best Practices in Change Management research,” spanning more than two decades and thousands of change initiatives, reinforces this conclusion. Their data shows that sponsor effectiveness is the single greatest predictor of transformation success, with effective sponsorship increasing the likelihood of meeting objectives from 27% to 79%. Yet more than half of the sponsors don’t understand what the role requires of them. The four patterns described above explain why: The system never asks them to.

Meta-pattern: Collective amnesia

This is the pattern that explains why the other four repeat endlessly. When a transformation visibly drifts, there’s an almost universal organizational instinct to simply forget what was originally promised. Not through conspiracy. Through quiet, mutual relief.

The quarterly reset helps. New OKRs. Reshuffled teams. Rewritten priorities. Everyone starts fresh. And in that reset, what the previous chapter delivered or didn’t deliver quietly disappears from the conversation.

McKinsey’s research on transformation failure found that 70% of transformations fail to achieve their goals. Yet organizations rarely conduct rigorous post-mortems that trace failure back to specific governance decisions. Instead, they attribute failure to “execution challenges” or “change resistance” and launch the next initiative with the same structural vulnerabilities intact.

Most organizations have invested heavily in delivery capability: Methodologies, tools, certifications, coaching. They’ve built almost nothing to protect meaning across the lifecycle of a transformation. We’ve built excellent systems for moving fast. We’ve built nothing to ensure that what we’re moving fast toward still reflects what we intended when we started.

Collective amnesia is the organizational immune response that prevents learning. It’s why incentive drift isn’t an anomaly. It’s the default.

What leaders can do to interrupt the patterns

You can’t just “be aware” of these patterns. You must build tripwires that trigger automatically when they appear. Here are four mechanisms that work, not because they require courage, but because they make drift structurally expensive.

1. The value prenup: Solving the ownership vacuum

Before a single line of code is written, institute a formal “value handshake.” The operations leader, not the project sponsor, must sign a document stating: “I accept that this scope will deliver X business outcome, and I agree to own this target in my budget next year. If this outcome fails to materialize, I will present the root cause analysis to the CFO in our Q3 business review.”

This isn’t about blame. It’s about making the ownership of outcomes explicit before delivery begins. It includes a release valve: The ops leader can veto the scope if they believe the promise is unrealistic. The conversation that follows is where you discover whether the transformation is actually viable.

2. The cost mirror: Solving the budgetary firewall

Before any scope change that shifts costs across ledgers (CapEx to OpEx, project budget to operational budget), a cross-budget impact statement must be signed by both parties. If the project sponsor proposes a trade-off that saves $50K in CapEx but will cost Operations $200K in OpEx, the VP of operations must sign: “I acknowledge this decision transfers $200K in annual costs to my budget. I either accept this trade-off or reject it.”

The firewall breaks when both sides of the ledger are forced to look at each other. The person shielded from the consequence can no longer approve the decision in isolation.

3. The semantic anchor: Solving language capture and collective amnesia

Create a one-page “intent document” at kickoff that states the original promise in plain language: The specific business outcome, the quantified value target, the behavior change you expect and the definitions of every key term. “Adoption” means X. “Success” means Y. Post it visibly.

Mandate that every steering committee start by reading this document aloud. Make vocabulary a governance agenda item. This is where the four lenses of outcome observability, value, adoption, behavior and continuity become governance instruments rather than just detection tools.

If “adoption” changes from “active daily users” to “logins,” it must be flagged as a formal change request, just like a budget change. If someone proposes renaming the initiative or adjusting scope, that document gets revised with tracked changes showing what was promised versus what’s being delivered now.

The erosion of meaning becomes a loud, visible decision rather than a quiet drift in hallway conversations. Collective amnesia becomes structurally impossible when the original intent is read into the record at every meeting.

4. The golden handcuff: Solving the ejection seat

For critical transformations, tie a portion of the key sponsor’s bonus to a “value realization gate” that occurs 6 to 12 months post-go-live. If they leave or get promoted, that portion is at risk unless the handoff is documented and the successor explicitly accepts accountability.

Why would a leader agree to this? Because it signals to the organization that this transformation matters enough to bet their compensation on it. It separates transformation theater from actual strategic bets. And candidly, if a leader won’t tie their bonus to the outcome, you’ve just learned that they don’t believe the transformation will work.

What’s at stake

This isn’t about better dashboards or tighter governance. It’s about whether transformation means anything at all.

When outcomes collapse quietly, when “success” gets redefined mid-flight and nobody calls it out, the cost isn’t just financial. It’s cultural. People stop believing transformation works. They comply, but they don’t commit. And once that credibility is gone, every future initiative starts in deficit.

Incentive drift is not an anomaly. It’s the predictable output of governance structures that separate authority from accountability, that reward visible activity over durable outcomes and that allow language to drift until words mean nothing.

The system isn’t designed to protect meaning. It’s designed to optimize for delivery. Someone must decide that meaning is worth protecting, not just at kickoff, but all the way through. That’s where leadership starts.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

CIOs bring AI transformation home to IT workflows

Mike Anderson gave his IT workers an unusual task: Create a Gemini Gems digital twin of your role, feeding the AI details such as technical documentation to learn about the role’s tasks and knowledge needs.

Anderson wants these AI creations to assist the human workers in doing their jobs by helping them access the right information in near real-time with just a query.

“We created these Gems that act as experts our team can lean on, and my goal is for each worker to get some time back,” says Anderson, chief digital and information officer at security tech company Netskope.

It’s just one of many ways Anderson is trying to transform workflows and processes inside his department to boost its efficiency and productivity. And he’s seeing wins.

For example, development teams are using AI to generate code. Workers use vibe coding to quickly develop “something to iterate on,” slicing months of work off a typical product development schedule, Anderson says. As part of the transformation, Anderson’s team is creating primitives to ensure certain elements, particularly security controls, will always be part of the AI-generated code, another workflow transformation to save IT workers time.

Although Anderson hasn’t calculated a detailed ROI for such efficiency gains, he says it’s clear he can do more with less as a result. “I’m able to maintain a flat budget and deliver more things and more capabilities than I could before,” he says.

‘Do more with the team we have’

CIOs have long felt the pressure to do more with less. And they’re feeling that pressure acutely today. According to survey findings from research firm Gartner, 57% of CIOs face pressure to improve productivity and 52% to reduce costs.

CIOs also have a mandate to use technology, especially AI, to transform workflows across the business to deliver productivity and efficiency gains. They also are seeking to deliver as much in their own IT departments.

“We want to make sure we’re daring to reimagine IT processes and what’s possible with AI to unlock value,” says Anisha Vaswani, chief information and customer officer at Extreme Networks.

Vaswani has put transformation of IT workflows front and center. Like Anderson, she’s using AI (specifically Claude Code) to speed coding. She has adjusted workflows, shifting workers from writing code to prompting, reviewing, and managing quality.

She is also transforming help desk operations, as many CIOs are, using AI and automation to increase self-service options.

More complex workflows are benefitting as well, says Vaswani, who is using AI to scale IT’s QA function by generating test strategies and automating testing. “There is a lot of promise there to reduce to minutes what could take weeks manually,” she says. She sees AI’s use as a way to add capacity without increasing costs.

And she’s exploring how IT teams can use AI to better capture user requirements when working on new products or enhancements.

“I want to reimagine how IT interacts with our business partners to be more responsive and agile, so we can deliver value more frequently and be a lot more customer-centric,” she adds. “The goal is to do more with the team we have. We want to innovate faster, to deliver more, to get more done.”

Transformational mandate

Alex Wyatt, a director at consultancy West Monroe, says IT’s process-driven work is ripe for transformation.

“AI has re-sparked the conversation around that,” he says. “Now with AI CIOs are getting more pressure to cut costs, and boards are saying, ‘This process has to get 50% more efficient.’”

As is the case throughout a typical organization, CIOs can — and should — go after the easier transformation tasks first to chalk up wins and build skills before tackling harder goals, Wyatt advises.

“There are different stages with optimizing your workflows and processes,” he says.

The first stage is using AI to automate repetitive tasks and shift humans to oversight functions. The stage also involves maximizing the capabilities that system providers have incorporated into the tools and technologies that IT uses to get work done.

“That’s the lowest hanging fruit and where you can get the biggest bang for your buck in the shortest amount of time,” Wyatt says. “And then you go after the more sophisticated opportunities that exist.”

Although Wyatt says AI has pushed workflow and process transformation into the limelight, “it doesn’t mean AI is the only solution.” He reminds executives that “there are opportunities for pure process improvement,” like lean process design.

“There is a risk of automating a bad, inefficient process, so you have to think about outcomes, the KPIs you’re driving, and how you restructure work to achieve those,” he adds. “You don’t get more efficient by buying more tools. You have to rethink your workflows. You have to think about how people work.”

That longstanding advice has proven its worth through the decades. Aggressive workflow and process redesign can deliver significant gains — well over 50% improvements — “but to get that you really have to think about how work gets done and have the systems in place to do that,” Wyatt says.

Not all CIOs are able to put in the amount of work it takes. That shouldn’t deter CIOs from doing something, he adds. “You can get a 10% to 20% lift from doing some basic process redesign and then use AI to get you even more lift,” he notes.

Ross Tisnovsky, a partner at Everest Group and leader of the firm’s CIO research and advisory practice, stresses the transformation component, saying CIOs can encounter problems if they automate without it.

Efficiency gains in coding/development and testing are case in point, he says, noting that AI is boosting efficiency in coding by 70% or more, while on the testing side it’s closer to 30%. As a result, CIOs who don’t remake workflows soon find they’ve created an imbalance, with code being produced faster than testing can handle.

As such, Tisnovsky suggests, the reason most AI initiatives don’t deliver value often stems from failure to rework the workflows.

Dual pressure and desired outcomes

CIOs face other challenges in transforming how the IT department works, Wyatt says.

To start, they and their IT teams are fully engaged in doing such work for all the other departments in the organization, with priority typically given to transformations that boost revenue, market share, customer retention, and the like.

“IT is in a unique position: They’re being asked to do transformation across the organization as well as in IT. They have that dual pressure,” he says.

That can challenge CIOs’ ability to allocate the resources and skills needed to redesign IT workflows, Wyatt says.

CIOs also find it hard to get rid of embedded workflows. “There is a lot of work that if you were to build from scratch, you’d do it a different way, but with legacy workflows it is hard to get the momentum to change. It takes a lot of time and money to reengineer,” Wyatt explains.

He has found that leading CIOs overcome such challenges the same way other execs do: putting together business cases for the transformation, focusing on desired outcomes, articulating the value those outcomes will deliver, and using all that to get resources to do the work.

“And they look to rework workflows as opportunities present themselves,” Wyatt adds.

Tisnovsky says as all that happens, CIOs will begin transforming more complex workflows, such as those in the infrastructure space and in the IT knowledge base.

Empowering workers to transform their tasks

Patrick Phillips, CIO of tech company Vasion, is drawing on his process-improvement experience and his workers’ insights to transform his IT department’s workflow, knowing AI alone won’t create maximum efficiencies.

“The process itself has to be completely redefined, so you’re not bolting AI onto legacy processes,” he says. “So I’m asking what if we were building the process today with AI-native tools, what would it look like?”

Phillips has tasked his workers to identify workflows that are primed for transformation, such as those filled with commodity-level tasks.

“Our expectation is that they’re going to consider transforming how they work, and we have the obligation to help them do that by providing the tools and trainings and the empowerment for them to rebuild workflows from ground up,” he says.

For example, Phillips enlisted help-desk staff to transform how that team operates, equipping them with Cursor, an AI-powered code editor designed for software development, and challenging them “to build the help desk just like you think it should be built.”

“They knew what bugged them, and so they had the incentive to make their jobs easier,” Phillips says. “They want to make themselves more efficient because they want to do things that are more valuable and more interesting than resetting a password.”

Phillips says the help-desk staff reworked workflows, boosting efficiency and enabling them to shift time to other responsibilities such as participating in planning meetings.

Instituting a culture of continuous improvement

Ha Hoang, CIO of Commvault, maker of a data protection and cyber resilience platform, says taking on such work is an imperative for CIOs.

“CIOs have historically been very focused on transforming business workflows — sales, finance, customer support — because that’s where the visible ROI is,” Ha says. “But IT has often been the cobbler’s children. That’s changing now, and it needs to. If IT is going to lead transformation, it has to model it. You can’t be pitching automation, AI, and efficiency to the business while your own teams are buried in tickets, swivel-chair processes, and manual handoffs.

“So yes,” she adds, “CIOs should absolutely be putting the same rigor on internal IT workflows. In many cases, that’s actually the fastest path to credibility and cost efficiency.”

AI, generative AI, and now agentic capabilities have prompted Ha and her IT team to rethink workflows entirely, not just optimize them.

“Before AI, we were asking, ‘How do we make this process faster?’ Now we’re asking, ‘Why does this process even exist?’” she explains.

That has led to transformations in various areas.

As is common, Ha and her team started with transforming help-desk workflows, where they have deployed AI self-service and virtual agents, automated ticket triage and routing, and enabled auto-resolution for common issues. The results are fewer tickets reaching IT staff, faster resolution times, and a shift from reactive support to higher-value work.

Then they started looking for transformation opportunities across core IT workflows.

For example, they’re moving to fully automated, policy-based access provisioning with minimal manual approvals. They’re using data and AI to streamline low-risk changes and reduce bottlenecks in change management. And they’re deploying AI-powered search and assistants to eliminate silos and speed issue resolution in knowledge work and troubleshooting.

Ha says these changes are just the start.

“For me, it’s become a continuous discipline, not a one-time initiative,” she says, noting that might be one of the most significant work transformations. “I think the biggest shift isn’t technology, it’s the mindset.”

MET Energía impulsa su transformación digital en un sector cada vez más complejo

La transformación digital se ha convertido en uno de los grandes motores de cambio en el sector energético. La volatilidad de los mercados, la transición hacia modelos más sostenibles y la creciente complejidad en la gestión del consumo están obligando a las compañías a apoyarse cada vez más en la tecnología para optimizar sus procesos y mejorar su capacidad de adaptación.

En este nuevo escenario, el dato se ha convertido en un activo estratégico. Plataformas de analítica avanzada, inteligencia artificial o sistemas de monitorización del consumo en tiempo real permiten anticipar la demanda, mejorar la gestión del riesgo y ofrecer a los clientes una visión más precisa y transparente de su consumo energético. Al mismo tiempo, la automatización de procesos internos está ayudando a reducir cargas administrativas, mejorar la eficiencia operativa y acelerar la toma de decisiones.

La digitalización ha dejado de ser una cuestión tecnológica para convertirse en una palanca clave para la competitividad. En este contexto, MET Energía, compañía internacional del sector energético con más de 1.100 empleados y presencia en 17 países, lleva varios años impulsando una estrategia tecnológica orientada a digitalizar procesos, mejorar la gestión del dato y reforzar su capacidad de adaptación a un entorno energético en constante evolución.

La transformación digital en MET Energía se ha abordado desde el principio como un proceso transversal que afecta a distintas áreas de la organización. Según explica Ramón Vicioso, director de TI de MET Energía, este proceso se intensificó especialmente en 2024, cuando la compañía decidió acelerar su hoja de ruta tecnológica con el objetivo de abordar la digitalización de procesos que todavía se realizaban de forma manual y tener así “una visual del roadmap de nuestra infraestructura de IT”.  

Uno de los principales desafíos en esta fase inicial ha sido identificar correctamente los procesos susceptibles de digitalización y establecer una gobernanza adecuada del dato dentro de la organización.

El dato y la automatización como pilares del nuevo modelo

En la actualidad, la estrategia tecnológica de MET Energía se basa en la incorporación progresiva de plataformas digitales integradas, automatización de procesos y herramientas avanzadas de analítica de datos. Según explica el responsable de TI, esta evolución ha permitido mejorar tanto la eficiencia interna de la compañía como la relación con los clientes. “En los últimos años, MET Energía ha experimentado una evolución muy sólida a nivel tecnológico, alineada con la digitalización del sector energético y con un enfoque claro en la eficiencia y el dato”, señala.

Para ello, la compañía ha reforzado especialmente sus capacidades relacionadas con la gestión inteligente de la energía, la previsión de la demanda y la gestión del riesgo en un mercado energético cada vez más volátil.

Esta evolución tecnológica ha tenido también un impacto directo en los clientes, que ahora disponen “mayor transparencia, información más accesible y en tiempo real, procesos más ágiles y soluciones más personalizadas según su perfil de consumo”, explica Vicioso.

Ramón Vicioso, director de TI de MET Energía

MET Energía. En la imagen, Ramón Vicioso.

Inteligencia artificial y analítica para anticipar el consumo

El uso de tecnologías emergentes es otro de los elementos clave dentro del proceso de transformación digital de la compañía. En este sentido, MET Energía está desarrollando aplicaciones basadas en inteligencia artificial y analítica avanzada orientadas a mejorar la previsión de consumo energético y la conciliación de facturas con los datos recibidos de las distribuidoras. “Las aplicaciones que más estamos desarrollando son para la generación de previsiones de consumo y la conciliación de facturas de energía contra los consumos recibidos desde las distintas distribuidoras”, explica Vicioso.

En este proceso, el departamento de TI desempeña un papel estratégico y transversal dentro de la organización. “No se limita únicamente a dar soporte tecnológico, sino que actúa como un facilitador clave del negocio, alineando la tecnología con los objetivos corporativos y acompañando a las distintas áreas en su transformación digital”, señala el responsable tecnológico.

Proyecto Yooz: automatización contable

Uno de los proyectos recientes dentro del proceso de digitalización de MET Energía ha sido la implantación de Yooz, una solución de automatización del proceso de cuentas a pagar integrada con el ERP Microsoft Dynamics NAV.

Antes de su implantación, el departamento contable debía introducir manualmente las facturas de proveedores, un proceso que implicaba una elevada carga administrativa y retrasos en la contabilización. “El objetivo principal es el ahorro del tiempo en nuestro departamento contable ya que reciben muchas facturas en formato PDF y tenían que entrar en cada fichero y teclear manualmente dicha factura en nuestro sistema contable”, explica Vicioso.

La nueva solución ha permitido automatizar la lectura y el procesamiento de facturas, eliminando tareas repetitivas y agilizando el flujo de aprobación.

Uno de los factores decisivos para su implantación fue su compatibilidad nativa con Microsoft Dynamics NAV, el sistema contable de la empresa, lo que permitió una integración directa y sin desarrollos adicionales. Además, su interfaz sencilla e intuitiva facilitó una rápida adopción por parte de los usuarios, mientras que su tecnología de Smart Data Extraction basada en inteligencia artificial eliminó la necesidad de crear plantillas para la lectura de facturas, aportando flexibilidad y precisión.

Los resultados han sido significativos: MET Energía ha logrado acelerar notablemente el procesamiento y validación de facturas, eliminando tareas manuales repetitivas y reduciendo de forma significativa los plazos desde la recepción hasta el pago. Esta automatización ha permitido a los equipos administrativos centrarse en tareas de mayor valor añadido, mejorando tanto la productividad como la satisfacción interna. “Ahora podemos procesar más de 200 facturas en una hora cuando antes nos podía llevar varios días subirlas a nuestro sistema de aprobación de factura y creación en nuestro sistema contable”, señala el responsable tecnológico.

Además de acelerar los procesos, la automatización ha mejorado la trazabilidad y el control del proceso contable, liberando recursos internos para tareas de mayor valor añadido.

Próximos retos: modernizar infraestructuras y reforzar la gobernanza del dato

De cara a los próximos años, la compañía continuará avanzando en la modernización de su infraestructura tecnológica y en el desarrollo de nuevas capacidades digitales.

Entre los retos más inmediatos se encuentra la actualización de algunos sistemas tecnológicos y el refuerzo de la gobernanza del dato, un elemento clave para poder incorporar soluciones basadas en inteligencia artificial. “Modernizar toda nuestra infraestructura que se ha quedado obsoleta y seguir trabajando con la gobernanza del dato para incluir agentes digitales con tecnología IA”, resume Vicioso.

En un sector marcado por la volatilidad de los mercados energéticos, la presión regulatoria y la aceleración tecnológica, la transformación digital se ha convertido en una condición imprescindible para mantener la competitividad. En el caso de MET Energía, este proceso no se plantea como una iniciativa puntual, sino como una evolución permanente que seguirá desarrollándose en los próximos años.

How ignoring digital friction erodes your competitive advantage

A VPN that takes too long to connect, an application that crashes mid-workflow, or software so heavy it slows a machine to a crawl. Most employees simply adjust and move on. These issues rarely show up in a report, but over time, they change how people work while weakening the security of your environment.

Prioritizing visibility directly into the employee experience is the only way to keep productivity and morale high.

The hidden cost of employees who adapt instead of escalate

When a tool doesn’t work, many employees don’t file a ticket. They either try to fix it themselves or find a workaround. Often reaching for a personal device or an application that IT hasn’t sanctioned. According to TeamViewer’s research, 40% of employees do just that on a regular basis. Making environments harder to secure and issues harder to predict.

This isn’t defiance. It’s an adaptation to a system that isn’t surfacing its own problems. Fast resolution times can look like a success for IT, but those metrics don’t show what happened before the ticket was logged. Or how many employees were hit by the same issue and never said a word.

Digital friction doesn’t just affect individual productivity. It cascades through your entire organization and touches every aspect of business performance. 48% of organizations say IT dysfunction has directly delayed critical operations or projects. And with 27% of employees saying they’d trade workplace perks for technology that simply works, the cost extends beyond operations into retention and engagement.

The instinctive response is to resolve issues faster. But by the time a ticket is logged, the employee has already lost time and found a workaround. The question is: how do you break that cycle before it starts?

The shift from faster resolution to fewer incidents

If tickets don’t reflect reality, the problem stops being response time and starts being visibility. However, no team can manually observe thousands of endpoints and connect weak signals across systems. Addressing that requires tools that provide continuous visibility into your digital workplace performance.

That’s where proactive IT management changes the equation. Continuous monitoring gives IT teams real-time insight into performance issues, application errors, and system instability across the entire device ecosystem. Pair that with AI-powered workflows to automate routine remediations and issues can be resolved before they surface. Root causes get fixed rather than symptoms patched over. And the same problems stop recurring.

When prevention becomes the operating rhythm, something else shifts, too. IT capacity that was absorbed by firefighting becomes available for more strategic work, such as compliance. The technology experience stabilizes, and with it, so does employee confidence in the tools they need.

When prevention becomes the standard, performance follows

Productivity isn’t about responding to IT issues faster. It’s about preventing problems before employees ever notice them, freeing them to focus on work that actually moves the business forward. That’s only possible when the technology underneath is stable, visible, and built to stay ahead of itself.

That’s the shift TeamViewer ONE is built to support. Newly launched, it brings together what once required multiple separate tools. It combines endpoint management, remote support, and digital employee experience together into a single platform. Enabling you to measure success not by how fast teams react, but by how rarely they need to.

The competitive edge won’t belong to the organizations that respond to problems quickly. It’ll belong to the ones where those problems don’t reach employees at all.

Fix it before they feel it

Before issues escalate, turn to the platform you can trust.

Learn more

CIO ForwardTech & ThreatScape Spain radiografía las tendencias tecnológicas y de ciberseguridad en 2026

La jornada CIO ForwardTech & ThreatScape Spain, organizada por CIO y CSO (la marca especializada en ciberseguridad de COMPUTERWORLD en España) con la colaboración de las compañías Avanade, Riot, Object First, ManageEngine, Rubrik, Thales, Tanium, Everpure|Rubrik y OnSoluciones, se convirtió, el pasado 16 de abril en Madrid, en el mejor punto de encuentro de los CIO y CISO del país.

Durante el evento, conducido por Fernando Muñoz, director de CIO Executive de Foundry, y Esther Macías, directora editorial de CIO y COMPUTERWORLD en España, los más de cien asistentes que estuvieron presentes en el acto pudieron escuchar, aprender y debatir sobre los grandes desafíos que afrontan en la actualidad los máximos responsables de la estrategia de sistemas de información y de la ciberseguridad de las organizaciones. Unos retos crecientes, que se producen en un panorama de presión regulatoria creciente en el que han irrumpido tecnologías transformadoras como los últimos sabores de IA que están redefiniendo los procesos, decisiones y modelos de negocio.

Fernando Muñoz y Esther Macías en CIO ForwardTech & ThreatScape Spain 2026

Fernando Muñoz y Esther Macías en CIO ForwardTech & ThreatScape Spain 2026.

Garpress | Foundry

Estas son las conclusiones de una jornada protagonizada por ponencias de alto nivel, debates estratégicos y sesiones prácticas que giraron en torno a dos ejes temáticos: ThreatScape, que tomó el pulso al actual panorama de amenazas y a los modelos de resiliencia actuales, y ForwardTech, protagonizado por la aplicación práctica de la IA y de otras tecnologías como el edge, 5G y la sostenibilidad digital.

El CIO, el CISO y sus circunstancias: claves de liderazgo en el complejo contexto actual

Madhu Bhabuta, consultora especializada en servicios de CIO a tiempo parcial y asesoramiento tecnológico

Garpress | Foundry. En la imagen, Madhu Bhabuta.

Madhu Bhabuta, consultora especializada en servicios de CIO a tiempo parcial y asesoramiento tecnológico, instó a analizar la evolución del rol de los directores de sistemas de información y ciberseguridad dentro de un contexto en el que la situación económica y geopolítica y la irrupción de los nuevos sabores de IA son determinantes.

Enrique Ferrer (Avanade): “La innovación no sirve de nada sin seguridad”

Enrique Ferrer, director de seguridad para España y Portugal en Avanade

Garpress | Foundry

El director de Seguridad de Avanade para España y Portugal reflexionó durante una entrevista realizada por Fernando Muñoz, director del CIO Executive de Foundry España, sobre el papel de la regulación para mejorar la resiliencia empresarial y por qué las organizaciones deben apostar por el binomio innovación y ciberseguridad.

Cuatro CISO españoles desvelan cómo llevar la normativa de ciberseguridad del papel a la realidad

evento foundry españa abril 2026

Garpress | Foundry

¿Mejora de verdad la normativa actual en ciberseguridad (fundamentalmente NIS2, DORA y la futura Ley de Gobernanza Cibernética) la resiliencia de las organizaciones? ¿Funciona el impulso legal europeo y español como catalizador de la innovación empresarial o la frena? Sobre estos asuntos expusieron su visión los directores de seguridad de la información del Grupo Abertis, Iberdrola, Nationale-Nederlanden y el Ayuntamiento de Madrid.

Ciberseguridad en el sector farmacéutico: la experiencia de Faes Farma

Jaime López Ostio, director Global de TI de Faes Farma

Garpress | Foundry

Jaime López Ostio, director global de TI de Faes Farma, explicó que, más que evitar ataques, el objetivo del sector farmacéutico en materia de ciberseguridad es garantizar que la producción de medicamentos nunca se detenga. “Hay que asumir que habrá incidentes, practicar escenarios e integrar la ciberseguridad en la estrategia corporativa”, recomendó.

España ante la nueva Ley de Gobernanza Cibernética

panel ‘España ante la Nueva Ley de Gobernanza Cibernética’ realizado en el evento CIO ForwardTech & ThreatScape Spain

Garpress | Foundry

¿Qué desafíos implica para las organizaciones la futura Ley de Coordinación y Gobernanza de la Ciberseguridad? Sobre ello versó el debate en el que participaron directivos de Roche, Écija y Osborne Clarke.

De la cultura a la postura: fortaleciendo la seguridad de los empleados en la era de la IA

Alexandre Adam, Ejecutivo de Cuentas Corporativas en Riot, durante el evento CIO ForwardTech & ThreatScape Spain.

Garpress | Foundry. En la imagen, Alexandre Adam.

Si un empleado no tiene postura de ciberseguridad, da igual la cultura que tenga su empresa. Esta es una de las máximas que se puede extraer de la ponencia impartida por Alexandre Adam, ejecutivo de cuentas corporativas en Riot.

Víctor Yubero (Banco Sabadell): “La IA no escala sin explicabilidad ni trazabilidad”

Víctor Yubero (Banco Sabadell)

Garpress | Foundry

El director de Gobernanza de Inteligencia Artificial del Banco Sabadell considera que la confianza es una ventaja competitiva, y en lo que respecta a la IA España es un modelo de confianza.

Los casos de uso afianzan el desarrollo de la IA en la empresa española

casos uso ia evento foundry

Garpress | Foundry

Directivos de TI de compañías de distintos sectores, como el turístico, farmacéutico y transporte, reflexionaron sobre el valor de los casos de uso de la inteligencia artificial para sus negocios.

Joan Vives (ManageEngine): “El ‘phishing’ es un vector de ataque recurrente, pero la IA lo ha mejorado”

Joan Vives (Manage Engine)

Garpress | Foundry

El consultor técnico para Iberia de ManageEngine reconoció que la IA ha modificado cómo suceden los ataques y de qué manera se puede gestionar esta nueva realidad.

Izaskun Onandia de los Ríos (ITP Aero): “Antes se conseguían presupuestos [de ciberseguridad] gracias a la cultura del miedo”

Izaskun Onandia de los Ríos (ITP Aero)

Garpress | Foundry

¿Cómo se puede justificar el gasto en ciberseguridad ante el comité de dirección? Según explicó Izaskun Onandia de los Ríos, directora asociada de seguridad y cumplimiento de información de ITP Aero, “antes se conseguían presupuestos gracias a la cultura del miedo, pero ahora se hace apelando a la continuidad del negocio, la ciberresiliencia y la reputación de marca”.

El valor del ciberseguro, a debate

evento foundry españa abril 2026

Javier Tobal (Planet), Javier Sánchez (Engie) y David Pérez (Mapfre) en el evento CIO ForwardTech & ThreatScape Spain.

Garpress | Foundry

A medida que crecen los presupuestos de seguridad, los consejos de dirección de las empresas exigen métricas claras. ¿Cómo es posible cuantificar el ROI de la ciberseguridad y comunicar su valor estratégico? Sobre este asunto debatieron directivos de ciberseguridad y gestión de riesgos de Planet, Engie y Mapfre.

El alto riesgo de los ‘backups’: solo un 27% de las empresas recupera sus datos tras un ataque de ‘ransomware’

Miguel Tena, ingeniero comercial de campo en Object First

Garpress | Foundry

Miguel Tena, ingeniero comercial de campo en Object First, compañía especializada en la protección de ‘backups’ recientemente comprada por Veeam, alertó de que, cuando se produce un ataque de ‘ransomware’, más de la mitad de las compañías tardan más de una semana en recuperar sus datos y qué hacer para mejorar este porcentaje.

Jessica Ferreira Vicente (SEAT): “La gobernanza es un pilar que nos permite ganar el derecho a innovar rápido”

Jessica Ferreira Vicente (SEAT): “

Garpress | Foundry

La responsable de la Oficina Técnica de Transformación Digital de SEAT destacó la importancia de la gobernanza y el desarrollo del talento interno a la hora de escalar la IA.

No sólo la IA marca la transformación digital de los sectores clave: pulso a 5G, ‘edge’ y ‘cloud’

debate evento foundry abril 2026

Garpress | Foundry

Directivos de TI de banca, construcción y educación coincidieron en que tecnologías como el 5G, el ‘edge’ computing, el ‘cloud’ y otras soluciones de comunicaciones, como las satelitales, son esenciales para garantizar eficiencia, resiliencia y continuidad en un contexto marcado por la complejidad geopolítica y el avance regulatorio.

La relación entre el CIO y el CISO, a examen: ¿por fin se ha roto la frontera entre innovación y seguridad?

CIO ForwardTech & ThreatScape Spain

Garpress | Foundry

¿Cómo deben trabajar conjuntamente el máximo responsable de la estrategia de sistemas de información de una organización y el líder de ciberseguridad (en muchas entidades dependiente del anterior)? ¿Cuáles son las claves para integrar la seguridad de forma efectiva en las empresas sin frenar la innovación competitiva? A estas preguntas aportaron respuestas directivos de Renfe, Zurich Insurance, Teladoc Health y Acciona.

IT reskilling: the pressing CIO imperative

Keeping up with new technologies, and recalibrating existing ones, can seem almost impossible as they seem to appear every month. But innovation breeds necessity, so knowledge updates within the enterprise are essential to successful reskilling, and CIOs are the pacesetters.

“In our profession, training is a given, like courage in soldiers,” says Gracia Sánchez-Vizcaíno, CIO of Securitas for Iberia and Latin America. “Without continuous training, teams become obsolete.

Disruption is also proportionate to the speed of change, leaving organizations usually a step behind technology. But speed isn’t the only challenge facing IT departments. The range of people themselves who need training has also changed. New technologies have become so intricate in corporate activity that staff training, as well as training of external teams, need to be more targeted.

So seeing which key knowledge areas dominate the concerns of CIOs and training experts helps visualize the scope of this challenge. Sánchez-Vizcaíno is focused on the particular speed of agentic AI. “We need a change in mindset, but also in knowledge,” she says.

Gen AI and cybersecurity are equally front of mind in developing new skills and knowledge, as are data analytics and automation. But the list also includes soft skills like communication, negotiation, and leadership since having critical thinking skills is equally important, says David González, business director of IT permanent recruitment at Hays Spain.

Develop or hire?

The need for staff to be adroit in emerging tech also raises another the question of upskilling internally or hiring externally those already skilled. While the latter can bring benefits, the general consensus among IT leaders is strengthening an established team is more advantageous to yield significant returns.

“Within the technology market, reskilling shouldn’t be an option but an advantage,” González says, adding that it’s not so much about pitting one model against the other, but seeing what each one offers and valuing it on findings. The IT job market is no longer dominated by a kind of recruitment race, however. “Attracting talent is very difficult,” Sánchez-Vizcaíno says, whereas training is another form of compensation that increases commitment, broadens the staff skill base, and reduces dependence on external resources that can be expensive and noncommittal.

“The cost of hiring a new employee can be three times that of a proper reskilling program,” says Magalí Riera, director of the master’s degree in people management, talent, and digital transformation at UNIE University. “Skills development isn’t just a simple corporate wellness option, it’s a vital strategy for staying competitive.”

Similarly, when there’s already a well-oiled, functioning team in place with diverse profiles and talents, it may be more worthwhile to update rather than try to fit new people in. 

“The team gives you something that goes beyond the technological aspect,” adds Álvaro Ontañón, CIO of Merlin Properties. But he, in turn, needs a team to deliver. “For me, within that context, trust is very important,” he says. “Once you have that, if the limitation is technology — unless it’s something very disruptive, requiring starting from scratch, or is expensive and requires hiring — we dedicate time to it.”

What reskilling should look like

Reskilling must be approached from a business perspective, says González, not just a technological one or with generic certifications. And a successful process must begin by understanding what will happen in the short, medium, and long term, promoting key market areas, and providing continuous but applied training.

And while industry experts acknowledge that video-based courses can be useful for routine tasks like safety training, they’re ineffective when it comes to developing new skills. Riera recommends project-based learning and avoiding purely passive learning methods.

Sánchez-Vizcaíno sees it firsthand as well. “The way we share and process information has also changed, and for all of this to work, it’s about moving from theoretical knowledge to adaptable, practical skills,” she says. Learning happens by sharing in Teams channels, talking with colleagues, and even listening to other companies. These are more multidirectional processes, compared to the unidirectional or bidirectional training of the past. “More than ever, it’s about learning by doing,” she adds.

Above all, it’s about creating a supportive and motivating environment, and fostering a fertile ground for learning and acquiring new skills. “If you want to benefit from learning, you must have an affinity for the training you’re going to receive,” Ontañón says. In his team, staff are involved in the preliminary process since if there aren’t interested people, there’s no training. It’s a pragmatic decision that avoids the feeling of seeing a course as a burden, and reinforces the desire to participate. But that’s almost the default state in the IT world, being constantly on the cusp of change, even outside of work hours, and needing to learn. 

Similarly, working with interests and needs in mind helps foster flexibility. “We dedicate a lot of time to this, because it’s what can guarantee its effectiveness,” says Ontañón, adding that it’s not about training for the sake of training, but responding to those concerns.

In a world where information is much more accessible than in the past, there are many more sources of knowledge. “The downside is because there’s so much, you have to find what really interests you and adapt to it,” he says.

Reskilling incorporated in the corporate vision

Equally important in the reskilling processes is monitoring its impact on the workforce. When change occurs, González says, productivity will initially drop before it rises. “Companies that fail are those that demand senior-level performance from the outset,” he says.

An adjustment period has to be factored in, which may even involve temporarily supplementing the workforce with external or temporary staff. “This learning process is a necessity,” Riera adds. “It’s not extra training or a reward for the employee, so it must be part of the work schedule.” She recommends not filling the entire workday with courses, but rather dedicate a small portion of the day to them so as not to hinder daily operations. Also, maintain clear communication with the team about what’s being done, why it’s being done, and what will be gained.

Smart factories are here — but is your team ready to use them?

Since the emergence of Industry 4.0 in 2011, manufacturing has undergone a digital transformation. Industrial Internet of Things (IIoT) sensors now allow machines and assets to communicate seamlessly, while artificial intelligence has become a core business enabler. Cloud computing provides virtually limitless processing power and storage, and big data analytics has become essential for strategic decision-making. By integrating data from ERP systems with real-time machine data — via SCADA, PLCs, and other automated tools — manufacturing execution systems (MES) have paved the way for the modern smart factory.

Smart factories are not limited to MES alone but also cover other areas like energy management systems (EMS), video analytics-based plant safety, digital quality inspection using vision-based cameras, immersive technology-based shopfloor training, operational technology (OT) network, firewalls and other related tools.

If we go up the value chain, today factories are designed using digital twins with full process simulations and products are designed using product lifecycle management (PLM) platforms. Maturity of smart factories is an evolution, tightly linked with the digital transformation plan of the enterprise. Still 49% of the enterprises lack confidence in their future manufacturing strategy.

While visiting various plants, the disparity in digital maturity is often striking. In many business units, specific digital initiatives take precedence because they are driven by the immediate priorities or critical requirements of the end customer. In other instances, regulatory compliance dictates the roadmap. Ultimately, delaying a plant’s digital transformation can be a strategic choice; these are complex business decisions managed by CXOs based on broader organizational goals.

Having said this, based on Gartner’s Top 10 Strategic Technology Trends for 2026, digital and AI technologies will continue to be the fundamental for driving smart factories maturity. And according to IDC’s 2026 Manufacturing FutureScape, by 2027, 40% of factories’ operational data will be integrated across applications and platforms autonomously, due to increased standardization and the use of AI agents purpose-built for specific data.

In fact, I envision there will be AI agentic mesh in the smart factories, working under an AI orchestrator layer, either collecting or sharing data in a multi-agent AI environment, with human-in-the-loop (HITL) for critical business decisions.

Impact on the workforce skillset

In terms of coping with the impact of digital transformation, the world of the workforce on the shopfloor of factories is changing at a faster pace. The tasks and activities done by operators, supervisors, maintenance technicians, quality inspectors, material handlers and others need to be seen through digital, AI and smart factory lenses.

There is a growing realization within the workforce that the convergence of automation, AI, cloud/edge computing, and IIoT is fundamentally reshaping every manufacturing process. AI-driven shopfloor assistants have become increasingly common, guiding workers through machine maintenance, process automation, and quality checks. These digital tools are particularly vital during night shifts or off-hours, when fewer human experts are available on-site to provide support.

Over the last few years, I have observed manual quality inspections being steadily replaced or augmented by advanced vision systems. In fact, many modern machines now come with these cameras factory-installed. From robots performing thousands of precise welds on vehicle seating to the automated painting and injection molding of automotive parts, the shift is undeniable. Consequently, the workforce skillset required to drive digital transformation in these smart factories needs a comprehensive revisit. The sentiment of reskilling is well captured in the book “What Got You Here, Won’t Get You There,” though it’s more pertinent to managers or senior leaders.

Bridging the skillset gap

Through AI innovation, by 2031, over 30 million jobs per year will be redesigned – not eliminated. So, learning and development (L&D) leaders need to look at the talent development and retention strategies, which will stay relevant in the smart factories’ era and beyond.

Successful initiatives often involve learning and development (L&D) leaders collaborating with business unit heads and digital stakeholders to build a comprehensive transformation matrix. This matrix maps out the manufacturing processes most affected by AI and digital tools, identifies the relevant job roles, and aligns them with the necessary technologies—such as IIoT, cloud computing, Gen AI, agentic AI and computer vision.

From this matrix, the skillset gaps for the impacted roles because of process and technology changes are tracked and fed into the L&D talent development plan. This plan is developed at the BU/plant-level and the requisite investments on training and infrastructure are approved by the business head in conjunction with the digital head.

From my perspective, I feel immersive technology-based training is quite effective in smart factories. Virtual reality (VR)/augmented reality (AR) solutions have helped to cut down the training time by 20-50%, with full tracking of the talent proficiency. This information is fed into learning management system (LMS).

One of the most effective features is that the workforce skillset matrix is generated directly from the learning management system (LMS). This integration enables plant managers to assign operators to specific machinery based on their verified proficiency and skill levels. This automated allocation of production line personnel is becoming increasingly standard, effectively eliminating the risk of unqualified staff operating sensitive equipment. By ensuring the right person is at the right machine, organizations can significantly improve safety, ‘first-time-right’ rates and overall product quality.

Keeping the workforce AI-ready

The digitalization of manufacturing generates vast quantities of data. While IT and digital teams are responsible for ensuring this data is captured securely on scalable platforms like the cloud, it is equally vital that the shopfloor workforce understands the underlying dataflow. When operators grasp how information moves through the system, they can better support the integrity and efficiency of the smart factory.

Furthermore, the workforce must recognize that data quality is the foundation of any effective AI solution — whether it involves shopfloor assistants or predictive forecasting. Because AI models are trained on specific datasets for specific use cases, their output is only as reliable as the input. Enterprises must strategically determine whether these models should be trained exclusively on internal enterprise data or supplemented with broader industry and internet-based information.

The bottom line is that AI-based solutions help organizations to stay ahead of the curve in terms of differentiation, competitive edge, business decisioning, growth and so on. The upskilling and cross-skilling of the workforce, as per the talent development plan, should be updated and tracked from AI lens, especially as this technology is changing at a rapid speed.

The best practice I have seen being followed in the industry is when the digital/AI team works with the HR and BU teams to identify training for different sets of employee groups. Shop floor training on digital and AI, for instance, will be a lot more hands-on and manufacturing-focused compared to training for mid/senior level executives, where the focus will be about the technology, its impact on the business and how to stay abreast of it.

Industry-specific certifications in digital and AI technologies can significantly enhance workforce productivity and efficiency. To complement formal training, many organizations now partner with startup ecosystems on relevant business projects, giving employees first-hand experience with emerging tools. Furthermore, ‘AI playgrounds’ allow business units to democratize these technologies by applying them to live use cases. Ultimately, bridging the skills gap requires more than just academic instruction; practical, hands-on exercises are essential to ensuring an AI-ready workforce.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

人の経験に頼った物流から、データで動く物流へ──SGHグループが挑む「データドリブン経営」の真価

属人性の壁──経験と勘の時代からの脱却

物流業界は大きな課題を抱えている。

物流の現場を長年支えてきた“属人性”という壁である。宅配の現場は、ベテランドライバーの経験に依存してきた。どのルートが最も効率的なのか、どの時間帯に不在が多いのか、繁忙期にどれだけ荷物が増えるのか──こうした判断は、個々のドライバーの頭の中に蓄積された暗黙知によって支えられていた。地域特性や顧客の生活リズムが複雑に絡み合う宅配では、経験の差がそのまま生産性の差となり、サービス品質にも直結していた。しかし、人手不足が深刻化し、新人や協力会社ドライバーの比率が高まる中で、この属人性は大きなリスクとなっている。

さらに2024年問題による労働時間規制の強化は、従来の“経験頼み”の働き方を維持することを難しくしていた。現場は、これまでの延長線上では立ち行かなくなる未来をはっきりと意識し始めている。そこでSGHグループは、ベテランの経験に依存した現場を“データで支える現場”へと転換する取り組みを本格化させた。

AIが現場を変えた──手書き伝票のデジタル化と業務効率化の進化

SGHグループが労働人口減少という課題に取り組み始めたのは2018年ごろから。EC市場の急拡大で荷物量は増え続ける一方で、現場の人員は限られる。将来的に大きな課題になるのは明らかだったからだ。

こうした中で進められたのが業務の効率化だ。

佐川急便では当時、年間約14億個、多い時には1日約500万個の荷物を扱っていた。eコマースが進んだことにより、配達伝票の約90%の電子化は進んでいた。

こうしたデータを活用し、導入されたのが最適な配達ルートを自動表示する「スマート集配」という仕組みだ。

従来はベテランが経験をもとにルートを組み立てていたが、スマート集配では荷物情報、地図情報、過去の配達実績などをもとに、AIが最適ルートを提示する。

これにより、走行距離は平均で5〜10%削減。新人や協力会社ドライバーでも効率的に配達できるようになった。

データのフルデジタル化でさらなる業務効率化

しかしさらなる業務の効率化を進めていく上で大きな壁となったのが、伝票のフルデジタル化の問題だ。90%の伝票をデジタル化したとはいえ、約10%にあたる40〜45万枚/日が手書き伝票として残っていた。

この10%の伝票がある限り、業務をフォーマット化し、デジタル化を進めていくのは難しい。

フルデジタル化が進まなければ、ドライバーは当日にならないと荷物の全体量を把握できず、これが朝の業務に大きな負担としてのしかかった。

この課題を解決するため、同グループはAI‑OCRの開発に踏み切る。

しかし、手書きの複写式伝票の読み取りは想像以上に難易度が高かった。

複写式の伝票は、かすれや傷、筆圧のばらつきが非常に多く、AIで簡単に読み取ることができない。読み取り精度を高めるために調整を重ね、繰り返し学習させた。こうした作業は現在も地道に続けられているのだという。

試行錯誤を重ねた結果、数字の読み取り精度は99.9%に到達。さらに2022年4月には、手書きの住所の読み取りも含めたフルデジタル化にも成功した。これにより、翌朝4時までにすべての荷物情報がデジタル化される仕組みが整い、現場の作業は大きく変わった。

フルデジタル化された情報は、次の業務効率化へとつながっていく。

積み込み作業の効率化だ。従来、ドライバーは自分の担当エリアに合わせて荷物を探し、最適な順番で積み込む必要があった。これは各々の経験に依存する作業であり、ベテランと新人の間で大きな差が生まれていた。

そこで開発されたのが「夜積みアプリ」である。トライバーがあらかじめ担当するエリア内の住所単位での積み込みパターンを事前登録することにより、その内容に合わせた積み方をアプリが提示する仕組みだ。

このアプリ開発と導入により、積み込み時間は平均で20〜30%短縮された。営業所によっては、1人あたり15〜20分の削減が実現している。ドライバーの朝の負担は大幅に軽減され、出発時間の安定化にもつながった。

AI‑OCRによるデータ化と、積み込み・ルート最適化の仕組みは、SGHグループのDXを象徴する取り組みとなった。単なる業務改善ではなく、現場の働き方そのものを変える“構造改革”である。こうした取り組みが積み重なり、同グループのDXは次のステージへと進んでいく。

AIがつくったデータ基盤は、次の最適化へ──GCJ との協業が開く未来

AI‑OCRによって手書き伝票のデジタル化が進み、翌朝4時までに全荷物情報が揃う仕組みが整ったことで、SGHグループは“データが揃う物流”という新たなステージに入った。

これまで現場の経験に依存していた業務が、データを起点に再設計できるようになったのである。積み込み作業の効率化やスマート集配によるルート最適化は、その象徴的な成果だった。

しかし、同グループが目指すのは単なる効率化ではない。荷物量の変動、配達指定時間、不在データ、地理的特性──こうした複雑な要素を踏まえ、集配エリア設計そのものを最適化する“次の段階”が必要だった。特に2030年に予測される輸送力不足は深刻で、従来の延長線上では持続可能な物流を維持できない。

SGHグループはトータルロジスティックスの機能を進化させ、次世代物流システムの開発を目指し、2024年には、佐川急便がグーグル・クラウド・ジャパン(以下GCJ)とDXを活用した総合物流機能の強化に向けた戦略的パートナーシップ協定を締結した。

この協業は、「スマート集配」をさらに高度に最適化させる取り組みにもつながるものだ。

SGH経営企画部の南部一貴部長(所属・役職は取材当時)は次のように語る。

「従来のAIルート最適化は、定期配送や荷量が安定した領域では効果を発揮していましたが、宅配のように荷量が日々変動し、エリア特性が複雑に絡む領域では限界がありました」

佐川急便ではスマート集配導入にかかわらず以前より、貨物の種類、量、時間帯、顧客の要望、地理情報など、複合的なデータをもとに効率的なルート設計を行っている。これらの情報をグーグル・クラウドのデータ分析基盤と組み合わせることで、従来は人の経験に依存していたルート設計を、データに基づく科学的なプロセスへと変えていく。

この取り組みが実現すれば、配達効率はさらに向上し、ドライバーの負荷軽減にもつながる。加えて、繁忙期の急増にも柔軟に対応できる“変動に強い物流”が実現する。AI‑OCRで始まったデータ化施策は、GCJとの協業によって、より高度な最適化へと進化しつつある。

SGHグループのDXは、現場の課題解決から始まり、データ基盤の構築、そしてAIによる高度最適化へと段階的に発展している。伝票情報(紙)のフルデジタル化したことで、さまざまなことに活用できるようになったデータは、いまや同グループの物流改革の中心にあり、未来の物流を形づくる原動力となっている。

成果と壁──生産性向上とグループ連携の難しさ

データ基盤が整い始めると、SGHグループの現場では目に見える変化が次々と生まれた。

AI‑OCRによる手書き伝票のデジタル化で、翌朝4時には全荷物情報が揃うようになり、積み込み作業では「夜積みアプリ」が開発・導入され、ドライバーの朝の負担は大幅に軽減され、出発時間の安定化にもつながった。

配達効率は向上し、顧客体験(CX)も改善された。

データは、経営・現場・顧客のすべてに価値をもたらし始めていた。しかし、成果が広がるほど、新たな課題も浮かび上がる。それが、グループイン企業とのデータ連携である。

しかし、この壁を乗り越えた先には、新たな可能性が広がっている。国際物流のデータと国内配送のデータを統合すれば、リードタイムの短縮が実現する。倉庫データと宅配データを組み合わせれば、より精度の高い需要予測が可能になる。グループ全体のデータがつながれば、物流の価値はさらに広がる。

成果と壁が交錯する中で、SGHグループのデータドリブン経営は次のステージへ向かおうとしていた。その先にあるのは、データが描く“新しい物流の未来”である。

未来への航路──データが描く新しい物流の姿

成果と課題が交錯する中で、SGHグループは次のステージへと歩みを進めていた。データドリブン経営は、現場の効率化や適正運賃収受を実現するための手段であると同時に、物流の未来そのものを形づくる“基盤”でもある。同グループが見据える未来は、単なる業務改善の延長ではない。データを活用し、物流を企業経営の戦略領域へと押し上げる世界だ。

問い合わせ対応の効率化、請求業務の自動化、集荷依頼の最適化──データを軸にした新しい業務プロセスが生まれ、物流の付加価値はさらに高まるだろう。

未来を形づくるもう一つの柱が、環境負荷の可視化である。物流は輸送手段やルート設計によってCO₂排出量が大きく変動するため、データによる可視化はGX(グリーントランスフォーメーション)を推進する上で欠かせない。

荷主企業にとっても、自社のサプライチェーン全体の環境負荷を把握することは重要であり、物流データはその基盤となる。

さらに、AIとデータを組み合わせた高度な最適化も視野に入っている。荷物量の変動、顧客の行動パターン、交通状況、天候──これらをリアルタイムで分析し、最適な配達計画を自動生成する未来は、決して遠くない。経験と勘に依存していた時代から、データとAIが支える時代へ。物流は今、確実にその転換点に立っている。

ガートナージャパン バイスプレジデント チームマネージャーの一志達也氏は、次のようにコメントしている。

「人間の蓄えた知識や経験に頼る、『非科学的』な意志決定は当然属人的なものとなり、組織が大きくなるとムラやバラツキが生じやすくなる。それが積み上がると、大きなコスト増や収益の圧迫につながってしまい、企業の競争力を損ねる要因になってしまう。データは、取り扱いの難しい面はあるが、その性質を理解して上手に使いこなせば、ビジネスを『科学的』に進められるようになり、先に挙げた問題を解決する。今はAIの時代である。AIはまさに、データに基づき科学的に振る舞うビジネス・マシンであるが、SGHグループがこの先においてAIをどう活かしていくのかも楽しみである」

データが物流を変え、物流が社会を変える──。その未来はすでに動き始めている。SGHグループの挑戦は、これからも続く。

Carles Llach: “La tecnología ha generado unas eficiencias enormes en el notariado”

El notariado en España, tal y como ahora lo conocemos, se remonta a una normativa de 1862, que unificó las cosas en una profesión en la que, en realidad, se puede retroceder hasta la Edad Media. Casi se podría decir que siempre han estado presentes, lo que deja tras de sí una rica historia. También empuja a que la ciudadanía asocie el notariado a montañas de papel, a documentos tangibles que siguen una larguísima tradición analógica. Y, sin embargo, la profesión lleva décadas digitalizándose y cuenta con su propio Centro Tecnológico del Notariado. Hasta se podría decir que fueron pioneros.

La aprobación de la normativa que reguló la firma electrónica notarial en 2001 creó un marco normativo favorable para la digitalización del sector, que además supo ver el potencial de la transformación tecnológica. “El notariado hace una apuesta por la tecnología creando el Centro Tecnológico del Notariado a finales del año 2002”, explica en una entrevista con CIO ESPAÑA Carles Llach, director de Tecnologías del Centro Tecnológico del Notariado. El Consejo General del Notariado (CGN) quería que este centro fuese “el proveedor de tecnología para toda la corporación notarial: los 17 colegios notariales, 2800 notarios y 18000 empleados”.

“Nos dedicamos a implementar y desarrollar soluciones para fortalecer la función pública del notariado con la ciudadanía, pero también es muy importante la colaboración con la administración pública y otras entidades clave del mercado”, asegura. Ahora, en el Centro cuenta con sedes en Sant Cugat del Vallés (Barcelona) y Madrid, en las que trabajan 450 personas, responsables de proveer al notariado de las soluciones TI necesarias para que todo fluya.

La innovación en la que trabajan

Pero ¿para qué necesitan toda esta innovación tecnológica las notarías? “En muchos casos, por cuestiones de cumplimiento del notario hacia la administración pública”, apunta Llach. “El notario es un sujeto de obligado cumplimiento en cuanto a prevención de blanqueo de capitales”, ejemplifica partiendo de una de sus muchas obligaciones, la persona que permite saber quién es el titular real de una sociedad. “Esto no sería posible sin que hubiera una tecnología que permitiera hacer este tipo de consultas”, indica.

“También está obligado a la cumplimentación del Índice Único Informatizado. De hecho, es uno de los primeros cumplimientos a los que se tiene que enfrentar el notario en el año 2004, una vez creada la sociedad”, señala. El Índice recompila la información para la administración central. “Antes de que existiera, cada notaría facilitaba esta información al colegio notarial y administración pública en general. No había una calidad homogénea”, señala Llach. Al informatizase, “esta información se centraliza” y surge “toda la capacidad de establecer criterios homogéneos”. Los datos pasan a ser homogéneos y su calidad sube, pero también se reducen los tiempos. “Esta base de datos permite sistematizar comunicaciones”, indica el experto. Una muestra es el catastro. “Ahora, cuando vas a una notaría y realizas un acto de compraventa se lanza directamente una comunicación a catastro que, ya a partir de eso, efectúa el cambio de titularidad de esa finca”, explica.

Centro Tecnológico del Notariado

Centro Tecnológico del Notariado

La digitalización también ha permitido afrontar de forma más eficiente otras obligaciones que ha asumido el notariado, como bodas o divorcios. “Estas nuevas atribuciones van acompañadas de una digitalización para dar herramientas para que puedan efectuarlas”, afirma Llach, que confirma que, evidentemente, en las notarías se hace mucho más que firmar papeles.

La plataforma SIGNO (Sistema Integrado de Gestión Notarial) es, desde 2007, la solución TI que cubre todas esas necesidades. “Esta plataforma aporta valor a tres actores”, indica Lach. Son el propio notariado, la administración pública y la ciudadanía. “El notario, para hacer su trabajo más eficiente. Tiene un punto único desde el cual puede interactuar con la administración pública y la empresa privada, para sus funciones de función pública y también de función privada”. Todo está centralizado, va más rápido y se gana en eficiencia evitando errores. La información “se dispara hacia la administración pública”, lo que simplifica cuestiones como el cobro de impuestos, y la ciudadanía puede resolver en una “gestión integral” todas las cuestiones relacionadas con sus escrituras.

Sin tecnología, el día a día en una notaría “seguramente sería poco eficiente”, confirma Llach. “Para dar cumplimiento a todas esas obligaciones, la notaría necesitaría mucho más personal, los tiempos serían más largos y la colaboración con la administración pública se realizaría, pero de una forma muy poco eficiente”. “Creo que al final la tecnología en este ámbito, como en todos, ha generado unas eficiencias enormes”, asegura el directivo.

“Apostamos por la IA, pero por una IA supervisada”

Tecnología hecha en España

Ahora que la soberanía tecnológica, la dependencia y la innovación propia se están convirtiendo en temas de moda, no eran cuestiones sobre las que se hablase mucho en 2002. Y, sin embargo, el Centro fue pionero en estos terrenos posiblemente sin saberlo. Desde un primer momento, el Centro Tecnológico del Notariado trabajó con tecnología propia. Sus herramientas se desarrollan en sus centros de trabajo en España.

“Esa apuesta del notariado por la tecnología y por la creación de un centro tecnológico propio fue un acierto muy grande”, confirma Llach. “Tener una empresa que piensa en la tecnología para el notariado es un valor enorme”, suma. Hacerlo así les dio desde el primer momento control en cuestiones de gobernanza, pero también les permitió solventar sus necesidades concretas. “Es un sector tan vertical, algo tan específico, que no existen un equivalente de los productos que hemos desarrollado, como la plataforma SIGNO, en otro lugar. Son cosas que hemos tenido que desarrollar desde cero”, indica Llach. Aunque han hecho alguna colaboración puntual con terceras empresas, lo cierto es que apuestan por “personal propio que desarrolle, que administre los centros de procesos de datos y desarrollos específicos”.

Esto les ha permitido convertirse en un referente, al que visitan colegios notariales de otros países para comprender cómo pueden hacer su propia modernización.

Retos en transformación digital

Al tiempo, el Centro no se queda al margen de las grandes cuestiones que marcan la agenda en tecnología para el resto de sectores. “La ciberseguridad es un reto, una amenaza que está ahí y cada vez más presente”, responde Llach. Llach confirma que esto es algo que tienen presente y en lo que llevan “mucho tiempo”, tanto protegiendo el dato centralizado que salvaguardan en el Centro como en las notarías. “Al final no dejan de ser 2800 despachos profesionales repartidos por todo el territorio. Y eso es un reto. Esa gran granularidad que es beneficiosa para la ciudadanía (porque muy cerca todos tenemos a un notario), desde el punto de vista técnico supone un reto para cubrir en el aspecto de ciberseguridad”, indica.

La IA es aquí un arma de doble filo, porque permite generar ataques, pero también adelantarse a ellos señalando “agujeros”. No es el único potencial. Llach señala que están atentos a lo que permite la inteligencia artificial y a sus posibles eficiencias. “Apostamos por la IA, pero por una IA supervisada”, asegura.

Por ejemplo, ayuda potencialmente con la extracción de datos y permite reducir errores o mejorar la transparencia. Es algo en lo que trabajan y sobre lo que Llach insiste en que no es una cuestión de laboratorio, sino algo que están testeando en 400 notarias y que quieren extender progresivamente al resto. “Vemos aplicaciones de la IA en muchos ámbitos, como la asistencia telefónica, clasificar documentación de bajo riesgo jurídico o detección de inconsistencia”. Las palabras de Llach dejan claro que la IA puede convertirse en una suerte de red de seguridad.

The changing face of IT: From operator to orchestrator

For decades, IT organizations were measured by stability, uptime, cost efficiency and service delivery. Success meant systems ran reliably, incidents were minimized and budgets were controlled.

That model is no longer enough.

In today’s environment, defined by cost pressure, supply chain volatility and accelerating digital expectations, the role of IT is fundamentally transforming. The modern CIO is no longer just an operator of systems, but an orchestrator of business value.

The new mandate: Business value over technology

Digital transformation was once synonymous with technology modernization. But leading organizations have learned a hard truth: Technology does not create value, outcomes do.

Today, CIOs are accountable for:

  • Margin improvement and cost reduction
  • Faster product development cycles
  • Supply chain resilience
  • Operational efficiency and quality

This requires a fundamental shift in mindset: “Don’t sell technology. Enable business value and let technology follow.”

Every digital investment must tie directly to measurable impact EBIT uplift, working capital improvement, productivity gains, not just system upgrades.

Run and transform: The dual engine of modern IT

The transition from operator to orchestrator is anchored in a dual mandate:

Run the business + Transform the business

Run the business ensures:

  • Secure, resilient IT and OT environments
  • Stable ERP and plant operations
  • Compliance and cybersecurity
  • Predictable service delivery

Transform the business drives:

  • Data, AI and automation at scale
  • Digital capabilities across engineering, manufacturing and supply chain
  • Agile, product-centric ways of working

The differentiator is not managing these separately but orchestrating them seamlessly together.

This orchestration is what elevates IT from a support function to a strategic partner.

From projects to products: Rewiring the operating model

Traditional IT is structured around projects and technology silos. High-performing organizations are shifting to product and platform operating models aligned to business value streams.

This means:

  • Product teams own outcomes, not just delivery
  • Platform teams enable reuse, scalability and speed
  • Business and IT operate as one integrated team

The impact is significant:

  • Faster decision-making
  • Clear accountability for outcomes
  • Reduced duplication and total cost

The guiding principle becomes simple: Standardize first. Digitize second. Scale through platforms.

Digital thread: Unlocking end-to-end value

One of the biggest unlocks in industrial enterprises is the digital thread connecting engineering, manufacturing, supply chain and commercial systems into a unified ecosystem.

When connected, organizations gain:

  • Real-time visibility across the value chain
  • Faster product development cycles
  • Cost transparency from design to delivery
  • Predictive, data-driven decision-making

Without this integration, enterprises operate in silos — resulting in inefficiencies, delays and margin erosion.

The digital thread is not just a technology concept it is a business capability multiplier.

AI as a force multiplier, not a side initiative

Artificial intelligence is rapidly becoming embedded across every business function — but its true value lies not in isolated use cases, but in scaling intelligence across the enterprise.

Leading organizations are moving beyond experimentation to:

  • Embed AI into core workflows (engineering, quality, supply chain)
  • Automate decision-making at scale
  • Enable predictive and prescriptive insights

Examples include:

  • Predictive quality models reducing defects before they occur
  • AI-driven quoting improving margins and win rates
  • Intelligent supply chain analytics optimizing inventory and logistics

The shift is clear:

From dashboards → to decisions → to autonomous execution

However, AI’s success depends on two critical enablers: Trusted data and organizational adoption.

Citizen development: Scaling innovation beyond IT

One of the most powerful — and often underestimated — levers of transformation is citizen development.

In a world where demand for digital solutions far exceeds IT capacity, empowering business users to build solutions is no longer optional, it is essential.

Citizen development enables:

  • Faster identification and execution of use cases at the plant and function level
  • Reduced dependency on centralized IT teams
  • Increased ownership and adoption of digital solutions

But this is not about uncontrolled proliferation. Successful organizations balance empowerment with governance through:

  • Standardized platforms (low-code/no-code, data, automation)
  • Clear guardrails for security, data and architecture
  • Digital champions embedded within business functions

The role of IT shifts from builder to platform provider, coach and orchestrator of innovation.

When done right, citizen development creates a multiplier effect, turning every function into a contributor to digital transformation.

Observability & AIOps: Managing complexity at scale

As digital ecosystems grow, so does complexity. Traditional monitoring approaches, reactive and fragmented, are no longer sufficient.

The next frontier is AI-driven observability and AIOps, where:

  • Logs, metrics and events are continuously analyzed
  • Anomalies are detected proactively
  • Automated remediation reduces downtime

This shift enables organizations to:

  • Improve reliability and resilience
  • Reduce operational cost
  • Build internal intelligence rather than relying on external vendors

Observability becomes a core orchestration capability, enabling IT to manage increasingly complex digital environments with confidence.

Talent, culture and leadership: The real differentiators

Technology alone does not transform organizations, people, culture and leadership do.

Key shifts include:

  • Skills
  • Building capabilities in data, AI and automation across the organization
  • Culture
  • Driving speed, experimentation and continuous learning
  • Leadership
  • Ensuring strong sponsorship and business-led digital adoption

The most successful organizations empower business teams to identify opportunities, while IT provides the platforms and governance to scale them.

Governance: From control to value realization

Modern governance is no longer about approvals — it is about outcomes.

Effective models focus on:

  • Alignment to business priorities
  • Transparent portfolio management
  • Continuous tracking of value (EBIT, cost, productivity)

The key question shifts from “Is this project on track?” to “Is this delivering measurable business value?”

Conclusion: The CIO as orchestrator-in-chief

The CIO role has fundamentally evolved — from operator to orchestrator.

Today’s CIO must:

  • Align technology to business outcomes
  • Integrate data, platforms and processes
  • Enable innovation at scale across the enterprise

The organizations that will lead are not those that adopt the most technology, but those that orchestrate technology, data, AI and people into measurable outcomes.

In a world of constrained budgets and rising expectations, the mandate is clear: Run with discipline. Orchestrate with intent. Transform with measurable impact.

This article is published as part of the Foundry Expert Contributor Network.
Want to join?

‘Reskilling’ en TI: así se aseguran los CIO que sus plantillas se mantengan al día en un mercado cambiante

Desde fuera, seguir el ritmo de las nuevas tecnologías parece casi un reto imposible. Casi parece que cada mes o cada semana está apareciendo algo nuevo. Desde dentro, la actualización de conocimientos se percibe como una pieza fundamental. El reskilling es la llave maestra que permite seguir los tiempos. Los CIO son quienes lideran estos procesos y quienes confirman que no son en realidad algo nuevo, sino casi algo inherente a la profesión.

“En nuestra profesión la formación viene como el valor en los soldados, se presupone”, apunta al otro lado del teléfono Gracia Sánchez-Vizcaíno, CIO de Securitas para Iberia y Latinoamérica. “Sin formación continua los equipos se quedan obsoletos”, indica. “Somos un mundo en el que constantemente o bien están saliendo cosas nuevas o las que hay están cambiando”, concuerda para CIO España Álvaro Ontañón, CIO de Merlin Properties.

Lo que ha cambiado ahora es la velocidad: todo va mucho más rápido de lo que lo podía hacer unos 20 años atrás. Las tecnologías emergentes se han convertido en una disrupción continua, que obliga a estar aprendiendo en todo momento qué hacer y cómo. Pero, como suma Sánchez-Vizcaíno, la velocidad no es el único reto al que se deben enfrentar en el departamento TI. También ha cambiado el espectro de gente que debe recibir la formación. Las nuevas tecnologías se han convertido en una pieza tan transversal en la actividad corporativa que ya no se trata solo de formar al personal TI, sino que también deben enseñar qué y cómo hacer a equipos ajenos.

En cierto modo, ver qué áreas clave de conocimiento son las que dominan las preocupaciones de CIO y expertos en formación ayuda a visualizar el alcance de este reto. Sánchez-Vizcaíno confiesa que le interesa especialmente la IA agentiva y que todo lo que se conecta con este tema es un punto candente. “Está yendo muy rápido. Necesitamos un cambio de mentalidad, pero también de conocimiento”, señala, confirmando que el aprendizaje se hace en tiempo real. Todo cambia en paralelo a cuándo y cómo se aprende de ello.

“Los puntos más candentes actualmente son la IA generativa y la ciberseguridad proactiva”, suma vía mail Magalí Riera, directora del Máster Universitario en Gestión de Personas, Talento y Transformación Digital en UNIE Universidad. En la formación de nuevas habilidades y conocimientos también permanecen clásicos como los datos y analítica o la automatización.

En la lista, entran igualmente las conocidas como soft skills, en las que, como indica Riera, “se está poniendo mucho foco para perfiles técnicos”. Comunicación, negociación o liderazgo se sientan así a la mesa. Ahora mismo importa especialmente “tener pensamiento crítico”, añade David González, director de negocio de IT Perm Recruitment en Hays España, algo que se conecta a las disciplinas y conocimientos en Humanidades.

¿Formar o fichar?

La necesidad de contar con personal que domine todas estas nuevas destrezas abre, además, otro punto para el debate. ¿Sale a cuenta fichar a nuevos profesionales que ya cuenten con ellas o es mejor mantener equipos e incorporar conocimientos vía formación continua? Aquí, la percepción parece unánime. Fichar talento puede aportar muchas cosas, pero contar con un equipo establecido tiene muchas ventajas y hacer reskilling dará retornos elevados.

“Dentro del mercado tecnológico, el reskilling no tiene que ser una opción sino una ventaja”, apunta González. El experto indica que no se trata tanto de enfrentar a uno y otro modelo, sino de ver qué aporta cada cosa y valorarlo. El mercado laboral TI ya no es tampoco el que era tiempo atrás, entregado a una suerte de carrera de fichajes. “Atraer talento es muy difícil”, apunta Sánchez-Vizcaíno, “y la formación es una retribución más”, una que, como suma, aumenta el compromiso, recicla al personal existente y lleva a depender menos de recursos externos que pueden ser caros y no generan compromiso.

Contratar tiene también sus costes, que incluyen los tiempos de los propios procesos y de aclimatación y las fricciones de sumar a alguien que no conoce la cultura interna. “El coste de despedir y contratar a un nuevo empleado puede llegar incluso a triplicar el coste de realizar un proceso de reskilling adecuado”, indica Riera. Y, como asegura esta experta, la actualización de conocimientos “no se limita a una simple opción de bienestar corporativo, es una estrategia vital para perdurar en el mercado”.

Igualmente, cuando se tiene ya un equipo engrasado, que funciona y con perfiles y talentos variados que aportan las distintas piezas necesarias, puede merecer la pena actualizar en lugar de sumar nuevas piezas e intentar encajarlas. 

“El equipo te da algo que va más allá de la parte tecnológica”, apunta Ontañón. Como CIO, indica, él aporta “confianza” al equipo de dirección que le delega las responsabilidades TI, pero él, a su vez, necesita un equipo para cumplir. “Para mí, dentro de eso, la confianza es muy importante. Una vez que tienes creado un equipo y ganada una confianza, si la limitación es la tecnología —salvo que sea algo muy disruptivo, haya que partir de cero o cueste y se necesite un fichaje—, le dedicamos tiempo”. Le das el marco para incorporar esos conocimientos.

Así debe ser un proceso de reskilling

“Para mí, un punto clave es hacer ese reskilling desde negocio, no solo desde tecnología”, explica González. Antes de empezar a formar hay que hacerse preguntas. El experto señala que un proceso exitoso debe partir de saber qué va a pasar a corto, medio y largo plazo, promocionar áreas clave del mercado (qué vas a necesitar) y de una formación continua pero aplicada (y recuerda que existe una amplia mayoría de empresas que aseguran que la ofrecen, pero cuando se les pregunta a las plantillas solo la mitad del personal apunta que la reciben). No debe partir, eso sí, de certificaciones genéricas. 

Y, aunque desde la industria reconocen que los cursillos con vídeos que resultan tan clásicos en entornos corporativos pueden valer para cosas rutinarias (como las formaciones en riesgos laborales), no funcionan cuando se está hablando de nuevas skills. Riera recomienda “evitar el uso de métodos de aprendizaje meramente pasivos” y propone un aprendizaje basado en proyectos.

Sánchez-Vizcaíno lo está viendo. El modo en el que compartimos y procesamos la información también ha cambiado y, para que todo esto funcione, “más pasar del conocimiento teórico a habilidades prácticas adaptables”. Se aprende compartiendo en canales de Teams, hablando con colegas y hasta escuchando a otras compañías. Son procesos más multidireccionales, frente a la formación unidireccional o bidireccional del pasado. “Más que nunca, un aprender haciendo”, confirma esta CIO.

Y, sobre todo, generando un espacio favorable. Como explica Sánchez-Vicaino se trata de crear un caldo de cultivo proclive al aprendizaje y a la incorporación de nuevas habilidades, de “desarrollar la motivación para aprender”.  “Si realmente quieres aprovechar el aprendizaje y aprender, debes tener voluntad de hacerlo y tener una afinidad con la formación que te van a dar”, incide Ontañón. En su equipo, se involucra a la plantilla en el proceso previo. “Si no hay gente interesada, no hay formación”. Es una decisión pragmática, que evita la sensación de pensar en el curso de mañana como un lastre y apuntala las ganas de hacerlo. Aunque, confiesa, ese suele ser el estado casi por defecto en el mundo TI, uno en el que se suele estar al filo de los cambios, ya incluso fuera de horario de trabajo, y con deseos de aprender. 

Igualmente, trabajar teniendo en cuenta intereses y necesidades ayuda a ser flexibles: este CIO cree que la selección del formador y el contenido “es clave”. “Nosotros le dedicamos a esto mucho tiempo, porque es lo que puede garantizar que sirva o no para algo”. No se trata de formar por formar, sino de responder a esas inquietudes. En un mundo en el que la información es mucho más accesible que el pasado, existen muchos recursos y muchas fuentes de conocimiento. “La parte negativa es que hay tanto que debes buscar lo que realmente te pueda interesar y adaptarlo”, reconoce. De ahí que seleccionar y hacer formaciones ad-hoc funcione tan bien.

Incorporarlo a la visión corporativa

Otro punto importante a la hora de hacer procesos de reskilling es comprender su impacto en el funcionamiento de la plantilla y cómo deben integrarse en las horas laborales.

Así, González señala que se debe comprender que la productividad caiga en un primer momento antes de subir. “Las empresas que fracasan son las que exigen un rendimiento senior desde el principio”, apunta. Se necesita un tiempo de aclimatación, que puede incluso pasar por reforzar durante un tiempo la plantilla con externos o personal temporal. “Este aprendizaje es una necesidad, no se trata de una formación extra ni de un ‘premio’ al trabajador”, añade Riera. “Por tanto, debe formar parte de la agenda de trabajo”, suma. La profesora recomienda no llenar la jornada laboral con cursos, sino dedicarle “una parte pequeña de la jornada”. Esto no lastrará el día a día.

También es crucial mantener “una comunicación clara con el equipo” de qué se hace, por qué y qué se va a ganar, como explica el experto de Hays.

物流危機の時代を越えるために──SGHグループが挑むDX戦略の全貌

物流危機の時代に立つ日本

日本の物流は、いま歴史的な転換点に立たされている。国内貨物輸送の九割以上を担うトラック輸送は、長年の人手不足に加え、2024年4月から適用された時間外労働の上限規制によって、従来の長時間労働に依存した構造が限界を迎えた。国土交通省の試算では、対策を講じなければ2030年には34%もの輸送力が不足するとされ、物流の持続性そのものが揺らぎつつある。

現場では、荷待ち・荷役といった無償作業の長時間化、再配達の増加、都市部の倉庫不足、道路・橋梁の老朽化など、複数の課題が複雑に絡み合う。さらに、EC市場の拡大によって荷物量は増え続け、CO₂削減や環境負荷低減といった社会的要請も強まっている。政府は「物流革新緊急パッケージ」を打ち出し、モーダルシフトや共同輸送、物流DX・GXの推進を掲げているが、構造改革には荷主・物流事業者・消費者が一体となった取り組みが不可欠だ。

こうした状況は、単なる業界課題にとどまらず、日本経済全体の持続性に直結する問題である。物流は社会の血流であり、止まれば経済活動が麻痺する。だからこそ、労働人口減少が進む未来に備え、デジタル技術を活用して業務を効率化し、省力化し、持続可能な物流体制を構築することが急務となっている。

この複合危機に対し、いち早く抜本的な改革に踏み出してきたのが、佐川急便を傘下に持つSGHグループである。同社は2000年代初頭から本格的にDXに取り組み、IT基盤の刷新、データ活用、AI・ロボティクスの導入、そして人材育成まで、物流の未来を見据えた変革を積み重ねてきた。

SGホールディングス(以下SGHD)の取り組みは、単なる業務改善の域を超え、企業文化や事業構造そのものを変える“企業変革(トランスフォーメーション)”として評価されている。2025年には、経済産業省と東京証券取引所が選定する「DX銘柄2025」においてDXグランプリ企業に選ばれた。多くの先進企業がしのぎを削る中でのDXグランプリ企業選定は、SGHグループのDXが深く、広く、そして継続的に進化していることの証左だ。

だが、同社にとってこうした選定はゴールではない。むしろ、これまで積み重ねてきた挑戦の“通過点”にすぎない。物流を止めないために、そして社会にとって必要不可欠な存在であり続けるために、SGHDを中核としたSGHグループはDXを企業変革の中心に据え、次のステージへ歩みを進めている。

こうした同グループのDXの原点はどこにあったのか──。

DXの原点と転換点──先駆的IT投資からダウンサイジングの決断へ

SGグループのDXの源流は、実は1985年にまで遡る。貨物追跡システムや代金引換サービス「e-コレクト」の開発など、当時としては画期的なIT投資を積極的に進めてきた。物流業界ではまだデジタル化が一般的ではなかった時代に、「お客様のニーズに応えるとともに、サービスや輸送の品質を向上させるためにITを活用する」という明確な意思を持ち、先駆的な取り組みを続けてきた。

SGHD経営企画部の南部一貴部長(肩書は取材当時)はこの時代を振り返り、「1985年からのDX化の第1フェーズは、業界に先駆けてIT投資をしっかり進めてきた時代でした。貨物追跡システムやe-コレクトの開発など、既存サービスのレベルアップと輸送品質の維持向上を目指していました」と語る。

こうした“業界の常識にとらわれない先駆けの取り組み”は、後の大規模DXの基盤となり、SGHグループの企業文化として根付いていく。

しかし2000年代に入ると、同社は新たな壁に直面する。荷物量の増加に伴い、システムのデータ量が爆発的に増え、ホストコンピュータの増強コストが経営を圧迫し始めたのだ。2005年頃には、ITコストは右肩上がりで増加し、経営課題として無視できないレベルに達していた。

南部一貴、経営企画部長(肩書は取材当時)は当時の状況をこう説明する。

「荷物量が増える中で、ホストコンピュータのサーバー増強が必要になり、ITコストが右肩上がりになっていました。この状況を続けるわけにはいかないという危機感がありました」

そこで同社が下した決断が、ホストコンピュータのダウンサイジングである。

だが、この挑戦は極めて難易度が高かった。当時、佐川急便では年間約14億個の荷物を扱っていた。もし移行に失敗すれば、物流ネットワークが停止し、社会に甚大な影響を及ぼす。

「当時は大規模な情報処理はメインフレームが主体でした。これを並列分散処理に移行する中で、仮に失敗してシステムが止まれば、世の中への影響は計り知れない。悩みに悩んだ上での決断でした」と南部部長(同上)は当時を振り返る。

さらに、移行後の運用を見据え、グループ内IT会社であるSGシステムの若手社員を集め、システム開発・保守運用の教育を徹底。新しいミドルウェアやハードウェアを導入しながら、内製化を同時に進めるという、難易度の高い取り組みに挑戦した。

最終的に、複数台のサーバーを並列分散処理するオープンシステムへの移行に成功し、ITコストの大幅削減を実現した。この成功は、SGHグループにとっては、単なるシステム刷新ではなかった。

後に続くAI-OCR開発やスマート集配、グーグル・クラウド・ジャパン(GCJ)との協業など、より高度なDXへとつながっていく。SGHグループのDXは、ここから本格的な進化を遂げていくことになる。

AIが現場を変えた──手書き伝票のデジタル化と業務効率化の進化

SGHグループ傘下の佐川急便では、当時年間14億個もの荷物を扱っており、繁忙期には一日に100万枚もの配達伝票の情報を人の手によりシステムに入力していた。業務効率化を考えた際、同グループまずここに着目した。そしてグループのIT統括会社SGシステムと協力会社がAI-OCRを開発し、さまざまな試行錯誤を重ね、2022年4月には配達伝票の完全デジタル化を達成した。実に月間8400時間もの作業時間の削減となっただけでなく、デジタル化された配達データをさまざまな業務効率化へ活用するプロジェクトも進んだ。例えば、配達伝票のフルデジタル化前は、当日の朝にならないと全ての配達情報がわからなかったが、フルデジタル化後は、翌朝4時までに全荷物情報が揃う仕組みが整った。これにより、ルート設計の精度は飛躍的に向上した。というのも、従来はベテランが頭の中で組み立てていた合理的なルート判断を、だれでも参照できる“共通言語”へと変えていくため、荷物情報、地図情報などをもとに、AIが効率的なルートを自動で提示する「スマート集配」を本格導入したのだ。経験に頼らずとも、データをもとに効率的な集配ルート設計ができると、新人や協力会社ドライバーでも効率的に配達できるようになり、現場の生産性は大きく向上した。

そしてその後さらに同グループは「夜積みアプリ」の開発・導入へと発展していく。

人の経験に依る物流は、データによって新たな進化を遂げようとしていた。この変革は、やがてグループ全体を巻き込む大きな流れへと発展していく。

DXは企業変革へ──5つの個別戦略が描く未来と、持続可能な物流への展望

AIを活用したデータ基盤の整備、積み込みやルート最適化の高度化、そしてGCJとの協業によるエリア設計の再構築──SGHグループのDXは、現場の課題解決から始まり、データを軸にした高度な最適化へと進化してきた。こうした取り組みを体系化し、企業変革として位置づけたのが、同社が掲げる「SGH-DX戦略」の5つの個別戦略である。

第一の戦略は、トータルロジスティクスの拡大と付加価値向上だ。単に荷物を運ぶだけでなく、顧客体験(CX)やオペレーション(OX)の高度化を通じて、物流を起点とした新たな価値を創出する。EC市場の拡大に伴い、顧客のニーズは多様化している。配送品質の向上、受け取り体験の改善、国際物流の強化など、物流を“サービス”として再定義する取り組みが進む。

第二の戦略は、新技術によるサービス拡充と生産性向上である。AI、ロボティクス、IoTなどの技術を積極的に取り入れ、現場の省力化や自動化を推進する。AI‑OCRやスマート集配はその代表例であり、今後は倉庫内ロボットや自動仕分けシステムなど、より広範な領域での活用が期待されている。

第三の戦略は、経営・事業を支えるデジタル基盤の強化だ。クラウドファーストの方針に基づき、システムの標準化やデータレイク(あらゆる種類のデータを“生のまま”大量に保存できる巨大なストレージ基盤)の構築を進めることで、グループ全体のデータ活用を加速させる。GCJとの協業は、この基盤強化の象徴的な取り組みであり、データ分析やAI活用のレベルを一段引き上げる役割を担っている。

第四の戦略は、DX人材育成と推進体制の進化である。DXは技術だけでは成立しない。企画人材と構築人材を育成し、事業会社とIT部門が連携して変革を推進する体制が不可欠だ。SGHDは150人規模のDX企画人材育成を目標に掲げ、専門性を持つ構築人材とともに、将来のコア人材を育てる取り組みを進めている。

第五の戦略は、グローバルITガバナンスの強化だ。海外事業の拡大に伴い、セキュリティやシステム標準化の重要性は増している。3年ごとのロードマップ策定やグローバル基盤の整備を通じ、世界規模での事業運営を支える体制を構築している。

これら5つの個別戦略は、単なるデジタル化の計画ではなく、物流の未来を再構築するための“企業変革の設計図”である。

三位一体のDX推進体制──戦略・企画・構築の連動

SGHグループのDXを支えているのは、戦略・企画・構築が三位一体となった独自の推進体制だ。

この体制は、単なる役割分担ではなく、「誰が何を担い、どのように連動するか」が明確に設計されている点に特徴がある。

まず、グループ全体のDX戦略を描くのはSGHDだ。物流を取り巻く環境変化、社会課題、顧客ニーズ──これらを踏まえ、目指すべき方向性を定める“司令塔”の役割を担う。

次に、各事業会社がその戦略をもとに企画を立案する。

宅配、ロジスティクス、国際輸送、ITなど、事業ごとに異なる現場課題を踏まえ、「どの業務をデジタルで変えるべきか」「どのプロセスを標準化すべきか」を具体化していく。

そして、その企画を実際のシステムとして形にするのが、約1000名のIT人材を擁するSGシステムだ。
アプリケーション開発、データ基盤構築、AI実装、セキュリティ対策──グループのDXを技術面から支える“エンジン”として機能している。

この三者が縦割りではなく、一つのチームとして連動していることが、SGグループのDXの強さである。

さらにSGHグループは、外部パートナーとのアライアンスも積極的に進めている。クラウド、AI、ロボティクス、データ分析──先端技術を持つ企業との協業により、社内だけでは実現できないスピードとスケールでDXを推進している。

グーグル・クラウド・ジャパンとの協業によるドライバーの担当エリアやルート設計のさらなる最適化、ロボティクス企業との自動化ソリューション、クラウドベンダーとのデータ基盤強化など、外部の知見を柔軟に取り込みながら、グループ全体の競争力を高めている。

戦略を描くホールディングス、企画を担う事業会社、構築を担うSGシステム、そして外部パートナー── これらが一体となって動くことで、SGグループのDXは“現場で使えるDX”として進化し続けている。

こうしたSGHグループの取り組みについてDXの専門家はどのようにみているのだろうか。

ガートナージャパン バイスプレジデント チームマネージャーの一志達也氏は、次のようにコメントしている。

「多くの日本企業が、過去何年もの時間と相応の費用をDXに費やしても、具体的な成果を獲得できず苦心している。そうなってしまう原因は、具体的な目的や目標が曖昧で、会社としての意志や実行力が不足している、といったところにあるとみている。それに対して、本記事で取り上げられたSGグループは業界全体の課題も含め、経営が現状に危機意識を持ち、現場起点で取り組みを進めている。その過程で立ちはだかる技術的な負債に対しても、他人任せにするのではなく自分事として、正面から立ち向かっているところも評価できる」

日本の物流は、いま大きな変革期にある。人手不足、需要増、環境対応という複合課題に直面する中で、SGHグループはDXを通じて物流の未来を切り開こうとしている。AI‑OCRで始まったデータ活用は、グーグル・クラウド・ジャパンとの協業を経て、企業変革の中心へと進化した。これからもSGHグループは、社会インフラ企業としての責任を果たすために、DXを進化させ続ける。

The VMware deadline that could reshape your IT strategy

Many VMware customers assumed the most disruptive effects of Broadcom’s acquisition were already behind them. Licensing changes and pricing shifts required attention, but infrastructure strategy largely stayed the same. That assumption is about to be tested.

By October 2027, VMware customers must migrate to VMware Cloud Foundation (VCF) 9.[1] What sounds like a routine upgrade has much larger implications. The timeline is compressed. Hardware and operational changes may be required. And organizations are being pushed to rethink platform strategy at a time when they are balancing modernization, cost control, and new demands such as artificial intelligence (AI) and cloud-native development.

Infrastructure transitions rarely happen quickly. Moving workloads, retraining teams, validating interoperability, and maintaining resilience all take time. When migration is mandated rather than optional, the risk profile shifts. CIOs must act within a certain window of time while still supporting critical systems and ongoing initiatives.

A shift in trust and long-term strategy

Industry analysts expect more than one-third of VMware workloads to move to alternative platforms by 2028.[2] That projection reflects a reassessment of vendor dependency and long-term cost predictability, pressures intensified by ongoing supply chain delays and rising hardware costs. Pricing changes and bundled licensing have introduced uncertainty into infrastructure planning, prompting many leaders to reconsider whether maintaining the status quo still makes sense.

At the same time, modernization pressures are building. Hybrid cloud has become foundational and application teams increasingly develop in containers. AI workloads are moving from experimentation into production. These shifts require platforms that can support traditional virtualization alongside modern application models, without adding operational complexity.

 “No responsible IT person would put a new workload on VMware.”

              – Lee Caswell, SVP, Product and Solutions Marketing, Nutanix 

Some enterprises are responding by containing their existing VMware environments while directing new workloads elsewhere. Others, according to Lee Caswell, SVP of Product and Solutions Marketing at Nutanix, are evaluating full platform transitions to regain flexibility and cost control.

Turning a required migration into a strategic advantage

The VCF 9 deadline is more than a compliance milestone. It offers a chance to rethink infrastructure design for the next decade.

A modern platform should enable organizations to:

  • run virtual machines, containers, and AI workloads side by side
  • operate consistently across on-premises, cloud, and edge environments
  • preserve hardware investments and team expertise
  • maintain resilience, security, and operational simplicity

The Nutanix Cloud Platform supports this transition by providing an enterprise virtualization foundation that integrates hybrid cloud operations, container orchestration, and AI readiness within a single operating model. Built-in migration tools and flexible deployment options can help reduce switching friction while giving organizations control over the pace of modernization.

As infrastructure decisions become harder to reverse and modernization pressures accelerate, CIOs face a clear choice. They can treat the VMware deadline as a forced disruption or use it as a catalyst for transformation. For organizations willing to act early, the difference may shape operational agility and innovation capacity for years to come.

Learn more by visiting www.nutanix.com/vmware-alternative/transition.


[1] Facing CIO backlash, VMware extends support and slows down release cycles, Gartner, Inc, Gyana Swain, July 18, 2025

[2] The CIOs Guide to Broadcom’s Acquisition of VMware, Gartner, Inc, Julia Palmer, Mike Cisek, Tony Harvey, April 3, 2024.

❌