CIO.com - The voice of IT leadership
cio.com.web.brid.gy
CIO.com - The voice of IT leadership
@cio.com.web.brid.gy
Find the peer insights and expert advice IT leaders need to create business value with technology, drive innovation and develop their careers.

[bridged from https://cio.com/ on the web: https://fed.brid.gy/web/cio.com ]
今頃聞けないTransformerの話:自己注意が「文脈」を作る仕組みとは?
重要なのは、ここでやっていることが“理解”というよりも、“情報の集め方と混ぜ方のルールを学習する”という点だ。文章中の各トークン(入力の単位)は、自分に必要な情報を、同じ文章の別のトークンから集めてくる。そして集めた情報で自分の表現を更新する。これを層として何十回も繰り返すことで、局所的な語のつながりから長距離の依存関係まで、段階的に扱えるようになる。本稿では、数式を前提にせず、自己注意が「何をして」「なぜ効いて」「どこで詰まりやすいか」を、実装の匂いがするレベルまで文章だけで説明する。 ## LLMの中身は「積み重ねる機械」:デコーダ型Transformerという前提 生成系LLMの多くは、同じ形のブロックを縦に何層も積み上げた構造をしている。入力は文字列ではなくトークン列で、各トークンはまず埋め込みという変換でベクトルになる。ここから先は基本的に、同じ形のTransformerブロックを順番に通り、最後に「次に来そうなトークン」を選ぶための出力に変換される。 生成モデルとしての重要な制約は、ある位置のトークンが「未来のトークン」を参照できないことだ。文章を左から右へ生成する以上、まだ出力していない未来を見てしまうとズルになる。そこでTransformerは、自己注意の計算で「見てよい範囲」を制限する。これが因果マスクと呼ばれる仕組みで、後ろの単語を“見えないもの”として扱うことで、モデルは常に「過去だけを頼りに次を予測する」状態に置かれる。 ## 自己注意とは何か:各トークンが「どこを見るか」を自分で決める 自己注意を直観的に説明すると、次のようになる。文章の各トークンは、処理のたびに「今の自分の状況だと、文中のどの部分が役に立つか」を判断し、その部分から情報を引き出して自分の表現を更新する。つまり、各トークンは“問い合わせ役”になり、同時に他のトークンは“情報源”にもなる。 このとき、トークンは内部的に三つの役割の表現を持つと考えると理解しやすい。一つ目は「何を探しているか」という問い合わせの方向性、二つ目は「自分はどんな特徴を持っているか」という名札、三つ目は「提供できる中身(情報)」である。問い合わせが名札と照合され、「この情報源は自分に関係が深い」と判断されるほど、その情報源の中身が強く取り込まれる。結果として、各トークンは文中の複数箇所から情報を集め、それを混ぜ合わせた新しい表現へ更新される。 ここで重要なのは、参照先を決めるルールが固定ではない点だ。単に「近い単語を見る」ではなく、入力内容に応じて、遠く離れた場所も見にいける。たとえば主語と述語が離れていても、必要なら主語を参照して整合する表現へ更新できる。これが、自己注意が長距離依存に強いと言われる理由である。 ## 因果マスク:未来を見ないことで「生成できる」モデルになる 生成においては、各位置が参照してよいのは自分より前までのトークンだけである。自己注意は本来、文中のどこでも見にいけるが、それを許すと学習時に“答えを見ながら解く”状態になってしまう。そこで因果マスクで「後ろ側は参照できない」と強制し、常に“過去だけ”を材料に次を予測する。 この制約は学習時にも推論時にも同じように働く。学習時は全文が手元にあっても、各位置の計算では未来が見えないようにして、推論時の状況に合わせる。こうすると、学習で身につけた振る舞いがそのまま生成に使える。逆に言えば、因果マスクは「Transformerを生成器として成立させるための安全装置」だ。 ## Multi-Head Attention:一つの見方では足りないので、複数の“視点”を並列に持つ 自己注意を一種類だけ持つと、各トークンが参照先を決める「判断基準」が一通りになってしまう。しかし自然言語には、同時に複数の関係が重なっている。語の意味の類似、係り受け、共参照、話題の継続、否定や条件のスコープなど、同じ文を読むにも複数の観点が必要だ。 Multi-Head Attentionは、この問題への実用的な解である。内部の表現を複数のグループに分け、それぞれが独立に「どこを見るか」を決める。あるヘッドは局所的なつながりを見るのが得意になり、別のヘッドは文頭の主語を追跡するのが得意になる、といった分業が起こり得る。もちろん、ヘッドごとに意味が必ず決まるわけではないが、「複数の視点で同時に参照できる自由度」を設けること自体が、表現力を押し上げる。 最後に各ヘッドが集めてきた情報は結合され、元の次元に戻される。したがってMulti-Headは、単に並列化しているのではなく、「異なる参照パターンを足し合わせた総合的な文脈表現」を作っていると考えるとよい。 ## 残差接続とLayerNorm:深く積んでも壊れないための骨格 Transformerは非常に深くなる。深いネットワークは表現力が高いが、学習が不安定になりやすい。そこでTransformerブロックは、自己注意やMLPの周りに残差接続を置く。残差接続とは、変換結果だけを次に渡すのではなく、元の入力を足して一緒に流す仕組みだ。これにより、変換がうまく学べていない段階でも情報が消えにくくなり、学習が進みやすい。 LayerNormは、各トークンの内部表現のスケールや偏りを整える役割を持つ。これにより層を重ねても表現が暴れにくくなる。大規模な学習では、LayerNormをどこに置くかが安定性に効く。実務では、変換の前に正規化する配置が採用されることが多く、これは深いスタックでの学習をより安定させる狙いがある。 ## MLP:注意が集めた情報を「加工」して使える形にする 自己注意は「どこから情報を持ってくるか」を決めるのが得意だが、持ってきた情報をそのまま使えるとは限らない。そこで各ブロックには、MLP(位置ごとの小さなニューラルネット)が入っている。MLPは、各トークン位置で独立に働き、表現を非線形に変形して“使いやすい特徴”へ変換する。 直観的には、自己注意が「材料を集める係」だとすると、MLPは「材料を下ごしらえして料理にする係」だ。注意で混ぜた文脈情報を、分類しやすい形、予測しやすい形に整える。これがブロックを通るたびに繰り返され、表現はより抽象的で、よりタスクに有用なものへと変化していく。 ## 実装で起きるトラブル:動くのに間違っているパターンが多い 自己注意の実装は、数式を知らなくても書ける一方で、間違ってもそれっぽく動いてしまうのが怖い。典型は「正規化の方向を間違える」問題である。本来、各トークンが参照先に対して重みを割り当てるべきなのに、軸を取り違えると、意味の違う正規化になってしまう。それでも出力は出るので、学習は進んでいるように見えるが、性能が伸びない、挙動が変、という形で現れる。 もう一つはマスクの扱いである。未来を見ないための制約が、精度の低い演算形式や実装の都合で弱くなったり、逆に必要な参照まで消したりすることがある。とくに高速化のために混合精度を使うと、非常に大きい負の値で「見えなくする」操作が、丸めの影響で期待通りにならないことがある。こうした問題は、単体テストや可視化で「本当に未来を参照していないか」を確認するのが有効だ。 ## なぜ長文が苦しいのか:自己注意は“全対全”を見るコストが重い 自己注意の弱点は計算量だ。各トークンが「文中のどのトークンも参照候補にできる」自由度を持つ代わりに、参照の組み合わせが増える。つまり、文が長くなるほど「参照関係の候補」が急激に増え、計算とメモリが重くなる。長文で推論が高価になりやすいのは、単にトークン数が増えるからだけではなく、参照関係を作るコストが増えるからだ。 推論時にはさらに事情がある。生成は1トークンずつ増やすので、新しいトークンが追加されるたびに「過去全部との関係」を計算する必要がある。ここでKVキャッシュという仕組みを使うと、過去の情報を再計算せずに済み、速度は改善する。それでも「過去全体を見る」必要は残るため、長文になるほど遅くなる傾向自体は消えない。長文対応は、位置表現だけでなく計算設計の問題でもある理由がここにある。 ## まとめ:自己注意は「参照先を学習して決める情報収集装置」 Transformerの自己注意は、文中の各トークンが「どこを見るべきか」を入力から計算して決め、必要な情報を取り込んで自分の表現を更新する仕組みだ。因果マスクが未来参照を禁じることで、モデルは生成器として成立する。Multi-Headにより複数の視点で同時に参照でき、残差接続とLayerNormが深い積層を学習可能にし、MLPが集めた情報を非線形に加工して表現力を増す。一方で自己注意は長文になるとコストが重くなり、実装では正規化の軸やマスクの扱いがバグの温床になる。Transformerを理解することは、モデルを魔法として扱うのではなく、情報がどこからどこへ流れ、何が性能とコストを支配しているのかを言語化できるようになることだ。
www.cio.com
December 26, 2025 at 6:41 PM
Digitalizar y cooperar para… saber y poder cuidar o curar
La **transformación digital que se está produciendo en el sector salud** no sigue un esquema planificado, ni responde a una estrategia explícita planteada por alguno de los múltiples actores que interactúan en nuestro sistema sanitario. Se manifiesta a través de proyectos, éxitos y fracasos de naturaleza muy variada, tanto en su localización como en su repercusión. Unos ‘contagian’ a otros y se trasladan de un ámbito a otro con efectos estimulantes o inhibitorios. La transformación que está ocurriendo en nuestro **Sistema Nacional de Servicios de Salud** tampoco parece responder a los intereses de un actor principal. Transcurre a ritmos diferentes, con evidentes desigualdades y ofreciendo signos de fatiga para intentar mantener ese complejo equilibrio entre “ingresos” y “efectos” con equidad y universalidad. Los sistemas de información de salud (SIS) podrían aportar respuestas precisas ante alertas conocidas si se hicieran las preguntas adecuadas, se enriquecieran con datos ya disponibles y si se hicieran nuevas aportaciones de mayor calidad para fines definidos. Sin demasiado esfuerzo, con las infraestructuras y herramientas de conocimiento ya disponibles, se podrían identificar, con poco margen de error, tendencias persistentes y los conflictos que surgirán en el corto y medio plazo. Además, se pueden plantear escenarios plausibles para la sostenibilidad del sistema sin alterar sus valores esenciales. Entre otros, hay 5 ”vectores” o causas que alteran la armonía entre “ingresos y efectos” porque su incremento continuado supera la capacidad de financiación y de producción de servicios en las circunstancias actuales. Son: la _“carga de enfermedad”_ de toda la sociedad, la tecnología disponible para diagnosticar y curar, las expectativas de los ciudadanos, la fatiga de los profesionales y el actual modelo productivo. Con el Plan de Recuperación, Transformación y Resiliencia (PRTR) a punto de concluir, se habrá generado una nueva infraestructura digital para el SIS, y habrá evolucionado el marco jurídico en materia de Seguridad y Protección de Datos de Salud, el de IA y también el relacionado con la contratación de servicios de salud (en el que ocurrirá una mayor implosión el “componente digital”). Ejemplo: los contratos para adquirir medicamentos o tecnologías de diagnóstico por imagen o dispositivos para tratamiento continuo de condiciones de personas que llevan implantados dispositivos IoMT, tendrán una configuración cualitativamente diferente: otras métricas, otras reglas, otras verificaciones. Cualquier decisión de salud (clínica, de gestión, de gobierno, de ciencia, etc.) conlleva efectos casi siempre irreversibles y no siempre identificables a corto plazo. En no pocas ocasiones, las consecuencias sólo se detectan en una o varias generaciones posteriores de los seres vivos afectados. La vida real, siempre más compleja que cualquier laboratorio, no obstante, nos faculta para mejorar las condiciones actuales cuando “aún lo podemos hacer” _,_ afrontando retos imprescindibles y, tal vez, factibles. Durante los próximos años, los SIS pueden contribuir decisivamente a la sostenibilidad de nuestro Sistema Nacional de Salud congruente con**sus valores fundamentales. Entre otras, cabe mencionar tres grandes oportunidades, retos o “acciones de mejora continua” que requieren abordaje urgente: construir el Espacio** Nacional de Datos de Salud (ENDS), financiar solidariamente las infraestructuras y servicios de salud e identificar las próximas grandes crisis previsibles. El ENDS, concebido en un sentido amplio, es mucho más que un repositorio para uso secundario de los datos de salud. Implica construir un “tesauro común” donde compartir datos, algoritmos, rastro de transacciones y decisiones, uso de recursos diagnósticos y terapéuticos, accesos, lecturas, hallazgos secundarios, etc. La información estará en formatos muy diversos (texto, imagen, sonido, IoMT, señales de sensores diversos, codificación, etc.), los usos pueden servir a múltiples propósitos declarados, el acceso y la conservación estarán hipersecurizados y los descubrimientos se compartirán en intervalos muy breves. En este ENDS cada ciudadano tendrá plena autonomía y responsabilidad para gobernar su propia información de salud, incluidos accesos, usos realizados y potenciales beneficios directos. Estos tres elementos: gran volumen de información, gran complejidad y análisis en intervalos muy cortos evitarán daño previsible “antes de que sea demasiado tarde” _,_ favorecerán cooperación entre grupos de personas interesados y contribuirán a construir una mejor ciencia basada en evidencias reales. En ese espacio común no habría fronteras artificiales, solo limitaciones para los usos ilegítimos. Esto es posible, aunque no fácil, porque depende del comportamiento de los propios humanos: **optar menos por la diferenciación y más por la cooperación**. > **_El autor de este artículo es Jesús Galván Romo, quien asegura encontrarse en el estado de “impaciente activo” después de haber trabajado como médico durante unos 20 años en actividad asistencial y otros 20 en funciones de gestión dentro de organismos públicos del Sistema Nacional de Salud”. Además, es vicepresidente de laSociedad Española de Informática de la Salud._**
www.cio.com
December 26, 2025 at 6:42 PM
Cuatro recomendaciones para que los CIO salven la brecha de confianza en la IA
Por tercer año consecutivo, el _Thinkers360 AI Trust Index_ ha tomado el pulso a la opinión pública sobre la IA y, una vez más, sus resultados recuerdan a los CIO y CXO que la curva de innovación tecnológica sigue avanzando más rápido que la estructura ética y de gobernanza necesaria para sostenerla. El índice de 2025 ofrece una visión crucial de la paradoja de la IA. La puntuación global del índice de confianza en la IA —que mide el nivel de preocupación en una escala de 100 (sin preocupación) a 400 (extremadamente preocupado)— se sitúa en 307. Esto no supone casi ningún cambio respecto a la puntuación de 2024 (308), lo que indica un estancamiento de la opinión tras el enorme salto en la preocupación, que pasó de 224 en 2023. Por lo tanto, nos encontramos en una rutina de confianza. Un análisis más detallado revela una brecha crítica: los usuarios finales de la IA muestran un mayor nivel de preocupación (312) que los proveedores y profesionales de la IA (301). Los creadores son más optimistas que los beneficiarios. Esta brecha de percepción es la primera señal de alarma para cualquier CIO. Mientras que el 83% de los proveedores coincide en que los beneficios de la IA superan los riesgos, sólo el 65% de los usuarios finales comparte esa opinión. Esta disparidad constituye una auténtica crisis de confianza que las organizaciones deben abordar de forma directa. Además, el 61% de los encuestados cree, en cierta medida o firmemente, en la posibilidad de una singularidad de la IA, en la que las máquinas superen la inteligencia humana y representen una amenaza. Aunque este escenario es terreno habitual de la ciencia ficción, las amenazas inmediatas y tangibles para las empresas —privacidad, responsabilidad y equidad— son las que requieren una atención urgente. A partir del Índice de Confianza en la IA 2025, se derivan cuatro mandatos clave para que CIO y CXO transformen a sus organizaciones, pasando de ser observadores pasivos a líderes activos en la arquitectura de la confianza en la IA. ## 1. Priorizar los atributos de confianza del NIST que generan mayor preocupación Los datos son claros sobre qué inquieta realmente a las personas. Al medir la preocupación en relación con los atributos del Marco de Gestión de Riesgos de IA del NIST, destacan tres áreas: la mejora de la privacidad (63%), la responsabilidad y la transparencia (61%), y la equidad mediante el control de los sesgos perjudiciales (59%). Todas ellas registran niveles elevados en las categorías de “muy preocupante” o “extremadamente preocupante”. Por el contrario, atributos como la explicabilidad y la interpretabilidad (49%), así como la validez y la fiabilidad (53%), generan menor inquietud. Esto sugiere que, en términos generales, la población confía en que la tecnología funcione como se espera, pero duda de cómo se utiliza y se comporta. Para el CIO, esto implica un cambio de enfoque: de métricas puramente funcionales a resultados éticos. Unos pocos puntos porcentuales adicionales de precisión no generan confianza. En el ámbito de la privacidad, la preocupación es especialmente profunda entre los usuarios finales (69%), frente a los proveedores (53%). Esta diferencia exige explicar de forma clara y concreta cómo se protege la privacidad, no sólo en términos generales, sino específicamente en el contexto de las tecnologías de IA. ## 2. Centrarse en el déficit de confianza en los escenarios públicos La confianza en la IA no se distribuye de manera uniforme. El índice revela que las mayores preocupaciones se concentran en los escenarios mediáticos (339) y personales (309). En cambio, la preocupación es menor —y, por tanto, la confianza mayor— en los entornos gubernamentales (291) y laborales (289). Esta situación encierra una paradoja: los empleados suelen sentirse cómodos con la IA que respalda las operaciones internas de la empresa, pero muestran una profunda inquietud ante la IA que influye en su vida pública, en el acceso a la información o en los servicios civiles. Como CIO, es fundamental reconocer que la baja confianza en la IA aplicada en el ámbito público acaba filtrándose en la empresa. Si clientes o empleados perciben un uso poco ético de la IA en los medios —a través de la desinformación o los sesgos— o en escenarios personales, como los delitos cibernéticos, ese escepticismo se trasladará inevitablemente a sistemas empresariales como el CRM o las plataformas de recursos humanos. La recomendación es clara: aprovechar la confianza existente en el entorno laboral. Utilice la empresa como modelo de implementación responsable. Documente y comunique sus políticas internas de uso de la IA con una claridad excepcional y convierta esa transparencia en un factor diferenciador. Muestre a clientes y socios los estándares que aplica a su IA interna y, posteriormente, extrapólelos a sus productos y servicios externos. ## 3. Implantar una gobernanza y una transparencia específicas por sector La confianza varía de forma significativa según el sector, un factor que los CIO deben integrar en sus modelos de gestión del riesgo. Para los responsables tecnológicos de sectores altamente regulados, como el financiero o el sanitario, el mandato no es sólo mantener el nivel actual de rigor, sino elevarlo. El cumplimiento normativo existente debe entenderse como la base, no como el techo. El mercado penalizará duramente la primera infracción grave o incidente de sesgo, erosionando en cuestión de días una confianza construida durante años. ## 4. Cerrar la brecha de percepción mediante la confianza experiencial La conclusión más relevante del índice de 2025 es la persistente diferencia de 11 puntos en el nivel general de preocupación entre proveedores y usuarios finales, así como la brecha de 18 puntos en el optimismo respecto a que los beneficios superan los riesgos. Se trata, ante todo, de un problema de comunicación centrado en las personas, no de una limitación técnica. Es necesario dejar de decir a los usuarios finales que la IA es fiable y empezar a demostrárselo a través de experiencias tangibles. La confianza debe diseñarse desde el inicio, no añadirse como un elemento posterior. El primer paso es implicar al cliente. Implemente programas de cocreación en los que usuarios finales y clientes —y no sólo los responsables de producto— participen en las fases de diseño y prueba de nuevas aplicaciones de IA. Si su base de clientes está preocupada por el sesgo, invítelos a colaborar en la obtención y anotación de datos de entrenamiento para garantizar la equidad. Aunque, por lo general, no se recomiende la creación de nuevos cargos ejecutivos, puede considerarse la figura de un director de Ética en Inteligencia Artificial (CAIEO) o la identificación de un perfil interno adecuado para asumir esa función. El CIO necesita un socio en igualdad de condiciones que se centre exclusivamente en las consecuencias sociales y éticas de la IA. Este rol debe depender directamente de la alta dirección, garantizando que las decisiones éticas tengan el mismo peso que las relacionadas con la seguridad o la infraestructura. ## El mandato de la innovación responsable El Índice de Confianza en la IA de este año confirma que la revolución de la IA ha alcanzado un punto máximo de preocupación entre sus beneficiarios, y que dicha inquietud se concentra en las dimensiones humanas de la tecnología: gobernanza, ética y equidad. Para el CIO, la misión es inequívoca. Ya no es únicamente el custodio de la pila tecnológica de la organización, sino el arquitecto principal de su confianza digital. Al abordar de forma directa las preocupaciones en torno a la privacidad y los sesgos, utilizar el entorno laboral como modelo de transparencia, adaptar la gobernanza al perfil de confianza de su sector y cerrar activamente la brecha de percepción entre usuarios y proveedores, podrá garantizar que su organización innove de manera responsable.
www.cio.com
December 26, 2025 at 6:42 PM
When scaling AI means foundational reform
AI pilot projects are often executed quickly and successfully. But the real challenge is scaling the solution across the entire enterprise, says Mauro Macchi, Accenture’s EMEA CEO. And for AI to contribute genuine added value, a company-wide redesign, including processes, systems, skills, and ways of working, is often necessary. Macchi adds that AI implementation should start with the problem that needs solving, not the technology. Use cases here from London-based beauty startup Noli, Spanish energy company Repsol, and supply chain specialist Kion illustrate the diverse challenges companies can face, whether it’s the data, processes, or regulations. ## Using AI to combat beauty burnout Noli, a personalized beauty platform backed by the L’Oréal Group, uses AI to reinvent the beauty industry with the help of an app to address the growing problem of skin anxiety and beauty burnout. The aim is to end the feeling of being overwhelmed by beauty products. As a result, in the UK alone, such products worth over £1 billion ($1.35 billion) are wasted annually because they don’t deliver desired results. So Noli aims to combat this with a vertical expert AI deeply rooted in beauty science, and based on a robust, multi-layered architecture that encompasses scientific research and multimodal consumer signals, including one million anonymized facial scan data points. The biggest challenge for Noli wasn’t the AI but the data. Beauty data is so fragmented, with scientific research data, formulation information, insights from facial scans, user behavior, and sensory attributes all coming in different formats from various sources. This complex mix needed to be transformed into something structured, trustworthy, and scalable. So the proprietary Beauty Knowledge Graph was developed, which structures raw data, validates outputs to prevent hallucinations, and matches products to the right needs in real time. The name Noli, “No one like I,” is also the mission statement. Users can determine their personal beauty DNA profile by answering a questionnaire, undergoing an expert facial scan, or contacting Noli directly. The company then creates personalized recommendations for trusted, scientifically sound beauty brands. To achieve this, Noli uses continuous learning loops as every match, review, purchase, or return improves the system. The conversion rate seems to confirm the success of this approach. According to Noli CEO and co-founder Amos Susskind, website visitors are nearly four times more likely to make a purchase, and also buy more than usual. And the number of repeat customers has doubled in five months. ## A multi-energy approach to AI Repsol’s approach to AI is quite different. The gen AI journey for the multi-energy multinational, with over 25,000 employees, began as part of a broader digital transformation initiated in 2018. The strategy comprises three main areas: personal productivity, improving current processes, and Gold Mine, considered key to redesign and reinvent projects and processes. To achieve everything laid out, the company uses multi-agent systems designed to solve complex processes or workflows by enabling specialized agents to collaborate. Agents require skills such as knowledge, planning, reasoning, coordination, and execution, all supported by a shared short- and long-term memory. The system also operates via an orchestrator that receives requests. It identifies the appropriate planner, who in turn defines the plan and selects suitable, highly specialized agents from a catalog. The system is currently operational and comprises 34 agents, with whom over 100 employees collaborate in a hybrid work environment. Besides data quality, Repsol CIO Juanma García faced the key challenge of recognizing that AI is not a standard technology. Company executives had to learn that AI initiatives can fail if they’re implemented haphazardly, and their experience considered cognitive infrastructure. Another ongoing priority is change management and helping users adapt to a new way of working, driven by AI. In order to be more effective and avoid problems, Repsol also defines agents with limited scope for specialized tasks instead of creating large agents that cover too much. Repsol’s advice for other companies trying to get value from AI investments is to define a clear strategy. While increasing personal productivity, like through Copilot, is difficult to demonstrate in a profit and loss statement, completely redesigning processes is key to achieving significant added value. ## Using physical AI to create new supply chains As a provider of supply chain solutions, Kion aims to bring physical AI to the warehousing and distribution market. Given the significant pressure on global supply chains due to geopolitical tensions and disruptions, Kion is forced to rethink its approach to warehouse automation. The goal is to make them more real-time capable and resilient, replacing rigid structures with flexible, adaptable, and intelligent solutions. Kion has Mega, an Omniverse blueprint from Nvidia, for this purpose, enabling large-scale development, testing, and optimization of physical AI and robot fleets using a digital twin. To quickly transfer physical locations into the digital system, Kion uses a scanner that captures a distribution or fulfillment center, and feeds the data into the Nvidia Omniverse. Subsequently, replicas of all AMRs, AGVs, and bots are integrated into the digital system. The digital twin then allows Kion to simulate an unlimited number of scenarios and measure operational KPIs, such as throughput and utilization, before making changes to the physical warehouse. From there, the digital twin can instruct the physical twin on optimal steps to take. While Kion CEO Rob Smith sees the company as technologically well-positioned, the regulatory environment in the EU is a headache as he feels it stifles innovation. This, he says, is one reason why the pace of AI adoption is significantly faster in North America and China, so he advocates allowing innovation first and regulating it later, rather than the other way around.
www.cio.com
December 26, 2025 at 6:42 PM
사전 대응이 핵심···2026년 공격 표면 관리의 핵심 키워드 5가지
기업에서 사이버 공격 표면은 지난 수년간 범위와 복잡성 모두가 확장돼 왔다. 이 확산 추세는 좀처럼 둔화될 기미를 보이지 않는다. 이 같은 흐름은 다음과 같은 요인에서 비롯된다. * 사물인터넷(IoT)의 확산으로 네트워크에 연결되는 디바이스 수가 크게 늘어났다. * API와 상호 연결된 마이크로서비스 사용이 증가했다. * 원격 근무 전환으로 가정 내 디바이스와 네트워크까지 보안 범위에 포함해야 하는 상황이 됐다. * 통제가 어려운 섀도우 IT가 빠르게 확대되고 있다. * 분산형 인프라 관리와 클라우드 서비스로의 이동이 가속화되면서 전체 IT 생태계가 더욱 복잡하고 불투명해졌다. 클라우드 보안 연합(CSA)에 따르면 현재 기업의 82%가 하이브리드 환경을 사용 중인 것으로 나타났다. 이 가운데 약 3분의 2가 두 곳 이상의 클라우드 업체와 협력하고 있어 공격 표면 관리의 복잡성은 한층 더 커지고 있다. AI의 대중화는 이러한 상황을 더욱 악화시켰다. AI 어시스턴트와 에이전트는 사이버 범죄자에게 새로운 공격 기회를 제공하고 있으며, 공격자는 AI 도구를 활용해 공격 규모를 빠르게 확장하고 있다. CSA 조사에 참여한 기업의 절반 이상이 이미 AI를 사용하고 있으며, 이 가운데 약 3분의 1은 AI와 관련된 보안 침해를 경험한 것으로 나타났다. 공격 표면이 빠르게 확대되고 사이버 사고가 사실상 끝없이 증가하는 상황은 완전히 새로운 공격 표면 관리(ASM)가 필요하다는 의미이기도 하다. 클러치(Clutch)의 설문조사에 따르면 전체 기업의 73%가 사이버 사고를 경험했으며, 이 중 55%는 최근 1년 새 사고를 겪은 것으로 나타났다. 이제 부분적인 개선이나 미세 조정만으로는 충분하지 않다. 2026년을 ASM은 다음과 같은 방향으로 전환될 것으로 전망된다. * 보안 액세스 서비스 엣지(SASE) 솔루션을 중심으로 클라우드 관리가 중앙화된다. * 사후 대응 중심의 접근 방식에서 벗어나 사전적 리스크 관리로 전환된다. * 제로 트러스트는 선택 사항이 아닌 필수 전제 조건으로 자리 잡는다. * 지능형 에이전트 기반 AI 도구가 ASM의 핵심 요소로 부상한다. * 서드파티 및 공급망 리스크에 대한 집중 관리가 필요해진다. ## 1. 클라우드 관리 중앙화 지금까지 클라우드 자산이 전혀 관리되지 않은 것은 아니다. 다만 관리 방식은 분산되고 일관성이 부족했던 것이 사실이다. 점점 더 많은 민감 데이터와 핵심 업무가 클라우드로 이전되면서 보안의 중요성은 갈수록 커지고 있다. 클라우드 보호는 이제 그 어느 때보다 중요한 과제가 됐다. 여기에 원격 및 하이브리드 근무 확산이라는 변화도 더해졌다. 직원이 개인 소유 디바이스(BYOD)를 사용해 보안이 취약하거나 충분히 보호되지 않은 네트워크에서 클라우드 시스템에 접속하는 사례가 늘면서, 한층 강력한 클라우드 방어 체계가 요구되고 있다. 이에 따라 SD-WAN 네트워킹, 서비스형 방화벽(FWaaS), 보안 웹 게이트웨이(SWG), 클라우드 데이터에 대한 가시성과 통제를 제공하는 클라우드 접근 보안 중개(CASB), 강력한 데이터 유출 방지 전략 등의 도입이 필요해지고 있다. 이는 아이덴티티 및 접근 관리, 제로 트러스트, 엔터프라이즈 정책 집행과 같은 기존 보안 체계와 함께 도입돼야 한다. 이처럼 고려해야 할 요소가 늘어나면서, 다양한 보안 기능을 통합한 솔루션이 빠르게 채택될 것으로 전망된다. 최신 보안 접속 서비스 엣지(SASE) 기술은 여러 방어 방식을 하나의 환경으로 자연스럽게 통합해 복잡성을 줄이고 민첩성을 높인다. 모든 보안 요소를 중앙 집중식으로 관리할 수 있다는 점은 큰 강점이며, 이러한 흐름은 2026년 SASE가 클라우드 보안 관리의 주류로 자리 잡는 배경이 될 것으로 보인다. ## 2. 사전적 리스크 관리 2026년을 앞둔 시점에서 사이버 위협은 수와 위험성, 그리고 전개 속도 모두에서 기존의 사후 대응 방식으로는 효과를 기대하기 어려운 수준에 이르렀다. 모든 취약점을 완전히 차단하고 전체 공격 표면을 강화하기란 현실적으로 불가능하다. 특히 공급망이 확장될수록 새로운 취약점은 끊임없이 등장하고 있다. 이런 환경에서는 사전적 리스크 관리만이 실질적인 해결책일 수 있다. 2026년에 주목할 사전 대응 ASM의 트렌드는 다음과 같다. * **자동화되고 지속적으로 적응해 나가는 자산 인벤토리를 구축한다.** 기업은 내외부 환경 전반을 상시적으로 스캔해 새로운 자산을 식별하고, 그 범위와 취약점을 체계적으로 파악하는 솔루션을 도입할 가능성이 높다. * **공격 표면 전반을 이해하는 경영진의 역할도 중요해진다.** AI 도구를 포함해 모든 공격 표면을 지속적으로 모니터링하고 평가할 필요성을 인식한 리더에 대한 선호도가 높아질 것으로 보인다. * **실시간 위협 인텔리전스의 통합이 중요하다.** 실시간 위협 정보가 ASM 전 과정에 결합되면서, 의사결정이 공격자보다 뒤처지지 않고 한발 앞서 이뤄질 수 있도록 보장한다. * **자동적이고 즉각적인 위협 순위 지정이 보편화된다.** 취약점 관리 체계는 공격 가능성, 중요도, 비즈니스 운영에 미치는 영향을 기준으로 리스크를 평가하고 가장 심각한 위협부터 우선적으로 처리해, 중대한 취약점이 간과되는 상황을 줄인다. ## 3. 제로 트러스트의 의미가 새롭게 정의된다 피싱 공격은 멈추지 않고 진화하고 있다. 2025년에는 기존보다 훨씬 정교한 피싱과 비싱(video-phishing), QR 피싱 등 다양한 사회공학 공격이 등장했다. 공격 기법은 갈수록 교묘해지고 있다. 여전히 사이버 리스크의 핵심 요소는 사람이며, 실제로 QR 피싱 공격 사례의 63%는 민감한 데이터에 접근 권한을 가진 직원이 공격의 출발점이 된 것으로 나타났다. 이제 AI 기반 딥페이크 기술이 크게 발전하면서 음성이나 영상 통화조차 신뢰하기 어려운 상황이 됐다. 한 기업에서는 CEO를 사칭한 전화에 속아 대규모 결제를 승인한 사건도 발생했다. 해당 음성은 모두 AI로 생성된 것이었다. 2025년 카디프대학교 연구에 따르면 딥페이크 음성은 음성 인식 시스템을 95~97% 정확도로 속일 수 있으며, 익숙한 목소리의 실제 음성과 가짜 음성을 구분할 수 있는 사람은 17.5%에 불과한 것으로 나타났다. 이런 유형의 공격을 기술적으로 완전히 차단하는 방법은 사실상 없다. 결국 가장 현실적인 방어 수단은 일관되고 반복적인 직원 교육이다. 실제 업무 흐름 속에서 행동 변화를 유도하도록 설계된 피싱 시뮬레이션 훈련이 크게 늘어날 것으로 예상되며, 맥락 자체가 진위 여부를 판단하는 핵심 단서로 작용할 전망이다. 이와 함께 기업은 모든 사람과 기기를 대상으로 제로 트러스트 원칙을 적용하고, 접근 통제를 엄격하게 설정하며, 다단계 인증(MFA)을 기본값으로 운영할 가능성이 높다. 일정 금액 이상의 결제에 대해서는 내부 코드 단어 사용과 2인 검증 절차를 적용하는 방식이 표준으로 자리 잡을 수도 있다. ## 4. 핵심 주체가 될 AI 오랜 기간 사이버 보안 솔루션에 AI를 통합하는 것이 과연 바람직한지에 대한 논쟁이 이어져 왔다. 그러나 여러 사례를 통해 AI가 ASM에서 문제의 일부이면서도 동시에 해결책의 핵심 요소라는 점이 분명해졌다. 따라서 2026년에는 ASM에서 AI 활용이 기본 요소가 될 전망이다. 이는 단순히 스캔을 자동화하거나 의심스러운 이메일과 잠재적 피싱 시도를 감지해 경고를 발생시키는 수준을 넘어선다. 앞으로는 지능형 에이전틱 AI가 위협을 식별하고, 사람보다 훨씬 빠른 속도로 자율적으로 대응하며 취약점을 해결하는 역할을 수행하게 된다. 예를 들어 여러 전문 AI 에이전트가 협력해 위협을 탐지하고, 해당 위협이 초래할 수 있는 리스크 수준을 분석한 뒤, 관련 취약점을 실시간으로 수정하는 방식이 가능해진다. 또 다른 시나리오에서는 다수의 AI 에이전트가 사용자 행동을 모니터링하고 위협 인텔리전스를 공유하며, 새롭게 등장하는 위협을 동적으로 인식하고 대응할 수 있다. 이를 통해 아직 명확히 정의되지 않은 위험 요소까지 포착하며 공격자보다 한 발 앞선 방어 체계를 구축할 수 있을 것으로 전망된다. ## 5. 비즈니스 경계를 넘어 확장되는 리스크 서드파티 및 공급망 리스크는 새로운 이슈가 아니지만, 2026년에는 그 중요성이 본격적으로 부각될 전망이다. 오늘날 기업은 애플리케이션, 숏코드, API, 소프트웨어 등으로 구성된 긴 디지털 공급망에 의존해 핵심 디지털 서비스를 제공하고 있다. 이 과정에는 챗봇, 배송 추적 시스템, 결제 게이트웨이, 데이터베이스 조회 등을 제공하는 수많은 파트너가 포함돼 있으며, 공급망 구조도 갈수록 불투명해지고 있다. 이런 구조에서 공격자는 하나의 취약점을 통해 공급망에 접근하고, 목표 조직으로 측면 이동할 수 있다. 특히 디지털 파트너가 중소 규모 기업인 경우가 많아, 데이터 마스킹과 같은 보호 기법을 적용할 자원이 부족하다는 점이 우려될 수 있다. 이는 파트너 기업뿐 아니라 그들이 처리하는 사용자 데이터 전반에 대한 리스크로 이어진다. 이러한 배경에서 2026년에는 기업 내부에 국한되지 않고 전체 공급망을 아우르는 공격 표면 매핑이 확산될 것으로 보인다. 서드파티, 포스파티, 나아가 n차 파트너까지 포함하는 리스크 평가 솔루션이 기존 접근 방식보다 경쟁력을 확보하며, 변화하는 위협 환경을 지속적으로 반영하는 동적 서드파티 평가 솔루션을 도입하는 기업도 늘어날 것으로 전망된다. ## ASM의 중대한 전환점이 될 2026년 공격 표면이 계속 확대되는 가운데 공격 방식 자체도 더욱 빠르고 지능적으로 진화하면서, ASM은 공격자를 단순히 따라가는 수준을 넘어 미리 사고하고 대응해야 하는 단계에 이르렀다. 2026년은 ASM이 기존의 경직된 틀에서 벗어나 민첩하고, 사전적이며, 지능적이고, 장기적인 시야를 갖춘 체계로 진화하는 해가 될 것이다. [email protected]
www.cio.com
December 26, 2025 at 6:42 PM
HS효성인포메이션시스템 기고 | 공격은 상수, 복구는 변수···랜섬웨어 시대의 사이버 복원력 가이드
## 랜섬웨어 피해 현황과 점점 심각해지는 이유 공격자는 피싱 메일과 악성 매크로 같은 전통적 기법부터, 취약한 원격 접속과 미패치 소프트웨어, 공급망 프로그램의 업데이트 채널, 노출된 API 키와 도난 계정 등 가능한 모든 진입 경로를 동원한다. 과거에는 파일을 암호화하고 복호화 키를 대가로 금전을 요구하는 단일한 갈취 방식이 일반적이었지만, 지금은 암호화에 더해 데이터 유출을 빌미로 한 공개 협박과 DDoS를 결합해 압박 수위를 높이는 이중·삼중 갈취 모델이 확산되었다. 침투 이후의 활동 속도도 과거와 비교할 수 없을 만큼 빨라졌다. 공격자는 관리자 권한을 탈취하자마자 로그를 삭제하거나 조작해 흔적을 지우고, 가장 먼저 백업 저장소와 스냅샷을 겨냥해 삭제·암호화·폐기를 시도한다. 이 때문에 기업은 사고 발생 사실을 인지했을 때 이미 복구 수단의 일부가 무력화된 상태를 마주하는 경우가 많다. 피해는 단순한 IT 비용을 넘어 전사적 손실로 이어진다. 서비스 중단은 매출과 계약 이행률을 떨어뜨리고, 고객과 파트너의 신뢰를 단기간에 훼손한다. 규제 대상 데이터가 외부에 유출되면 조사, 통지, 벌금, 집단 소송, 인증 취소 같은 파급 효과가 뒤따른다. 전 세계 피해액은 이미 수십조 원에 이르고, 해마다 약 30%씩 늘어나는 흐름이 이어지고 있다. 우리나라 상황도 크게 다르지 않은데, 실제로 사이버 공격을 당한 중소기업의 약 60%가 6개월 이내 폐업한다는 조사 결과가 있으며, 2020년부터 지금까지 상급병원, 종합병원, 의원 등을 포함해 약 74건의 랜섬웨어 공격이 일어난 것으로 파악되고 있다. Cybersecurity Ventures 무엇보다 랜섬웨어의 특성은 반복성에 있다. 한 차례 복구에 성공하더라도 침투 경로가 그대로 남아 있거나 휴면 상태의 악성 요소가 숨어 있으면 재감염 위험이 상존한다. 이러한 맥락에서 ‘백업만 있으면 된다’는 인식은 더 이상 유효하지 않다. 보안과 백업은 각자 따로 존재하는 기능이 아니라, 침해를 가정한 상태에서 탐지와 격리, 무결성 검증과 복구까지 한 흐름으로 이어지는 생존 전략의 구성 요소가 되어야 한다. 결국 조직이 스스로에게 던져야 할 질문은 ‘사고를 막을 수 있는가’가 아니라 ‘사고가 발생했을 때 얼마나 빨리, 얼마나 안전하게 사업을 정상화할 수 있는가’, 즉 사이버 복원력(Cyber Resilience)을 어떻게 확보할 수 있는가에 있다고 할 것이다. ## 막을 수 없다면? 더 빨리 탐지하고 더 빠르게 복구 대응의 출발점은 전제의 전환이다. 침해를 완전히 차단하겠다는 목표는 중요하지만, 현실적으로 100% 방어는 불가능하다는 사실을 인정해야 한다. 따라서 **전략의** 중심은 빠른 탐지와 통제, 그리고 검증된 복구를 통한 업무 연속성 확보에 놓인다. 기술적으로는 탐지, 보호, 복구의 세 축이 긴밀하게 결합되어야 한다. 탐지 단계에서는 파일 암호화 속도의 비정상 급증, 대량 삭제와 무작위 바이트 패턴, 권한 상승과 인증 실패 급증, 백업 저장소 접근 패턴의 변화 같은 복합 신호를 조기에 잡아내야 한다. 이때 단순 시그니처 기반 탐지에만 의존하면 변종과 맞춤형 공격을 놓칠 수 있으므로, 행위 기반과 콘텐츠 기반의 신호를 결합하는 접근이 요구된다. 보호 단계에서 핵심은 백업과 스냅샷 자체를 공격으로부터 분리하고 불변(Immutable) 상태로 지키는 것이다. 운영 스토리지의 스냅샷은 읽기 전용·변경불가 속성을 기본값으로 설정하고, 보존 기간과 삭제 권한을 운영 계정과 분리된 정책으로 관리해야 한다. 오브젝트 스토리지에는 WORM(Write Once Read Many)을 적용해 한 번 기록된 데이터를 임의로 변경하거나 삭제할 수 없도록 하고, 규정 준수 목적의 보존 기간을 엄격하게 강제한다. 이러한 격리와 불변성은 공격자가 선백업 제거 전략을 사용하더라도 복구 수단의 최후 보루를 지킬 수 있다. 복구 단계에서는 무엇보다 ‘어디까지 오염이 진행되었고, 어디로 돌아가야 안전한가’를 신속하고 신뢰성 있게 판단하는 능력이 결정적이다. 단순히 가장 오래된 스냅샷으로 돌아가면 데이터 손실이 과도해지고, 너무 최근 시점을 선택하면 오염을 끌어올 위험이 증가한다. 따라서 오염 시점과 범위를 근거로 가장 가까운 클린 시점을 찾아내는 절차가 필요하다. ## 무엇보다도 AI 기반 탐지가 중요하다 명확한 피해 원인과 현황을 파악하고 신속히 복구하려면, 결론적으로 탐지의 선진화가 핵심이다. 최근 각광받고 있는 AI 기반 탐지는 기존 도구가 놓치기 쉬운 미세한 변화나 변종 공격의 징후를 포착하도록 설계되었다. 특히 사이버센스(CyberSense)와 같은 콘텐츠 지능형 방식은 파일 확장자나 암호화 비율 같은 표면적 단서를 넘어, 스냅샷의 메타데이터와 실제 콘텐츠를 함께 색인하고 통계적·행위적 특징을 결합해 이상 여부를 판단한다. 예컨대 동일 파일군에서 단기간에 압축률·엔트로피가 비정상적으로 상승하거나, 파일 헤더의 규칙성이 붕괴하고, 소용량 조각 파일이 대량 생성되며, 삭제 후 즉시 재생성이 반복되는 패턴은 대표적 신호다. 여기에 사용자·프로세스·호스트 단위의 접근 패턴 변화까지 통합해 다차원 점수로 평가하고, 이 점수가 임계치를 넘으면 경보와 함께 오염 시작 지점과 영향 범위에 대한 추정을 제시한다. 이런 절차를 통해 탐지는 단순 경고를 넘어서 복구 의사결정에 필요한 근거를 동시에 제공하게 된다. 이 접근이 복구 단계에서 주는 가장 큰 가치는 ‘클린 스냅샷(Clean Snapshot)의 자동 식별’이다. 수많은 스냅샷 중에서 무엇을 선택해야 데이터 손실을 최소화하면서도 오염을 들여오지 않을 수 있는지, 사람이 수작업으로 판단하기는 현실적으로 어렵다. 콘텐츠 분석 기반의 엔진은 스냅샷 간 변화를 연속적으로 비교해 오염의 시작 지점과 이후 전파 양상을 시각화하고, 오염 직전 시점으로 되돌릴 것을 제안한다. 관리자는 직관과 추측이 아니라 데이터에 근거한 제안을 가지고 승인 결정을 내릴 수 있으며, 복구 후에는 동일 엔진으로 무결성 재검증을 수행해 재감염 위험을 추가로 낮춘다. 이처럼 탐지와 검증, 복구 의사결정이 한 흐름으로 연결될 때, 평균 탐지 시간과 복구 시간이 모두 단축되고, 불필요한 전체 롤백이나 과도한 데이터 손실을 피할 수 있다. ## 사이버 복원력의 완성은 재해복구 조금 더 나아가면 사이버 복원력은 랜섬웨어 위협에서 데이터를 복구하는 것만을 의미하지 않는다. 어떠한 상황에서도 시스템과 데이터를 복원할 수 있는 지속 가능한 복원 체계가 되어야 한다. 최근에는 배터리 화재, 침수, 갑작스러운 정전 등으로 인해 데이터센터의 가용성이 중단되는 사례가 빈번하게 발생하고 있다. 만약 랜섬웨어에 노출된 동시에 데이터센터에 화재가 발생한다면, 그 피해는 상상하기도 어렵다. 따라서 앞서 언급한 랜섬웨어 대응 체계는 주센터뿐 아니라 재해복구센터에도 동일하게 구축해야 한다. 즉, 데이터를 재해복구센터와 실시간으로 동기화하고, 백업센터에서도 클린 스냅샷을 동일하게 운영해야 한다. 이러한 구조를 통해서만 진정한 의미의 사이버 복원력을 완성할 수 있다. [email protected] _*본 기사는 CIO코리아가 발간한2026 IT 전망보고서(링크)에서도 확인할 수 있습니다._
www.cio.com
December 26, 2025 at 6:42 PM
The DXC program empowering neurodivergent IT pros
The tech industry stands to gain significant value by tapping into neurodivergent talent. Such professionals can offer fresh perspectives, demonstrate strengths in areas critical to IT, and even have the potential to make teams 30% more productive, according to research from Deloitte. To harness these strengths, employers often need to make changes to hiring processes, onboarding procedures, and how teams are managed to better accommodate and retain neurodivergent workers. IT and tech professionals who identify as neurodivergent often express challenges around sensory overload, uncertainty disclosing a diagnosis, navigating unstructured social and professional interactions. In 2014, global IT services company DXC set out to create a professional development program for autistic professionals, identifying qualified candidates who could benefit from additional training as they embark on IT and tech careers. The result was the DXC Dandelion program, which has grown over the past decade to encompass all neurodivergent professionals such as those with ADHD, dyslexia, and autism. “The idea was to find people in that sweet spot who have a lot of value to add, but who, without some extra help and support, would be unlikely to get past first career hurdles,” says Natasha Copley, DXC’s chief of staff for APMEA. ## Fostering diversity of thought for business gains While the DXC Dandelion program aims to train neurodivergent professionals, one hallmark is focus isn’t solely on neurodivergent individuals. DXC also recognizes the importance of training managers and employers on how to best accommodate neurodivergent workers. There are often small changes that can be made to environments or processes that can have a big impact on neurodivergent workers. And in some cases, neurotypical employees may find they benefit from or enjoy certain accommodations brought on by neurodivergent employees. “One of the things we like about the program is it shifts the thinking for the whole organization,” says Copley. “It’s truly an inclusive program, and it educates everybody that inclusion is good. And when you tap into people with a different skill set, it can have great benefits for the team in ways you wouldn’t otherwise have imagined. There are residual benefits that come from having a program like this.” For employers, the program not only brings diversity of thought but it can help build loyalty and retention with neurodivergent workers if they make the necessary internal changes. And while it might sound daunting for organizations that want to start accommodating and retaining neurodivergent workers, there’s a lot to gain for companies that embrace the transformation. Data from the DXC Dandelion program shows there’s a 92% employment retention rate for companies that hire from the program, an up to 40% increase in overall productivity on teams that participate in the program, and 75% job satisfaction reported by neurodivergent employees who go through the program. Copley says program participants also know it’s a learning curve for managers and employers, and that they’re often very self-aware about strengths and areas where they may have deficits. “A lot of the people we have joining the program recognize the efforts of managers to make things easier,” she says. Plus, expert consultants work closely with management, building a relationship to guide them through the training they’ll need to work effectively with neurodivergent employees. The consultant works as a point of contact for the employer and the employee, giving them a place to check in on areas that might need better communication or skills development, or where the employer may have to make changes or accommodations for the employee. For managers and employers who go through training, Copley says what they often find is it’s not as burdensome as they imagined it’d be. “One of the really great things about people with autism is they’re direct,” says Copley. ## Empowering through accommodation Candidates are first assessed to identify what they want to gain from the program, and where they’ll need to build skills and gain more expertise to thrive in the industry. The assessment for candidates of the program isn’t set up like a typical interview either. Early in the program, Copley says they found that having to sit across the desk from another person and answer questions is a big limitation to enabling people to be successful. The process was quickly changed to increase the likelihood that assessors will uncover the real potential of somebody, rather than their capacity to perform in an interview. Jacob Forster, a participant of the DXC Dandelion program’s mainframe group, says the interview was more like a week-long workshop, which helped reduce the stress and anxiety of the process. In fact, the interview process was so relaxed that at points he says he forgot he was technically interviewing for the position. “I just enjoyed the time we worked through the workshop,” he says. Once accepted into the program, participants are entered into a fixed term contract from 12 to 24 months, depending on their needs. Once that contract period is up, people typically have a job opportunity from the company they’ve worked for, a job opportunity from DXC, or an offer from another outside company. Forster says he felt he was given support he wouldn’t have received from a non-neurodiversity-based program, with regular access to resources to make the process less overwhelming. He says it’s particularly helpful to have a contact point to check in on him and help with anything while working in his new role. Additionally, he appreciated having a mentor who could offer insight into office dynamics, meeting structures, and other subtle unspoken rules of the office. Another participant, Michael Hollows, says he found the DXC Dandelion program after his wife saw a Facebook ad. He knew he wanted a job in IT, so he joined to gain more experience in the field. The program fit into his life like any other job, but he says that through the program, he was able to gain better self-awareness, and the security knowing someone neurodivergent like himself has a career path in tech. “The Dandelion Program has allowed me to enter the IT workforce based on the merit of my raw skills, rather than about how well I can sell myself in a job interview setting,” he says. ## Expanding diversity of thought globally When the program started in 2014, there weren’t many conversations about neurodivergence in the tech industry. DXC providing a resource for autistic individuals to gain training and skill development at the time was something of a novelty in hiring. But awareness around neurodivergence and diversity in general has become more common, and with that the Dandelion program has also grown. Copley says the focus moving forward is looking at how they can retain the core elements of the program while also make it more accessible to customers, as more organizations seek to embrace diversity of thought and talent development. Companies that reach out to DXC to source talent for projects are also given the option to include participants from the Dandelion program, incorporating a DEI element into hiring. This can be especially appealing to companies that might not currently have the time or money to invest in a proprietary DEI program for neurodivergence, so they can source talent to meet skills gaps, hire neurodivergent talent, and receive resources for training and upskilling managers. “It’s about building a talent pool in the IT industry with people who are good at it, and who have demonstrable productivity increases, but who would otherwise be overlooked,” says Copley.
www.cio.com
December 25, 2025 at 12:46 PM
異常検知は「アラートを鳴らす」より「原因を絞る」――運用で効くデータサイエンス入門
### 異常の定義を決める――点の異常、文脈の異常、集団の異常 異常検知を始める前に最初にやるべきことは、「異常とは何か」を決めることです。これは技術ではなく、業務上の合意です。例えば売上が前日比で大きく落ちたら異常なのか、週次の季節性の範囲なら正常なのか。KPIが下がることだけが異常なのか、急上昇も異常なのか。どれくらいの変化幅から対応が必要なのか。ここを曖昧にすると、精度の議論が空回りします。 異常は大きく三つに分けて考えると整理しやすいです。ひとつ目は点の異常です。単発のスパイクや急落など、単一時点の値が明らかにおかしいケースです。二つ目は文脈の異常です。同じ値でも、時間帯や曜日によって意味が変わるケースです。たとえば深夜のアクセス数が多いのは異常かもしれませんが、昼間に多いのは正常かもしれません。三つ目は集団の異常です。全体のKPIは正常でも、特定地域や特定デバイスだけが急に悪化しているケースです。プロダクトの障害や計測の問題は、全体では薄まって見え、集団の異常として現れることが多いです。 さらに、異常の目的も分ける必要があります。ビジネスKPIの異常は「売上が落ちた理由を突き止める」ことが目的になりやすい一方で、システム系の異常は「障害を早く検知して復旧する」ことが目的です。同じ“異常検知”でも、許容できる誤検知と見逃しのバランスが違います。売上の監視で誤検知が多いと現場が疲弊しますし、障害監視で見逃しがあると致命的です。異常検知は、精度の前に目的を分けることが成功の第一歩です。 ### 手法の選び方――統計的しきい値、予測残差、機械学習 異常検知の手法は、大きく三系統で考えるとわかりやすいです。まずは統計的なしきい値です。移動平均からの乖離、過去平均との差の標準化、分位点による範囲設定などがこれに当たります。利点は、速くて説明しやすいことです。「過去30日平均との差がこれだけ大きいから異常」と言えると、現場は納得しやすいです。欠点は、トレンドや季節性が強い指標では誤検知が増えることです。曜日で大きく揺れる指標を単純なしきい値で監視すると、週末のたびにアラートが鳴るような状態になります。 次に、予測残差を使う方法があります。時系列予測モデルで「本来の値」を予測し、実測との差が大きいときに異常と見なします。この方法は、季節性やトレンドをモデルが吸収するので、単純なしきい値より誤検知を減らしやすいです。一方で、予測が外れる原因が“異常”なのか“モデルの限界”なのかが混ざることがあります。大型キャンペーンや外部ショックで全体が動くと、残差が大きくなり、異常扱いが増えるかもしれません。ここでは、イベント情報を別途入れる、異常種別を分ける、予測区間で判断するなど、運用を前提にした工夫が必要です。 三つ目は機械学習的な異常検知です。Isolation Forestのように“孤立しやすい点”を異常とする方法や、オートエンコーダのように“再構成できない点”を異常とする方法などがあります。これらは多変量の特徴量を扱いやすく、複雑なパターンの異常に対応できる可能性があります。ただし、説明が難しくなりやすく、導入には注意が必要です。異常検知は、現場が原因探索に動けることが重要なので、「なぜ異常なのか」をある程度説明できる設計が求められます。機械学習モデルを使うなら、どの特徴量が異常スコアに寄与したかを示す、異常の近傍例を出す、異常のタイプごとにルールを分けるといった、説明の補助線が必要になります。 ここで重要なのは、最初から高度なモデルを使うことが正解ではないという点です。異常検知の失敗の多くは、精度ではなく、通知の設計と対応フローの欠如にあります。説明しやすい手法で小さく始め、運用の負荷と見逃しのリスクを見ながら、必要なところだけモデルを強くしていく方が、結果的に成功しやすいです。 ### アラート疲れを防ぐ――閾値調整、優先度付け、原因探索の導線 異常検知を現場で機能させる最大の敵は、アラート疲れです。アラートが多すぎると、人は見なくなります。すると本当に重要な異常も見逃します。だから異常検知では、検知精度より先に、通知を減らし、重要度を分け、対応を速くする設計が必要です。 まず、異常の優先度を決めます。売上や決済など致命度が高い指標は、多少の誤検知があっても即通知すべきかもしれません。一方、軽微な指標は、即通知ではなく日次のサマリーで十分かもしれません。次に、抑制条件を設けます。例えば「同じ種類のアラートは一定時間内に再通知しない」「全体が正常で特定セグメントだけ悪化した場合は別扱いする」「データが未確定の時間帯は通知しない」など、現場の運用に合わせた抑制は、実用性を大きく上げます。 さらに重要なのが、アラートが鳴った後の導線です。通知だけ送られても、人は次に何を見ればいいかわかりません。異常が起きたら、関連指標を同時に表示し、分解軸を用意することが有効です。例えば売上の異常なら、流入、CVR、客単価、決済成功率など、売上を構成する要素を同時に見られると原因が絞りやすくなります。さらに地域、デバイス、バージョン、流入元など、よくある故障点で切ったビューがあると復旧が速くなります。異常検知は、検知と原因探索が分断されると現場で使われません。検知の仕組みと、原因探索の仕組みを一体で設計することが、成功する異常検知の共通点です。 最後に、異常検知を育てる仕組みも必要です。アラートが真の異常だったか、誤検知だったか、対応は必要だったかを記録できると、しきい値調整やモデル改善が進みます。異常検知は一度作って終わりではなく、運用しながら“現場にとってちょうどいい感度”に合わせ込むことで価値が出ます。通知の量を適正にし、優先度を付け、原因探索を速くする。この三つが揃うと、異常検知は単なるアラート装置ではなく、プロダクトとビジネスを守る意思決定のインフラになります。
www.cio.com
December 25, 2025 at 12:46 PM
4 modi in cui il ruolo del CIO si espanderà nel 2026
Il ruolo del CIO sta subendo la sua trasformazione più drammatica degli ultimi anni. I leader tecnologici precedentemente focalizzati sulla trasformazione digitale e sulla migrazione al cloud si vedono ora affidare la responsabilità della sostenibilità aziendale, della governance dell’AI e del consolidamento strategico delle piattaforme. Questo spostamento riflette una realtà più ampia: l’intelligenza artificiale non è solo un’altra tecnologia da distribuire. L’anno prossimo, essa inizierà a cambiare fondamentalmente ciò che le imprese si aspettano dai propri leader tecnologici. Ecco quattro previsioni su come il ruolo del CIO si evolverà nel 2026. ## Ogni CIO avrà un mandato per l’”IA responsabile” Esattamente come è avvenuto con la sicurezza e con la conformità, che sono diventati pilastri non negoziabili della leadership tecnologica, le pratiche di AI responsabile passeranno da opzionali a essenziali e ai CIO non verrà solo chiesto come stanno adottando l’intelligenza artificiale, ma saranno anche ritenuti responsabili di garantire che i modelli siano trasparenti, comprensibili e privi di pregiudizi dannosi. I **framework per la governance [in inglese]** che soddisfano, allo stesso modo, autorità di regolamentazione, consigli di amministrazione e clienti diventeranno un imperativo strategico, non solo legale. Dovranno, inoltre, coprire l’intero ciclo di vita dell’AI – dal reperimento dei dati, all’addestramento del modello, fino alla distribuzione e al monitoraggio continuo – con chiare linee di proprietà, audit regolari e valutazioni del rischio documentate. Questo mandato estenderà il ruolo del CIO oltre la distribuzione tecnologica verso l’etica, la fiducia e la gestione del rischio, rendendo l’intelligenza artificiale responsabile una parte centrale dell’agenda del CIO nel 2026. ## La proliferazione del SaaS lascia il posto al consolidamento guidato dall’AI Dopo **un decennio di crescita esponenziale del SaaS [in inglese]**, i Chief Information Officer affrontano una nuova sfida: frenare la complessità della gestione di un panorama di strumenti AI in rapida espansione. In risposta, una nuova generazione di piattaforme guidate dall’intelligenza artificiale emergerà l’anno prossimo per semplificare lo stack, consolidando dozzine di applicazioni di nicchia in sistemi più unificati e intelligenti. I CIO e i CISO saranno meno preoccupati di gestire cataloghi tentacolari di soluzioni puntuali. Invece, orchestreranno un set più piccolo di piattaforme “AI-first” in grado di flettersi su molteplici funzioni aziendali. Lo spostamento comporta costi inferiori, meno sovraccarico di integrazione e posizioni di sicurezza più forti, ma esige anche nuovi modelli di governance per garantire che questi sistemi consolidati non diventino singoli punti di vulnerabilità. ## Il ruolo del CIO si amplierà dall’IT all’innovazione a livello aziendale Dati i cambiamenti sopra citati, il ruolo del CIO passerà da “IT” a “ET”, cioè da Information Technology a Enterprise Technology. Le metriche tradizionali come il conteggio dei ticket conteranno ancora, ma i Chief Information Officer si concentreranno sempre più sulla progettazione dei risultati di business piuttosto che sul reperimento di strumenti. Invece di raccomandare fornitori SaaS, i CIO assembleranno LLM per costruire flussi di lavoro AI che risolvano problemi aziendali. La funzione IT diventa meno legata all’infrastruttura e più orientata alla fornitura di intelligenza con strumenti guidati dall’AI, fornendo al contempo una leva su ogni piattaforma aziendale critica. ## I CIO diventeranno il gestore numero 1 della sostenibilità Nel 2026, ci si aspetterà che i Chief Information Officer siano i titolari della responsabilità per la **sostenibilità guidata dalla tecnologia [in inglese]**. Poiché le imprese affrontano una crescente pressione da parte di regolatori, investitori e clienti per soddisfare gli obiettivi climatici, ci si aspetterà che i CIO forniscano i dati, le piattaforme e le intuizioni guidate dall’IA che rendano la sostenibilità misurabile e azionabile. Dall’ottimizzazione dei carichi di lavoro in cloud per un minore consumo energetico all’applicazione di analisi avanzate che taglino le emissioni della catena di fornitura, i Chief Information Officer saranno sempre più al centro delle strategie di sostenibilità aziendale. Questo non riguarda solo la reportistica di conformità, ma si tratterà di **sfruttare la tecnologia per trasformare la sostenibilità [in inglese]** in una fonte di efficienza, crescita e differenziazione per l’impresa. ## Il CIO come architetto strategico In definitiva, nel 2026, i Chief Information Officer di successo saranno quelli che eleveranno la tecnologia da funzione di supporto a sistema nervoso centrale dell’azienda.
www.cio.com
December 25, 2025 at 12:46 PM
Microsoft is not rewriting Windows in Rust
A job posting by a Microsoft engineer sparked excitement about a project “to eliminate every line of C and C++ from Microsoft by 2030”, replacing it with Rust — but alas for fans of the memory-safe programming language, it turns out this is a personal goal, not a corporate one, and Rust isn’t necessarily even the final target. Microsoft Distinguished Engineer Galen Hunt posted about his ambitious goal on LinkedIn four days ago, provoking a wave of excitement and concern. Now he’s been forced to clarify: “My team’s project is a research project. We are building tech to make migration from language to language possible,” he wrote in an update to his LinkedIn post. His intent, he said, was to find like-minded engineers, “not to set a new strategy for Windows 11+ or to imply that Rust is an endpoint.” Hunt’s project is to investigate how AI can be used to assist in the translation of code from one language to another at scale. “Our North Star is ‘1 engineer, 1 month, 1 million lines of code’,” he wrote. He’s recruiting an engineer to help build the infrastructure to do that, demonstrating the technology using Rust as the target language and C and C++ as the source. The successful candidate will join the Future of Scalable Software Engineering team in Microsoft’s CoreAI group, building static analysis and machine learning tools for AI-assisted translation and migration. Pressure to ditch C and C++ in favor of memory-safe languages such as Rust comes right from the top, with research by Google and Microsoft showing that around 70 percent of all security vulnerabilities in software are caused by memory safety issues. However, using AI to rewrite code, even in a memory-safe language, may not make things more secure: AI-generated code typically contains more issues than code written by humans, according to research by CodeRabbit. That’s not stopping some of the biggest software developers pushing ahead with AI-powered software development, though. Already, AI writes 30% of Microsoft’s new code, Microsoft CEO Satya Nadella said in April. This article first appeared on Infoworld.
www.cio.com
December 25, 2025 at 12:46 PM
5 stages to observability maturity
When CIOs talk about observability, they may refer to log dashboards, real-time causal graphs, or AI agents that surface business risk before customers feel an impact. The term has become so overloaded that even seasoned analysts sometimes flinch when they hear it. One of them is Forrester’s Carlos Casanova, who says the industry has misused and abused the term to cover everything from application performance monitoring (APM) tools and network telemetry, to full-blown platform intelligence. Beneath the confusion, however, something more important is happening. Observability is evolving through a series of distinct stages toward a future where systems not only detect and diagnose issues, but autonomously resolve them based on business impact. Interviews with three technology leaders reveal a clear five-stage maturity model. Movement through the different stages isn’t just a change in tooling. According to Michael Woodside, director of global DevOps at e-commerce advertising and optimization platform Pacvue; Jeremy White, VP of engineering at technology provider SpotOn; and Khushboo Nigam, Oracle principal cloud architect, progress in observability reshapes how enterprises protect revenue, ensure customer experience, and govern the AI systems they increasingly rely on. ## Stage 1: Monitoring — a reactive view of what already broke Traditional monitoring was built around thresholds, metrics, and dashboards. It alerted teams when something crossed a predefined boundary like CPU spikes, error rates, or latency thresholds. Monitoring was reactive by design as it told you something had gone wrong after it went wrong. In its day, that was enough. When systems were monolithic and on-prem, and failure domains small, incident chains were relatively predictable. But those days are gone. Distributed systems now generate vast volumes of telemetry, and a failure in one microservice may ripple through dozens of dependencies. A threshold-based alert offers little guidance on why something happened, or whether leadership should treat it as a minor nuisance or a million-dollar emergency. CIOs need something more sophisticated — something forward-looking, contextual, and tied to business impact. ## Stage 2: Technical observability — seeing across the stack The shift from monitoring to observability introduced a deeper, richer understanding of system behavior. Modern observability platforms ingest logs, metrics, traces, and configuration context; map service dependencies; and provide engineers with the means to reconstruct how incidents unfold. But this explosion in data brought on a new problem. At SpotOn, which serves restaurant and hospitality businesses, White and his teams run core services and infrastructure to keep payments, ordering, and in-store systems operational across highly distributed environments. He describes how the company’s initial experience with observability platform Grafana Cloud created a signal-to-noise overload. “We went from not enough data to too much data,” he says. Engineers had the granular telemetry they asked for, but lacked ways to discern what mattered. Observability solved the “what happened” problem but not the “what does it mean” problem. srcset="https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?quality=50&strip=all 1800w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=1536%2C1025&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=1045%2C697&quality=50&strip=all 1045w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=719%2C480&quality=50&strip=all 719w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Jeremy-White-VP-engineering-SpotOn.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1240" height="827" sizes="auto, (max-width: 1240px) 100vw, 1240px"> Jeremy White, VP, engineering, SpotOn SpotOn Technical observability accelerates diagnosis, but without a business frame, it still overburdens humans. This naturally leads to the next stage of connecting telemetry to revenue, customer experience, and risk. ## Stage 3: Business observability — when technical signals meet money Business observability is where observability becomes a strategic CIO concern rather than an engineering concern. In this stage, organizations move beyond telemetry and ask more consequential questions: What transactions are at risk? How does latency affect conversion? What’s the revenue impact of this degradation? Which customers should receive proactive outreach? How do we prioritize incidents during peak business windows? CIOs want to know not only what’s happening, but what it costs. Pacvue, which helps brands manage and automate campaigns across marketplaces, provides a clear demonstration of this shift. Woodside’s team analyzes how operational metrics correlate with business outcomes, especially churn. “When your MTTR [mean time to resolve] drops, your churn rate drops,” he says. Similarly, reducing bugs in production increases retention rates. Automated observability feeds the CI/CD pipeline, reducing bug counts, stabilizing features, and improving customer retention. For Woodside, this is bottom-line impact — not theoretical, but measurable. Oracle’s Nigam, who works directly with enterprises designing cloud and observability architectures, explains the structure behind this linkage. SLIs (service-level indicators), such as latency or error rates, feed into SLOs (service level objectives), which in turn support SLAs (service level agreements). “Leadership and customers see SLAs,” she says, “but SLAs come directly from baseline telemetry.” When that telemetry isn’t collected, or worse, collected inconsistently, organizations can’t quantify business risk. SpotOn’s White adds a customer-experience dimension. His team now proactively identifies restaurants with network issues, often before the restaurants themselves are aware. The shift is dramatic. “When service providers contact you because they see something wrong, it flips the whole experience,” he says. Customers feel supported rather than frustrated, even when the underlying issue is identical. Business observability transforms observability from a technical safety net into a business resilience system. But to operate at scale, it requires a new partner: AI. ## Stage 4: AI-assisted observability — context, correlation, and copilots The arrival of AI doesn’t replace observability, but takes it to another level. With telemetry volumes skyrocketing, human interpretation becomes the bottleneck. Teams lack time, context, and cognitive bandwidth, not data. AI copilots are starting to bridge that gap. Casanova likens AI to a storm forecaster. A local engineer might understand conditions in Paris or London, he says, but no one sees the massive meteorological system forming across the Atlantic. AI stitches together signals across domains, identifies patterns no single team monitors, and predicts cascading effects before they manifest as incidents. Nigam notes that AI copilots excel at parsing hundreds of thousands of log lines, summarizing causal chains, and offering hypotheses about what’s broken. This accelerates mean time to detect, and mean time to understand. srcset="https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?quality=50&strip=all 1800w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Khushboo-Nigam-principal-cloud-architect-Oracle.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1240" height="827" sizes="auto, (max-width: 1240px) 100vw, 1240px"> Khushboo Nigam, principal cloud architect, Oracle Oracle Woodside observes that AI explainability — breadcrumbs, as he calls them — has become crucial for trust. When an AI-generated diagnosis shows precisely how it reached its conclusion, engineers adopt it faster and hesitate less. One outcome for his DevOps organization is engineers spend far less time babysitting logs and more on cost optimization and architectural improvements. But here, observability takes another evolutionary leap. AI doesn’t simply augment observability, it becomes yet another system that must be observed since AI models drift, degrade, produce variable answers, and occasionally hallucinate. Today’s observability pipelines must incorporate new kinds of telemetry: drift indicators, data freshness checks, variability metrics, hallucination monitoring, and guardrails for trustworthy action. The enterprise that relies on AI must ensure that the AI itself remains reliable, auditable, and stable. In this stage, observability becomes a two-way system. AI strengthens observability, and observability strengthens AI. ## Stage 5: Autonomous operations — from insight to action The final stage of the evolution isn’t just about detecting or diagnosing incidents, but autonomously resolving them. This is already happening in pockets across the enterprises interviewed. At Pacvue, Woodside describes a production workflow increasingly driven by AI agents. One agent performs the investigation and another handles potential remediation. For low-risk scenarios, actions can be executed automatically. For others, such as persistent data stores, his teams maintain human approval loops. This balance allows them to scale automation while maintaining safety. srcset="https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?quality=50&strip=all 1800w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/12/Michael-Woodside-director-global-DevOps-Pacvue.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1240" height="827" sizes="auto, (max-width: 1240px) 100vw, 1240px"> Michael Woodside, director, global DevOps, Pacvue Pacvue The key innovation here is the emergence of agent-to-agent protocols, which allow AI agents to pass full context to one another, much like microservices exchanging messages. Once context is machine-readable, machines, not humans, become the primary operators for many tasks. At SpotOn, White sees the impact in the collapse of escalation chains. New engineers historically depended on a handful of veterans who knew the system’s hidden dependencies. But with AI providing contextual explanations, junior engineers join incident calls with confidence and effectiveness. This also reduces bus-factor risk, the danger that critical systems depend on the knowledge of one or two individuals, creating fragility if they’re unavailable. Autonomous operations elevate humans, not eliminate them. Organizations begin by automating investigative steps, then remediating for low-risk scenarios. Over time, as trust, transparency, and governance mature, automation will expand steadily into higher-value workflows. ## How to advance along the five-stage maturity model Organizations can’t reach autonomous operations simply by adding more dashboards or turning on select ML features. Autonomy requires observability in two dimensions: business observability and AI observability. Both demand a level of discipline few enterprises have yet achieved. The first requirement is coherence. Companies must move away from fragmented tooling and build unified telemetry pipelines capable of capturing logs, metrics, traces, and model signals in a consistent way. For many, this means embracing open standards such as OpenTelemetry and consolidating data sources so AI systems have a complete picture of the environment. Without this foundation, even the most sophisticated AI copilots have little reliable context to work with. The second requirement is business alignment. Enterprises that successfully evolve from monitoring to observability, and from observability to autonomous operations, do so because they learn to articulate the relationship between technical signals and business outcomes. Leaders want to understand not just the number of errors thrown by a microservice, but customers affected, the revenue at stake, or the SLA exposure if the issue persists. Business observability is the discipline that makes such conversations possible, and it provides the economic rationale for moving toward automation. A third element is AI governance. As Nigam says, AI models change character over time, so observability must extend into the AI layer, providing real-time visibility into model behavior and early signs of instability. Companies that rely more heavily on AI must also accept a new operational responsibility to ensure the AI itself remains reliable, auditable, and secure. Finally, organizations must learn to construct guardrails for automation. Casanova and Woodside both say the shift to autonomous operations isn’t an overnight leap but a progressive widening of the boundary between what humans review and what machines handle automatically. Mature organizations begin by automating investigative steps, then remediation steps for low-risk scenarios, and eventually more complex workflows once confidence and traceability are established. Collectively, these elements form the scaffolding for the next era of digital operations. They make it possible for observability to represent business reality rather than engineering noise, and for automation to become not a risk but a strategic advantage.
www.cio.com
December 24, 2025 at 10:46 AM
4 ways the CIO role will expand in 2026
The CIO role is undergoing its most dramatic transformation in years. Technology leaders previously focused on digital transformation and cloud migration are now being handed responsibility for corporate sustainability, AI governance, and strategic platform consolidation. This shift reflects a broader reality — AI isn’t just another technology to deploy. Next year, it will start to fundamentally change what enterprises expect from their technology leaders. Here are four predictions for how the CIO role will evolve in 2026. ## Every CIO will have a ‘responsible AI’ mandate Just as security and compliance became non-negotiable pillars of technology leadership, responsible AI practices will move from optional to essential. CIOs won’t just be asked how they’re adopting AI; they’ll be held accountable for ensuring models are transparent, explainable, and free from harmful bias. Governance frameworks that satisfy regulators, boards, and customers alike will become a strategic imperative, not just a legal one. These frameworks will need to span the entire AI lifecycle — from data sourcing, to model training, to deployment, and ongoing monitoring — with clear lines of ownership, regular audits, and documented risk assessments. This mandate will expand the CIO’s role beyond technology deployment into ethics, trust, and risk management, making responsible AI a central part of the CIO agenda in 2026. ## SaaS sprawl gives way to AI-driven consolidation After a decade of exponential SaaS growth, CIOs face a new challenge — reining in the complexity of managing a rapidly expanding landscape of AI tools. In response, a new generation of AI-driven platforms will emerge next year to simplify the stack, consolidating dozens of niche applications into more unified, intelligent systems. CIOs and CISOs will be less concerned with managing sprawling catalogs of point solutions. Instead, they’ll orchestrate a smaller set of AI-first platforms that can flex across multiple business functions. The shift means lower costs, less integration overhead, and stronger security postures, but it also demands new governance models to ensure these consolidated systems don’t become single points of failure. ## The CIO role will widen from IT to enterprise-wide innovation Given the above changes, the CIO role will shift from ‘IT’ to ‘ET’ — from information technology to enterprise technology leadership. Traditional metrics such as ticket counts will still matter, but CIOs will increasingly focus on engineering business outcomes rather than sourcing tools. Instead of recommending SaaS vendors, CIOs will assemble LLMs to build AI workflows that solve business problems. The IT function becomes less about infrastructure and more about delivering intelligence with AI-driven tools, while providing leverage across every critical business platform. ## CIOs become the No. 1 sustainability steward In 2026, CIOs will be expected to own the responsibility for tech-driven sustainability. As enterprises face mounting pressure from regulators, investors, and customers to meet climate goals, CIOs will be expected to deliver the data, platforms, and AI-driven insights that make sustainability measurable and actionable. From optimizing cloud workloads for lower energy use to applying advanced analytics that cut supply chain emissions, CIOs will increasingly be at the center of corporate sustainability strategies. This isn’t just about compliance reporting — it’s about leveraging technology to transform sustainability into a source of efficiency, growth, and differentiation for the enterprise. ## The CIO as strategic architect In 2026, successful CIOs will be those who elevate technology from a support function to the central nervous system of the business.
www.cio.com
December 24, 2025 at 10:46 AM
개발자 AI 지원, 어디까지 왔나…앤트로픽·토스·올리브영 등이 전한 현장의 고민과 전망
이날 행사에서 반복적으로 등장한 키워드는 ‘실험 문화’, ‘권한 부여’, ‘심리적 안정감’이었다. 참석자들은 AI 기술 자체보다 이러한 조직 문화적 요소가 ‘AI 퍼스트’ 전환의 진짜 성공 요인이라고 강조했다. 개발자 관계(Developer Relations, 이하 데브렐) 커뮤니티 데브챗(Devchat)과 앤트로픽, 스타트업 전문 미디어 EO 스튜디오가 후원한 이번 행사에는 CJ올리브영, 토스, 센드버드 등 국내 주요 기업의 개발·데브렐·AI 관계자들이 참석해 AI 도입 이후 나타난 변화와 현실적인 과제를 공유했다. 이날 발표에 참여한 한 데브챗 운영진은 “AI 시대에 커뮤니티의 핵심 가치는 단순한 정보 교환이 아니라 심리적 안정감”이라며 “실패와 시행착오까지 솔직하게 공유할 수 있는 문화가 집단적 성장의 토대가 된다”라고 강조했다. 특히 다양한 변화가 이뤄지는 만큼 앞으로 개발 정책과 문화를 주도하는 데브렐의 역할은 더욱 중요해질 것으로 보았다. 센드버드의 김만수 소프트웨어 엔지니어는 자신의 경험을 바탕으로 “커뮤니티에서의 공유와 배움이 개발자에서 데브렐로 커리어를 전환하는 데 결정적인 역할을 했다”라며 “AI 도구의 발전으로 진입 장벽이 낮아진 만큼, 아이디어를 실제로 구현하고 이를 공유하는 문화의 중요성은 더욱 커지고 있다”라고 말했다. ## AI 도입 이후, 변화하는 개발 문화와 역할 이날 행사에서는 개발 문화 전반을 둘러싼 논의도 활발하게 이어졌다. 글로벌 인재 채용 기업 로버트 월터스 코리아에서 기술 분야 채용을 담당하는 황국화 캔디데이트 매니저는 모더레이터로 나서, AI 시대에 변화하는 개발 문화와 개발자 경험(DX)을 주제로 각 기업 실무자들과 심도 있는 대화를 이끌었다. 올리브영에서 개발 및 AI 경험 전략을 지원하는 권성환 테크 전략 지원팀장은 AI 도입 이후 가장 현실적인 고민으로 예산 집행과 성과 측정을 꼽았다. 그는 “AI를 둘러싼 조직 내부의 고민이 상당히 크다”라며 기업마다 서로 다른 AI 도입 전략을 취하고 있다고 설명했다. 권 팀장은 “일부 기업은 빠르게 하나의 AI 벤더를 선정해 집중하는 전략을 택하고 있지만, 올리브영은 아직 초기 검증 단계에서 다양한 AI 도구를 비교·검토하는 접근을 유지하고 있다”라며 “단일 업체를 조기에 고정하기보다는 기술과 시장의 성숙도를 지켜보자는 판단”이라고 말했다. 이에 따라 올리브영은 특정 AI 도구를 일괄 배포하는 대신, 개발자 1인당 일정한 AI 활용 예산을 지원하고 각자가 필요에 따라 자유롭게 도구를 선택해 활용하도록 하고 있다. 다만 권 팀장은 “예산을 집행했다는 것은 결국 그에 대한 설명 책임이 뒤따른다는 의미”라며, AI 도입의 성과를 어떻게 측정할 것인지가 핵심 과제라고 표현했다. 그는 “코드 생성 비율이나 커밋 수 같은 정량 지표만으로는 실제 변화의 양상을 설명하기 어렵다”라며 “현재로서는 리드 타임 변화, 협업 방식의 개선, 구성원이 체감하는 생산성처럼 정성적 지표와 설문 조사가 보다 현실적인 평가 방식”이라고 강조했다. 이 같은 고민 속에서 등장한 대표적인 실험이 AI를 활용한 코드 리뷰 시스템이다. 올리브영 개발 조직은 AI가 코드 품질을 점검하는 데 그치지 않고, 내부 규칙 준수 수준에 따라 점수를 매기는 방식을 도입했다. 권 팀장은 “저희만이 가지고 있는 룰들을 잘 적용할 수 있게 하고, 내부 개발자분들이 ‘내 점수가 70점밖에 안 되다니’라는 느낌으로 스스로 자극받도록 설계했다”라고 표현했다. 특히 이 시스템은 사람이 직접 리뷰할 때보다 감정적 부담이 적다는 점에서 긍정적인 반응을 얻고 있다. 그는 “AI는 악의가 없다”라며 “객관적으로 ‘이걸 놓쳐서 이 점수인데, 이 부분을 보완하면 80점이 될 수 있다’고 말해주면 오히려 상처를 덜 받는 것 같다는 피드백이 많다”라고 전했다. 권 팀장에 따르면, 이런 방식은 AI를 평가자가 아닌 코치에 가깝게 활용함으로써, 코드 리뷰 문화를 보다 지속 가능하게 만들고 있다. 한편 AI 시대에 개발자에게 요구되는 역량에 대해서 권 팀장은 “그림을 그릴 수 있어야 한다”라고 강조했다. 그는 최근 워크숍에서 개발자들이 여러 AI 툴을 조합해 5분짜리 인트로 영상을 만든 사례를 언급하며 “머릿속에 있는 그림이 명확했기 때문에 구현까지 가능했다”라고 설명했다. 다만 AI 활용이 개발자의 전문성을 약화시키는 것은 아니라고 선을 그었다. 권 팀장은 “비개발자도 AI를 활용해 그럴듯한 결과물을 만드는 것까지는 가능하지만, 실제 서비스 내부에서 문제가 발생했을 때 디버깅하거나 리팩토링하는 것은 여전히 매우 어렵다”라며 “개발자로서의 전문성은 여전히 살아 있고, 오히려 더 중요해지고 있다”라고 강조했다. 토스의 AI 에반젤리스트 정세훈 개발자는 조직 내 AI 확산이 생각보다 쉽지 않은 과제라고 짚으며, 그 배경과 해결 방안을 함께 공유했다. 그는 “개발자들은 각자 생산성을 높이는 방법을 알고 있어도 특유의 성향 탓에 이를 적극적으로 공유하지 않는 경우가 많다”라며 “AI 활용 노하우 역시 전사로 확산되기보다는 개인이나 소규모 그룹에 머무르는 일이 잦다”라고 말했다. 이러한 문제의식 속에서 정세훈은 노드JS 개발자로 근무하는 동시에, 토스 내부에서 AI 활용을 조직 전반으로 확산시키는 AI 에반젤리스트 역할을 맡고 있다고 설명했다. 그는 “토스는 AI를 특정 조직이나 직군의 업무가 아닌, 개발자들이 직접 전파해야 할 문화로 보고 있다”라며 “이를 위해 약 10여 명의 개발자를 AI 에반젤리스트로 선발해 본업과 병행하며 활동하도록 하고 있다”라고 말했다. AI 활용에 대한 지식과 노하우가 특정 개인이나 팀에 머무르는 것을 막기 위한 시도다. 정세훈 개발자는 AI 퍼스트 조직을 ‘무엇을 더 만들 것인가’를 고민하는 단계가 아니라, ‘무엇을 하지 않아도 되게 만들 것인가’를 고민하는 단계로 정의했다. 그는 AI 도입 이후 개발자의 역할과 조직의 관점이 근본적으로 변화하고 있다고 진단했다. 그는 “AI 도입 초기에는 대부분 ‘이 도구로 무엇을 더 할 수 있을까’에 집중하지만, 시간이 지날수록 더 중요한 질문은 ‘이 일은 이제 굳이 사람이 하지 않아도 되는 게 아닐까’로 바뀐다”라며 “AI는 생산성을 높이는 도구이기도 하지만, 본질적으로는 불필요한 일을 줄이는 도구가 돼야 한다”라고 강조했다. 토스의 조직 문화가 AI 활용과 자연스럽게 맞물려 있다는 점도 언급했다. 정세훈 개발자은 “토스는 전통적인 문서 중심 조직이라기보다는, 대부분의 맥락과 의사결정이 슬랙 안에 축적되는 구조”라며 “AI가 이러한 대화형 데이터와 결합되면서 온보딩이나 맥락 파악 속도가 눈에 띄게 빨라졌다”라고 설명했다. 누가 언제 어떤 논의를 했는지를 AI가 빠르게 요약하고 연결해 주면서, 사람이 이전 과정을 직접 찾아볼 필요가 크게 줄은 것이다. 그는 개발자 개인의 역할 변화도 짚었다. “과거에는 개발자가 문제 정의부터 구현까지 모든 단계를 직접 주도해야 했다면, 이제는 AI가 실행의 상당 부분을 담당한다”라며 “그만큼 개발자는 판단과 선택에 더 집중하는 역할로 이동하고 있다”라고 말했다. 끝으로 정세훈 개발자는 AI 시대 개발자의 핵심 역량으로 ‘취향’과 ‘판단 기준’을 꼽았다. 그는 “AI는 하나의 정답이 아니라 여러 개의 그럴듯한 답을 동시에 제시한다”라며 “그중 어떤 선택을 할지는 개발자의 취향이자 철학에 달려 있다”라고 말했다. 성능과 안정성, 확장성, 유지보수성 가운데 무엇을 우선할 것인지는 단순한 기술적 능력만으로는 결정되지 않는다는 설명이다. 클로드 코드를 비롯해 다양한 AI 코딩 도구를 경험한 정찬훈 센드버드 소프트웨어 엔지니어는 AI 에이전트 기반 코딩 도구가 개발자 생산성의 패러다임을 바꾸고 있다고 평가했다. 그는 “에이전트 코딩은 신입 개발자가 시니어를 대체하는 도구라기보다, 시니어 개발자가 그동안 축적해 온 경험과 맥락을 더 빠르고 넓게 활용할 수 있도록 돕는 도구”라고 표현했다. 정찬훈 엔지니어는 특히 터미널 기반 에이전트 코딩 환경이 갖는 의미를 강조했다. 그는 “기존 IDE 중심의 AI 코딩 도구는 새로운 사용 방식을 요구하는 경우가 많았지만, 터미널 기반 에이전트는 개발자가 이미 구축해 둔 환경과 워크플로를 그대로 활용할 수 있다”라며 “이러한 터미널 기반 에이전트는 단순한 편의성 제공을 넘어, 개발자가 개발 흐름의 주도권을 계속 쥘 수 있도록 돕는다”라고 말했다. AI가 작업을 주도하는 구조가 아니라, 개발자가 필요할 때 AI를 호출하고 통제하는 방식이라는 설명이다. 그는 이어 에이전트 코딩이 개발자의 인지적 부담을 줄이는 역할을 한다고 덧붙였다. 정찬훈은 “오늘날 개발자는 코드 작성뿐 아니라 테스트, 배포, 관측성, 문서화까지 동시에 책임지고 있다”라며 “에이전트는 이러한 맥락 전환의 부담을 줄여 개발자가 핵심적인 판단과 설계에 더 많은 시간을 쓸 수 있도록 돕는다”라고 말했다. 실제로 그는 AI 에이전트를 활용한 이후, 그동안 우선순위에서 밀려 있던 백로그 작업을 점진적으로 정리할 수 있었다고 전했다. 다만 그는 AI의 한계도 분명히 짚었다. 정찬훈 엔지니어는 “복잡한 태스크나 디버깅, 리팩토링처럼 시스템 전체의 맥락을 이해해야 하는 영역에서는 여전히 사람의 역할이 크다”라며 “코드를 생성하는 것과 실제 서비스 환경에서 발생하는 문제의 원인을 추적하고 해결하는 일은 전혀 다른 차원의 작업”이라고 강조했다. 그는 “AI 에이전트의 가치는 이러한 영역을 대체하는 데 있기보다, 엔지니어가 그 문제에 집중할 수 있는 여유를 만들어 주는 데 있다”라고 덧붙였다. ## “실리콘밸리는 이미 AI 개발을 넘어 ‘가치 전달’ 고민” 국내외 스타트업 소식을 전하는 영상미디어 EO의 김중철 한국사업총괄은 AI 시대 제품 팀의 변화를 분석한 내용을 공유했다. 그는 “과거에는 PO, 디자이너, 개발자가 순차적으로 작업했다면, 이제는 누구나 문제를 정의하고 바로 구현할 수 있게 됐다”라며 “퍼널과 UI가 사라지고, 개발자와 AI가 직접 협업하는 구조로 바뀌고 있다”라고 설명했다. 그는 미국 실리콘밸리에서 나타나고 있는 변화된 상황도 소개했다. 김 총괄은 “한 세미나에서 들은 이야기로는, 미국의 한 기업이 백엔드에서 이미 AI를 활용한 개인화를 구현했음에도 불구하고 고객들이 이를 AI 기업으로 인식하지 않는다는 이야기가 나왔다”라며 “기술 구현을 넘어 AI의 가치를 고객에게 어떻게 전달할 것인가가 새로운 과제가 되고 있다”라고 말했다. 김 총괄은 “신입 마케팅 인턴이 챗GPT와 바이브 코딩을 활용해 일주일 만에 컨퍼런스 웹사이트를 만들고, 이전 경력직 마케터보다 높은 매출을 달성하는 사례를 목격했다”라며 “호기심과 수용 능력이 있는 주니어가 경력직을 위협할 수 있는 시대가 왔다”라고 강조했다. 수많은 국내외 스타트업 창업자를 가까이서 지켜본 그는 AI 시대의 핵심 역량으로 ‘호기심과 수용’을 꼽았다. 김 총괄은 “레거시가 오히려 제약으로 작용하는 시대인 만큼, 새로운 것을 기꺼이 받아들이고 끊임없이 질문할 수 있는 태도가 앞으로 더욱 중요해질 것”이라고 말했다. srcset="https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?quality=50&strip=all 2573w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=300%2C231&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=768%2C591&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=1024%2C788&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=1536%2C1182&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=2048%2C1576&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=906%2C697&quality=50&strip=all 906w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=218%2C168&quality=50&strip=all 218w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=109%2C84&quality=50&strip=all 109w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=624%2C480&quality=50&strip=all 624w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=468%2C360&quality=50&strip=all 468w, https://b2b-contenthub.com/wp-content/uploads/2025/12/img2_devchat.jpg?resize=325%2C250&quality=50&strip=all 325w" width="1024" height="788" sizes="auto, (max-width: 1024px) 100vw, 1024px"> 이엽 앤트로픽의 APAC 스타트업 파트너십 총괄과 데브챗 운영진 이수형님 CIO Korea 마지막으로 앤트로픽의 APAC 스타트업 파트너십을 총괄하는 이엽 총괄은 최근 다양한 기업과의 교류를 통해 체감한 AI 퍼스트 조직 문화의 특징과 향후 전망을 공유했다. 그는 한국 기업의 AI 퍼스트 문화 정착을 위해 “대부분의 조직에는 AI를 좋아하고 잘하는 사람이 최소 한 명은 있다”라며 “이들에게 충분한 권한과 예산을 주는 것이 중요하다”라고 강조했다. 이엽 총괄은 이어 “많은 실험과 실패를 허용하되 책임을 묻기보다는 자유도를 보장하는 것이 핵심이며, 실제로 기업들을 만나 이런 조언을 전하고 있다”라고 말했다. 다만 그는 현실적인 어려움도 함께 짚었다. “최근 들어 AI의 ROI를 묻는 질문이 빠르게 늘고 있고, 구체적으로 어떻게 비용을 지원해야 할지에 대한 논의도 많아지고 있는 것 같다”라며 “AI를 적극적으로 도입하는 기업과 그렇지 않은 기업 간의 격차는 내년부터 더욱 뚜렷해질 것”이라고 전망했다. AI 퍼스트 문화를 만들기 위한 실천 방안으로는 실무자의 역할을 강조했다. 그는 “리더가 AI에 익숙하고 잘 알면 이상적이겠지만, 현실적으로 그렇지 않은 조직도 많다”라며 “그럴수록 실무자가 맡는 역할이 매우 중요하다”라고 말했다. 가령 실무자들이 다양한 커뮤니티와 행사, 개발자 간 교류를 통해 접한 사례들을 조직 안팎으로 적극 공유하고, 직접 바이브 코딩으로 프로토타입을 만들어 ‘이런 것이 가능하다’는 점을 보여주는 것이 효과적일 수 있다는 것이다. AI 시대에 요구되는 관점 중 하나로 그는 두려움 없는 태도를 언급했다. 이 총괄은 “AI와 같은 새로운 기술을 먼저 이야기하면 종종 ‘너무 나선다’는 핀잔이나 비판을 받기도 하지만, 그것이 나와 조직, 회사를 위해 옳은 일이라는 믿음을 갖고 계속 시도해야 한다”라고 말했다. 이 총괄에 따르면, 실제로 대규모 조직에서도 일반 실무자가 먼저 움직이면서 임원들의 인식이 ‘이거 가능하겠는데’로 전환되는 사례가 나타나고 있다. 마지막으로 이엽 총괄은 AI 시대 개발자에게 요구되는 핵심 역량으로는 ‘다른 직무 영역에 대한 이해와 공감’을 꼽았다. 그는 “AI 도구 덕분에 비개발자들도 바이브 코딩을 하게 되면서, 서로 간의 소통 장벽이 크게 낮아졌다”라며 “개발자 역시 비즈니스, 마케팅, PM이 무엇을 달성하고자 하는지에 관심을 갖고 공감대를 만들어가는 것이 중요하다”라고 조언했다. [email protected]
www.cio.com
December 24, 2025 at 8:26 AM
현업에 번진 AI 기대감, 리더십 부재로 추진력 잃다
구글 워크스페이스가 의뢰한 설문조사에 따르면 기업 경영진은 직원보다 인공지능에 대해 훨씬 강한 기대감을 보이고 있지만, 다수의 직원은 체계적인 교육과 명확한 AI 로드맵이 부족하다고 느끼고 있다. 해당 조사에서 경영진은 AI가 자사에 의미 있는 긍정적 영향을 미쳤다고 답할 가능성이 직원보다 15% 더 높았다. 반면 AI로 인한 변화에 적응할 준비가 돼 있다고 답한 직원은 3명 중 1명에 그쳤다. 이번 설문조사는 에이전틱 AI 제공업체 라이터가 지난 3월 공개한 설문 조사와 유사한 결과를 보여준다. 해당 조사에서도 경영진이 직원보다 AI 도입에 대해 더 큰 기대감을 보인 것으로 나타났다. 이번 조사에 참여한 직원의 61%는 AI를 매일 사용하고 있다고 답했지만, 80% 이상은 소속 조직이 AI에 더 많은 관심과 투자를 기울이기를 바라고 있는 것으로 나타났다. 구글 워크스페이스의 제품 마케팅 디렉터 데릭 스나이더는 “직원 3명 중 1명이 준비되지 않았다고 느끼는 이유는 리더십의 실패 때문”이라며 “직원들은 AI에 대한 과열된 기대를 보고 있지만, 실제 업무에서 실질적인 성과를 낼 수 있을지, 혹은 오히려 업무 속도를 늦추지는 않을지에 대해 회의적인 시각을 갖고 있다”라고 설명했다. 스나이더는 직원 대상 AI 교육 부족이 핵심 문제라고도 지적했다. 그는 많은 직원이 어떤 AI 도구를 선택해야 할지 혼란을 겪고 있다고 언급했다. 그는 “직원들은 어떤 도구를 사용해야 하는지 확신하지 못해 위축된 상태에 놓여 있다”라며 “여러 AI 도구에 대한 이야기는 많이 듣지만, 실제로 어떤 업무에 어떤 도구를 써야 하는지는 알지 못하고 있다”라고 전했다. ## 성숙도 부족 이번 설문조사는 AI에 대한 경영진의 낙관론이 직원 인식을 넘어설 뿐 아니라, 기업의 실제 AI 성숙도보다도 앞서 있다는 점을 시사한다. 구글 워크스페이스는 설문을 통해 수집한 여러 지표를 분석한 결과, 조사 대상 기업 가운데 AI를 통해 고도화된 변화를 이룬 곳은 3%에 불과하다고 밝혔다. 반면 전체의 약 4분의 3에 해당하는 기업은 여전히 AI 전환 초기 단계에 머물러 있는 것으로 나타났다. 이번 조사는 AI옵스(AIOps) 관측성 제공업체 리버베드가 최근 실시한 설문 결과와도 유사하다. 당시 조사에서는 기술 전문가와 비즈니스·IT 리더 대다수가 자사 조직이 AI에 대한 기대를 충족할 것이라고 답했지만, 실제로 전사 차원에서 AI를 운영 환경에 적용하고 있는 기업은 12%에 그쳤다. 구글 워크스페이스의 데릭 스나이더는 AI 전환이 진전된 기업일수록 특정 AI 전담 조직에 국한되지 않고, 비즈니스 전반의 모든 기능에 걸쳐 기술을 적극 전파하는 인물이 존재한다고 설명했다. 이러한 조직은 경영진의 강력한 지지를 바탕으로, 리더가 직접 AI를 활용해 업무를 어떻게 더 수월하게 만들고 있는지를 직원에게 공유하는 경우가 많다. 그는 “경영진은 전사 회의에서 조직 구성원이나 본인이 AI를 활용해 이전에는 근본적으로 할 수 없었던 일을 해낸 사례를 이야기한다”라며 “아직도 AI 활용을 일종의 편법처럼 느끼는 직원이 존재하는 상황에서, 이런 사례 공유는 심리적 허용선을 만들어준다”라고 설명했다. 구글 워크스페이스는 조직이 지속적으로 개선할 수 있는 투명한 AI 로드맵을 수립할 것을 권고했다. 아울러 실질적인 가치를 빠르게 보여줄 수 있는 AI 활용 사례를 발굴하고, 이에 우선순위를 두는 것이 중요하다고 제안했다. ## 리더십의 필요성 다른 AI 전문가들 역시 직원과 조직을 AI 성과로 이끌기 위해서는 보다 분명한 리더십이 필요하다고 보고 있다. HR 서비스 제공업체 뱀부HR(BambooHR)의 AI 총괄 앨런 휘태커는 자사 연구 결과를 인용해, 공식적인 AI 교육을 받을 수 있는 직원이 전체의 3분의 1에도 미치지 못한다고 설명했다. 휘태커는 AI 도입을 CRM 구축과 유사한 수준의 복잡성을 지닌 작업으로 비유했다. 프로세스와 데이터 아키텍처를 충분히 검토하고, 광범위한 교육을 함께 추진해야 한다는 의미다. 그는 “AI는 사람들의 업무 방식 전반에 영향을 미치기 때문에 동일하거나 어쩌면 그 이상으로 체계적인 접근이 필요하다”라며 “도구만 구매해 직원 모두에게 설치하게 한 뒤 알아서 활용하라고 하면, 결과와 투자 효과는 고르지 못하고 비효율적이며 혼란스러워질 수밖에 없다”라고 설명했다. 휘태커는 경영진이 직원보다 AI에 대해 더 낙관적인 태도를 보이는 점이 놀랍지 않다고도 말했다. 경영진은 비즈니스 모델 전환, 신규 수익원 창출, 해결이 까다로운 문제 해소라는 가능성을 보는 반면, 직원은 단기적인 업무 부담에 더 집중하기 때문이다. 그는 “경영진은 생성형 AI를 통해 매출 성장을 기대하지만, 그 목표에 도달하기 위한 명확한 경로를 제시하지 않는다”라며 “직원은 마감 일정과 고객 대응, KPI 달성을 동시에 책임지는 상황에서 근본적으로 새로운 업무 방식을 학습해야 한다. 하지만 일상 업무에서 AI를 활용하는 데 자신감을 줄 만한 현실적이고 실용적인 사례를 충분히 보지 못하고 있다”라고 분석했다. 관리형 클라우드 연결 서비스 제공업체 엑스피리오(Expereo)의 CIO 장-필립 아벨랑주 역시 경영진과 직원 간 AI에 대한 인식 차이는 자연스러운 현상이라고 동의했다. 아벨랑주는 경영진이 효율성 향상, 고객 경험 개선, 운영 현대화 역량 등 포트폴리오 관점에서 AI를 바라본다고 설명했다. 그는 “반면 직원은 AI를 훨씬 개인적인 차원에서 경험한다”라며 “역량에 대한 불확실성, 변화하는 업무 흐름, 직무에 미칠 영향에 대한 우려가 자연스럽게 조심스러운 태도를 만든다”라고 말했다. 그는 낙관론의 격차가 놀라운 일은 아니지만 충분히 해소 가능하다고 봤다. 그는 “해결책은 투명성, 실질적인 역량 강화 프로그램, 그리고 AI가 업무를 대체하는 것이 아니라 보완한다는 점을 팀에 명확히 보여주는 데 있다”라며 “직원이 안전장치를 이해하고 가시적인 효과를 확인할수록 AI에 대한 낙관론은 커진다”라고 설명했다. 자동화 재무 프로세스 제공업체 유즈(Yooz)의 연구 결과 역시 구글 워크스페이스 설문과 같은 흐름을 보였다. 유즈가 올해 초 발표한 ‘2025 직장 내 기술 저항 보고서’에 따르면, 직원의 절반 가까이가 AI 도입 과정에서 소외감을 느끼고 있는 것으로 나타났다고 유즈의 최고경영자 로랑 샤르팡티에는 전했다. 그는 “사람들이 배제되면 주저하거나 저항하거나, 새로운 도구 사용 자체를 회피하게 된다”라며 “AI 준비도는 단순히 소프트웨어 접근성의 문제가 아니다. 소통과 교육, 그리고 이러한 도구가 역할을 위협하는 대신 반복적인 수작업 부담을 줄여준다는 점을 직원에게 보여주는 것이 핵심”이라고 설명했다. [email protected]
www.cio.com
December 24, 2025 at 8:26 AM
クラスタリングは「分類」ではない――使えるセグメントを作るための設計・評価・解釈のコツ
### 良いセグメントの条件――目的、解釈可能性、安定性 クラスタリングを始める前に、まず問いを決めます。たとえばマーケティングなら「配信メッセージを変えたい」「オファーを変えたい」「獲得単価を最適化したい」という目的があります。プロダクトなら「離脱しやすい行動パターンを早期に見つけたい」「オンボーディングを出し分けたい」といった目的があります。営業なら「提案の型を作りたい」「商談の優先順位を付けたい」が目的になります。目的が違えば、良いセグメントの条件も変わります。施策に使うなら、到達可能で説明できて再現できることが必要です。分析者だけが理解できるセグメントは、運用されません。 次に、解釈可能性です。クラスタリングは数学的には距離で似ているものを集めますが、施策に使うには言葉に落とす必要があります。そこで、入力する特徴量の選び方が決定的になります。例えば「直近30日の利用回数」「利用カテゴリの偏り」「課金頻度」「問い合わせ回数」など、行動や価値に紐づく特徴量は解釈しやすいです。一方、数十次元の埋め込みベクトルだけでクラスタリングすると、きれいに分かれても“何の違いか”が説明しにくく、結局使われないことが多いです。説明可能性は、精度ではなく運用の条件です。 そして、安定性です。同じデータを少し変えたらクラスタが大きく変わると、セグメント運用は成立しません。クラスタリングは初期値やサンプルの揺れに敏感な手法が多いため、安定性を意識して設計する必要があります。さらに、時間が経つとユーザーの行動が変わり、クラスタの境界が動きます。セグメントを固定するのか、定期的に作り直すのか、作り直すなら過去との互換性をどう確保するのか、といった運用方針も最初に決めておくと成功しやすくなります。 ### 代表的な手法の使い分け――k-means、階層、DBSCAN、混合モデル クラスタリング手法の選び方は、データの形と目的に依存します。最も有名なk-meansは、大規模データに強く、計算が速いのが魅力です。ユーザー数が多いプロダクトでは現実的な選択肢になりやすいです。ただしk-meansは、距離が球状に近いクラスタを仮定しており、クラスタ数を事前に決める必要があります。初期値で結果がぶれることもあるので、複数回実行して安定性を確認したり、クラスタ数を変えながら解釈と施策適合を見て決めるのが実務的です。 階層型クラスタリングは、グループがどのようにまとまっていくかを木構造として捉えられるため、説明に使いやすいことがあります。少数データや、カテゴリー同士の類似を見たいときには便利です。一方でデータが大きいと計算コストが上がりやすく、距離の定義や結合方法の選択で結果が変わります。階層型は「探索して理解する」用途に向くことが多いです。 DBSCANのような密度ベースの手法は、ノイズを明示的に扱えるのが特徴です。外れた行動パターンをノイズとして分離したい場合や、非球状の形をしたクラスタがありそうな場合に有効です。ただし、密度の閾値を決めるパラメータ調整が難しく、密度が場所によって大きく変わるデータでは扱いづらいことがあります。DBSCANは、うまく刺さると非常に強いですが、全てのデータに万能ではありません。 混合モデルは、各クラスタに属する確率を出せる点が魅力です。ユーザーが「どのセグメントに属するか」を断定するより、「このユーザーはAに7割、Bに3割」といった曖昧さを持ったまま扱いたい場合、確率的な表現は運用に向くことがあります。一方で、分布の仮定があり、現実のデータがその仮定から外れると期待通りになりません。ここでも重要なのは、数学的に美しいことより、運用に耐えることです。 さらに、次元削減の扱いは誤解されやすいポイントです。PCAなどで次元を落としてからクラスタリングすると、ノイズが減って安定することがあります。しかしt-SNEやUMAPのような可視化向け手法は、見た目の分離が強調されることがあり、そのままクラスタリングに使うと過信につながる場合があります。可視化のために使うのか、学習のために使うのかを明確に分け、可視化で見えた“島”をそのままセグメントだと決めない慎重さが必要です。 ### 評価と活用――“それっぽさ”から“施策”へつなぐ クラスタリングの評価でありがちな落とし穴は、内部指標だけで良し悪しを決めてしまうことです。シルエット係数などは、距離的にどれだけ分離しているかを表しますが、分離していることがビジネス的に意味があるとは限りません。むしろ施策で重要なのは、クラスタごとに行動や価値が明確に違い、介入の方針が変えられることです。たとえば、同じように見える二つのクラスタでも、片方は解約が多く、片方は安定しているなら、そこに意味があります。逆に距離的にきれいに分離していても、施策を変えようがないなら価値は小さいです。 実務で有効なのは、クラスタを作ったあとに外部の“結果指標”で検証することです。解約率、LTV、問い合わせ率、アップセル率など、クラスタリングに使っていない指標で差が出るかを見ます。さらに、セグメントの命名とストーリー化が重要です。単に「クラスタ1、2、3」ではなく、「高頻度だが単価が低い層」「低頻度だが高単価の層」「オンボーディングで詰まりがちな層」といった形で、行動と施策を結びつける言葉に落とします。この命名ができないクラスタは、現場に引き渡しても使われません。 運用に移すときの最後の壁は、セグメントをどう割り当てるかです。一度クラスタリングして終わりではなく、新しいユーザーが来たときにどのセグメントに入れるかが必要です。そこで、クラスタ中心との距離で割り当てる、簡単な分類器を学習してセグメントを予測する、といった形で“割り当て器”を用意します。さらに、セグメントは時間で変わるので、更新頻度と、更新時にセグメントの意味が変わっていないかのチェックも必要です。クラスタリングは作って終わりではなく、運用する仕組みまで含めて初めて価値になります。
www.cio.com
December 24, 2025 at 8:26 AM
장애 분석부터 보안 정책까지, 업계 전문가들이 말하는 AI 네트워크 관리의 현재
미국의 한 대형 보험사는 AI 에이전트를 활용해 보안 정책의 규칙 변경을 실시간으로 분석하고 시뮬레이션하며 적용하고 있다. 이 보험사의 한 기술 임원에 따르면 과거에는 규칙을 만들고 변경 사항을 검토하는 데 수 시간이 소요됐고, 여러 분석가가 수작업으로 검증해야 했다. 그러나 이제는 에이전트 기반 워크플로가 비즈니스 요청을 자동으로 해석한다고 설명했다. 이 에이전트는 AI 기반 사이버보안 스타트업 에어라이브드(Airrived)의 정책 자동화 에이전트로, 멀티벤더 방화벽 전반에 미치는 영향을 평가하고 내부 정책에 대한 규정 준수 여부를 검증한 뒤 승인된 규칙 세트를 생성한다. 이 모든 과정은 수 분 안에 완료된다. 해당 임원은 정책 변경 속도가 90% 빨라졌고, 설정 오류는 3분의 1 수준으로 줄었다고 전했다. 하이브리드 환경 전반으로의 규칙 전파도 실시간으로 이뤄지고 있다고 설명했다. 이 같은 변화는 이미 비즈니스 성과로 이어지고 있다. 그는 효율성 향상 덕분에 비용 회피 효과가 나타나고 있으며, 지출 증가 곡선을 완만하게 만들어 투자 대비 효과 측면에서도 긍정적인 결과를 보이고 있다고 언급했다. 다만 효율성 향상이 곧바로 IT 인력의 대규모 대체를 의미하는 것은 아니다. 예를 들어 방화벽 규칙 변경을 자동화하면서 이 보험사에서는 전일제 직원 0.5명 분량의 업무 여력이 생겼다. 그러나 대부분의 기업과 마찬가지로 이는 즉각적인 비용 절감으로 직결되기보다는 다른 업무에 인력을 투입하는 방식으로 흡수된다고 그는 설명했다. 결과적으로 더 적은 인력으로 더 많은 일을 하거나, 추가 인력 채용을 미루는 효과라는 것이다. 향후 이 보험사는 내년에 AI 관련 투자를 확대할 계획이다. 기술이 발전함에 따라 에어라이브드와 같은 스타트업뿐 아니라 기존 플랫폼 벤더들도 적극적으로 나설 것으로 예상된다고 그는 전했다. 현재 거의 모든 SaaS 플랫폼이 AI와 에이전트를 핵심 화두로 내세우고 있다고도 덧붙였다. 네트워킹 환경은 빠르게 변화하고 있으며, 그 중심에는 AI가 있다. 네트워크는 점점 더 복잡해지고 있고, AI 프로젝트가 늘어나면서 운영 부담도 함께 커지고 있다. 이에 따라 네트워크 자동화는 필수 과제로 떠올랐으며, 기업들은 스크립팅과 머신러닝, 로봇 프로세스 자동화 같은 기존 자동화 기술에 생성형 AI 기반 역량을 결합해 자동화를 더 쉽게 구축하고, 기능은 강화하며, 변화에 유연하게 대응하려 하고 있다. 11월 말 공개된 엔터프라이즈 스트래티지 그룹의 설문조사에 따르면, 네트워크 전문가 400명 중 93%는 변화 속도를 따라잡기 위해 네트워크 자동화가 필수적이라고 답했다. 또 89%는 AI의 확산으로 네트워킹의 중요성이 더욱 커지고 있다고 응답했다. 특히 응답자들은 사전 장애 예방, 예측 유지보수, 취약점과 정책 위반의 자동 탐지, 인적 오류 감소, 하이브리드 네트워크 전반에 대한 가시성 향상을 주요 요구 사항으로 꼽았다. 그러나 실제로 모니터링과 가시성, 정책 적용, 진단 및 문제 해결 워크플로를 완전히 자동화한 기업은 약 3분의 1에 그쳤다. 업데이트와 패치를 완전히 자동화한 기업은 45%로 다소 높았으며, 나머지 기업 대부분은 이미 부분 자동화를 도입한 상태에서 점진적으로 전환을 진행하고 있다. 도구 측면에서는 네트워크 장비 벤더가 제공하는 자동화 도구를 사용하는 비율이 75%로 가장 높았고, 서드파티 벤더 도구를 도입한 기업은 약 3분의 2였다. 오픈소스를 활용하는 비율은 61%, 자체 자동화 스크립트를 작성하는 기업은 50%로 나타났다. 이러한 자동화는 기존 기술만으로도 구현이 가능하지만, 응답자의 99%는 생성형 AI가 그 효과를 한층 더 끌어올릴 것이라고 답했다. 네트워크 전문가들이 생성형 AI를 통해 기대하는 가장 큰 효과는 보안 정책 준수 개선으로, 56%가 이를 꼽았다. 문제 해결 속도 향상과 테스트·감사 가속화가 각각 51%로 공동 2위를 차지했으며, 네트워크 정책 준수 개선이 50%로 뒤를 이었다. 라쿠텐 심포니(Rakuten Symphony)의 자동화 및 트랜스포메이션 부사장 아흐메드 압델아지즈는 “의사결정을 위해 에이전트를 활용하고 있지만, 모든 단계에 적용하는 것은 아니다”라며 “신뢰할 수 있는 범위와 규모에서 사용하고 있다”고 설명했다. ## AI 에이전트가 내리는 판단을 신뢰하기까지 네트워크 관리 분야에서 생성형 AI의 초기 활용 사례로는 근본 원인 분석, 문제 해결, 조사 중심의 작업 등이 꼽힌다. 압델아지즈는 6년 전 라쿠텐 모바일 출범 초기부터 운영 부사장으로 합류해 왔다. 라쿠텐 모바일은 전자상거래, 인터넷 연결, 여행 예약, 엔터테인먼트 스트리밍, 전자책, 신용카드, 은행 계좌, 주식 거래, 보험, 이동통신 서비스를 제공하는 일본 대기업 라쿠텐의 자회사다. 압델아지즈는 2020년 팬데믹 기간에 서비스를 시작했는데, 당시 네트워크를 운영할 자원을 충분히 확보하기 어려웠다고 설명했다. 그는 네트워크를 직접 운영할 수 있는 자원이 없었던 만큼, 자체적으로 무언가를 만들어보자는 판단을 내렸다고 전했다. 라쿠텐은 출범 초기부터 자동화에 투자했고, 3년 뒤 해당 기술을 분사해 라쿠텐 심포니를 설립했다. 현재 압델아지즈는 이 회사에서 자동화 및 트랜스포메이션 부사장을 맡고 있다. 라쿠텐 심포니의 네트워크 자동화 기술은 생성형 AI 이전 시대로 거슬러 올라가며, 당시에는 스크립트와 머신러닝이 중심이었다. 그는 현재 이들 기술이 하나로 융합되고 있으며, 각 기술이 맡은 역할이 분명히 존재한다고 설명했다. 압델아지즈는 에이전트를 활용해 의사결정을 내리고 있지만, 모든 단계에 적용하는 것은 아니라고 밝혔다. 그는 최근 발생한 글로벌 장애 사례를 언급하며, 자신이 피하고자 하는 결과가 무엇인지 분명히 하고 있다고 설명했다. 라쿠텐 심포니는 과거 유사 사례의 이력을 분석하는 에이전트를 운영하고 있다. 이 에이전트는 특정 조치를 취할 수 있는 신뢰도 수준을 산출하며, 그 수치가 90% 미만일 경우 해당 사안을 엔지니어에게 전달한다. 전체 프로세스는 원시 데이터가 유입되면 머신러닝이 잠재적인 사고로 이어질 수 있는 이상 징후를 식별하는 구조다. 이후 생성형 AI 에이전트가 개입해 유사 사례 이력뿐 아니라 네트워크 내 다른 사고 정보 등 관련 맥락을 함께 검토한다. 에이전트는 가능한 진단 결과를 조사하고 근본 원인을 분석한 뒤 복구 계획을 수립하며, 권고 사항에 대한 신뢰도와 그 근거를 함께 제시한다. 이 과정에서는 단일 에이전트가 아니라 여러 에이전트가 서로의 작업을 검증한다. 신뢰도가 충분히 높을 경우 에이전트는 자동으로 조치를 실행한다. 압델아지즈는 오랜 기간 자동화를 진행해 왔고, 이미 다양한 조치 라이브러리를 갖추고 있다고 설명했다. 반대로 신뢰도가 충분하지 않거나 조치의 영향이 큰 경우에는 사람이 개입한다. 이때 생성형 AI는 티켓 정보를 보다 풍부하게 보강한 상태로 엔지니어에게 전달한다. 엔지니어가 진단 결과에 동의하고 권고 사항을 승인하면, 해당 결정은 이후 학습을 위해 시스템에 다시 반영된다. 현재 이 에이전트 시스템은 전체 네트워크가 아닌 제한된 사용 사례에만 적용되고 있다. 추가적인 안전성을 확보하기 위해 자동 조치는 유지보수 시간대에만 실행되며, 고객 서비스에는 영향을 주지 않는다. 압델아지즈는 이러한 접근을 점진적으로 확대하고 있다고 설명했다. 지난 1년 동안 에이전트 시스템은 약 6,000건의 사고를 처리했으며, 초기 성공률은 약 88%였지만 현재는 95%를 넘어섰다. 다음 단계로 라쿠텐 심포니는 네트워크 품질을 저해하지 않으면서 에너지 사용량을 줄이기 위해 에이전트를 활용하는 방안을 추진하고 있다. 압델아지즈는 가장 가치 있는 활용 사례는 아직 발견되지 않았다고 내다봤다. ## 네트워크 자동화의 현 수준 북미 네트워크 운영자 그룹(NANOG)에 10월 공개된 약 700명의 네트워크 전문가 대상 설문조사에 따르면, 현재까지 대부분의 기업은 네트워크 관리를 부분적으로만 자동화한 상태다. 설문 응답자는 주로 직원 수 1만 명 이하, 스위치 수 5,000대 이하의 네트워크를 운영하는 기업 소속이었다. 자동화 수준을 보면, 9%는 여전히 전면 수작업에 의존하고 있었고, 완전 자동화에 도달한 기업은 1%에도 미치지 못했다. 자동화 비율이 10~30% 수준인 기업이 약 46%로 가장 많았고, 40~60% 수준은 28%였다. 70% 이상 자동화한 기업은 16%에 불과했다. 세부적으로는 설정 배포에 자동화를 적용한 비율이 31%였고, 모니터링은 17%, 설정 관리는 8%, 반자율적 복구는 5%로 나타났다. 네트워크 관리에 자동화를 도입한 경우에도 대부분은 전통적인 도구를 사용하고 있었다. 설문조사에 따르면 AI 기반 네트워크 자동화를 실제 운영 환경에 적용한 기업은 3%에 불과했으며, 14%는 개발 또는 테스트 단계에 있었다. 34%는 도입을 검토 중이었고, 45%는 AI 활용에 대한 계획이나 추진 과제가 없는 상태였다. 기업 규모가 클수록 자동화와 AI 도입 수준은 더 앞서 있었다. 브로드컴와 디멘셔널 리서치가 중견 및 대기업에서 네트워킹, 운영, 클라우드, 아키텍처 분야에 종사하는 1,300명 이상을 대상으로 실시한 조사에 따르면, 22%의 기업이 네트워크 운영 자동화를 위해 AI 사용을 시작했고, 5%는 완전 자율형 AI 자동화를 구축했다. 반면 70%는 아직 AI를 사용하지 않고 전통적인 스크립트 기반 자동화와 플레이북을 활용하고 있었으며, 완전 수작업 상태인 기업은 3%에 그쳤다. 도입 단계는 아직 초기이지만, 관심도는 매우 높다. 브로드컴 조사에 따르면 98%의 기업이 AI 기반 네트워크 가시성 기술 도입에 관심을 보였고, 23%는 이미 하나 이상의 솔루션을 운영 환경에 적용하고 있었다. 또 다른 49%는 평가 또는 개발 단계에 있었다. 네트워킹이 핵심 사업인 기업은 이 분야에서 가장 앞서 있다. 라쿠텐 심포니와 함께 대표적인 사례로는 클라우드 보안 기업 지스케일러(Zscaler)가 꼽힌다. 지스케일러는 전 세계 1,500만 명의 사용자를 지원하는 글로벌 네트워크를 운영하고 있으며, 네트워크 관리 조직은 약 100명 규모다. 이 회사는 생성형 AI를 활용해 장애 탐지 및 대응에 소요되는 평균 시간을 줄이고 있다. 지스케일러의 제품 총괄 부사장 다왈 샤르마는 사람이 수 분 걸려 수행하던 작업을 AI는 수 초 만에 처리할 수 있다고 설명했다. 과거에는 근본 원인 분석의 대부분을 사람이 담당했지만, 이제는 AI가 대부분을 수행하고 사람은 승인만 하면 된다는 설명이다. 샤르마에 따르면 지스케일러는 2024년에 네트워크 가시성 투자를 확대했고, 2025년에는 자동 복구 기능을 도입했다. 그 결과 장애를 탐지하고 대응하는 데 걸리는 시간이 4~7배 개선됐다. 이는 이미 높은 수준의 자동화를 갖추고 있었기 때문이며, 평균적인 기업이 유사한 기술을 도입할 경우에는 15~20배의 시간 절감 효과를 기대할 수 있다고 설명했다. 그는 위험도가 낮은 상황에서는 복구 프로세스를 자동화할 수 있지만, 핵심 시스템의 경우에는 항상 사람이 검증하고 확인해야 한다고 강조했다. 네트워크 자동화를 위해 AI 도입을 서두르고 있는 또 다른 기업은 사이버보안 기업 엔에이블(N-able)이다. 엔에이블의 관리형 탐지 및 대응 보안 운영 부문 수석 디렉터 윌 레데스마는 모방자가 아니라 혁신자가 되는 것을 목표로 하고 있다고 설명했다. 레데스마에 따르면 엔에이블은 네트워크를 모니터링하고 네트워크 텔레메트리를 활용해 왔지만, 과거에는 근본 원인을 찾는 데 60분에서 길게는 120분이 걸렸다. AI를 도입한 이후에는 이 시간이 수 초 단위로 줄어들었다는 설명이다. 엔에이블은 대규모 언어 모델과 에이전트 기반 AI를 활용해 시스템을 운영하고 있으며, 상용 도구와 내부 개발 도구를 병행해 사용하고 있다. 레데스마는 이미 사고 및 위협 복구 기능의 70%에 AI를 적용했다고 전했다. ## 도입을 가로막는 걸림돌 AI 정확성과 신뢰성은 기업들이 네트워크 관리 전반에 AI를 폭넓게 적용하는 데 있어 여러 장애 요인 중 하나다. 다만 그중에서도 가장 큰 걸림돌로 꼽힌다. 디멘셔널 리서치 설문조사에 따르면, 응답자의 71%는 네트워크 운영에서 AI 기반 기능을 전적으로 신뢰하지 못하고 있다고 답했다. 그 결과 자동화 대상으로 검토 중인 업무 역시 데이터 수집이나 정보 공유 등 비교적 단순하고 위험도가 낮은 작업에 집중되는 경향을 보였다. 또 다른 장애 요인은 도구 환경의 복잡성이다. 현재 기업들은 네트워크 성능 관리와 모니터링을 위해 여러 벤더의 다양한 도구를 동시에 사용하고 있다. 9월 공개된 리버베드(Riverbed)의 조사에서 IT 리더와 기술 전문가 1,200명을 대상으로 분석한 결과, 평균적인 기업은 네트워크 성능 관리와 모니터링 기능만으로도 2.7개 벤더의 3.9개 도구를 사용하고 있는 것으로 나타났다. 여기에 디지털 경험 모니터링, 클라우드 관리·모니터링, 애플리케이션 성능 관리·모니터링을 위한 가시성 도구까지 더해지면서, 기업이 사용하는 가시성 도구는 총 9개 벤더의 평균 13개에 이르는 것으로 조사됐다. 중소 규모 기업의 경우 상황은 더욱 어렵다. 앞서 언급한 북미 네트워크 운영자 그룹(NANOG) 설문조사에 따르면, 전체 조직의 43%는 자동화를 전담하는 인력이 전혀 없었고, 27%는 역량 부족을 도입의 가장 큰 장애 요인으로 꼽았다. 이어 조직적 문제를 지적한 응답이 20%, 문화적 요인이 14%로 뒤를 이었으며, 기술적 과제는 10%로 네 번째에 머물렀다. 다만 향후 더 많은 벤더가 플랫폼에 AI 기능을 추가하면서 이러한 장벽은 점차 완화될 가능성이 있다. 네트워크 자동화에 대한 수요는 앞으로도 계속 증가할 것으로 전망된다. 가트너는 기업들이 네트워크에 더 높은 수준의 요구를 제기하면서 자동화 필요성도 함께 커질 것이라고 분석했다. 가트너는 애자일, 데브옵스, 코드형 인프라 접근 방식이 인프라 제공 요구를 충족하기 위해 더 높은 수준의 네트워크 자동화를 요구하고 있다고 설명했다. [email protected]
www.cio.com
December 24, 2025 at 8:26 AM
AI 수요 폭증에 전력까지 직접 챙긴다···구글, 에너지 기업 인터섹트 인수
구글 모회사 알파벳은 데이터센터 및 에너지 기업 인터섹트를 인수하겠다는 계획을 22일 발표했다. AI 수요 증가에 대응하기 위한 용량 확충 속도를 높이기 위한 조치다. 알파벳은 이번 인수가 급증하는 수요를 충족하고 에너지 공급의 신뢰성을 높이는 한편, 전력 공급 지연을 줄이고 대체 에너지 개발을 지원하는 데 도움이 될 것이라고 설명했다. 컨설팅 기업 인포테크리서치그룹의 연구 책임자 토머스 랜들은 “현재 AI 인프라는 전반적으로 이미 한계에 도달한 상황이며, 향후 예정된 데이터센터 투자가 제때 실현될 수 있을지에 대한 의문도 제기되고 있다”라며 “알파벳이 인터섹트를 인수하면 제미나이의 인기가 높아지고 학습 규모가 확대되며, 거의 모든 구글 검색에 깊이 통합되는 과정에서 발생하는 수요를 충족하는 데 필요한 용량을 빠르게 확보할 수 있다”라고 분석했다. ## 전력 공급 역량 확대 행보 강화 2026년 상반기 마무리될 것으로 예상되는 47억5,000만 달러(약 6조8,000억 원) 규모의 이번 거래를 통해 구글은 인터섹트의 인력과 함께 이미 개발이 진행 중인 기가와트급 대형 규모의 에너지 및 데이터 프로젝트를 함께 가져오게 된다. 여기에는 텍사스에서 건설 중인 첫 데이터센터·전력 공동 부지 프로젝트도 포함된다. 구글에 따르면 양사는 해당 프로젝트를 공동으로 지속하는 동시에 새로운 프로젝트도 확대해 나갈 예정이다. 다만 인터섹트가 보유한 텍사스 내 기존 자산과 캘리포니아에서 개발 중인 자산은 이번 인수 대상에 포함되지 않으며, 해당 사업은 독립적으로 운영된다. 구글은 인터섹트가 에너지 공급을 확대하고 다변화하기 위해 다양한 신기술을 검토할 것이라고 밝혔다. 또 데이터센터 구축을 뒷받침할 수 있도록 에너지 기업과 유틸리티와 협력해 풍부하고 신뢰할 수 있으며 비용 효율적인 전력 공급을 확보하는 데 주력하겠다고 설명했다. 이번 인수는 구글이 전력 공급 역량을 강화하기 위해 추진해 온 일련의 노력 가운데 하나다. 구글은 올해 초 NV에너지와의 협력을 통해 지열 발전으로 네바다 전력망에 115MW 규모의 청정에너지를 공급하겠다고 발표했다. 이와 함께 이탈리아 에너지 기업 에너지 돔(Energy Dome)과 협력해 장시간 안정적인 전력 공급을 가능하게 하는 이산화탄소 배터리 기술을 개발 중이다. 또한 미 에너지 기업 브로드윙 에너지(Broadwing Energy)와 협력해 가스 발전소에 탄소 포집·저장(CCS) 기술을 적용하고 있다. 해당 프로젝트를 통해 브로드윙은 배출되는 이산화탄소의 약 90%를 포집해 영구 저장할 계획이며, 구글은 이 발전소에서 생산되는 전력의 대부분을 구매하기로 했다. 컨설팅 기업 그레이하운드리서치의 수석 애널리스트 산치트 비르 고기아는 인터섹트 인수를 통해 구글이 AI 시대에 유틸리티와 제3자 에너지 개발사에 의존하는 기존 모델이 더 이상 충분히 신뢰할 수 없다는 점을 분명히 드러냈다고 분석했다. 고기아는 이를 두고 “구글의 제약 요인이 이제 상류 단계로 이동했다는 인식”이라며 “구글은 데이터센터 설계나 부지 확보에 대한 추가 학습이 필요한 것이 아니라, 전력망 일정, 계통 연계 대기, 변전소 증설, 인허가 절차가 컴퓨팅 배치 속도보다 느려진 시장에서 예측 가능하게 메가와트를 투입할 수 있는 방법을 필요로 하고 있다”라고 설명했다. 그는 또 이번 인수가 단계별 전력 공급이 지연되면서 발생하는 리스크를 내부적으로 흡수하려는 전략적 선택의 성격도 지닌다고 평가했다. 알파벳은 전력 공급이 제때 이뤄지지 않아 용량이 유휴 상태로 남고 활용도가 떨어지는 상황에 대한 노출을 줄이려 한다는 설명이다. ## 전력 확보 방식의 전환 고기아는 인터섹트가 유틸리티나 코로케이션 계약만으로는 안정적으로 제공되기 어려운 시간 확실성, 단계별 실행에 대한 통제력, 개발사 중심의 운영 모델을 더해준다고 설명했다. 인터섹트는 수요와 전용 가스 및 재생에너지 발전을 같은 위치에 배치하는 구조를 명확히 지향하고 있다는 것이다. 고기아는 이러한 모델이 기존의 의존 방식을 바꾼다고 분석했다. 전력망 용량이 확보되기를 기다린 뒤 부하를 투입하는 대신, 발전 설비를 부하 경로 옆에 배치하고 양쪽을 동시에 조율하는 방식이라는 설명이다. 그는 이를 두고 “신뢰성과 속도 측면에서 매우 다른 접근”이라고 표현했다. 알파벳이 다양한 재생 및 청정에너지 기술을 지원하는 점 역시 지역과 전력망 조건이 다른 환경 전반에서 전력 역량을 다변화하고 안정화하며, 단일 장애 지점에 대한 의존을 줄이려는 전략을 보여준다고 고기아는 설명했다. 특정 기술 경로가 지연될 경우 다른 기술이 일부 부하를 담당할 수 있다는 의미다. 그는 “인터섹트는 컴퓨팅 자원과 전력이 동시에 도착하도록 순서를 조율할 수 있게 해준다”라고 언급했다. ## 에너지 전략과 용량 확충의 연계 랜들은이번 인수를 통해 알파벳이 제3자 에너지 파트너에 대한 의존도를 궁극적으로 낮추게 됐다고 분석했다. 에너지는 핵심 인프라 스택의 기본 요소이지만, AI 사업자가 자원을 선점하면서 점점 더 희소해지고 있다는 설명이다. 그는 “데이터센터 운영 책임자는 이번 시점을 계기로 에너지 전략을 용량 확충, 지속가능성 목표, 경쟁 우위 확보라는 관점에서 연계해야 한다”라고 말했다. 고기아는 전통적으로 CIO의 구축·임대·클라우드 관련 의사결정이 비용, 민첩성, 보안, 규제 준수를 중심으로 이뤄져 왔다고 짚었다. 그러나 전력 공급의 확실성이라는 변수가 빠져 있었다는 것이다. 그는 “하이퍼스케일러가 발전과 부하를 함께 가져오기 위해 수십억 달러를 투자하고 있다면, 기업 역시 같은 제약에 직면하게 될 것”이라며 “다만 시점은 더 이르고 협상력은 더 약할 것”이라고 내다봤다. 고기아는 클라우드가 에너지 리스크를 추상화하지만, 특정 지역에서 전력과 GPU 한계에 도달하면 용량이 배분되고 일정이 조정되며 고객이 다른 지역이나 제공 모델로 유도된다고 설명했다. 이 과정에서 배포 지연이 발생하고, 희소성에 따른 가격 차이로 인해 비용이 상승하는 경우도 적지 않다는 것이다. 그는 이러한 현실이 온프레미스 구축 환경에서는 더욱 두드러진다고 덧붙였다. 시설은 제때 완공됐지만 전력이 계획대로 공급되지 않으면 수개월 이상 저용량으로 운영될 수 있다는 설명이다. 그는 CIO가 거버넌스 모델을 조정해야 한다며, 기술 의사결정 과정에 에너지 실사를 포함해야 한다고 조언했다. 부지 선정 과정에서는 네트워크 지연 시간뿐 아니라 ‘전력 확보까지 걸리는 시간’을 함께 고려해야 하며, 계약에는 용량 약속, 지역 확장 목표, 비상 대응 계획에 대한 보다 높은 수준의 투명성이 필요하다고 지적했다. 고기아는 “데이터센터 설계는 모듈화와 반복 가능성 덕분에 계획 기간이 짧아질 수 있지만, 에너지 계약은 공급 제약과 느린 승인 절차로 인해 오히려 더 길어질 것”이라고 전망했다. ## 전력은 부차적인 요소가 아니다 고기아는 기업이 전력 리스크 전략을 수립하고 사회적 수용성에도 주의를 기울여야 한다고 지적했다. 데이터센터 확장은 지역 전력망에 미치는 영향으로 인해 지역사회와 규제 당국의 반발에 점점 더 직면하고 있으며, 특히 전력 수급 문제를 둘러싼 갈등이 커지고 있다는 설명이다. 그는 이번 행보를 통해 알파벳이 에너지 공급 규모를 확대하는 동시에, 그 비용 부담이 지역 소비자에게 전가될 것이라는 인식을 관리하고 있다고 분석했다. 고기아는 “기업은 이 사례에서 교훈을 얻어야 한다”라며 “대규모 시설이나 대형 코로케이션 구축을 계획하고 있다면 이해관계자 관리는 더 이상 선택 사항이 아니라 실행의 일부”라고 설명했다. 그는 또 구글의 인터섹트 인수가 벤더 전략의 변화를 시사한다고 평가했다. 이는 기업 구매자를 둘러싼 가격 구조, 가용성, 협상 구도 전반을 재편할 수 있다는 분석이다. 고기아는 전력을 사후 고려 사항으로 취급해서는 안 된다고 조언했다. 그렇게 할 경우 프로젝트 일정이 지연될 수 있으며, 일정 수준의 용량 제약은 불가피하다는 점을 전제로 훨씬 이전 단계부터 대안을 마련해야 한다는 설명이다. 그는 “이번 10년은 킬로와트, 인허가, 정치적 요인이 조용히 ‘클라우드 우선’ 로드맵이 실제로 제때 실현될 수 있을지를 좌우하는 시기가 될 것”이라고 진단했다. [email protected]
www.cio.com
December 24, 2025 at 8:26 AM
웨스턴디지털 기고 | AI 시대 경쟁력을 좌우하는 ‘미래 대비’ 스토리지 구축 전략
기업이 미래를 대비하는 일은 결국 얼마나 탄탄한 기반을 갖추고 있느냐, 특히 하드 디스크 드라이브(이하 HDD) 기반 스토리지 시스템을 얼마나 견고하게 구축했느냐에서 시작된다. 기존 스토리지 아키텍처가 예측 가능한 정적 워크로드 처리를 중심으로 설계되었다면, 오늘날의 환경에서 스토리지는 상황이 완전히 다르다. AI 애플리케이션이 끊임없이 학습하고 재학습하며 빠르게 규모를 확장하는 만큼, 스토리지는 대규모 환경에서도 비용 효율적이면서 유연하고 높은 신뢰성을 갖춰야 한다. 미래를 대비한 스토리지는 단순히 용량을 늘리는 수준이 아니라, 데이터가 늘어나는 속도에 맞춰 무리 없이 확장되고 예측하기 어려운 워크로드도 안정적으로 처리할 수 있어야 한다. 여기에 장기간 성능과 내구성을 유지하면서도 비용과 에너지 사용까지 효율적으로 관리할 수 있는 구조여야 한다. AI의 등장은 시장의 판도를 완전히 바꿔 놓았다. 워크로드는 이전보다 훨씬 더 역동적으로 바뀌었고, 데이터 양은 전례 없는 수준으로 급격하게 증가하고 있다. 이러한 환경에서 기업이 지속적으로 혁신을 이어가기 위해서는 변화의 속도를 자연스럽게 따라갈 수 있는 유연하고 확장 가능한 인프라가 필수적이다. 대한민국 정부는 ‘글로벌 AI 3강’ 도약을 목표로 대규모 인공지능 인프라 확충에 속도를 내고 있다. 과학기술정보통신부(MSIT)는 올해 5월, 2025년 추가경정예산을 통해 총 1조 9천억 원 규모의 AI 예산을 발표했고, 이 중 1조 6,341억 원을 AI 컴퓨팅 인프라 강화와 연내 GPU 1만 장 확보에 투입할 계획이라고 밝혔다(출처: 과학기술정보통신부, 2025년 5월). 이러한 GPU 확보 확대와 학습용 데이터 인프라 확장은 국내 기업들의 스토리지 수요를 더욱 빠르게 증가시키는 요인으로 작용하고 있다. 기업들이 이러한 변화의 속도를 따라잡기 위해선 스토리지 인프라 전반을 ‘미래 준비형(future-ready)’으로 재구축해야 한다. 이를 위해서는 확장성과 유연성, 그리고 지속 가능성이라는 3가지 축을 기반을 스토리지 전략을 세우는 것이 핵심이다. ## 확장가능한 비용 효율성: HDD가 뒷받침하는 데이터 인프라 AI 시대에 데이터 수요는 폭발적으로 증가하고 있다. 특히 페타바이트(PB) 규모로 급증하는 비정형 데이터를 어떻게 관리할 것인지는 오늘날 기업이 직면한 가장 큰 어려움이다. IDC에 따르면, 2025년 전체 엔터프라이즈 데이터의 86% 이상이 비정형 데이터가 될 전망이며, 향후 5년 동안 연평균 성장률(CAGR) 26.4%의 속도로 증가할 것으로 예상된다(출처: IDC Worldwide Global DataSphere Structured and Unstructured Data Forecast, 2025-2029, Doc #US52800025). 이러한 상황에 적절하게 대응할 수 있는 스토리지 전략이 없다면 기업이 부담할 비용은 겉잡을 수 없이 커질 수밖에 없다. 이 같은 과제를 해결하기 위해 기업들은 전략적이고 자동화된 티어링 방식을 도입하고 있으며, HDD는 그 과정에서 스토리지 비용 구조를 지탱하는 핵심 축으로 자리잡고 있다. IDC에 따르면 2029년에도 클라우드 스토리지의 약 80%가 여전히 HDD를 기반으로 운용될 것으로 전망된다(출처: IDC Worldwide Global StorageSphere Forecast, 2025-2029, Doc #US53561425). HDD는 대규모 환경에서의 비용 효율성, 높은 신뢰성 및 안정적인 성능을 제공해 지속가능한 데이터 성장을 뒷받침하는 핵심 인프라로 평가된다. 또한, 예측 가능한 총소유비용(TCO)을 제공해, 기업이 방대한 양의 데이터를 무리한 자본 투자나 운영 비용 부담 없이 효율적으로 저장하고 분석할 수 있도록 한다. AI의 발전으로 과거 ‘콜드 데이터’로 분류되던 아카이브 데이터는 다시 중요한 자산으로 활용되고 있다. HDD 기반 스토리지는 대규모 학습과 재학습에 필요한 방대한 데이터셋을 경제적인 비용으로 저장하고 제공하며, 고성능 플래시는 추론 작업과 메타데이터 처리에 집중할 수 있도록 역할을 분담한다. 이러한 구조는 HDD가 왜 AI 시대에도 여전히 핵심 인프라로 자리할 수밖에 없는지를 잘 보여준다. ## 유연한 확장성: 데이터 변화에 따라 확장하는 스토리지 티어링 AI 시대의 데이터는 사용 시점과 목적에 따라 핫(hot), 웜(warm), 콜드(cold) 티어를 오가며 끊임없이 이동한다. 이에 따라 기업 인프라 역시 이러한 데이터의 흐름에 유연하게 대응할 수 있도록 설계되어야 한다. 미래지향적 스토리지는 자동화된 티어링, 스케일아웃 아키텍처, 지능형 소프트웨어 정의 관리 기능을 갖추어야 하며, 이를 통해 수동 개입 없이도 스토리지 전반의 데이터 이동을 자연스럽게 효율적으로 조율해 비용과 성능을 최적화해야 한다. 이 지점에서도 HDD는 핵심적인 역할을 수행한다. 방대한 구조화 및 비구조화 데이터를 저장하고 가공하는 중앙 저장소인 데이터 레이크의 기반이 되기 때문이다. 또한 개방형 API와 유연한 접근 프로토콜, 다양한 스토리지 미디어와의 높은 호환성을 바탕으로 HDD는 AI 파이프라인 전반과 매끄럽게 연결된다. 적응력은 곧 회복탄력성을 의미하기도 한다. 최신 HDD 기반 인프라는 데이터 급증에도 마이그레이션이나 다운타임 없이 수평 및 수직적인 확장이 가능하다. 여기에 에너지 보조 자기 기록(EAMR), 듀얼 액추에이터(dual-actuator) 디자인과 같은 최신 기술이 더해지면서, 데이터 재구성 속도와 처리량이 더욱 향상되고 에너지 효율도 개선되어 AI 워크로드가 요구하는 실시간 성능을 안정적으로 충족한다. 결국 HDD는 데이터가 AI 워크로드 전반을 지원할 수 있도록 하는 핵심 기반이다. 즉, HDD는 데이터 수집부터 학습 및 재학습, 그리고 규제 준수에 이르기까지, 빠르게 변화하는 데이터 환경 속에서 기업이 민첩하게 대응하고 비즈니스 가치를 극대화할 수 있도록 지원하는 핵심 인프라 역할을 한다. ## 지속 가능한 운영: 장기적 경쟁력을 위한 기반 구축 AI는 산업 전반에 큰 변화를 가져올 잠재력을 지닌 동시에 막대한 에너지 비용도 수반한다. 대규모 AI 모델 하나를 학습시키기 위해서는 수백 세대의 일반 가정에서 1년 동안 사용하는 전력량에 맞먹는 에너지가 필요하다. 시장조사업체인 PwC에 따르면, 아시아태평양 지역의 전력 수요는 2024년 약 320TWh에서 2030년 780TWh까지 증가할 전망이지만, 이 가운데 재생에너지로 공급되는 비중은 약 32%에 그칠 것으로 예상된다. 지속가능성은 이제 더 이상 형식적으로 쓰이는 기업 용어가 아니다. 비즈니스를 운영하는 데 반드시 갖춰야 하는 핵심 요소로 자리를 잡았다. 아시아태평양 전역의 정부와 기업들은 이러한 흐름을 이미 분명하게 인식하고 있다. 한국 정부 역시 디지털 및 에너지 인프라 전반에 걸쳐 지속가능성 기준을 강화하며 국가적 탈탄소화를 추진하고 있다. 산업통상자원부에서 공개한 제11차 전력수급기본계획(2024–2038)에 따르면, 탄소중립 에너지 사용 비중을 높이고 화석연료 의존도를 축소하는 방향으로 국내 전력 공급 구조를 재편하고 있다(출처: 산업통상자원부, 확정 제11차 전력수급기본계획, 2025). 이러한 정책은 국내에서 빠르게 확대되고 있는 AI 및 데이터센터 수요를 보다 효율적이고 저탄소 에너지원 위에서 성장할 수 있도록 기반을 마련하는 데 목적이 있다. 에너지 효율이 높은 스토리지는 이제 기업의 핵심 조달 기준으로 떠올랐다. 특히 대용량 HDD는 성능과 신뢰성을 유지하면서도 워크로드를 통합해 기업들이 테라바이트(TB)당 전력 소모를 크게 낮출 수 있다는 점에서 주목받고 있다. 예를 들어, 2페타바이트(PB) 규모의 스토리지를 구축할 때 24TB HDD대신 32TB HDD를 사용하면 서버 수를 25% 줄이고 TB 당 에너지 소비량을 20% 절감할 수 있으며, 전체 인프라 및 유지보수 비용까지 함께 낮출 수 있다. HDD의 비용 효율성을 기반으로 중복 제거와 압축 기술을 결합한 전략적 스토리지 아키텍처는 기업이 운영 효율성을 높이면서도 환경적 책임을 지키며 AI를 확장할 수 있도록 지원한다. 이렇게 구축된 스토리지 생태계는 비용 및 성능, 지속가능성의 균형을 이루며, 미래지향적 성장을 뒷받침하는 ‘미래 대비형’ 인프라의 방향성을 잘 보여준다. ## 미래를 대비하는 핵심 공식 미래 지향적 스토리지를 구축하기 위해서는 단순히 속도를 높이는 것만으로는 충분하지 않다. 비용 구조의 확장성, 변화에 기민하게 대응하는 유연성, 그리고 지속 가능한 운영이 함께 맞물린 종합적인 접근이 요구된다. 이 세 가지 요소는 서로 긴밀하게 연결되어 있다. 확장 가능한 비용 구조는 데이터를 부담 없이 늘릴 수 있게 지원하며, 유연한 구조는 끊임없이 변화하는 AI 워크로드에 스토리지가 즉각적으로 대응하도록 한다. 여기에 지속 가능한 운영이 더해져야 이러한 성장이 환경적으로도, 재무적으로도 장기적으로 유지될 수 있다. 이러한 접근의 중심에는 대규모 AI 환경에 필요한 신뢰성과 비용 효율성, 그리고 성능을 모두 갖춘 HDD가 있다. 이러한 요소들을 제대로 결합하면 장기적으로 견고하면서 민첩하고, 확장 과정에서도 무리 없는 스토리지 아키텍처를 구축할 수 있다. 이는 현재의 AI 프로젝트는 물론 앞으로 등장할 새로운 혁신까지 안정적으로 뒷받침해주는 기반이 된다. 스토리지를 전략적 자산으로 바라보는 기업만이 AI의 잠재력을 최대한 활용하는 동시에 운영 부담도 효과적으로 관리해 나갈 수 있다. 지금이 바로 미래를 대비한 기반을 구축해야 할 최적의 시점이다. _*필자 스테판 만들(Stefan Mandl)은 웨스턴디지털의 아시아태평양(APJC) 지역 세일즈 마케팅 부문 부사장으로, 중국, 아태지역, 일본 등 아시아 전역의 사업 운영을 총괄하고 있다. 웨스턴디지털에서 20년 동안 근무했으며, 2017년 3월 APJC에 합류하기 전까지 유럽·중동·아프리카 지역(EMEA)에서 디바이스 사업부의 채널 및 OEM 영업 부문을 총괄했다. 만들은 독일 에를랑겐/뉘른베르크 프리드리히알렉산더대학교(FAU)에서 MBA 학위를 취득했다._ [email protected]
www.cio.com
December 24, 2025 at 8:28 AM
아마존, 북한 연계 의심 인력 채용 지원 1,800건 차단···AI·머신러닝 직무가 주요 표적
아마존의 최고보안책임자(CSO) 스티븐 슈미트는 2024년 4월 이후 북한 요원으로 의심되는 채용 지원 1,800건 이상을 차단했다고 밝혔다. 2025년에는 북한과 연계된 것으로 추정되는 지원 건수가 분기마다 약 27%씩 증가했다고 설명했다. 이 같은 침투의 목적은 주로 미국 기업을 중심으로 한 해외 기업에서 재택 근무 형태의 일자리를 확보한 뒤, 벌어들인 수입을 북한의 무기 개발을 지원하는 자금으로 보내기 위한 것으로 알려졌다. 아마존은 의심스러운 지원서를 탐지하기 위해 인공지능 기반 분석과 수동 검토를 병행하고 있다. 알고리즘은 위험 기관과의 연관성, 지원서 내 이상 징후, 지리적 불일치 등을 탐색하며, 신원은 백그라운드 체크와 추천인 검증, 구조화된 인터뷰를 통해 확인한다. 슈미트는 아마존이 북한 연계 위장 취업 시도에서 공통적으로 나타나는 여러 경향을 포착했다고 설명했다. 신원 도용 수법이 갈수록 정교해지면서 사기범이 실제 개발자로 위장하는 사례가 늘고 있다. 탈취된 링크드인 계정을 활용해 신뢰도를 높이는 경우도 있으며, 특히 AI와 머신러닝 관련 직무가 취약한 표적으로 떠오르고 있다고 전했다. 일부 운영 조직은 미국 내 이른바 ‘노트북 팜’을 사용해 현지에 있는 것처럼 보이게 하고, 미국 대학 명의의 가짜 학력 증명서를 사용하는 사례도 흔하다고 아마존은 설명했다. 아마존에 따르면 전화번호를 국가 코드 ‘1’로 표기하는 것처럼 사소해 보이는 세부 요소만으로도 가짜 프로필을 가려내는 데 도움이 될 수 있다. 아마존은 이러한 문제가 특정 기업에 국한되지 않고 산업 전반에 걸쳐 나타날 가능성이 크다고 보고 있다. 이에 따라 다른 기업에도 신원 확인 절차를 재점검하고, 의심 사례는 미 연방수사국(FBI)과 같은 당국에 신고할 것을 촉구했다. [email protected]
www.cio.com
December 24, 2025 at 5:54 AM
ServiceNow’s $7.75 billion cash deal for Armis illustrates shifting strategies
ServiceNow on Tuesday announced that it would buy cybersecurity vendor Armis for $7.75 billion in cash. This builds on its December purchase of identity security vendor Vezas, and the closing of its acquisition of AI vendor Moveworks. Analysts and cybersecurity practitioners mostly applauded the move, but cautioned that this could force CIOs and CISOs away from a best-of-breed strategy and into a classic suite approach, where the individual elements may be merely good enough. “This is an extension of what we have been seeing at the ERP application layer,” said Scott Bickley, an advisory fellow at the Info-Tech Research Group. “ServiceNow is basically saying ‘We don’t want to be a point solution. We want to be the platform by which you coordinate and solve all of your problems.’” Bickley noted that this trend has been ongoing for a few years, with many of the largest vendors trying to offer suites that deliver everything. “Microsoft was the initial poster child of this,” he said. “They are going to start to embed [AI and cybersecurity] capabilities into their suites and bundles, where you don’t necessarily have an opt-out solution. You will get ‘maybe good enough’ versus best of breed.” But looking at ServiceNow’s two other recent acquisitions, Vezas and Moveworks, could suggest parallel strategies. “ServiceNow has hedged their bets without saying that they are hedging their bets,” Bickley said. Pablo Stern, EVP and general manager of tech workflow products at ServiceNow, confirmed in an interview that the Armis acquisition is the largest in ServiceNow’s history. He added that the companies have been partnering “for well more than two years.” ServiceNow’s statement about the Armis deal described the two firms as creating “a unified, end-to-end security exposure and operations stack that can see, decide, and act across the entire technology footprint.” It said that it expects to fund the transaction through a combination of cash on hand and debt. The deal is expected to close in the second half of 2026, subject, as always, to regulatory approvals and closing conditions. ## Pressure from Agentic AI The statement quoted ServiceNow COO Amit Zavery suggesting that agentic developments are a key part of the strategy. “In the agentic AI era, intelligent trust and governance that span any cloud, any asset, any AI system, and any device are non-negotiable if companies want to scale AI for the long-term,” Zavery said in the announcement.**“** Together with Armis, we will deliver an industry-defining strategic cybersecurity shield for real-time, end-to-end proactive protection across all technology estates. Modern cyber risk doesn’t stay neatly confined to a single silo, and with security built into the ServiceNow AI Platform, neither will we.” The soaring popularity of autonomous agents that figure out on their own how to perform various tasks has concerned many cybersecurity executives, as the risk of security holes created by enterprise agentic trials is becoming clear. Most cybersecurity practitioners saw the move as the latest indicator that CIOs and CISOs must rethink how they do their jobs, given how AI is forcing changes in data management and data leakage. ## Visibility is the key “For decades, the CIO’s white whale has been a precise, real-time Configuration Management Database CMDB]. Most are outdated the moment they are populated,” said Whisper Security CEO [Kaveh Ranjbar. The Armis acquisition “is an admission that in an era of IoT, OT, and edge computing, you cannot rely on manual entry or standard agents anymore. The system of action needs to own the system of record for the unmanaged world. For CIOs, this signals that automated, continuous discovery is now the only acceptable standard for IT asset management. You can’t automate workflows on assets you don’t know exist.” The lesson, Ranjbar said, is different for the CISO. “CISOs have historically suffered from the swivel-chair problem: one screen shows the vulnerability and another screen is needed to patch it. This deal collapses that gap. It validates that visibility is the new perimeter. As OT and IT converge, the attack surface has become too complex for fragmented tools. CISOs should view this as a mandate to consolidate their visibility stacks.” Sanchit Vir Gogia, the chief analyst at Greyhound Research, agreed that this acquisition will likely accelerate IT and security structural changes. “This acquisition represents a fundamental repositioning of ServiceNow from a coordination layer into an operational authority. Buying Armis is not about expanding a security portfolio. It is about owning the upstream constraint that determines whether modern enterprises can govern complexity at all,” Gogia said. But without knowing what is connected across IT, OT, IoT, and other physical environments, “workflow automation, AI governance, and risk prioritization all collapse into theatre,” he observed, adding that the deal could remove long standing fragmentation between discovery tools, CMDBs, service mapping, ticketing, change management, and remediation. “If executed well, it could finally address one of the enterprise’s most persistent failures,” he said. Gogia added, “continuous discovery tied to business context has the potential to turn the CMDB from a negotiated artefact into a living system. That would change how incidents are resolved, how changes are governed, how audits are passed, and how accountability is assigned.” ## Reveals architectural debt Given that the deal is not expected to be closed until next summer, executives should temper their timeline expectations. The 2026 second half closing date “implies a prolonged transition period where integration depth, roadmap clarity, and packaging decisions will evolve. CIOs should plan for ambiguity, not assume instant unification. Early value will come from visibility, [therefore] full platform value will take time,” Gogia said. Another consultant, Yvette Schmitter, CEO of the Fusion Collective consulting firm, said the deal is sitting atop years of bad enterprise IT strategy. “This acquisition exposes more than ServiceNow’s strategy. It reveals the architectural debt hiding in every enterprise security stack that CIOs have been promising to address ‘next quarter’ for the past three years,” Schmitter said. “ServiceNow just signaled that platform plays will dominate over point solutions, and they’re willing to fund it with debt to move quickly while enterprises are still running budget committee meetings about tool sprawl.” She observed, “the valuation for Armis tells you the market assigns premium multiples to cyber-physical capabilities spanning IT, OT, _and_ medical devices. Translation: that patchwork of legacy security tools you’ve been defending as ‘best of breed’ just became technical debt you can’t explain to the board. CIOs need to audit their current security tool sprawl and map total cost of ownership before vendors make that case for them with renewal pricing that reflects your lack of alternatives.” The question, she said, “is no longer whether to consolidate, but whether your organization controls the timing and terms of that consolidation.” Cybersecurity consultant Brian Levine, a former federal prosecutor who today serves as executive director of FormerGov, said that Armis executives were evaluating going public before they decided to accept the ServiceNow offer. “For Armis, skipping the IPO and joining ServiceNow is a signal that the market for standalone device‑security platforms is consolidating fast, and scale wins,” Levine said. “The line between workflow, risk, and security is disappearing, and ServiceNow wants to own the convergence point.” Aaron Painter, CEO of authentication vendor Nametag, added that part of the IT confusion is that product names no longer mean what they once meant. “Many of the workflows ServiceNow already automates are now security workflows, even if they’re still labeled as operations. Onboarding and offboarding, incident response, asset exceptions, vendor access, and change management all involve decisions that directly shape security outcomes,” Painter said. “Looked at alongside ServiceNow’s earlier acquisition of Veza, the strategy becomes clearer: ServiceNow is trying to connect asset visibility with identity and access intelligence, so the platform understands not just what devices exist, but who has access, why they have it, and whether that trust still makes sense over time.”
www.cio.com
December 24, 2025 at 3:35 AM
Las cinco principales prioridades tecnológicas de las empresas para 2026
Estamos en la época del año en la que proliferan los artículos que “miran al futuro” y dicen a unos u otros lo que deberían hacer o lo que algún “experto” afirma que deberían hacer. En este caso, adoptaremos un enfoque distinto y nos centraremos en lo que un colectivo —probablemente el más importante en términos de compra de tecnología— dice que va a hacer de verdad. Para ello he recopilado 284 comentarios sobre las prioridades tecnológicas empresariales para 2026, y estas son las cinco principales. ## 1. Optimización de la IA e incertidumbre Empecemos por una prioridad que engloba dos opiniones que no resultan sorprendentes. La primera es que la máxima prioridad, citada por 211 empresas, es “implementar el hardware, el software, los datos y las herramientas de red necesarios para optimizar el valor de los proyectos de IA”. La segunda es que existe una gran incertidumbre sobre cuáles son exactamente esas herramientas e incluso sobre si pueden identificarse con certeza. La gran mayoría de esas 211 empresas afirmaron centrarse en la IA basada en agentes, pero conviene recordar —como ya se ha señalado en este blog— que las empresas siempre han identificado tres modelos distintos de agentes: el modelo “interactivo”, que los trabajadores utilizan de forma similar a como hoy se emplea la IA tipo _chatbot_ ; el modelo de “flujo de trabajo”, integrado en los flujos de aplicaciones como cualquier otro software; y la forma “integrada”, embebida directamente en una aplicación. Las empresas consideran que tienen bajo control la IA de flujo de trabajo en términos de dónde se ejecuta y con qué se conecta. Sin embargo, incluso en ese caso, muchas señalan que un nuevo elemento de IA en el flujo de trabajo resulta útil al integrar conocimientos extraídos de un conjunto más amplio de fuentes, que teóricamente podrían encontrarse en cualquier lugar en lo que respecta a los datos. Y existe aún menos certidumbre sobre el impacto de los otros dos modelos. Los agentes de IA integrados se utilizan principalmente en analítica de negocio o para dar soporte a operaciones de red o de TI, y ambas funciones parecen asignar a la IA un papel de simple extensión. Por ello, en general, no se espera que requieran un replanteamiento profundo de la infraestructura o de las prácticas operativas. Sin embargo, las empresas no lo ven de ese modo. Los agentes de IA son, en general, grandes consumidores de datos: requieren más información, información más coherente y algún tipo de valoración o ponderación de los datos para poder tomar decisiones. Por ejemplo, una herramienta de IA para operaciones de red podría necesitar información sobre patrones estacionales de ventas para prever mejor el tráfico. Sin fuentes de información más amplias, resulta más difícil generar suficiente valor que justifique su uso. Además, el consumo de datos por parte de la IA suele estar implícito en el funcionamiento del modelo, mientras que las aplicaciones tradicionales utilizan datos porque el desarrollador lo ha especificado explícitamente. ¿Cómo se puede saber, entonces, qué va a solicitar la IA? La forma interactiva de la IA plantea el mayor riesgo. Aunque las empresas consideran que este modelo se limita quizá al 10% o 15% de los trabajadores —aquellos con mayor valor unitario de su trabajo—, resulta casi imposible predecir qué recursos puede demandar la interacción de un empleado concreto. “Una sola pregunta podría consumir tantos recursos informáticos, tantos datos y generar tanto tráfico como una semana entera de funcionamiento de una aplicación normal”, se quejaba un responsable de planificación, señalando que esta repentina presión sobre los recursos puede afectar al rendimiento de TI en amplias áreas del negocio. Además, los agentes interactivos podrían contar con permisos de acceso muy amplios, lo que plantea importantes problemas de gobernanza de los datos. Las empresas coinciden en que nunca debe otorgarse a un agente acceso total. En primer lugar, por los evidentes riesgos de privacidad y gobernanza, pero también porque cualquier tipo de redundancia en los datos genera riesgos adicionales. Esto va más allá de la simple deduplicación. Las empresas recomiendan evitar la mezcla de datos detallados y datos resumidos, incluidos los denominados datos “derivados”. Existe el riesgo de que trabajar con distintos niveles de granularidad sesgue los resultados de forma involuntaria. “Veinte resúmenes de los mismos datos detallados pueden parecerle a la IA como veinte fuentes distintas”, reconocieron desde una empresa. La decisión de IBM de adquirir Confluent, una compañía conocida por el desarrollo de aplicaciones de flujo de datos, podría estar relacionada con estas cuestiones de control de acceso y gobernanza de la información. ## 2. Copias de seguridad en la nube La segunda prioridad tampoco resulta sorprendente, si tenemos en cuenta las noticias recientes. De las 284 empresas consultadas, 173 afirmaron que necesitan una estrategia para realizar copias de seguridad de los componentes en la nube en caso de interrupciones del servicio. Según explican, esto resulta mucho más complejo de lo que suele pensar la alta dirección. En primer lugar, es necesario decidir qué es lo que realmente debe respaldarse. “No se puede inmunizar completamente frente a un fallo masivo de la nube o de Internet”, señalan los responsables de planificación. La mayoría de las interrupciones en la nube, añaden, se resuelven en un plazo máximo de unas pocas horas, por lo que algunas aplicaciones pueden simplemente esperar. Una vez definido el “qué”, llega el “cómo”. ¿Es la multinube el mejor enfoque o conviene ampliar la capacidad del centro de datos? Las empresas señalan que incorporar resiliencia, en cualquiera de sus formas, puede exigir rediseñar ciertas aplicaciones para que los componentes alojados en la nube sean portables. Esto también puede implicar revisar dónde se almacenan los datos de las aplicaciones y cómo se gestiona el acceso a los mismos. ## 3. Simplificación de la infraestructura La tercera prioridad consiste en gestionar la complejidad técnica de la infraestructura, que es algo que citan 139 empresas. “Tenemos demasiadas cosas que comprar y gestionar”, afirmaba un responsable. “Demasiados proveedores, demasiadas tecnologías”, dijo otro. Nadie cree que sea viable una reestructuración masiva —no hay presupuesto para ello—, pero sí consideran que los proyectos actuales pueden alinearse con una estrategia de simplificación a largo plazo. De forma llamativa, más de un centenar de las empresas consultadas considera que esta simplificación pasa por reducir el número de proveedores. Creen que el “bloqueo” con un proveedor es un precio asumible a cambio de una mayor eficiencia y de una menor complejidad en las operaciones, la integración y el aislamiento de fallos. Se trata del mayor giro en contra de la infraestructura abierta o de múltiples proveedores que el autor ha observado hasta la fecha. ## 4. Priorizar la gobernanza La cuarta prioridad, muy próxima a la tercera, es más administrativa que puramente tecnológica. Un total de 124 empresas afirmaron que necesitan “renovar por completo la gobernanza”. La IA es un factor clave en este ámbito, pero también lo son el modelo elástico de alojamiento en la nube, la multinube y las cuestiones de “soberanía” derivadas de operar en múltiples jurisdicciones, así como el entorno regulatorio, cada vez más complejo y cambiante. El porcentaje de empresas que afirman necesitar aportaciones formales en materia de “asuntos gubernamentales” para sus prácticas de gestión ha pasado del 12% en 2020 al 47% en 2026. Por ejemplo, las preocupaciones de la Unión Europea en torno a la nube y la soberanía de la IA influyen directamente en los planes de resiliencia tanto de la IA como de las aplicaciones en la nube. El principal problema, según las empresas, es que la gobernanza suele aplicarse únicamente en la fase de planificación de los proyectos. En ausencia de grandes proyectos, la gobernanza tiende a quedar obsoleta, basada en revisiones antiguas. Las organizaciones señalan que, al igual que ocurre con la IA, la expansión ordenada del uso de aplicaciones y datos puede generar problemas de gobernanza, al igual que los cambios legislativos y regulatorios. La IA complica aún más este escenario, ya que resulta difícil —o incluso imposible— saber a qué datos accede si no existen filtros claros sobre su disponibilidad. Todo ello supone un reto considerable, agravado por el hecho de que muchas empresas ni siquiera están acostumbradas a pensar en la gobernanza fuera del marco de un proyecto concreto. ¿Es necesario crear “proyectos de gobernanza”? Y, de ser así, ¿cómo se justifican y financian? Existen procedimientos claros cuando se producen cambios legislativos relevantes, pero no tanto frente a otros desafíos. Incluso los agentes de IA de flujo de trabajo pueden introducir nuevos problemas de gobernanza a medida que se generaliza su uso. ## 5. Gestión de costes La última prioridad de la lista, citada por 108 empresas, es en muchos sentidos un freno para alcanzar los demás objetivos: hacer más con menos. De las 284 empresas consultadas, 226 afirmaron tener mayor presión presupuestaria de cara a 2026, y sólo nueve indicaron lo contrario; el resto señaló que la presión se mantiene estable. Resulta llamativo que esta quinta prioridad sea la que menor peso ha tenido en la gestión de costes desde 2008/2009. La diferencia clave respecto a años anteriores es que, mientras antes el “coste” se asociaba principalmente al capital invertido en equipos y software, el enfoque para 2026 se centra en el coste total, es decir, en el coste total de propiedad (TCO). Evaluar este último sería relativamente sencillo dentro del enfoque tradicional de proyectos, pero muchas de estas prioridades difuminan la frontera entre los “proyectos” que requieren revisión, justificación y aprobación formal, y las decisiones empresariales cotidianas que suelen escapar a ese nivel de formalidad. ¿Cómo se evalúa el TCO de la optimización general de la eficiencia de la IA, de la resiliencia de las aplicaciones en la nube o de la gobernanza? En conjunto, los comentarios de las empresas sugieren que, aunque están priorizando muchos aspectos esperables, también se enfrentan a otros más sutiles. Incluso en ámbitos como la IA, están adoptando enfoques distintos a los que muchos anticipaban. El foco se desplaza del análisis de componentes individuales al del ecosistema en su conjunto, lo que convierte a 2026 en un año especialmente interesante, con numerosas tendencias clave a las que habrá que prestar atención.
www.cio.com
December 23, 2025 at 7:30 PM
Employee AI optimism lost to an AI leadership void
Company executives are more bullish about AI than their employees, with most workers complaining about a lack of comprehensive training and clear AI roadmaps, according to a recent survey. Executives are 15% more likely to say AI has had a significant positive impact on their companies than their employees are, with only one in three workers saying they’re prepared to adapt to changes prompted by AI, according to the survey commissioned by Google Workspace. The new survey reflects an earlier study by agentic AI provider Writer, which found executives more excited about their AI rollouts than their employees were. While 61% of employees surveyed say they use AI daily, more than four in five wish their organizations would focus more on the technology, the new survey finds. “One in three don’t feel prepared because of the failures of leadership,” says Derek Snyder, director of product marketing at Google Workspace. “Employees see the hype, but they’re skeptical or dubious that they’re going to be able to get real things done and that this isn’t just going to slow them down.” A major problem is a lack of AI training for employees, Snyder adds, with many employees confused about the options for AI tools. “Employees are uncertain which tools they should use, and they feel really paralyzed by this,” he says. “They hear a lot about this tool and that tool, but they don’t know what they should actually use and for what task.” ## A lack of maturity The survey also suggests that executives’ optimism about AI not only exceeds employee views but also outpaces their companies’ actual AI maturity. Google Workspace, using several metrics collected in the survey, calculated that only 3% of the companies represented have been highly transformed by AI. Nearly three-quarters of the companies represented are in the early stages of AI transformation. The new survey echoes the results of another recent survey from AIOps observability provider Riverbed, which found that a huge majority of technical specialists and business and IT leaders believe their organizations will meet their AI expectations, despite only 12% currently having AI in enterprise-wide production. Companies highly transformed by AI tend to have evangelists of the technology that span across all functions of the business, instead of being concentrated in a specialized AI team, Snyder says. These organizations also have strong executive buy-in, with leaders often telling employees how they’re using AI to make their lives easier. “Executives will talk in all-hands meetings about how people in the organization, or they themselves, were able to get something done with AI that they fundamentally could never do before,” he says. “It creates this permission structure, because there is still a set of employees who are like, ‘This feels a little like cheating.’” Google Workspace also recommends that organizations create transparent AI roadmaps that can be continuously refined. Companies also should identify and prioritize quick AI wins that demonstrate value. ## Leaders needed Other AI experts also see a need for more leadership in pointing employees and organizations toward AI wins. HR services provider BambooHR, in its own research, has found that less than a third of employees have access to formal AI training, says Alan Whitaker, head of AI at the company. He compares an AI rollout to the complexity of a CRM implementation, with a need to think through processes and data architecture — and to roll out extensive training. “AI requires that same methodical approach, maybe more, because it touches every aspect of how people work,” Whitaker says. “If you just buy a tool and have everyone install it and try to figure it out, the results and investment will be uneven, ineffective, and messy.” Whitaker isn’t surprised that executives are more optimistic about AI than their employees are. Executives see the potential to transform business models, create new revenue streams, and solve sticky problems, he says, while employees focus on the near term. “Executives expect revenue growth from gen AI but don’t offer clear paths to get there,” he explains. “Employees have deliverables due, clients to serve, and KPIs to hit, all while being asked to learn a fundamentally new way of working. And they’re not seeing enough realistic, practical examples that make them confident about using AI in their daily work.” There’s a natural difference between executive and employee attitudes about AI, agrees Jean-Philippe Avelange, CIO at managed cloud connectivity provider Expereo. Executives look at AI through a portfolio lens, including efficiency gains, customer experience improvements, and the ability to modernize operations, he says. “On the other hand, employees experience AI far more personally,” Avelange adds. “Uncertainty about skills, changing workflows, and job impact naturally creates this caution.” While a gap in optimism isn’t surprising, it is solvable, he says. “The solution lies in transparency, practical upskilling programs, and showing teams exactly how AI augments rather than replaces their work,” he adds. “When employees understand the safeguards and see tangible benefits, optimism grows.” Research by Yooz, a provider of automated financial processes, echoes the results from the Google Workspace survey. The Yooz 2025 Workplace Tech Resistance Report, released earlier this year, found that nearly half of all works feel excluded from AI adoptions, says Laurent Charpentier, CEO of the company. “When people are left out, they hesitate, resist, or avoid using new tools altogether,” he says. “AI readiness isn’t about access to software. It is about communication, training, and showing employees how these tools remove manual friction rather than threaten their roles.”
www.cio.com
December 23, 2025 at 7:30 PM
Should CIOs rethink the IT roadmap?
Roadmap development in the CIO world used to mean thinking out five to 10 years about technology trends and then planning and preparing for them. But with unanticipated and immediately disruptive technologies becoming a fact of IT today, including the need to defend against them in a heartbeat, developing technology roadmaps becomes much more than just planning upgrades to obsolete technology and systems. The complexity and foresight involved greatly reduce the CIO’s horizon of expectations, making establishing even a three-year IT roadmap a challenge. Just what does creating an IT roadmap entail today, and how can CIOs ensure the roadmaps they make remain relevant? Here’s how to rethink your approach to the IT roadmap given the rocky road ahead. ## Prepare for disruption IT roadmap planning still hinges on understanding the present technical landscape and projecting long-term implications of anticipated changes in the years ahead. At present, AI appears to be the most impactive force on IT systems and company operations over the next 10 years. It’sIts continued evolution will result in increased automation and changes to the man-machine interface that will make company operations even five years from now look quite different from what they are today. AI in itself is a major disrupter for operations and systems that will need to be planned for. As technology consultancy West Monroe states: “You don’t need bigger plans — you need faster moves.” This is a fitting mantra for IT roadmap development today. CIOs should ask themselves where the most likely business and technology plan disrupters are going to come from. Here are some top candidates: **Organization resilience and risk management:** Is the company prepared for the job displacement and role redefinitions that will occur as more automation and AI are implemented? Will employees be adequately trained and equipped with the skills and technologies that will need to be used in a new business environment? What about systems? Which systems are likely to keep pace with the rate of technological change, and which are not? What is Plan B if a system is suddenly rendered obsolete or inoperative? **Security:** AI will be used by both good and bad actors, but as bad actors begin to strike organizations with attacks assisted by AI, does internal IT have the right AI tools and skills to fight off these attacks and respond? Or can IT develop a more preemptive approach for detecting, anticipating, and preparing for new AI security threats? Does your security team possess the latest AI security tools and skills to do this work? And from another perspective: Do you have the strategy, skills, and technology to adequately defend your own AI infrastructure as attacks against it arise? **Supply chains:** The geopolitical landscape is changing rapidly. Is the business, including IT, ready to pivot to alternate suppliers and supply chain routes if present suppliers or supply chain routes are adversely impacted? And can systems keep pace with these changes? **Failover:** Do you have redundant systems in place if a disastrous event occurs in a particular geozone and you need to failover? And if your systems, AI, and automation become totally inoperative, does the company have on staff employees who can revert to manual processes if needed? ## Developing a resilient IT roadmap Understandably, CIOs can only develop future-facing technology roadmaps with what they see at a present point in time. However, they do have the ability to improve the quality of their roadmaps by reviewing and revising these plans more often. Today, the shortcoming at many companies is that leadership writes strategic plans and roadmaps as an annual exercise only. Given the rate of change of technology, putting away an IT roadmap for 12 months without periodic review and revision to adjust for disruptive change is no longer viable. CIOs should revisit IT roadmaps quarterly at a minimum. If roadmaps must be altered, CIOs should communicate to their CEOs, boards, and C-level peers what’s happening and why. In this way, no one will be surprised when adjustments must be made. As CIOs get more engaged with lines of business, they can also show how technology changes are going to affect company operations and finances before these changes happen. They can alert the board and management to new risk factors that are likely to arise from AI and other disruptive technologies — and ensure these disruptions and risks are factored into the corporate risk management plan. In this way, CIOs can maintain alignment of the IT strategic plan and roadmap with the business strategy. Equally important is emphasizing that a seismic change in technology roadmap direction could impact budgets. For instance, if AI-driven security threats begin to impact company AI and general systems, IT will need AI-ready tools and skills to defend and to mitigate these threats. It’s possible that a budget exception or a fund reallocation will need to be made so the right technologies and training can be acquired. Financial issues can also arise on corporate or IT supply chains if a particular supplier is suddenly unavailable and/or alternate supply routes must be found. Finally, IT staff training should become a standard element in IT roadmaps — and not just an option. Past IT roadmaps had a tendency to dwell only on technology and system forecasts, often omitting elements like workforce reskilling. With rapid technology change, staff reskilling should be a mandatory IT roadmap component because it’s the only way to plan and ensure that IT stays up to the task of working with new technologies. Reskilling should also include cross-training plans for IT staff members so they are able to work in multiple roles if IT needs to rapidly redirect resources. ## Rethink — or regret As Benjamin Franklin once said, “By failing to prepare, you are preparing to fail.” Now is the time for CIOs to transform the IT roadmap into a more malleable and responsive document that can accommodate the disruptive changes in business and technology that companies are likely to experience.
www.cio.com
December 23, 2025 at 7:31 PM
오래됐지만 여전히 쓰인다···개발자가 포기하지 않는 프로그래밍 언어 8선
컴퓨터 혁명은 언제나 새로움과 다음 단계를 향해 움직여 왔다. 과도한 기대를 부추기는 흐름은 가장 최신의 아이디어가 곧 다음 위대한 도약이 될 것이라는 인식을 우리에게 심어왔다. 그러나 최근 들어 일부 개발자들은 조용히 이 흐름에서 벗어나고 있다. 한때는 새로운 프로그래밍 언어가 쏟아져 나오는 흐름이 모든 관심을 끌었지만, 요즘에는 에이다나 C 같은 오래된 언어가 다시 인기 언어 지표 상위권을 되찾는 사례가 더 자주 눈에 띈다. 이러한 순위가 완벽하다고 보기는 어렵지만, 오랜 시간 축적된 프로그래밍 언어가 여전히 상당한 존중을 받고 있음을 보여주는 하나의 지표로는 의미가 있다. 이 같은 흐름은 일시적인 유행에 그치지 않는다. 할머니 원피스나 뿔테 안경처럼 향수를 자극하는 패션 트렌드와 달리, 오래된 언어가 여전히 선택되는 데에는 분명하고 실용적인 이유가 있다. 무엇보다 기존 코드를 최신 언어로 다시 작성하는 과정은 문제를 해결하기보다 새로운 버그를 만들어내는 경우가 많다. 소프트웨어의 로직은 시간이 흐른다고 해서 닳거나 부패하지 않는다. 이미 충분히 검증된 코드를 단지 새로운 문법적 편의를 누리기 위해 버릴 이유는 없다는 의미다. 세련된 스타트업의 개발자들은 이를 비웃을 수도 있다. 그러나 그런 기업들은 몇 분기 만에 초기 투자금을 소진하는 경우가 적지 않다. 반면 대기업들은 방대한 레거시 코드에서 여전히 실질적인 수익을 만들어내고 있다. 어느 쪽이 더 합리적인 선택인지는 분명하다. 오래된 언어를 고수한다고 해서 현대적인 개발 원칙을 거부하는 것은 아니다. 많은 전통적인 언어는 최신 기능을 담은 새로운 버전으로 꾸준히 업데이트돼 왔다. 객체지향 코드 작성과 같은 현대적 개발 방식도 이러한 과정을 통해 자연스럽게 도입됐다. 오래된 언어의 새 버전을 개발해 온 팀들의 지속적인 노력 덕분에, 개발자들은 최신 유행을 좇아 언어를 바꾸거나 코드를 다시 작성할 필요가 없다. 펀치카드 단말기를 최신 편집기와 통합개발환경으로 교체하면서도, 기존 시스템은 여전히 안정적으로 운영할 수 있다. 다음은 현대 소프트웨어 개발의 최전선에서 지금도 활발히 사용되고 있는 오래된 프로그래밍 언어 8가지다. ## 코볼(COBOL) 코볼은 이미 오래전에 사라졌어야 할 것처럼 보이지만, 실제로는 수많은 대기업 내부에서 여전히 살아 있는 대표적인 프로그래밍 언어다. 은행과 보험사를 비롯한 금융기관은 핵심 비즈니스 로직의 상당 부분을 코볼에 의존하고 있다. 코볼의 문법은 1959년으로 거슬러 올라가지만, 이후 의미 있는 업데이트가 이어졌다. 코볼 2002에서는 객체지향 확장이 도입됐고, 코볼 2023에서는 일반적인 데이터베이스 트랜잭션 처리 방식이 개선됐다. 그누코볼은 코볼을 오픈소스 생태계로 끌어들였으며, 비주얼 코볼과 아이에스코볼 같은 통합개발환경은 오래된 문법을 올바르게 사용하고 있는지 손쉽게 점검할 수 있도록 지원한다. ## 펄(Perl) 파이썬은 시스템을 연결하는 간단한 코드 작성과 같은 기본적인 작업에서 펄을 상당 부분 대체했다. 그럼에도 일부 개발자에게는 초기 스크립트 언어 가운데 하나인 펄의 간결하고 강력한 문법이 여전히 최고라는 평가를 받는다. 이들은 파이썬이 지나치게 장황하다고 본다. 22만 개가 넘는 모듈을 보유한 종합 펄 아카이브 네트워크(CPAN)는 다양한 일반적인 프로그래밍 작업을 매우 간단하게 처리할 수 있도록 돕는다. 최근 몇 달 사이 펄은 티오베 지수에서 다시 상승세를 보이며 2025년 9월 기준 10위에 올랐다. 이 수치는 아마존에 등록된 펄 관련 서적과 제품에 대한 검색량을 일부 반영한 것으로, 언어 자체에 대한 관심도를 간접적으로 보여주는 지표로 활용된다. ## 에이다(Ada) 에이다 개발은 1970년대 미국 국방부가 방대한 소프트웨어 프로젝트를 하나의 표준 컴퓨터 언어로 통합하기 위해 추진되면서 시작됐다. 공개 시장에서는 큰 인기를 끌지 못했지만, 방위 산업 분야에서는 지금도 강력한 사용자층을 유지하고 있으며, 핵심 시스템을 제어하는 데 활용되고 있다. 에이다는 1995년 객체지향 코드 지원을 강화했고, 2012년에는 계약 기반 프로그래밍 기능을 추가하는 등 지속적으로 발전해 왔다. 최신 표준인 에이다 2022는 안정적이면서 버그 발생 가능성을 낮춘 병렬 처리 구조를 적극적으로 수용하고 있다. ## 포트란(Fortran) 포트란은 1953년 IBM이 기계어 대신 수학 공식에 가까운 보다 자연스러운 방식으로 소프트웨어를 작성하고자 하면서 등장했다. 흔히 최초의 고급 언어로 불린다. 현재도 포트란은 기상 예측이나 유체 역학 시뮬레이션처럼 대규모 수치 연산이 필요한 자연과학 분야에서 꾸준히 활용되고 있다. 비교적 최근의 버전에서는 2003년 객체지향 확장이 추가됐고, 2008년에는 서브모듈 기능이 도입되는 등 현대화를 이어왔다. GNU 포트란과 같은 오픈소스 구현체가 존재하며, Intel 역시 내부적으로 자체 포트란 버전을 계속 지원하고 있다. ## C 계열 언어 C 언어 자체가 인기 프로그래밍 언어 순위 최상단에 오르지 않는 이유는 순수 C를 비롯해 C++, C#, 오브젝티브 C 등 다양한 파생 언어로 사용자층이 분산돼 있기 때문이라는 해석이 많다. 문법만 놓고 보면 자바처럼 C와 유사한 언어도 적지 않다. 다만 내부 구조에서는 상당한 차이가 존재하며, C 계열 언어 간 코드 역시 일반적으로 상호 호환되지 않는다. 그럼에도 쉽게 사라지지 않는 언어를 조명하는 목록이라면, 다양한 형태로 이어지며 생명력을 유지하고 있는 C 계열 문법의 인기를 빼놓을 수 없다. ## 비주얼 베이직(Visual Basic) BASIC의 첫 번째 버전은 학생들에게 반복문과 GOSUB 같은 개념을 가르치기 위해 설계된 교육용 언어였다. 마이크로소프트(MS)는 많은 기업이 단순한 애플리케이션에 비즈니스 로직을 직관적으로 추가할 방법을 필요로 한다는 점에 주목했다. 기업 사용자들은 수천 개의 클래스와 수십 개의 마이크로서비스로 구성된 복잡한 애플리케이션이 아니라, 데이터 오류를 정리하거나 반복적인 업무를 처리할 수 있는 간단한 코드가 필요했다. 이러한 요구를 충족하기 위해 비주얼 베이직이 만들어졌고, 현재도 많은 기업과 소규모 애플리케이션 환경에서 실무용으로 사용되고 있다. 비주얼 베이직은 여전히 간단한 애플리케이션에 최소한의 지능을 추가하는 가장 손쉬운 방법 가운데 하나로 꼽힌다. 1960년대와 크게 다르지 않은 반복문과 조건문 구조에, 클라우드와 데이터베이스, 대규모 언어 모델 같은 클라우드 기반 서비스의 힘이 더해지면서 지금도 강력한 조합을 유지하고 있다. 이러한 이유로 비주얼 베이직은 여전히 인기 프로그래밍 언어 순위에 이름을 올리고 있다. ## 파스칼(Pascal) 파스칼은 1971년 니클라우스 비르트가 교육용 언어로 설계했으며, 이후 초창기 정적 타입 언어를 대표하는 존재로 자리 잡았다. 다만 전 세계적인 성공을 거둔 것은 특정 구현체에 한정됐다. 오래된 개발자들 가운데는 끝이 보이지 않는 리액트 빌드가 완료되기를 기다리며, 터보 파스칼의 빠른 컴파일 속도를 떠올리고 감상에 젖는 이들도 있다. 파스칼은 오늘날에도 오픈소스와 상용 버전을 포함해 다양한 형태로 살아남아 있다. 가장 대표적인 구현체로는 주요 플랫폼을 폭넓게 지원하는 델파이 컴파일러가 꼽힌다. 특히 델파이가 여전히 ‘앱을 5배 더 빠르게 만든다’는 초기 광고 문구를 유지하고 있다는 점은 이 언어의 성격을 상징적으로 보여준다. ## 파이썬(Python) 파이썬은 1991년에 처음 공개된 비교적 최신 언어로, 이 목록에 포함된 언어 가운데서는 가장 젊은 편에 속한다. 그럼에도 많은 파이썬 개발자는 오래된 버전의 언어를 계속 유지하며 사용하고 있다. 파이썬은 새 버전이 나올 때마다 기존 코드의 일부가 정상적으로 동작하지 않게 만드는 변화가 소폭씩 포함되는 경우가 잦다. 이 때문에 개발자들은 특정 시점의 파이썬과 주요 라이브러리 버전을 고정하기 위해 가상 환경을 설정하는 방식을 일반적으로 활용한다. 일부 개발 환경에는 코로나19 이전이나 특정 정치적 시기, 심지어 Y2K 버그 논의가 한창이던 시절을 떠올리게 하는 여러 개의 가상 환경이 공존하기도 한다. 파이썬은 다른 언어에 비해 역사는 짧지만, 오래된 코드를 끝까지 책임지고 유지하려는 개발자들의 태도만큼은 이 목록에 오른 언어들과 다르지 않다. [email protected]
www.cio.com
December 23, 2025 at 7:31 PM