Monthly Archives: June 2025

Mid-Transition Series

(LinkedIn: https://www.linkedin.com/pulse/mid-transition-series-part-1-electrify-first-expand-grid-marcoux-tqkue/)

The Mid-Transition Series explores how overlapping systems, misaligned expectations, and institutional inertia shape the complex path to a clean energy future.

Electrify First, Expand the Grid and Catch Up on Generation

Before we dive into the messiness, misinterpretations, and institutional frictions of the energy transition, we begin with what is clear and actionable: taking no-regret steps like electrifying what we can, building the grid to support it, and scaling generation to match. The harder-to-electrify sectors — like freight, aviation, and high-temperature industrial heat — can be addressed through focused R&D and long-term planning.

That’s the logic: begin by electrifying what’s ready, and preparing for what’s harder. Here’s how that plays out step by step:

1. Start with efficient electrification of ready sectors. Electrify what we already know works: passenger transport, building heating, and low-temperature industrial processes — while also deploying energy efficiency measures across buildings and industry to reduce demand and system stress. These end uses are technologically mature, economically viable, and provide immediate and measurable improvements in efficiency, emissions, and air quality. Electrifying them now lays the demand-side foundation for broader system transformation.

2. Build out the grid — physically and digitally — in lockstep with new demand. Transmission and distribution systems must be reinforced and extended to accommodate distributed generation, shifting loads, and the increasing need for ancillary services. At the same time, digital tools — such as grid automation, dynamic pricing and real time forecasting — are needed to shape and manage generation and demand more intelligently. These upgrades are not just technical but strategic, making the grid more flexible, responsive, and ready for a clean, electrified future.

3. Expand generation — prioritize clean, but build what’s needed. New capacity must come online fast. After decades of relatively flat electricity demand growth, the entire electricity supply chain — from transformers and turbines to heat pumps and skilled labour — must now scale up dramatically. While clean sources like wind, solar, hydro, geothermal, nuclear, and storage are the goal, interim fossil generation may be needed to ensure reliability and flexibility. CCGT plants, for example, can be built relatively quickly under normal conditions and operate at 55–62% efficiency — although supply chain bottlenecks may temporarily affect delivery timelines. Paired with efficient end-use electrification, they offer a transitional solution that supports decarbonization without locking in long-term end-use emissions. Fortunately, my home province of Québec has ample dispatchable hydropower, easing the integration of additional wind and solar generation, without the need for natural gas plants.

4. Invest now in the hard-to-electrify sectors. Freight, aviation, high-temperature industrial heat — these are more challenging and will require long-term R&D, demonstration projects, and industrial policies to bring viable clean solutions to market.

Conclusion: A successful transition builds the backbone before scaling complexity. Pair efficient end uses with efficient generation. Let the grid evolve with both. And recognize that some technologies will play bridging roles. This is not about perfection today, but about building the systems that allow us to move faster, smarter, and more affordably toward a decarbonized energy future.

The telecom world provides a useful lesson: mobile phone networks didn’t just appear fully formed. They evolved step by step — with spectrum allocation, tower construction, backhaul, device adoption, and billing innovation all occurring in stages. Energy planners should adopt the same mindset: build the backbone first, then enable services and flexibility over time.

Why Fossil Demand May Spike During the Energy Transition (and Why That’s Not Failure

The transition to a low-carbon energy system does not follow a straight, smooth path. During what Emily Grubert and Sara Hastings-Simon call the “mid-transition”, we live with overlapping infrastructures: old fossil-based systems remain active while new clean technologies ramp up.

In this phase, fossil fuel use can temporarily spike — not because we’re failing, but because the old system is still needed to stabilize or supplement the new one. This is particularly true for electricity grids: as electrification surges (EVs, heat pumps, industry), clean generation and storage may not ramp up quickly enough to reliably meet peak demand. In such cases, new fossil-fuel plants may be required as a bridging measure to ensure system adequacy. However, these plants will operate at lower capacity factors over time, as renewable generation, storage, and demand flexibility continue to scale and reduce their role. This dynamic is already visible in China, which has approved and is still building new coal-fired power plants to meet growing demand and to ensure system reliability, especially during peak demand periods or localized shortages. Yet, coal generation is declining in 2025 as renewable generation is increasing. In such cases, the investment in new fossil capacity does not contradict the transition but supports it — by acting as a temporary buffer that becomes less utilized over time. Over the longer term, these same sites can be repurposed. Some plants can be modified to operate as synchronous condensers, providing voltage support and inertia without generating power. Others may be ideal locations for battery storage systems, leveraging existing grid interconnections and permitting. Planning for future reuse at the time of investment can help reduce stranded asset risk and enhance long-term system flexibility.

The telecom world followed a similar arc. Landline subscriptions in North America kept growing into the early 2000s, even as mobile phones and Internet telephony took off. At home, I had four analog lines — for the family, a home office, fax, and dial-up Internet — plus an analog cell phone and an analog cable TV service. This setup was typical at the time: peak analog, right before broadband and smartphones made it obsolete. (We now have broadband Internet and smartphones only.) What looked like growth was really the final swell before disruption. Maintaining all these systems may have seemed inefficient, but it was necessary. The same is true for energy: overlapping infrastructures are not poor planning, but a hallmark of transition.

The key is to recognize these peaks not as setbacks, but as signs that system change is underway. What’s essential is planning their obsolescence even as they temporarily expand.

Efficiency Is the Hidden Hero

Efficiency is often overlooked in energy discussions, yet it is a foundational driver of emissions reductions and system performance. Electrified systems like EVs and heat pumps are dramatically more efficient than their fossil-fuelled counterparts — a fact that holds true even when powered by fossil-heavy grids. EVs, for instance, convert over 80% of battery energy to motion, compared to less than 25% in gasoline engines. Heat pumps can deliver three to four units of heat per unit of electricity, far outperforming traditional oil or gas furnaces.

In Québec, where electricity already makes up nearly 50% of final energy use thanks to abundant hydropower, replacing remaining oil systems with heat pumps delivers immediate environmental and cost benefits. Moreover, much of Québec’s housing stock was built in the 1970s and 1980s with electric baseboards. These are simple but demand-intensive systems. Upgrading them to cold climate heat pumps with smart thermostats not only improves household efficiency, it also frees up valuable grid capacity during winter peaks — capacity that can be redirected to support EVs or other electrified loads.

Efficiency gains go beyond equipment swaps. Insulating buildings, sealing leaks, improving windows, and modernizing industrial equipment and processes all reduce system strain and energy costs. One such industrial example is the adoption of variable-frequency drive (VFD) motors. VFDs adjust a motor’s speed and torque to match actual demand, significantly reducing energy use in pumps, fans, and compressors — applications that make up a large portion of industrial consumption. These improvements are classic no-regret measures: low-risk, low-cost, and high-impact. They cut demand, lower emissions, and enhance resilience — especially important as electrification scales.

Even in provinces or countries where the grid still relies heavily on fossil fuels, these actions reduce overall emissions across the system’s lifecycle. Efficiency should, therefore, be seen not just as a side benefit, but as a strategic enabler of the entire energy transition.

In telecom, early mobile systems had similar trade-offs. Initial digital systems — like early voice-over-IP or digital switching — were often less spectrally efficient than analog ones. Accurately transmitting 1s and 0s required more bandwidth and higher fidelity compared to analog voice. Voice quality and latency were initially worse. But digital platforms enabled new services, evolved quickly, and scaled dramatically in performance. The same logic applies to electrification: the early phase may not be perfect, but it enables a dynamic, software-enhanced, rapidly improving system architecture.

Efficiency — both in physics and system adaptability — is the reason electrification cuts emissions today and lays the foundation for deeper decarbonization tomorrow. This advantage mirrors the logic in Part 1: whether through highly efficient combined-cycle gas generation or through clean, electrified end uses like EVs and heat pumps, choosing the most efficient technology available today is a no-regret way to reduce emissions and improve system performance. The challenge, then, is not whether electrification makes sense — it’s how to scale it quickly and effectively.

Governing in Disequilibrium

The mid-transition is marked by complexity: fast-changing technologies, slow-moving institutions, and legacy systems that can’t disappear overnight. Not all sectors advance at the same pace, and policy should reflect this heterogeneity. For instance, home heating and light-duty vehicle sectors are ripe for rapid electrification, while heavy industry and long-distance freight may need more time and targeted R&D support. A differentiated approach — matching tools and timelines to sector maturity — will produce better results than one-size-fits-all policy frameworks.

Policy must match this reality. Incentives are often crucial in expediting the implementation of electrification technologies, particularly at the consumer level, where initial costs continue to be a barrier. Subsidies for heat pumps, EVs, smart appliances, and retrofits can catalyze demand, create economies of scale in manufacturing and installation, and speed up market transformation — though these incentives should be designed to taper off as markets mature and costs decline. Meanwhile, regulatory tools — including standards for building codes, vehicle emissions, and utility performance — play a crucial role in shaping how electrification, grid upgrades, and generation buildout unfold. Together, targeted incentives and strong regulations create the enabling conditions for coordinated decarbonization.

R&D, subsidies, and governance should favour fast-cycling innovations (like DERs, digital controls, and distributed storage), which deliver rapid gains and learning cycles. These investments should be complemented by longer-term support for foundational technologies in harder-to-decarbonize sectors, and by strategies to manage the planned decline of fossil infrastructure — including retraining workers and reallocating capital.

Carbon pricing and market reform are tools — not silver bullets. While carbon pricing can be an effective tool for reducing emissions in some sectors, it is less effective at driving complex infrastructure transitions on its own. Electricity systems are not fully liberalized markets: they involve regulated monopolies, long planning horizons, and public-interest obligations. Without complementary policies — like performance standards, direct investment, and regulatory reform — price signals may simply reinforce the status quo. In electricity systems characterized by long-lived infrastructure, incumbent utilities, and planning rigidities, carbon pricing alone may increase costs without driving meaningful change. It may discourage consumption without creating the necessary conditions to shift how power is generated, delivered, and used. As with telecom, it was not pricing reform alone that enabled digital transformation, but institutional openness to new actors, technologies, and business models. A mix of capacity markets to ensure reliability, flexible tariffs to shape demand, and equity-based programs to support low-income and underserved communities should take centre stage.

Telecom regulators lagged during the mobile revolution, struggling to apply outdated rules built for analog voice services to a rapidly evolving digital landscape. This mismatch delayed innovation and created friction during a period of fundamental transformation — a cautionary tale for today’s energy regulators facing a similarly disruptive shift.

Historically, telephone companies have operated as monopolies. But competition from cable operators, multiple mobile providers, and eventually Internet-based services forced a rethinking of the entire regulatory framework. The result was a more dynamic and pluralistic ecosystem, with overlapping platforms and diverse business models that evolved on their own timelines and required differentiated oversight.

The energy sector could face a similar transformation. Distributed energy resources (DERs) such as rooftop solar, batteries, vehicle-to-grid systems, and energy aggregators, are beginning to challenge the traditional one-way, centralized utility model. In addition, new institutional forms — including municipal utilities, Indigenous energy enterprises, and energy cooperatives — are gaining traction. These actors blur the lines between consumer and producer, infrastructure and service, public and private.

Energy regulation will need to adapt — not by copying telecom’s outcome, since the final structure of the electricity sector will vary by jurisdiction, but by applying the same principle: openness to decentralization, innovation, and diversity of models. A flexible, pluralistic regulatory framework will be essential for managing this complexity and avoiding the friction that slowed telecom’s early digital transition.

Just as telecom embraced new actors and decentralization, energy systems must welcome municipal leadership, community ownership, and user-side intelligence.

Misreading the Transition

Energy systems today face challenges remarkably similar to those telecom networks encountered during their digital transition. Digital telecom technologies like DSL and VoIP had to coexist with legacy analog systems for decades, creating friction due to protocol mismatches, legacy billing systems, and inconsistent service expectations. Likewise, clean energy technologies — from distributed solar to smart thermostats — are being deployed into infrastructure built for centralized, dispatchable fossil generation. Grid codes — the technical connection standards that govern how equipment interacts with the grid — along with interconnection rules and pricing models, often lag behind the capabilities and needs of these new technologies. Energy institutions, like their telecom counterparts, must revise rules, develop new skills, and embrace structural change. The coexistence of old and new isn’t a temporary bug — it’s the defining feature of the mid-transition.

Transition systems don’t grow linearly — they oscillate. Oversupply in one part of a value chain (e.g. solar PV modules or batteries) can result from constraints elsewhere (e.g. permitting, interconnection delays, or grid integration). These mismatches often lead to price crashes or gluts, not because the technologies have failed, but because the system hasn’t caught up. This dynamic has been repeatedly observed in solar PV manufacturing: booms driven by scaling incentives followed by busts when deployment lags. These fluctuations send conflicting market signals, confuse investors and policymakers, and can undermine public confidence in the transition. Understanding this volatility as a feature of disequilibrium — not a failure — is essential.

A telling example of this broader challenge is the deployment of smart meters. In many jurisdictions, the infrastructure is already in place — often through major public investments — but the benefits are unevenly realized. Time-of-use pricing, real-time feedback, and automated demand response require more than just smart meters: they depend on appropriate regulatory frameworks, utility engagement, and customer trust. Where these elements are lacking, the value of the technology remains latent. Telecom experienced something similar with underused broadband networks in the early 2000s: the physical infrastructure was there, but the service models and demand were not yet aligned. This underscores a recurring theme of the mid-transition — that physical build out must be matched by institutional readiness and user integration.

Another lesson from telecom is the pace and frequency of system overhaul. Over just a few decades, the industry cycled through multiple generations of mobile telephony — 2G, 3G, LTE, 4G, and now 5G — and broadband technologies — Digital Subscriber Line, Hybrid Fibre coax, and now Fibre-to-the-Home — each requiring major infrastructure upgrades. Cable and copper wiring were replaced by fibre; networks were torn out and rebuilt repeatedly. This pattern of continuous reinvention was normal. In contrast, electricity systems are built for longevity, with assets expected to last 40 to 80 years. This long-horizon mindset makes the idea of regularly replacing infrastructure seem wasteful. Yet the energy transition may demand more frequent reinvestment, particularly to upgrade early solar, wind, and grid technologies. Recognizing this difference in cultural and institutional expectations is key: what telecom embraced as a pathway to progress, electricity may resist — to its own detriment. This is particularly evident in wind repowering. Early wind projects were often built with smaller turbines and lower hub heights. Many of these sites are now being dismantled and rebuilt with vastly more productive equipment, enabling greater energy output from the same location, often with fewer turbines. Far from being wasteful, repowering reflects accelerated learning and evolving design standards — a sign of maturity, not failure. The electricity sector, like telecom, must normalize reinvestment as part of long-term transformation.

Another common but misunderstood signal of progress is curtailment — the deliberate reduction of output from renewable generators when supply temporarily exceeds demand or transmission capacity. To some, curtailment appears to be waste, as if clean electricity is being thrown away. But in a system with high shares of variable renewables, some level of curtailment is both expected and economically rational. It allows planners to size generation to meet needs under most conditions, while accepting occasional excess as a trade-off for reliability and resilience. In fact, strategic overbuilding — and the resulting curtailment — can be cheaper and faster than expanding transmission or storage in the short term. As with repowering, the optics of curtailment can mislead observers into thinking the system is broken when it may actually be operating efficiently within design limits.

Conclusion

The mid-transition is messy, but navigable. Understanding it means accepting that dual systems, temporary contradictions, and fast-shifting technologies are not signs of failure, but indicators of forward movement. Just as telecom weathered overlapping networks, regulatory lag, and public confusion on the way to transformative change, the energy system must do the same — but with higher stakes and less time. By focusing on no-regret actions, embracing efficiency, aligning governance with technology, and anticipating perception gaps, we can design a transition that is not only faster and cleaner, but fairer and smarter. The transition is underway. It won’t be perfect. But it can be planned.

Série mi-transition

La Série mi-transition explore comment des systèmes superposés, des attentes mal alignées et l’inertie institutionnelle façonnent le parcours complexe vers un avenir énergétique propre. 

(LinkedIn: https://www.linkedin.com/pulse/s%25C3%25A9rie-mi-transition-partie-1-dabord-%25C3%25A9lectrifier-%25C3%25A9tendre-marcoux-4q8ve/

D’abord électrifier, étendre le réseau et rattraper la production

Avant de plonger dans les déséquilibres, les malentendus et les frictions institutionnelles de la transition énergétique, commençons par ce qui est clair et réalisable : prendre des mesures sans regret comme électrifier ce qui est prêt, renforcer le réseau pour le soutenir, et augmenter la production de manière cohérente. Les secteurs plus difficiles à électrifier — comme le transport de marchandises, l’aviation et la chaleur industrielle à haute température — pourront faire l’objet de travaux de R&D ciblés et d’une planification à plus long terme.

Voici comment cela se décline, étape par étape :

1. Électrifier efficacement les secteurs déjà prêts. Électrifier les secteurs où les solutions sont matures : le transport de passagers, le chauffage des bâtiments et les procédés industriels à basse température — tout en mettant en œuvre des mesures d’efficacité énergétique dans les bâtiments et l’industrie pour réduire la demande et le stress sur le système. Ces usages finaux sont technologiquement éprouvés, économiquement viables et offrent des améliorations immédiates en matière d’efficacité, d’émissions et de qualité de l’air. Leur électrification pose les bases de la transformation du système énergétique.

2. Renforcer le réseau — physiquement et intelligemment — en fonction de la nouvelle demande. Les réseaux de transport et de distribution doivent être renforcés et étendus pour accueillir la production distribuée, les charges changeantes, et les besoins croissants en services ancillaires. Parallèlement, des outils numériques — automatisation du réseau, tarification dynamique, prévision en temps réel — sont nécessaires pour gérer la production et la demande de manière plus intelligente. Ces mises à niveau sont non seulement techniques, mais aussi stratégiques : elles rendent le réseau plus flexible, réactif et prêt pour un avenir électrifié et propre.

3. Développer la production — privilégier le propre, mais construire ce qui est nécessaire. De nouvelles capacités doivent entrer en service rapidement. Après des décennies de stagnation de la demande en électricité, l’ensemble de la chaîne d’approvisionnement — transformateurs, turbines, thermopompes et main-d’œuvre qualifiée — doit maintenant augmenter considérablement. Bien que les énergies à faible taux de carbone (éolien, solaire, hydroélectricité, géothermie et nucléaire) constituent les objectifs finaux, une production fossile de transition peut être nécessaire pour assurer la fiabilité. Les centrales à cycle combiné au gaz (CCGT), par exemple, peuvent être construites relativement rapidement dans des conditions normales et atteignent des rendements de 55 à 62 % — bien que des goulots d’étranglement dans la chaîne d’approvisionnement puissent retarder leur livraison. Couplées à des usages finaux électrifiés et efficaces, elles offrent une solution transitoire pour soutenir la décarbonation sans s’enliser dans des usages qui impliquent émissions à long terme. Heureusement, ma province d’origine, le Québec, dispose d’une abondante hydroélectricité modulable, facilitant l’intégration de l’éolien et du solaire supplémentaires, sans recourir à des centrales à gaz naturel.

4. Investir dès maintenant pour les secteurs difficiles à électrifier. Le transport de marchandises, l’aviation, la chaleur industrielle à haute température — ces secteurs sont plus complexes et nécessiteront des efforts de R&D, des projets pilotes et une politique industrielle soutenue pour parvenir à des solutions propres viables.

Conclusion : Une transition réussie commence par bâtir l’ossature avant d’ajouter la complexité. Il faut jumeler des usages finaux efficaces avec une production efficace. Le réseau doit évoluer avec les deux. Et il faut reconnaître que certaines technologies joueront un rôle de transition. Ce n’est pas la perfection qui est visée aujourd’hui, mais la création de systèmes qui nous permettront de progresser plus rapidement, plus intelligemment et plus durablement vers un avenir énergétique décarboné.

Le secteur des télécoms fournit une leçon précieuse : les réseaux mobiles ne sont pas apparus en un jour. Ils ont évolué par étapes — avec l’attribution de spectre, la construction de tours, la connectivité de retour (backhaul), l’adoption des appareils et l’innovation en matière de facturation. Les planificateurs de l’énergie devraient adopter le même état d’esprit : construire l’ossature d’abord, puis déployer les services et la flexibilité ensuite.

Pourquoi la demande de combustibles fossiles pourrait augmenter (et pourquoi ce n’est pas un échec)

La transition vers un système énergétique bas carbone ne suit pas un parcours linéaire. Durant ce que Emily Grubert et Sara Hastings-Simon appellent la «?mi-transition?», nous vivons avec des infrastructures qui se chevauchent : les anciens systèmes fondés sur les combustibles fossiles restent actifs pendant que les nouvelles technologies propres prennent de l’ampleur.

Dans cette phase, la consommation de combustibles fossiles peut temporairement augmenter — non pas parce que nous échouons, mais parce que l’ancien système est encore nécessaire pour stabiliser ou compléter le nouveau. C’est particulièrement vrai pour les réseaux électriques : avec la montée de l’électrification (véhicules électriques, thermopompes, industrie), la production propre et le stockage ne progressent pas toujours assez rapidement pour répondre de manière fiable aux pointes de demande. Dans ce contexte, il peut être nécessaire de construire de nouvelles centrales au gaz naturel ou au charbon comme solution transitoire pour assurer le bon fonctionnement du réseau. Toutefois, ces centrales fonctionnent à des facteurs de capacité plus faibles au fil du temps, à mesure que la production renouvelable, le stockage et la flexibilité de la demande prennent le relais. On observe déjà cette dynamique en Chine, qui continue d’autoriser la construction de centrales au charbon pour répondre à la demande croissante et garantir la fiabilité du système, surtout lors des périodes de pointe ou de pénuries locales. Pourtant, la production d’électricité à partir du charbon a baissé en 2025, tandis que les énergies renouvelables ont augmenté.

Dans ces cas, l’investissement dans de nouvelles capacités fossiles ne contredit pas la transition, mais la soutient — en agissant comme un tampon temporaire dont l’utilisation diminuera avec le temps. À plus long terme, ces mêmes sites peuvent être réaffectés. Certaines centrales peuvent être modifiées pour fonctionner comme condensateurs synchrones, offrant un soutien en tension et une inertie sans produire d’électricité. D’autres peuvent accueillir des systèmes de stockage par batteries, en tirant parti des interconnexions et des autorisations existantes. Planifier leur réutilisation future dès l’investissement initial permet de réduire les risques d’actifs échoués et d’accroître la flexibilité à long terme du système.

Le monde des télécoms a connu une dynamique similaire. Les abonnements à des lignes terrestres en Amérique du Nord ont continué de croître jusqu’au début des années 2000, alors même que les téléphones mobiles et la téléphonie Internet prenaient leur essor. À la maison, j’avais quatre lignes analogiques — pour la famille, un bureau à domicile, un télécopieur et l’accès Internet par modem — en plus d’un cellulaire analogique et du câble analogique. C’était typique à l’époque : un pic de technologies analogiques juste avant que le haut débit et les téléphones intelligents ne rendent tout cela obsolète. (Nous n’avons maintenant qu’Internet haute vitesse et des téléphones intelligents.) Ce qui ressemblait à une croissance était en fait le dernier soubresaut avant la rupture. Maintenir tous ces systèmes pouvait sembler inefficace, mais c’était nécessaire. Il en va de même pour l’énergie : des infrastructures qui se chevauchent ne sont pas le signe d’une mauvaise planification, mais une caractéristique normale de toute transition.

Il faut donc reconnaître ces pics non comme des échecs, mais comme des signes que le changement de système est en cours. Ce qui est essentiel, c’est de planifier leur obsolescence même lorsqu’ils continuent de croître temporairement.

L’efficacité est l’héroïne cachée

L’efficacité énergétique est souvent négligée dans les discussions énergétiques, et pourtant, elle est un moteur fondamental de réduction des émissions et d’amélioration de la performance des systèmes. Les systèmes électrifiés, comme les véhicules électriques (VE) et les thermopompes, sont nettement plus efficaces que leurs équivalents alimentés aux combustibles fossiles — même lorsqu’ils sont alimentés par des réseaux encore partiellement fossiles. Par exemple, les VE convertissent plus de 80 % de l’énergie de la batterie en mouvement, contre moins de 25 % pour un moteur à essence. Les thermopompes peuvent fournir trois à quatre unités de chaleur pour chaque unité d’électricité, surpassant largement les chaudières à mazout ou à gaz.

Au Québec, où l’électricité représente déjà près de 50 % de la consommation finale d’énergie grâce à l’hydroélectricité, remplacer les systèmes au mazout restants par des thermopompes offre des avantages environnementaux et économiques immédiats. De plus, une grande partie du parc résidentiel québécois des années 1970 et 1980 est équipée de plinthes électriques. Ces systèmes sont simples, mais très gourmands en énergie. Les remplacer par des thermopompes pour climat froid avec thermostats intelligents améliore non seulement l’efficacité énergétique des ménages, mais libère également une capacité réseau précieuse pendant les pointes hivernales — capacité qui peut ensuite servir à d’autres usages, comme les VE.

Les gains d’efficacité ne se limitent pas aux équipements. Isoler les bâtiments, colmater les fuites, améliorer les fenêtres, moderniser les procédés industriels : toutes ces actions réduisent la demande, les coûts énergétiques et la pression sur le réseau. Un bon exemple industriel est l’adoption des moteurs à vitesse variable (VFD), qui ajustent la vitesse et le couple d’un moteur en fonction de la demande réelle, réduisant ainsi considérablement la consommation énergétique des pompes, ventilateurs et compresseurs — des usages majeurs en milieu industriel. Ces actions sont habituellement des décisions sans regret : elles sont peu risquées, peu coûteuses, mais avec un impact élevé.

Même dans les régions où le réseau électrique dépend encore largement des combustibles fossiles, ces mesures réduisent les émissions sur l’ensemble du cycle. L’efficacité doit donc être vue non pas comme un avantage secondaire, mais comme un levier stratégique de la transition énergétique.

Dans le secteur des télécoms, les systèmes mobiles précoces présentaient des compromis similaires. Les systèmes numériques initiaux — comme la voix sur IP ou les commutateurs numériques — étaient souvent moins efficaces que leurs homologues analogiques en termes de bande passante. Transmettre correctement des 1 et des 0 nécessitait plus de fidélité et plus de bande passante que transmettre une voix analogique. La qualité sonore et la latence étaient parfois inférieures. Pourtant, ces plateformes numériques ont permis de nouveaux services, ont évolué rapidement et ont gagné en performance à grande échelle. Il en va de même pour l’électrification : les premières phases peuvent être imparfaites, mais elles permettent de bâtir une architecture dynamique, numérique et en constante amélioration.

L’efficacité — qu’il s’agisse de physique ou de capacité d’adaptation — est la raison pour laquelle l’électrification réduit déjà les émissions et prépare le terrain pour une décarbonation plus profonde. Cet avantage rejoint la logique de la Partie 1 : que ce soit par la production efficace de centrales au gaz à cycle combiné ou par des usages électrifiés, comme les VE et les thermopompes, choisir les technologies les plus efficaces disponibles aujourd’hui est une manière sans regret de réduire les émissions et d’améliorer les performances du système.

Le défi consiste donc à voir comment on peut déployer rapidement et efficacement l’électrification.

Gouverner en déséquilibre

La mi-transition est marquée par la complexité : des technologies qui évoluent rapidement, des institutions lentes à s’adapter, et des systèmes existants qui ne peuvent disparaître du jour au lendemain. Tous les secteurs ne progressent pas au même rythme, et les politiques publiques doivent tenir compte de cette hétérogénéité. Par exemple, le chauffage résidentiel et les véhicules légers peuvent être rapidement électrifiés, tandis que l’industrie lourde ou le transport longue distance nécessitent plus de temps et un soutien ciblé en R&D. Une approche différenciée — ajustant les outils et les échéanciers selon la maturité de chaque secteur — donne de meilleurs résultats qu’un cadre unique pour tous.

Les politiques doivent refléter cette réalité. Les incitatifs sont souvent essentiels pour accélérer l’adoption des technologies d’électrification, surtout pour les usages finaux où les coûts initiaux constituent un frein. Des subventions pour les thermopompes, les véhicules électriques, les appareils intelligents et les rénovations énergétiques peuvent stimuler la demande, créer des économies d’échelle dans la fabrication et l’installation, et transformer plus rapidement le marché — à condition que ces incitatifs soient conçus pour disparaître progressivement à mesure que les marchés arrivent à maturité et que les coûts baissent. En parallèle, les outils réglementaires — comme les normes du bâtiment, les règlements sur les émissions de véhicules ou les critères de performance des services publics — jouent un rôle crucial dans l’encadrement de l’électrification, de l’extension du réseau et de l’ajout de capacités de production. Ensemble, incitatifs ciblés et réglementation rigoureuse forment les conditions nécessaires à une décarbonation coordonnée.

La R&D, les subventions et la gouvernance devraient privilégier les innovations à cycles rapides (comme les ressources énergétiques distribuées, les outils numériques ou le stockage décentralisé), qui offrent des gains rapides et permettent un apprentissage accéléré. Ces investissements doivent être complétés par un soutien de plus long terme pour les technologies fondamentales dans les secteurs plus difficiles à décarboner, ainsi que par des stratégies de sortie pour les infrastructures fossiles : reconversion des travailleurs, réaffectation des actifs, redistribution des capitaux.

La tarification du carbone et les réformes de marché sont des outils — pas des solutions miracle. Si la tarification du carbone peut réduire les émissions dans certains secteurs, elle est peu efficace à elle seule pour transformer des infrastructures complexes. Le système électrique n’est pas un marché pleinement libéralisé : il est composé de monopoles régulés, de longues périodes de planification, et d’obligations d’intérêt public. Sans politiques complémentaires — comme des normes, des investissements publics ou des réformes institutionnelles — les signaux de prix risquent de renforcer le statu quo. Dans les systèmes caractérisés par des actifs durables, des acteurs dominants et des rigidités planificatrices, un prix du carbone peut augmenter les coûts sans générer de changement structurel. Il peut freiner la consommation sans permettre les conditions nécessaires pour transformer la production, la distribution et l’utilisation de l’électricité. Comme pour les télécoms, ce n’est pas la réforme des prix qui a permis la transformation numérique, mais l’ouverture institutionnelle à de nouveaux acteurs, à de nouvelles technologies et à de nouveaux modèles d’affaires. Un ensemble cohérent de marchés de capacité (pour assurer la fiabilité), de tarifs flexibles (pour moduler la demande) et de programmes équitables (pour soutenir les ménages vulnérables) doit occuper le devant de la scène.

Les autorités de régulation dans les télécoms ont réagi lentement pendant la révolution mobile, tentant d’appliquer des règles obsolètes pensées pour les services analogiques à un monde numérique en rapide évolution. Cette inadéquation a ralenti l’innovation et accru les frictions — une leçon à méditer pour les autorités de régulation de l’énergie qui font face à une rupture similaire.

Historiquement, les télécommunications étaient organisées autour de monopoles. Mais l’arrivée de concurrents — câblodistributeurs, fournisseurs mobiles multiples, services Internet — a obligé les régulateurs à revoir en profondeur le cadre du secteur. Il en est ressorti un écosystème dynamique et pluraliste, avec des modèles d’affaires et des plateformes qui se chevauchent et qui ont évolué selon leurs propres rythmes.

Le secteur énergétique pourrait vivre une transition semblable. Les ressources énergétiques distribuées — comme le solaire résidentiel, les batteries, le V2G et les agrégateurs — remettent en question le modèle unidirectionnel centralisé. Par ailleurs, de nouvelles formes institutionnelles — régies municipales, coopératives, entreprises autochtones — prennent leur essor. Ces acteurs brouillent les frontières entre consommateur et producteur, infrastructure et service, public et privé.

La régulation devra s’adapter — pas en copiant le modèle des télécoms, car le résultat final variera selon les juridictions, mais en adoptant la même logique : ouverture à la décentralisation, à l’innovation, et à la diversité des modèles. Un cadre réglementaire souple et pluraliste sera essentiel pour gérer cette complexité et éviter les frictions qui ont ralenti la transition numérique des télécoms.

Comme les télécoms l’ont fait, les systèmes énergétiques devront accueillir les initiatives municipales, les formes de propriété communautaire et l’intelligence côté utilisateur.

Mal interpréter la transition

Les systèmes énergétiques d’aujourd’hui font face à des défis étonnamment similaires à ceux des réseaux télécoms lors de leur transition numérique. Les technologies numériques comme le DSL ou la voix sur IP ont dû coexister avec les systèmes analogiques pendant des décennies, générant des frictions dues aux incompatibilités de protocoles, aux systèmes de facturation désuets et aux attentes variables en matière de qualité de service. De même, les technologies énergétiques propres — du solaire distribué aux thermostats intelligents — sont déployées dans une infrastructure pensée pour une production centralisée, pilotable et fossile. Les codes du réseau — les normes techniques de connexion — ainsi que les règles d’interconnexion et les modèles tarifaires accusent souvent un retard sur les capacités et les besoins des nouvelles technologies. Comme dans les télécoms, les institutions énergétiques doivent revoir les règles, développer de nouvelles compétences et accepter des transformations structurelles. La coexistence de l’ancien et du nouveau n’est pas un bogue temporaire : c’est la caractéristique centrale de la mi-transition.

Les systèmes de transition ne progressent pas linéairement — ils oscillent. Un excédent dans une partie de la chaîne de valeur (par exemple, les modules solaires ou les batteries) peut découler de blocages ailleurs (permis, délais d’interconnexion, intégration réseau). Ces déséquilibres entraînent souvent des effondrements de prix ou des surplus, non pas parce que les technologies ont échoué, mais parce que le reste du système n’a pas suivi. Ce phénomène a été observé à répétition dans le secteur solaire : des cycles de croissance stimulés par les incitatifs, suivis de replis lorsque le déploiement ne suit pas. Ces fluctuations envoient des signaux contradictoires, troublent les investisseurs et les responsables politiques, et peuvent saper la confiance du public. Comprendre cette volatilité comme une manifestation du déséquilibre — et non de l’échec — est essentiel.

Un exemple révélateur est la modernisation de sites. Dans l’extraction fossile, un site est abandonné lorsque la ressource s’épuise. Mais dans les énergies renouvelables, réaménager un ancien site solaire ou éolien avec des technologies plus récentes — un processus appelé «?repowering?» — permet souvent d’augmenter la productivité et de réduire les coûts. Pourtant, ce processus peut donner l’impression d’un gaspillage prématuré ou d’un échec. Reconnaître cette logique différente dans l’évolution des infrastructures est essentiel pour bien interpréter les signaux visuels de la transition énergétique.

Autre exemple révélateur : les compteurs intelligents. Dans plusieurs juridictions, cette infrastructure est déjà installée — souvent à grands frais publics — mais ses bénéfices restent inégalement réalisés. Les tarifs dynamiques, les informations en temps réel, ou l’automatisation de la demande ne peuvent pas être activés par les compteurs seuls : ils nécessitent des cadres réglementaires adaptés, l’engagement des services publics et la confiance des clients. Ce fut aussi le cas dans les télécoms : au début des années 2000, des réseaux large bande sous-utilisés étaient en place, mais les modèles de service et la demande ne suivaient pas encore. Cela souligne un thème récurrent de la mi-transition : le déploiement physique doit être accompagné d’une préparation institutionnelle et d’une intégration côté utilisateur.

Les télécoms offrent une autre leçon : la fréquence et la rapidité des renouvellements de systèmes. En quelques décennies, l’industrie a connu plusieurs générations de téléphonie mobile — 2G, 3G, LTE, 4G, 5G — et de technologies Internet — DSL, câble coaxial, fibre jusqu’au domicile — chacune exigeant de lourds investissements en infrastructures. Les câbles cuivre et coaxiaux ont été remplacés par la fibre?; les réseaux ont été démantelés et reconstruits. Cette logique de renouvellement continu était la norme. En revanche, les systèmes électriques sont conçus pour durer — entre 40 et 80 ans. Cette vision de long terme rend le renouvellement régulier contre-intuitif, voire suspect. Pourtant, la transition énergétique exigera des réinvestissements plus fréquents, notamment pour moderniser les premières vagues d’équipements solaires, éoliens et réseaux. Comprendre cette différence de culture et d’institutions est crucial : ce que les télécoms considéraient comme une voie vers le progrès, l’électricité pourrait le percevoir comme un gaspillage — à son propre détriment.

Un autre signal souvent mal interprété est le délestage (curtailment) — la réduction volontaire de la production renouvelable lorsque l’offre dépasse temporairement la demande ou la capacité du réseau. Cela peut sembler être un gaspillage, comme si l’on jetait de l’électricité propre. Mais dans un système fortement renouvelable, un certain niveau de délestage est normal et économiquement sensé. Il permet aux planificateurs de dimensionner la production pour couvrir la majorité des besoins, en acceptant des surplus occasionnels comme compromis en faveur de la résilience. En fait, une stratégie de surcapacité (et donc de délestage) peut être plus rapide et moins coûteuse à court terme qu’une expansion du réseau ou du stockage. Comme pour le repowering, les apparences peuvent induire en erreur : ce qui semble inefficace reflète en réalité une logique optimale à l’échelle du système.

Conclusion

La mi-transition est désordonnée, mais maîtrisable. La comprendre, c’est accepter que les systèmes doubles, les contradictions temporaires et les technologies en évolution rapide ne soient pas des échecs, mais les signes d’un progrès réel. De la même façon que les télécoms ont traversé des réseaux qui se chevauchaient, des retards réglementaires et une confusion publique avant de changer en profondeur, le système énergétique doit faire de même — mais avec des enjeux plus importants et moins de temps. En misant sur les actions sans regret, en misant sur l’efficacité, en alignant la gouvernance sur la technologie et en anticipant les malentendus, on peut concevoir une transition plus rapide, plus propre, mais aussi plus équitable et plus intelligente. La transition est en cours. Elle ne sera pas parfaite. Mais elle peut être planifiée.

Book Review – Nexus, by Yuval Noah Harari

What happens when we stop believing in shared truth? When outrage trumps understanding? When power flows not from knowledge, but from curation?

(LinkedIn: https://www.linkedin.com/pulse/book-review-nexus-yuval-noah-harari-benoit-marcoux-um4ve/?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3B%2FsfmK%2FRFQ8qOBfcvMWIztg%3D%3D)

Nexus is not a book about energy. But it has everything to do with the way we make collective decisions—about energy, climate, democracy, and survival. Harari’s central insight is that humans thrive not by uncovering objective truth, but by crafting shared fictions that allow cooperation at scale. This applies as much to religion and politics as to money, nations—and yes, energy transitions.

In the energy sector, we often assume that facts will guide action. We quantify emissions, model system scenarios, and publish expert roadmaps. But Harari reminds us that truth alone rarely moves societies. The real levers are stories, institutions, and desires.

Take climate change: Harari critiques the idea of “doing your own research” as a path to truth. He’s right. No one can independently verify climate science, power grid dynamics, or lifecycle emissions. We rely on institutional curation—by universities, media, regulators, even utilities. If these institutions lose trust, our ability to act collectively collapses.

He also draws a parallel with AI: as nonhuman intelligences shape narratives and exploit our biases, the power to curate—to decide what counts as truth, and what stories are told—becomes even more crucial. Just as the Bible was shaped more by those who chose the canon than by its authors, energy futures may be shaped more by those who train the algorithms and structure the debate than by the engineers designing the technology.

What does this mean for energy?

  1. Democracy and curation: Energy institutions must become more transparent, plural, and accountable. If energy planning is seen as technocratic or self-serving, it will be rejected—even if it’s factually correct. Legitimacy matters as much as accuracy.
  2. Desire vs. truth: Choosing between climate action and economic convenience is not a technical decision, but a societal one—driven by collective desire. Energy policy must speak to values, not just cost curves.
  3. Global divergence: Harari warns of a split into incompatible digital spheres. A similar divergence could emerge in energy—between open, interoperable systems and authoritarian techno-enclaves. Canada must choose wisely which infrastructure, values, and alliances it supports.
  4. Fiction as a tool: Harari doesn’t dismiss fiction—he sees it as essential. The energy sector needs better fictions: credible, compelling, collective visions of what a post-carbon world can look like. Not utopias, but stories strong enough to guide action.

In short, Nexus is a sobering call to take seriously the narrative infrastructure of our civilization. For the energy transition to succeed, we will need more than innovation and investment. We will need institutions that curate wisely, publics that desire justly, and stories that hold us together.

Critique du livre – Nexus, de Yuval Noah Harari

Que se passe-t-il lorsqu’on cesse de croire à une vérité partagée? Lorsque l’indignation prend le dessus sur la compréhension? Lorsque le pouvoir découle non pas de la connaissance, mais de la curation?

(LinkedIn: https://www.linkedin.com/pulse/critique-du-livre-nexus-de-yuval-noah-harari-benoit-marcoux-dfvre?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3BfM%2FS13IsQsegaqLYKlDWnw%3D%3D)

Nexus n’est pas un livre sur l’énergie. Mais il éclaire en profondeur la manière dont nous prenons des décisions collectives – qu’il s’agisse du climat, de la démocratie ou de la survie de nos sociétés. L’idée centrale de Harari est que les humains ne prospèrent pas en découvrant la vérité objective, mais en tissant des fictions communes qui permettent la coopération à grande échelle. Cela vaut autant pour les religions et les nations… que pour les politiques énergétiques.

Dans le secteur de l’énergie, on présume souvent que les faits guideront l’action. On chiffre les émissions, on modélise les scénarios, on publie des feuilles de route techniques. Mais Harari nous rappelle que la vérité seule ne suffit pas. Ce sont les récits, les institutions et les désirs collectifs qui orientent véritablement les choix.

Prenons l’exemple du climat : Harari critique l’idée de “faire ses propres recherches” comme voie vers la vérité. Il a raison. Personne ne peut, à lui seul, valider la science du climat, la dynamique des réseaux électriques ou les calculs d’émissions. Nous dépendons d’institutions de curation : universités, médias, régulateurs, et même compagnies d’électricité. Si ces institutions perdent leur légitimité, notre capacité à agir collectivement s’effondre.

Il tire aussi un parallèle avec l’intelligence artificielle : à mesure que des intelligences non humaines structurent nos récits et exploitent nos biais, le pouvoir de curation – c’est-à-dire de décider ce qui compte comme “vérité” – devient central. Comme ceux qui ont déterminé le canon biblique, ceux qui forment les IA ou sélectionnent les scénarios énergétiques jouent un rôle décisif dans l’avenir.

Que signifie cela pour le secteur de l’énergie?

  1. Démocratie et légitimité : Les institutions énergétiques doivent devenir plus transparentes, plus pluralistes, plus responsables. Une planification perçue comme technocratique ou opaque sera rejetée – même si elle est fondée.
  2. Désir plutôt que vérité : Choisir entre sobriété climatique et croissance économique n’est pas une décision technique, mais un choix de société. Il faut donc des politiques énergétiques qui parlent aux valeurs.
  3. Divergence géopolitique : Harari craint un découplage des sphères numériques. Un phénomène similaire pourrait se produire dans les systèmes énergétiques. Le Canada doit faire des choix clairs : infrastructures, normes, alliances.
  4. Pouvoir du récit : Harari ne rejette pas la fiction. Il en reconnaît l’utilité sociale. Le secteur énergétique a besoin de meilleurs récits : crédibles, mobilisateurs, partagés. Pas de l’utopie, mais des visions collectives assez fortes pour guider l’action.

En résumé, Nexus est un appel à prendre au sérieux l’infrastructure narrative de nos sociétés. Pour réussir la transition énergétique, il nous faudra plus que de l’innovation ou des investissements : il nous faudra des institutions curatrices fiables, un désir collectif éclairé… et des récits qui nous relient.

Stratégie d’entreprise en contexte incertain : repères pour les compagnies d’électricité

Transition énergétique, tensions géopolitiques, instabilité réglementaire, fragilisation des institutions issues de Bretton Woods : les entreprises du secteur de l’électricité évoluent désormais dans un environnement où l’incertitude est permanente. Ce n’est plus un bruit temporaire à filtrer, mais une caractéristique durable du système.

(LinkedIn : https://www.linkedin.com/pulse/strat%25C3%25A9gie-dentreprise-en-contexte-incertain-rep%25C3%25A8res-pour-marcoux-abwwe/?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3BXZKg2036Rj%2BEMxmzISQAZA%3D%3D)

Une rupture avec les fondements historiques de la planification

Les compagnies d’électricité sont des services essentiels et réglementés. Certaines sont des entreprises privées poursuivant des objectifs de rentabilité, ce qui peut créer des tensions stratégiques lorsque ces objectifs entrent en conflit avec des considérations de long terme ou d’intérêt collectif. D’autres, notamment au Canada, relèvent du secteur public, et peuvent être appelées à répondre à des priorités de développement social, industriel ou territorial, voire à des objectifs politiques. Cela complexifie la définition de leurs stratégies, qui doivent conjuguer performance opérationnelle, acceptabilité sociale et alignement avec des mandats parfois évolutifs.

Pendant des décennies, les compagnies d’électricité d’Amérique du Nord ont pu s’appuyer sur une croissance modérée et prévisible de la demande, une centralisation des moyens de production, des chaînes d’approvisionnement stables et une régulation prévisible à long terme. Ce cadre est désormais rompu.

Aujourd’hui, elles font face simultanément à :

  • une augmentation rapide de la demande après des années de stagnation, portée par l’électrification des usages et les objectifs climatiques,
  • l’émergence de nouveaux moyens de production (solaire, éolien, batteries, V2G), souvent distribués et à faible coût marginal, mais qui exigent des modèles d’exploitation, de coordination et de planification radicalement différents,
  • des chaînes d’approvisionnement tendues, notamment pour les équipements électriques critiques (transformateurs, câbles, acier électrique),
  • des clients plus exigeants et stratégiques, devenus parfois autoproducteurs, et de plus en plus dépendants d’un service électrique fiable et continu,
  • et la nécessité de reconnaître rapidement les ruptures technologiques, politiques ou climatiques, afin de pouvoir s’adapter avant qu’il ne soit trop tard.

Un cadre réglementaire souvent mal adapté

Ce tournant est d’autant plus difficile que les compagnies d’électricité, surtout en Amérique du Nord, évoluent dans des cadres réglementaires peu concurrentiels, centrés sur la valorisation de la base d’actifs réglementaires. Ce modèle récompense les investissements lourds, visibles et planifiables, mais pénalise l’agilité, l’action stratégique ou l’innovation.

À cela s’ajoute une rigidité interne liée à des structures fortement syndiquées, qui peuvent ralentir l’adoption de nouvelles technologies, de nouveaux rôles ou de nouvelles formes d’organisation du travail.

La structure industrielle elle-même y contribue aussi. En Amérique du Nord, l’intégration verticale reste la norme : génération, transport, distribution et vente au détail de l’électricité sont souvent regroupés au sein d’un même group. Cette organisation limite l’entrée de nouveaux joueurs et la pression concurrentielle, ce qui freine l’innovation et ralentit les ajustements stratégiques. À l’inverse, en Europe, la séparation fonctionnelle ou juridique entre les activités, combinée à des marchés plus ouverts, a stimulé l’émergence de modèles plus dynamiques. Certaines compagnies y sont devenues particulièrement agressives, investissant à l’étranger ou diversifiant leurs activités. Par exemple, EDF a fortement accru sa présence à l’international, en particulier dans les renouvelables, Enel a déployé des réseaux intelligents et des plateformes numériques bien au-delà de l’Italie, et National Grid, présente au Royaume-Uni et aux États-Unis, s’est engagée activement dans la modernisation des réseaux et la décarbonation de ses activités.

L’optionalité stratégique comme réponse

Dans ce contexte incertain, marqué à la fois par des transformations profondes et des tensions structurelles, il devient essentiel de repenser la stratégie non plus comme un plan figé, mais comme une capacité à naviguer dans l’incertitude. Cette nécessité est d’autant plus marquée que les objectifs des compagnies d’électricité ne se limitent pas toujours à la rentabilité maximale. Qu’elles soient publiques ou privées, ces entreprises doivent parfois composer avec des attentes sociales, territoriales ou politiques qui rendent leur trajectoire plus complexe. L’optionalité offre un cadre utile pour concilier ces impératifs multiples tout en restant capable de s’ajuster rapidement à des évolutions externes. Elle consiste à explorer des futurs plausibles, à évaluer sa position dans chacun, à préserver des marges de manœuvre et à investir dans la capacité d’ajustement.

Cela suppose notamment :

  • de raisonner en scénarios plutôt qu’en projections uniques,
  • de valoriser l’expérimentation, les projets pilotes et les solutions modulaires,
  • de renforcer la résilience organisationnelle : capital humain, savoir-faire opérationnels, flexibilité des systèmes,
  • et de relocaliser ou diversifier les chaînes d’approvisionnement afin de réduire les vulnérabilités structurelles.

Expérience du terrain

À travers les missions que j’ai menées en stratégie, en planification ou en analyse économique pour des compagnies d’électricité et d’autres acteurs publics, j’ai vu émerger un constat clair : la résilience dans un monde incertain ne vient pas de la rigidité, mais de la capacité à se préparer à plusieurs futurs, à apprendre vite, et à ajuster ses priorités en temps réel. Cette approche s’est d’ailleurs imposée dans d’autres secteurs que j’ai accompagnés, notamment dans les transitions technologiques des télécoms et des technologies de l’information, où la gestion de l’incertitude et des ruptures a souvent fait la différence entre un déclin annoncé et une transformation réussie. «?Be directionally right, not accurately wrong?», comme disait John Maynard Keynes.

La pertinence stratégique à long terme ne dépendra pas tant de la capacité à tout prévoir que de l’aptitude à maintenir la vigilance, à mobiliser les compétences et à faire preuve de flexibilité. La survie n’est pas en cause pour les entreprises d’électricité en situation de monopole naturel, comme celles actives dans le transport et la distribution. À l’image des câblodistributeurs et des compagnies de téléphones, ces entreprises continueront d’exister. L’enjeu est plutôt de demeurer utiles, légitimes et capables de jouer un rôle structurant dans un contexte en mutation rapide.

Agir malgré l’incertitude

Il serait tentant d’attendre que l’incertitude se résorbe d’elle-même. D’attendre des signaux clairs, des cadres stabilisés, des marchés matures. Mais ce serait une erreur stratégique.

Les entreprises du secteur de l’électricité n’ont plus le luxe de l’attentisme. La demande croît rapidement. Les moyens de production évoluent. Les chaînes d’approvisionnement se tendent. Les clients deviennent critiques, parfois producteurs eux-mêmes. Et les chocs — climatiques, technologiques, géopolitiques — se multiplient.

Dans ce contexte, la stratégie n’est plus une affaire de prévision, mais de préparation. Il ne s’agit pas de tout planifier, mais d’être prêt à réagir vite. Cela exige de repenser les façons de planifier, d’investir, de recruter, d’innover et même de dialoguer avec les régulateurs.

Reconnaître l’incertitude ne doit pas paralyser l’action. C’est au contraire un appel à une action plus lucide, plus agile, plus responsable. C’est là, désormais, que se joue la crédibilité des dirigeants du secteur.

Corporate Strategy in an Uncertain Context: Guidance for Power Utilities

Energy transition, geopolitical tensions, regulatory instability, and the weakening of Bretton Woods era institutions: power utilities now operate in a world where uncertainty is a permanent condition. It is no longer background noise to be filtered out, but a defining feature of the system.

(LinkedIn: https://www.linkedin.com/pulse/strat%25C3%25A9gie-dentreprise-en-contexte-incertain-rep%25C3%25A8res-pour-marcoux-abwwe/)

A Break with the Historical Foundations of Planning

Electric utilities are essential and regulated services. Some are privately owned and pursue profitability, which can lead to strategic tensions when those objectives clash with long-term or public interest considerations. Others, notably in Canada, are publicly owned and may be tasked with advancing social, industrial, or regional development priorities, or even political goals. This complexity makes strategy definition more demanding, requiring a balance between operational performance, social acceptability, and alignment with sometimes evolving mandates.

For decades, North American electric utilities operated under stable conditions: moderate and predictable demand growth, centralized generation, steady supply chains, and long-term regulatory visibility. That framework no longer holds.

Today, utilities must respond simultaneously to:

  • a rapid increase in demand after years of stagnation, driven by electrification and climate targets,
  • the emergence of new generation technologies (solar, wind, batteries, V2G), often distributed and with low marginal costs, but requiring radically different models of coordination and planning,
  • strained supply chains, especially for critical electric equipment (transformers, cables, electrical steel),
  • more demanding and strategic customers, sometimes self-generators, increasingly dependent on reliable and continuous electricity service,
  • and the need to recognize technological, political, or climate disruptions early enough to adapt in time.

A Regulatory Framework Often Ill-Suited

This turning point is all the more difficult because utilities, especially in North America, operate in low-competition regulatory environments focused on a rate of return on a regulatory asset base. This model rewards large, visible, capital-intensive projects but discourages agility, strategic actions, and innovation.

This challenge is compounded by internal rigidity, often due to strong union structures, which can slow the adoption of new technologies, roles, or organizational forms.

The industry structure itself also plays a role. In North America, vertical integration is still the norm: generation, transmission, distribution, and retail services are often housed within a conglomerate. This structure limits new entrants and reduces competitive pressure, slowing innovation and strategic adaptation. In contrast, European markets have introduced legal or functional unbundling of activities, along with greater market openness. This has enabled the emergence of more dynamic models. Some companies have become particularly aggressive, investing abroad or diversifying their activities. For instance, EDF has expanded internationally, especially in renewables; Enel has deployed smart grids and digital platforms far beyond Italy; and National Grid, operating in both the UK and the US, has actively pursued grid modernization and decarbonization.

Strategic Optionality as a Response

In this uncertain context, marked by deep transformations and structural tensions, the strategy must be redefined not as a fixed plan, but as a capacity to navigate uncertainty. This is especially relevant, since utilities’ objectives often go beyond profit maximization. Whether public or private, they must sometimes reconcile social, territorial, or political expectations, which makes their trajectory more complex. Optionality offers a useful framework to balance these multiple imperatives while remaining able to adapt quickly to external shifts. It involves exploring plausible futures, assessing one’s position in each, preserving room to maneuver, and investing in adaptability.

This approach entails:

  • using scenario-based thinking rather than relying on single-point forecasts,
  • supporting experimentation, pilot projects, and modular solutions,
  • strengthening organizational resilience through talent, operational know-how, and system flexibility,
  • and relocating or diversifying supply chains to reduce structural vulnerabilities.

Field Experience

In my work in strategy, planning, and economic analysis for power utilities and public institutions, I’ve seen a consistent truth: resilience in an uncertain world does not come from rigidity, but from preparing for multiple futures, learning quickly, and adjusting priorities in real time. This approach also proved essential in other sectors I’ve worked with, especially during technology transitions in telecom and IT, where managing uncertainty and disruption often made the difference between inevitable decline and meaningful transformation. “Be directionally right, not accurately wrong,” as John Maynard Keynes once said.

Long-term strategic relevance will depend less on being precisely predictive than on maintaining vigilance, mobilizing talent, and acting with flexibility. For regulated monopolies in transmission and distribution, survival is not at stake. Like cable and telephone operators, these companies will continue to exist. The challenge is to remain useful, legitimate, and able to play a structuring role in a fast-changing environment.

Acting Despite Uncertainty

It might be tempting to wait for uncertainty to pass, for clearer signals, stable frameworks, or mature markets. But that would be a strategic mistake.

Utilities no longer have the luxury of inaction. Demand is growing rapidly. Technologies are evolving. Supply chains are tightening. Customers are becoming mission-critical, sometimes self-generating. And shocks—climatic, technological, geopolitical—are multiplying.

In this context, strategy is no longer about prediction but preparation. It’s not about planning everything, but being ready to move quickly. This requires rethinking how utilities plan, invest, recruit, innovate, and engage with regulators.

Recognizing uncertainty should not paralyze action. Quite the opposite: it is a call for more lucid, agile, and accountable leadership. This is where the credibility of the sector’s leaders will now be tested.

From Telegraph to Terawatt-hours: Why NATO-L Could Be the Great Eastern of the Net-Zero Age

(LinkedIn: https://www.linkedin.com/pulse/from-telegraph-terawatt-hours-why-nato-l-could-great-eastern-marcoux-thhme/)

In 1866, the Great Eastern steamship laid the first successful transatlantic telegraph cable, forever altering global communication. Messages that once took ten days to cross the Atlantic by ship could suddenly be sent in minutes. The geopolitical, commercial, and cultural impacts were immediate and profound — not because the cable was cheap, but because it was transformative.

I remember reading about the Great Eastern when I was young, and its audacious scale and engineering left a lasting impression on me. (The picture accompanying this article is from one of my books when I was a kid.) It was a tool of its time — a giant that bridged continents — and it sparked my lifelong interest in the power of big systems to shape the world.

Today, a similar revolution may be taking shape below the waves. Proposed by three energy financiers, Laurent Segalen , Simon Ludlam , and Gerard Reid , the North Atlantic Transmission One – Link (NATO-L) project aims to connect Canada’s hydroelectric and renewable energy sources with Europe’s renewable grid. It would create a high-capacity, high-voltage direct current (HVDC) lines between North America and Europe.

But I don’t think that this is just about moving electrons. Like the first transatlantic telegraph cable, NATO-L could reshape geopolitical relationships, catalyze economic integration, and unlock a new era of clean energy cooperation — if we get the market structures right for power producers at both ends to benefit.

Before proceeding, I must clarify that I have no financial, professional, or personal interest in the NATO-L project. Additionally, I was neither compensated nor requested by its proponents to write this article. My analysis is based solely on publicly available information and my independent interpretation of its implications.

A Project of Strategic Proportions

The NATO-L cable would link two complementary energy systems:

  • North-eastern North America, with abundant and dispatchable hydroelectricity, as well as growing onshore and offshore wind capacity.
  • Northern Europe, with enormous offshore wind generation and growing challenges around intermittency and curtailment.

Based on public information, NATO-L will consist of HVDC subsea cables (6 GW total capacity) using>525 kV technology, with routes ranging between 3,750 km and 4,500 km. I anticipate the project will be implemented in phases, each adding a few gigawatts of capacity over several years. This phased approach would allow for incremental learning and risk management, enabling stakeholders to better assess the project’s performance and value before committing to the full build-out.

Several routing options are also under evaluation, including northern (possibly via Greenland) and southern (via France) corridors. The shorter northern route, which I believe to be the most promising one, establishes a connection between hydroelectric power generation in northern Québec and Labrador and renewable energy sources in the North Sea and neighbouring countries.

The project leverages uncorrelated wind and solar resources across continents and a six-hour time difference to optimize renewable use and daily grid balancing. Operational commissioning is targeted for 2040 following a multi-phase development and permitting schedule.

Not About Cheap Power — About Timely Power

While legacy hydro in Eastern Canada is inexpensive, new capacity additions — whether hydro, wind, or solar — are increasingly costly. Meanwhile, wind and solar prices in Europe are declining. This means NATO-L’s value does not rest on permanent price gaps but on timing.

Thanks to the 5–6 hour time difference between Eastern North America and Europe, NATO-L enables daily arbitrage:

  • Transmit power eastward during the peak demand periods of the morning and evening in Europe, which correspond to the low demand periods of midday and the middle of the night in Canada.
  • Transmit power westward during the peak demand periods of the morning and evening in Canada, which correspond to the low demand periods of midday and the middle of the night in Europe.

This allows the same installed capacity to serve four peak demand periods per day, greatly enhancing system value.

Hydro as a Remote Battery for Europe

Unlike wind and solar, big hydro (with reservoirs) is dispatchable. The water stored in reservoirs can be released precisely when needed, although minimum flow and cascaded generating stations somewhat limit this flexibility. This allows North American hydro to serve as a zero-carbon remote battery for Europe:

  • Curtailment mitigation: Back off hydro generation when European wind is abundant.
  • Rapid dispatch: Ramp up hydro when Europe faces supply shortfalls.
  • Balancing services: Support frequency regulation and grid stability, on and off peaks.

This turns Canadian hydro into powerful tools for enabling high penetration of renewables in Europe — by allowing water to be conserved in North American reservoirs when wind and solar are abundant in Europe, and dispatched when European generation is insufficient. This flexibility is especially valuable because days of high electricity demand are typically not correlated between Europe and Eastern Canada. This lack of correlation further strengthens the arbitrage and balancing potential of transatlantic interconnection. As coal and gas are phased out in Europe, this capability becomes increasingly critical, especially with the large inflexible French nuclear fleet in the mix.

European Experience with HVDC Submarine Interconnectors

Europe has extensive and growing experience with HVDC submarine interconnectors, including:

  • Viking Link (UK—Denmark): 765 km, 1.4 GW, operational since 2023.
  • North Sea Link (UK—Norway): 720 km, 1.4 GW, operational since 2021.
  • NordLink (Germany—Norway): 623 km, 1.4 GW, operational since 2021.
  • IFA2 (UK—France): 204 km, 1 GW, operational since 2021.
  • COBRAcable (Netherlands—Denmark): 325 km, 700 MW, operational since 2019.

These interconnectors have proven to be highly effective at smoothing intermittent generation, lowering wholesale prices, and enhancing reliability during peak demand or system stress. While some of these projects were initially controversial due to concerns over cost, environmental impact, or market interference, their eventual success has demonstrated the technical and regulatory feasibility of long-distance HVDC links across sovereign borders — a precedent highly relevant to NATO-L.

Financial Framework: Costs and Value Potential

Submarine interconnectors are already widely used and deliver measurable value in regional grids. For example, during the 2024–25 winter in Great Britain, National Grid reported that its interconnector fleet provided up to 5.2 GW of dynamic flow changes in response to system stress, including the cancellation of emergency capacity notices. The Viking Link, initially operating at half capacity due to Danish grid maintenance, was promptly ramped up to full capacity to serve the British evening peak — a clear demonstration of the value of cross-border, real-time coordination. NATO-L would extend these proven benefits to a transatlantic scale, enabling load balancing between asynchronous grids and optimizing the use of uncorrelated renewable resources.

Financial Overview Table (estimation by me, not NATO-L):

Article content

Capital cost estimates for NATO-L are based on comparisons with similar long-distance HVDC subsea cable projects. For example, Viking Link (UK—Denmark, 1,400 MW over 765 km) cost around €2 billion, while the proposed Xlinks Morocco—UK project (3.6 GW, 4,000 km) is projected at £20 billion. NATO-L, at 6 GW and 3,750–4,500 km, is expected to cost between €20–28 billion, accounting for cable manufacturing, installation, converter stations, permitting, and contingencies. This figure also aligns with the cost profiles of other multi-gigawatt subsea projects using>525 kV HVDC technology.

Operating costs for a project of this scale include cable and station maintenance, staffing, insurance, regulatory compliance, and system operation. These costs are expected to range from €200 million to €500 million annually, depending on utilization and actual deployment complexity. The largest component is likely to be the energy cost associated with transmission losses, followed by routine subsea inspection and maintenance cycles, and the costs of keeping converter stations and control systems operating reliably across the oceanic span.

Transmission losses are an important factor in operating costs. HVDC subsea cables typically experience losses of about 3% per 1,000 km. Over the projected northern route of 3,750 km, this implies total line losses of roughly 11–12%. Losses would be less when the cables are not operating at full capacity. Assuming a 60% utilization rate (4 peaks of 3–4 hours each), a 6 GW line would deliver about 31.5 TWh/year. At a 12% loss, approximately 4 TWh/year is lost. Valued at €80/MWh, this represents an annual cost of roughly €320 million, falling within the upper range of operating expenditure estimates. This reinforces the importance of optimizing utilization and transmission efficiency for financial viability.

The projected €2–4.5 billion in annual available market value represents the pool of value created by energy arbitrage, capacity services, and ancillary grid functions. This is not necessarily revenue for NATO-L itself, as this value will be shared among all market actors involved — including electricity producers, storage operators, balancing service providers, and potentially the interconnector operator. NATO-L yearly revenue would depend on its regulatory framework, ownership structure, and the tolling or merchant model adopted.

1. Energy Arbitrage:

With a 6 GW line used 50–75% of the time, annual traded volumes would be 26–39 TWh.

Price spreads of €50–100/MWh between North American and European peak times yield a value pool of €1.3B to €3.0B per year.

2. Capacity Payments:

Capacity prices in European markets like the UK range from €30,000—€75,000/MW/year.

For 6 GW, this translates into €180M to €450M per year.

3. Ancillary Services and Curtailment Mitigation:

By avoiding curtailment and providing balancing support, NATO-L could enable services valued at €100M to €300M per year.

Total Justified Value Range: €1.6B (low end) to €4.5B+ per year (upper-bound).

This structure does not rely on permanent average price advantages, but on market-driven value creation through flexibility, timing, and integration services.

The proponents of NATO-L will likely rely on analytical approaches beyond traditional net present value (NPV) analysis to assess the viability of the project — as is often the case with transformative infrastructure initiatives. When faced with high uncertainty, long time horizons, and the potential for systemic impacts, methods such as real option analysis, scenario-based planning, and strategic value assessments are frequently more appropriate. This perspective reflects how other major interconnector projects have been evaluated and aligns with the inherently strategic nature of NATO-L.

The NATO-L project is clearly still in its early stages, focusing on building consensus, attracting founding members, and engaging with stakeholders across political, regulatory, technical, industrial, and financial sectors. Given the project’s scale and strategic importance, it is possible that major European utilities or transmission operators may become involved as the project progresses.

Modern Cable-Laying: From Great Eastern to Monna Lisa

The resilience of submarine electricity cables is often underestimated. While failures can be disruptive, repairing a high-voltage direct current (HVDC) cable is typically faster and less hazardous than fixing an undersea natural gas pipeline. There is no pressurized gas containment or risk of explosion — just technically demanding but well-understood electrical work. This makes HVDC interconnectors a more resilient and safer long-term investment.

A historical comparison is instructive. The Great Eastern’s first attempt to lay the transatlantic telegraph cable in 1865 ended in failure when the cable snapped mid-ocean. The ship returned to the site in 1866 after successfully laying the first transatlantic cable in its second attempt. The crew located and retrieved the lost cable, spliced it, and successfully completed the second connection across the Atlantic — an extraordinary feat of perseverance and technical skill over 150 years ago. When I read this as a child, I found this repair to be very impressive.

In the 19th century, the Great Eastern was the only vessel capable of carrying and laying a transatlantic cable. Today, that pioneering legacy continues with a new generation of specialized cable ships. One prominent example is the Monna Lisa, Prysmian Group’s latest cable-laying vessel.

With a full-load displacement of approximately 35,000 tonnes, the Monna Lisa measures 185 metres in length and 34 metres in width. It features two large-capacity cable carousels (7,000 and 10,000 tonnes), advanced DP3 dynamic positioning systems, and high bollard pull capacity for deep-sea operations. Ships like Monna Lisa are what make a transatlantic project like NATO-L technically and operationally feasible.

The Market Challenge: Bridging Different Regulatory Worlds

A key issue is that Europe and North America operate under very different market structures:

  • Europe has liberalized and competitive wholesale and capacity markets.
  • Eastern Canada and parts of the U.S. Northeast operate within monopoly frameworks or hybrid regulated systems.

For NATO-L to work effectively, mechanisms must be created to allow power trading across these systems. Options could include:

  • Creation of a merchant export entity operating under EU rules.
  • Long-term bilateral PPAs with EU system operators.
  • New intergovernmental frameworks under the Comprehensive Economic and Trade Agreement (CETA) umbrella.

The advocates for this initiative will need to determine a financial structure that allows all involved parties, including buyers and sellers, to profit in line with their respective levels of risk tolerance.

Beyond Economics: Strategic and Geopolitical Dimensions

NATO-L also holds strategic relevance at a time when transatlantic alliances are under pressure. With the U.S. adopting increasingly protectionist policies and stoking annexationist rhetoric, Canada has a vested interest in diversifying its energy partnerships and deepening ties with Europe.

A transatlantic energy corridor would:

  • Position Canada as a trusted supplier of clean, reliable power.
  • Bolster Europe’s shift away from fossil fuels and dependence on autocratic regimes.
  • Enhance NATO’s collective resilience through non-military infrastructure.
  • Mitigate climate risks by connecting regions with complementary weather patterns and renewable generation profiles.

This strategic dimension could also unlock institutional or financial support from the European Union. The NATO-L project seems to align with the goals of REPowerEU, the EU’s flagship plan to reduce fossil fuel imports, accelerate renewables, and strengthen cross-border infrastructure. By facilitating transatlantic integration and flexible use of dispatchable hydro, NATO-L contributes directly to those aims. Under REPowerEU, projects that enable decarbonization, energy diversification, and grid resilience are candidates for support through EU coordination or funding instruments.

I estimate that the project could help displace about €1 billion worth of annual natural gas imports and reduce emissions by around 20 million tonnes of CO? per year — primarily by enabling flexible clean dispatch during Europe’s peak demand periods and reducing the curtailment of renewable generation.

By my calculations, the project could also help displace about €1 billion of annual natural gas imports in Europe and cut about 20 million tonnes of CO? per year.

Conclusion: A Second Transatlantic Revolution

The Great Eastern cable of 1866 wasn’t transformative because it was cheap. It was transformative because it reshaped the world’s economic and political interactions.

NATO-L has the potential to do the same for the clean energy era.

By leveraging time zones, dispatchable hydro, and advanced HVDC technology, it can unlock deep decarbonization, transatlantic stability, and real economic returns. But only if market structures evolve to meet the opportunity.

Just as the telegraph enabled global finance, diplomacy, and industry to flourish, NATO-L can become the backbone of a more integrated and resilient net-zero economy.

Du télégraphe aux térawattheures : pourquoi NATO-L pourrait être le Great Eastern de l’ère carboneutre

(LinkedIn: https://www.linkedin.com/pulse/du-télégraphe-aux-térawattheures-pourquoi-nato-l-pourrait-marcoux-txs7e/?trackingId=VVuXBI%2B2SpmSgNL2JsUmcQ%3D%3D)

En 1866, le navire à vapeur Great Eastern posa avec succès le premier câble télégraphique transatlantique, transformant à jamais les communications mondiales. Les messages, qui prenaient autrefois dix jours à traverser l’Atlantique par bateau, pouvaient désormais être transmis en quelques minutes. Les impacts géopolitiques, commerciaux et culturels furent immédiats et profonds — non parce que le câble était bon marché, mais parce qu’il était transformationnel.

Je me souviens d’avoir lu à propos du Great Eastern quand j’étais jeune. Son échelle audacieuse et son génie technique m’ont profondément marqué. (L’image accompagnant cet article provient d’un de mes livres d’enfance.) Il fut un outil emblématique de son époque — un géant reliant les continents — et a suscité chez moi un intérêt durable pour le pouvoir des grands systèmes à façonner le monde.

Aujourd’hui, une révolution semblable pourrait se profiler sous les mers. Proposé par trois financiers de l’énergie — Laurent Segalen , Simon Ludlam et Gerard Reid —, le projet North Atlantic Transmission One – Link (NATO-L) vise à relier les sources d’hydroélectricité et d’énergies renouvelables du Canada au réseau renouvelable européen. Il s’agirait de lignes à courant continu haute tension (HVDC) de grande capacité entre l’Amérique du Nord et l’Europe.

Mais je ne pense pas que cela se résume au transport d’électrons. Comme le premier câble télégraphique transatlantique, NATO-L pourrait redessiner les relations géopolitiques, catalyser l’intégration économique et ouvrir une nouvelle ère de coopération énergétique propre — si l’on conçoit des structures de marché adéquates permettant aux producteurs des deux continents d’en tirer profit.

Avant d’aller plus loin, je précise que je n’ai aucun intérêt financier, professionnel ou personnel dans le projet NATO-L. Je n’ai pas non plus été rémunéré ou sollicité par ses promoteurs pour rédiger cet article. Mon analyse repose uniquement sur des informations publiques et sur mon interprétation indépendante de leurs implications.

Un projet d’envergure stratégique

Le câble NATO-L relierait deux systèmes énergétiques complémentaires :

  • Le nord-est de l’Amérique du Nord, riche en hydroélectricité pilotable, ainsi qu’en capacité croissante d’éolien terrestre et en mer.
  • Le nord de l’Europe, doté d’une production éolienne maritime massive et confronté à des défis croissants d’intermittence et de contingentement.

Selon les informations publiques disponibles, NATO-L serait composé de câbles sous-marins HVDC d’une capacité totale de 6 GW utilisant la technologie >525 kV, sur des trajets variant entre 3?750 et 4?500 km. Je prévois que le projet sera mis en œuvre par étapes, chaque phase ajoutant quelques gigawatts de capacité sur plusieurs années. Cette approche graduelle permettrait un apprentissage progressif et une gestion des risques, en permettant aux parties prenantes d’évaluer la performance et la valeur du projet avant de s’engager dans une réalisation complète.

On évalue actuellement plusieurs itinéraires potentiels, notamment un passage par le nord (peut-être par le Groenland) et un passage par le sud (via la France. Le tracé le plus court, au nord, me paraît le plus prometteur. Il établirait un lien entre la production hydroélectrique du nord du Québec et du Labrador et les sources renouvelables de la mer du Nord et des pays voisins.

Le projet tirerait parti de ressources éoliennes et solaires non corrélées entre les continents et d’un décalage horaire de six heures pour optimiser l’usage des renouvelables et l’équilibrage quotidien des réseaux. La mise en service opérationnelle est prévue pour 2040, après un calendrier de développement et d’autorisations en plusieurs phases.

Il ne s’agit pas d’électricité bon marché — mais d’électricité au bon moment

Bien que l’hydroélectricité patrimoniale de l’est du Canada soit peu coûteuse, les ajouts de capacité — qu’il s’agisse d’hydroélectricité, d’éolien ou de solaire — deviennent de plus en plus onéreux. Parallèlement, les prix de l’éolien et du solaire en Europe continuent de baisser. Cela signifie que la valeur de NATO-L ne repose pas sur des écarts de prix permanents, mais sur la synchronisation temporelle.

Grâce au décalage horaire de 5 à 6 heures entre l’est de l’Amérique du Nord et l’Europe, NATO-L permet un arbitrage quotidien :

  • Acheminer de l’électricité vers l’est pendant les périodes de forte demande en Europe (le matin et le soir), qui correspondent aux périodes de faible demande au Canada (le milieu de la nuit et le milieu de la journée).
  • Acheminer de l’électricité vers l’ouest pendant les pointes de demande au Canada, qui coïncident avec les périodes creuses en Europe.

Ce mécanisme permet à une même capacité installée de servir quatre pointes de demande par jour, augmentant considérablement sa valeur systémique.

L’hydroélectricité comme batterie distante pour l’Europe

Contrairement à l’éolien et au solaire, l’hydroélectricité avec réservoirs est pilotable. L’eau stockée dans les réservoirs peut être turbinée précisément au moment requis, bien que des contraintes, comme les débits minimums ou les centrales en cascade, puissent en limiter partiellement la flexibilité. Cela permet à l’hydroélectricité nord-américaine de servir de batterie à distance zéro carbone pour l’Europe :

  • Réduction du contingentement : réduction de la production hydroélectrique lorsque le vent est abondant en Europe.
  • Appels de puissance rapides : augmentation de la production hydroélectrique quand l’Europe fait face à des pénuries.
  • Services d’équilibrage : soutien à la régulation de fréquence et à la stabilité du réseau, pendant et hors des pointes.

Cela permet aux réservoirs canadiens de conserver l’eau lorsque l’Europe dispose d’une surproduction éolienne ou solaire, pour ensuite produire lorsque la génération européenne est insuffisante. Cette flexibilité est particulièrement précieuse, puisque les jours de forte demande en électricité ne sont généralement pas corrélés entre l’Europe et l’est du Canada. Ce manque de corrélation renforce le potentiel d’arbitrage et d’équilibrage d’une interconnexion transatlantique. Alors que l’Europe élimine progressivement le charbon et le gaz, cette capacité devient de plus en plus critique, en particulier avec la présence d’un parc nucléaire français important et peu flexible.

Expérience européenne en matière d’interconnexions sous-marines HVDC

L’Europe possède une vaste expérience avec les interconnexions sous-marines à courant continu haute tension (HVDC), notamment :

  • Viking Link (Royaume-Uni–Danemark) : 765 km, 1,4 GW, opérationnel depuis 2023.
  • North Sea Link (Royaume-Uni–Norvège): 720 km, 1,4 GW, opérationnel depuis 2021.
  • NordLink (Allemagne–Norvège) : 623 km, 1,4 GW, opérationnel depuis 2021.
  • IFA2 (Royaume-Uni–France) : 204 km, 1 GW, opérationnel depuis 2021.
  • COBRAcable (Pays-Bas–Danemark) : 325 km, 700 MW, opérationnel depuis 2019.

Ces interconnexions se sont révélées très efficaces pour lisser la production intermittente, faire baisser les prix de gros et améliorer la fiabilité en période de pointe ou de stress du système. Bien que certains de ces projets aient été controversés à leur lancement — en raison de préoccupations liées aux coûts, à l’impact environnemental ou aux effets sur le marché — leur succès a démontré la faisabilité technique et réglementaire des liaisons HVDC longue distance entre États souverains. Ce précédent est particulièrement pertinent pour NATO-L.

Cadre financier : coûts et potentiel de valeur

Les interconnexions sous-marines sont déjà largement utilisées et apportent une valeur mesurable aux réseaux régionaux. Par exemple, durant l’hiver 2024–2025 en Grande-Bretagne, le gestionnaire de réseau National Grid a rapporté que sa flotte d’interconnexions a permis des ajustements dynamiques des mouvements d’énergie atteignant jusqu’à 5,2 GW en réponse au stress du système, notamment en annulant des avis de capacité d’urgence. Le Viking Link, initialement en service à demi-capacité en raison de travaux de maintenance sur le réseau danois, a été rapidement porté à pleine capacité pour répondre à la pointe de consommation du soir au Royaume-Uni — une démonstration claire de la valeur d’une coordination transfrontalière en temps réel. NATO-L étendrait ces bénéfices éprouvés à l’échelle transatlantique, permettant un équilibrage des charges entre réseaux asynchrones et optimisant l’utilisation de ressources renouvelables non corrélées.

Tableau récapitulatif financier (estimation personnelle, non fournie par NATO-L) :

Article content

Les estimations des coûts en capital pour NATO-L s’appuient sur des comparaisons avec d’autres projets de câbles sous-marins HVDC longue distance. Par exemple, le projet Viking Link (Royaume-Uni–Danemark, 1?400 MW sur 765 km) a coûté environ 2 milliards €, tandis que le projet Xlinks Maroc–Royaume-Uni (3,6 GW, 4?000 km) est estimé à 20 milliards £. NATO-L, avec 6 GW et 3 750–4 500 km, devrait coûter entre 20 et 28 milliards €, incluant la fabrication des câbles, leur installation, les stations de conversion, les permis et les imprévus. Cette estimation s’aligne sur les profils de coûts d’autres projets sous-marins multigigawatts utilisant la technologie HVDC >525 kV.

Les coûts d’exploitation pour un projet de cette envergure incluent l’entretien des câbles et des stations, le personnel, l’assurance, la conformité réglementaire et l’exploitation du système. Ces coûts devraient varier entre 200 et 500 millions € par an, selon le taux d’utilisation et la complexité réelle du déploiement. Le poste le plus important est probablement le coût énergétique lié aux pertes de transmission, suivi par l’inspection sous-marine régulière et la maintenance, ainsi que par les frais liés au fonctionnement fiable des stations de conversion et des systèmes de commande à travers l’océan.

Les pertes de transmission sont un facteur important dans les coûts d’exploitation. Les câbles HVDC sous-marins perdent typiquement environ 3 % d’énergie par tranche de 1?000 km. Sur un tracé nord projeté de 3?750 km, cela représente une perte totale d’environ 11 à 12 %. Les pertes seraient moindres lorsque les câbles ne fonctionnent pas à pleine capacité. En supposant un taux d’utilisation de 60 % (4 pointes de 3 à 4 heures chacune), une ligne de 6 GW livrerait environ 31,5 TWh/an. Avec une perte de 12 %, environ 4 TWh/an sont perdus. Au prix de 80 €/MWh, cela représente un coût annuel d’environ 320 millions €, ce qui se situe dans la fourchette supérieure des estimations de dépenses d’exploitation. Cela souligne l’importance d’optimiser l’utilisation et le rendement de transmission pour assurer la viabilité financière.

La valeur annuelle de marché disponible de 2 à 4,5 milliards € représente le bassin de valeur créé par l’arbitrage énergétique, les services de capacité et les fonctions auxiliaires de réseau. Ce montant ne constitue pas nécessairement un revenu pour NATO-L en soi, puisqu’il sera partagé entre tous les acteurs du marché — producteurs d’électricité, exploitants de stockage, fournisseurs de services d’équilibrage, et potentiellement l’exploitant de l’interconnexion. Le revenu annuel de NATO-L dépendra de son cadre réglementaire, de sa structure de propriété et du modèle de rémunération (péage ou marchand) retenu.

1. Arbitrage énergétique :

Avec une ligne de 6 GW utilisée 50 à 75 % du temps, les volumes annuels échangés seraient de 26 à 39 TWh.

Des écarts de prix de 50 à 100 €/MWh entre les pics nord-américains et européens donnent un bassin de valeur de 1,3 à 3,0 milliards €/an.

2. Paiements de capacité :

Les prix de capacité dans les marchés européens, comme le Royaume-Uni varient entre 30?000 et 75?000 €/MW/an.

Pour 6 GW, cela représente 180 à 450 millions €/an.

3. Services auxiliaires et atténuation du contingentement :

En évitant le contingentement et en assurant un équilibrage, NATO-L pourrait fournir des services évalués à 100 à 300 millions €/an.

Valeur totale justifiée : de 1,6 à plus de 4,5 milliards €/an.

Cette structure ne dépend pas d’un avantage de prix moyen permanent, mais de la création de valeur pilotée par le marché, fondée sur la flexibilité, le timing et les services d’intégration.

Les promoteurs de NATO-L s’appuieront vraisemblablement sur des approches analytiques dépassant l’analyse traditionnelle de la valeur actuelle nette (VAN) pour évaluer la viabilité du projet — comme c’est souvent le cas pour les infrastructures transformationnelles. Face à l’incertitude, aux horizons temporels longs et aux impacts systémiques potentiels, des méthodes comme l’analyse en options réelles, la planification par scénarios et les évaluations de valeur stratégique sont souvent plus adaptées. Cette perspective reflète la manière dont d’autres grands projets d’interconnexion ont été évalués et correspond à la nature fondamentalement stratégique de NATO-L.

Le projet NATO-L en est clairement encore à ses débuts, concentré sur la construction d’un consensus, l’attraction de membres fondateurs et l’engagement avec les parties prenantes dans les secteurs politique, réglementaire, technique, industriel et financier. Étant donné l’ampleur du projet et son importance stratégique, il est possible que de grandes entreprises européennes de services publics ou des opérateurs de transport d’électricité s’y joignent au fur et à mesure de son avancement.

Pose de câbles moderne : du Great Eastern à la Monna Lisa

La résilience des câbles électriques sous-marins est souvent sous-estimée. Bien que les pannes puissent être perturbatrices, la réparation d’un câble à courant continu haute tension (HVDC) est généralement plus rapide et moins dangereuse que celle d’un gazoduc sous-marin. Il n’y a ni confinement de gaz sous pression ni risque d’explosion — seulement un travail électrique exigeant, mais bien compris. Cela fait des interconnexions HVDC un investissement à long terme plus sûr et plus résilient.

Une comparaison historique est instructive. La première tentative du Great Eastern de poser un câble télégraphique transatlantique en 1865 se solda par un échec lorsque le câble se rompit au milieu de l’océan. Le navire retourna sur place en 1866 après avoir réussi à poser le premier câble transatlantique lors de sa seconde tentative. L’équipage localisa et récupéra le câble perdu, le reconnecta, et compléta avec succès la deuxième liaison à travers l’Atlantique — un exploit extraordinaire de persévérance et de compétence technique, il y a plus de 150 ans. Lorsque j’ai lu ce récit enfant, cette réparation m’avait profondément impressionné.

Au XIXe siècle, le Great Eastern était le seul navire capable de transporter et de poser un câble transatlantique. Aujourd’hui, cet héritage pionnier se poursuit avec une nouvelle génération de navires câbliers. Un exemple marquant est la Monna Lisa, le tout dernier navire poseur de câbles du groupe Prysmian.

Avec un déplacement en charge d’environ 35?000 tonnes, la Monna Lisa mesure 185 mètres de long et 34 mètres de large. Elle est équipée de deux carrousels de câbles de grande capacité (7?000 et 10?000 tonnes), de systèmes avancés de positionnement dynamique DP3 et d’une forte capacité de traction pour les opérations en haute mer. Ce sont des navires comme la Monna Lisa qui rendent un projet transatlantique comme NATO-L techniquement et opérationnellement réalisable.

Le défi des marchés : concilier des structures réglementaires différentes

Un enjeu central est que l’Europe et l’Amérique du Nord fonctionnent selon des structures de marché très différentes :

  • L’Europe dispose de marchés de gros et de capacité libéralisés et concurrentiels.
  • L’est du Canada et certaines régions du nord-est des États-Unis opèrent dans des cadres monopolistiques ou des systèmes hybrides réglementés.

Pour que NATO-L fonctionne efficacement, il faudra créer des mécanismes permettant d’échanger de l’électricité entre ces systèmes. Les options possibles incluent :

  • La création d’une entité marchande d’exportation opérant selon les règles européennes.
  • Des contrats d’achat d’électricité (PPA) bilatéraux à long terme avec des opérateurs de système européens.
  • De nouveaux cadres intergouvernementaux s’appuyant sur l’Accord économique et commercial global (AECG/CETA).

Les défenseurs de cette initiative devront déterminer une structure financière qui permet à toutes les parties concernées, y compris les acheteurs et les vendeurs, de réaliser des profits en fonction de leurs niveaux respectifs de tolérance au risque.

Au-delà de l’économie : dimensions stratégiques et géopolitiques

Le projet NATO-L revêt également une importance stratégique à un moment où les alliances transatlantiques sont mises à rude épreuve. Alors que les États-Unis adoptent des politiques de plus en plus protectionnistes et entretiennent une rhétorique annexionniste, le Canada a tout intérêt à diversifier ses partenariats énergétiques et à renforcer ses liens avec l’Europe.

Un corridor énergétique transatlantique permettrait de :

  • Positionner le Canada comme un fournisseur fiable d’électricité propre et stable ;
  • Renforcer la transition de l’Europe hors des combustibles fossiles et sa réduction de dépendance envers des régimes autocratiques ;
  • Accroître la résilience collective de l’OTAN grâce à des infrastructures non militaires ;
  • Réduire les risques climatiques en connectant des régions aux régimes météorologiques complémentaires et aux profils de production renouvelable diversifiés.

Cette dimension stratégique pourrait également permettre d’obtenir un soutien institutionnel ou financier de l’Union européenne. Le projet NATO-L semble en effet aligné avec les objectifs de REPowerEU, le plan phare de l’UE visant à réduire les importations de combustibles fossiles, accélérer le déploiement des énergies renouvelables et renforcer les infrastructures transfrontalières. En facilitant l’intégration transatlantique et l’utilisation flexible de l’hydroélectricité pilotable, NATO-L contribue directement à ces objectifs. Dans le cadre de REPowerEU, les projets qui favorisent la décarbonation, la diversification énergétique et la résilience des réseaux peuvent bénéficier d’un appui de l’UE, que ce soit sous forme de coordination ou de financement.

Selon mes estimations, ce projet pourrait permettre de remplacer environ 1 milliard d’euros d’importations annuelles de gaz naturel et de réduire les émissions de quelque 20 millions de tonnes de CO? par an — principalement en assurant un appoint flexible d’électricité propre pendant les pointes de demande en Europe et en réduisant le contingentement des énergies renouvelables.

Conclusion : une seconde révolution transatlantique

NATO-L a le potentiel de jouer un rôle similaire à l’ère de l’énergie propre.

En misant sur les fuseaux horaires, l’hydroélectricité pilotable et les technologies HVDC de pointe, le projet pourrait permettre une profonde décarbonation, renforcer la stabilité transatlantique et générer des retombées économiques tangibles. Mais cela ne sera possible que si les structures de marché évoluent pour saisir cette opportunité.

Tout comme le télégraphe a permis à la finance, à la diplomatie et à l’industrie mondiales de prospérer, NATO-L peut devenir l’épine dorsale d’une économie carboneutre plus intégrée et plus résiliente.