Author Archives: Benoit Marcoux

About Benoit Marcoux

In over 35 years working in telecom and energy industries, including 20 in consulting, I have designed systems, financed them, sold them, manage multi-million implementation programs, and ran large service operations. Always a bit of a nerd, I am passionate about how digital technologies transform entire industries and I accompany my clients in this tortuous journey. I graduated as a professional engineer and went on to complete a Master degree in Applied Sciences and an MBA.

Mid-Transition Series

(LinkedIn: https://www.linkedin.com/pulse/mid-transition-series-part-1-electrify-first-expand-grid-marcoux-tqkue/)

The Mid-Transition Series explores how overlapping systems, misaligned expectations, and institutional inertia shape the complex path to a clean energy future.

Electrify First, Expand the Grid and Catch Up on Generation

Before we dive into the messiness, misinterpretations, and institutional frictions of the energy transition, we begin with what is clear and actionable: taking no-regret steps like electrifying what we can, building the grid to support it, and scaling generation to match. The harder-to-electrify sectors — like freight, aviation, and high-temperature industrial heat — can be addressed through focused R&D and long-term planning.

That’s the logic: begin by electrifying what’s ready, and preparing for what’s harder. Here’s how that plays out step by step:

1. Start with efficient electrification of ready sectors. Electrify what we already know works: passenger transport, building heating, and low-temperature industrial processes — while also deploying energy efficiency measures across buildings and industry to reduce demand and system stress. These end uses are technologically mature, economically viable, and provide immediate and measurable improvements in efficiency, emissions, and air quality. Electrifying them now lays the demand-side foundation for broader system transformation.

2. Build out the grid — physically and digitally — in lockstep with new demand. Transmission and distribution systems must be reinforced and extended to accommodate distributed generation, shifting loads, and the increasing need for ancillary services. At the same time, digital tools — such as grid automation, dynamic pricing and real time forecasting — are needed to shape and manage generation and demand more intelligently. These upgrades are not just technical but strategic, making the grid more flexible, responsive, and ready for a clean, electrified future.

3. Expand generation — prioritize clean, but build what’s needed. New capacity must come online fast. After decades of relatively flat electricity demand growth, the entire electricity supply chain — from transformers and turbines to heat pumps and skilled labour — must now scale up dramatically. While clean sources like wind, solar, hydro, geothermal, nuclear, and storage are the goal, interim fossil generation may be needed to ensure reliability and flexibility. CCGT plants, for example, can be built relatively quickly under normal conditions and operate at 55–62% efficiency — although supply chain bottlenecks may temporarily affect delivery timelines. Paired with efficient end-use electrification, they offer a transitional solution that supports decarbonization without locking in long-term end-use emissions. Fortunately, my home province of Québec has ample dispatchable hydropower, easing the integration of additional wind and solar generation, without the need for natural gas plants.

4. Invest now in the hard-to-electrify sectors. Freight, aviation, high-temperature industrial heat — these are more challenging and will require long-term R&D, demonstration projects, and industrial policies to bring viable clean solutions to market.

Conclusion: A successful transition builds the backbone before scaling complexity. Pair efficient end uses with efficient generation. Let the grid evolve with both. And recognize that some technologies will play bridging roles. This is not about perfection today, but about building the systems that allow us to move faster, smarter, and more affordably toward a decarbonized energy future.

The telecom world provides a useful lesson: mobile phone networks didn’t just appear fully formed. They evolved step by step — with spectrum allocation, tower construction, backhaul, device adoption, and billing innovation all occurring in stages. Energy planners should adopt the same mindset: build the backbone first, then enable services and flexibility over time.

Why Fossil Demand May Spike During the Energy Transition (and Why That’s Not Failure

The transition to a low-carbon energy system does not follow a straight, smooth path. During what Emily Grubert and Sara Hastings-Simon call the “mid-transition”, we live with overlapping infrastructures: old fossil-based systems remain active while new clean technologies ramp up.

In this phase, fossil fuel use can temporarily spike — not because we’re failing, but because the old system is still needed to stabilize or supplement the new one. This is particularly true for electricity grids: as electrification surges (EVs, heat pumps, industry), clean generation and storage may not ramp up quickly enough to reliably meet peak demand. In such cases, new fossil-fuel plants may be required as a bridging measure to ensure system adequacy. However, these plants will operate at lower capacity factors over time, as renewable generation, storage, and demand flexibility continue to scale and reduce their role. This dynamic is already visible in China, which has approved and is still building new coal-fired power plants to meet growing demand and to ensure system reliability, especially during peak demand periods or localized shortages. Yet, coal generation is declining in 2025 as renewable generation is increasing. In such cases, the investment in new fossil capacity does not contradict the transition but supports it — by acting as a temporary buffer that becomes less utilized over time. Over the longer term, these same sites can be repurposed. Some plants can be modified to operate as synchronous condensers, providing voltage support and inertia without generating power. Others may be ideal locations for battery storage systems, leveraging existing grid interconnections and permitting. Planning for future reuse at the time of investment can help reduce stranded asset risk and enhance long-term system flexibility.

The telecom world followed a similar arc. Landline subscriptions in North America kept growing into the early 2000s, even as mobile phones and Internet telephony took off. At home, I had four analog lines — for the family, a home office, fax, and dial-up Internet — plus an analog cell phone and an analog cable TV service. This setup was typical at the time: peak analog, right before broadband and smartphones made it obsolete. (We now have broadband Internet and smartphones only.) What looked like growth was really the final swell before disruption. Maintaining all these systems may have seemed inefficient, but it was necessary. The same is true for energy: overlapping infrastructures are not poor planning, but a hallmark of transition.

The key is to recognize these peaks not as setbacks, but as signs that system change is underway. What’s essential is planning their obsolescence even as they temporarily expand.

Efficiency Is the Hidden Hero

Efficiency is often overlooked in energy discussions, yet it is a foundational driver of emissions reductions and system performance. Electrified systems like EVs and heat pumps are dramatically more efficient than their fossil-fuelled counterparts — a fact that holds true even when powered by fossil-heavy grids. EVs, for instance, convert over 80% of battery energy to motion, compared to less than 25% in gasoline engines. Heat pumps can deliver three to four units of heat per unit of electricity, far outperforming traditional oil or gas furnaces.

In Québec, where electricity already makes up nearly 50% of final energy use thanks to abundant hydropower, replacing remaining oil systems with heat pumps delivers immediate environmental and cost benefits. Moreover, much of Québec’s housing stock was built in the 1970s and 1980s with electric baseboards. These are simple but demand-intensive systems. Upgrading them to cold climate heat pumps with smart thermostats not only improves household efficiency, it also frees up valuable grid capacity during winter peaks — capacity that can be redirected to support EVs or other electrified loads.

Efficiency gains go beyond equipment swaps. Insulating buildings, sealing leaks, improving windows, and modernizing industrial equipment and processes all reduce system strain and energy costs. One such industrial example is the adoption of variable-frequency drive (VFD) motors. VFDs adjust a motor’s speed and torque to match actual demand, significantly reducing energy use in pumps, fans, and compressors — applications that make up a large portion of industrial consumption. These improvements are classic no-regret measures: low-risk, low-cost, and high-impact. They cut demand, lower emissions, and enhance resilience — especially important as electrification scales.

Even in provinces or countries where the grid still relies heavily on fossil fuels, these actions reduce overall emissions across the system’s lifecycle. Efficiency should, therefore, be seen not just as a side benefit, but as a strategic enabler of the entire energy transition.

In telecom, early mobile systems had similar trade-offs. Initial digital systems — like early voice-over-IP or digital switching — were often less spectrally efficient than analog ones. Accurately transmitting 1s and 0s required more bandwidth and higher fidelity compared to analog voice. Voice quality and latency were initially worse. But digital platforms enabled new services, evolved quickly, and scaled dramatically in performance. The same logic applies to electrification: the early phase may not be perfect, but it enables a dynamic, software-enhanced, rapidly improving system architecture.

Efficiency — both in physics and system adaptability — is the reason electrification cuts emissions today and lays the foundation for deeper decarbonization tomorrow. This advantage mirrors the logic in Part 1: whether through highly efficient combined-cycle gas generation or through clean, electrified end uses like EVs and heat pumps, choosing the most efficient technology available today is a no-regret way to reduce emissions and improve system performance. The challenge, then, is not whether electrification makes sense — it’s how to scale it quickly and effectively.

Governing in Disequilibrium

The mid-transition is marked by complexity: fast-changing technologies, slow-moving institutions, and legacy systems that can’t disappear overnight. Not all sectors advance at the same pace, and policy should reflect this heterogeneity. For instance, home heating and light-duty vehicle sectors are ripe for rapid electrification, while heavy industry and long-distance freight may need more time and targeted R&D support. A differentiated approach — matching tools and timelines to sector maturity — will produce better results than one-size-fits-all policy frameworks.

Policy must match this reality. Incentives are often crucial in expediting the implementation of electrification technologies, particularly at the consumer level, where initial costs continue to be a barrier. Subsidies for heat pumps, EVs, smart appliances, and retrofits can catalyze demand, create economies of scale in manufacturing and installation, and speed up market transformation — though these incentives should be designed to taper off as markets mature and costs decline. Meanwhile, regulatory tools — including standards for building codes, vehicle emissions, and utility performance — play a crucial role in shaping how electrification, grid upgrades, and generation buildout unfold. Together, targeted incentives and strong regulations create the enabling conditions for coordinated decarbonization.

R&D, subsidies, and governance should favour fast-cycling innovations (like DERs, digital controls, and distributed storage), which deliver rapid gains and learning cycles. These investments should be complemented by longer-term support for foundational technologies in harder-to-decarbonize sectors, and by strategies to manage the planned decline of fossil infrastructure — including retraining workers and reallocating capital.

Carbon pricing and market reform are tools — not silver bullets. While carbon pricing can be an effective tool for reducing emissions in some sectors, it is less effective at driving complex infrastructure transitions on its own. Electricity systems are not fully liberalized markets: they involve regulated monopolies, long planning horizons, and public-interest obligations. Without complementary policies — like performance standards, direct investment, and regulatory reform — price signals may simply reinforce the status quo. In electricity systems characterized by long-lived infrastructure, incumbent utilities, and planning rigidities, carbon pricing alone may increase costs without driving meaningful change. It may discourage consumption without creating the necessary conditions to shift how power is generated, delivered, and used. As with telecom, it was not pricing reform alone that enabled digital transformation, but institutional openness to new actors, technologies, and business models. A mix of capacity markets to ensure reliability, flexible tariffs to shape demand, and equity-based programs to support low-income and underserved communities should take centre stage.

Telecom regulators lagged during the mobile revolution, struggling to apply outdated rules built for analog voice services to a rapidly evolving digital landscape. This mismatch delayed innovation and created friction during a period of fundamental transformation — a cautionary tale for today’s energy regulators facing a similarly disruptive shift.

Historically, telephone companies have operated as monopolies. But competition from cable operators, multiple mobile providers, and eventually Internet-based services forced a rethinking of the entire regulatory framework. The result was a more dynamic and pluralistic ecosystem, with overlapping platforms and diverse business models that evolved on their own timelines and required differentiated oversight.

The energy sector could face a similar transformation. Distributed energy resources (DERs) such as rooftop solar, batteries, vehicle-to-grid systems, and energy aggregators, are beginning to challenge the traditional one-way, centralized utility model. In addition, new institutional forms — including municipal utilities, Indigenous energy enterprises, and energy cooperatives — are gaining traction. These actors blur the lines between consumer and producer, infrastructure and service, public and private.

Energy regulation will need to adapt — not by copying telecom’s outcome, since the final structure of the electricity sector will vary by jurisdiction, but by applying the same principle: openness to decentralization, innovation, and diversity of models. A flexible, pluralistic regulatory framework will be essential for managing this complexity and avoiding the friction that slowed telecom’s early digital transition.

Just as telecom embraced new actors and decentralization, energy systems must welcome municipal leadership, community ownership, and user-side intelligence.

Misreading the Transition

Energy systems today face challenges remarkably similar to those telecom networks encountered during their digital transition. Digital telecom technologies like DSL and VoIP had to coexist with legacy analog systems for decades, creating friction due to protocol mismatches, legacy billing systems, and inconsistent service expectations. Likewise, clean energy technologies — from distributed solar to smart thermostats — are being deployed into infrastructure built for centralized, dispatchable fossil generation. Grid codes — the technical connection standards that govern how equipment interacts with the grid — along with interconnection rules and pricing models, often lag behind the capabilities and needs of these new technologies. Energy institutions, like their telecom counterparts, must revise rules, develop new skills, and embrace structural change. The coexistence of old and new isn’t a temporary bug — it’s the defining feature of the mid-transition.

Transition systems don’t grow linearly — they oscillate. Oversupply in one part of a value chain (e.g. solar PV modules or batteries) can result from constraints elsewhere (e.g. permitting, interconnection delays, or grid integration). These mismatches often lead to price crashes or gluts, not because the technologies have failed, but because the system hasn’t caught up. This dynamic has been repeatedly observed in solar PV manufacturing: booms driven by scaling incentives followed by busts when deployment lags. These fluctuations send conflicting market signals, confuse investors and policymakers, and can undermine public confidence in the transition. Understanding this volatility as a feature of disequilibrium — not a failure — is essential.

A telling example of this broader challenge is the deployment of smart meters. In many jurisdictions, the infrastructure is already in place — often through major public investments — but the benefits are unevenly realized. Time-of-use pricing, real-time feedback, and automated demand response require more than just smart meters: they depend on appropriate regulatory frameworks, utility engagement, and customer trust. Where these elements are lacking, the value of the technology remains latent. Telecom experienced something similar with underused broadband networks in the early 2000s: the physical infrastructure was there, but the service models and demand were not yet aligned. This underscores a recurring theme of the mid-transition — that physical build out must be matched by institutional readiness and user integration.

Another lesson from telecom is the pace and frequency of system overhaul. Over just a few decades, the industry cycled through multiple generations of mobile telephony — 2G, 3G, LTE, 4G, and now 5G — and broadband technologies — Digital Subscriber Line, Hybrid Fibre coax, and now Fibre-to-the-Home — each requiring major infrastructure upgrades. Cable and copper wiring were replaced by fibre; networks were torn out and rebuilt repeatedly. This pattern of continuous reinvention was normal. In contrast, electricity systems are built for longevity, with assets expected to last 40 to 80 years. This long-horizon mindset makes the idea of regularly replacing infrastructure seem wasteful. Yet the energy transition may demand more frequent reinvestment, particularly to upgrade early solar, wind, and grid technologies. Recognizing this difference in cultural and institutional expectations is key: what telecom embraced as a pathway to progress, electricity may resist — to its own detriment. This is particularly evident in wind repowering. Early wind projects were often built with smaller turbines and lower hub heights. Many of these sites are now being dismantled and rebuilt with vastly more productive equipment, enabling greater energy output from the same location, often with fewer turbines. Far from being wasteful, repowering reflects accelerated learning and evolving design standards — a sign of maturity, not failure. The electricity sector, like telecom, must normalize reinvestment as part of long-term transformation.

Another common but misunderstood signal of progress is curtailment — the deliberate reduction of output from renewable generators when supply temporarily exceeds demand or transmission capacity. To some, curtailment appears to be waste, as if clean electricity is being thrown away. But in a system with high shares of variable renewables, some level of curtailment is both expected and economically rational. It allows planners to size generation to meet needs under most conditions, while accepting occasional excess as a trade-off for reliability and resilience. In fact, strategic overbuilding — and the resulting curtailment — can be cheaper and faster than expanding transmission or storage in the short term. As with repowering, the optics of curtailment can mislead observers into thinking the system is broken when it may actually be operating efficiently within design limits.

Conclusion

The mid-transition is messy, but navigable. Understanding it means accepting that dual systems, temporary contradictions, and fast-shifting technologies are not signs of failure, but indicators of forward movement. Just as telecom weathered overlapping networks, regulatory lag, and public confusion on the way to transformative change, the energy system must do the same — but with higher stakes and less time. By focusing on no-regret actions, embracing efficiency, aligning governance with technology, and anticipating perception gaps, we can design a transition that is not only faster and cleaner, but fairer and smarter. The transition is underway. It won’t be perfect. But it can be planned.

Série mi-transition

La Série mi-transition explore comment des systèmes superposés, des attentes mal alignées et l’inertie institutionnelle façonnent le parcours complexe vers un avenir énergétique propre. 

(LinkedIn: https://www.linkedin.com/pulse/s%25C3%25A9rie-mi-transition-partie-1-dabord-%25C3%25A9lectrifier-%25C3%25A9tendre-marcoux-4q8ve/

D’abord électrifier, étendre le réseau et rattraper la production

Avant de plonger dans les déséquilibres, les malentendus et les frictions institutionnelles de la transition énergétique, commençons par ce qui est clair et réalisable : prendre des mesures sans regret comme électrifier ce qui est prêt, renforcer le réseau pour le soutenir, et augmenter la production de manière cohérente. Les secteurs plus difficiles à électrifier — comme le transport de marchandises, l’aviation et la chaleur industrielle à haute température — pourront faire l’objet de travaux de R&D ciblés et d’une planification à plus long terme.

Voici comment cela se décline, étape par étape :

1. Électrifier efficacement les secteurs déjà prêts. Électrifier les secteurs où les solutions sont matures : le transport de passagers, le chauffage des bâtiments et les procédés industriels à basse température — tout en mettant en œuvre des mesures d’efficacité énergétique dans les bâtiments et l’industrie pour réduire la demande et le stress sur le système. Ces usages finaux sont technologiquement éprouvés, économiquement viables et offrent des améliorations immédiates en matière d’efficacité, d’émissions et de qualité de l’air. Leur électrification pose les bases de la transformation du système énergétique.

2. Renforcer le réseau — physiquement et intelligemment — en fonction de la nouvelle demande. Les réseaux de transport et de distribution doivent être renforcés et étendus pour accueillir la production distribuée, les charges changeantes, et les besoins croissants en services ancillaires. Parallèlement, des outils numériques — automatisation du réseau, tarification dynamique, prévision en temps réel — sont nécessaires pour gérer la production et la demande de manière plus intelligente. Ces mises à niveau sont non seulement techniques, mais aussi stratégiques : elles rendent le réseau plus flexible, réactif et prêt pour un avenir électrifié et propre.

3. Développer la production — privilégier le propre, mais construire ce qui est nécessaire. De nouvelles capacités doivent entrer en service rapidement. Après des décennies de stagnation de la demande en électricité, l’ensemble de la chaîne d’approvisionnement — transformateurs, turbines, thermopompes et main-d’œuvre qualifiée — doit maintenant augmenter considérablement. Bien que les énergies à faible taux de carbone (éolien, solaire, hydroélectricité, géothermie et nucléaire) constituent les objectifs finaux, une production fossile de transition peut être nécessaire pour assurer la fiabilité. Les centrales à cycle combiné au gaz (CCGT), par exemple, peuvent être construites relativement rapidement dans des conditions normales et atteignent des rendements de 55 à 62 % — bien que des goulots d’étranglement dans la chaîne d’approvisionnement puissent retarder leur livraison. Couplées à des usages finaux électrifiés et efficaces, elles offrent une solution transitoire pour soutenir la décarbonation sans s’enliser dans des usages qui impliquent émissions à long terme. Heureusement, ma province d’origine, le Québec, dispose d’une abondante hydroélectricité modulable, facilitant l’intégration de l’éolien et du solaire supplémentaires, sans recourir à des centrales à gaz naturel.

4. Investir dès maintenant pour les secteurs difficiles à électrifier. Le transport de marchandises, l’aviation, la chaleur industrielle à haute température — ces secteurs sont plus complexes et nécessiteront des efforts de R&D, des projets pilotes et une politique industrielle soutenue pour parvenir à des solutions propres viables.

Conclusion : Une transition réussie commence par bâtir l’ossature avant d’ajouter la complexité. Il faut jumeler des usages finaux efficaces avec une production efficace. Le réseau doit évoluer avec les deux. Et il faut reconnaître que certaines technologies joueront un rôle de transition. Ce n’est pas la perfection qui est visée aujourd’hui, mais la création de systèmes qui nous permettront de progresser plus rapidement, plus intelligemment et plus durablement vers un avenir énergétique décarboné.

Le secteur des télécoms fournit une leçon précieuse : les réseaux mobiles ne sont pas apparus en un jour. Ils ont évolué par étapes — avec l’attribution de spectre, la construction de tours, la connectivité de retour (backhaul), l’adoption des appareils et l’innovation en matière de facturation. Les planificateurs de l’énergie devraient adopter le même état d’esprit : construire l’ossature d’abord, puis déployer les services et la flexibilité ensuite.

Pourquoi la demande de combustibles fossiles pourrait augmenter (et pourquoi ce n’est pas un échec)

La transition vers un système énergétique bas carbone ne suit pas un parcours linéaire. Durant ce que Emily Grubert et Sara Hastings-Simon appellent la «?mi-transition?», nous vivons avec des infrastructures qui se chevauchent : les anciens systèmes fondés sur les combustibles fossiles restent actifs pendant que les nouvelles technologies propres prennent de l’ampleur.

Dans cette phase, la consommation de combustibles fossiles peut temporairement augmenter — non pas parce que nous échouons, mais parce que l’ancien système est encore nécessaire pour stabiliser ou compléter le nouveau. C’est particulièrement vrai pour les réseaux électriques : avec la montée de l’électrification (véhicules électriques, thermopompes, industrie), la production propre et le stockage ne progressent pas toujours assez rapidement pour répondre de manière fiable aux pointes de demande. Dans ce contexte, il peut être nécessaire de construire de nouvelles centrales au gaz naturel ou au charbon comme solution transitoire pour assurer le bon fonctionnement du réseau. Toutefois, ces centrales fonctionnent à des facteurs de capacité plus faibles au fil du temps, à mesure que la production renouvelable, le stockage et la flexibilité de la demande prennent le relais. On observe déjà cette dynamique en Chine, qui continue d’autoriser la construction de centrales au charbon pour répondre à la demande croissante et garantir la fiabilité du système, surtout lors des périodes de pointe ou de pénuries locales. Pourtant, la production d’électricité à partir du charbon a baissé en 2025, tandis que les énergies renouvelables ont augmenté.

Dans ces cas, l’investissement dans de nouvelles capacités fossiles ne contredit pas la transition, mais la soutient — en agissant comme un tampon temporaire dont l’utilisation diminuera avec le temps. À plus long terme, ces mêmes sites peuvent être réaffectés. Certaines centrales peuvent être modifiées pour fonctionner comme condensateurs synchrones, offrant un soutien en tension et une inertie sans produire d’électricité. D’autres peuvent accueillir des systèmes de stockage par batteries, en tirant parti des interconnexions et des autorisations existantes. Planifier leur réutilisation future dès l’investissement initial permet de réduire les risques d’actifs échoués et d’accroître la flexibilité à long terme du système.

Le monde des télécoms a connu une dynamique similaire. Les abonnements à des lignes terrestres en Amérique du Nord ont continué de croître jusqu’au début des années 2000, alors même que les téléphones mobiles et la téléphonie Internet prenaient leur essor. À la maison, j’avais quatre lignes analogiques — pour la famille, un bureau à domicile, un télécopieur et l’accès Internet par modem — en plus d’un cellulaire analogique et du câble analogique. C’était typique à l’époque : un pic de technologies analogiques juste avant que le haut débit et les téléphones intelligents ne rendent tout cela obsolète. (Nous n’avons maintenant qu’Internet haute vitesse et des téléphones intelligents.) Ce qui ressemblait à une croissance était en fait le dernier soubresaut avant la rupture. Maintenir tous ces systèmes pouvait sembler inefficace, mais c’était nécessaire. Il en va de même pour l’énergie : des infrastructures qui se chevauchent ne sont pas le signe d’une mauvaise planification, mais une caractéristique normale de toute transition.

Il faut donc reconnaître ces pics non comme des échecs, mais comme des signes que le changement de système est en cours. Ce qui est essentiel, c’est de planifier leur obsolescence même lorsqu’ils continuent de croître temporairement.

L’efficacité est l’héroïne cachée

L’efficacité énergétique est souvent négligée dans les discussions énergétiques, et pourtant, elle est un moteur fondamental de réduction des émissions et d’amélioration de la performance des systèmes. Les systèmes électrifiés, comme les véhicules électriques (VE) et les thermopompes, sont nettement plus efficaces que leurs équivalents alimentés aux combustibles fossiles — même lorsqu’ils sont alimentés par des réseaux encore partiellement fossiles. Par exemple, les VE convertissent plus de 80 % de l’énergie de la batterie en mouvement, contre moins de 25 % pour un moteur à essence. Les thermopompes peuvent fournir trois à quatre unités de chaleur pour chaque unité d’électricité, surpassant largement les chaudières à mazout ou à gaz.

Au Québec, où l’électricité représente déjà près de 50 % de la consommation finale d’énergie grâce à l’hydroélectricité, remplacer les systèmes au mazout restants par des thermopompes offre des avantages environnementaux et économiques immédiats. De plus, une grande partie du parc résidentiel québécois des années 1970 et 1980 est équipée de plinthes électriques. Ces systèmes sont simples, mais très gourmands en énergie. Les remplacer par des thermopompes pour climat froid avec thermostats intelligents améliore non seulement l’efficacité énergétique des ménages, mais libère également une capacité réseau précieuse pendant les pointes hivernales — capacité qui peut ensuite servir à d’autres usages, comme les VE.

Les gains d’efficacité ne se limitent pas aux équipements. Isoler les bâtiments, colmater les fuites, améliorer les fenêtres, moderniser les procédés industriels : toutes ces actions réduisent la demande, les coûts énergétiques et la pression sur le réseau. Un bon exemple industriel est l’adoption des moteurs à vitesse variable (VFD), qui ajustent la vitesse et le couple d’un moteur en fonction de la demande réelle, réduisant ainsi considérablement la consommation énergétique des pompes, ventilateurs et compresseurs — des usages majeurs en milieu industriel. Ces actions sont habituellement des décisions sans regret : elles sont peu risquées, peu coûteuses, mais avec un impact élevé.

Même dans les régions où le réseau électrique dépend encore largement des combustibles fossiles, ces mesures réduisent les émissions sur l’ensemble du cycle. L’efficacité doit donc être vue non pas comme un avantage secondaire, mais comme un levier stratégique de la transition énergétique.

Dans le secteur des télécoms, les systèmes mobiles précoces présentaient des compromis similaires. Les systèmes numériques initiaux — comme la voix sur IP ou les commutateurs numériques — étaient souvent moins efficaces que leurs homologues analogiques en termes de bande passante. Transmettre correctement des 1 et des 0 nécessitait plus de fidélité et plus de bande passante que transmettre une voix analogique. La qualité sonore et la latence étaient parfois inférieures. Pourtant, ces plateformes numériques ont permis de nouveaux services, ont évolué rapidement et ont gagné en performance à grande échelle. Il en va de même pour l’électrification : les premières phases peuvent être imparfaites, mais elles permettent de bâtir une architecture dynamique, numérique et en constante amélioration.

L’efficacité — qu’il s’agisse de physique ou de capacité d’adaptation — est la raison pour laquelle l’électrification réduit déjà les émissions et prépare le terrain pour une décarbonation plus profonde. Cet avantage rejoint la logique de la Partie 1 : que ce soit par la production efficace de centrales au gaz à cycle combiné ou par des usages électrifiés, comme les VE et les thermopompes, choisir les technologies les plus efficaces disponibles aujourd’hui est une manière sans regret de réduire les émissions et d’améliorer les performances du système.

Le défi consiste donc à voir comment on peut déployer rapidement et efficacement l’électrification.

Gouverner en déséquilibre

La mi-transition est marquée par la complexité : des technologies qui évoluent rapidement, des institutions lentes à s’adapter, et des systèmes existants qui ne peuvent disparaître du jour au lendemain. Tous les secteurs ne progressent pas au même rythme, et les politiques publiques doivent tenir compte de cette hétérogénéité. Par exemple, le chauffage résidentiel et les véhicules légers peuvent être rapidement électrifiés, tandis que l’industrie lourde ou le transport longue distance nécessitent plus de temps et un soutien ciblé en R&D. Une approche différenciée — ajustant les outils et les échéanciers selon la maturité de chaque secteur — donne de meilleurs résultats qu’un cadre unique pour tous.

Les politiques doivent refléter cette réalité. Les incitatifs sont souvent essentiels pour accélérer l’adoption des technologies d’électrification, surtout pour les usages finaux où les coûts initiaux constituent un frein. Des subventions pour les thermopompes, les véhicules électriques, les appareils intelligents et les rénovations énergétiques peuvent stimuler la demande, créer des économies d’échelle dans la fabrication et l’installation, et transformer plus rapidement le marché — à condition que ces incitatifs soient conçus pour disparaître progressivement à mesure que les marchés arrivent à maturité et que les coûts baissent. En parallèle, les outils réglementaires — comme les normes du bâtiment, les règlements sur les émissions de véhicules ou les critères de performance des services publics — jouent un rôle crucial dans l’encadrement de l’électrification, de l’extension du réseau et de l’ajout de capacités de production. Ensemble, incitatifs ciblés et réglementation rigoureuse forment les conditions nécessaires à une décarbonation coordonnée.

La R&D, les subventions et la gouvernance devraient privilégier les innovations à cycles rapides (comme les ressources énergétiques distribuées, les outils numériques ou le stockage décentralisé), qui offrent des gains rapides et permettent un apprentissage accéléré. Ces investissements doivent être complétés par un soutien de plus long terme pour les technologies fondamentales dans les secteurs plus difficiles à décarboner, ainsi que par des stratégies de sortie pour les infrastructures fossiles : reconversion des travailleurs, réaffectation des actifs, redistribution des capitaux.

La tarification du carbone et les réformes de marché sont des outils — pas des solutions miracle. Si la tarification du carbone peut réduire les émissions dans certains secteurs, elle est peu efficace à elle seule pour transformer des infrastructures complexes. Le système électrique n’est pas un marché pleinement libéralisé : il est composé de monopoles régulés, de longues périodes de planification, et d’obligations d’intérêt public. Sans politiques complémentaires — comme des normes, des investissements publics ou des réformes institutionnelles — les signaux de prix risquent de renforcer le statu quo. Dans les systèmes caractérisés par des actifs durables, des acteurs dominants et des rigidités planificatrices, un prix du carbone peut augmenter les coûts sans générer de changement structurel. Il peut freiner la consommation sans permettre les conditions nécessaires pour transformer la production, la distribution et l’utilisation de l’électricité. Comme pour les télécoms, ce n’est pas la réforme des prix qui a permis la transformation numérique, mais l’ouverture institutionnelle à de nouveaux acteurs, à de nouvelles technologies et à de nouveaux modèles d’affaires. Un ensemble cohérent de marchés de capacité (pour assurer la fiabilité), de tarifs flexibles (pour moduler la demande) et de programmes équitables (pour soutenir les ménages vulnérables) doit occuper le devant de la scène.

Les autorités de régulation dans les télécoms ont réagi lentement pendant la révolution mobile, tentant d’appliquer des règles obsolètes pensées pour les services analogiques à un monde numérique en rapide évolution. Cette inadéquation a ralenti l’innovation et accru les frictions — une leçon à méditer pour les autorités de régulation de l’énergie qui font face à une rupture similaire.

Historiquement, les télécommunications étaient organisées autour de monopoles. Mais l’arrivée de concurrents — câblodistributeurs, fournisseurs mobiles multiples, services Internet — a obligé les régulateurs à revoir en profondeur le cadre du secteur. Il en est ressorti un écosystème dynamique et pluraliste, avec des modèles d’affaires et des plateformes qui se chevauchent et qui ont évolué selon leurs propres rythmes.

Le secteur énergétique pourrait vivre une transition semblable. Les ressources énergétiques distribuées — comme le solaire résidentiel, les batteries, le V2G et les agrégateurs — remettent en question le modèle unidirectionnel centralisé. Par ailleurs, de nouvelles formes institutionnelles — régies municipales, coopératives, entreprises autochtones — prennent leur essor. Ces acteurs brouillent les frontières entre consommateur et producteur, infrastructure et service, public et privé.

La régulation devra s’adapter — pas en copiant le modèle des télécoms, car le résultat final variera selon les juridictions, mais en adoptant la même logique : ouverture à la décentralisation, à l’innovation, et à la diversité des modèles. Un cadre réglementaire souple et pluraliste sera essentiel pour gérer cette complexité et éviter les frictions qui ont ralenti la transition numérique des télécoms.

Comme les télécoms l’ont fait, les systèmes énergétiques devront accueillir les initiatives municipales, les formes de propriété communautaire et l’intelligence côté utilisateur.

Mal interpréter la transition

Les systèmes énergétiques d’aujourd’hui font face à des défis étonnamment similaires à ceux des réseaux télécoms lors de leur transition numérique. Les technologies numériques comme le DSL ou la voix sur IP ont dû coexister avec les systèmes analogiques pendant des décennies, générant des frictions dues aux incompatibilités de protocoles, aux systèmes de facturation désuets et aux attentes variables en matière de qualité de service. De même, les technologies énergétiques propres — du solaire distribué aux thermostats intelligents — sont déployées dans une infrastructure pensée pour une production centralisée, pilotable et fossile. Les codes du réseau — les normes techniques de connexion — ainsi que les règles d’interconnexion et les modèles tarifaires accusent souvent un retard sur les capacités et les besoins des nouvelles technologies. Comme dans les télécoms, les institutions énergétiques doivent revoir les règles, développer de nouvelles compétences et accepter des transformations structurelles. La coexistence de l’ancien et du nouveau n’est pas un bogue temporaire : c’est la caractéristique centrale de la mi-transition.

Les systèmes de transition ne progressent pas linéairement — ils oscillent. Un excédent dans une partie de la chaîne de valeur (par exemple, les modules solaires ou les batteries) peut découler de blocages ailleurs (permis, délais d’interconnexion, intégration réseau). Ces déséquilibres entraînent souvent des effondrements de prix ou des surplus, non pas parce que les technologies ont échoué, mais parce que le reste du système n’a pas suivi. Ce phénomène a été observé à répétition dans le secteur solaire : des cycles de croissance stimulés par les incitatifs, suivis de replis lorsque le déploiement ne suit pas. Ces fluctuations envoient des signaux contradictoires, troublent les investisseurs et les responsables politiques, et peuvent saper la confiance du public. Comprendre cette volatilité comme une manifestation du déséquilibre — et non de l’échec — est essentiel.

Un exemple révélateur est la modernisation de sites. Dans l’extraction fossile, un site est abandonné lorsque la ressource s’épuise. Mais dans les énergies renouvelables, réaménager un ancien site solaire ou éolien avec des technologies plus récentes — un processus appelé «?repowering?» — permet souvent d’augmenter la productivité et de réduire les coûts. Pourtant, ce processus peut donner l’impression d’un gaspillage prématuré ou d’un échec. Reconnaître cette logique différente dans l’évolution des infrastructures est essentiel pour bien interpréter les signaux visuels de la transition énergétique.

Autre exemple révélateur : les compteurs intelligents. Dans plusieurs juridictions, cette infrastructure est déjà installée — souvent à grands frais publics — mais ses bénéfices restent inégalement réalisés. Les tarifs dynamiques, les informations en temps réel, ou l’automatisation de la demande ne peuvent pas être activés par les compteurs seuls : ils nécessitent des cadres réglementaires adaptés, l’engagement des services publics et la confiance des clients. Ce fut aussi le cas dans les télécoms : au début des années 2000, des réseaux large bande sous-utilisés étaient en place, mais les modèles de service et la demande ne suivaient pas encore. Cela souligne un thème récurrent de la mi-transition : le déploiement physique doit être accompagné d’une préparation institutionnelle et d’une intégration côté utilisateur.

Les télécoms offrent une autre leçon : la fréquence et la rapidité des renouvellements de systèmes. En quelques décennies, l’industrie a connu plusieurs générations de téléphonie mobile — 2G, 3G, LTE, 4G, 5G — et de technologies Internet — DSL, câble coaxial, fibre jusqu’au domicile — chacune exigeant de lourds investissements en infrastructures. Les câbles cuivre et coaxiaux ont été remplacés par la fibre?; les réseaux ont été démantelés et reconstruits. Cette logique de renouvellement continu était la norme. En revanche, les systèmes électriques sont conçus pour durer — entre 40 et 80 ans. Cette vision de long terme rend le renouvellement régulier contre-intuitif, voire suspect. Pourtant, la transition énergétique exigera des réinvestissements plus fréquents, notamment pour moderniser les premières vagues d’équipements solaires, éoliens et réseaux. Comprendre cette différence de culture et d’institutions est crucial : ce que les télécoms considéraient comme une voie vers le progrès, l’électricité pourrait le percevoir comme un gaspillage — à son propre détriment.

Un autre signal souvent mal interprété est le délestage (curtailment) — la réduction volontaire de la production renouvelable lorsque l’offre dépasse temporairement la demande ou la capacité du réseau. Cela peut sembler être un gaspillage, comme si l’on jetait de l’électricité propre. Mais dans un système fortement renouvelable, un certain niveau de délestage est normal et économiquement sensé. Il permet aux planificateurs de dimensionner la production pour couvrir la majorité des besoins, en acceptant des surplus occasionnels comme compromis en faveur de la résilience. En fait, une stratégie de surcapacité (et donc de délestage) peut être plus rapide et moins coûteuse à court terme qu’une expansion du réseau ou du stockage. Comme pour le repowering, les apparences peuvent induire en erreur : ce qui semble inefficace reflète en réalité une logique optimale à l’échelle du système.

Conclusion

La mi-transition est désordonnée, mais maîtrisable. La comprendre, c’est accepter que les systèmes doubles, les contradictions temporaires et les technologies en évolution rapide ne soient pas des échecs, mais les signes d’un progrès réel. De la même façon que les télécoms ont traversé des réseaux qui se chevauchaient, des retards réglementaires et une confusion publique avant de changer en profondeur, le système énergétique doit faire de même — mais avec des enjeux plus importants et moins de temps. En misant sur les actions sans regret, en misant sur l’efficacité, en alignant la gouvernance sur la technologie et en anticipant les malentendus, on peut concevoir une transition plus rapide, plus propre, mais aussi plus équitable et plus intelligente. La transition est en cours. Elle ne sera pas parfaite. Mais elle peut être planifiée.

Book Review – Nexus, by Yuval Noah Harari

What happens when we stop believing in shared truth? When outrage trumps understanding? When power flows not from knowledge, but from curation?

(LinkedIn: https://www.linkedin.com/pulse/book-review-nexus-yuval-noah-harari-benoit-marcoux-um4ve/?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3B%2FsfmK%2FRFQ8qOBfcvMWIztg%3D%3D)

Nexus is not a book about energy. But it has everything to do with the way we make collective decisions—about energy, climate, democracy, and survival. Harari’s central insight is that humans thrive not by uncovering objective truth, but by crafting shared fictions that allow cooperation at scale. This applies as much to religion and politics as to money, nations—and yes, energy transitions.

In the energy sector, we often assume that facts will guide action. We quantify emissions, model system scenarios, and publish expert roadmaps. But Harari reminds us that truth alone rarely moves societies. The real levers are stories, institutions, and desires.

Take climate change: Harari critiques the idea of “doing your own research” as a path to truth. He’s right. No one can independently verify climate science, power grid dynamics, or lifecycle emissions. We rely on institutional curation—by universities, media, regulators, even utilities. If these institutions lose trust, our ability to act collectively collapses.

He also draws a parallel with AI: as nonhuman intelligences shape narratives and exploit our biases, the power to curate—to decide what counts as truth, and what stories are told—becomes even more crucial. Just as the Bible was shaped more by those who chose the canon than by its authors, energy futures may be shaped more by those who train the algorithms and structure the debate than by the engineers designing the technology.

What does this mean for energy?

  1. Democracy and curation: Energy institutions must become more transparent, plural, and accountable. If energy planning is seen as technocratic or self-serving, it will be rejected—even if it’s factually correct. Legitimacy matters as much as accuracy.
  2. Desire vs. truth: Choosing between climate action and economic convenience is not a technical decision, but a societal one—driven by collective desire. Energy policy must speak to values, not just cost curves.
  3. Global divergence: Harari warns of a split into incompatible digital spheres. A similar divergence could emerge in energy—between open, interoperable systems and authoritarian techno-enclaves. Canada must choose wisely which infrastructure, values, and alliances it supports.
  4. Fiction as a tool: Harari doesn’t dismiss fiction—he sees it as essential. The energy sector needs better fictions: credible, compelling, collective visions of what a post-carbon world can look like. Not utopias, but stories strong enough to guide action.

In short, Nexus is a sobering call to take seriously the narrative infrastructure of our civilization. For the energy transition to succeed, we will need more than innovation and investment. We will need institutions that curate wisely, publics that desire justly, and stories that hold us together.

Critique du livre – Nexus, de Yuval Noah Harari

Que se passe-t-il lorsqu’on cesse de croire à une vérité partagée? Lorsque l’indignation prend le dessus sur la compréhension? Lorsque le pouvoir découle non pas de la connaissance, mais de la curation?

(LinkedIn: https://www.linkedin.com/pulse/critique-du-livre-nexus-de-yuval-noah-harari-benoit-marcoux-dfvre?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3BfM%2FS13IsQsegaqLYKlDWnw%3D%3D)

Nexus n’est pas un livre sur l’énergie. Mais il éclaire en profondeur la manière dont nous prenons des décisions collectives – qu’il s’agisse du climat, de la démocratie ou de la survie de nos sociétés. L’idée centrale de Harari est que les humains ne prospèrent pas en découvrant la vérité objective, mais en tissant des fictions communes qui permettent la coopération à grande échelle. Cela vaut autant pour les religions et les nations… que pour les politiques énergétiques.

Dans le secteur de l’énergie, on présume souvent que les faits guideront l’action. On chiffre les émissions, on modélise les scénarios, on publie des feuilles de route techniques. Mais Harari nous rappelle que la vérité seule ne suffit pas. Ce sont les récits, les institutions et les désirs collectifs qui orientent véritablement les choix.

Prenons l’exemple du climat : Harari critique l’idée de “faire ses propres recherches” comme voie vers la vérité. Il a raison. Personne ne peut, à lui seul, valider la science du climat, la dynamique des réseaux électriques ou les calculs d’émissions. Nous dépendons d’institutions de curation : universités, médias, régulateurs, et même compagnies d’électricité. Si ces institutions perdent leur légitimité, notre capacité à agir collectivement s’effondre.

Il tire aussi un parallèle avec l’intelligence artificielle : à mesure que des intelligences non humaines structurent nos récits et exploitent nos biais, le pouvoir de curation – c’est-à-dire de décider ce qui compte comme “vérité” – devient central. Comme ceux qui ont déterminé le canon biblique, ceux qui forment les IA ou sélectionnent les scénarios énergétiques jouent un rôle décisif dans l’avenir.

Que signifie cela pour le secteur de l’énergie?

  1. Démocratie et légitimité : Les institutions énergétiques doivent devenir plus transparentes, plus pluralistes, plus responsables. Une planification perçue comme technocratique ou opaque sera rejetée – même si elle est fondée.
  2. Désir plutôt que vérité : Choisir entre sobriété climatique et croissance économique n’est pas une décision technique, mais un choix de société. Il faut donc des politiques énergétiques qui parlent aux valeurs.
  3. Divergence géopolitique : Harari craint un découplage des sphères numériques. Un phénomène similaire pourrait se produire dans les systèmes énergétiques. Le Canada doit faire des choix clairs : infrastructures, normes, alliances.
  4. Pouvoir du récit : Harari ne rejette pas la fiction. Il en reconnaît l’utilité sociale. Le secteur énergétique a besoin de meilleurs récits : crédibles, mobilisateurs, partagés. Pas de l’utopie, mais des visions collectives assez fortes pour guider l’action.

En résumé, Nexus est un appel à prendre au sérieux l’infrastructure narrative de nos sociétés. Pour réussir la transition énergétique, il nous faudra plus que de l’innovation ou des investissements : il nous faudra des institutions curatrices fiables, un désir collectif éclairé… et des récits qui nous relient.

Stratégie d’entreprise en contexte incertain : repères pour les compagnies d’électricité

Transition énergétique, tensions géopolitiques, instabilité réglementaire, fragilisation des institutions issues de Bretton Woods : les entreprises du secteur de l’électricité évoluent désormais dans un environnement où l’incertitude est permanente. Ce n’est plus un bruit temporaire à filtrer, mais une caractéristique durable du système.

(LinkedIn : https://www.linkedin.com/pulse/strat%25C3%25A9gie-dentreprise-en-contexte-incertain-rep%25C3%25A8res-pour-marcoux-abwwe/?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3BXZKg2036Rj%2BEMxmzISQAZA%3D%3D)

Une rupture avec les fondements historiques de la planification

Les compagnies d’électricité sont des services essentiels et réglementés. Certaines sont des entreprises privées poursuivant des objectifs de rentabilité, ce qui peut créer des tensions stratégiques lorsque ces objectifs entrent en conflit avec des considérations de long terme ou d’intérêt collectif. D’autres, notamment au Canada, relèvent du secteur public, et peuvent être appelées à répondre à des priorités de développement social, industriel ou territorial, voire à des objectifs politiques. Cela complexifie la définition de leurs stratégies, qui doivent conjuguer performance opérationnelle, acceptabilité sociale et alignement avec des mandats parfois évolutifs.

Pendant des décennies, les compagnies d’électricité d’Amérique du Nord ont pu s’appuyer sur une croissance modérée et prévisible de la demande, une centralisation des moyens de production, des chaînes d’approvisionnement stables et une régulation prévisible à long terme. Ce cadre est désormais rompu.

Aujourd’hui, elles font face simultanément à :

  • une augmentation rapide de la demande après des années de stagnation, portée par l’électrification des usages et les objectifs climatiques,
  • l’émergence de nouveaux moyens de production (solaire, éolien, batteries, V2G), souvent distribués et à faible coût marginal, mais qui exigent des modèles d’exploitation, de coordination et de planification radicalement différents,
  • des chaînes d’approvisionnement tendues, notamment pour les équipements électriques critiques (transformateurs, câbles, acier électrique),
  • des clients plus exigeants et stratégiques, devenus parfois autoproducteurs, et de plus en plus dépendants d’un service électrique fiable et continu,
  • et la nécessité de reconnaître rapidement les ruptures technologiques, politiques ou climatiques, afin de pouvoir s’adapter avant qu’il ne soit trop tard.

Un cadre réglementaire souvent mal adapté

Ce tournant est d’autant plus difficile que les compagnies d’électricité, surtout en Amérique du Nord, évoluent dans des cadres réglementaires peu concurrentiels, centrés sur la valorisation de la base d’actifs réglementaires. Ce modèle récompense les investissements lourds, visibles et planifiables, mais pénalise l’agilité, l’action stratégique ou l’innovation.

À cela s’ajoute une rigidité interne liée à des structures fortement syndiquées, qui peuvent ralentir l’adoption de nouvelles technologies, de nouveaux rôles ou de nouvelles formes d’organisation du travail.

La structure industrielle elle-même y contribue aussi. En Amérique du Nord, l’intégration verticale reste la norme : génération, transport, distribution et vente au détail de l’électricité sont souvent regroupés au sein d’un même group. Cette organisation limite l’entrée de nouveaux joueurs et la pression concurrentielle, ce qui freine l’innovation et ralentit les ajustements stratégiques. À l’inverse, en Europe, la séparation fonctionnelle ou juridique entre les activités, combinée à des marchés plus ouverts, a stimulé l’émergence de modèles plus dynamiques. Certaines compagnies y sont devenues particulièrement agressives, investissant à l’étranger ou diversifiant leurs activités. Par exemple, EDF a fortement accru sa présence à l’international, en particulier dans les renouvelables, Enel a déployé des réseaux intelligents et des plateformes numériques bien au-delà de l’Italie, et National Grid, présente au Royaume-Uni et aux États-Unis, s’est engagée activement dans la modernisation des réseaux et la décarbonation de ses activités.

L’optionalité stratégique comme réponse

Dans ce contexte incertain, marqué à la fois par des transformations profondes et des tensions structurelles, il devient essentiel de repenser la stratégie non plus comme un plan figé, mais comme une capacité à naviguer dans l’incertitude. Cette nécessité est d’autant plus marquée que les objectifs des compagnies d’électricité ne se limitent pas toujours à la rentabilité maximale. Qu’elles soient publiques ou privées, ces entreprises doivent parfois composer avec des attentes sociales, territoriales ou politiques qui rendent leur trajectoire plus complexe. L’optionalité offre un cadre utile pour concilier ces impératifs multiples tout en restant capable de s’ajuster rapidement à des évolutions externes. Elle consiste à explorer des futurs plausibles, à évaluer sa position dans chacun, à préserver des marges de manœuvre et à investir dans la capacité d’ajustement.

Cela suppose notamment :

  • de raisonner en scénarios plutôt qu’en projections uniques,
  • de valoriser l’expérimentation, les projets pilotes et les solutions modulaires,
  • de renforcer la résilience organisationnelle : capital humain, savoir-faire opérationnels, flexibilité des systèmes,
  • et de relocaliser ou diversifier les chaînes d’approvisionnement afin de réduire les vulnérabilités structurelles.

Expérience du terrain

À travers les missions que j’ai menées en stratégie, en planification ou en analyse économique pour des compagnies d’électricité et d’autres acteurs publics, j’ai vu émerger un constat clair : la résilience dans un monde incertain ne vient pas de la rigidité, mais de la capacité à se préparer à plusieurs futurs, à apprendre vite, et à ajuster ses priorités en temps réel. Cette approche s’est d’ailleurs imposée dans d’autres secteurs que j’ai accompagnés, notamment dans les transitions technologiques des télécoms et des technologies de l’information, où la gestion de l’incertitude et des ruptures a souvent fait la différence entre un déclin annoncé et une transformation réussie. «?Be directionally right, not accurately wrong?», comme disait John Maynard Keynes.

La pertinence stratégique à long terme ne dépendra pas tant de la capacité à tout prévoir que de l’aptitude à maintenir la vigilance, à mobiliser les compétences et à faire preuve de flexibilité. La survie n’est pas en cause pour les entreprises d’électricité en situation de monopole naturel, comme celles actives dans le transport et la distribution. À l’image des câblodistributeurs et des compagnies de téléphones, ces entreprises continueront d’exister. L’enjeu est plutôt de demeurer utiles, légitimes et capables de jouer un rôle structurant dans un contexte en mutation rapide.

Agir malgré l’incertitude

Il serait tentant d’attendre que l’incertitude se résorbe d’elle-même. D’attendre des signaux clairs, des cadres stabilisés, des marchés matures. Mais ce serait une erreur stratégique.

Les entreprises du secteur de l’électricité n’ont plus le luxe de l’attentisme. La demande croît rapidement. Les moyens de production évoluent. Les chaînes d’approvisionnement se tendent. Les clients deviennent critiques, parfois producteurs eux-mêmes. Et les chocs — climatiques, technologiques, géopolitiques — se multiplient.

Dans ce contexte, la stratégie n’est plus une affaire de prévision, mais de préparation. Il ne s’agit pas de tout planifier, mais d’être prêt à réagir vite. Cela exige de repenser les façons de planifier, d’investir, de recruter, d’innover et même de dialoguer avec les régulateurs.

Reconnaître l’incertitude ne doit pas paralyser l’action. C’est au contraire un appel à une action plus lucide, plus agile, plus responsable. C’est là, désormais, que se joue la crédibilité des dirigeants du secteur.

Corporate Strategy in an Uncertain Context: Guidance for Power Utilities

Energy transition, geopolitical tensions, regulatory instability, and the weakening of Bretton Woods era institutions: power utilities now operate in a world where uncertainty is a permanent condition. It is no longer background noise to be filtered out, but a defining feature of the system.

(LinkedIn: https://www.linkedin.com/pulse/strat%25C3%25A9gie-dentreprise-en-contexte-incertain-rep%25C3%25A8res-pour-marcoux-abwwe/)

A Break with the Historical Foundations of Planning

Electric utilities are essential and regulated services. Some are privately owned and pursue profitability, which can lead to strategic tensions when those objectives clash with long-term or public interest considerations. Others, notably in Canada, are publicly owned and may be tasked with advancing social, industrial, or regional development priorities, or even political goals. This complexity makes strategy definition more demanding, requiring a balance between operational performance, social acceptability, and alignment with sometimes evolving mandates.

For decades, North American electric utilities operated under stable conditions: moderate and predictable demand growth, centralized generation, steady supply chains, and long-term regulatory visibility. That framework no longer holds.

Today, utilities must respond simultaneously to:

  • a rapid increase in demand after years of stagnation, driven by electrification and climate targets,
  • the emergence of new generation technologies (solar, wind, batteries, V2G), often distributed and with low marginal costs, but requiring radically different models of coordination and planning,
  • strained supply chains, especially for critical electric equipment (transformers, cables, electrical steel),
  • more demanding and strategic customers, sometimes self-generators, increasingly dependent on reliable and continuous electricity service,
  • and the need to recognize technological, political, or climate disruptions early enough to adapt in time.

A Regulatory Framework Often Ill-Suited

This turning point is all the more difficult because utilities, especially in North America, operate in low-competition regulatory environments focused on a rate of return on a regulatory asset base. This model rewards large, visible, capital-intensive projects but discourages agility, strategic actions, and innovation.

This challenge is compounded by internal rigidity, often due to strong union structures, which can slow the adoption of new technologies, roles, or organizational forms.

The industry structure itself also plays a role. In North America, vertical integration is still the norm: generation, transmission, distribution, and retail services are often housed within a conglomerate. This structure limits new entrants and reduces competitive pressure, slowing innovation and strategic adaptation. In contrast, European markets have introduced legal or functional unbundling of activities, along with greater market openness. This has enabled the emergence of more dynamic models. Some companies have become particularly aggressive, investing abroad or diversifying their activities. For instance, EDF has expanded internationally, especially in renewables; Enel has deployed smart grids and digital platforms far beyond Italy; and National Grid, operating in both the UK and the US, has actively pursued grid modernization and decarbonization.

Strategic Optionality as a Response

In this uncertain context, marked by deep transformations and structural tensions, the strategy must be redefined not as a fixed plan, but as a capacity to navigate uncertainty. This is especially relevant, since utilities’ objectives often go beyond profit maximization. Whether public or private, they must sometimes reconcile social, territorial, or political expectations, which makes their trajectory more complex. Optionality offers a useful framework to balance these multiple imperatives while remaining able to adapt quickly to external shifts. It involves exploring plausible futures, assessing one’s position in each, preserving room to maneuver, and investing in adaptability.

This approach entails:

  • using scenario-based thinking rather than relying on single-point forecasts,
  • supporting experimentation, pilot projects, and modular solutions,
  • strengthening organizational resilience through talent, operational know-how, and system flexibility,
  • and relocating or diversifying supply chains to reduce structural vulnerabilities.

Field Experience

In my work in strategy, planning, and economic analysis for power utilities and public institutions, I’ve seen a consistent truth: resilience in an uncertain world does not come from rigidity, but from preparing for multiple futures, learning quickly, and adjusting priorities in real time. This approach also proved essential in other sectors I’ve worked with, especially during technology transitions in telecom and IT, where managing uncertainty and disruption often made the difference between inevitable decline and meaningful transformation. “Be directionally right, not accurately wrong,” as John Maynard Keynes once said.

Long-term strategic relevance will depend less on being precisely predictive than on maintaining vigilance, mobilizing talent, and acting with flexibility. For regulated monopolies in transmission and distribution, survival is not at stake. Like cable and telephone operators, these companies will continue to exist. The challenge is to remain useful, legitimate, and able to play a structuring role in a fast-changing environment.

Acting Despite Uncertainty

It might be tempting to wait for uncertainty to pass, for clearer signals, stable frameworks, or mature markets. But that would be a strategic mistake.

Utilities no longer have the luxury of inaction. Demand is growing rapidly. Technologies are evolving. Supply chains are tightening. Customers are becoming mission-critical, sometimes self-generating. And shocks—climatic, technological, geopolitical—are multiplying.

In this context, strategy is no longer about prediction but preparation. It’s not about planning everything, but being ready to move quickly. This requires rethinking how utilities plan, invest, recruit, innovate, and engage with regulators.

Recognizing uncertainty should not paralyze action. Quite the opposite: it is a call for more lucid, agile, and accountable leadership. This is where the credibility of the sector’s leaders will now be tested.

From Telegraph to Terawatt-hours: Why NATO-L Could Be the Great Eastern of the Net-Zero Age

(LinkedIn: https://www.linkedin.com/pulse/from-telegraph-terawatt-hours-why-nato-l-could-great-eastern-marcoux-thhme/)

In 1866, the Great Eastern steamship laid the first successful transatlantic telegraph cable, forever altering global communication. Messages that once took ten days to cross the Atlantic by ship could suddenly be sent in minutes. The geopolitical, commercial, and cultural impacts were immediate and profound — not because the cable was cheap, but because it was transformative.

I remember reading about the Great Eastern when I was young, and its audacious scale and engineering left a lasting impression on me. (The picture accompanying this article is from one of my books when I was a kid.) It was a tool of its time — a giant that bridged continents — and it sparked my lifelong interest in the power of big systems to shape the world.

Today, a similar revolution may be taking shape below the waves. Proposed by three energy financiers, Laurent Segalen , Simon Ludlam , and Gerard Reid , the North Atlantic Transmission One – Link (NATO-L) project aims to connect Canada’s hydroelectric and renewable energy sources with Europe’s renewable grid. It would create a high-capacity, high-voltage direct current (HVDC) lines between North America and Europe.

But I don’t think that this is just about moving electrons. Like the first transatlantic telegraph cable, NATO-L could reshape geopolitical relationships, catalyze economic integration, and unlock a new era of clean energy cooperation — if we get the market structures right for power producers at both ends to benefit.

Before proceeding, I must clarify that I have no financial, professional, or personal interest in the NATO-L project. Additionally, I was neither compensated nor requested by its proponents to write this article. My analysis is based solely on publicly available information and my independent interpretation of its implications.

A Project of Strategic Proportions

The NATO-L cable would link two complementary energy systems:

  • North-eastern North America, with abundant and dispatchable hydroelectricity, as well as growing onshore and offshore wind capacity.
  • Northern Europe, with enormous offshore wind generation and growing challenges around intermittency and curtailment.

Based on public information, NATO-L will consist of HVDC subsea cables (6 GW total capacity) using>525 kV technology, with routes ranging between 3,750 km and 4,500 km. I anticipate the project will be implemented in phases, each adding a few gigawatts of capacity over several years. This phased approach would allow for incremental learning and risk management, enabling stakeholders to better assess the project’s performance and value before committing to the full build-out.

Several routing options are also under evaluation, including northern (possibly via Greenland) and southern (via France) corridors. The shorter northern route, which I believe to be the most promising one, establishes a connection between hydroelectric power generation in northern Québec and Labrador and renewable energy sources in the North Sea and neighbouring countries.

The project leverages uncorrelated wind and solar resources across continents and a six-hour time difference to optimize renewable use and daily grid balancing. Operational commissioning is targeted for 2040 following a multi-phase development and permitting schedule.

Not About Cheap Power — About Timely Power

While legacy hydro in Eastern Canada is inexpensive, new capacity additions — whether hydro, wind, or solar — are increasingly costly. Meanwhile, wind and solar prices in Europe are declining. This means NATO-L’s value does not rest on permanent price gaps but on timing.

Thanks to the 5–6 hour time difference between Eastern North America and Europe, NATO-L enables daily arbitrage:

  • Transmit power eastward during the peak demand periods of the morning and evening in Europe, which correspond to the low demand periods of midday and the middle of the night in Canada.
  • Transmit power westward during the peak demand periods of the morning and evening in Canada, which correspond to the low demand periods of midday and the middle of the night in Europe.

This allows the same installed capacity to serve four peak demand periods per day, greatly enhancing system value.

Hydro as a Remote Battery for Europe

Unlike wind and solar, big hydro (with reservoirs) is dispatchable. The water stored in reservoirs can be released precisely when needed, although minimum flow and cascaded generating stations somewhat limit this flexibility. This allows North American hydro to serve as a zero-carbon remote battery for Europe:

  • Curtailment mitigation: Back off hydro generation when European wind is abundant.
  • Rapid dispatch: Ramp up hydro when Europe faces supply shortfalls.
  • Balancing services: Support frequency regulation and grid stability, on and off peaks.

This turns Canadian hydro into powerful tools for enabling high penetration of renewables in Europe — by allowing water to be conserved in North American reservoirs when wind and solar are abundant in Europe, and dispatched when European generation is insufficient. This flexibility is especially valuable because days of high electricity demand are typically not correlated between Europe and Eastern Canada. This lack of correlation further strengthens the arbitrage and balancing potential of transatlantic interconnection. As coal and gas are phased out in Europe, this capability becomes increasingly critical, especially with the large inflexible French nuclear fleet in the mix.

European Experience with HVDC Submarine Interconnectors

Europe has extensive and growing experience with HVDC submarine interconnectors, including:

  • Viking Link (UK—Denmark): 765 km, 1.4 GW, operational since 2023.
  • North Sea Link (UK—Norway): 720 km, 1.4 GW, operational since 2021.
  • NordLink (Germany—Norway): 623 km, 1.4 GW, operational since 2021.
  • IFA2 (UK—France): 204 km, 1 GW, operational since 2021.
  • COBRAcable (Netherlands—Denmark): 325 km, 700 MW, operational since 2019.

These interconnectors have proven to be highly effective at smoothing intermittent generation, lowering wholesale prices, and enhancing reliability during peak demand or system stress. While some of these projects were initially controversial due to concerns over cost, environmental impact, or market interference, their eventual success has demonstrated the technical and regulatory feasibility of long-distance HVDC links across sovereign borders — a precedent highly relevant to NATO-L.

Financial Framework: Costs and Value Potential

Submarine interconnectors are already widely used and deliver measurable value in regional grids. For example, during the 2024–25 winter in Great Britain, National Grid reported that its interconnector fleet provided up to 5.2 GW of dynamic flow changes in response to system stress, including the cancellation of emergency capacity notices. The Viking Link, initially operating at half capacity due to Danish grid maintenance, was promptly ramped up to full capacity to serve the British evening peak — a clear demonstration of the value of cross-border, real-time coordination. NATO-L would extend these proven benefits to a transatlantic scale, enabling load balancing between asynchronous grids and optimizing the use of uncorrelated renewable resources.

Financial Overview Table (estimation by me, not NATO-L):

Article content

Capital cost estimates for NATO-L are based on comparisons with similar long-distance HVDC subsea cable projects. For example, Viking Link (UK—Denmark, 1,400 MW over 765 km) cost around €2 billion, while the proposed Xlinks Morocco—UK project (3.6 GW, 4,000 km) is projected at £20 billion. NATO-L, at 6 GW and 3,750–4,500 km, is expected to cost between €20–28 billion, accounting for cable manufacturing, installation, converter stations, permitting, and contingencies. This figure also aligns with the cost profiles of other multi-gigawatt subsea projects using>525 kV HVDC technology.

Operating costs for a project of this scale include cable and station maintenance, staffing, insurance, regulatory compliance, and system operation. These costs are expected to range from €200 million to €500 million annually, depending on utilization and actual deployment complexity. The largest component is likely to be the energy cost associated with transmission losses, followed by routine subsea inspection and maintenance cycles, and the costs of keeping converter stations and control systems operating reliably across the oceanic span.

Transmission losses are an important factor in operating costs. HVDC subsea cables typically experience losses of about 3% per 1,000 km. Over the projected northern route of 3,750 km, this implies total line losses of roughly 11–12%. Losses would be less when the cables are not operating at full capacity. Assuming a 60% utilization rate (4 peaks of 3–4 hours each), a 6 GW line would deliver about 31.5 TWh/year. At a 12% loss, approximately 4 TWh/year is lost. Valued at €80/MWh, this represents an annual cost of roughly €320 million, falling within the upper range of operating expenditure estimates. This reinforces the importance of optimizing utilization and transmission efficiency for financial viability.

The projected €2–4.5 billion in annual available market value represents the pool of value created by energy arbitrage, capacity services, and ancillary grid functions. This is not necessarily revenue for NATO-L itself, as this value will be shared among all market actors involved — including electricity producers, storage operators, balancing service providers, and potentially the interconnector operator. NATO-L yearly revenue would depend on its regulatory framework, ownership structure, and the tolling or merchant model adopted.

1. Energy Arbitrage:

With a 6 GW line used 50–75% of the time, annual traded volumes would be 26–39 TWh.

Price spreads of €50–100/MWh between North American and European peak times yield a value pool of €1.3B to €3.0B per year.

2. Capacity Payments:

Capacity prices in European markets like the UK range from €30,000—€75,000/MW/year.

For 6 GW, this translates into €180M to €450M per year.

3. Ancillary Services and Curtailment Mitigation:

By avoiding curtailment and providing balancing support, NATO-L could enable services valued at €100M to €300M per year.

Total Justified Value Range: €1.6B (low end) to €4.5B+ per year (upper-bound).

This structure does not rely on permanent average price advantages, but on market-driven value creation through flexibility, timing, and integration services.

The proponents of NATO-L will likely rely on analytical approaches beyond traditional net present value (NPV) analysis to assess the viability of the project — as is often the case with transformative infrastructure initiatives. When faced with high uncertainty, long time horizons, and the potential for systemic impacts, methods such as real option analysis, scenario-based planning, and strategic value assessments are frequently more appropriate. This perspective reflects how other major interconnector projects have been evaluated and aligns with the inherently strategic nature of NATO-L.

The NATO-L project is clearly still in its early stages, focusing on building consensus, attracting founding members, and engaging with stakeholders across political, regulatory, technical, industrial, and financial sectors. Given the project’s scale and strategic importance, it is possible that major European utilities or transmission operators may become involved as the project progresses.

Modern Cable-Laying: From Great Eastern to Monna Lisa

The resilience of submarine electricity cables is often underestimated. While failures can be disruptive, repairing a high-voltage direct current (HVDC) cable is typically faster and less hazardous than fixing an undersea natural gas pipeline. There is no pressurized gas containment or risk of explosion — just technically demanding but well-understood electrical work. This makes HVDC interconnectors a more resilient and safer long-term investment.

A historical comparison is instructive. The Great Eastern’s first attempt to lay the transatlantic telegraph cable in 1865 ended in failure when the cable snapped mid-ocean. The ship returned to the site in 1866 after successfully laying the first transatlantic cable in its second attempt. The crew located and retrieved the lost cable, spliced it, and successfully completed the second connection across the Atlantic — an extraordinary feat of perseverance and technical skill over 150 years ago. When I read this as a child, I found this repair to be very impressive.

In the 19th century, the Great Eastern was the only vessel capable of carrying and laying a transatlantic cable. Today, that pioneering legacy continues with a new generation of specialized cable ships. One prominent example is the Monna Lisa, Prysmian Group’s latest cable-laying vessel.

With a full-load displacement of approximately 35,000 tonnes, the Monna Lisa measures 185 metres in length and 34 metres in width. It features two large-capacity cable carousels (7,000 and 10,000 tonnes), advanced DP3 dynamic positioning systems, and high bollard pull capacity for deep-sea operations. Ships like Monna Lisa are what make a transatlantic project like NATO-L technically and operationally feasible.

The Market Challenge: Bridging Different Regulatory Worlds

A key issue is that Europe and North America operate under very different market structures:

  • Europe has liberalized and competitive wholesale and capacity markets.
  • Eastern Canada and parts of the U.S. Northeast operate within monopoly frameworks or hybrid regulated systems.

For NATO-L to work effectively, mechanisms must be created to allow power trading across these systems. Options could include:

  • Creation of a merchant export entity operating under EU rules.
  • Long-term bilateral PPAs with EU system operators.
  • New intergovernmental frameworks under the Comprehensive Economic and Trade Agreement (CETA) umbrella.

The advocates for this initiative will need to determine a financial structure that allows all involved parties, including buyers and sellers, to profit in line with their respective levels of risk tolerance.

Beyond Economics: Strategic and Geopolitical Dimensions

NATO-L also holds strategic relevance at a time when transatlantic alliances are under pressure. With the U.S. adopting increasingly protectionist policies and stoking annexationist rhetoric, Canada has a vested interest in diversifying its energy partnerships and deepening ties with Europe.

A transatlantic energy corridor would:

  • Position Canada as a trusted supplier of clean, reliable power.
  • Bolster Europe’s shift away from fossil fuels and dependence on autocratic regimes.
  • Enhance NATO’s collective resilience through non-military infrastructure.
  • Mitigate climate risks by connecting regions with complementary weather patterns and renewable generation profiles.

This strategic dimension could also unlock institutional or financial support from the European Union. The NATO-L project seems to align with the goals of REPowerEU, the EU’s flagship plan to reduce fossil fuel imports, accelerate renewables, and strengthen cross-border infrastructure. By facilitating transatlantic integration and flexible use of dispatchable hydro, NATO-L contributes directly to those aims. Under REPowerEU, projects that enable decarbonization, energy diversification, and grid resilience are candidates for support through EU coordination or funding instruments.

I estimate that the project could help displace about €1 billion worth of annual natural gas imports and reduce emissions by around 20 million tonnes of CO? per year — primarily by enabling flexible clean dispatch during Europe’s peak demand periods and reducing the curtailment of renewable generation.

By my calculations, the project could also help displace about €1 billion of annual natural gas imports in Europe and cut about 20 million tonnes of CO? per year.

Conclusion: A Second Transatlantic Revolution

The Great Eastern cable of 1866 wasn’t transformative because it was cheap. It was transformative because it reshaped the world’s economic and political interactions.

NATO-L has the potential to do the same for the clean energy era.

By leveraging time zones, dispatchable hydro, and advanced HVDC technology, it can unlock deep decarbonization, transatlantic stability, and real economic returns. But only if market structures evolve to meet the opportunity.

Just as the telegraph enabled global finance, diplomacy, and industry to flourish, NATO-L can become the backbone of a more integrated and resilient net-zero economy.

Du télégraphe aux térawattheures : pourquoi NATO-L pourrait être le Great Eastern de l’ère carboneutre

(LinkedIn: https://www.linkedin.com/pulse/du-télégraphe-aux-térawattheures-pourquoi-nato-l-pourrait-marcoux-txs7e/?trackingId=VVuXBI%2B2SpmSgNL2JsUmcQ%3D%3D)

En 1866, le navire à vapeur Great Eastern posa avec succès le premier câble télégraphique transatlantique, transformant à jamais les communications mondiales. Les messages, qui prenaient autrefois dix jours à traverser l’Atlantique par bateau, pouvaient désormais être transmis en quelques minutes. Les impacts géopolitiques, commerciaux et culturels furent immédiats et profonds — non parce que le câble était bon marché, mais parce qu’il était transformationnel.

Je me souviens d’avoir lu à propos du Great Eastern quand j’étais jeune. Son échelle audacieuse et son génie technique m’ont profondément marqué. (L’image accompagnant cet article provient d’un de mes livres d’enfance.) Il fut un outil emblématique de son époque — un géant reliant les continents — et a suscité chez moi un intérêt durable pour le pouvoir des grands systèmes à façonner le monde.

Aujourd’hui, une révolution semblable pourrait se profiler sous les mers. Proposé par trois financiers de l’énergie — Laurent Segalen , Simon Ludlam et Gerard Reid —, le projet North Atlantic Transmission One – Link (NATO-L) vise à relier les sources d’hydroélectricité et d’énergies renouvelables du Canada au réseau renouvelable européen. Il s’agirait de lignes à courant continu haute tension (HVDC) de grande capacité entre l’Amérique du Nord et l’Europe.

Mais je ne pense pas que cela se résume au transport d’électrons. Comme le premier câble télégraphique transatlantique, NATO-L pourrait redessiner les relations géopolitiques, catalyser l’intégration économique et ouvrir une nouvelle ère de coopération énergétique propre — si l’on conçoit des structures de marché adéquates permettant aux producteurs des deux continents d’en tirer profit.

Avant d’aller plus loin, je précise que je n’ai aucun intérêt financier, professionnel ou personnel dans le projet NATO-L. Je n’ai pas non plus été rémunéré ou sollicité par ses promoteurs pour rédiger cet article. Mon analyse repose uniquement sur des informations publiques et sur mon interprétation indépendante de leurs implications.

Un projet d’envergure stratégique

Le câble NATO-L relierait deux systèmes énergétiques complémentaires :

  • Le nord-est de l’Amérique du Nord, riche en hydroélectricité pilotable, ainsi qu’en capacité croissante d’éolien terrestre et en mer.
  • Le nord de l’Europe, doté d’une production éolienne maritime massive et confronté à des défis croissants d’intermittence et de contingentement.

Selon les informations publiques disponibles, NATO-L serait composé de câbles sous-marins HVDC d’une capacité totale de 6 GW utilisant la technologie >525 kV, sur des trajets variant entre 3?750 et 4?500 km. Je prévois que le projet sera mis en œuvre par étapes, chaque phase ajoutant quelques gigawatts de capacité sur plusieurs années. Cette approche graduelle permettrait un apprentissage progressif et une gestion des risques, en permettant aux parties prenantes d’évaluer la performance et la valeur du projet avant de s’engager dans une réalisation complète.

On évalue actuellement plusieurs itinéraires potentiels, notamment un passage par le nord (peut-être par le Groenland) et un passage par le sud (via la France. Le tracé le plus court, au nord, me paraît le plus prometteur. Il établirait un lien entre la production hydroélectrique du nord du Québec et du Labrador et les sources renouvelables de la mer du Nord et des pays voisins.

Le projet tirerait parti de ressources éoliennes et solaires non corrélées entre les continents et d’un décalage horaire de six heures pour optimiser l’usage des renouvelables et l’équilibrage quotidien des réseaux. La mise en service opérationnelle est prévue pour 2040, après un calendrier de développement et d’autorisations en plusieurs phases.

Il ne s’agit pas d’électricité bon marché — mais d’électricité au bon moment

Bien que l’hydroélectricité patrimoniale de l’est du Canada soit peu coûteuse, les ajouts de capacité — qu’il s’agisse d’hydroélectricité, d’éolien ou de solaire — deviennent de plus en plus onéreux. Parallèlement, les prix de l’éolien et du solaire en Europe continuent de baisser. Cela signifie que la valeur de NATO-L ne repose pas sur des écarts de prix permanents, mais sur la synchronisation temporelle.

Grâce au décalage horaire de 5 à 6 heures entre l’est de l’Amérique du Nord et l’Europe, NATO-L permet un arbitrage quotidien :

  • Acheminer de l’électricité vers l’est pendant les périodes de forte demande en Europe (le matin et le soir), qui correspondent aux périodes de faible demande au Canada (le milieu de la nuit et le milieu de la journée).
  • Acheminer de l’électricité vers l’ouest pendant les pointes de demande au Canada, qui coïncident avec les périodes creuses en Europe.

Ce mécanisme permet à une même capacité installée de servir quatre pointes de demande par jour, augmentant considérablement sa valeur systémique.

L’hydroélectricité comme batterie distante pour l’Europe

Contrairement à l’éolien et au solaire, l’hydroélectricité avec réservoirs est pilotable. L’eau stockée dans les réservoirs peut être turbinée précisément au moment requis, bien que des contraintes, comme les débits minimums ou les centrales en cascade, puissent en limiter partiellement la flexibilité. Cela permet à l’hydroélectricité nord-américaine de servir de batterie à distance zéro carbone pour l’Europe :

  • Réduction du contingentement : réduction de la production hydroélectrique lorsque le vent est abondant en Europe.
  • Appels de puissance rapides : augmentation de la production hydroélectrique quand l’Europe fait face à des pénuries.
  • Services d’équilibrage : soutien à la régulation de fréquence et à la stabilité du réseau, pendant et hors des pointes.

Cela permet aux réservoirs canadiens de conserver l’eau lorsque l’Europe dispose d’une surproduction éolienne ou solaire, pour ensuite produire lorsque la génération européenne est insuffisante. Cette flexibilité est particulièrement précieuse, puisque les jours de forte demande en électricité ne sont généralement pas corrélés entre l’Europe et l’est du Canada. Ce manque de corrélation renforce le potentiel d’arbitrage et d’équilibrage d’une interconnexion transatlantique. Alors que l’Europe élimine progressivement le charbon et le gaz, cette capacité devient de plus en plus critique, en particulier avec la présence d’un parc nucléaire français important et peu flexible.

Expérience européenne en matière d’interconnexions sous-marines HVDC

L’Europe possède une vaste expérience avec les interconnexions sous-marines à courant continu haute tension (HVDC), notamment :

  • Viking Link (Royaume-Uni–Danemark) : 765 km, 1,4 GW, opérationnel depuis 2023.
  • North Sea Link (Royaume-Uni–Norvège): 720 km, 1,4 GW, opérationnel depuis 2021.
  • NordLink (Allemagne–Norvège) : 623 km, 1,4 GW, opérationnel depuis 2021.
  • IFA2 (Royaume-Uni–France) : 204 km, 1 GW, opérationnel depuis 2021.
  • COBRAcable (Pays-Bas–Danemark) : 325 km, 700 MW, opérationnel depuis 2019.

Ces interconnexions se sont révélées très efficaces pour lisser la production intermittente, faire baisser les prix de gros et améliorer la fiabilité en période de pointe ou de stress du système. Bien que certains de ces projets aient été controversés à leur lancement — en raison de préoccupations liées aux coûts, à l’impact environnemental ou aux effets sur le marché — leur succès a démontré la faisabilité technique et réglementaire des liaisons HVDC longue distance entre États souverains. Ce précédent est particulièrement pertinent pour NATO-L.

Cadre financier : coûts et potentiel de valeur

Les interconnexions sous-marines sont déjà largement utilisées et apportent une valeur mesurable aux réseaux régionaux. Par exemple, durant l’hiver 2024–2025 en Grande-Bretagne, le gestionnaire de réseau National Grid a rapporté que sa flotte d’interconnexions a permis des ajustements dynamiques des mouvements d’énergie atteignant jusqu’à 5,2 GW en réponse au stress du système, notamment en annulant des avis de capacité d’urgence. Le Viking Link, initialement en service à demi-capacité en raison de travaux de maintenance sur le réseau danois, a été rapidement porté à pleine capacité pour répondre à la pointe de consommation du soir au Royaume-Uni — une démonstration claire de la valeur d’une coordination transfrontalière en temps réel. NATO-L étendrait ces bénéfices éprouvés à l’échelle transatlantique, permettant un équilibrage des charges entre réseaux asynchrones et optimisant l’utilisation de ressources renouvelables non corrélées.

Tableau récapitulatif financier (estimation personnelle, non fournie par NATO-L) :

Article content

Les estimations des coûts en capital pour NATO-L s’appuient sur des comparaisons avec d’autres projets de câbles sous-marins HVDC longue distance. Par exemple, le projet Viking Link (Royaume-Uni–Danemark, 1?400 MW sur 765 km) a coûté environ 2 milliards €, tandis que le projet Xlinks Maroc–Royaume-Uni (3,6 GW, 4?000 km) est estimé à 20 milliards £. NATO-L, avec 6 GW et 3 750–4 500 km, devrait coûter entre 20 et 28 milliards €, incluant la fabrication des câbles, leur installation, les stations de conversion, les permis et les imprévus. Cette estimation s’aligne sur les profils de coûts d’autres projets sous-marins multigigawatts utilisant la technologie HVDC >525 kV.

Les coûts d’exploitation pour un projet de cette envergure incluent l’entretien des câbles et des stations, le personnel, l’assurance, la conformité réglementaire et l’exploitation du système. Ces coûts devraient varier entre 200 et 500 millions € par an, selon le taux d’utilisation et la complexité réelle du déploiement. Le poste le plus important est probablement le coût énergétique lié aux pertes de transmission, suivi par l’inspection sous-marine régulière et la maintenance, ainsi que par les frais liés au fonctionnement fiable des stations de conversion et des systèmes de commande à travers l’océan.

Les pertes de transmission sont un facteur important dans les coûts d’exploitation. Les câbles HVDC sous-marins perdent typiquement environ 3 % d’énergie par tranche de 1?000 km. Sur un tracé nord projeté de 3?750 km, cela représente une perte totale d’environ 11 à 12 %. Les pertes seraient moindres lorsque les câbles ne fonctionnent pas à pleine capacité. En supposant un taux d’utilisation de 60 % (4 pointes de 3 à 4 heures chacune), une ligne de 6 GW livrerait environ 31,5 TWh/an. Avec une perte de 12 %, environ 4 TWh/an sont perdus. Au prix de 80 €/MWh, cela représente un coût annuel d’environ 320 millions €, ce qui se situe dans la fourchette supérieure des estimations de dépenses d’exploitation. Cela souligne l’importance d’optimiser l’utilisation et le rendement de transmission pour assurer la viabilité financière.

La valeur annuelle de marché disponible de 2 à 4,5 milliards € représente le bassin de valeur créé par l’arbitrage énergétique, les services de capacité et les fonctions auxiliaires de réseau. Ce montant ne constitue pas nécessairement un revenu pour NATO-L en soi, puisqu’il sera partagé entre tous les acteurs du marché — producteurs d’électricité, exploitants de stockage, fournisseurs de services d’équilibrage, et potentiellement l’exploitant de l’interconnexion. Le revenu annuel de NATO-L dépendra de son cadre réglementaire, de sa structure de propriété et du modèle de rémunération (péage ou marchand) retenu.

1. Arbitrage énergétique :

Avec une ligne de 6 GW utilisée 50 à 75 % du temps, les volumes annuels échangés seraient de 26 à 39 TWh.

Des écarts de prix de 50 à 100 €/MWh entre les pics nord-américains et européens donnent un bassin de valeur de 1,3 à 3,0 milliards €/an.

2. Paiements de capacité :

Les prix de capacité dans les marchés européens, comme le Royaume-Uni varient entre 30?000 et 75?000 €/MW/an.

Pour 6 GW, cela représente 180 à 450 millions €/an.

3. Services auxiliaires et atténuation du contingentement :

En évitant le contingentement et en assurant un équilibrage, NATO-L pourrait fournir des services évalués à 100 à 300 millions €/an.

Valeur totale justifiée : de 1,6 à plus de 4,5 milliards €/an.

Cette structure ne dépend pas d’un avantage de prix moyen permanent, mais de la création de valeur pilotée par le marché, fondée sur la flexibilité, le timing et les services d’intégration.

Les promoteurs de NATO-L s’appuieront vraisemblablement sur des approches analytiques dépassant l’analyse traditionnelle de la valeur actuelle nette (VAN) pour évaluer la viabilité du projet — comme c’est souvent le cas pour les infrastructures transformationnelles. Face à l’incertitude, aux horizons temporels longs et aux impacts systémiques potentiels, des méthodes comme l’analyse en options réelles, la planification par scénarios et les évaluations de valeur stratégique sont souvent plus adaptées. Cette perspective reflète la manière dont d’autres grands projets d’interconnexion ont été évalués et correspond à la nature fondamentalement stratégique de NATO-L.

Le projet NATO-L en est clairement encore à ses débuts, concentré sur la construction d’un consensus, l’attraction de membres fondateurs et l’engagement avec les parties prenantes dans les secteurs politique, réglementaire, technique, industriel et financier. Étant donné l’ampleur du projet et son importance stratégique, il est possible que de grandes entreprises européennes de services publics ou des opérateurs de transport d’électricité s’y joignent au fur et à mesure de son avancement.

Pose de câbles moderne : du Great Eastern à la Monna Lisa

La résilience des câbles électriques sous-marins est souvent sous-estimée. Bien que les pannes puissent être perturbatrices, la réparation d’un câble à courant continu haute tension (HVDC) est généralement plus rapide et moins dangereuse que celle d’un gazoduc sous-marin. Il n’y a ni confinement de gaz sous pression ni risque d’explosion — seulement un travail électrique exigeant, mais bien compris. Cela fait des interconnexions HVDC un investissement à long terme plus sûr et plus résilient.

Une comparaison historique est instructive. La première tentative du Great Eastern de poser un câble télégraphique transatlantique en 1865 se solda par un échec lorsque le câble se rompit au milieu de l’océan. Le navire retourna sur place en 1866 après avoir réussi à poser le premier câble transatlantique lors de sa seconde tentative. L’équipage localisa et récupéra le câble perdu, le reconnecta, et compléta avec succès la deuxième liaison à travers l’Atlantique — un exploit extraordinaire de persévérance et de compétence technique, il y a plus de 150 ans. Lorsque j’ai lu ce récit enfant, cette réparation m’avait profondément impressionné.

Au XIXe siècle, le Great Eastern était le seul navire capable de transporter et de poser un câble transatlantique. Aujourd’hui, cet héritage pionnier se poursuit avec une nouvelle génération de navires câbliers. Un exemple marquant est la Monna Lisa, le tout dernier navire poseur de câbles du groupe Prysmian.

Avec un déplacement en charge d’environ 35?000 tonnes, la Monna Lisa mesure 185 mètres de long et 34 mètres de large. Elle est équipée de deux carrousels de câbles de grande capacité (7?000 et 10?000 tonnes), de systèmes avancés de positionnement dynamique DP3 et d’une forte capacité de traction pour les opérations en haute mer. Ce sont des navires comme la Monna Lisa qui rendent un projet transatlantique comme NATO-L techniquement et opérationnellement réalisable.

Le défi des marchés : concilier des structures réglementaires différentes

Un enjeu central est que l’Europe et l’Amérique du Nord fonctionnent selon des structures de marché très différentes :

  • L’Europe dispose de marchés de gros et de capacité libéralisés et concurrentiels.
  • L’est du Canada et certaines régions du nord-est des États-Unis opèrent dans des cadres monopolistiques ou des systèmes hybrides réglementés.

Pour que NATO-L fonctionne efficacement, il faudra créer des mécanismes permettant d’échanger de l’électricité entre ces systèmes. Les options possibles incluent :

  • La création d’une entité marchande d’exportation opérant selon les règles européennes.
  • Des contrats d’achat d’électricité (PPA) bilatéraux à long terme avec des opérateurs de système européens.
  • De nouveaux cadres intergouvernementaux s’appuyant sur l’Accord économique et commercial global (AECG/CETA).

Les défenseurs de cette initiative devront déterminer une structure financière qui permet à toutes les parties concernées, y compris les acheteurs et les vendeurs, de réaliser des profits en fonction de leurs niveaux respectifs de tolérance au risque.

Au-delà de l’économie : dimensions stratégiques et géopolitiques

Le projet NATO-L revêt également une importance stratégique à un moment où les alliances transatlantiques sont mises à rude épreuve. Alors que les États-Unis adoptent des politiques de plus en plus protectionnistes et entretiennent une rhétorique annexionniste, le Canada a tout intérêt à diversifier ses partenariats énergétiques et à renforcer ses liens avec l’Europe.

Un corridor énergétique transatlantique permettrait de :

  • Positionner le Canada comme un fournisseur fiable d’électricité propre et stable ;
  • Renforcer la transition de l’Europe hors des combustibles fossiles et sa réduction de dépendance envers des régimes autocratiques ;
  • Accroître la résilience collective de l’OTAN grâce à des infrastructures non militaires ;
  • Réduire les risques climatiques en connectant des régions aux régimes météorologiques complémentaires et aux profils de production renouvelable diversifiés.

Cette dimension stratégique pourrait également permettre d’obtenir un soutien institutionnel ou financier de l’Union européenne. Le projet NATO-L semble en effet aligné avec les objectifs de REPowerEU, le plan phare de l’UE visant à réduire les importations de combustibles fossiles, accélérer le déploiement des énergies renouvelables et renforcer les infrastructures transfrontalières. En facilitant l’intégration transatlantique et l’utilisation flexible de l’hydroélectricité pilotable, NATO-L contribue directement à ces objectifs. Dans le cadre de REPowerEU, les projets qui favorisent la décarbonation, la diversification énergétique et la résilience des réseaux peuvent bénéficier d’un appui de l’UE, que ce soit sous forme de coordination ou de financement.

Selon mes estimations, ce projet pourrait permettre de remplacer environ 1 milliard d’euros d’importations annuelles de gaz naturel et de réduire les émissions de quelque 20 millions de tonnes de CO? par an — principalement en assurant un appoint flexible d’électricité propre pendant les pointes de demande en Europe et en réduisant le contingentement des énergies renouvelables.

Conclusion : une seconde révolution transatlantique

NATO-L a le potentiel de jouer un rôle similaire à l’ère de l’énergie propre.

En misant sur les fuseaux horaires, l’hydroélectricité pilotable et les technologies HVDC de pointe, le projet pourrait permettre une profonde décarbonation, renforcer la stabilité transatlantique et générer des retombées économiques tangibles. Mais cela ne sera possible que si les structures de marché évoluent pour saisir cette opportunité.

Tout comme le télégraphe a permis à la finance, à la diplomatie et à l’industrie mondiales de prospérer, NATO-L peut devenir l’épine dorsale d’une économie carboneutre plus intégrée et plus résiliente.

Comprendre Hydro-Québec, c’est comprendre le Québec

S’il y a un livre que je recommande souvent pour mieux saisir les relations entre l’État québécois et son plus important outil économique, c’est bien Hydro Québec et l’État québécois, 1944-2005 de l’historien Stéphane Savard .

Ce n’est pas un livre d’entreprise ni un pamphlet politique : c’est une œuvre rigoureuse et nuancée qui replace les grandes décisions énergétiques dans leur contexte social, économique et institutionnel. On y suit la montée d’Hydro-Québec comme symbole du Québec moderne, mais aussi les tensions — parfois productives, parfois paralysantes — entre la société d’État et le gouvernement qui la possède.

Savard met en lumière :

  • le rôle de la nationalisation dans la Révolution tranquille ;
  • les choix d’investissement dans les grands barrages du Nord ;
  • l’évolution du modèle de gouvernance et de régulation jusqu’en 2005.

Un livre essentiel, mais aujourd’hui incomplet.

L’ouvrage s’arrête en 2005, et ne couvre donc pas les changements majeurs survenus depuis, comme :

  • le virage commercial sous la présidence d’Éric Martel (2015-2020), et son objectif, depuis oublié, de doubler les revenus de l’entreprise ;
  • la réduction du rôle de la Régie de l’énergie dans la régulation du secteur ;
  • les tensions entre le gouvernement et la présidente Sophie Brochu ;
  • le repositionnement stratégique d’Hydro-Québec sous Michael Sabia, dans un contexte de transition énergétique accélérée.

Mais malgré cette limite temporelle, Hydro-Québec et l’État québécois reste une référence incontournable pour toute personne intéressée par l’histoire énergétique du Québec — ou simplement par la façon dont une société façonne ses outils collectifs.

À lire… et à compléter avec une réflexion sur les vingt dernières années.

#HydroQuébec #Histoire #Énergie #PolitiquesPubliques #Québec #TransitionÉnergétique

Du téléphone à cadran au téléphone intelligent — Une leçon pour la transition énergétique

Les téléphones à cadran étaient robustes, duraient des décennies, ne nécessitaient aucune recharge et offraient une excellente qualité sonore. Ils coûtaient peu et brisaient rarement. Les téléphones intelligents d’aujourd’hui, eux, sont coûteux, fragiles, remplacés tous les quelques années, doivent être rechargés quotidiennement… et offrent une moins bonne qualité d’appel.

Alors pourquoi avons-nous changé?

Parce que les téléphones intelligents offrent beaucoup plus.

Ils ne servent pas qu’à téléphoner?: ils nous connectent au travail, aux cartes, aux médias, aux réseaux sociaux, aux banques, à la photo, au divertissement. Bref, la valeur qu’ils offrent dépasse largement la fonction d’origine.

Voilà une idée maîtresse pour la transition énergétique.

Oui, l’ancien système était fiable et peu coûteux. Les combustibles fossiles sont denses, faciles à stocker et les infrastructures sont bien établies. À l’instar du téléphone à cadran, il s’agit d’un système hérité du passé, conçu pour répondre aux besoins d’une époque révolue.

L’électricité propre?—?panneaux solaires, thermopompes, véhicules électriques, batteries?— peut sembler coûteuse, fragile ou moins intuitive. Mais elle ouvre la voie à davantage de valeur : un air plus pur, l’indépendance énergétique, des systèmes intelligents, une résilience décentralisée, une stabilité à long terme et de nouvelles industries.

La transition énergétique, comme la révolution des télécommunications, n’est pas un simple remplacement. C’est une amélioration. Et tout comme nous n’avons pas adopté le téléphone intelligent parce qu’il était moins cher ou plus simple, nous n’adopterons pas l’énergie propre uniquement parce qu’elle coûte moins cher par kWh. Nous le ferons parce qu’elle est meilleure — à bien des égards.

From Rotary Phones to Smartphones — And What It Teaches Us About the Energy Transition

(LinkedIn: https://www.linkedin.com/pulse/from-rotary-phones-smartphones-what-teaches-us-energy-benoit-marcoux-yaqme/)

Rotary phones were robust, lasted decades, needed no charging, and offered excellent sound quality. They cost little and rarely failed. By contrast, today’s smartphones are expensive, fragile, replaced every few years, and need daily recharging—yet deliver poorer sound quality during calls.

So why did the world switch?

Because smartphones do more.

They don’t just make calls—they connect us to work, maps, media, social networks, banking, photography, and entertainment. In short, the value they deliver goes far beyond the original function of telephony.

This is a key insight for the energy transition.

Yes, the old system was reliable and cheap. Fossil fuels are dense, dispatchable, and the infrastructure is mature. But like rotary phones, it’s a legacy system optimized for a past reality.

Clean electricity—solar panels, heat pumps, EVs, batteries—may seem costly, fragile, or less “plug-and-play” to some. But it opens the door to more value: cleaner air, energy independence, digital controls, decentralized resilience, long-term cost stability, and new services and industries.

The energy transition, like the telecom revolution, is not just a replacement. It’s an upgrade. And just as we didn’t adopt smartphones because they were cheaper or simpler, we won’t transition to clean energy just because it’s cheaper per kWh. We’ll do it because it’s better—in more ways that matter.

Renewables and Reliability: A Reflection on the Power Outage in Spain and Portugal

(LinkedIn: https://www.linkedin.com/pulse/renewables-reliability-reflection-power-outage-spain-portugal-benoit-3trle/)

I was in Spain during the major power outage on April 28, 2025. And no, it wasn’t my fault! Eleven hours without electricity is a memorable experience, even in a country with a modern grid like Spain’s. Since then, several commentators have blamed the high levels of wind and solar generation present at the time. I believe this interpretation is mistaken.

Events like this should not cast doubt on the reliability of renewable-rich grids. Rather, they remind us that such systems must be designed and planned differently.

A renewable grid is different—not less reliable

Legacy power systems were built around large thermal or hydro plants that provided natural inertia, centralized control, and predictable output. Modern grids, enriched with renewable resources, require a different approach:

·       Frequency, voltage, and stability must be ensured through technologies like battery storage, dynamic controllers, and synthetic inertia.

·       Planning must account for the production profiles of solar and wind, their variability, and their geographic complementarity.

·       Interconnections must be strengthened to allow the system to self-balance on a larger scale.

Don’t confuse a grid outage with a technology failure

Even though the April 28 incident occurred during high renewable output, that doesn’t mean renewables were to blame. Major outages almost always stem from systemic issues: poorly coordinated protection systems, the loss of critical transmission lines, insufficient inertia due to equipment failure, or a poor response to a localized disturbance.

What this really shows is that our planning approach must evolve. We can’t simply add solar and wind to an architecture built for centralized thermal or hydro power. We need to rethink the foundations of the system.

Storage: a critical ally

Large-scale storage, deployed intelligently, can serve several critical functions:

·       Frequency support

·       Black start capability

·       Smoothing variable generation

·       Fast-acting power reserve

It’s also worth noting that the sudden loss of a major load, such as a large data or AI center, can disrupt the grid as much as the shutdown of a power plant — a risk often underestimated in traditional planning.

Storage comes in many forms — pumped hydro, thermal, chemical (batteries) — and can be complemented by other flexibility sources like demand-side management. That said, batteries, with their rapidly falling costs and high operational flexibility, are likely to play an increasingly central role. They are a key element in a technological ecosystem capable of ensuring the stability, flexibility, and resilience required by a modern, renewables-rich grid.

Conclusion

It’s not the presence of renewables that makes a grid fragile — it’s the lack of adaptation to this new reality. Tomorrow’s grids cannot be based on yesterday’s models. They must be designed with the right tools, the right signals, and planning oriented toward resilience.

Reliability is not a legacy — it’s something we build.

Énergies renouvelables et fiabilité : retour sur la panne en Espagne et au Portugal

(LinkedIn : https://www.linkedin.com/pulse/énergies-renouvelables-et-fiabilité-retour-sur-la-panne-marcoux-dn4ue/)

J’étais en Espagne lors de la grande panne électrique du 28 avril 2025. Onze heures sans électricité, c’est une expérience marquante, même dans un pays doté d’un réseau aussi moderne que celui de l’Espagne. Depuis, plusieurs commentateurs pointent du doigt la forte production éolienne et solaire en cours au moment de l’incident. C’est une interprétation que je crois erronée.

Ce type d’événement ne devrait pas nous faire douter de la fiabilité d’un réseau riche en énergies renouvelables, mais plutôt nous rappeler qu’un tel réseau doit être conçu et planifié différemment.

Un réseau renouvelable est différent, pas moins fiable

Les systèmes électriques historiques ont été construits autour de grandes centrales thermiques ou hydroéectriques fournissant une inertie naturelle, un contrôle centralisé et une production prévisible. Mais les réseaux modernes, enrichis de ressources renouvelables, nécessitent des approches différentes :

·       La fréquence, la tension et la stabilité doivent être assurées par des technologies comme le stockage par batteries, les contrôleurs dynamiques et l’inertie synthétique.

·       La planification doit intégrer les profils de production solaire et éolienne, leur variabilité et leur complémentarité géographique.

·       Les interconnexions doivent être renforcées pour que le système puisse s’autoréguler à grande échelle.

Ne confondons pas une panne de réseau avec un échec technologique

Même si l’incident du 28 avril s’est produit à un moment où les renouvelables étaient abondantes, cela ne signifie pas qu’elles en sont la cause. Les pannes majeures ont presque toujours des causes systémiques : protection mal coordonnée, perte de lignes critiques, réserve d’inertie insuffisante suite à un bris, ou mauvaise réponse à un incident local.

Ce que cela révèle, c’est que notre manière de planifier le réseau doit évoluer. On ne peut pas simplement ajouter du solaire et de l’éolien à une architecture conçue pour le thermique et l’hydro centralisé. Il faut repenser les fondations du système.

Le stockage, un allié essentiel

Le stockage à grande échelle, déployé intelligemment, peut jouer plusieurs rôles critiques :

·       Soutien à la fréquence

·       Démarrage sans réseau (black start)

·       Lissage de la production variable

·       Réserve de puissance rapide

Notons aussi que la perte soudaine d’une charge importante, comme un grand centre de données ou d’intelligence artificielle, peut perturber tout autant l’équilibre du réseau que l’arrêt d’une centrale de production — un risque souvent sous-estimé dans la planification traditionnelle.

Le stockage prend plusieurs formes — hydraulique pompée, thermique, chimique (batteries) — et peut être complété par d’autres sources de flexibilité comme la gestion de la demande. Cela dit, les batteries, avec leurs coûts en baisse rapide et leur grande flexibilité d’opération, sont appelées à jouer un rôle croissant. Elles constituent un élément clé d’un écosystème technologique capable d’assurer la stabilité, la flexibilité et la résilience nécessaires à un réseau moderne riche en énergies renouvelables.

Conclusion

Ce n’est pas la présence de renouvelables qui rend un réseau fragile, c’est l’absence d’adaptation du système à cette nouvelle réalité. Les réseaux d’avenir ne peuvent être calqués sur ceux du passé. Il faut les concevoir avec les bons outils, les bons signaux, et une planification tournée vers la résilience.

La fiabilité n’est pas un héritage : c’est une construction.

Critique de livre — Le ministère du futur de Kim Stanley Robinson

(LinkedIn : https://www.linkedin.com/pulse/critique-de-livre-le-ministère-du-futur-kim-stanley-robinson-marcoux-isn7e/)

Le ministère du futur de Kim Stanley Robinson est une œuvre magistrale de fiction climatique ancrée dans le réalisme. Situé dans un futur très proche, le roman s’ouvre sur une vague de chaleur catastrophique en Inde qui tue des millions de personnes et provoque une prise de conscience mondiale. En réaction, l’ONU crée un nouvel organisme — le ministère du futur — chargé de représenter les intérêts des générations futures dans les décisions d’aujourd’hui.

Ce dispositif narratif permet à Robinson d’explorer la transformation économique, la rupture technologique, les conflits politiques et l’urgence éthique liés à la crise climatique. Le roman mêle récit, essais politiques, témoignages et scénarios spéculatifs pour montrer à la fois les horreurs de l’inaction et le potentiel de l’action collective.


Messages clés

1. L’urgence climatique est déjà là. Le roman débute par une catastrophe bouleversante afin de souligner une vérité essentielle : les changements climatiques ne sont pas une menace future, ils sont une réalité brutale et inégale. Les coûts sont humains, sociaux et politiques.

2. Des changements systémiques audacieux sont nécessaires. Le ministère développe des outils comme l’assouplissement quantitatif carbone (toujours pas sûr c’est quoi…) et des réformes des banques centrales — encore fictifs, mais fondés sur des propositions apparemment réalistes. Robinson invite les lecteurs à repenser les fondements de la monnaie, de la valeur et du pouvoir.

3. L’équité et la justice doivent guider l’action climatique. Des migrations forcées aux responsabilités inégalement réparties entre pays, le livre rappelle qu’une politique climatique sans justice n’est ni durable ni légitime.

4. La technologie compte — mais ce n’est pas une solution miracle. Oui, il est question de géo-ingénierie, de réseaux intelligents, de tours solaires et de dirigeables. (Je l’avoue : j’adorerais faire le tour du monde à bord d’un dirigeable solaire.) Mais Robinson insiste : nous ne pourrons pas résoudre cette crise uniquement par la technologie. La volonté collective et la gouvernance sont tout aussi cruciales.

5. L’espoir n’est pas de la naïveté — c’est une responsabilité. Le plus grand mérite du roman est peut-être de demeurer porteur d’espoir — non pas parce que le chemin est facile, mais parce qu’il en vaut la peine. Robinson ne propose aucune illusion, seulement le dur labeur de la coopération internationale, de l’engagement citoyen et du leadership moral.


Conclusion Le ministère du futur n’est pas un roman d’évasion — c’est un miroir, peut-être même une carte. Pour les professionnels engagés dans les domaines du climat, de l’énergie ou des politiques globales, ce livre ne se contente pas de divertir : il provoque. Il nous demande quel genre de monde nous sommes prêts à défendre. Et il nous rappelle que l’avenir nous appartient encore — si nous agissons.

Book Review — The Ministry for the Future by Kim Stanley Robinson

(LinkedIn: https://www.linkedin.com/pulse/book-review-ministry-future-kim-stanley-robinson-benoit-marcoux-vtuac)

Kim Stanley Robinson’s The Ministry for the Future is a sweeping work of climate fiction rooted in realism. Set in the very near future, it begins with a catastrophic heatwave in India that kills millions, prompting a global reckoning. In response, the UN creates a new body—the Ministry for the Future—tasked with representing the interests of future generations in present-day decision-making.

Through this narrative device, Robinson explores economic transformation, technological disruption, political conflict, and ethical urgency in confronting the climate crisis. The book mixes storytelling with policy essays, eyewitness testimonies, and speculative scenarios to show both the horrors of inaction and the potential of collective resolve.

Key Messages

1. The climate emergency is already here. The novel opens with visceral disaster to underscore a key truth: climate change is not some future threat—it is a brutal, uneven reality now. The costs are human, social, and political.

2. We need bold systemic change. The Ministry develops tools like carbon quantitative easing (still not sure what this is…) and reforms to central banks—fictional now, but grounded in apparently plausible policy thinking. Robinson urges readers to reimagine how money, value, and power are structured.

3. Equity and justice must guide climate responses. From the forced migration of climate refugees to unequal responsibility across nations, the book reminds us that climate policy without justice is neither sustainable nor legitimate.

4. Technology matters—but it’s not a silver bullet. Yes, there’s geoengineering, sailing hydrofoils, and airships. (Confession: I would love to tour the world on a solar-powered dirigible.) But Robinson stresses that we cannot techno-fix our way out of this crisis. Collective will and governance are just as important.

5. Hope is not naïveté—it’s a form of responsibility. Perhaps the novel’s greatest gift is that it remains hopeful—not because the road is easy, but because it is worth walking. Robinson offers no fantasies, only the hard work of international cooperation, citizen engagement, and moral leadership.

Conclusion The Ministry for the Future is not escapist fiction—it’s a mirror, and maybe a map. For professionals working in climate, energy, or global policy, this book doesn’t just entertain; it provokes. It asks what kind of world we are willing to fight for. And it challenges us to imagine that the future still belongs to us—if we act.

Commerce Canada–États-Unis : mythes, réalités et le rôle de l’énergie et des intrants industriels

À l’heure où les tensions commerciales s’intensifient — notamment sous la menace de nouveaux tarifs par l’ancien président Trump — il est essentiel de distinguer la rhétorique des faits. L’idée que le Canada profite des États-Unis fait abstraction de réalités fondamentales : sécurité énergétique, flux d’investissements, intégration industrielle et coopération en matière de défense. En vérité, le Canada a constamment soutenu la prospérité et la résilience américaines — non seulement en tant que fournisseur clé, mais aussi comme allié de confiance dans plusieurs domaines.

(LinkedIn: https://www.linkedin.com/pulse/commerce-canadaétats-unis-mythes-réalités-et-le-rôle-de-marcoux-krnwe/))

1. Le Canada alimente littéralement l’industrie américaine

Comme l’a écrit l’économiste Paul Krugman, « importer ce dont vous avez besoin — obtenir des choses d’autres pays — est l’objectif du commerce international. Exporter — envoyer des choses à d’autres pays — est ce que nous faisons pour payer nos importations ». Cette logique s’applique parfaitement aux exportations canadiennes d’hydroélectricité : une source propre, fiable et bénéfique pour les consommateurs et l’industrie des États-Unis.

Le Canada est le plus grand fournisseur étranger d’énergie des États-Unis. En 2024, les exportations canadiennes de pétrole, de gaz et d’électricité vers les États-Unis ont atteint environ 124 milliards $?US. Ce sont des intrants essentiels pour l’industrie américaine et la vie quotidienne.

Fait notable, le pétrole et le gaz canadiens sont souvent vendus à prix réduit par rapport aux références mondiales, en raison des goulots d’étranglement du transport et de l’accès limité aux marchés. Cela signifie que les acheteurs américains bénéficient non seulement d’une source sûre et amicale, mais aussi de prix plus bas — un avantage économique direct.

Et l’énergie n’est que le début. Le Canada exporte chaque année près de 2,8 millions de tonnes d’aluminium vers les États-Unis — soit presque la moitié de leurs importations. Remplacer cet aluminium canadien par une production américaine nécessiterait près de 40 TWh supplémentaires d’électricité, soit l’équivalent de la consommation annuelle de 3,6 millions de foyers américains.

2. Le Canada fournit les intrants — les États-Unis vendent les produits finis

Plus de 98?% des biens échangés sont exemptés de droits en vertu de l’ACEUM. Selon les chiffres officiels, les droits perçus représentent moins de 1,5?% de la valeur du commerce bilatéral, soit environ 9 milliards $?US sur 620 milliards.

Au-delà de l’énergie, le Canada fournit des intrants industriels essentiels : aluminium, pièces d’automobile, produits forestiers, minéraux — tous indispensables à la production américaine. Les tarifs imposés sur ces biens augmenteraient les coûts pour les entreprises américaines.

En 2023, le Canada a assemblé 1,32 million de véhicules exportés aux États-Unis, tandis que les États-Unis ont exporté 1,7 million de véhicules vers le Canada. Cela illustre l’interdépendance, mais aussi l’asymétrie : les biens exportés par le Canada sont des intrants difficiles à remplacer, tandis que les biens exportés par les États-Unis sont des produits finis plus facilement substituables.

La gestion de l’offre canadienne (produits laitiers, œufs, volaille) est parfois critiquée, mais son impact sur les exportations américaines est limité. Par contraste, les tarifs américains sur le bois d’œuvre nuisent directement aux producteurs canadiens et aux consommateurs américains.

Les services sont l’un des rares domaines où les États-Unis affichent un excédent — de 31,7 milliards $?US — grâce à des secteurs comme la finance, le numérique, les conseils et le tourisme. Toutefois, ces services pourraient eux aussi être remplacés à long terme.

3. Les flux de capitaux favorisent les États-Unis

Le Canada investit plus de 600 milliards $?US dans l’économie américaine : usines, infrastructure, innovation, obligations du Trésor. Ces investissements renforcent la croissance et la stabilité économique des États-Unis.

À l’inverse, les investissements américains au Canada sont moindres et moins diversifiés. Le Canada affiche ainsi un déficit structurel dans le compte de capital.

Et cela pourrait changer : en cas de guerre commerciale, le Canada pourrait réorienter ses investissements ailleurs.

4. Défense et diplomatie

  • Le Canada héberge le système d’alerte du Nord, clé pour la surveillance continentale.
  • Il codirige le NORAD, basé au Colorado, mais actif jusque dans l’Arctique.
  • Il a participé à des missions de combat comme en Afghanistan (158 soldats canadiens morts).
  • Il achète du matériel militaire américain : avions, hélicoptères, blindés.

Après le 11 septembre, le Canada a accueilli 33?000 passagers aériens détournés. Il a aussi sauvé six diplomates américains pendant la crise des otages en Iran.

Ces gestes témoignent d’une alliance stratégique et durable.

5. Programmes sociaux : une efficacité, pas une dépendance

Le Canada consacre 12 % de son PIB à la santé (contre 18 % aux É-U), pour des résultats meilleurs : espérance de vie plus élevée, mortalité maternelle plus faible.

L’économie dépasse 6?900 $ US par personne.

Cela permet d’investir dans d’autres domaines : garderies universellescongés parentaux payésprestations pour enfantssoutiens au revenu.

Ces programmes sont le fruit de choix stratégiques, pas d’un sous-investissement ailleurs.

6. Fentanyl ? Mauvaise frontière

Le fentanyl vient de la Chine et du Mexique, pas du Canada. En réalité, des drogues et armes illégales montent des É-U vers le Canada, tout comme des flux de traite humaine.

Le Canada a vu récemment une hausse des demandes d’asile en provenance des É-U.

Ces enjeux nécessitent coordination, pas confrontation.

Et puis, il y a les œufs. Pendant la grippe aviaire, des œufs ont été contrebandés du Canada vers les É-U. Le petit déjeuner s’est retrouvé au cœur de la géopolitique.

7. Le Canada respecte ses engagements. Les É-U ? Pas toujours

Trump a imposé — puis retiré — puis menacé de réimposer des tarifs sur l’aluminium, le bois d’œuvre, les voitures, etc.

Et maintenant, il veut se retirer de l’ACEUM, qu’il a signé en janvier 2020 en le qualifiant de « plus équitable de l’histoire ».

Conclusion : un partenaire fiable mérite le respect

Le Canada est un allié stable, fiable, et économiquement stratégique.

  • Il soutient les chaînes d’approvisionnement critiques.
  • Il injecte des capitaux dans l’économie américaine.
  • Il contribue à la défense continentale.

Le blâmer est non seulement injuste — c’est contre-productif.

Canada–U.S. Trade: Myths, Realities, and the Role of Energy and Industrial Inputs

As trade tensions rise — particularly under the threat of new tariffs by former President Trump — it’s important to separate rhetoric from reality. The idea that Canada has taken advantage of the U.S. ignores facts about energy security, investment flows, industrial integration, and defence cooperation. In truth, Canada has consistently supported U.S. prosperity and resilience — not only as a major supplier of inputs, but as a trusted ally across domains.

(On LinkedIn: https://www.linkedin.com/pulse/canadaus-trade-myths-realities-role-energy-industrial-benoit-marcoux-zfrhe)

Here’s what the data actually tells us:

1. Canada Powers U.S. Industry—Literally

As Paul Krugman, the Nobel economist, aptly noted, “importing what you want — being able to get stuff from other countries — is the purpose of international trade. Exporting — sending stuff to other countries — is something we do so we can pay for imports.” This logic fits Canada’s hydroelectric power exports perfectly: a clean, reliable energy source that benefits U.S. consumers and industry alike.: a clean, reliable energy source that benefits U.S. consumers and industry alike.

Canada is the largest foreign supplier of energy to the United States. In 2024, Canadian exports of oil, gas, and electricity to the U.S. approached $124 billion USD. These are foundational inputs for U.S. industries and everyday life—heating homes, powering factories, and fueling transportation.

Notably, Canadian oil and gas are often sold at a discount compared to global benchmarks, primarily due to transportation bottlenecks and limited market access. This means U.S. buyers benefit not only from a secure and friendly source of energy, but also from lower prices—a direct economic advantage that supports American competitiveness and energy security.

But energy is just the beginning. Canada is also a top supplier of aluminum, exporting nearly 2.8 million tonnes annually to the U.S.—almost half of its aluminum imports. Aluminum is essential to sectors like construction, transportation, and defence. Replacing Canadian aluminum with domestic U.S. production would require an additional almost 40 TWh of electricity—roughly equivalent to the annual consumption of 3.6 million U.S. homes—at a time when the U.S. grid is already under stress.

2. Canada Exports Industrial Inputs—The U.S. Sells Finished Goods

Despite headlines about tariffs, the broader picture is clear: over 98% of goods traded between Canada and the U.S. are tariff-free under USMCA rules. According to Global Affairs Canada and the U.S. International Trade Commission, total tariffs collected by both countries account for less than 1.5% of the value of bilateral trade, or roughly $9 billion USD out of $620 billion USD annually. So, while specific sectors may face friction, the vast majority of trade remains open, stable, and mutually beneficial.

Beyond energy, Canada also supplies the U.S. with essential industrial inputs—aluminum, auto parts, forest products, and minerals—that are foundational to American manufacturing. These inputs are difficult or costly to replace, and tariffs on them risk undermining U.S. competitiveness by increasing costs and disrupting supply chains.

Canada’s modest goods trade surplus with the U.S. is largely due to these inputs. For example, in 2023, Canada assembled approximately 1.32 million vehicles for export to the United States. In the same year, the U.S. exported about 1.7 million vehicles to Canada. These flows illustrate the mutual dependency, but also the structural asymmetry: many Canadian exports are hard-to-replace industrial inputs into North American production systems, while many U.S. exports are finished consumer goods that Canada could more easily substitute.

A small portion of bilateral friction stems from Canada’s supply management system, which regulates dairy, poultry, and egg production through tariff-rate quotas. While over-quota tariffs can exceed 200%, they are rarely triggered in practice—meaning their impact on actual U.S. trade flows is limited. Conversely, the U.S. has long maintained punitive tariffs on Canadian softwood lumber, despite repeated rulings by international trade bodies against them. These tariffs have distorted prices, hurt Canadian producers, and increased costs for American homebuilders and consumers. Neither of these trade frictions, however, define the overall relationship. 

In contrast, the U.S. exports mainly finished goods—products, like vehicles, that are generally easier for Canada to replace with domestic production or by sourcing from Europe, Japan, South Korea, or even China. In a full-blown trade war, the U.S. risks losing access to critical Canadian inputs, while Canada would have more flexibility to adapt its supply chains—an asymmetry that could significantly hurt U.S. industry.

Moreover, on services, the U.S. maintains a strong position: in 2023, it ran a $31.7 billion USD surplus with Canada. With strengths in finance, digital platforms, software, business consulting, and tourism, U.S. firms currently enjoy high demand in Canada. But unlike industrial inputs, many services can be replaced over time through domestic development or alternate partnerships. Thus, while the U.S. currently benefits, it may also be more exposed in the long term if trade relations sour.

3. Capital Flows Favour the U.S.

Canadian companies invest heavily in the U.S., not just through mergers and acquisitions but also by building factories, expanding infrastructure, and financing innovation. These investments span sectors such as automotive, aerospace, advanced manufacturing, and clean technology—driving job creation, productivity gains, and long-term industrial capacity.

In 2023, the stock of Canadian direct investment in the United States exceeded $600 billion USD, placing Canada among the top foreign investors in the U.S. economy. This capital plays a dual role: it fuels private-sector growth and contributes to public financing through significant holdings of U.S. Treasury bonds, helping to finance the federal deficit and stabilize interest rates.

In contrast, U.S. direct investment in Canada is smaller in both scale and diversification. While Canada may register a modest surplus in goods trade, this is more than offset by a persistent capital account deficit—an imbalance that rarely gets the attention it deserves.

But this dynamic is not immutable. In a context of rising tariffs or trade hostilities, Canadian firms could reduce their exposure to the U.S. and redirect investments domestically or toward more predictable jurisdictions. Such a shift would not only reduce integration but would also risk slowing industrial and technological progress in the U.S.

In short, when evaluating the economic relationship, it’s not just about who exports more—it’s also about who invests more. And on that front, the United States has been the bigger beneficiary—though that advantage may not hold if trust erodes and capital starts flowing elsewhere.

4. Defence and Diplomacy

Claims that Canada underfunds its alliance obligations by spending less on defence overlook key facts. While Canada’s military spending is lower as a share of GDP (about 1.4% vs the NATO target of 2%), its strategic contributions are substantial and long-standing:

  • Canada hosts radar installations in the Arctic, including as part of the jointly operated North Warning System, which supports continental surveillance.
  • Canada co-leads NORAD, the North American Aerospace Defense Command—a binational organization headquartered in Colorado Springs. NORAD is responsible for aerospace warning, aerospace control, and maritime warning for North America. It is a pillar of joint defence, particularly in the Arctic, where monitoring airspace and maritime traffic has become more critical. And once a year, NORAD becomes a global household name for its Santa Claus tracking tradition.
  • Canada participated in joint combat missions, including Afghanistan, where 158 Canadian soldiers lost their lives.
  • Canada is a significant purchaser of U.S. military equipment, including fighter jets, helicopters, armoured vehicles, and surveillance systems.

Canada’s contributions extend beyond military deployments. In the aftermath of 9/11, Canada welcomed over 33,000 diverted air passengers in a remarkable humanitarian effort remembered around the world. Canada also played a crucial diplomatic role during the Iran hostage crisis, sheltering and helping exfiltrate six American diplomats. In Haiti, Canadian Forces have supported U.S.-led stabilization efforts, and Canadian naval forces have repeatedly patrolled alongside their U.S. counterparts in global missions.

These moments reflect a broader pattern of trust, solidarity, and cooperation. Canada’s contributions are strategic, enduring, and often made without fanfare—but they have consistently advanced shared security and humanitarian goals.

5. Social Spending: It’s About Efficiency

Some critics suggest Canada can afford social programs only because it doesn’t “pay its fair share” on defence or play fairly on trade. But a more plausible explanation lies in the efficiency of its public services, especially in healthcare.

The U.S. spends nearly 18% of GDP on healthcare; Canada, just over 12%. This translates into savings of more than $6,900 USD per capita, based on 2023 data from the Commonwealth Fund and the Canadian Institute for Health Information. U.S. per capita health spending was around $13,400 USD, compared to approximately $6,500 USD in Canada.

These savings are primarily driven by Canada’s universal coverage model, which allows for broad access at lower cost. Better health outcomes—such as longer life expectancy (82.6 years in Canada vs. 76.3 in the U.S.) and lower maternal mortality (11 vs. 33 per 100,000 births)—reinforce the value of this approach, though they do not directly account for the financial savings.

These efficiencies free up public resources for other priorities—notably, child care. Quebec’s low-fee universal program has led to some of the highest maternal workforce participation rates in Canada. Building on this model, the Canada-wide Early Learning and Child Care initiative launched in 2021 is extending affordable services across the country. This supports both families and the economy by enabling higher labour force participation.

Canada also invests in robust social protections, including:

  • Paid parental leave to support family formation,
  • Child benefits that help reduce child poverty,
  • Income supports that enhance social and economic inclusion.

In short, Canada’s ability to sustain strong social programs stems not from under-contributing elsewhere, but from making strategic fiscal choices that deliver long-term value, resilience, and broad-based prosperity.

6. Fentanyl? Wrong Border

The U.S. fentanyl crisis is tragic—but blaming Canada is misguided. The DEA confirms the primary sources are China and Mexico, with smuggling routes concentrated at the southern border. Meanwhile, some illicit drugs, including synthetic opioids, also flow north from the U.S. into Canada. These flows are part of a broader set of two-way challenges that include illegal gunshuman trafficking, and asylum-seeker flows—all of which point to shared security concerns that demand cooperation, not confrontation.

Canada has recently seen a sharp increase in asylum claims from people entering via the United States, with irregular crossings reported in multiple provinces. While many of these individuals are seeking protection, this trend highlights growing imbalances and instability in cross-border dynamics. Human trafficking and gun smuggling into Canada add complexity to the issue, reinforcing the need for a coherent and coordinated approach to migration, border security, and law enforcement.

And then there are the eggs. During recent price spikes in the U.S. caused by avian flu outbreaks, smugglers began sneaking eggs from Canada into the United States. With American shoppers facing soaring prices, U.S. customs officers reported a spike in egg seizures at the border. 

Apparently, where supply chains fail, the breakfast black market rises. Whether it’s illicit fentanyl or illicit frittatas, the border has seen it all.

7. Canada Keeps Its Word. The U.S.—Not Always

Canada has consistently honoured trade agreements. By contrast, Trump’s imposition—and abrupt reversal—of tariffs on Canadian aluminum and steel and cars was just one example in a broader pattern of erratic trade policy. His administration also imposed tariffs on softwood lumber, newsprint, and other Canadian exports such as fabricated structural steel, and repeatedly threatened auto tariffs. These measures were often introduced, lifted, or reintroduced without consistent rationale, undermining confidence in the reliability and predictability of U.S. trade commitments. His recent threats to withdraw from the USMCA show once again—despite having signed it into law on January 29, 2020and previously calling it “the fairest, most balanced, and beneficial trade agreement we have ever signed into law” that Canada cannot take the stability of U.S. policy for granted.

Conclusion: A Reliable Partner Deserves Respect

Canada has been a steadfast, constructive, and mutually beneficial partner to the U.S.—especially in energy, industrial supply chains, capital investment, and shared defence. Any serious assessment of the economic relationship must recognize:

  • The deep interdependence of our economies,
  • The structural advantage the U.S. gains from Canadian inputs and capital,
  • And the importance of consistent, rules-based cooperation in uncertain times.

This isn’t about sentiment. It’s about strategy. Picking a trade war with Canada isn’t just unfair—it’s self-defeating.

Sources: Global Affairs Canada, U.S. International Trade Commission, Statistics Canada, DEA, NORAD, U.S. Customs and Border Protection, Commonwealth Fund, Paul Krugman (via Substack, 2024)

Ce que l’iPhone nous apprend sur l’avenir énergétique

(LinkedIn : https://www.linkedin.com/pulse/ce-que-liphone-nous-apprend-sur-lavenir-%25C3%25A9nerg%25C3%25A9tique-benoit-marcoux-azlmf/?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3BSazXN8KQQDOom3nyaHLtgg%3D%3D)

Du monopole au mobile : la leçon de l’iPhone

En 2007, l’iPhone n’était pas simplement un nouveau téléphone. Il a bouleversé le modèle établi des télécommunications. À l’époque, les opérateurs mobiles contrôlaient presque tout : les appareils autorisés, les fonctions activées, les services proposés. Les téléphones étaient verrouillés, bridés, alignés sur la vision de l’opérateur.

Les fabricants traditionnels de téléphones cellulaires, confortablement installés dans un équilibre stable avec les opérateurs, ont aussi fait les frais de l’arrivée de l’iPhone. Leur modèle d’affaires reposait sur des appareils standardisés, conçus selon les exigences des opérateurs, peu évolutifs, mais vendus en masse. L’innovation logicielle n’était pas une priorité, tant que les volumes suivaient.

L’iPhone a mis fin à ce statu quo. Incapables de suivre le virage logiciel et l’émergence de plateformes applicatives, plusieurs géants comme Nokia, BlackBerry ou Motorola ont vu leur position s’effondrer. L’interface intuitive, l’écosystème d’applications et l’intégration verticale d’Apple ont redéfini les attentes des utilisateurs et déplacé le centre de gravité vers l’expérience client. Google, avec Android, a poursuivi dans cette voie avec une approche plus ouverte, mais tout aussi centrée sur l’utilisateur.

L’App Store a consolidé cette révolution. En ouvrant une plateforme aux développeurs tiers, Apple a déclenché une explosion d’innovations. Les applications sont devenues le point d’ancrage de l’expérience numérique. Les opérateurs, autrefois maîtres du contenu, ont été relégués au rôle de simples fournisseurs de connectivité. La valeur s’est déplacée vers les plateformes logicielles et les services.

Pour les constructeurs automobiles, l’enjeu est similaire. Restreindre les usages, garder un contrôle exclusif sur l’expérience ou brider les interactions avec les systèmes énergétiques revient à ignorer une dynamique déjà à l’œuvre. Ceux qui permettront aux utilisateurs de devenir pleinement acteurs d’un nouvel écosystème énergétique, fluide et personnalisable, auront une longueur d’avance.

Le V2G, ou comment redonner du pouvoir aux usagers

Aujourd’hui, un évènement iPhone se prépare dans le monde de l’énergie.

Les véhicules électriques sont des batteries sur roues. Avec le V2G (Vehicle-to-Grid), ils peuvent faire plus que consommer : ils peuvent stocker, redistribuer, équilibrer. L’utilisateur devient acteur du réseau, producteur, gestionnaire, partenaire.

Mais encore faut-il que les constructeurs automobiles le permettent, ce qui est loin d’être la norme. Quelques projets pilotes existent. En Australie, la Nissan Leaf a été testée dans des initiatives comme REVS, mais l’adoption reste marginale, freinée par la complexité réglementaire, les exigences des réseaux et la prudence des constructeurs. D’autres exemples, comme Renault avec Mobilize et The Mobility House en France, ou GM avec PG&E en Californie, relèvent de configurations fermées, limitées à des accords bilatéraux entre un constructeur et un fournisseur d’énergie.

Cela rappelle le monde des téléphones cellulaires avant l’iPhone : des appareils conçus pour des systèmes fermés (plus encore en Amérique du Nord qu’en Europe), verrouillés par des ententes commerciales, et rarement compatibles entre eux. Tant que cette logique perdure, l’innovation à grande échelle — ouverte, interopérable, centrée sur l’utilisateur — ne pourra émerger. Les constructeurs automobiles risquent alors de connaître le sort des géants déchus des équipements de télécoms. Ce sont peut-être, aujourd’hui, les BlackBerry de demain.

Les compagnies d’électricité, historiquement maîtres d’un réseau centralisé, doivent elles aussi s’adapter. Face à des ressources distribuées, mobiles et autonomes, elles devront réinventer leur rôle. Comme les opérateurs télécoms hier, elles devront passer du contrôle à l’orchestration.

Une nouvelle ère énergétique

Ce nouveau système énergétique ne pourra reposer uniquement sur le modèle pavillonnaire — un foyer unifamilial équipé d’un véhicule électrique, de panneaux solaires et, peut-être, d’une batterie résidentielle. Il devra aussi fonctionner dans des environnements urbains denses : immeubles à logements multiples, tours à bureaux, stationnements partagés. Le V2G devra s’y adapter avec des solutions mutualisées, intelligentes et intégrées à la gestion collective de l’énergie.

Tout comme l’iPhone a déclenché une vague d’innovation — applications, nouveaux modèles d’affaires, paiements mobiles — il a aussi transformé toute une industrie. Des fabricants de téléphones ont disparu, incapables de suivre. Parallèlement, les télécoms ont explosé : croissance du trafic de données, diversification des services, émergence de nouveaux acteurs.

Le V2G pourrait provoquer une mutation comparable dans le monde de l’énergie. Et, contrairement à de nombreux programmes dictés par les compagnies d’électricité ou soutenus par des subventions publiques, cette transformation pourrait être portée — et financée — par les consommateurs eux-mêmes, comme ce fut le cas pour l’iPhone. Ce sont les usagers qui, en adoptant massivement ces technologies, pourraient en accélérer l’avènement.

Pour les fabricants automobiles, cela signifie repenser le véhicule comme une plateforme énergétique. Les clients V2G auront souvent des panneaux solaires et voudront maximiser leur autoconsommation, ce qui exige une intégration fluide entre voiture, maison et réseau. Cela implique des fonctions logicielles avancées, des partenariats ouverts, une gestion optimisée des batteries. Ceux qui offriront une expérience fluide, sécuritaire et économique prendront une longueur d’avance. Les premiers fabricants d’automobiles à intégrer le V2G concrètement auront un avantage compétitif décisif, en capturant une part stratégique du marché et en imposant leurs standards.

Pour les compagnies d’électricité, le défi est tout aussi stratégique. Elles devront gérer des millions d’actifs énergétiques mobiles qu’elles ne possèdent pas. Il leur faudra des outils d’orchestration, des modèles tarifaires dynamiques et une capacité d’interaction avec des plateformes tierces. Le V2G accélérera la transition vers un réseau plus décentralisé, plus flexible, plus intelligent.

Des entreprises traditionnelles devront repenser leur modèle. De nouveaux acteurs plus agiles apparaîtront : dans les technologies, les services résidentiels, la gestion de l’énergie.

Comme l’App Store l’a fait pour le mobile, le V2G pourrait ouvrir la voie à des plateformes énergétiques ouvertes. Des tiers viendraient y offrir des services novateurs : optimisation tarifaire, stockage partagé, automatisation domotique, agrégation de batteries. L’utilisateur, d’abord simple consommateur d’électricité, deviendrait le pivot d’un écosystème riche, personnalisé et décentralisé.

Les défis sont nombreux — techniques, réglementaires, culturels — mais le mouvement est lancé. Et comme pour AT&T et Rogers à l’époque, ceux qui s’adapteront tôt pourraient bien en sortir gagnants.

What the iPhone Teaches Us About the Future of Energy

(LinkedIn: https://www.linkedin.com/pulse/what-iphone-teaches-us-future-energy-benoit-marcoux-fhiof/?lipi=urn%3Ali%3Apage%3Ad_flagship3_pulse_read%3BjOZ%2FEZqyRFmjrsYUey0rUA%3D%3D)

From monopoly to mobility: the iPhone lesson

In 2007, the iPhone was more than just a new phone. It upended the established telecommunications model. At the time, mobile carriers controlled nearly everything: approved devices, enabled features, and available services. Phones were locked down, restricted, aligned with the carriers’ vision.

Traditional cellphone manufacturers, comfortably entrenched in a stable arrangement with carriers, were also caught off guard by the iPhone’s arrival. Their business model relied on standardized devices built to carrier specs, not particularly innovative, but sold at scale. Software innovation wasn’t a priority as long as the volumes were there.

The iPhone broke that equilibrium. Unable to pivot quickly to software-centric platforms, several giants like Nokia, BlackBerry, and Motorola saw their dominance collapse. Apple’s intuitive interface, app ecosystem, and vertical integration redefined user expectations and shifted the focus to customer experience. Google followed up with Android, pursuing a more open approach but still centred on user empowerment.

The App Store solidified this revolution. By opening a platform to third-party developers, Apple triggered an explosion of innovation. Apps became the cornerstone of the digital experience. Carriers, once the gatekeepers of mobile services, were relegated to simple connectivity providers. Value shifted decisively toward software platforms and services.

The stakes are similar for automakers today. Restricting usage, keeping tight control over the user experience, or limiting interactions with energy systems ignore a shift already underway. Those who empower users to become active participants in a fluid, customizable energy ecosystem will gain a decisive edge.

V2G: returning power to the users

Today, an iPhone moment is brewing in the energy sector.

Electric vehicles are batteries on wheels. With V2G (Vehicle-to-Grid), they can do more than consume — they can store, redistribute, and balance energy. The user becomes an actor in the grid: producer, manager, and partner.

But this will only happen if automakers allow it — which is far from the norm. A few pilot projects exist. In Australia, the Nissan Leaf has been trialled in initiatives like REVS, but adoption remains marginal due to regulatory complexity, utility requirements, and manufacturer caution. Other examples — Renault with Mobilize and The Mobility House in France, GM with PG&E in California — are based on closed configurations, limited to bilateral agreements between one automaker and one utility.

This mirrors the mobile world before the iPhone: devices designed for closed systems (especially in North America), locked down by commercial agreements, and rarely interoperable. As long as this logic persists, large-scale innovation — open, interoperable, user-driven — cannot emerge. Automakers risk the same fate as the fallen telecom equipment giants. They may well be today’s BlackBerrys.

Electric utilities, long accustomed to central control, must also evolve. Faced with distributed, mobile, and autonomous resources, they will have to rethink their role. Like telecom operators before them, they must move from control to orchestration.

A New Energy Era

This new energy system cannot rely solely on the single-family home model — one house with an EV, solar panels, and perhaps a home battery. It must also work in denser urban settings: multi-unit buildings, office towers and shared parking lots. V2G will need to adapt to these environments through shared, intelligent, and integrated energy management solutions.

Just as the iPhone launched a wave of innovation — apps, new business models, mobile payments — it also transformed an entire industry. Some handset makers disappeared, unable to keep up. Meanwhile, telecom boomed: data usage soared, services diversified, new players emerged.

V2G could trigger a similarly profound shift in the energy sector. And unlike many programs dictated by utilities or supported by public subsidies, this transformation could be driven — and paid for — by the consumers themselves, just as it was with the iPhone. It is user adoption that could accelerate this revolution.

For automakers, this means rethinking the vehicle as an energy platform. V2G customers will often have solar panels and want to maximize self-consumption, which requires seamless integration between car, home, and grid. That demands advanced software, open partnerships, and optimized battery management. Those who deliver a smooth, secure, cost-effective experience will gain the upper hand. The first carmakers to implement V2G meaningfully will secure a strategic lead and set the standards for others.

For utilities, the challenge is just as strategic. They will need to manage millions of mobile energy assets they do not own. That calls for orchestration tools, dynamic pricing models, and the ability to interact with third-party platforms. V2G will accelerate the shift toward a more decentralized, flexible, and intelligent grid.

Traditional players will need to rethink their models. New, more agile entrants will emerge — in tech, home energy services, and distributed energy management.

As the App Store did for mobile, V2G could pave the way for open energy platforms. Third parties could offer new services: smart charging, shared storage, home automation, battery aggregation. The user — once a passive electricity consumer — would become the focal point of a dynamic, personalized, and decentralized ecosystem.

The challenges are real — technical, regulatory, cultural — but the shift has begun. And just like AT&T and Rogers in the early iPhone days, those who adapt early may be the ones who win.

Autocracy Inc. — quand les démocraties se comportent mal

Autocracy, Inc. de Anne Applebaum met en lumière un paradoxe puissant de notre époque : alors que les autocraties consolident leur pouvoir et manipulent le capitalisme pour asseoir leurs régimes, les démocraties ne sont pas à l’abri des mêmes dérives. Elles peuvent elles aussi manipuler les marchés, déformer les récits et utiliser la puissance économique pour imposer leur volonté. Mais il y a un risque qu’elles glissent ainsi vers l’autocratie.

De mon point de vue, qui s’ancre dans un engagement envers la gouvernance démocratique, la collaboration industrielle et une souveraineté équilibrée, les leçons d’Autocracy, Inc. dépassent largement les cas de la Russie et de la Hongrie. Elles résonnent fortement avec l’attitude actuelle des États-Unis, en particulier dans l’escalade des tensions commerciales et les menaces d’annexion implicite vis-à-vis du Canada.

(LinkedIn : https://www.linkedin.com/pulse/autocracy-inc-quand-les-d%25C3%25A9mocraties-se-comportent-mal-benoit-marcoux-rajye/)

Le cœur du message de Autocracy, Inc.

Snyder soutient que les autocraties modernes sont moins idéologiques que pragmatiques. Elles fonctionnent comme des entreprises — d’où le terme Autocracy, Inc. — selon une logique où :

  • Le pouvoir de l’État sert des intérêts privés
  • La corruption remplace la transparence
  • Les leviers économiques prennent la place de la force militaire
  • Le contrôle du récit prime sur la vérité

Plutôt que d’exporter une idéologie, ces régimes exportent l’impunité. Et, fait troublant, les systèmes financiers et politiques mondiaux les soutiennent souvent tacitement.

Mais l’avertissement le plus glaçant de Snyder est celui-ci : les méthodes de l’autocratie peuvent contaminer les démocraties, surtout lorsqu’elles cherchent à maintenir leur domination dans un monde en mutation.

Les États-Unis comme actionnaire réticent de Autocracy, Inc.

Dans les tensions commerciales actuelles avec le Canada, on peut observer des tactiques empruntées au manuel autocratique — même de la part d’un partenaire démocratique historique.

Les États-Unis :

  • Utilisent l’accès à leur marché comme levier
  • Interprètent les politiques «?Buy American?» de manière à désavantager les entreprises canadiennes
  • Exercent des pressions pour aligner les chaînes d’approvisionnement canadiennes sur leurs priorités
  • Bloquent ou entravent les exportations d’énergie canadienne sous prétexte d’autosuffisance ou de sécurité

Ces actions ne prétendent même plus s’inscrire dans une transition verte ou un projet démocratique commun. Les États-Unis poursuivent une stratégie industrielle nationaliste étroite — privilégiant le contrôle intérieur à la coopération internationale, même avec leurs alliés les plus proches.

Ce n’est pas un partenariat. C’est de la coercition économique au service d’une domination stratégique, selon une logique qui rappelle celle des régimes autocratiques : consolider le pouvoir, sécuriser les chaînes d’approvisionnement, imposer ses conditions.

Sous cet angle, les États-Unis se comportent moins comme un allié coopératif que comme un actionnaire dominant de Autocracy, Inc., utilisant leur position pour imposer leur volonté — sans idéologie, uniquement par la force économique.

Ce que cela signifie pour le Canada

Le moment appelle à une vision stratégique claire.

Le Canada doit :

  • Renforcer ses capacités souveraines — non pas pour s’isoler, mais pour négocier d’égal à égal
  • Développer des marchés intérieurs solides — en éliminant les barrières commerciales interprovinciales et en favorisant les chaînes de valeur régionales
  • Nouer des partenariats résilients — notamment avec l’Europe et les démocraties hors de la sphère étatsunienne
  • Élaborer une politique industrielle fondée sur la réciprocité et la résilience — plutôt que sur la seule efficacité

Il nous faut dépasser la nostalgie de l’ordre multilatéral d’après-guerre, qui n’existe plus. La vraie question est de savoir si nous pouvons cocréer un nouveau modèle où les démocraties de petite et moyenne taille ne sont pas des vassales, mais des partenaires essentiels — des partenaires qui s’épaulent politiquement, mais aussi qui offrent des alternatives économiques fiables. Le Canada, en particulier, peut et doit se substituer à certains produits et ressources que nos alliés obtiennent actuellement des États-Unis.

Conclusion : la démocratie, ce n’est pas que les élections

L’avertissement de Snyder est limpide : Autocracy, Inc. n’est pas seulement un diagnostic des régimes autoritaires — c’est une grille de lecture pour comprendre comment les démocraties peuvent se dégrader de l’intérieur, ou commencer à imiter ce qu’elles prétendaient combattre.

Le comportement des États-Unis dans cette guerre commerciale avec le Canada devrait tous nous inquiéter — non pas parce qu’il reflète Moscou ou Pékin, mais parce qu’il montre à quelle vitesse les valeurs peuvent se tordre lorsque le pouvoir est en jeu.

Le Canada peut — et doit — répondre, non pas en imitant, mais en s’appuyant sur des principes démocratiques fermes, une autonomie stratégique et une vision de la collaboration industrielle fondée sur l’équité et l’intérêt mutuel.