Niet zozeer hackers of natuurrampen, maar menselijke fouten en technische misconfiguraties vormen het grootste risico voor kritieke infrastructuur. ‘De volgende grote infrastructuuruitval wordt mogelijk veroorzaakt door een goedbedoelende ingenieur, een gebrekkig update-script of een verkeerd geplaatste decimaal’, waarschuwt Wam Voster, VP Analyst bij Gartner.
Gartner voorspelt dat tegen 2028 een misconfiguratie in cyber physical systems (cps) een nationale kritieke infrastructuur in een G20-land volledig zal stilleggen.
Cps zijn technische systemen die sensoren, berekening, controle, netwerken en analytics orchestreren om met de fysieke wereld te interageren. Denk aan operational technology (ot), industrial control systems, industrial IoT, robots, drones en industrie 4.0-toepassingen.
Gevolgen voor kritieke systemen
Op dit niveau kan er dus flink wat misgaan. Misconfigureerde ai kan autonome systemen ertoe brengen vitale diensten af te sluiten, sensordata verkeerd te interpreteren of onveilige acties te triggeren. Dit kan resulteren in fysieke schade of grootschalige verstoringen met directe gevolgen voor publieke veiligheid en economische stabiliteit.
De impact is divers. Moderne energienetwerken zijn bijvoorbeeld afhankelijk van AI voor realtime balancering van productie en consumptie. Een verkeerd geconfigureerd predictief model kan vraag interpreteren als instabiliteit, wat onnodige netwerkisolatie of load shedding in hele regio’s of zelfs landen kan veroorzaken. Ook productiesystemen, waterzuivering en andere kritieke infrastructuur worden steeds afhankelijker van ai-gestuurde cyber physical systems.
Black box-problematiek
Gartner beveelt ciso’s aan om veilige override-mechanismen te implementeren, zoals een secure kill-switch die alleen toegankelijk is voor geautoriseerde operators.
Daarnaast moeten organisaties digital twins ontwikkelen voor realistische testing van updates voordat deze worden uitgerold. Real-time monitoring met rollback-mechanismen en nationale ai-incidentrespons teams zijn eveneens essentieel om grootschalige uitval te voorkomen.
Het kernprobleem ligt in de complexiteit van moderne ai-modellen. ‘Moderne ai-modellen zijn zo complex dat ze vaak op ‘black boxes’ lijken’, legt Wam Voster van Gartner uit. ‘Zelfs ontwikkelaars kunnen niet altijd voorspellen hoe kleine configuratiewijzigingen het gedrag van het model zullen beïnvloeden. Hoe ondoorzichtiger deze systemen worden, hoe groter het risico op misconfiguratie. Daarom is het des te belangrijker dat mensen kunnen ingrijpen wanneer nodig.’
