Les directeurs de la sécurité des systèmes d’information (CISO) des centres opérationnels de sécurité ressentent une croissance de l’anxiété, en particulier à l’égard de DeepSeek, le géant chinois de l’IA.
L’IA était présentée comme une nouvelle ère pour l’efficacité commerciale et l’innovation, mais pour les personnes en première ligne de la défense des sociétés, elle projette désormais de longues et sombres ombres.
Quatre-vingt-un pour cent (81 %) des CISO du Royaume-Uni estiment que le chatbot chinois en IA nécessite une réglementation urgente de la part du gouvernement. Ils craignent qu’en l’absence d’une intervention rapide, l’outil puisse devenir le catalyseur d’une crise nationale en matière de cybersécurité.
Ce n’est pas une anxiété spéculative ; c’est une réponse directe à une technologie dont les pratiques de gestion des données et le potentiel de mauvais usage suscitent l’alarme aux niveaux les plus élevés de la sécurité d’entreprise.
Les résultats, commandés par Absolute Security pour son rapport UK Resilience Risk Index, sont basés sur un sondage auprès de 250 CISO de grandes organisations au Royaume-Uni. Les données suggèrent que la menace théorique de l’IA est maintenant fermement posée sur le bureau des CISO, et leurs réactions ont été décisives.
Ce qui aurait été presque impensable il y a quelques années, plus d’un tiers (34 %) de ces responsables de la sécurité ont déjà mis en place des interdictions totales d’outils d’IA en raison de préoccupations en matière de cybersécurité. Un nombre similaire, 30 %, ont déjà mis fin à des déploiements d’IA spécifiques au sein de leurs organisations.
Ce repli n’est pas un signe de luddisme, mais une réponse pragmatique à un problème croissant. Les entreprises sont déjà confrontées à des menaces complexes et hostiles, comme en témoignent des incidents de grande envergure tels que la récente violation de Harrods. Les CISO ont du mal à suivre le rythme, et l’ajout d’outils d’IA sophistiqués dans l’arsenal des attaquants est un défi que beaucoup estiment mal équipés pour relever.
Un fossé croissant en matière de préparation à la sécurité pour les plates-formes d’IA comme DeepSeek
Le cœur du problème avec des plates-formes comme DeepSeek réside dans leur potentiel à exposer des données sensibles d’entreprise et à être utilisé comme arme par des cybercriminels.
Trois CISO sur cinq (60 %) prévoient une augmentation directe des cyberattaques en raison de la prolifération de DeepSeek. Une proportion identique indique que la technologie entrave déjà leurs cadres de confidentialité et de gouvernance, rendant un travail déjà difficile presque impossible.
Cela a entraîné un changement de perspective. Autrefois considérée comme une solution miracle potentielle pour la cybersécurité, l’IA est désormais perçue par un nombre croissant de professionnels comme faisant partie du problème. L’enquête révèle que 42 % des CISO considèrent maintenant l’IA comme une menace plus grande qu’une aide à leurs efforts de défense.
Andy Ward, vice-président senior international d’Absolute Security, a déclaré : « Nos recherches mettent en lumière les risques importants posés par les nouveaux outils d’IA comme DeepSeek, qui transforment rapidement le paysage des menaces cybernétiques.
« Alors que les inquiétudes grandissent quant à leur potentiel d’accélération des attaques et de compromission de données sensibles, les organisations doivent agir dès maintenant pour renforcer leur résilience cybernétique et adapter leurs cadres de sécurité pour suivre le rythme de ces menaces alimentées par l’IA.
« C’est pourquoi quatre CISO sur cinq du Royaume-Uni demandent instamment une réglementation gouvernementale. Ils ont constaté à quelle vitesse cette technologie évolue et à quel point elle peut dépasser facilement les défenses de cybersécurité existantes. »
Le plus inquiétant est peut-être l’aveu d’impréparation. Près de la moitié (46 %) des hauts responsables de la sécurité avouent que leurs équipes ne sont pas prêtes à gérer les menaces uniques posées par les attaques pilotées par l’IA. Ils constatent que le développement d’outils comme DeepSeek dépasse leurs capacités défensives en temps réel, créant un dangereux fossé de vulnérabilité que beaucoup estiment ne pouvoir être comblé que par une intervention gouvernementale au niveau national.
« Il ne s’agit pas de risques hypothétiques », a poursuivi M. Ward. « Le fait que les organisations interdisent déjà complètement les outils d’IA et repensent leurs stratégies de sécurité en réponse aux risques posés par des LLM comme DeepSeek démontre l’urgence de la situation.
« Sans un cadre réglementaire national – qui établisse des directives claires sur la manière dont ces outils sont déployés, régis et surveillés – nous risquons des perturbations généralisées dans tous les secteurs de l’économie britannique. »
Les entreprises investissent pour éviter la crise liée à leur adoption de l’IA
Malgré cette posture défensive, les entreprises ne prévoient pas de se retirer complètement de l’IA. La réponse est davantage une pause stratégique qu’un arrêt définitif.
Les entreprises reconnaissent l’immense potentiel de l’IA et investissent activement pour l’adopter en toute sécurité. En fait, 84 % des organisations font de l’embauche de spécialistes en IA une priorité pour 2025.
Cet investissement s’étend jusqu’au sommet de l’échelle hiérarchique des entreprises. 80 % des entreprises se sont engagées à former leurs cadres supérieurs à l’IA. La stratégie semble être une approche à double face : perfectionner les compétences de la main-d’œuvre pour comprendre et gérer la technologie, et recruter les talents spécialisés nécessaires pour naviguer dans ses complexités.
L’espoir – et c’est un espoir, sinon une prière – est que la construction d’une solide base interne d’expertise en IA puisse servir de contrepoids aux menaces externes croissantes.
Le message du leadership en matière de sécurité du Royaume-Uni est clair : ils ne veulent pas bloquer l’innovation en matière d’IA, mais la rendre possible en toute sécurité. Pour ce faire, ils ont besoin d’un partenariat plus solide avec le gouvernement.
La voie à suivre implique d’établir des règles d’engagement claires, une surveillance gouvernementale, un pipeline de professionnels de l’IA qualifiés et une stratégie nationale cohérente pour gérer les risques potentiels pour la sécurité posés par DeepSeek et la prochaine génération d’outils d’IA puissants qui suivront inévitablement.
« Le temps du débat est révolu. Nous avons besoin d’une action immédiate, de politiques et de surveillance pour garantir que l’IA reste une force de progrès, et non un catalyseur de crise », conclut M. Ward.


