L’édito : L’IA doit être une solution et non une menace
Pour les abonnés payants:
La Tribune : Protéger la France contre les cyberattaques en 2025 : le rôle des MSSPs et de l'IA agentique
Études : 81 % des décideurs IT en France négligent la sécurité matérielle et firmware
A ne pas manquer sur le web : La police saisit des serveurs de forums de piratage crackés et annulés et arrête des suspects
Coup de semonce dans le monde de l’IA. Une startup chinoise a devancé les plus grands modèles de langage dans les tests réalisés par une brochette de chercheurs et d’institutions académiques. Le modèle R1 de DeepSeek a surpassé O1 de Open AI de quelques pouillème de pourcent sur des capacités de raisonnement mathématiques avancé ainsi que sur des tests de programmation. La surprise est surtout venue que R1 aurait été développé pour moins de six millions de dollars, soit trente fois moins cher qu’avec OpenAI. Certes l’histoire ne fait que commencer à s’écrire mais les débats sont déjà vifs et les récriminations des uns envers les autres animent les cafés du commerce IA de tous bords. Au-delà de toutes ces polémiques qui poussent les géants de la tech à recomposer leurs stratégies IA, un évènement est presque passé inaperçu, les cyberattaques à grande échelle qui ont touché DeepSeek. Démontrant à nouveau que le Security by design n’est pas forcément l’apanage des développeurs IA.
L’IA doit être une solution et non une menace
« IA for hackers », « IA for Defenders »... Les spécialistes de la sécurité ont à cœur d’insérer ces termes dans leurs discussions depuis la montée en puissance de l’IA générative. Certes les pirates n’ont pas mis beaucoup de temps pour adapter ces technologies à leurs stratégies d’attaques. Côté défense, si l’IA traditionnelle a permis de mettre au point des premiers protocoles de défense pour notamment repérer les signaux faibles des menaces, l’adoption a été plus longue. Une histoire de maturité. Quant aux développeurs de plateformes comme DeepSeek, la priorité donnée à l’innovation prend souvent le pas sur la prise en compte des vulnérabilités spécifiques aux modèles de langage. On ne répètera jamais assez que la sécurité doit être intégrée dès le début du développement et faire partie d’un processus de gestion continue pour anticiper et contrer les menaces. De la théorie au terrain il y a souvent un fossé. Et pourtant les menaces sont nombreuses.
Exploitation des données d'entraînement : Un attaquant pourrait manipuler les données d'entraînement pour biaiser le modèle ou introduire des comportements indésirables. Par exemple, il peut insérer des exemples malveillants qui influencent les décisions du modèle.
Attaques par empoisonnement de modèle (Model Poisoning) : En accédant aux données d'entraînement ou au processus d'entraînement, un attaquant pourrait injecter des modifications subtiles dans le modèle pour qu'il se comporte de manière erronée dans des contextes spécifiques.
Attaques par évasion (Evasion Attacks) : Cela consiste à générer des entrées spécifiquement conçues pour tromper le modèle. Un exemple typique serait de modifier des images pour qu'un modèle de reconnaissance les classe incorrectement.
Fuites d'informations sensibles : Les modèles peuvent, involontairement, mémoriser des données sensibles des utilisateurs ou des informations confidentielles qui pourraient être récupérées par des techniques d'inférence.
Vulnérabilités des interfaces API : Si DeepSeek offre une API pour interagir avec ses modèles, des faiblesses dans la gestion des requêtes pourraient permettre des attaques de type injection ou des attaques par déni de service (DoS), compromettant la disponibilité ou l'intégrité de la plateforme.
Pour se protéger dans un contexte où les plateformes d'IA/ML évoluent rapidement, les experts recommandent quelques bonnes pratiques de sécurité à adopter :
Mettre en place des audits de sécurité réguliers : Analyser le code, les modèles et les interfaces pour identifier les failles potentielles avant qu'elles ne soient exploitées.
Utiliser des données d'entraînement diversifiées et fiables : S'assurer que les données d'entraînement ne contiennent pas de biais ou d'éléments malveillants qui pourraient influencer négativement les modèles.
Implémenter des techniques de défense avancées : Adopter des techniques telles que l'apprentissage adversarial, qui consiste à entraîner les modèles sur des exemples qui les défient, afin d'améliorer leur robustesse.
Sécuriser les API et les points d'entrée : Limiter l'accès aux API, surveiller les requêtes pour détecter les anomalies, et mettre en place des mécanismes de protection contre les attaques par déni de service.
Adopter une approche de sécurité "zero trust" : Ne pas présumer que les utilisateurs ou les processus internes sont automatiquement fiables. Vérifier et contrôler strictement chaque accès et chaque action.
Sensibiliser les équipes : Former les développeurs, les ingénieurs, et les utilisateurs finaux sur les risques de sécurité spécifiques aux technologies d'IA/ML pour qu'ils puissent reconnaître les signes d'une attaque.
...
BFM Business Cybersécurité
BFM Business Cybersécurité
Par Frédéric Simottel
Frédéric SIMOTTEL, est éditorialiste High-Tech sur BFM BUSINESS et BFMTV. Il est également rédacteur en chef de l’éditorial de l’ensemble des évènements organisés par BFM Business (BFM Awards, Grands prix de l’accélération digitale, hors séries BFM, etc). Il présente aussi chaque week-end sur BFM Business les émissions « Tech & Co Business », un programme sur la transformation numérique des entreprises, « BFM Stratégie », un cours sur la stratégie des entreprises avec Xavier Fontanet, ancien PDG d’Essilor. Il traite également des sujets high tech chaque jour dans les journaux de l'antenne et intervient quotidiennement dans l’émission du soir « Tech & Co » sur BFM Business. Il intervient enfin sur BFM TV & RMC sur les sujets liés aux technologies. Ingénieur télécoms et réseaux de formation, ce journaliste spécialisé occupe depuis plus de 28 ans une position privilégiée en tant qu’observateur du marché high-tech. Parmi ses sujets de prédilection figurent la stratégie digitale des entreprises, l’évolution de l’écosystème IT, la cybersécurité, l’univers des startups et plus globalement les changements provoqués par l’innovation numérique (IA, Cloud, Infrastructures IT et réseaux, télécoms, mobilité, électroniques embarquée, quantique, etc). Autant de sujets dont ils se fait l’écho sur les différents canaux du groupe Altice Media (Web, TV, radio et évènements). Il intervient enfin depuis de nombreuses années en tant que keynote speaker ou animateur lors d’évènements portant sur l’innovation, le business et les technologies numériques.