Cyberattaque ou panne informatique ? Comment faire la différence avant qu’il ne soit trop tard
Introduction
Face à un service qui rame, des partages de fichiers inaccessibles ou des utilisateurs qui ne parviennent plus à s’authentifier, beaucoup d’entreprises hésitent : panne ou attaque ? Cette confusion coûte cher. Une panne se règle avec des gestes techniques classiques. Une attaque, elle, exige une réaction immédiate, documentée et coordonnée — isoler, préserver les preuves, activer la chaîne d’escalade. Dans cet article, on vous donne des critères simples, un arbre de décision et un protocole des 10 premières minutes pour réduire le risque.
1) Pourquoi on confond encore en 2025
- Les symptômes se ressemblent (indisponibilités, lenteurs, erreurs d’authentification).
- Les environnements sont hybrides (on-prem + cloud) : une défaillance côté SaaS peut imiter une attaque locale.
- Les campagnes d’attaque sont industrialisées et silencieuses (mouvements latéraux, exfiltration low-and-slow).
- Les équipes IT ne sont pas toujours formées à la gestion d’incident sécurité (IR) et mélangent correctifs classiques et actions forensiques.
À retenir : si vous appliquez des correctifs « panne » à une attaque active, vous risquez d’effacer des preuves, d’alerter l’attaquant… et d’aggraver l’impact.
2) 10 signaux qui orientent vers une cyberattaque
- Fichiers chiffrés / extensions anormales / notes de rançon.
- Appels réseau sortants inhabituels (pics de trafic vers l’étranger, ports atypiques).
- Comptes avec élévation de privilèges récents, non justifiés.
- Multiples échecs d’authentification (ou MFA « fatigue », rafales de prompts).
- Outils de sécurité désactivés (EDR, antivirus, journaux coupés).
- Tâches planifiées ou scripts inconnus apparus récemment.
- Création/usage de comptes « backdoor ».
- Hashes/processus correspondant à des familles connues de malwares.
- Alertes corrélées (EDR, pare-feu, portail mail) sur une même période.
- Tentatives de suppression de sauvegardes ou d’instantanés.
3) 10 signaux qui orientent vers une panne
- Changement programmé (maintenance, mise à jour réseau).
- Logs de service indiquant un crash applicatif reproductible.
- Saturation matérielle (CPU/mémoire/disque) corrélée à une charge légitime.
- Équipement réseau défaillant (alimentation, ventilateurs, ports).
- Certificat expiré ou DNS mal propagé.
- Quota atteint (boîtes mail, stockage).
- Incident côté fournisseur cloud/SaaS public.
- Erreur humaine documentée (mauvaise règle ACL, route).
- Aucune élévation de privilège ni tentative d’accès suspecte.
- État « propre » des agents de sécurité (EDR, SIEM, journaux complets).
4) L’arbre de décision en 3 étapes (ultra-pratique)
Étape A — Isoler & observer (5 minutes)
- Segmenter/vlaner le poste/serveur suspect sans couper l’alimentation.
- Geler les actions utilisateurs, ne pas redémarrer.
- Photographier l’écran, noter l’heure exacte, préserver la RAM si outillage présent.
Étape B — Qualifier (5 à 15 minutes)
- Vérifier logs d’authentification et EDR : pics d’échecs, nouveaux privilèges, services stoppés.
- Relever connexions sortantes anormales (pays, ports, volume).
- Rechercher indicateurs de compromission (hash, noms de tâches, clés de registre, artefacts connus).
Étape C — Décider
- ≥1 IOC fort + activité anormale ? Traiter comme attaque.
- Aucun IOC, cause technique claire et reproductible ? Orientation panne.
- Doute ? Traiter comme attaque et escalader vers le SOC.
5) MTTD & MTTR : les métriques qui sauvent votre ROI
- MTTD (Mean Time To Detect) : temps de détection.
- MTTR (Mean Time To Respond/Recover) : temps de réponse/retour à la normale.
- Objectif PME : réduire MTTD avec un SOC managé (surveillance 24/7, corrélation) et standardiser la réponse pour comprimer le MTTR (procédures, automatisation, playbooks).
6) Le protocole des 10 premières minutes (à coller au mur)
- Isoler le périmètre affecté (réseau/port/sous-réseau).
- Interdire les redémarrages sauvages.
- Photographier/filmer l’écran si messages d’erreur/rançon.
- Capturer l’heure, l’utilisateur, l’hôte, l’IP.
- Préserver les journaux (SIEM, pare-feu, EDR).
- Appeler la cellule de crise (IT + direction + correspondant légal).
- Noter tous les gestes réalisés (pour le rapport).
- Vérifier l’intégrité des sauvegardes déconnectées.
- Prévenir le SOC / prestataire sécurité.
- Préparer la communication interne (éviter la panique et les fuites d’info).
7) Gouvernance & preuves
- Un registre d’incident (IRIS/équivalent) centralise faits, horodatage, décisions.
- Preuves : copies de journaux, artefacts, captures d’écran, hachages.
- Conformité : RGPD (violation potentielle de données ?), délais de notification (CNIL, clients) si impact confirmé.
Conclusion
- La règle d’or : en cas de doute, traitez comme une attaque. Une panne supporte l’investigation, une attaque n’attend pas. Standardisez vos gestes, mesurez MTTD/MTTR, entraînez-vous.
Articles recommandés
Comment Cyberhack accompagne les PME vers la conformité RGPD et NIS2
Phishing 2025 : pourquoi les e-mails deviennent (presque) impossibles à reconnaître