Optimiser les analyses de sécurité sur des serveurs : un équilibre nécessaire entre performance et protection des données
Dans le cadre professionnel, les analyses de sécurité des disques durs des ordinateurs de travail s’effectuent généralement de manière automatique et sans interruption. Toutefois, la situation se complique lorsqu’il s’agit de serveurs stockant des téraoctets de données, en particulier lors d’une analyse d’urgence suite à un incident de sécurité. Dans de tels cas, il est essentiel d’assurer la sécurité des données tout en préservant la performance du système.
Voici plusieurs stratégies pour optimiser les analyses de grandes quantités de données, minimisant ainsi les risques et les temps d’exécution.
1. Préparation avant l’analyse
Avant d’initier une analyse massive du stockage, il est crucial de réaliser certaines vérifications préliminaires pour éviter les erreurs et améliorer l’efficacité du processus.
Vérification de l’infrastructure :
- S’assurer que le système d’exploitation est à jour et compatible avec l’infrastructure de stockage.
- Confirmer que le serveur qui exécutera l’analyse possède un processeur multicœur puissant, suffisamment de mémoire RAM et un espace de stockage rapide pour les fichiers temporaires.
- Garantir une connexion rapide aux disques via des interfaces de haute performance, de préférence de type SAN (Storage Area Network).
Contrôle des sauvegardes :
Bien qu’une analyse ne devrait pas modifier les données stockées, il est toujours recommandé de disposer d’une sauvegarde récente :
- Vérifier la date et l’état des sauvegardes les plus récentes.
- Évaluer la possibilité d’effectuer une nouvelle sauvegarde avant l’analyse si aucune version récente n’est disponible.
- Confirmer que les procédures de récupération de données ont été testées et fonctionnent correctement.
Analyse des types de données stockées :
Le type de données impacte également sur l’analyse. Si les disques contiennent :
- Des fichiers hétérogènes et compressés, ils nécessiteront plus de ressources, chaque fichier devant être analysé individuellement.
- De grands volumes de fichiers dans des formats sécurisés (vidéos, bases de données, sauvegardes intactes), la charge sera moins importante et des exclusions spécifiques peuvent être appliquées.
2. Configuration de l’analyse
Planification stratégique de l’analyse :
Pour éviter d’affecter l’opérabilité de l’entreprise, il est recommandé de programmer l’analyse aux heures de faible activité, comme durant la nuit ou les week-ends. Si cela n’est pas possible, il est essentiel d’informer les utilisateurs d’une éventuelle lenteur du système.
Espace disque et quarantaine :
- Vérifier qu’il y a suffisamment d’espace disque libre pour les fichiers temporaires et pour la quarantaine en cas de fichiers infectés.
- Ajuster les limites de stockage de la quarantaine pour éviter la suppression de fichiers en cas de détection massive de menaces.
Optimisation des exclusions :
Pour réduire le temps de l’analyse sans compromettre la sécurité, il est recommandé d’exclure :
- Des fichiers extrêmement volumineux (plusieurs gigaoctets).
- Des distributions de logiciels et des sauvegardes qui n’ont pas été modifiées depuis la dernière analyse.
- Des fichiers non exécutables, tout en restant prudent, car certains fichiers texte ou images peuvent contenir des éléments malveillants.
Il est également conseillé de supprimer les fichiers temporaires et les dossiers inutiles avant l’analyse afin d’éviter de perdre du temps à analyser des données non pertinentes.
3. Ajustements clés pour améliorer les performances
Les configurations d’analyse peuvent être optimisées en fonction de la charge du système et de la priorité sécuritaire :
- Attribution des ressources : Si le serveur n’est pas utilisé pendant l’analyse, il est possible de consacrer jusqu’à 80 % de la CPU et de la mémoire. Si le serveur doit continuer à fonctionner, ce pourcentage doit être considérablement réduit.
- Activation des technologies d’optimisation : Des fonctionnalités comme iChecker et iSwift permettent de passer outre les fichiers qui n’ont pas changé depuis la dernière analyse.
- Éviter les demandes de mot de passe pour les fichiers protégés : Si l’analyse s’interrompt faute d’une clé d’accès à des fichiers compressés, cela peut générer des blocages inutiles.
- Configurer l’analyse heuristique à un niveau moyen : Cela permet de détecter les menaces sans surcharger excessivement le système.
- Établir un journal détaillé des événements : Pour identifier les problèmes, le log doit contenir des informations claires sur les fichiers analysés et les résultats.
4. Exécution de l’analyse et supervision en temps réel
Avant de réaliser une analyse complète, il est conseillé de procéder à un test avec une petite partition (ne dépassant pas un téraoctet) pour évaluer :
- Le temps estimé d’exécution.
- L’impact sur les performances du serveur.
- Les éventuelles erreurs dans le log.
Si le test prend trop de temps, il est possible de consulter les journaux pour identifier les goulets d’étranglement et ajuster les configurations avant de procéder à une analyse plus large.
Pour les grandes quantités de données, il est préférable de diviser l’analyse en plusieurs tâches distinctes par disques ou répertoires. Cela permet :
- D’effectuer des analyses en parallèle si l’infrastructure le permet.
- De réduire le risque d’interruptions en cas d’échec d’une analyse.
- D’optimiser la gestion des ressources pour éviter des surcharges sur le système.
Durant l’exécution de l’analyse, il est essentiel de surveiller le performance du système en temps réel et rester attentif à toute anomalie nécessitant une intervention immédiate.
Conclusion : Équilibrer sécurité et performance
L’analyse de grandes quantités de données à la recherche de malwares est un processus critique qui doit être réalisé avec planification et optimisation pour éviter d’impacter la performance de l’entreprise. En appliquant ces étapes, les organisations peuvent maintenir la sécurité de leur stockage sans compromettre l’opérabilité de leurs systèmes.
Avec la combinaison d’une infrastructure adéquate, d’ajustements optimisés et d’une exécution contrôlée, il est possible de détecter et de mitiger les menaces sans engendrer de temps d’arrêt inutiles. Dans un environnement où les données sont l’atout le plus précieux, garantir leur protection sans sacrifier la performance est la clé du succès.
Comment scanner de grands volumes de stockage à la recherche de malware sans affecter les performances
Optimiser les analyses de sécurité sur des serveurs : un équilibre nécessaire entre performance et protection des données
Dans le cadre professionnel, les analyses de sécurité des disques durs des ordinateurs de travail s’effectuent généralement de manière automatique et sans interruption. Toutefois, la situation se complique lorsqu’il s’agit de serveurs stockant des téraoctets de données, en particulier lors d’une analyse d’urgence suite à un incident de sécurité. Dans de tels cas, il est essentiel d’assurer la sécurité des données tout en préservant la performance du système.
Voici plusieurs stratégies pour optimiser les analyses de grandes quantités de données, minimisant ainsi les risques et les temps d’exécution.
1. Préparation avant l’analyse
Avant d’initier une analyse massive du stockage, il est crucial de réaliser certaines vérifications préliminaires pour éviter les erreurs et améliorer l’efficacité du processus.
Vérification de l’infrastructure :
Contrôle des sauvegardes :
Bien qu’une analyse ne devrait pas modifier les données stockées, il est toujours recommandé de disposer d’une sauvegarde récente :
Analyse des types de données stockées :
Le type de données impacte également sur l’analyse. Si les disques contiennent :
2. Configuration de l’analyse
Planification stratégique de l’analyse :
Pour éviter d’affecter l’opérabilité de l’entreprise, il est recommandé de programmer l’analyse aux heures de faible activité, comme durant la nuit ou les week-ends. Si cela n’est pas possible, il est essentiel d’informer les utilisateurs d’une éventuelle lenteur du système.
Espace disque et quarantaine :
Optimisation des exclusions :
Pour réduire le temps de l’analyse sans compromettre la sécurité, il est recommandé d’exclure :
Il est également conseillé de supprimer les fichiers temporaires et les dossiers inutiles avant l’analyse afin d’éviter de perdre du temps à analyser des données non pertinentes.
3. Ajustements clés pour améliorer les performances
Les configurations d’analyse peuvent être optimisées en fonction de la charge du système et de la priorité sécuritaire :
4. Exécution de l’analyse et supervision en temps réel
Avant de réaliser une analyse complète, il est conseillé de procéder à un test avec une petite partition (ne dépassant pas un téraoctet) pour évaluer :
Si le test prend trop de temps, il est possible de consulter les journaux pour identifier les goulets d’étranglement et ajuster les configurations avant de procéder à une analyse plus large.
Pour les grandes quantités de données, il est préférable de diviser l’analyse en plusieurs tâches distinctes par disques ou répertoires. Cela permet :
Durant l’exécution de l’analyse, il est essentiel de surveiller le performance du système en temps réel et rester attentif à toute anomalie nécessitant une intervention immédiate.
Conclusion : Équilibrer sécurité et performance
L’analyse de grandes quantités de données à la recherche de malwares est un processus critique qui doit être réalisé avec planification et optimisation pour éviter d’impacter la performance de l’entreprise. En appliquant ces étapes, les organisations peuvent maintenir la sécurité de leur stockage sans compromettre l’opérabilité de leurs systèmes.
Avec la combinaison d’une infrastructure adéquate, d’ajustements optimisés et d’une exécution contrôlée, il est possible de détecter et de mitiger les menaces sans engendrer de temps d’arrêt inutiles. Dans un environnement où les données sont l’atout le plus précieux, garantir leur protection sans sacrifier la performance est la clé du succès.
Info Cloud
le dernier
AMD présente les processeurs intégrés AMD EPYC de 5e génération
Hetzner mise sur les énergies renouvelables avec la création de HT Clean Energy GmbH
Comment scanner de grands volumes de stockage à la recherche de malware sans affecter les performances
Vibrations Ultramarines : Les Fréquences selon l’Arcep
Microsoft ouvre un nouveau Hub de Ventes Digitales à Barcelone
Lightwave Logic et Polariton Technologies renforcent leur alliance pour accélérer la prochaine génération de liaisons optiques dans les centres de données et les applications d’IA.