En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d’intérêts.FERMER  x
Pour en savoir plus et paramétrer les cookies...

Votre réseau est-il prêt pour la gestion du big data ?

laisser un avis
La plupart des organisations sont assises sur des montagnes de données historiques dont elles ont notamment besoin pour des raisons comptables et fiduciaires ou pour des questions de compatibilité. Une chaine de grande distribution, par exemple, garde la trace de ses ventes : d’une part pour sa comptabilité et pour la gestion de ses stocks d’autre part.
Si un grand nombre de ses clients sont détenteurs d’une carte de fidélité, il est possible qu’elle détienne également de nombreux détails personnels sur ces derniers comme leur âge, leur niveau d’éducation, etc. Il devient alors possible d’interroger la base de données pour analyser les comportements d’achats et les évolutions de la mode, par exemple.

Ce siècle est témoin d’une augmentation exponentielle du traitement de l’énergie, comme le prédisait la Loi de Moore, mais également d’une augmentation massive de la vitesse de transmission des données et de la vitesse d’accès aux données stockées, ce qui nous propulse dans une nouvelle ère de prise de décisions décrite par le terme « big aata » (ensemble de données très volumineuses ne pouvant pas être traitées avec de simples outils de gestion).

Le principal attrait de ces données est le suivant : l’entreprise est assise sur une énorme quantité de données qu’elle peut choisir de conserver comme simples archives dans un but commercial ou légal, ou au contraire, d’utiliser comme une véritable mine d’or de renseignements sur le marché. Le « big data » peut donner à l’entreprise l’avantage sur ses concurrents et laisser les PME détenant moins de ressources bien loin derrière elles.

Les ressources nécessaires à la gestion du big data

L’utilité du big data dépend de trois facteurs. Premièrement : si les personnes décisionnaires n’ont pas la sagesse ou l’expérience nécessaire pour prendre de bonnes décisions en fonction de ce qu’ils observent, le big data ne sera qu’une perte de temps et d’argent.

Deuxièmement, si les personnes effectuant les recherches ne savent pas quels types d’analyses fourniront des informations réellement utiles ou comment procéder à des analyses valables, alors toute l’opération ne fera que noyer le processus de décision sous une masse de faits au mieux sans pertinence, au pire totalement trompeurs.

La troisième et dernière condition est la plus importante : l’organisation possède-t-elle les ressources informatiques indispensables à la gestion du big data ? En assumant que les données brutes nécessaires aient déjà été rassemblées et stockées, la question est de savoir si l’organisation est capable d’y accéder d’une part, et de les analyser suffisamment rapidement pour être utile aux personnes décisionnaires d’autre part ?

« Assez vite » est un terme tout à fait relatif, et les applications clefs ne doivent pas forcément être des applications à très haute fréquence de transmission. Le système de santé, par exemple, implique des pressions de l’ordre de « vie ou de mort » et les scanners à haute définition actuels fournissent des montagnes de données qui doivent pouvoir être distribuées à travers le monde à un grand nombre de spécialistes pour pouvoir bénéficier de leurs analyses.
De telles données, cependant, sont normalement transmises durant la nuit pour éviter de monopoliser la bande passante pendant la journée et cela est généralement acceptable dans ce qui représente pourtant un secteur extrêmement critique.
D’un autre côté, certains sont tentés de réduire l’utilisation du terme « big data » à des systèmes utilisant un stockage à circuits intégrés à haute capacité, pour un accès aux données le plus rapide possible et avec le moins de latence possible, et un traitement massivement parallèle (MPP) pour pouvoir fournir des données en temps réel ou presque. Le traitement des données à une telle vitesse peut être tout à fait être approprié pour certaines applications comme les transactions financières ou les décisions militaires, mais tous les services ne sont pas si sensibles à l’urgence.
Si les données de l’organisation sont conservées sur des disques mobiles répartis à travers tout un réseau de stockage SAN, cela engendre des latences qui peuvent paraitre insignifiantes sur une transaction unique, mais peuvent vite devenir importantes au fur et à mesure que le nombre de demandes d’accès augmente durant une analyse plus poussée des données. Si vous recueillez des données en temps réel sur un réseau WAN, cela dictera la vitesse d’accessibilité des données. Et si le traitement des données est lui-même distribué entre plusieurs centres de données, cela peut avoir un réel impact sur le temps d’analyse réel.

Le réseau va-t-il planter ou seulement ralentir ?

La migration du simple stockage de données historiques dans un but organisationnel vers le traitement de ces ressources comme étant du big data peut entrainer une modification massive du mouvement des données sur le réseau et éventuellement avoir des conséquences inattendues.
Un  prérequis indispensable à toute exploitation planifiée du big data est de tester le système pour voir s’il sera capable de fournir les données de manière suffisamment rapide et fiable sous toute une gamme de conditions d’exploitation les plus réalistes possibles. A moins que l’exploitation du big data soit séparée du reste du réseau, il sera également vital de tester pour voir l’impact qu’elle aura : d’autres processus en court vont-ils « planter » ou le réseau sera-t-il seulement ralenti au détriment d’autres utilisateurs ?

Il y a inévitablement beaucoup d’inconnues lorsque l’on se lance dans une nouvelle aventure comme celle-ci. De nombreux tests seront nécessaires, de même qu’une grande flexibilité permettant d’ajuster tous les paramètres d’exploitation et, dans le cas d’un test défaillant, de réinitialiser le système et de tout recommencer. Cela requiert des méthodologies de tests à la fois sophistiquées et automatisées qui permettent de couvrir la totalité des nombreuses variables possibles.

Heureusement, la meilleure technologie de test réseau actuelle est capable de fournir tout cela via une interface utilisateur graphique très simple qui permet à des tests sophistiqués d’être à la fois mis en place rapidement (sans avoir besoin des compétences de spécialistes du chiffrage), gardés en mémoire et lancés automatiquement pour une mise à l’épreuve cohérente du réseau à travers toute une série de tests.

Modéliser des types de trafics vraiment réalistes requiert plus qu’une simple injection de données aléatoires : les meilleurs outils de tests vont en effet recréer l’état du niveau applicatif réel, la modélisation des cookies, les sessions d’identification, les traductions NAT d’adresses IP, les modifications engendrées par l’ALG, les défis d’authentification, les lenteurs et les checksums.
Et, lorsque les réseaux testés sont encombrés dans le cadre d’une exploitation normale, des algorithmes spécifiques vont simuler le flux TCP et le contrôle des congestions, changeant ainsi à la fois le comportement de l’outil de test et de la cible. Les meilleurs outils de tests sont en effet conçus pour se comporter exactement de la même manière qu’un client réel le ferait dans les mêmes circonstances.

Opérer une transition d’une très grande base de données vers des ressources big data, c’est un peu comme demander à un employé de bureau sédentaire de se lever et de prendre part à un marathon : ce n’est pas une chose impossible, mais cela dépend de la manière dont on va tester l’état physique de l’employé et planifier avec discernement un entrainement adapté pour qu’il puisse remplir son nouveau rôle avec succès.

Sans l’utilisation des meilleures solutions et méthodes de tests, la migration vers le  big data serait un peu comme se risquer à sauter dans le vide sans savoir où et comment l’on va atterrir.
Crédit photos : Google.

Daryl Cornelius, directeur de Spirent pour la région EMEA

agrandir la photo

Daryl Cornelius est directeur de Spirent pour la région EMEA. Il est également membre de l’équipe de Spirent pour les fusions et acquisitions. Daryl a rejoint Spirent Communications au printemps 2004 en tant que directeur d'affaires sur le marché des entreprises émergentes. Il avait  travaillé auparavant chez InterNetwork AG où il était Business Development Manager Emea, start up liée à l’environnement avec une technologie dérivée du laboratoire de la Deutsche Telecom à Ulm.

envoyer
par mail
imprimer
l'article
@01Business_fr sur
à lire aussi
SUR LES MÊMES THÈMES
Comment rater son projet big data en 12 leçons
Le big data est difficilement soluble dans les organisations traditionnelles
Hadoop est en passe de détrôner le datawarehouse traditionnel
IBM se sert du big data pour lutter contre la fraude
Le big data fait un tabac au concours mondial de l’innovation
Spécialiste du big data, Cloudera lève 160 millions de dollars
Les objets connectés, cheval de Troie du big data ?
Big data, sécurité et mobile : le tiercé gagnant du CeBIT 2014
Axa et Withings lancent un appel à projets pour les startups des objets connectés
A côté de la DSI, le marketing mérite sa propre plateforme digitale
Les grands distributeurs, ces précurseurs du big data
Big Data ou comment la technologie se met au service des métiers
Les salaires des spécialistes du big data s’envolent
01 Replay : Les nouveaux enjeux du big data
Municipales : NKM veut faire de Paris la capitale de l'open et du big data
Legrand rachète Lastar, spécialiste américain du câblage
IBM met le big data au service des RH
L'Inria dévoile ses projets d'interfaces homme-machine
Bull table sur le cloud et le big data pour améliorer sa rentabilité
La Chine prépare déjà la 5G