Croissance et prolifération des données
Les entreprises sont confrontées aux grands défis de la prolifération continue des données. Gérer cette prolifération en périphérie offre aux entreprises une opportunité de mieux exploiter leurs ensembles de données en continuelle expansion.
Face à l'augmentation sans précédent de la création de données, les entreprises sont mises au défi de trouver de nouvelles manières de gérer des volumes croissants d'informations tout en les utilisant pour améliorer leurs résultats commerciaux. Ce flux constant de données provient de sources telles que les capteurs industriels, les smartphones grand public et les appareils connectés IoT (Internet of Things, Internet des objets) en périphérie. La manière dont les entreprises gèrent la croissance et la prolifération des données est absolument déterminante pour leur réussite future.
Comme le relève le rapport Rethink Data (Repenser les données), le volume, les sources et le trafic des données augmentent plus vite que la capacité de beaucoup d'entreprises à les gérer. Mais gérer le flux croissant de données nécessite de comprendre la manière dont les réseaux évoluent. Les entreprises doivent comprendre comment les données en périphérie s'intègrent dans l'écosystème informatique actuel.
La croissance de données est le pourcentage d'augmentation de la sphère de données globale dans le temps. Cela comprend chaque source de données. La prolifération des données désigne le nombre de centre de données et de sites de traitement, ainsi que l'extension géographique des données. La prolifération s'observe dans diverses configurations : des terminaux aux clouds publics et privés en passant par l'informatique en périphérie.
Au cours des prochaines années, trois facteurs essentiels contribueront à la croissance et la prolifération des données. Le premier est l'utilisation croissante de l'analytique. Les applications d'analyse commerciale et d'intelligence artificielle (IA) ne sont que deux exemples d'outils d'analytique qui exigent une augmentation des données dans divers emplacements. Le deuxième facteur est la prolifération des appareils IoT entraînant une augmentation du nombre de sources de données, et un accroissement du trafic de données vers une infrastructure centrale telle que des serveurs sur site ou cloud. Enfin, les programmes de migration dans le cloud ont pour effet de transférer des informations qui, sans quoi, existeraient sur des appareils ou des disques locaux dans des serveurs centralisés de cloud public et de centres de données de cloud privé à des fins d'accessibilité et d'analyse.
La pression croissante à laquelle est soumise l'infrastructure informatique des entreprises reflète la manière dont le développement de l'analytique, de l'IoT, et des données en mouvement conduit naturellement à une plus grande prolifération des données. Le rapport Rethink Data de Seagate montre comment à la fois la prolifération et la fragmentation sont en hausse.
Aujourd'hui, environ 30 % des données sont stockées dans des centres de données internes, 20 % dans des centres de données de tiers et 19 % en périphérie. Enfin, les 30% restants sont stockés dans des dépôts de données ou d'autres emplacements. Cette répartition ne changera probablement pas dans les deux prochaines années, ce qui signifie que les environnements de stockage des entreprises resteront dispersés à moyen terme.
Une fois que les entreprises auront clairement compris la manière dont les quantités et les sites de données se multiplient, elles pourront commencer à développer des stratégies de gestion englobant toutes les sources de données, y compris la périphérie.
La périphérie n'est pas une chose, c'est un lieu. La périphérie désigne la limite externe du réseau, c'est-à-dire le lieu où s'effectue la prise de décision en temps réel. La périphérie est située le plus près possible de la source de données réelle, qui se trouve souvent à des centaines ou des milliers de kilomètres du centre de données d'entreprise ou cloud le plus proche.
Le rapport Rethink Data note que, parallèlement à la prolifération des sources de données en périphérie, on observe également la présence de plus en plus répandue d'appareils connectés et de capteurs, des chaînes de fabrication industrielle aux immeubles de bureaux. L'informatique en périphérie a été dans un premier temps vue comme « un retour de balancier décentralisé », a déclaré Bob Gill, vice-président de recherche chez Gartner, dans un rapport de 2018. Selon Bob Gill, la décentralisation via l'informatique en périphérie permettait de résoudre deux problèmes essentiels du cloud : le coût et la latence. Le traitement en périphérie peut être plus rapide lorsque les données ne doivent pas être transférées vers ou depuis un serveur cloud. De plus, dans de nombreux cas, il peut également être plus économique. Cela signifie pour les entreprises qu'elles peuvent exploiter une partie de la valeur analytique des données en périphérie à la périphérie, pour la prise de décision en temps réel, avant de les transférer vers des centres de données centralisés ou cloud, pour une exploitation plus approfondie.
Grâce aux milliards d'appareils IoT présents dans le monde, les capacités de collecte de données se développent de manière exponentielle. Parallèlement, les avancées réalisées dans les domaines des logiciels et des matériels ont rendu l'IA plus pratique à utiliser, plus économique et plus accessible à l'entreprise moyenne. Les innovations concernant les sites de centres de données en périphérie ont également permis aux entreprises d'exploiter des quantités considérables de valeur en périphérie.
Cependant, pour que les entreprises puissent tirer pleinement parti de la valeur des données, elles doivent être capables non seulement de recueillir, de stocker et de traiter les données en périphérie, mais également de transférer de plus grandes quantités de données de la périphérie vers les centres de données centralisés.
À mesure que s'intensifieront la croissance et la prolifération des données en dehors du centre de données traditionnel, le cloud commencera à fusionner avec la périphérie. Comme le souligne le rapport Rethink Data, la conception selon laquelle les données en périphérie sont destinées à être stockées seulement pour une courte période, jusqu'à ce qu'elles soient analysées ou traitées, avant le transfert des données pertinentes vers l'emplacement centralisé, ne signifie pas pour l'avenir une compétition entre le cloud et la périphérie. Au contraire, il s'agit plutôt d'une synergie entre le cloud et la périphérie.
Le stockage des données en périphérie a connu une croissance plus rapide que le stockage centralisé. Parallèlement, toutefois, le volume de données que les organisations transfèrent de la périphérie vers le centre devrait passer de 8 à 16 % au cours des deux prochaines années.
Afin de gérer cette augmentation du traitement des données en périphérie, à la fois à la périphérie et ensuite dans des centres de données centralisés, les plans de gestion de l'information doivent simplifier et accélérer les transmissions de données de bout en bout. La mobilité des données doit être facilitée au niveau des terminaux, de la périphérie et des clouds privés, publics et sectoriels.
Pour éviter que les données ne se trouvent compartimentées en silos ou qu'elles ne deviennent inaccessibles pour les grandes infrastructures de données d'entreprise, les entreprises doivent gérer et organiser le stockage des données à la périphérie. La périphérie peut être particulièrement susceptible de générer la formation de silos, si le trafic provenant des terminaux n'est pas correctement coordonné.
Mais les avantages des données et de l'informatique en périphérie sont considérables. En particulier, grâce à cette approche, une quantité plus importante d'informations peut être collectée et traitée pour une analyse approfondie par des logiciels d'IA et d'analyse qu'avec un modèle dédié uniquement à une infrastructure de centres de données cloud ou sur site.
Afin de gérer plus facilement la croissance et la prolifération des données en périphérie, les entreprises devront utiliser une architecture de périphérie capable de prendre en charge en temps réel le stockage et l'analyse des informations sensibles à la latence. Une telle architecture rendra également possible l'informatique distribuée pour l'analyse des données en continu provenant de la périphérie.
Comme le souligne le rapport Rethink Data, l'innovation n'est pas le fruit de tendances. C'est la nécessité de créer de la valeur en dépassant les contraintes qui favorise l'émergence de nouvelles solutions. Et c'est précisément ce rôle moteur que jouent la croissance et la prolifération des données en périphérie pour les entreprises et leurs partenaires informatiques. Les entreprises peuvent anticiper une croissance sans précédent des données due à l'augmentation massive du nombre d'appareils IoT et à l'utilisation accrue d'outils d'analyses commerciales et d'IA. Pour commencer à gérer et exploiter cette croissance et cette prolifération, les entreprises ont besoin d'un plan de gestion des données solide et d'un environnement technologique économique. Ceux-ci doivent permettre un transfert facile des données entre la périphérie et le centre, au moment requis, en fonction de la valeur à extraire de ces données.
Pour en savoir plus sur la manière dont les entreprises peuvent mieux exploiter leurs données métier disponibles, lisez l'intégralité du rapport Rethink Data de Seagate.