Gestion des données

Qu'est-ce qu'un Edge Data Fabric ?

Actian Corporation

31 janvier 2022

tissu de données de bord

Qu'est-ce qu'un Edge Data Fabric ?

Une structure de données est une architecture de données, des pratiques de gestion et des politiques visant à fournir un ensemble de services de données qui couvrent tous ces domaines et points finaux. Les structures de données fournissent ce cadre. Elles servent essentiellement de traducteur et de tuyauterie pour les données sous toutes leurs formes, où qu'elles se trouvent et où qu'elles doivent aller, indépendamment du fait que le consommateur de données soit un humain ou une machine.

Les data fabrics ne sont pas tout à fait nouveaux, mais ils font soudainement l'objet d'une grande attention dans le domaine de l'informatique ces jours-ci, alors que les entreprises évoluent vers le multi-cloud et la périphérie. En effet, les entreprises ont désespérément besoin d'un cadre pour gérer les données, les déplacer, les sécuriser, les préparer, les gérer et les intégrer dans les systèmes informatiques.

Les tissus de données sont apparus au milieu des années 2000, lorsque l'informatique a commencé à se répandre des centres de données vers le nuage. Elles sont devenues plus populaires lorsque les entreprises ont adopté les nuages hybrides et, aujourd'hui, les structures de données contribuent à réduire les complexités liées aux flux de données se déplaçant vers et depuis la périphérie du réseau. Aujourd'hui, les tissus de données contribuent à réduire les complexités liées aux flux de données circulant vers et depuis la périphérie du réseau. Mais les règles du jeu ont changé : la périphérie du réseau est désormais l'IdO, collectivement appelé "la périphérie".

Ce qui est différent, c'est l'endroit d'où émaneront les données et leur fluidité. En d'autres termes, le mobile et l'IdO - la périphérie - seront à l'origine de la création de données. En outre, le traitement et l'analyse se produiront à différents endroits, sur l'appareil, au niveau des passerelles et dans le nuage. Peut-être serait-il préférable de parler de données distribuées fluides plutôt que de Big Data?

Quoi qu'il en soit, plus de données se traduit en fin de compte par plus d'opportunités commerciales viables - d'autant plus que ces nouvelles données sont générées au point d'action par les humains et les machines. Pour tirer pleinement parti des quantités croissantes de données dont elles disposent, les entreprises ont besoin d'un moyen de les gérer plus efficacement sur l'ensemble des plateformes, de la périphérie au nuage et vice-versa. Elles doivent traiter, stocker et optimiser différents types de données provenant de différentes sources avec différents niveaux de propreté et de validité afin de pouvoir les connecter aux applications internes et appliquer la logique des processus métier, de plus en plus aidées par l'intelligence artificielle et les modèles d'apprentissage automatique.

Le défi est de taille. L'une des solutions que les entreprises recherchent actuellement est l'adoption d'une structure de données. Et comme les volumes de données continuent d'augmenter à la périphérie du réseau, cette solution évoluera encore pour devenir ce que l'on appelle plus communément un tissu de données à la périphérie.

Comment la Data Fabric s'applique à la périphérie

L'informatique en périphérie présente un ensemble unique de défis pour les données générées et traitées en dehors du cœur du réseau. Les dispositifs fonctionnant à la périphérie sont de plus en plus complexes. Les dispositifs intelligents tels que les automates programmables en réseau gèrent les solénoïdes qui, à leur tour, contrôlent les flux de processus dans une usine chimique, les capteurs de pression qui déterminent le poids et les étiquettes RFID actives qui déterminent l'emplacement d'un conteneur de fret. La grande majorité du traitement s'effectuait auparavant dans le centre de données, mais la situation a évolué au point qu'une plus grande partie du traitement s'effectue dans l'informatique dématérialisée (cloud). Dans les deux cas, le traitement a lieu d'un côté d'une passerelle. Le centre de données était fixe, non virtuel, mais le nuage est fluide. Si l'on considère la définition de l'informatique en nuage, on comprend pourquoi un tissu de données y serait nécessaire. Le nuage est synonyme de fluidité et de suppression de la localité, mais, comme le centre de données, il s'agit de traiter des données associées à des applications. Nous ne nous soucions peut-être pas de savoir où se trouve le nuage Salesforce, le nuage Oracle ou tout autre nuage, mais nous nous soucions du fait que mes données doivent transiter entre différents nuages et persister dans chacun d'entre eux pour être utilisées dans différentes opérations.

En raison de cette complexité, les organisations doivent déterminer quelles parties du traitement sont effectuées à quel niveau. Il y a une application pour chacun, et pour chaque application il y a une manipulation. Et pour chaque manipulation, il y a le traitement des données et la gestion de la mémoire.

L'intérêt d'une structure de données est de gérer toute la complexité. Spark, par exemple, serait un élément clé d'une structure de données dans le nuage, car il est rapidement devenu le moyen le plus simple de support donnéesstreaming entre diverses plateformes de nuage de différents fournisseurs. La périphérie devient rapidement un nouveau nuage, exploitant les mêmes technologies et normes de nuage en combinaison avec de nouveaux réseaux spécifiques à la périphérie tels que la 5G et le WLAN 6. Et, comme pour le nuage central, des applications plus riches et plus intelligentes sont exécutées sur chaque appareil, sur les passerelles et dans ce qui aurait été l'équivalent d'un centre de données fonctionnant dans une armoire à vêtements sur le sol de l'usine, dans un avion, sur un cargo, etc. Il va de soi que vous aurez besoin d'un tissu de données périphériques analogue à celui qui se solidifie dans le nuage central.

Éléments communs de l'Edge Data Fabric

Pour répondre au nombre croissant d'exigences en matière de données posées par les appareils périphériques, une structure de données périphérique doit remplir plusieurs fonctions importantes. Elle doit être capable de

  • Accès à de nombreuses interfaces différentes : http, mttp, réseaux radio, réseaux de fabrication.
  • Fonctionne sur plusieurs environnements d'exploitation : Surtout, il est compatible avec POSIX.
  • Travailler avec des protocoles et des API clés : Y compris les plus récentes avec l'API REST.
  • Fournir une connectivité de base de données JDBC/ODBC : Pour les applications anciennes et une connexion rapide et pratique entre les bases de données.
  • Traiter les données streaming : Grâce à des normes telles que Spark et Kafka.

Conclusion

La structure de données n'est pas un produit, une plate-forme ou un ensemble de services unique, pas plus que la structure de données en périphérie. L'Edge Data Fabric est une extension de la Data Fabric mais, compte tenu des différences de ressources et d'exigences à la périphérie, il est nécessaire d'apporter des changements suffisants à ce qui est nécessaire pour gérer les données à la périphérie. Dans le prochain blog, nous verrons pourquoi l'Edge Data Fabric est important et pourquoi maintenant.

logo avatar actian

À propos d'Actian Corporation

Actian facilite l'accès aux données. Notre plateforme de données simplifie la façon dont les gens connectent, gèrent et analysent les données dans les environnements cloud, hybrides et sur site . Avec des décennies d'expérience dans la gestion des données et l'analyse, Actian fournit des solutions de de haute performance qui permettent aux entreprises de prendre des décisions basées sur les données. Actian est reconnu par les principaux analystes et a reçu des prix de l'industrie pour sa performance et son innovation. Nos équipes partagent des cas d'utilisation éprouvés lors de conférences (par exemple, Strata Data) et contribuent à des projets à code source ouvert. Sur le blog d'Actian, nous abordons des sujets tels que l'ingestion de données en temps réel, l'analyse de données, la gouvernance données, la gestion des données, la qualité des données, l'intelligence des données et l'analyse pilotée par l'IA.