Traitement dédié : la nouvelle vague d’accélération


Alors que le Big Data se développe de manière exponentielle, notre capacité à traiter des charges de travail complexes diminue. Jonathan Friedmann, co-fondateur et PDG de Speedata, partage certaines des charges de travail les plus courantes exécutées par les processeurs et le matériel nécessaire pour les accélérer.

2,5 quintillions octets de données sont générés quotidiennement, et estimations suggèrent que les mégadonnées continueront de croître de 23 % par an. Cette tendance a imprégné presque tous les coins de l’économie – des compagnies aériennes, des banques et des compagnies d’assurance aux institutions gouvernementales, hôpitaux et sociétés de télécommunications ont adopté l’analyse de données volumineuses pour améliorer l’intelligence économique, promouvoir la croissance et rationaliser l’efficacité.

Comme le Big Data ne fait que croître, les outils utilisés pour analyser toutes ces données doivent être mis à l’échelle. Cependant, les puces informatiques actuellement utilisées pour gérer des charges de travail importantes ou complexes ne sont pas à la hauteur de la tâche, car elles en nécessitent tellement que les coûts l’emportent sur les avantages et entravent l’efficacité informatique.

Par conséquent, malgré tous ses avantages, l’explosion des données crée de multiples défis pour l’industrie de la haute technologie. La clé pour surmonter ce défi est de renforcer la puissance de traitement sous tous les angles.

Pour ce faire, une vague d’accélérateurs spécialisés spécifiques à un domaine a été développée pour décharger les charges de travail du processeur, le cheval de bataille traditionnel des puces informatiques. Ces accélérateurs « alternatifs » sont conçus pour des tâches spécifiques, échangeant la flexibilité et les capacités à usage général de l’informatique CPU standard en échange de meilleures performances accélérées pour ces tâches désignées.

Ce qui suit est un petit guide de certains des principaux domaines d’accélération et de leurs accélérateurs correspondants.

Matériel pour les charges de travail IA et ML

L’intelligence artificielle change notre façon de calculer et, par conséquent, notre façon de vivre. Mais les premières analyses d’IA ont été forcées de fonctionner sur des puces CPU qui étaient bien mieux adaptées aux tâches monothread et certainement pas conçues pour le multitâche parallèle exigé par l’IA.

Entrez : Unités de traitement graphique (GPU).

Les GPU sont nés dans l’industrie du jeu pour accélérer les charges de travail graphiques. Un seul GPU combine plusieurs cœurs spécialisés qui fonctionnent en tandem, ce qui lui permet de prendre en charge des programmes parallèles avec un flux de contrôle simple. C’est parfait pour les charges de travail graphiques, c’est-à-dire les jeux informatiques, car ils contiennent des images avec des millions de pixels, qui devaient être calculées en parallèle, indépendamment. Le traitement de ces pixels nécessite également des multiplications vectorielles en virgule flottante que le GPU a été conçu pour traiter extrêmement bien.

La découverte que les GPU pouvaient également être utilisés pour traiter les charges de travail d’IA a ouvert de nouveaux horizons pour la gestion des données d’IA. Bien que l’application soit très différente des charges de travail graphiques, les charges de travail AI/Machine Learning (ML) ont, à bien des égards, des exigences de calcul similaires, nécessitant une multiplication efficace de matrices à virgule flottante. Au cours de la dernière décennie, alors que les charges de travail d’IA et de ML montaient en flèche, les GPU ont subi des améliorations substantielles pour répondre davantage à cette demande croissante.

Plus tard, les entreprises ont développé des circuits intégrés spécifiques à l’application (ASIC) dédiés pour faire face à cette charge de travail importante dans le but d’inaugurer la deuxième vague d’accélération de l’IA. Les ASIC à l’avant-garde de l’accélération de l’IA incluent le TPU, l’unité de traitement des tenseurs de Google utilisée principalement pour l’inférence ; l’IPU, l’unité de traitement du renseignement de Graphcore ; et le RDU, l’unité de flux de données reconfigurable de SambaNova.

Charges de travail de traitement de données

Les unités de traitement de données (DPU) sont essentiellement des contrôleurs d’interface réseau (NIC) – du matériel qui connecte un appareil donné au réseau numérique. Ces ASIC sont explicitement conçus pour décharger les fonctions de mise en réseau du protocole du CPU et le traitement des couches supérieures comme le chiffrement ou les opérations liées au stockage.

Les entreprises ont développé divers DPU, notamment Mellanox, acquis par Nvidia, et Persando, acquis par AMD. Bien que leur architecture varie et que le protocole réseau exact de chaque déchargement diffère, toutes les variantes de DPU ont le même objectif final d’accélérer le traitement des données et de décharger le protocole réseau du processeur.

Alors que le DPU d’Intel a reçu son acronyme – IPU (Infrastructure Processing Unit), il appartient à la famille des DPU. L’IPU est conçu pour améliorer l’efficacité du centre de données en déchargeant les fonctions qui auraient traditionnellement été exécutées sur un processeur, telles que le contrôle du réseau, la gestion du stockage et la sécurité.

Analytique des mégadonnées

C’est dans les bases de données et le traitement analytique des données que le big data produit véritablement des informations exploitables. Comme pour les charges de travail ci-dessus, les processeurs ont longtemps été considérés comme la norme. Mais à mesure que l’échelle des charges de travail d’analyse de données continue de croître, ces fonctions CPU sont devenues exponentiellement moins efficaces.

Les charges de travail d’analyse de données volumineuses présentent de nombreuses caractéristiques uniques, notamment la structure et le format des données, l’encodage des données et les types d’opérateurs de traitement, ainsi que les exigences de stockage intermédiaire, d’E/S et de mémoire. Cela permet à un accélérateur ASIC dédié qui vise à optimiser les charges de travail avec ces caractéristiques spécifiques de fournir une accélération significative à un coût moins cher que les processeurs traditionnels. Malgré ce potentiel, aucune puce n’est apparue au cours des dix dernières années comme le successeur naturel du processeur pour les charges de travail d’analyse. Résultat : jusqu’à présent, les accélérateurs dédiés ont mal desservi l’analyse de données volumineuses.

Les charges de travail analytiques sont généralement programmées avec le langage SQL (Structured Query Language), mais d’autres langages de haut niveau sont également très courants. Les moteurs analytiques qui traitent de telles charges de travail sont nombreux et comprennent des moteurs open source tels que Spark et Presto, ainsi que des services gérés tels que Databricks, Redshift et Big Query.

Speedata a créé une unité de traitement analytique (APU) pour accélérer les charges de travail analytiques. Avec l’explosion des données, les informations issues de ces outils émergents ont le potentiel de libérer une valeur incroyable dans tous les secteurs.

En savoir plus : Comment les chatbots simplifient la consommation d’analyse de données pour les décideurs

Respectez le processus

Il n’existe pas de solution unique pour tous les besoins informatiques d’aujourd’hui.

Au lieu de cela, le processeur autrefois omniprésent évolue en un «contrôleur de système» qui transmet des charges de travail complexes – analyse de données, IA/ML, graphiques, traitement vidéo, etc. – à des unités et accélérateurs spécialisés.

Les entreprises, à leur tour, adaptent leurs centres de données avec de telles unités de traitement stratégiquement adaptées à leurs besoins de charge de travail. Ce niveau accru de personnalisation améliorera non seulement l’efficacité et l’efficience des centres de données, mais minimisera également les coûts, réduira la consommation d’énergie et réduira les besoins immobiliers.

Pour l’analyse, un traitement plus rapide permettra également d’obtenir plus d’informations sur une plus grande quantité de données, ouvrant de nouvelles opportunités. Avec plus d’options de traitement et de nouvelles opportunités, l’ère du Big Data ne fait que commencer.

Selon vous, comment le traitement dédié peut-il simplifier le processus de gestion des charges de travail de données complexes ? Partagez avec nous sur Facebook, Twitteret LinkedIn. Nous aimerions savoir!

Source de l’image : Shutterstock

EN SAVOIR PLUS SUR L’ANALYSE DES DONNÉES



Laisser un commentaire