L’intelligence artificielle et l’analyse ensemble: 3 cas d’utilisation réels montrent comment et pourquoi


Si vous pensez que l’intelligence artificielle et l’analyse sont mieux séparées, vous manquez peut-être des opportunités précieuses. J’ai été choqué récemment en rassemblant des informations de base pour un court livre électronique que j’ai co-écrit avec Ellen Friedman, IA et analytique à grande échelle: leçons tirées des systèmes de production du monde réel, pour constater que certaines personnes pensent encore que les projets d’analyse à grande échelle et les projets d’IA devraient être cloisonnés et séparés. En particulier, ces personnes considèrent les systèmes d’IA comme des systèmes séparés très coûteux, très spécialisés, qui doivent être complètement isolés des systèmes d’analyse. Mon avis est exactement le contraire.

Pendant des années, nous avons observé des entreprises du monde réel dans de nombreux secteurs qui bénéficient de la co-localisation des analyses – même des analyses héritées – avec des projets modernes d’IA et d’apprentissage automatique. De plus, si vous ne pouvez pas combiner l’analyse et l’IA, c’est un signal que vous ne disposez pas d’un système efficace à l’échelle et que vous avez une dette technique évitable.

Pourquoi l’IA et l’analyse devraient être ensemble

L’association de l’IA et de l’analyse sur un système partagé présente de nombreux avantages, notamment:

  • Optimisation des ressources partagées: les systèmes partagés sont généralement plus rentables car ils permettent une utilisation plus élevée. Le partage rend également l’administration système plus efficace et fournit un cadre de sécurité uniforme, ce qui réduit le fardeau des équipes informatiques et améliore la conformité aux normes de sécurité des données.

  • Partage de données: Les systèmes partagés minimisent également les données cloisonnées. Ceci est important car l’IA est beaucoup plus efficace si vous disposez de données d’entraînement qui montrent tous les aspects d’un problème.

  • Avantage du deuxième projet: Les projets d’IA et d’apprentissage automatique ont une valeur potentielle élevée, mais ils peuvent être hautement spéculatifs. Tirer parti des ensembles de données et des ressources existants signifie que ces projets peuvent être testés plus rapidement et à moindre coût pour les idées qui ont échoué. Cette approche vous rend plus susceptible de trouver les grands gagnants, ce qui se traduit par un avantage substantiel pour le deuxième projet.

  • Amélioration de la collaboration: Pour réussir dans des contextes commerciaux pratiques, l’intelligence artificielle nécessite une connaissance approfondie du domaine, un accès aux bonnes données et un moyen de mettre en œuvre les résultats renvoyés par les modèles pour atteindre des objectifs commerciaux précieux. Un système partagé construit sur une infrastructure de données unificatrice ainsi qu’un cadre existant pour agir peut vous donner un pipeline de bout en bout pour les ingénieurs de données, les analystes, les experts en IA et les chefs d’entreprise qui encourage une collaboration précieuse et facilite l’introduction de l’IA. projets en production.

Ce dont vous avez besoin pour exécuter ensemble l’IA et l’analyse

Les avantages énumérés ci-dessus sont attrayants, mais qu’est-ce qui est nécessaire pour avoir un système capable de prendre en charge l’IA et l’analyse ensemble? Vous devez développer un stratégie de données complèteet vous avez besoin infrastructure de données évolutive conçu spécifiquement pour prendre en charge des systèmes efficaces à l’échelle.

Pour ce faire, l’infrastructure de données doit avoir les caractéristiques suivantes:

Leçons tirées de cas d’utilisation réels: IA et analytique ensemble

Voici trois cas d’utilisation où la combinaison de l’IA et de l’analyse a porté ses fruits. Chacun de ces clients a utilisé HPE Ezmeral Data Fabric comme couche de données unificatrice définie par logiciel et indépendante du matériel.

• L’avantage du deuxième projet est payant pour une grande entreprise de médias

Nous avons un client qui, en tant que grande entreprise de médias, avait deux problèmes. Tout d’abord, ils devaient actualiser leur système pour produire des analyses commerciales. Deuxièmement, ils avaient besoin de meilleures prévisions d’audience pour améliorer leur activité publicitaire. Ils ont estimé que l’apprentissage automatique pourrait être la clé pour améliorer ces prévisions d’audience.

Le début facile consistait à augmenter et finalement remplacer leur entrepôt de données par la possibilité de travailler sur des données plus volumineuses et plus granulaires. Pour ce faire, ils ont utilisé la structure de données, améliorant ainsi l’évolutivité et réduisant considérablement le coût de production des rapports commerciaux.

L’étape suivante consistait à utiliser les données de ces systèmes d’analyse pour créer des versions initiales de la prédiction d’audience basée sur l’IA, à nouveau sur la matrice de données. Ces systèmes initiaux étaient très basiques, mais avaient quand même une meilleure précision par rapport aux systèmes plus anciens, en grande partie parce qu’ils pouvaient utiliser plus de données et pourraient donc expliquer davantage de facteurs qui affectent l’audience, tels que la météo, la saisonnalité à court et à long terme, et événements concurrents.

Le succès de ces systèmes et le retour sur investissement rapide ont convaincu la direction qu’il valait la peine d’investir dans une équipe de science des données pour construire des systèmes de prédiction IA plus sophistiqués. À ce stade, une deuxième série d’effets coattail de l’IA et de l’analyse a commencé. Cela a permis à l’équipe de science des données de tester de nombreux prédicteurs candidats, allant de mises à jour incrémentielles à de nouvelles approches radicales. Le résultat a été de nouvelles améliorations substantielles par rapport aux premiers modèles d’audience, et l’équipe étudie d’autres opportunités pour améliorer l’entreprise grâce à l’IA.

• La collaboration de la salle à manger a fait des millions pour les grands détaillants

Un ingénieur de données et un chef de produit Web sont entrés dans une salle à manger un jour. Ce n’est pas le début d’une blague de la Silicon Valley, mais plutôt la façon dont une nouvelle fonctionnalité de produit a commencé.

Le chef de produit déplorait de pouvoir amener son équipe à créer une fonction de correspondance des prix si seulement il pouvait obtenir des données d’exploration Web. Mais il ne pouvait pas obtenir le budget nécessaire pour récupérer ces données sur le Web sans une analyse de rentabilisation solide. L’ingénieur de données a pris la parole et a décrit l’exploration Web qui avait déjà été effectuée – et a souligné que les données résultantes se trouvaient déjà sur leur infrastructure de données partagée. En conséquence, ils ont prototypé la fonctionnalité cet après-midi et l’ont déployée en production peu de temps après.

La morale est que le partage d’une infrastructure de données unique rend la collaboration aussi simple que de déjeuner.

• La conteneurisation a accéléré le développement d’une société de services d’IA

Un autre client a utilisé des conteneurs et une infrastructure de données partagée pour simplifier la fourniture de systèmes d’IA avec des applications d’analyse.

Il y a eu plusieurs conséquences intéressantes. Premièrement, étant donné que les données pourraient être partagées entre les applications héritées et leurs remplacements conteneurisés, la conteneurisation pourrait procéder une application à la fois et pourrait être sensiblement moins invasive pour le code. Deuxièmement, comme les conteneurs peuvent être reconstruits de manière répétable avec des dépendances explicites, l’équipe de sécurité pourrait analyser automatiquement les conteneurs pour trouver les dépendances risquées, et l’équipe QA pourrait reconstruire tous les conteneurs dans un environnement sûr, contrôlant ainsi exactement quels bits entraient dans le code de production.

L’effet net était des niveaux plus élevés d’automatisation DevOps (ou même ce que l’on appelle maintenant MLOps). Cette automatisation signifie que les nouvelles applications peuvent être déployées beaucoup plus rapidement, ce qui est une grande victoire dans les situations dynamiques.

Unifier l’infrastructure de données: HPE Ezmeral Data Fabric

Les principaux avantages de la combinaison de projets d’IA et d’analyse, comme le démontrent ces trois cas d’utilisation réels, dépendent de l’utilisation d’une infrastructure de données spécialement conçue pour créer un système efficace à l’échelle.

Téléchargez le livre électronique gratuit en pdf pour lire plus d’une douzaine de cas d’utilisation réels supplémentaires qui montrent l’avantage concurrentiel de l’efficacité de la mise à l’échelle: IA et analytique à grande échelle: leçons tirées des systèmes de production du monde réel.

____________________________________

À propos de Ted Dunning

balle dans la tête buz 15 inartifle
Ted Dunning est directeur de la technologie pour Data Fabric chez Hewlett Packard Enterprise. Il a un doctorat. en informatique et est l’auteur de plus de 10 livres axés sur les sciences des données. Il a plus de 25 brevets en informatique avancée et joue mal de la mandoline et de la guitare.

Droits d’auteur © 2021 IDG Communications, Inc.

Laisser un commentaire