Les opérations d’apprentissage automatique offrent de l’agilité et stimulent l’innovation


La fonction principale de MLOps est d’automatiser les étapes les plus reproductibles dans les flux de travail ML des scientifiques des données et des ingénieurs ML, du développement et de la formation de modèles au déploiement et à l’exploitation de modèles (service de modèles). L’automatisation de ces étapes crée de l’agilité pour les entreprises et de meilleures expériences pour les utilisateurs et les clients finaux, augmentant la vitesse, la puissance et la fiabilité du ML. Ces processus automatisés peuvent également atténuer les risques et libérer les développeurs des tâches par cœur, leur permettant de consacrer plus de temps à l’innovation. Tout cela contribue au résultat net : une étude mondiale de 2021 par McKinsey a révélé que les entreprises qui réussissent à faire évoluer l’IA peuvent ajouter jusqu’à 20 % à leurs bénéfices avant intérêts et impôts (EBIT).

« Il n’est pas rare que des entreprises dotées de capacités ML sophistiquées incubent différents outils ML dans des poches individuelles de l’entreprise », déclare Vincent David, directeur principal de l’apprentissage automatique chez Capital One. « Mais souvent, vous commencez à voir des parallèles : les systèmes ML font des choses similaires, mais avec une tournure légèrement différente. Les entreprises qui cherchent à tirer le meilleur parti de leurs investissements dans le ML unifient et dynamisent leurs meilleures capacités de ML pour créer des outils et des plates-formes standardisés et fondamentaux que tout le monde peut utiliser – et finalement créer une valeur différenciée sur le marché.

Dans la pratique, MLOps nécessite une collaboration étroite entre les scientifiques des données, les ingénieurs ML et les ingénieurs de fiabilité du site (SRE) pour assurer une reproductibilité, une surveillance et une maintenance cohérentes des modèles ML. Au cours des dernières années, Capital One a développé les meilleures pratiques MLOps qui s’appliquent à tous les secteurs : équilibrer les besoins des utilisateurs, adopter une pile technologique commune basée sur le cloud et des plates-formes fondamentales, tirer parti des outils open source et garantir le bon niveau d’accessibilité et de gouvernance. tant pour les données que pour les modèles.

Comprendre les différents besoins des différents utilisateurs

Les applications ML ont généralement deux principaux types d’utilisateurs : les experts techniques (scientifiques des données et ingénieurs ML) et les experts non techniques (analystes métier) et il est important de trouver un équilibre entre leurs différents besoins. Les experts techniques préfèrent souvent une totale liberté d’utilisation de tous les outils disponibles pour créer des modèles pour leurs cas d’utilisation prévus. Les experts non techniques, quant à eux, ont besoin d’outils conviviaux qui leur permettent d’accéder aux données dont ils ont besoin pour créer de la valeur dans leurs propres flux de travail.

Pour créer des processus et des flux de travail cohérents tout en satisfaisant les deux groupes, David recommande de rencontrer l’équipe de conception d’applications et des experts en la matière pour un large éventail de cas d’utilisation. « Nous examinons des cas spécifiques pour comprendre les problèmes, afin que les utilisateurs obtiennent ce dont ils ont besoin pour leur travail, en particulier, mais aussi pour l’entreprise en général », dit-il. « La clé est de trouver comment créer les bonnes capacités tout en équilibrant les différents besoins des parties prenantes et de l’entreprise au sein de l’entreprise. »

Adopter une pile technologique commune

La collaboration entre les équipes de développement, essentielle au succès des MLOps, peut être difficile et chronophage si ces équipes n’utilisent pas la même pile technologique. Une pile technologique unifiée permet aux développeurs de standardiser, de réutiliser les composants, les fonctionnalités et les outils sur des modèles tels que les briques Lego. « Cela permet de combiner plus facilement les fonctionnalités associées afin que les développeurs ne perdent pas de temps à passer d’un modèle ou d’un système à un autre », déclare David.

Une pile cloud native, conçue pour tirer parti du modèle cloud de l’informatique distribuée, permet aux développeurs de disposer d’une infrastructure en libre-service à la demande, en exploitant en permanence de nouvelles fonctionnalités et en introduisant de nouveaux services. La décision de Capital One de se lancer dans le cloud public a eu un impact notable sur l’efficacité et la rapidité des développeurs. Les versions de code en production se produisent désormais beaucoup plus rapidement, et les plates-formes et modèles ML sont réutilisables dans l’ensemble de l’entreprise.

Gagnez du temps avec les outils de ML open source

Les outils de ML open source (code et programmes librement disponibles pour que quiconque puisse les utiliser et les adapter) sont des ingrédients essentiels pour créer une base cloud solide et une pile technologique unifiée. L’utilisation d’outils open source existants signifie que l’entreprise n’a pas besoin de consacrer de précieuses ressources techniques à réinventer la roue, accélérant ainsi le rythme auquel les équipes peuvent créer et déployer des modèles.

Laisser un commentaire