L’entrepreneur technologique Ian Hogarth dirigera le groupe de travail sur le modèle de la Fondation AI au Royaume-Uni


  • Un entrepreneur technologique de premier plan, un investisseur de renom et un spécialiste de l’IA présidera la Foundation Model Taskforce.
  • Le groupe de travail dirigera des recherches vitales sur la sécurité de l’IA dans le cadre de la promotion du développement sûr et fiable des modèles de base tout en saisissant les opportunités extraordinaires qu’ils présentent.
  • Inspiré du succès du groupe de travail sur les vaccins, opérant avec la même agilité et la même autorité déléguée, il est soutenu par un financement gouvernemental initial de 100 millions de livres sterling.

Le célèbre investisseur technologique, entrepreneur et spécialiste de l’IA Ian Hogarth a été annoncé comme président du groupe de travail du modèle de la Fondation du gouvernement, relevant directement du Premier ministre et du secrétaire à la technologie.

Une autorité de premier plan en matière d’IA, Ian est co-auteur du rapport annuel sur l’état de l’IA depuis 2018 sur les progrès de l’IA. Ian est également professeur invité à l’University College London et il possède une solide expérience en entrepreneuriat technologique en tant que fondateur de la start-up Songkick et du fonds de capital-risque Plural.

Cette nomination apporte une riche expérience dans le développement responsable de cette technologie, qui sous-tend la stratégie du gouvernement en matière d’IA et fait suite au lancement du livre blanc sur l’IA. La solide expérience commerciale d’Ian et ses relations dans le secteur de l’IA lui donnent des informations précieuses qu’il apportera à ce rôle.

Sous la direction d’Ian, l’un des principaux objectifs du groupe de travail dans les mois à venir sera de faire avancer la recherche de pointe sur la sécurité dans la perspective du premier sommet mondial sur la sécurité de l’IA qui se tiendra au Royaume-Uni plus tard cette année.

Réunissant l’expertise du gouvernement, de l’industrie et du milieu universitaire, le groupe de travail examinera les risques liés à l’IA. Il effectuera des recherches sur la sécurité de l’IA et éclairera des travaux plus larges sur le développement de garde-fous internationaux, tels que des normes et des infrastructures de sûreté et de sécurité partagées, qui pourraient être mises en place pour faire face aux risques.

Le groupe de travail sera calqué sur les succès du groupe de travail sur les vaccins, fonctionnant avec la même agilité et autorité déléguée afin que le président et le groupe de travail soient habilités à faire avancer les travaux et à prendre des décisions au rythme.

Ian Hogarth, président de la Foundation Model Taskforce, a déclaré :

Les scientifiques et entrepreneurs britanniques ont apporté de nombreuses contributions importantes au domaine de l’IA, d’Alan Turing à AlphaFold. Le Premier ministre a présenté une vision audacieuse pour le Royaume-Uni pour dynamiser le domaine de la sécurité de l’IA, qui jusqu’à présent manquait de ressources alors même que les capacités de l’IA se sont accélérées. Je suis honoré d’avoir la chance de présider une mission aussi importante en vue du premier sommet mondial sur la sécurité de l’IA au Royaume-Uni.

Le Premier ministre Rishi Sunak a déclaré :

Plus l’intelligence artificielle progresse, plus grandes sont les possibilités de faire croître notre économie et de fournir de meilleurs services publics.

Mais avec un tel potentiel de transformation de notre avenir, nous devons à nos enfants et à nos petits-enfants de veiller à ce que l’IA se développe de manière sûre et responsable.

En tant que l’une des figures de proue de la technologie britannique, c’est formidable d’avoir Ian à la tête de notre groupe de travail d’experts, doté d’autorité et d’agilité pour renforcer notre leadership en matière de sécurité et de développement de l’IA.

Cela garantira que nous faisons les choses différemment et que nous avançons avec le même rythme et la même vigueur alors que nous nous élevons pour accomplir la tâche qui nous attend.

En avril, le gouvernement a engagé un montant initial de 100 millions de livres sterling pour mettre en place le Foundation Model Taskforce, saisissant les opportunités extraordinaires présentées par les systèmes d’IA de pointe et améliorant leur sécurité et leur fiabilité.

Les modèles de base, y compris les grands modèles de langage qui alimentent de nouveaux services populaires comme ChatGPT, Google Bard et Claude, sont des systèmes d’IA à usage général formés sur des ensembles de données massifs qui peuvent être appliqués à des tâches dans l’ensemble de l’économie.

La secrétaire à la technologie, Chloe Smith, a déclaré :

Notre groupe de travail sur le modèle de fondation dirigera le développement responsable et éthique de solutions d’IA de pointe et veillera à ce que le Royaume-Uni soit à l’avant-garde lorsqu’il s’agit d’utiliser cette technologie transformatrice pour assurer la croissance et pérenniser notre économie.

Avec Ian à bord, le groupe de travail sera parfaitement placé pour renforcer le leadership du Royaume-Uni sur l’IA et garantir que les citoyens et les entreprises britanniques ont accès aux outils fiables dont ils ont besoin pour bénéficier des nombreuses opportunités que l’intelligence artificielle a à offrir.

Le groupe de travail d’experts aidera à renforcer les capacités du Royaume-Uni dans les modèles de base et à tirer parti de nos forces existantes, y compris le leadership britannique en matière de sécurité, de recherche et de développement de l’IA, pour identifier et relever les défis de sécurité uniques présentés par ce type d’IA.

Le travail du groupe de travail sera essentiel pour saisir les opportunités de l’IA et renforcer la confiance du public dans son utilisation, en complément des travaux déjà en cours dans les entreprises d’IA elles-mêmes, qui examinent leurs propres mesures pour garantir que le développement de l’IA est sûr et responsable. Ils se sont également engagés à donner au groupe de travail un accès précoce ou prioritaire aux modèles à des fins de recherche et de sécurité pour aider à construire de meilleures évaluations et nous aider à mieux comprendre les opportunités et les risques de ces systèmes.

Le sommet mondial sur la sécurité de l’IA plus tard cette année sera l’occasion pour les nations, l’industrie et les universités de premier plan de se réunir et d’explorer une évaluation des risques, d’évaluer les possibilités de recherche collective et de travailler à des normes et des infrastructures de sûreté et de sécurité partagées.

Comme l’a noté le président Biden, le Royaume-Uni est bien placé pour diriger l’effort international sur la sécurité de l’IA.

Notes aux éditeurs :

  • Ian Hogarth et DSIT ont la responsabilité d’identifier et de traiter tout intérêt personnel ou commercial réel, potentiel ou perçu qui pourrait entrer en conflit, ou être perçu comme étant en conflit, avec les fonctions publiques du président. Ian a accepté une série d’atténuations pour gérer les conflits d’intérêts potentiels. Cet accord comprend, par exemple, des cessions de participations personnelles dans des sociétés réalisant des modèles de fondations ou des outils de sécurité des modèles de fondations. Des mesures d’atténuation sont mises en place pour traiter chacun des conflits potentiels avec effet dès le début de son rôle.
  • Des vérifications et des contrôles réguliers seront également mis en place pour répondre à l’évolution dynamique du champ d’action et du programme de travail du groupe de travail.

Laisser un commentaire