OpenAI présente un plan de sécurité de l'IA, permettant au conseil d'administration d'annuler ses décisions | Actualités technologiques


OpenAI, soutenu par Microsoft, ne déploiera sa dernière technologie que si elle est jugée sûre dans des domaines spécifiques tels que la cybersécurité et les menaces nucléaires.

OpenAILe logo OpenAI est visible dans cette illustration prise le 31 mars 2023. REUTERS/Dado Ruvic/Illustration/File Photo

La société d'intelligence artificielle OpenAI a défini un cadre pour aborder la sécurité dans ses modèles les plus avancés, permettant notamment au conseil d'administration d'annuler les décisions de sécurité, selon un plan publié lundi sur son site Internet.

OpenAI, soutenu par Microsoft, ne déploiera sa dernière technologie que si elle est jugée sûre dans des domaines spécifiques tels que la cybersécurité et les menaces nucléaires. L'entreprise crée également un groupe consultatif chargé d'examiner les rapports de sécurité et de les envoyer aux dirigeants et au conseil d'administration de l'entreprise. Même si les dirigeants prennent des décisions, le conseil d’administration peut annuler ces décisions.

Depuis le lancement de ChatGPT il y a un an, les dangers potentiels de l'IA sont au centre des préoccupations des chercheurs en IA et du grand public. La technologie de l’IA générative a ébloui les utilisateurs par sa capacité à écrire de la poésie et des essais, mais a également suscité des problèmes de sécurité en raison de son potentiel à propager de la désinformation et à manipuler les humains.

En avril, un groupe de leaders et d'experts du secteur de l'IA a signé une lettre ouverte appelant à une pause de six mois dans le développement de systèmes plus puissants que le GPT-4 d'OpenAI, invoquant des risques potentiels pour la société. Un sondage Reuters/Ipsos de mai a révélé que plus des deux tiers des Américains sont préoccupés par les éventuels effets négatifs de l’IA et 61 % pensent qu’elle pourrait menacer la civilisation.

© IE Online Media Services Pvt Ltd

Publié pour la première fois le : 19-12-2023 à 08h44 IST

Laisser un commentaire