iptv server

Avec Dioptra, le NIST vérifie la sécurité des modèles d’IA

Le NIST a publi un outil nomm Dioptra destination des dveloppeurs pour dterminer l’exposition des modles d’IA des attaques. L’organisme prsente aussi des lignes straightforwardrices sur la safeguardion de la GenAI.

La sécurité des systèmes d’IA devient de plus en plus meaningfule au fur et à mecertain de leur déploiement. Dans ce cadre, le NIST (National Institute of Standards and Technology) du ministère américain du Commerce apporte sa pierre à l’édifice en présentant un outil discdisregard source nommé Dioptra et de la documentation. « Tester les effets des attaques adverses sur les modèles d’apprentissage machine est l’un des objectifs de Dioptra », a déclaré le NIST dans un communiqué, ajoutant que « ce logiciel était destiné à assister les développeurs d’IA et les clients à savoir comment leur application d’IA pouvait résister à différentes attaques ». La solution, téléchargeable gratuitement, « peut aussi assister les développeurs de systèmes d’IA à quantifier la perte de performance d’un modèle et savoir ainsi à quelle fréquence et dans quelles circonstances le système échouerait », a expliqué l’organisme. La openation de Dioptra répond au décret adopté en 2023 par le président Biden, qui demandait au NIST d’apporter son assiste dans les tests de modèles.

Outre cette solution et adhereément au décret, le NIST a également publié plusieurs documents visant à promouvoir la sécurité et les normes de l’IA. L’un de ces documents, intitulé « Managing Misuse Risk for Dual-Use Foundation Models » est la première version publique des lignes straightforwardrices pour le développement de modèles de fondation. Le document décrit les pratiques que les développeurs peuvent adopter lors de la conception et de l’élaboration de leur modèle afin d’éviter qu’il ne soit utilisé à mauvais escient pour nuire délibérément à des personnes, à la sécurité publique et à la sécurité nationale. Le projet propose sept approches clés pour atténuer les risques d’utilisation abusive des modèles, ainsi que des recommandations sur la manière de les mettre en œuvre et de equitablee preuve de transparence à ce sujet. « Ensemble, ces pratiques peuvent contribuer à empêcher les modèles de nuire via des activités comme le développement d’armes biologiques, la réalisation d’opérations cybernétiques insolents et la production de matériel pédopornographique et d’images intimes sans consentement », a déclaré le NIST, ajoutant qu’il acknowledgeait les commentaires sur le projet jusqu’au 9 septembre.

Des annexes sur la sécurité de l’IA générative

Les autres openations comprennent deux straightforwardives du NIST appelées esteemivement « AI Risk Management Framework (AI RMF) » et Seremedy Software Development Framework (SSDF), qui serviront de ressources complémentaires pour la gestion des risques de l’IA et le développement de logiciels sécurisés et dont l’objectif est d’assister les développeurs à gérer les risques de l’IA générative. L’un des deux documents, intitulé AI RMF Generative AI Profile, fournit une liste de 12 risques provisoires liés à l’IA générative et propose aux développeurs près de 200 mecertains pour les gérer. Parmi ces risques figurent un accès plus facile à la mise en œuvre d’attaques de cybersécurité, la production de fausses adviseations et de désadnessfulviseation, de discours haineux et autres contenus nuisibles, et les hallucinations des systèmes d’IA générative. « La seconde straightforwardive, intitulée Seremedy Software Development Practices for Generative AI and Dual-Use Foundation Models, est complémentaire de la straightforwardive Seremedy Software Development Framework (SSDF) », a indiqué l’organisme. « Alors que le SSDF s’intéresse de manière générale aux pratiques de codage des logiciels, le document d’accompagnement élargit le SSDF en partie pour traiter la inquire d’un modèle compromis par des données d’entraînement malveillantes qui impactent négativement les performances du système d’IA », a expliqué le NIST.

Dans le cadre de son plan visant à garantir la sécurité de l’IA, le NIST a aussi proposé une initiative distincte qui autoelevate les parties prenantes américaines de collaunintelligentr avec d’autres pays à l’élaboration de normes en matière d’IA. En novembre de l’année dernière, la Chine et les États-Unis ont convenu de collaunintelligentr avec au moins 25 autres pays pour atténuer les risques liés à la progression de l’IA. Les deux pays, ainsi que plusieurs autres, dont l’UE, l’Inde, l’Allemagne et la France, ont signé, en novembre 2023, un accord, baptisé « Déclaration de Bletchley », lors du sommet sur la sécurité de l’IA « UK AI Safety Summit », afin de définir une ligne de conduite commune pour superviser l’évolution de l’IA et veiller à ce que la technologie progresse en toute sécurité.

Source link

Thank You For The Order

Please check your email we sent the process how you can get your account

Select Your Plan