
HUDERIA, méthodologie et modèle : méthodologie pour l'évaluation des risques et des impacts des systèmes d'intelligence artificielle du point de vue des droits humains, de la démocratie et de l'Etat de droit : modèle de ressources pour l'analyse des
Élaborée par le Comité sur l'intelligence artificielle (CAI) du Conseil de l'Europe, cette publication regroupe la méthodologie Huderia et les ressources du modèle Huderia : l'analyse des risques fondée sur le contexte (Cobra), en tant qu'outil pratique pour toute personne souhaitant évaluer et gérer les risques et les impacts des systèmes d'IA sur les droits humains, la démocratie et l'État de droit. Elle explique les concepts de base et les étapes du processus de l'Huderia et fournit des outils adaptables ainsi que des matériaux de soutien qui aident à traduire les principes en pratiques quotidiennes tout au long du cycle de vie de l'IA. Conçue pour être neutre sur le plan technologique et utilisable dans différents secteurs, systèmes juridiques et niveaux d'expertise, l'Huderia peut aider les autorités publiques et les acteurs privés à construire une IA digne de confiance, responsable et respectueuse des droits. En tant qu'instrument non juridiquement contraignant, l'Huderia peut également aider les Parties à la Convention-cadre du Conseil de l'Europe sur l'intelligence artificielle et les droits de l'homme, la démocratie et l'État de droit à développer des approches d'évaluation des risques et des impacts conformes à la Convention-cadre.
Largeur : 21.0 cm
Epaisseur : 0.4 cm