L’élaboration d’une charte en faveur de l’IA inclusive est une première étape avant la création d’un label international GEEIS-AI dans les prochains mois à destination des entreprises.
Les robots intelligents et la technologie de reconnaissance faciale sont régulièrement cités dans les débats publics autour des biais algorithmiques. L’association Arborus, qui œuvre pour l’égalité entre les femmes et les hommes, s’est penché sur la question et a conçu en collaboration avec Orange, une charte en sept points pour des intelligences artificielles inclusives et ne présentant pas de biais ni de stéréotypes dès sa conception. Six grandes entreprises et une PME internationales font partie des premiers signataires, dont EDF, Danone et Sodexo.
Si l’intelligence artificielle constitue « un formidable levier de développement, de progrès dans les domaines de l’éducation, de la santé, de l’environnement, de l’industrie », cette technologie peut aussi être « un facteur d’inégalité entre les genres », explique à ZDNet un porte-parole d’Arborus. « A compter d’aujourd’hui, nous ouvrons cette charte à la signature de toutes les entreprises, quels que soient leur taille, leur secteur d’activité, leur nationalité. Cette charte est donc ouverte à la signature de l’ensemble des entreprises et organisations qui le souhaitent, via une plateforme en ligne créée pour l’occasion ».
Parmi les principes, la charte mentionne le fait de « promouvoir la mixité et la diversité dans les équipes qui travaillent sur des solutions à base d’intelligence artificielle », ou « s’organiser pour évaluer et réagir à toute forme de discrimination qui pourrait résulter de données biaisées ou stéréotypées ». Aujourd’hui, près de 12 % des chercheurs dans le monde sont des femmes, d’après une étude de l’entreprise canadienne Element AI.
publicité
Un apprentissage dès la conception
La charte conseille aussi de « former pour sensibiliser et responsabiliser les concepteurs, développeurs et tous les acteurs impliqués dans la fabrique de l’IA, aux stéréotypes, aux biais pouvant générer des discriminations » et de « veiller à bien choisir les fournisseurs et les évaluer de manière itérative afin de s’assurer que toute la chaîne de valeur de l’IA soit non discriminatoire ».
Si les algorithmes peuvent être problématiques, c’est qu’ils sont conçus « à notre image » et, « selon les données qui les nourrissent, peuvent reproduire des biais et stéréotypes qui existent déjà dans la société », avance Delphine Pouponneau, directrice de la diversité et inclusion chez Orange. « Ces biais sont le résultat de l’intervention humaine au moment de la conception, au moment de la collecte de données ou dans l’écriture du code. Si les algorithmes, ainsi que le choix des données utilisées pour nourrir ces algorithmes, ne sont pensés, crées et gérés que par des hommes caucasiens, les machines ne feront que traduire et amplifier une vision particulière et donc biaisée de la société », précise-t-elle.
Orange se dit engagé dans ce projet à plus d’un titre. « D’abord, nous sommes depuis de nombreuses années un acteur français de l’intelligence artificielle. Nous la développons dans les domaines de la relation client, dans la finance et nous commençons à exploiter son potentiel dans la supervision de nos réseaux. Bientôt, nous serons en mesure de faire de la maintenance prédictive pour éviter les incidents. L’intelligence artificielle fait donc partie des métiers que nous souhaitons développer de façon prioritaire chez Orange, avec de nombreux recrutements prévus dans les années qui viennent », explique le groupe dans un communiqué.
Une charte qui pose les bases d’un futur label
L’Union européenne avait elle aussi rappelé, par le passé, son soutien aux applications d’intelligence artificielle considérées comme fiables et éthiques. Dans le contexte du Covid-19, le Conseil de l’Europe s’est récemment exprimé sur le sujet au travers de sa “Recommandation sur les impacts des systèmes algorithmiques sur les droits de l’homme”.
Pour Delphine Pouponneau, il n’est pas nécessaire de renforcer davantage la réglementation du secteur. « Ma conviction est qu’il faut veiller à ne pas freiner le dynamisme du secteur, notamment face à des acteurs chinois ou américains », considère la responsable d’Orange, qui soutient des « démarches incitatives et pédagogiques, et non coercitives ».
Cette charte marque une première étape avant la création d’un label international GEEIS-AI dans les prochains mois. « Sur la base du référentiel du label GEEIS (gender equality), nous avons interrogé chacun des critères à la lumière des problématiques apportées par l’IA. L’enjeu est de proposer un audit RH et technique visant à appréhender les biais », précise Arborus.