Labelia.org
Permettre à chaque organisme d’évaluer son niveau de maturité sur les enjeux de Data Science Responsable et de Confiance.
Pendant cette saison d'accélération, les bénévoles ont pu améliorer l'outil d'évaluation et de formation Data Science Responsable et de Confiance en développant des “technical guides” pédagogiques autour de différents sujets du référentiel d'évaluation (differential privacy, distillation, robustesse, fairness, généalogie de bout en bout).
L’objectif premier, toujours avec cette idée directrice de proposer rapidement un outil utile et actionnable, est de permettre aux organisations intéressées de faire un travail interne sur ce thème de la data science responsable et de confiance. En progressant dans l’évaluation et ses différentes sections, on bute forcément sur un sujet que l’on n’a pas encore travaillé, qu’il serait intéressant de défricher pour monter en maturité, etc.
Là où l’IA semble prometteuse et génère un intérêt grandissant pour de nombreux cas d’usage, elle suscite également des craintes, et chaque mois qui passe voit son lot de lancements ratés et de scandales de plus ou moins grande ampleur. On observe donc une tension qui grandit, entre d’un côté le potentiel et l’intérêt des techniques d’IA, et de l’autre la difficulté à faire confiance à ces techniques ou à leurs mises en oeuvres.
Evidemment cette tension ne date pas d’hier, certains risques sont bien réels, et il nous semble que règne une forme de consensus général sur le fait qu’il faille faire émerger des cadres structurants et rassurants. Il suffit de taper “IA et éthique” ou “IA responsable” dans un moteur de recherche pour voir le foisonnement d’initiatives dans ce domaine. Nous avions par exemple recensé fin 2019 déjà 3 méta-études sur les principes éthiques et responsables pour l’IA :
- The global landscape of AI ethics guidelines, A. Jobin, M. Ienca, E. Vayena, Juin 2019
- A Unified Framework of Five Principles for AI in Society, L. Floridi, J. Cowls, Juillet 2019
- The Ethics of AI Ethics: An Evaluation of Guidelines, T. Hagendorff, Octobre 2019
On trouve donc beaucoup de choses en la matière. Cependant, après s’être plongé dedans, on en ressort certes avec une curiosité intellectuelle rassasiée (et beaucoup de nouveaux onglets ouverts dans notre navigateur…), mais un peu perplexe : que faire de tout ça ?
Le sentiment qui domine est que c’est très intéressant mais que l’on ne sait pas vraiment quoi en faire. Ces “cadres”, souvent des listes de principes cardinaux, n’offrent pas d’accroche concrète, opérationnelle. Comment se positionner ? Comment évaluer son organisation ? Sur quoi travailler pour se “mettre en conformité” avec ces principes ?
C’est en se posant ces questions et en y travaillant que nous avons, à partir de début 2019, commencé à imaginer l’intérêt qu’il y aurait à explorer ce thème et élaborer un outil qui soit à destination des praticiens, utile et actionnable dès que possible. Ces échanges préliminaires se sont mués en un vrai projet, qui s’est imposé comme une évidence compte tenu de la raison d’être de Substra Foundation : développer la data science collaborative, responsable et de confiance.
Livrables
Le livrable ?
- Un Mooc sur 2 niveaux de compréhension de formation Data Science Responsable et de Confiance
- Un référentiel d'évaluation
lien vers le repository https://github.com/dataforgoodfr/batch8_substra
lien vers le projet https://www.labelia.org/
La solution


