Les biais (apports complémentaires)
Dans cette activité, vous avez donc pu retrouver 5 biais de l'IA :
Il correspond aux erreurs systématiques faites lors de la sélection des données collectées. Ce biais survient quand le groupe de données n'est pas représentatif du groupe cible.
ex :Dans le secteur de la santé, la sous-représentation des groupes minoritaires dans les données peut fausser les algorithmes d’IA prédictive. Il a ainsi été constaté que les systèmes de diagnostic assisté par ordinateur fournissaient des résultats moins précis pour les patients noirs que pour les patients blancs.
Il correspond aux erreurs systématiques que l'on retrouve dans les algorithmes de machine learning et qui produisent des résultats injustes ou discriminatoires.
ex : Dans la génération d'une image, selon la manière dont l'algorithme a été conçu, on peut retrouver des images discriminatoires si on demande à l'IA de représenter un bibliothécaire.
Il correspond aux données d'entraînement de l'IA qui peuvent être dès le départ biaisées.
ex : Données de reconnaissances faciales avec des images liées essentiellement à la même ethnie. (cf. Projet de prédiction des délits aux Etats-Unis basé sur des bases de données de quelques secteurs de Los Angeles).
Il correspond aux choix des utilisateurs, notamment dans les prompts, qui vont influencer l'IA générative à travers des éléments du prompt.
Étroitement lié aux biais cognitifs, cela se produit lorsque l’IA s’appuie trop sur des croyances ou des tendances préexistantes dans les données, en doublant les biais existants et en étant incapable d’identifier de nouveaux modèles ou tendances.
L'activité suivante vous permettra d'en repérer et de mieux comprendre les implications que ces biais peuvent générer.