Comment les intelligences artificielles doivent combattre les biais qui gangrènent nos sociétés

Merci de donner votre avis sur cet article

Les nouvelles technologies renforcent et diffusent à grande échelle certains stéréotypes présents dans nos sociétés. Mais peuvent-elles aussi permettre de les combattre ?

Comment les intelligences artificielles doivent combattre les biais qui gangrènent nos sociétés

Fin juin, une série d’échanges sur Twitter entre le « M. Intelligence artificielle » français qui travaille chez Facebook, Yann LeCun, et une chercheuse américaine engagée, co-fondatrice du collectif anti-racisme Black in AI, Timnit Gebru, a enflammé le réseau au sujet du nouveau modèle de photo récréative Pulse AI de l’Université Duke, aux États-Unis – et de fait, relancé le débat sur les biais inhérents à ces technologies.

Comment les intelligences artificielles doivent combattre les biais qui gangrènent nos sociétés

« Écoutez-nous »

Lire la suite de l’article de Marion Simond Rainaud

« La discrimination algorithmique est effectivement le reflet des discriminations sociales, mais elle est surtout bien pire », nous explique Céline Castets-Renard, professeure de droit et double-titulaire des chairs de l’IA responsable à l’échelle mondiale à Ottawa (Canada) et de l’Artificial and Natural Intelligence Toulouse Institute.
« Les biais intégrés aux IA renforcent ceux présents dans la société sous couvert d’une fausse objectivité. » Autrement dit, puisque ce sont des indicateurs objectifs, les résultats sont légitimés de facto. Or, derrière cette objectivité se cache une suite de choix subjectifs. Plus grave encore, insiste la juriste, « les IA diffusent ces discriminations à très grande échelle ». C’est là, « le plus grand danger ».

Les conséquences peuvent être gravissimes. Aux États-Unis, la chercheuse Cathy O’Neil a démontré dans son livre Algorithmes, la bombe à retardement que les IA assistant les juges américains alimentaient les préjugés racistes selon lesquels les délinquants avaient plutôt la peau sombre.
Résultat : l’algorithme chargeait plus lourdement les peines infligées aux Afro-américains. Une discrimination induite à la fois par la base de données par laquelle l’IA a appris, dans laquelle les Noirs étaient sur-représentés mais aussi par les choix humains connexes : les choix de quartiers où les policiers patrouillent ou encore ceux de lutte contre telle ou telle criminalité.
Ainsi, si on choisissait de contrôler des quartiers plus riches et plus blancs, et de lutter contre l’évasion fiscale en priorité, les statistiques de la police changeraient du tout au tout.

Si cet article vous a plus, vous pouvez suivre les travaux des experts compétences en vous abonnant au blog de la formation et recvoir la Newsletter chaque semaine. Les experts compétences accompagnent tous les projets à forte composante numérique autour du Marketing, du Management, de la gestion et de la Formation. Ceci pour des organismes de formation comme pour d’autres entreprises. Pour les contacter, laissez leur un message.

 
youtubeinstagram
Facebooktwitterlinkedinmail