Pourquoi le traducteur de Google propage-t-il les stéréotypes sexistes : «il» est médecin, «elle» est infirmière ? Et pourquoi les applications d'orientation professionnelle associent-elles toujours l'empathie et les compétences littéraires aux femmes, le charisme et les compétences scientifiques aux hommes ? Parce que les algorithmes dont les humains ont doté ces machines ont été conçus à 88%... par des hommes !Lesquels ne sont pas forcément d'affreux machistes, mais souffrent de biais, d'idées reçues, de stéréotypes sexuelsUn problème de taille car l'IA, l'intelligence artificielle, est de plus en plus présente, sans que nous en ayons toujours conscience, dans notre vie quotidienne. Les assistants virtuels, les moteurs de recherches, les applications d'orientation professionnelle... sélectionnent, proposent, orientent, en propageant des préjugés sexistesAu-delà du constat illustré de nombreux exemples, les auteurs proposent des solutions. Par exemple, repenser l'orientation au collège, pour que l'on cesse de conseiller uniquement aux garçons la programmation informatique !