jeudi 16 mai 2024

L’ESSENTIEL L’information simple comme bonjour

Les dangers de l’IA

Les biais

L’IA sexiste et raciste ? 

Les logiciels d’intelligence artificielle utilisent les textes et les images du net. Ces sources peuvent biaiser les résultats donnés par le logiciel. En 2018, Amazon devait utiliser un logiciel d’IA pour recruter des travailleurs. On s’est rendu compte que le logiciel était sexiste. Pour certains types emplois comme dans l’informatique, le logiciel écartait les candidates femmes. Pourquoi ? Parce que sur le net, il y a beaucoup de stéréotypes sexistes, comme par exemple, que les hommes maitrisent mieux l’informatique que les femmes. Heureusement, Amazon s’en est rendu compte et n’a pas utilisé ce logiciel. Mais est-ce toujours le cas ? Ne peut-il pas y avoir de logiciels racistes par exemple ?

Fausses informations

Les logiciels d’IA peuvent diffuser très vite et partout de fausses informations qui sont reprises par beaucoup de sites du web. Ces logiciels peuvent aussi mettre en avant certaines informations et ne pas en donner d’autres.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

À propos

Par son existence même, le site de l’Essentiel mène des actions pour encourager la lisibilité des textes écrits. Les articles du site www. journal-essentiel.be sont écrits dans un langage accessible à tous, quelque soit son niveau de lecture de départ. Et les mots incontournables sont expliqués dans un glossaire qui accompagne l’article. Mais le site s’inscrit aussi dans un combat plus large.

Articles récents
Students Block Sciences Po - Paris
De Columbia à Paris : pour Gaza !
image-2
Loi Frontex, le mauvais réflexe
image-1
Pour aller plus loin
Newsletter

Restez informé, inscrivez-vous à notre newsletter, c’est gratuit et utile !

Nous suivre