Les biais

L’IA sexiste et raciste ?
Les logiciels d’intelligence artificielle utilisent les textes et les images du net. Ces sources peuvent biaiser les résultats donnés par le logiciel. En 2018, Amazon devait utiliser un logiciel d’IA pour recruter des travailleurs. On s’est rendu compte que le logiciel était sexiste. Pour certains types emplois comme dans l’informatique, le logiciel écartait les candidates femmes. Pourquoi ? Parce que sur le net, il y a beaucoup de stéréotypes sexistes, comme par exemple, que les hommes maitrisent mieux l’informatique que les femmes. Heureusement, Amazon s’en est rendu compte et n’a pas utilisé ce logiciel. Mais est-ce toujours le cas ? Ne peut-il pas y avoir de logiciels racistes par exemple ?
Fausses informations
Les logiciels d’IA peuvent diffuser très vite et partout de fausses informations qui sont reprises par beaucoup de sites du web. Ces logiciels peuvent aussi mettre en avant certaines informations et ne pas en donner d’autres.