L’IA c’est magique ?

0
77
Comme discuté ci-dessus, l’IA peut-être très performante sur des tâches très précises. Par ailleurs, c’est très utile pour les applications qui ne comportent que peu de risque en cas d’erreur.
Si TikTok se trompe, vous verrez une vidéo d’un Chinois devant une Chinoise au lieu de voir un chat/chien/humain/oiseau/panda tomber lamentablement (mawada weee).
L’éducation de l’IA
Le problème fondamental c’est que la qualité de l’IA dépend à 100% de la qualité de l’information donnée.
Aujourd’hui l’information est souvent biaisée, incomplète ou ne représente simplement pas les minorités, par ailleurs l’IA est déployé dans des systèmes, organisations et sociétés subissant déjà de fortes discriminations.
Par exemple, l’IA de Facebook (qui a beaucoup d’informations grâce à vos contenus) s’est “trompé” et a mal catégorisé une vidéo d’un homme noir.
Lorsqu’un internaute anglais a fini de regarder cette vidéo, Facebook lui a demandé, au calme, “voulez-vous encore regarder des vidéos de primates?”.
Les applications
Le risque est d’autant plus grand quand l’IA a un rôle important et ses erreurs ont un impact. De nombreux pays ont maintenant des cameras à reconnaissance faciale dans les rues.

Si le logiciel se trompe sur une vidéo incriminante, une personne innocente sera forcée de devoir prouver son innocence. Il n’y a que trop d’exemple ou des innocents sont condamné par erreur.

L’entreprise Française Idemia se spécialise dans la reconnaissance faciale et offre ses services aux polices du monde entier.
Nous pourrions supposer qu’un algorithme raciste n’est qu’un cadeau de plus d’un ministre à une police à tendance raciste avec des billets de train gratuit, mais il semblerait que non.
Mais l’IA est maintenant partout, les CV sont scannés automatiquement, les demandes de crédits pour une maison…
Au USA, l’IA scan les locataires ou les demandes de crédit en comparant les postulants avec les des données telle que les condamnations, les expulsions etc.. une erreur ne sera pas détectée et le postulant se verra rejeté de certains logements / quartiers injustement ou ses frais pour emprunter seront beaucoup plus élevés.
Les inégalités créent ou maintenu par l’IA sont même des sujets de discussion au sein des Nation-Unis (article ici).