L’intelligence artificielle peut aggraver les inégalités sociales. Voici 5 façons d’éviter cela

NRZ.Digital
0 0

L'intelligence artificielle peut aggraver les inégalités sociales.  Voici 5 façons d'éviter cela
Crédits: Shutterstock

Des recherches Google et des sites de rencontres à la détection de la fraude par carte de crédit, l’intelligence artificielle (IA) continue de trouver de nouvelles façons de se glisser dans nos vies. Mais pouvons-nous faire confiance aux algorithmes qui l’animent?

En tant qu’humains, nous faisons des erreurs. Nous pouvons avoir des pertes d’attention et une mauvaise interprétation des informations. Pourtant, lorsque nous réévaluons, nous pouvons repérer nos erreurs et les corriger.

Mais lorsqu’un système d’IA fait une erreur, elle sera répétée encore et encore, quel que soit le nombre de fois où il regarde les mêmes données dans les mêmes circonstances.

Les systèmes d’IA sont formés à l’aide de données qui reflètent inévitablement le passé. Si un ensemble de données d’entraînement contient des biais inhérents à des décisions humaines passées, ces biais sont codifiés et amplifiés par le système.

Ou s’il contient moins de données sur un groupe minoritaire particulier, les prévisions pour ce groupe auront tendance à être pires. C’est ce qu’on appelle le «biais algorithmique».

Gradient Institute a co-écrit un papier démontrer comment les entreprises peuvent identifier les biais algorithmiques dans les systèmes d’IA et comment les atténuer.

Le travail a été réalisé en collaboration avec la Commission australienne des droits de l’homme, le Consumer Policy Research Center, le CSIRO’s Data61 et le groupe de défense CHOICE.

Comment se produit le biais algorithmique?

Un biais algorithmique peut résulter d’un manque de données d’apprentissage appropriées ou du fait d’une conception ou d’une configuration de système inappropriée.

Par exemple, un système qui aide une banque à décider d’accorder ou non des prêts serait généralement formé à l’aide d’un vaste ensemble de données des décisions de prêt antérieures de la banque (et d’autres données pertinentes auxquelles la banque a accès).

Le système peut comparer les antécédents financiers, les antécédents professionnels et les informations démographiques d’un nouveau demandeur de prêt avec les informations correspondantes des demandeurs précédents. À partir de là, il tente de prédire si le nouveau demandeur sera en mesure de rembourser le prêt.

Mais cette approche peut être problématique. Un biais algorithmique pourrait survenir dans cette situation en raison des biais inconscients de la part des gestionnaires de crédit qui ont pris des décisions antérieures concernant les demandes de prêt hypothécaire.

Si les clients des groupes minoritaires se voyaient refuser des prêts injustement dans le passé, l’IA considérera que la capacité de remboursement générale de ces groupes est inférieure à ce qu’elle est.

Les jeunes, les personnes de couleur, les femmes célibataires, les personnes handicapées et les cols bleus ne sont que quelques exemples de groupes qui peuvent être désavantagés.

Le biais nuit aux particuliers et aux entreprises

Le système d’IA biaisé décrit ci-dessus présente deux risques majeurs pour la banque.

Premièrement, la banque pourrait passer à côté de clients potentiels, en envoyant des victimes de biais à ses concurrents. Elle pourrait également être tenue pour responsable en vertu des lois anti-discrimination.

Si un système d’IA applique en permanence un biais inhérent à ses décisions, il devient plus facile pour le gouvernement ou les groupes de consommateurs d’identifier ce modèle systématique. Cela peut entraîner de lourdes amendes et pénalités.

Atténuer le biais algorithmique

Notre papier explore plusieurs manières par lesquelles un biais algorithmique peut survenir.

Il fournit également des conseils techniques sur la manière de supprimer ce biais, de sorte que les systèmes d’IA produisent des résultats éthiques qui ne font pas de discrimination en fonction de caractéristiques telles que la race, l’âge, le sexe ou le handicap.

Pour notre article, nous avons effectué une simulation d’un détaillant d’électricité hypothétique à l’aide d’un outil alimenté par l’IA pour décider comment offrir des produits aux clients et à quelles conditions. La simulation a été formée sur des données historiques fictives constituées d’individus fictifs.

Sur la base de nos résultats, nous identifions cinq approches pour corriger le biais algorithmique. Cette boîte à outils peut être appliquée aux entreprises de divers secteurs pour aider à garantir que les systèmes d’IA sont justes et précis.

1. Obtenez de meilleures données

Le risque de biais algorithmique peut être réduit en obtenant des points de données supplémentaires ou de nouveaux types d’informations sur les individus, en particulier ceux qui sont sous-représentés (minorités) ou ceux qui peuvent apparaître de manière inexacte dans les données existantes.

2. Pré-traiter les données

Cela consiste à modifier un ensemble de données pour masquer ou supprimer des informations sur les attributs associés aux protections en vertu de la loi anti-discrimination, comme la race ou le sexe.

3. Augmenter la complexité du modèle

Un modèle d’IA plus simple peut être plus facile à tester, surveiller et interroger. Mais il peut aussi être moins précis et conduire à des généralisations qui favorisent la majorité par rapport aux minorités.

4. Modifiez le système

La logique et les paramètres d’un système d’IA peuvent être ajustés de manière proactive pour contrecarrer directement le biais algorithmique. Par exemple, cela peut être fait en définissant un seuil de décision différent pour un groupe défavorisé.

5. Changer la cible de prédiction

La mesure spécifique choisie pour guider un système d’IA influence directement la façon dont il prend des décisions dans différents groupes. Trouver une mesure plus juste à utiliser comme cible de prédiction aidera à réduire le biais algorithmique.

Tenez compte de la légalité et moralité

Dans nos recommandations au gouvernement et aux entreprises souhaitant recourir à la prise de décision par l’IA, nous soulignons avant tout l’importance de prendre en compte les principes généraux d’équité et de droits de l’homme lors de l’utilisation de cette technologie. Et cela doit être fait avant un système est en cours d’utilisation.

Nous recommandons également que les systèmes soient rigoureusement conçus et testés pour garantir que les sorties ne sont pas entachées de biais algorithmique. Une fois opérationnels, ils doivent être étroitement surveillés.

Enfin, nous vous conseillons d’utiliser les systèmes d’IA de manière responsable et éthique au-delà du respect de la lettre étroite de la loi. Cela exige également que le système soit aligné sur les normes sociales largement acceptées et qu’il prenne en compte l’impact sur les individus, les communautés et l’environnement.

Les outils décisionnels de l’IA devenant monnaie courante, nous avons désormais la possibilité non seulement d’augmenter la productivité, mais également de créer une société plus équitable et plus juste, c’est-à-dire si nous les utilisons avec précaution.


Les systèmes de notation peuvent discriminer les conducteurs Uber

Fourni par The Conversation

Cet article est republié à partir de La conversation sous une licence Creative Commons. Lis le article original.La conversation

Citation: L’intelligence artificielle peut aggraver les inégalités sociales. Voici 5 façons d’éviter cela (2021, 13 janvier) récupéré le 13 janvier 2021 sur https://techxplore.com/news/2021-01-artificial-intelligence-deepen-social-inequality.html

Ce document est soumis au droit d’auteur. En dehors de toute utilisation équitable à des fins d’étude ou de recherche privée, aucune partie ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni seulement pour information.


Happy
Happy
0
Sad
Sad
0
Excited
Excited
0
Sleppy
Sleppy
0
Angry
Angry
0
Surprise
Surprise
0

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Laisser un commentaire

Next Post

L'avis d'un tribunal de l'UE laisse Facebook plus exposé en matière de confidentialité

Cette photo d’archive du 29 mars 2018 montre le logo Facebook sur les écrans du Nasdaq MarketSite, à Times Square à New York. Tout organisme de surveillance de la protection de la vie privée d’un pays de l’UE peut intenter une action en justice contre des entreprises comme Facebook pour […]

Abonnez-vous maintenant