AI Weekly: L’argument en faveur de la régulation en 2021

NRZ.Digital
0 0

2020 a été une année mouvementée, notamment en raison d’une pandémie qui montre peu de signes de ralentissement. La communauté de recherche sur l’IA a connu ses propres tribulations, couronnées par le licenciement par Google de l’éthicien Timnit Gebru et une dispute sur l’éthique de l’IA et «annuler la culture» impliquant professeur à la retraite de l’Université de Washington, Pedro Domingos. Le scientifique en chef de l’IA de Facebook, Yann LeCun, a quitté (et rejoint) Twitter après un débat acrimonieux sur l’origine du biais dans les modèles d’IA. Et des entreprises comme Clearview AI, Palantir, et la numérisation des plaques d’immatriculation Rekor a élargi sa portée pour attirer les faveurs – et les affaires – avec les forces de l’ordre. Pendant tout ce temps, l’intelligence artificielle n’a pas réussi à éviter de désavantager (et dans certains cas activement désavantagé) certains groupes, qu’ils soient chargés de modérer le contenu, prédire les notes des étudiants britanniquesou recadrer des images dans les chronologies Twitter.

Avec 2020 dans le rétroviseur et les résolutions du Nouvel An en tête, je pense que la communauté de l’IA ferait bien d’examiner la proposition que Zachary Lipton, professeur adjoint à l’Université Carnegie Mellon, a présentée plus tôt cette année. Il a plaidé en faveur d’un moratoire d’un an sur les études pour l’ensemble de l’industrie afin d’encourager la «réflexion» par opposition au «sprint / bousculade / spam» vers les délais. «Une plus grande rigueur dans l’exposition, la science et la théorie est essentielle à la fois pour le progrès scientifique et pour favoriser un discours productif avec le grand public», a écrit Lipton dans une méta-analyse avec l’Université de Californie, Jacob Steinhardt de Berkeley. «De plus, comme les praticiens appliquent [machine learning] dans des domaines critiques tels que la santé, le droit et la conduite autonome, une conscience calibrée des capacités et des limites de [machine learning] les systèmes nous aideront à déployer [machine learning] de manière responsable. »

Les conseils de Lipton et Steinhardt n’ont pas été entendus par les chercheurs du Massachusetts Institute of Technology, du California Institute of Technology et d’Amazon Web Services, qui, dans un article publié en juillet, ont suggéré une méthode pour mesurer le biais algorithmique des algorithmes d’analyse faciale qu’un critique a décrit comme « blackface high-tech. » Une autre étude de cette année, co-écrite par des scientifiques affiliés à Harvard et Autodesk, a cherché à créer une base de données «racialement équilibrée» capturant un sous-ensemble de personnes LGBTQ mais conçue du genre d’une manière non seulement contradictoire mais dangereuse, selon un chercheur en IA de l’Université de Washington. Os Keyes. Plus alarmante a été l’annonce en août d’une étude sur les libérés conditionnels de l’Indiana qui cherche à prédire la récidive avec l’IA, même face à des preuves que les algorithmes de prédiction de la récidive renforcent les préjugés raciaux et sexistes.

Lors de conversations avec Khari Johnson de VentureBeat l’année dernière, Anima Anandkumar, directeur de la recherche sur l’apprentissage automatique de Nvidia, Soumith Chintala de Facebook (qui a créé le cadre d’IA PyTorch) et le directeur de la recherche d’IBM, Dario Gil, ont prédit que trouver des moyens pour que l’IA reflète mieux le type de société que les gens veulent. à construire deviendrait une question centrale en 2020. Ils s’attendaient également à ce que la communauté de l’IA s’attaque de front aux problèmes de représentation, d’équité et d’intégrité des données, tout en veillant à ce que les ensembles de données utilisés pour former les modèles tiennent compte de différents groupes de personnes.

Cela ne s’est pas produit. Alors que les chercheurs critiquent Google pour son opaque (et sa censure) pratiques de recherche, les entreprises commercialisent des modèles dont la formation contribue aux émissions de carbone, et les systèmes linguistiques problématiques font leur chemin vers la production, 2020 a été une année de régression plutôt que de progression à bien des égards pour la communauté de l’IA. Mais au niveau réglementaire, il y a de l’espoir pour redresser le navire.

Dans le sillage du mouvement Black Lives Matter, un nombre croissant de villes et d’États ont exprimé des préoccupations concernant la technologie de reconnaissance faciale et ses applications. Oakland et San Francisco en Californie et Somerville, Massachusetts font partie des métros où les forces de l’ordre n’ont pas le droit d’utiliser la reconnaissance faciale. Dans l’Illinois, les entreprises doivent obtenir le consentement avant de collecter des informations biométriques de toute nature, y compris des images faciales. New York récemment passé un moratoire sur l’utilisation de l’identification biométrique dans les écoles jusqu’en 2022, et les législateurs du Massachusetts ont avancé un suspension l’utilisation par le gouvernement de tout système de surveillance biométrique au sein du Commonwealth. Plus récemment, Portland, Maine a approuvé une initiative de vote interdisant l’utilisation de la reconnaissance faciale par la police et les agences municipales.

Dans le même ordre d’idées, la Commission européenne a proposé plus tôt cette année la loi sur les services numériques, qui, si elle était adoptée, obligerait les entreprises à révéler des informations sur le fonctionnement de leurs algorithmes. Les plates-formes de plus de 45 millions d’utilisateurs dans l’Union européenne devraient proposer au moins une option de recommandation de contenu «non basée sur le profilage», et les amendes pour non-respect des règles pourraient atteindre jusqu’à 6% du chiffre d’affaires annuel d’une entreprise.

Ces exemples ne suggèrent pas que l’ensemble de la communauté de recherche sur l’IA ne tient pas compte de l’éthique et a donc besoin de freiner. Par exemple, cette année marquera la quatrième conférence annuelle de l’Association for Computing Machinery sur l’équité, la responsabilité et la transparence, qui figurera parmi autres travaux Recherche de Gebru sur les impacts des grands modèles de langage. Au contraire, l’histoire récente a montré que la production de l’IA, guidée par des réglementations telles que les moratoires et la législation sur la transparence, favorise des applications plus équitables de l’IA que ce qui aurait pu être envisagé autrement. Dans un cas typique, face à la pression des législateurs, Amazon, IBM et Microsoft ont accepté d’arrêter ou de mettre fin à la vente de la technologie de reconnaissance faciale à la police.

Les intérêts des actionnaires – et même du monde universitaire – seront souvent en contradiction avec le bien-être des personnes privées de leurs droits. Mais la montée des recours juridiques pour freiner les abus et les abus de l’IA montre une lassitude envers le statu quo. En 2021, il n’est pas déraisonnable de s’attendre à ce que la tendance se poursuive et que la communauté de l’IA soit forcée (ou soit préventivement) de s’aligner. Malgré tous les échecs de 2020, avec un peu de chance, il a jeté les bases d’un changement de pensée en ce qui concerne l’IA et ses effets.

Pour la couverture de l’IA, envoyez des conseils de nouvelles à Khari Johnson et Kyle Wiggers et à l’éditeur d’IA Seth Colaner – et assurez-vous de vous abonner à la newsletter AI Weekly et de mettre en signet notre chaîne d’IA, The Machine.

Merci d’avoir lu,

Kyle Wiggers

Rédacteur AI

VentureBeat

La mission de VentureBeat est d’être une ville numérique permettant aux décideurs techniques d’acquérir des connaissances sur la technologie transformatrice et d’effectuer des transactions. Notre site fournit des informations essentielles sur les technologies de données et les stratégies pour vous guider dans la conduite de vos organisations. Nous vous invitons à devenir membre de notre communauté, pour accéder:
  • des informations à jour sur les sujets qui vous intéressent,
  • nos newsletters
  • contenu de leader d’opinion fermé et accès à prix réduit à nos événements prisés, tels que Transform
  • fonctionnalités de mise en réseau, et plus encore.
Devenir membre

Happy
Happy
0
Sad
Sad
0
Excited
Excited
0
Sleppy
Sleppy
0
Angry
Angry
0
Surprise
Surprise
0

Average Rating

5 Star
0%
4 Star
0%
3 Star
0%
2 Star
0%
1 Star
0%

Laisser un commentaire

Next Post

Comment monter en flèche votre présence de marque numérique?

Google vous surveille en permanence et cartographie chacune de vos étapes, analyse la nature de votre entreprise et vous aide à élargir votre réseau de clients potentiels. Comment? Toute agence de marketing numérique à Melbourne dira merci au marketing numérique! Mais le marketing numérique est un parapluie avec de nombreuses […]

Abonnez-vous maintenant