La prise de décisions à l’aide d’algorithmes : vers une justification fiabiliste

Mercredi le 18 mars prochain, Olivier Grenier nous présentera une partie de sa conférence qu’il fera à l’ACFAS en mai prochain dans le cadre du second séminaire interne de la chaire.

En raison des mesures mises en place par le gouvernement provincial, le séminaire interne se tiendra par visioconférence. Il vous suffit de vous connecter à l’application zoom et d’entrer le numéro de la salle de réunion (« Meeting id », voir information ci-dessous).

Cet événement est une occasion en or pour recevoir vos commentaires constructifs. Si vous êtes intéressé.es à lire l’article d’Oliver et de commenter sa présentation, alors envoyer un courriel à l’adresse suivante: emmanuel.bilodeau@USherbrooke.ca. Voici un résumé de la présentation:

L’intelligence artificielle occupe une place de  plus en plus importante dans nos sociétés, à commencer par l’utilisation d’algorithmes pour diverses fins : les achats en ligne, les applications de rencontre, l’aide à la recherche scientifique, le calcul de risques de récidive, et bien d’autres. Cependant, plusieurs intellectuels déplorent l’opacité des algorithmes de décision. Par exemple, nous ne savons pas toujours quelles informations sont utilisées pour prendre une décision, comment cette information est obtenue, comment elle est traitée par l’algorithme, à quelle fin un algorithme est utilisé, etc. Ces intellectuels estiment qu’il n’est pas justifié d’utiliser un algorithme pour prendre une décision si cet algorithme n’est pas suffisamment transparent : une décision prise par un algorithme doit pouvoir être expliquée de manière compréhensible aux individus affectés par cette décision. Cet argumentaire néglige toutefois le fait que les algorithmes de décision sont généralement utilisés pour prendre des décisions parce qu’ils sont plus fiables que les êtres humains pour prendre ces décisions. Or, utiliser des méthodes de prise de décision moins fiables est susceptible d’entraîner davantage de conséquences indésirables à long terme. Dans cette présentation, je  propose un contrepoids à l’argumentaire de la transparence algorithmique en soutenant que la fiabilité des algorithmes de décision doit être prise en compte en éthique des algorithmes. Je discute ensuite des manières de comprendre le concept de « transparence algorithmique ». J’argumente que le niveau de transparence requis pour justifier l’utilisation d’un algorithme n’est pas nécessairement le même pour tous les algorithmes. Finalement, je propose d’évaluer les décisions prises par certains algorithmes, les réseaux de neurones à convolution, à l’aide des propriétés de leurs outputs plutôt qu’à l’aide strictement de la fiabilité du processus de prise de décision.

François Claveau is inviting you to a scheduled Zoom meeting.
Topic: Séminaire interne de la Chaire d'épistémo pratique
Time: Mar 18, 2020 12:00 PM America/Toronto

Join Zoom Meeting
https://uqam.zoom.us/j/988621952

Meeting ID: 988 621 952

One tap mobile
+16475580588,,988621952# Canada
Dial by your location
        +1 647 558 0588 Canada
Meeting ID: 988 621 952
Find your local number: https://uqam.zoom.us/u/abrgVRgHxO

Join by SIP
988621952@zoomcrc.com

Join by H.323
162.255.37.11 (US West)
162.255.36.11 (US East)
221.122.88.195 (China)
115.114.131.7 (India Mumbai)
115.114.115.7 (India Hyderabad)
213.19.144.110 (EMEA)
103.122.166.55 (Australia)
209.9.211.110 (Hong Kong)
64.211.144.160 (Brazil)
69.174.57.160 (Canada)
207.226.132.110 (Japan)
Meeting ID: 988 621 952

Ce contenu a été mis à jour le 20 mars 2020 à 21 h 03 min.