Salut à tous,
Du site Agence France- Presse : ¨ Depuis que l’intelligence artificielle s’infiltre dans toutes les facettes de nos vies, une inquiétude pointe : si les machines doivent nous aider à prendre des décisions, comment s’assurer que celles-ci soient prises sur une base juste pour un groupe ou une personne. Les chercheurs travaillant en apprentissage profond (deep learning) doivent composer désormais avec ces possibles biais des algorithmes .
Un algorithme discriminatoire
Rhema Vaithianathan, chercheuse en économie de la santé et codirectrice du Centre pour l’analyse des données sociales, exposait dans une récente édition de la revue savante Nature, ses préoccupations face à ces biais et comment elle entendait y remédier.
Tous les jours, les lignes d’alerte de la région de Pittsburgh, en Pennsylvanie, reçoivent des douzaines d’appels de personnes suspectant que des enfants sont en danger. Les appels d’aide, qui parviennent aux centres d’appels, sont ensuite traités par des ordinateurs, capables d’analyser un immense bassin de données sensibles, dont l’histoire familiale ou le passé criminel des personnes inscrites dans leur base de données. Une échelle de risque est par la suite générée pour chaque appel, se soldant parfois par une enquête plus poussée. Plusieurs cas d’abus échappent cependant encore à ce processus.
La chercheuse a récemment reçu une subvention de recherche afin d’optimiser ce traitement d’alerte des cas d’abus d’enfants. Lors d’une présentation sur le fonctionnement de son nouvel algorithme, la chercheuse a été grandement ébranlée par la question d’un parent inquiet. Cet ancien consommateur de drogue a vu ses enfants lui être retirés à la suite d’un signalement même s’il ne consomme plus depuis quelque temps. En regard à son dossier, tous ses efforts de reprise en mains comptent-ils pour rien ? En d’autres mots : l’algorithme risque-t-il de le juger injustement, a questionné le parent.
Rhema Vaithianathan lui a assuré qu’un humain prend toujours part au processus. Mais maintenant que l’algorithme (Allegheny Family Screening Tool - AFST) est mis en place, la chercheuse se dit dans son billet encore troublée par cette question.
Les calculs informatiques font de plus en plus partie intégrante des décisions importantes, incluant la détention de personnes accusées de crime ou encore, comme ici, la sélection des familles devant faire l’objet d’une enquête pour abus d’enfant, explique la chercheuse. Devant les biais possibles, elle a décidé de faire appel à la statisticienne Alexandra Chouldechova, de l’Université de Carnegie Mellon, à Pittsburgh, afin de vérifier si son algorithme se livrait à de la discrimination envers certains groupes.
Un enjeu démocratique !
Depuis de nombreuses années, des logiciels aident les législateurs américains à procéder au redécoupage électoral. Mais ils perpétueraient les mêmes biais en favorisant les pratiques en place tout en réduisant le pouvoir de décision ou de contestation, explique la chercheuse Wendy K. Tam Cho dans un long commentaire pour la revue Nature.
« La technologie est à la fois une menace et une promesse », soutient la chercheuse. La professeure de sciences politiques, droit, statistiques et mathématiques de l’Université de l’Illinois développe des modèles d’intelligence artificielle permettant de traiter l’information des cartes électorales¨... ( Voir l`article au complet )
http://www.sciencepresse.qc.ca/actualite/2018/07/05/intelligence-artificielle-combattre-injustice-algorithmes
Pégé
Windows 7 Familiale / Windows XP Pro / Windows 10 / Windows 7 Intégrale / Ubuntu 14.04 LTS / Linux Mint 17 / Mac ¨Tiger¨, version 10.4.11
Du site Agence France- Presse : ¨ Depuis que l’intelligence artificielle s’infiltre dans toutes les facettes de nos vies, une inquiétude pointe : si les machines doivent nous aider à prendre des décisions, comment s’assurer que celles-ci soient prises sur une base juste pour un groupe ou une personne. Les chercheurs travaillant en apprentissage profond (deep learning) doivent composer désormais avec ces possibles biais des algorithmes .
Un algorithme discriminatoire
Rhema Vaithianathan, chercheuse en économie de la santé et codirectrice du Centre pour l’analyse des données sociales, exposait dans une récente édition de la revue savante Nature, ses préoccupations face à ces biais et comment elle entendait y remédier.
Tous les jours, les lignes d’alerte de la région de Pittsburgh, en Pennsylvanie, reçoivent des douzaines d’appels de personnes suspectant que des enfants sont en danger. Les appels d’aide, qui parviennent aux centres d’appels, sont ensuite traités par des ordinateurs, capables d’analyser un immense bassin de données sensibles, dont l’histoire familiale ou le passé criminel des personnes inscrites dans leur base de données. Une échelle de risque est par la suite générée pour chaque appel, se soldant parfois par une enquête plus poussée. Plusieurs cas d’abus échappent cependant encore à ce processus.
La chercheuse a récemment reçu une subvention de recherche afin d’optimiser ce traitement d’alerte des cas d’abus d’enfants. Lors d’une présentation sur le fonctionnement de son nouvel algorithme, la chercheuse a été grandement ébranlée par la question d’un parent inquiet. Cet ancien consommateur de drogue a vu ses enfants lui être retirés à la suite d’un signalement même s’il ne consomme plus depuis quelque temps. En regard à son dossier, tous ses efforts de reprise en mains comptent-ils pour rien ? En d’autres mots : l’algorithme risque-t-il de le juger injustement, a questionné le parent.
Rhema Vaithianathan lui a assuré qu’un humain prend toujours part au processus. Mais maintenant que l’algorithme (Allegheny Family Screening Tool - AFST) est mis en place, la chercheuse se dit dans son billet encore troublée par cette question.
Les calculs informatiques font de plus en plus partie intégrante des décisions importantes, incluant la détention de personnes accusées de crime ou encore, comme ici, la sélection des familles devant faire l’objet d’une enquête pour abus d’enfant, explique la chercheuse. Devant les biais possibles, elle a décidé de faire appel à la statisticienne Alexandra Chouldechova, de l’Université de Carnegie Mellon, à Pittsburgh, afin de vérifier si son algorithme se livrait à de la discrimination envers certains groupes.
Un enjeu démocratique !
Depuis de nombreuses années, des logiciels aident les législateurs américains à procéder au redécoupage électoral. Mais ils perpétueraient les mêmes biais en favorisant les pratiques en place tout en réduisant le pouvoir de décision ou de contestation, explique la chercheuse Wendy K. Tam Cho dans un long commentaire pour la revue Nature.
« La technologie est à la fois une menace et une promesse », soutient la chercheuse. La professeure de sciences politiques, droit, statistiques et mathématiques de l’Université de l’Illinois développe des modèles d’intelligence artificielle permettant de traiter l’information des cartes électorales¨... ( Voir l`article au complet )
http://www.sciencepresse.qc.ca/actualite/2018/07/05/intelligence-artificielle-combattre-injustice-algorithmes
Pégé
Windows 7 Familiale / Windows XP Pro / Windows 10 / Windows 7 Intégrale / Ubuntu 14.04 LTS / Linux Mint 17 / Mac ¨Tiger¨, version 10.4.11
Aucun commentaire:
Enregistrer un commentaire