Éthique et IA : Les algorithmes nous suppriment-ils ?

Science-and-People-2018.jpg
Le panel Science & People de la Science Week de Berlin a abordé l'éthique numérique. Les conférenciers étaient les professeurs Ina Schieferdecker de l'Université technique de Berlin, Katharina Simbeck de l'Université de Haute-Autriche et Berlin, et Matthias Spielkamp, ​​journaliste et fondateur d'AlgorithmWatch.

Ceci est une traduction de l'article original "Ethics in AI: Are algorithms suppressing us?". La quasi-totalité des liens de cet article redirigent donc vers des sources en anglais.

Je découvre l'article en anglais


Pourquoi est-ce que je vois une publicité pour des vols à destination de Paris juste après avoir recherché les sites touristiques de la capitale? Qui détermine les conditions de crédit pour mon nouvel ordinateur portable? Comment les médias sociaux savent-ils quel contenu est pertinent pour moi?

L'omniprésence des algorithmes dans nos activités quotidiennes est difficile à surveiller, ce qui soulève des questions éthiques concernant la prise de décision automatisée et ses effets sur la vie des personnes.

Au cours de la Science Week 2018 à Berlin, Elsevier a co-organisé un panel de discussion Science & People intitulé "Éthique numérique: les algorithmes nous suppriment-ils ?" La question portait sur les préoccupations exprimées par beaucoup lors de la prise en compte des aspects sociétaux de l'ère digitale. Trop souvent, le mot "algorithme" n’est utilisé qu'en l’absence d’un terme plus précis. Lors de l'examen des implications éthiques des algorithmes, les sujets dont nous parlons sont en réalité des "systèmes d'aide à la décision" (Decision Support System : DSS) qui analysent les données de manière flexible et fournissent des suggestions d'action.

Il est important de noter que classer les DSS dans la catégorie intelligence artificielle (IA) est peut-être approprié, mais à mesure que le développement technologique progresse, les perceptions risquent de changer. Comme l'explique Matthias Spielkamp, ​​journaliste et fondateur d'AlgorithmWatch :

Ce que nous appelions IA il y a 20 ans, nous n’appelons plus aujourd'hui IA, mais un logiciel. Dans quinze ans, nous allons probablement redéfinir ce que nous appelons l'IA aujourd'hui.

En outre, il est essentiel de garder à l'esprit que les algorithmes ne sont pas des entités autonomes, mais des outils créés par des personnes pour atteindre un certain objectif.

Bien qu'ils constituent des outils utiles, les algorithmes comportent un risque inhérent de désavantage systématique des personnes en fonction de facteurs tels que l'origine ethnique, le sexe ou le statut social. Cependant, la cause de cette discrimination ne réside pas dans l'algorithme lui-même, mais dans les données utilisées pour le former. Les DSS prennent leurs décisions en fonction des données qui leur sont fournies. Par conséquent, si des données biaisées sont introduites dans le système, les décisions prises et les actions suggérées par le DSS seront également biaisées et pourraient être éthiquement discutables. Par conséquent, la sélection minutieuse des échantillons de données fournis au DSS revêt une importance cruciale. À cet égard, le professeur Ina Schieferdecker, directrice de l'Institut Fraunhofer pour les systèmes de communication ouverts (FOKUS), a déclaré :

Nous devons nous assurer que la technologie ne restreint pas la liberté ou l'autodétermination des personnes, n'interfère ni ne met en danger la vie. Je considère clairement qu'il y a une ligne à ne pas dépasser en ce qui concerne les droits de l'homme et la primauté du droit.

Pour faire face aux risques potentiels posés par les algorithmes, les consommateurs exigent de plus en plus de transparence afin de mieux comprendre le fonctionnement des services qu’ils utilisent. Les défenseurs des consommateurs et les groupes de défense de la vie privée demandent une réglementation gouvernementale - une approche considérée avec un certain scepticisme par la communauté scientifique.

Définir l'objet de la régulation est un défi: les algorithmes sont fait d'un code de programmation, qui ne peut pas lui-même être régulé. Seul les entités administrant ce code ou le résultat réel de ce code peuvent être régulés. Cependant, le rôle et la responsabilité de l'individu ne doivent pas non plus être totalement ignorés. Encourager le débat dans la sphère publique est donc crucial, a conclu le Docteur Katharina Simbeck, professeur en numérisation, contrôle du marketing et analyse à HTW Berlin :

Il est important que nous discutions des conséquences éthiques et sociales de la numérisation sur la scène publique et que nous réfléchissions à la manière dont nous, en tant que société, voulons les traiter. Dans le même temps, chacun devrait également être conscient de sa responsabilité individuelle lors de l'utilisation de ces systèmes.

Les chercheurs et les développeurs dans le domaine de l'apprentissage automatique et de l'intelligence artificielle sont donc de plus en plus tenus pour responsables non seulement de l'exactitude factuelle et méthodologique de leurs recherches, mais également de leurs éventuelles ramifications éthiques.

Pour sensibiliser davantage, certains suggèrent d’inclure des considérations éthiques dans l’enseignement universitaire, notamment en sciences naturelles et en génie, et de renforcer les échanges interdisciplinaires en matière d’apprentissage machine et d’IA. Celles-ci sont considérées comme les premières étapes permettant aux chercheurs de prendre davantage conscience des implications éthiques potentielles de leurs décisions lors de la conception de systèmes automatisés DSS. À cet égard, M. Spielkamp a soutenu:

Les systèmes de prise de décision automatisés devraient être utilisés pour le bien commun, accroître la participation et améliorer la justice. Ce sont tous des concepts importants et difficiles à définir, mais nous devons les aborder car nous devons en discuter en tant que société.

Et au sein de la société, a conclu le panel, les chercheurs peuvent et doivent faire leur part.

Science & People

Science & People est une série d’événements réunissant des citoyens, des chercheurs, des décideurs politiques et des représentants de la scène technologique et des startups de Berlin. Science & People cherche à faciliter la conversation entre la science et la société, en s'adressant à ceux qui ne seraient pas régulièrement au contact des sujets scientifiques, en expliquant pourquoi la science est importante et en créant un carrefour où le public peut s'engager activement dans des sujets de recherche socialement pertinents.

Elsevier et les partenaires du projet, Fraunhofer-Verbund IUK-Technologie, le Stifterverband für die Deutsche Wissenschaft et le Wissenschaft im Dialog (WiD) ont accueilli Science & People pour la septième fois en 2018.

Share
Tweet
Share
Share