<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	
xmlns:georss="http://www.georss.org/georss" xmlns:geo="http://www.w3.org/2003/01/geo/wgs84_pos#"
>

<channel>
	<title>InternetActu</title>
	<atom:link href="https://www.lemonde.fr/blog/internetactu/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.lemonde.fr/blog/internetactu</link>
	<description>InternetActu.net sur LeMonde.fr</description>
	<lastBuildDate>Thu, 12 Mar 2020 07:51:34 +0000</lastBuildDate>
	<language>fr-FR</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=5.2.24</generator>
<site xmlns="com-wordpress:feed-additions:1">163787489</site>	<item>
		<title>Désinvestir, désinnover, désincuber : demain, la dernière start-up ?</title>
		<link>https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/</link>
				<pubDate>Thu, 12 Mar 2020 07:49:13 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[économie]]></category>
		<category><![CDATA[prospective]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2836</guid>
				<description><![CDATA[Le philosophe Alexandre Monnin (@aamonnz) et l&#8217;économiste Diego Landivar (@landivar_diego) enseignent à l&#8217;École supérieure de commerce de Clermont et sont à l&#8217;origine de Origens Media Lab (OML), un collectif entre laboratoire de recherche et tiers lieu interdisciplinaire, qui s&#8217;interroge sur ce qui se joue derrière la crise écologique. A l&#8217;occasion du colloque Écologies Mobiles, qui &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Désinvestir, désinnover, désincuber : demain, la dernière start-up ?&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=D%C3%A9sinvestir%2C+d%C3%A9sinnover%2C+d%C3%A9sincuber+%3A+demain%2C+la+derni%C3%A8re+start-up+%3F%20-%20https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/&amp;media=&amp;description=Le+philosophe+Alexandre+Monnin+%28%40aamonnz%29+et+l%27%C3%A9conomiste+Diego+Landivar+%28%40landivar_diego%29+enseigne" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Désinvestir, désinnover, désincuber : demain, la dernière start-up ?&amp;body=Le philosophe Alexandre Monnin (@aamonnz) et l&#039;économiste Diego Landivar (@landivar_diego) enseigne%20-%20https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2836" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/&amp;title=D%C3%A9sinvestir%2C+d%C3%A9sinnover%2C+d%C3%A9sincuber+%3A+demain%2C+la+derni%C3%A8re+start-up+%3F" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/&amp;title=D%C3%A9sinvestir%2C+d%C3%A9sinnover%2C+d%C3%A9sincuber+%3A+demain%2C+la+derni%C3%A8re+start-up+%3F" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p>Le philosophe Alexandre Monnin (<a href="https://twitter.com/aamonnz">@aamonnz</a>) et l&rsquo;économiste <a href="https://diegolandivar.wordpress.com/">Diego Landivar</a> (<a href="https://twitter.com/landivar_diego">@landivar_diego</a>) enseignent à l&rsquo;École supérieure de commerce de Clermont et sont à l&rsquo;origine de <a href="https://origensmedialab.org/">Origens Media Lab</a> (OML), un collectif entre laboratoire de recherche et tiers lieu interdisciplinaire, qui s&rsquo;interroge sur ce qui se joue derrière la crise écologique. A l&rsquo;occasion du colloque <a href="https://www.mobilecreation.fr/">Écologies Mobiles</a>, qui interrogeait la dimension ambivalente de la culture mobile dans ses aspects les plus sombres, ils ont déroulé une stimulante réflexion en forme de parodie du discours de la <a href="https://www.bpifrance.fr/">Banque publique d&rsquo;investissement</a>. Les deux chercheurs se présentaient, ironiquement, à la manière de deux entrepreneurs venus exposer leur <em>« business plan pour arrêter le monde et fermer l&rsquo;avenir »</em> sous la forme d&rsquo;une banque publique de désinvestissement, désinnovation et désincubation.</p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/03/264c971b-fermerlavenirbdpi.jpg"><img src="https://asset.lemde.fr/prd-blogs/2020/03/264c971b-fermerlavenirbdpi.jpg" alt="Visuel de la BPDI" width="540" class="aligncenter size-full wp-image-2837" /></a><br />
<em>Image : Image de présentation de la BPDI, parodiant les visuels de la BPI.</em></p>
<h2>Comment renoncer à une modernisation sans fin ?</h2>
<p>Le contexte qui est le nôtre, rappelle Alexandre Monnin, est bien sûr la situation d&rsquo;effondrement écologique. Un contexte qui n&rsquo;est pas nécessairement lointain géographiquement ou temporellement, comme le souligne <a href="https://stationsfantomes.wordpress.com/">la liste, grandissante, des stations de ski Françaises fantômes</a> (<a href="https://www.lejdd.fr/Societe/sur-la-piste-des-stations-de-ski-fantomes-3940060">168 au dernier comptage</a>, voir également <a href="https://www.google.com/maps/d/u/0/viewer?mid=13mqBLIvRggzSRoaGoAX41WR3Ttg&amp;ll=46.2365521938586%2C2.8627590499999087&amp;z=6">cette carte</a>). Chaque saison, l&rsquo;actualité nous demande si le coût de maintenance des sports d&rsquo;hiver est encore rationnel, à l&rsquo;image de la récente polémique autour de la livraison de neige en hélicoptère dans une station des Pyrénées. Cet exemple illustre bien la difficulté à renoncer au <em>« front de modernisation »</em> que nous avons produit. Face au réchauffement climatique, à terme et dès à présent, tous les domaines skiables sont impactés : or, ici, il n&rsquo;y a nulle réserve pour <em>« refaire »</em> de la croissance, pour prolonger le développement économique… <em>« C&rsquo;est ce contexte de « territoires catastrophiques » qui nous intéresse chez OML »</em>. </p>
<p>Mais, il n&rsquo;y a pas qu&rsquo;un contexte, il y a également des clients, s&rsquo;amusent les deux chercheurs en déclinant leur présentation comme un business plan. <em>« Nos clients sont les patrons effondrés »</em>, ceux qui commencent à comprendre et à vivre l&rsquo;effroi catastrophique, à l&rsquo;image du PDG d&rsquo;Axa, qui, dès 2015, soulignait <a href="https://www.axa.com/fr/newsroom/actualites/non-scepticisme-il-faut-agir">qu&rsquo;un monde à +4 degrés ne serait plus assurable</a>. Les deux chercheurs rapportent d&rsquo;autres types de propos de patrons déprimés et de boomers désabusés : <em>« Nous ne savons pas comment faire, faut l&rsquo;avouer… Moi, je ne vois pas d&rsquo;autre solution. Il faut qu&rsquo;on nous impose une planification écologique&#8230; car on ne sait optimiser que sous contrainte ! »</em> ; <em>« Ma fille m&rsquo;a dit : papa, je ne veux pas être ingénieur, je ne veux pas travailler dans ton monde à toi. »</em> ; <em>« La décroissance est devenue le principal horizon d&rsquo;optimisation financière »</em>, confiait même un patron de fonds d&rsquo;investissement. <em>« On commence à entendre des discours inquiets d&rsquo;acteurs qui sont pourtant au coeur du système »</em>, de gens en pleine schizophrénie entre ce qu&rsquo;ils font au quotidien et ce qu&rsquo;ils constatent ou pensent. Des entrepreneurs ouvrent des nouveaux marchés le jour et passent leurs soirées dans des cafés collapso ! En privé, certains politiques commencent à parler de décroissance nécessaire. </p>
<p>Il y a d&rsquo;autres clients potentiels pour cette agence de désinvestissement publique, notamment les organisations qui planifient leurs fins. Nombre d&rsquo;entreprises, de directions de la prospective, souvent du fait de la compétition économique, scénarisent leur sortie du marché. A l&rsquo;occasion du CES 2018, le constructeur automobile Ford a imaginé une ville du futur où les voitures autonomes cèdent le pas aux piétons, reconnaissant même les effets délétères de la voiture sur la ville ! En France, Michelin, travaille sur l&rsquo;après-pneu, alors que celui-ci est le coeur de son activité. Total a un groupe de réflexion sur l&rsquo;après-pétrole… D&rsquo;une certaine manière, nombre d&rsquo;organisations organisent leur fin et se dotent d&rsquo;un support d&rsquo;ingénierie de la fermeture, que ce soit pour changer ou adapter leurs activités, fermer des départements, comme les constructeurs de matériel de ski qui se mettent au street wear… Ici, ce qui est intéressant, c&rsquo;est moins les déclarations médiatiques, que l&rsquo;ingénierie applicative qui se met en place pour transformer le domaine d&rsquo;intervention des entreprises et parfois donc, le réduire. Si l&rsquo;ingénierie de l&rsquo;innovation est bien plus explorée que celle de la <em>« disnovation »</em>, cette ingénierie de la fermeture existe, à l&rsquo;image de celle qui travaille à fermer des centrales ou à désamianter (qui ne relève d&rsquo;ailleurs pas de la même filière que celle qui a produit et déployé l&rsquo;usage de l&rsquo;amiante). Quand on s&rsquo;intéresse à <em><a href="https://www.editionsladecouverte.fr/catalogue/index-O___atterrir__-9782707197009.html">Où atterrir ?</a></em>, comme nous y invitait Bruno Latour, il faut aussi s&rsquo;interroger du très concret <em>« Comment atterrir ? »</em></p>
<p>Pour cela, il est nécessaire d&rsquo;offrir à ces acteurs, à ces organisations des outils, des technologies, des leviers, dans les formes qu&rsquo;elles pratiquent. Il en existe déjà d&rsquo;ailleurs, expliquent Alexandre Monnin et Diego Landivar en évoquant <a href="https://www.mckinsey.com/business-functions/strategy-and-corporate-finance/our-insights/enduring-ideas-the-ge-and-mckinsey-nine-box-matrix#">la matrice d&rsquo;investissement du cabinet de conseil McKinsey</a>, qui permet de situer ses investissements stratégiques sur un marché selon l&rsquo;attractivité du marché et la position compétitive de l&rsquo;entreprise sur ce marché, et invite, selon ses positions à investir ou à désinvestir un marché ! Si cette matrice est surtout utilisée pour le renforcement stratégique, elle demeure <em>« acosmique »</em>, c&rsquo;est-à-dire décorrélée de toute insertion dans le monde : le désinvestissement n&rsquo;est observé qu&rsquo;en évaluant les coûts et  les pertes à court ou moyen terme. Elle est aussi « zéro-durabilité », car elle ne prend pas en compte justement les effets écologiques à long terme des positions stratégiques. Les deux chercheurs proposent de faire évoluer cette matrice pour y introduire une durabilité plus prononcée qui renforce les renoncements stratégiques. Dans cette nouvelle matrice, les positions concurrentielles fortes et le surinvestissement disparaissent, car toute croissance des marchés s&rsquo;annonce incompatible avec la planète. Dans cette nouvelle matrice, s&rsquo;il demeure des domaines réservés, c&rsquo;est en compensant leurs effets écologiques, et au désinvestissement économique et écologique s&rsquo;ajoutent des possibilités de fermeture et de renoncement à des projets pour des raisons économiques et écologiques. Les positions concurrentielles fortes impliquant par essence une croissance forte, elles, disparaissent du fait de leur incompatibilité avec les limites de la planète. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/03/1eafbcfc-matricedefermeture.jpg"><img src="https://asset.lemde.fr/prd-blogs/2020/03/1eafbcfc-matricedefermeture.jpg" alt="" width="540" class="aligncenter size-full wp-image-2838" /></a><br />
<em>Image : la matrice de McKinsey, revisitée par OML.</em></p>
<p>Pour Alexandre Monnin, il nous faut penser l&rsquo;idée de <em>« destauration »</em>, l&rsquo;envers de l&rsquo;instauration chère au philosophe de l&rsquo;esthétique, Étienne Souriau (pour creuser ces termes, je vous renvoie <a href="http://notesondesign.org/instituer-par-le-design/">à ce compte-rendu d&rsquo;une conférence donnée par Alexandre Monnin en 2017</a>), c&rsquo;est-à-dire l&rsquo;idée de la fermeture des possibles, d&rsquo;une réduction, d&rsquo;un retrait d&rsquo;activité. Derrière la destauration, il y a aussi la notion de destitution voire même l&rsquo;idée de désaffectation qu&rsquo;on trouve chez le philosophe Giogio Agamben. Désaffecter quelque chose consiste souvent à le réaffecter, à défaire le monde pour le faire « atterrir ». La destauration suppose également de faire avec des héritages, avec des futurs passés, qu&rsquo;il ne s&rsquo;agit pas seulement de détruire ou de fermer, mais parfois de désintensifier, de rediriger… comme nous y sommes conviés avec la fermeture des centrales nucléaires ou avec le site, contesté, d&rsquo;enfouissement des déchets de Bure, mais également, d&rsquo;une autre manière par l&rsquo;internet des objets ou la blockchain, succédanés de l&rsquo;informatique ambiante de Mark Weiser, projections industrielles désormais déphasées par rapport à la situation anthopocènique à laquelle nous sommes confrontés. Nous héritons de <em>« futurs déjà obsolètes »</em>, comme la 5G, qui commence à être contestée parfois même en interne chez certains opérateurs. Demain, aurons-nous besoin de gilets jaunes anti-techno ? Comment destaure-t-on les mauvaises idées qu&rsquo;on sait qu&rsquo;il ne faut pas faire advenir ? Nous manquons d&rsquo;une ingénierie de la destauration ! Si le designer australien, <a href="https://www.thestudioattheedgeoftheworld.com/">Tony Fry</a> (<em><a href="https://www.bloomsbury.com/uk/design-futuring-9781847882172/">Design Futuring</a></em>, Berg Publishers, 2008, non traduit), parle de futuration pour désigner notre capacité collective à instaurer une relation au monde et à produire un futur commun, habitable, soutenable ; il nous faut imaginer son envers, une défuturation, pour nous préserver d&rsquo;un futur mort-né, obsolète avant que d&rsquo;être advenu. À l&rsquo;heure où l&rsquo;on ne cesse de parler d&rsquo;innovation, on ne parle jamais de défuturation, de réaffectation, de destauration… alors qu&rsquo;on en a certainement plus que jamais besoin. </p>
<h2>Destauration, disnovation, défuturation… : il faut inventer les soins palliatifs de l&rsquo;innovation !</h2>
<p>Par exemple, dans la province de l&rsquo;Alberta, au Canada, il est prévu que les puits de pétrole soient fermés convenablement en fin d&rsquo;exploitation. Le problème est que personne ne s&rsquo;occupe vraiment de ces fermetures, que les technologies nécessaires n&rsquo;existent pas vraiment et que les entreprises n&rsquo;ont pas d&rsquo;intérêt stratégique à les développer. Certains ingénieurs estiment qu&rsquo;au rythme actuel de leur fermeture, il faudra 700 ans pour y parvenir ! Ces enjeux relèvent de la maintenance, de la réparation et du <em>care</em>, du soin… Mais à ces enjeux, il faut ajouter une finalité : la fermeture, qui permet de repenser ces champs de recherche. L&rsquo;enjeu, soulignent les chercheurs, n&rsquo;est pas tant de rendre nos technologies durables (elles ne le sont que dans la masse croissante des déchets qu&rsquo;elles produisent), que de trouver <em>« les modalités des soins palliatifs de l&rsquo;innovation »</em>. Nous sommes confrontés à des <em>« technologies zombies »</em>, pour faire référence au concept de <a href="http://mediaarchaeologylab.com/wp-content/uploads/2013/06/Zombie-media.pdf">médias zombies (.pdf)</a> développé par les théoriciens des médias <a href="http://conceptlab.com/">Garnet Hertz</a> et <a href="https://jussiparikka.net/">Jussi Parikka</a>, des <em>« technologies issues de la révolution industrielle qui fonctionnent et continuent d&rsquo;envahir le monde, mais qui sont déjà mortes à l&rsquo;aune de la durabilité »</em>, comme le dira dans une autre intervention à ce colloque, le professeur de physique José Halloy (<a href="https://twitter.com/jhalloy">@jhalloy</a>). Il faut envisager d&rsquo;euthanasier certaines infrastructures ! </p>
<p>Pour Diego Landivar, il est nécessaire de regarder les disciplines pensées, bâties, destinées à l&rsquo;ouverture et à l&rsquo;innovation &#8211; ces technologies pour <em>« forcer les possibles »</em> comme l&rsquo;explique le théoricien des sciences de gestion, Armand Hatchuel -, pour en penser le versant négatif ! Ainsi, peut-on imaginer un <em>« reverse design »</em>, un design inversé, pour détricoter les artefacts techniques, pour les amener à s&rsquo;aligner sur les limites planétaires… ou encore un versant sombre à la <a href="https://fr.wikipedia.org/wiki/Th%C3%A9orie_de_l%27acteur-r%C3%A9seau">théorie de l&rsquo;acteur réseau</a> permettant de réfléchir concrètement à comment atterrir et comprendre la difficulté à atterrir. Dans le riche catalogue de concepts qu&rsquo;ils fourbissent pour décrire des réalités sur lesquelles nous n&rsquo;avons pas encore de mots, ils parlent également d&rsquo;entrepocene pour désigner la transformation des figures entrepreneuriales à l&rsquo;heure de l&rsquo;anthropocène, ou encore du <a href="https://www.w3.org/community/wwca/">web qu&rsquo;on ne peut s&rsquo;offrir</a> (par opposition au <a href="https://webwewant.org/fr/">web que l&rsquo;on souhaite</a>, une campagne lancée par la <a href="https://webfoundation.org/">World Wide Web Foundation</a>)&#8230;</p>
<p>Très concrètement, pour donner de la matière à ces concepts, après avoir <a href="https://www.lemonde.fr/idees/article/2019/10/04/les-grandes-ecoles-doivent-former-a-la-redirection-ecologique_6014262_3232.html">cosigné en octobre dernier une tribune pour une formation à la redirection écologique dans <em>Le Monde</em></a>, les deux professeurs viennent de lancer <a href="https://www.strate.design/galerie/actualites/nouveau-msc-anthropocene-design">un master dédié à l&rsquo;ingénierie de la fermeture</a>, pour exploiter très concrètement ces pistes : <em>« Stratégie et Design pour l&rsquo;Anthropocène »</em>. </p>
<h2>« Il est temps d&rsquo;investir dans le dernier investissement ! »</h2>
<p>Un business plan ne serait pas complet sans aborder des fonctionnalités et des scénarios, expliquent Landivar et Monnin en revenant à leur présentation. Quel pourrait être <em>« la dernière application »</em>, <em>« la dernière startup »</em> d&rsquo;un monde en voie de fermeture ? Une application pour devenir survivaliste, peut-être, s&rsquo;amusent-ils, en pointant la vacuité d&rsquo;une logique consistant à prolonger sans fin le numérique, à continuer quand continuer n&rsquo;est plus possible. Pourrait-on imaginer une application utilisable sans l&rsquo;internet, pour commencer à apprendre à faire sans, pour commencer à nous défaire d&rsquo;un numérique que l&rsquo;on voit trop comme un commun qui s&rsquo;est imposé à nous et dont nous ne saurions plus nous passer ? La fin du numérique est assurément quelque chose à penser, expliquent-ils, invitant à anticiper une situation où le numérique n&rsquo;est plus viable. Enfin, l&rsquo;enjeu est certainement aussi d&rsquo;envisager de faire et surtout de défaire, donc sans numérique. L&rsquo;enjeu n&rsquo;est pas de rendre le numérique durable, mais de penser sa fin. De le penser comme un <em>« commun négatif »</em> (<a href="https://scinfolex.com/2018/06/10/le-zero-dechet-et-lemergence-des-communs-negatifs/">voir l&rsquo;article du juriste Lionel Maurel sur cette notion</a>). Les « communs négatifs » désignent des ressources, matérielles ou immatérielles, négatives, tels que les déchets, les résidus nucléaires, les sols pollués ou encore certains héritages culturels (comme le droit d&rsquo;un colonisateur…), dont il faut prendre soin collectivement à défaut de pouvoir faire table rase de ces réalités. Cet élargissement de la théorie classique des communs consiste à accorder une valeur négative à des réalités souvent jugées positives, « bucoliques », et à &lsquo;imaginer de nouvelles institutions pour permettre à des collectifs de se réapproprier démocratiquement des sujets qui leurs échappaient. Les stations de ski abandonnées, les fleuves pollués, les sols contaminés… sont autant de communs négatifs pour lesquels nous devons nous demander, comment on en hérite ? Ce qu&rsquo;on en fait ? Quelles institutions mettre en place pour les gérer ? Comment désaffectons-nous, réaffectons-nous ces communs négatifs ? L&rsquo;enjeu n&rsquo;est peut-être pas tant de lutter contre l&rsquo;obsolescence programmée, que de la favoriser, car <em>« on ne rend pas durables des technologies qui ne le sont fondamentalement pas ! »</em> </p>
<p><em>« Il est temps d&rsquo;investir dans le dernier investissement ! »</em>, concluent-ils d&rsquo;un dernier slogan, pour finir de mettre en abîme les perspectives schizophréniques qui sont les nôtres. Assurément, si l&rsquo;anthropocène s&rsquo;annonce comme un enjeu pour les organisations, il y a besoin d&rsquo;ouvrir un nouveau cadre de pensée. Ce que montre l&rsquo;intervention de Diego Landivar et Alexandre Monnin, c&rsquo;est combien pour appréhender ces changements auxquels nous devons faire face, nous avons aussi besoin de nouveaux concepts et de nouveaux vocabulaires, pour aider à légitimer d&rsquo;autres postures et faire émerger d&rsquo;autres modalités de soutien stratégique et organisationnel, afin d&rsquo;aider à lever les verrous qui empêchent les organisations de « s&rsquo;écologiser ». </p>
<p>Hubert Guillaud</p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2020/03/12/desinvestir-desinnover-desincuber-demain-la-derniere-start-up/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
									<post-id xmlns="com-wordpress:feed-additions:1">2836</post-id>	</item>
		<item>
		<title>Des limites du recrutement automatisé</title>
		<link>https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/</link>
				<pubDate>Thu, 05 Mar 2020 06:47:10 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[algorithme]]></category>
		<category><![CDATA[économie]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2831</guid>
				<description><![CDATA[Aux États-Unis, de plus en plus d&#8217;entreprises utilisent des systèmes automatisés de sélection de candidats, pointe le journaliste Nick Keppler pour Vice. Les logiciels de suivi de candidature comme on les appelle, longtemps réservés aux très grandes entreprises recevant des milliers de candidatures, sont désormais accessibles dans de plus en plus de secteurs et pour &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Des limites du recrutement automatisé&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=Des+limites+du+recrutement+automatis%C3%A9%20-%20https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/&amp;media=&amp;description=Aux+%C3%89tats-Unis%2C+de+plus+en+plus+d%27entreprises+utilisent+des+syst%C3%A8mes+automatis%C3%A9s+de+s%C3%A9lection+de" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Des limites du recrutement automatisé&amp;body=Aux États-Unis, de plus en plus d&#039;entreprises utilisent des systèmes automatisés de sélection de%20-%20https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2831" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/&amp;title=Des+limites+du+recrutement+automatis%C3%A9" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/&amp;title=Des+limites+du+recrutement+automatis%C3%A9" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p>Aux États-Unis, de plus en plus d&rsquo;entreprises utilisent des systèmes automatisés de sélection de candidats, pointe le journaliste Nick Keppler <a href="https://www.vice.com/en_us/article/pkekvb/cost-cutting-algorithms-are-making-your-job-search-a-living-hell">pour <em>Vice</em></a>. <a href="https://fr.wikipedia.org/wiki/Outil_de_suivi_de_candidature">Les logiciels de suivi de candidature</a> comme on les appelle, longtemps réservés aux très grandes entreprises recevant des milliers de candidatures, sont désormais accessibles dans de plus en plus de secteurs et pour tous types d&rsquo;entreprises et d&#8217;embauches (même de stagiaires). En moyenne, estime le site de recherche d&#8217;emploi Glassdor, 250 candidats postulent à une offre : un argument fort pour les vendeurs de solutions quand ils s&rsquo;adressent aux responsables des ressources humaines submergés de réponses… Le marketing de ces outils à destination des recruteurs est clair : il consiste à décharger le travail des RH sur les candidats. </p>
<p>Pour <a href="http://ifeomaajunwa.com/">Ifeoma Ajunwa</a> (<a href="https://twitter.com/iajunwa">@iajunwa</a>), spécialiste en droit du travail et auteure de <em>The Quantified Worker</em> (Cambridge University Press, 2020, à paraître), ces systèmes transfèrent le travail des départements de ressources humaines aux candidats, sans se préoccuper beaucoup d&rsquo;éthique. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/03/7bb81c9d-vicejobssearch-1024x767.png"><img src="https://asset.lemde.fr/prd-blogs/2020/03/7bb81c9d-vicejobssearch-1024x767.png" alt="Capture d'écran de l'article original de Vice" title="Capture d'écran de l'article original de Vice" width="540" class="aligncenter size-full wp-image-2832" /></a></p>
<h2>Comment battre les algorithmes de tris de candidatures ?</h2>
<p>La difficulté, pour les candidats pris dans les rets de ces systèmes de tris automatisés, est d&rsquo;en sortir, c&rsquo;est-à-dire se battre contre les bots, ces gardiens algorithmiques, pour atteindre une personne réelle capable de décider de son sort. Lynne Williams, conseillère en gestion de carrière de la région de Philadelphie propose à des candidats à l&#8217;embauche une formation pour « vaincre » ces logiciels. Elle explique ainsi qu&rsquo;une des techniques les plus importantes lorsque l&rsquo;on candidate est d&rsquo;adapter son CV et sa lettre de motivation aux mots clefs de la candidature, pour les faire correspondre, car les logiciels de suivi de candidature traquent ces mots-clefs, sans toujours avoir des dictionnaires de synonymes. Cela consiste par exemple à remplacer les termes de directeur, manager ou responsable selon les modalités des annonces. Pour beaucoup de demandeurs d&#8217;emploi qui passent du temps à peaufiner lettres de motivation et CV, c&rsquo;est bien souvent une surprise de constater que leurs efforts ne sont jamais vus par un être humain.</p>
<p>Jack Wei, directeur du marketing du site d&#8217;emploi <a href="https://www.smartrecruiters.com/">SmartRecruiters</a>, explique que toute candidature génère un profil automatisé depuis les mots clefs du postulant, qui produisent automatiquement un score de corrélation à la demande. La plupart des candidatures sont donc scorées, sans que les demandeurs n&rsquo;aient accès à ces scores ! </p>
<p>Ces technologies obligent les candidats à trouver des moyens pour se faufiler dans le groupe de ceux qui seront retenus et qui pourront, eux, peut-être, enfin accéder à un humain ! Ifeoma Ajunwa évoque ainsi la possibilité de remplir ses CV avec des mots-clefs invisibles (écrits en police transparente, afin qu&rsquo;ils ne soient lisibles que par les robots). Bien sûr, les plus fortunés des candidats ont également recours à des services spécialisés pour battre ces algorithmes, comme <a href="https://www.jobscan.co/">Jobscan</a>. <em>« Savoir utiliser ces astuces ne repose pas sur des compétences professionnelles pertinentes, mais est assurément devenu une compétence essentielle pour la recherche d&rsquo;un emploi »</em>, explique la chercheuse. En tout cas, <em>« les gens constatent très vite que seules les personnes qui utilisent ces savoir-faire obtiennent un emploi »</em>. De plus en plus nombreux sont donc ceux qui s&rsquo;y conforment. </p>
<h2>Des tests de recrutement&#8230; très pauvrement corrélés à l&rsquo;efficacité au travail</h2>
<p>Une fois la sélection obtenue, reste encore à passer les tests de sélections. Si ceux-ci sont utilisés depuis longtemps, les logiciels les ont automatisés, à l&rsquo;image d&rsquo;Indeed, l&rsquo;un des sites de recherche d&#8217;emploi le plus visité au monde, <a href="https://www.indeed.com/assessments/module-library?hl=en&amp;cc=US">qui offre aux employeurs des dizaines de modules de tests de compétences ou de tests psychométriques</a> (<a href="http://www.internetactu.net/2018/07/13/peut-on-rendre-le-ciblage-psychologique-productif/">voir notre critique de l&rsquo;efficacité de ces tests</a>). Quand on postule à un emploi depuis nombre de sites où l&rsquo;on en cherche et où on renseigne son parcours professionnel, il est de plus en plus courant de recevoir des demandes d&rsquo;évaluations et de tests en ligne. Bien souvent, ces tests sont proposés automatiquement, dès qu&rsquo;on postule, signe qu&rsquo;aucun être humain n&rsquo;a encore examiné votre candidature. Ces tests de compétences ne regardent pas celles que vous indiquez dans votre CV et vous proposent donc de vous évaluer, même si vous indiquez des compétences bien supérieures aux évaluations. D&rsquo;une candidature l&rsquo;autre, bien souvent, vous êtes invités à passer un test que vous avez déjà passé. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/03/be13bba2-indeedtests-1024x675.png"><img src="https://asset.lemde.fr/prd-blogs/2020/03/be13bba2-indeedtests-1024x675.png" alt="Les modules de tests pour employeurs disponibles sur Indeed" title="Les modules de tests pour employeurs disponibles sur Indeed" width="540" class="aligncenter size-full wp-image-2833" /></a></p>
<p>Reste qu&rsquo;il n&rsquo;est pas si simple d&rsquo;y répondre, comme le confie un demandeur d&#8217;emploi : la question « Est-ce que je préfère travailler seul ou en équipe ? » dépend entièrement d&rsquo;un poste dont on ne connait pas toujours très bien les modalités concrètes. Ces tests de personnalité reposent sur le fameux &#8211; et controversé &#8211;  modèle des <a href="https://fr.wikipedia.org/wiki/Mod%C3%A8le_des_Big_Five_(psychologie)">Big Five</a>, qu&rsquo;on applique à tous types de candidatures et qui peuvent être discriminants, notamment en détectant des faiblesses psychologiques ou des problèmes mentaux, mais surtout parce <a href="https://hbr.org/2014/08/the-problem-with-using-personality-tests-for-hiring">qu&rsquo;ils sont au final très pauvrement corrélés à l&rsquo;efficacité au travail</a>, comme le soulignait la mathématicienne Cathy O&rsquo;Neil <a href="https://www.bloomberg.com/opinion/articles/2018-01-18/personality-tests-are-failing-american-workers">dans un article pour <em>Bloomberg</em></a>. En plus des problèmes de discrimination, baser les recrutements sur des tests et des données favorise peu la mobilité professionnelle, puisque ces systèmes regardent l&rsquo;expérience passée plus que les aspirations, avec le risque de restreindre considérablement les parcours professionnels. Ils négligent les idées, l&rsquo;ambition, l&rsquo;adaptabilité ou la compréhension d&rsquo;un secteur… <em>« Ces systèmes maintiennent les gens dans leur passé plutôt que dans ce qui les inspire »</em>, estime un candidat qui, confronté à ces systèmes, ne parvenait pas trouver un emploi adapté à l&rsquo;évolution de carrière qu&rsquo;il souhaitait. </p>
<p>Il existe d&rsquo;autres modalités que ces QCM en ligne : entretiens téléphoniques automatisés, interview vidéo auprès de systèmes complètement automatisés, comme le propose <a href="https://www.hirevue.com/">HireVue</a> (ou encore <a href="https://vidcruiter.com/">VidCruiter</a> ou <a href="https://modernhire.com/">Modern Hire</a>), en analysant le comportement d&rsquo;un candidat en vidéo pour en dégager son profil psychologique. De plus en plus de demandeurs d&#8217;emploi doivent ainsi se conformer à des tâches étranges et fastidieuses imposées par des entreprises qui ne semblent pas faire preuve d&rsquo;une réelle considération pour eux. HireVue a été qualifié <a href="https://www.washingtonpost.com/technology/2019/10/22/ai-hiring-face-scanning-algorithm-increasingly-decides-whether-you-deserve-job/">de pseudoscience par des chercheurs</a> et l&rsquo;Electronic Privacy Information Center a <a href="https://epic.org/2019/11/epic-files-complaint-with-ftc.html">déposé une plainte</a> à l&rsquo;encontre de la startup auprès de la Commission fédérale du commerce au prétexte que ce système basé sur la reconnaissance faciale et vocale ne respecte pas la vie privée des demandeurs d&#8217;emploi. Pour Ifeoma Ajunwa, ce type de système  s&rsquo;avère particulièrement discriminant pour nombre de candidats, par exemple pour ceux qui viennent d&rsquo;une autre culture, où le sourire n&rsquo;a pas la même signification qu&rsquo;il peut avoir dans un test de recrutement aux États-Unis. </p>
<h2>Comment répondre au risque d&rsquo;aggravation des discriminations ?</h2>
<p>Pour Ifeoma Ajunwa, ces systèmes introduisent de nouveaux mécanismes de discrimination derrière l&rsquo;opacité de leurs « boîtes noires ». Cette automatisation facilite et occulte la discrimination à l&#8217;embauche, alors que ces entreprises se cachent derrière le droit de la propriété intellectuelle pour dresser des obstacles aux contrôles et à l&rsquo;audit de leurs systèmes. Pour elle, l&rsquo;égalité des chances à l&#8217;emploi crée un <em>« impératif d&rsquo;audit »</em> de ces systèmes d&#8217;embauche algorithmiques, qui permettrait de labelliser les systèmes équitables, défend-elle <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3437631">dans un article de recherche</a>. Or, les demandeurs d&#8217;emploi ne sont pas toujours en situation de se rebeller ou de dénoncer ces systèmes. Auprès du Congrès américain, Ifeoma Ajunwa <a href="https://edlabor.house.gov/imo/media/doc/AjunwaTestimony02052020.pdf">a récemment défendu (.pdf)</a> de meilleures lois fédérales pour mieux protéger les travailleurs d&rsquo;une surveillance excessive. <a href="https://www.nytimes.com/2019/10/08/opinion/ai-hiring-discrimination.html">Dans une tribune pour le <em>New York Times</em></a>, elle soulignait que ces systèmes automatisée risquait surtout d&rsquo;aggraver les discriminations à l&#8217;embauche, notamment parce que cette automatisation est particulièrement forte pour les emplois les plus précaires. Elle pointait le risque de création de <em>« boucles fermées »</em> d&#8217;embauches, où les annonces recrutent certains profils qui sont utilisés ensuite pour établir les critères de nouvelles annonces, <a href="https://www.numerama.com/tech/426774-amazon-a-du-desactiver-une-ia-qui-discriminait-les-candidatures-de-femmes-a-lembauche.html">à l&rsquo;image d&rsquo;Amazon qui, en 2018</a>, avait mis en place un système automatique qui écartait systématiquement les femmes, pour se conformer au modèle en vigueur dans la firme, où 85 % des employés sont des hommes. Ainsi, certains sites ont été accusés par exemple d&rsquo;exclure des candidats passé un certain âge… Une action collective intentée contre Facebook Business dénonçait la possibilité pour les recruteurs de proposer des annonces d&#8217;embauches en excluant certaines populations, à savoir les communautés noires, latinos ou asiatiques… </p>
<p>Pour la juriste et chercheuse, il est nécessaire d&rsquo;adopter des lois qui permettent aux individus d&rsquo;intenter des poursuites contre ces systèmes. Or, pour l&rsquo;instant, ils doivent faire la preuve qu&rsquo;ils ont subi un traitement discriminant ce qui semble difficile sans avoir accès aux données et modalités de traitement de ces plateformes. Pour Ifeoma Ajunwa, il est nécessaire de permettre au plaignant de demander la charge de la preuve à l&#8217;employeur, <a href="https://papers.ssrn.com/sol3/Papers.cfm?abstract_id=2746078">souligne-t-elle dans un autre article de recherche</a>. Ce serait alors aux employeurs et aux plateformes d&rsquo;appariements à l&#8217;embauche de fournir des preuves statistiques de non-discrimination et d&rsquo;évaluation des impacts de leurs offres. Un renversement de perspective nécessaire.  </p>
<p>Hubert Guillaud</p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2020/03/05/des-limites-du-recrutement-automatise/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
									<post-id xmlns="com-wordpress:feed-additions:1">2831</post-id>	</item>
		<item>
		<title>Les ingénieurs au défi de l&#8217;éthique</title>
		<link>https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/</link>
				<comments>https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/#comments</comments>
				<pubDate>Thu, 27 Feb 2020 09:58:06 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[éthique]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2827</guid>
				<description><![CDATA[Quelle éthique pour l&#8217;ingénieur ? est un manuel dense, riche, complet, en exemples comme en concepts, qui semble plus long que ses 260 pages tant il donne de clés pour s&#8217;interroger sur les limites et les failles de la question éthique. Ce livre, signé de la philosophe Fanny Verrax et de la spécialiste en sciences &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Les ingénieurs au défi de l&#8217;éthique&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=Les+ing%C3%A9nieurs+au+d%C3%A9fi+de+l%26rsquo%3B%C3%A9thique%20-%20https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/&amp;media=&amp;description=Quelle+%C3%A9thique+pour+l%27ing%C3%A9nieur+%3F+est+un+manuel+dense%2C+riche%2C+complet%2C+en+exemples+comme+en+concep" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Les ingénieurs au défi de l&rsquo;éthique&amp;body=Quelle éthique pour l&#039;ingénieur ? est un manuel dense, riche, complet, en exemples comme en concep%20-%20https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2827" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/&amp;title=Les+ing%C3%A9nieurs+au+d%C3%A9fi+de+l%26rsquo%3B%C3%A9thique" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/&amp;title=Les+ing%C3%A9nieurs+au+d%C3%A9fi+de+l%26rsquo%3B%C3%A9thique" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><blockquote><p><a href="https://asset.lemde.fr/prd-blogs/2020/02/2e31f7b6-quelleethiquepourlingenieur.jpg"><img src="https://asset.lemde.fr/prd-blogs/2020/02/2e31f7b6-quelleethiquepourlingenieur.jpg" alt="Couverture du livre quelle éthique pour l'ingénieur" title="Couverture du livre quelle éthique pour l'ingénieur" width="260" height="380" class="alignright size-full wp-image-2828" /></a><em><a href="https://www.eclm.fr/livre/quelle-ethique-pour-lingenieur%e2%80%af/">Quelle éthique pour l&rsquo;ingénieur ?</a></em> est un manuel dense, riche, complet, en exemples comme en concepts, qui semble plus long que ses 260 pages tant il donne de clés pour s&rsquo;interroger sur les limites et les failles de la question éthique. Ce livre, signé de la philosophe Fanny Verrax et de la spécialiste en sciences sociales Laure Flandrin, examine nombre d&rsquo;aspects des enjeux de l&rsquo;éthique à l&rsquo;adresse des ingénieurs à l&rsquo;heure où les controverses liées à la technologie, à son impact social, politique, économique et écologique notamment, sont plus nourries que jamais. L&rsquo;ouvrage ne fait pas l&rsquo;impasse sur les difficultés auxquelles sont confrontés ceux qui ont en charge le déploiement des technologies : il souligne au contraire très bien combien les ingénieurs se révèlent un peu déconnectés des réalités. Dociles, peu politisés, profondément technosolutionnistes, les ingénieurs doivent relever à la fois un défi éthique organisationnel, à l&rsquo;intérieur des entreprises qui sont les leurs, démocratiques, leur demandant d&rsquo;ouvrir leurs savoir-faire à la discussion avec la société, et écologique, car ils sont au premier plan dans la transition écologique qui s&rsquo;annonce.</p>
<p>Les deux enseignantes et chercheuses soulignent que si l&rsquo;éthique individuelle est difficile, l&rsquo;éthique des organisations l&rsquo;est plus encore, car elle nécessite des réponses adaptées et spécifiques, où, bien souvent, nombre de processus sont à construire. La politisation de l&rsquo;ingénieur est au coeur des questions éthiques qui le traverse, et pour cela, il va peut-être devoir apprendre à désapprendre, apprendre à faire moins confiance à sa rationalité, défaire ses certitudes sur le monde… accepter que la technique ne soit ni neutre ni autonome, comme on nous la présente trop souvent, s&rsquo;ouvrir à d&rsquo;autres savoirs et faire entrer de la démocratie dans l&rsquo;orientation des choix technologiques. Pour peser sur les choix techniques que les ingénieurs prennent pour nous, il va nous falloir introduire plus de démocratie dans un milieu qui n&rsquo;en a pas beaucoup l&rsquo;habitude. Discussion !</p></blockquote>
<p><strong>Internetactu.net : Dans le monde de la technologie, la question de l&rsquo;éthique est désormais au coeur des enjeux. Toutes les grandes entreprises cherchent des modalités pour inscrire ces questions dans leurs priorités, en embauchant des éthiciens, en créant des comités d&rsquo;éthiques, en se dotant de processus de fonctionnement et de normalisation… Pourtant, ces problèmes ne sont pas récents. Cela fait longtemps que les entreprises interrogent les modalités concrètes du déploiement de cadres éthiques. Mais, comme vous le soulignez dans votre ouvrage « les cadres institutionnels pour exercer la responsabilité demeurent inexistants » et ce alors que l&rsquo;exigence de responsabilisation s&rsquo;impose comme « une norme forte dans son statut, mais faible dans son contenu ». On a l&rsquo;impression que les entreprises cherchent inlassablement des modalités éthiques, sans parvenir vraiment à trouver les moyens de les rendre concrètes.  La question éthique dans la technologie est-elle une question insoluble ? Pourquoi échoue-t-elle avec autant de constance ?</p>
<p>Fanny Verrax :</strong> Dire que la question éthique est une question insoluble n&rsquo;est pas la conclusion la plus enthousiasmante qu&rsquo;on puisse formuler. Effectivement, par rapport au solutionnisme technologique que pratiquent souvent les ingénieurs, l&rsquo;éthique peut paraître compliquée. Mais si on compare les propositions éthiques aux grandes réponses des autres domaines de la pensée, comme le formulent les sciences sociales, alors les propositions éthiques ne paraissent plus aussi insolubles. L&rsquo;éthique propose de sortir de solutions très linéaires pour comprendre les enjeux afin d&rsquo;y apporter des réponses qui ne soient pas monolithiques. Dans leurs cours d&rsquo;informatique, de mécanique ou de mathématiques, les jeunes ingénieurs apprennent surtout à résoudre des problèmes. La question de l&rsquo;éthique leur demande une autre approche. Ce n&rsquo;est pas une démarche qui n&rsquo;apporte pas de solutions… Mais ce n&rsquo;est pas non plus une boîte à outils magique.</p>
<p><strong>InternetActu.net : Les processus éthiques mis en place, finalement, bien souvent fonctionnent mal. C&rsquo;est d&rsquo;ailleurs peut-être le parent pauvre de votre ouvrage  : si vous observez très bien tous les enjeux de la question éthique, vous donnez peu de solutions, de processus, de méthodes pour l&rsquo;éthique&#8230; tant individuelle que collective ou organisationnelle… Cela signifie-t-il qu&rsquo;il n&rsquo;y a pas de solution éthique autre que contextuelle ? </p>
<p>Fanny Verrax :</strong> S&rsquo;il n&rsquo;y a pas de boîtes à outils magiques, cela ne signifie pas qu&rsquo;il n&rsquo;y a pas de boîte à outils. Notre livre se veut à la fois un manuel et un essai. Manuel, parce qu&rsquo;il y a des savoirs stabilisés sur ces enjeux notamment en terme philosophique, mais c&rsquo;est peut-être moins le cas sur le sujet de l&rsquo;éthique des ingénieurs et sur cette réflexion en France. Essai, parce que l&rsquo;ouvrage se veut aussi manifeste, et défend une thèse : la responsabilité de l&rsquo;ingénieur ne peut se penser ni de façon purement individuelle, ni seulement politique. Nous avons cherché avec Laure Flandrin à proposer une boîte à outils réflexive plutôt que systématique, permettant d&rsquo;apporter des outils de contextualisation et d&rsquo;analyse… Avec ce livre, face à des enjeux complexes, notre objectif était de produire une première étape de réflexion, de proposer un ouvrage généraliste qui s&rsquo;adresse à tous types d&rsquo;ingénieurs. </p>
<p>Il existe des boîtes à outils pertinentes effectivement souvent spécifiques. Pourtant, quant à une approche collective de l&rsquo;éthique, quand on tente de construire une démarche institutionnelle et organisationnelle de ces principes, on passe nécessairement par une simplification des outils et concepts. C&rsquo;est bien souvent le prix à payer pour la standardisation. Je viens d&rsquo;être désignée comme experte en éthique auprès de la Commission européenne pour évaluer la conformité éthique des projets de recherche financés par la Commission européenne, une position qui permet d&rsquo;engager un dialogue avec les équipes de recherche. Dans ce cadre, j&rsquo;ai suivi une formation dédiée à Bruxelles où l&rsquo;on nous présentait <a href="https://ec.europa.eu/research/participants/docs/h2020-funding-guide/cross-cutting-issues/ethics_en.htm">les directives à utiliser pour l&rsquo;examen de ces projets</a>. Ces directives peuvent sembler un peu simplistes parfois, car elles consistent à répondre à des listes de questions très simples, auxquelles il faut répondre par oui ou non, du type : « votre projet de recherche implique-t-il des animaux ? » Cela donne l&rsquo;impression effectivement de vider l&rsquo;éthique de sa subtilité, de sa complexité. Pourtant, elle n&rsquo;est pas incompatible avec une démarche éthique individuelle plus complexe, au contraire. La responsabilité nécessite de lier ces deux démarches. C&rsquo;est ce que nous tentons de souligner d&rsquo;ailleurs dans notre livre, en montrant que la responsabilité individuelle n&rsquo;est pas en opposition avec une responsabilité collective, mais offre au contraire une complémentarité pour une meilleure compréhension des enjeux éthiques.  </p>
<p><strong>InternetActu.net : Une chose m&rsquo;a marqué dans votre livre. On a l&rsquo;impression que l&rsquo;éthique dans le monde des ingénieurs a tendance à être bien plus conséquentialiste qu&rsquo;ailleurs (on mesure les conséquences des actions : on peut mentir si cela a un effet positif). Dans de nombreuses professions, comme chez les médecins ou les avocats, l&rsquo;éthique est plutôt déontologique (des règles et devoirs fixent la morale). Pour tout à chacun, elle tient certainement plus à l&rsquo;éthique des vertus (l&rsquo;action morale est celle qui respecte des principes moraux comme l&rsquo;honnêteté ou le courage). Ces différentes formes d&rsquo;éthiques finalement ne seraient-elles pas à l&rsquo;origine d&rsquo;un conflit, d&rsquo;une dissonance, d&rsquo;une incompréhension grandissante entre la société et le monde de l&rsquo;ingénieur ?  </p>
<p>Fanny Verrax :</strong> Au quotidien, effectivement l&rsquo;éthique qui nous orienterait le plus tiendrait de <a href="https://fr.wikipedia.org/wiki/%C3%89thique_de_la_vertu">l&rsquo;éthique des vertus</a> chère à Aristote. En Europe, il y a une influence indéniable de l&rsquo;Eglise sur l&rsquo;éthique, qu&rsquo;on appelle d&rsquo;ailleurs alors la morale, jusqu&rsquo;au XVIIIe. Avec l&rsquo;arrivée des Lumières, Kant propose une approche radicalement nouvelle de l&rsquo;éthique car fondée sur la raison qui donnera naissance <a href="https://fr.wikipedia.org/wiki/%C3%89thique_d%C3%A9ontologique">à la déontologie</a>. Un siècle plus tard, l&rsquo;économiste et philosophe britannique John Stuart Mill formalise quant à lui un troisième cadre méta-éthique, <a href="https://fr.wikipedia.org/wiki/Cons%C3%A9quentialisme">le conséquentialisme</a>, devenu le cadre majoritaire des décisions de nos sociétés, notamment dès qu&rsquo;autrui est concerné. </p>
<p>Effectivement, là où je vous rejoins, c&rsquo;est que quand vous souhaitez avoir une approche un peu quantifiable ou computationnelle, la démarche conséquentialiste est la plus pertinente… Donc il y a une affinité plus spontanée entre les ingénieurs et cette démarche : elle permet de calculer un rapport, de mettre en balance des effets positifs et des effets négatifs. Elle se combine aussi très bien à nombre d&rsquo;approches quantifiables comme l&rsquo;analyse de risque. Effectivement, d&rsquo;autres pratiques professionnelles, comme dans les professions médicales, favorisent une approche plutôt déontologique, qui érige des valeurs en principes d&rsquo;action. </p>
<p>Cette spécificité des ingénieurs tient au fait que leur profession, particulièrement en France, est peu structurée. Les codes déontologiques ont besoin d&rsquo;associations professionnelles, de corporations fortes pour s&rsquo;imposer. L&rsquo;autre raison tient bien sûr à la logique combinatoire de l&rsquo;éthique conséquentialiste : calculer l&rsquo;impact, faire la somme entre les effets positifs et négatifs des conséquences d&rsquo;une innovation, entre en convergence naturelle avec leurs pratiques professionnelles quotidiennes. </p>
<p><strong>InternetActu.net : Une des solutions pour améliorer l&rsquo;éthique des ingénieurs, consisterait donc à améliorer leur organisation et représentation professionnelle ? Vous soulignez également que leurs lacunes à comprendre les enjeux de l&rsquo;éthique tient au fait que contrairement à bien d&rsquo;autres professions, leur statut majoritairement salarié les place dans une situation particulière de tension entre les obligations de loyauté qu&rsquo;ils ont à l&rsquo;égard de leur entreprise et celles qu&rsquo;ils devraient avoir pour l&rsquo;intérêt général… </p>
<p>Fanny Verrax :</strong> Attention, il n&rsquo;y a pas que les ingénieurs qui sont salariés, mais il est vrai, qu&rsquo;à type de compétences équivalentes par rapport à d&rsquo;autres professions, ils sont particulièrement salariés et peu exercent comme freelance, contrairement par exemple à des professions comme avocat ou architecte… Cela implique que la démarche éthique se pose différemment pour eux, tant d&rsquo;un point de vue individuel que collectif. Dans les chaînes hiérarchiques dans lesquelles ils se situent, ils prennent rarement des décisions seuls et ne sont pas orientés par une déontologie de métier. Collectivement, dans le cadre des entreprises où ils travaillent, ils sont confrontés à 3 grands dilemmes : le choix de leur domaine d&rsquo;activité, l&rsquo;alerte éthique et la question du mensonge professionnel.  </p>
<p>Pourtant, je ne suis pas convaincue qu&rsquo;une organisation plus structurée des métiers de l&rsquo;ingénieur serait une garantie suffisante contre les malversations. Il n&rsquo;y a pas moins de mensonges professionnels aux Etats-Unis où les associations professionnelles d&rsquo;ingénieurs sont plus structurées et puissantes qu&rsquo;en France, alors que les associations y sont plus organisées, ont un code de déontologie et peuvent exclure des membres. Ces codes de déontologie, chartes et serments éthiques brouillent parfois la frontière entre l&rsquo;éthique et le droit. Mais ne soyons pas trop critiques ! Ces initiatives n&rsquo;épuisent certes pas le sujet et ne se substituent pas aux autres formes d&rsquo;éthiques. Ces checklists et chartes formelles de principes ont souvent des vertus, comme d&rsquo;éviter les points aveugles. Elles ne règlent pas tous les problèmes, mais permettent d&rsquo;éviter le pire ! L&rsquo;éthique ne se résume pas à une checklist préventive pour éviter les catastrophes&#8230; même si bien souvent, il n&rsquo;y pas besoin d&rsquo;une réflexion très subtile pour éviter les pires dommages. </p>
<p><strong>InternetActu.net : On a l&rsquo;impression que le point faible de l&rsquo;éthique des ingénieurs demeure leur manque d&rsquo;ouverture aux questions démocratiques : le solutionnisme technologique semble avoir du mal à faire une place à la participation citoyenne pour orienter les choix techniques… </p>
<p>Fanny Verrax :</strong> Je n&rsquo;opposerai pas ces deux facettes. On peut être dans une approche démocratique solutionniste et dans une approche non démocratique qui ne soit pas solutionniste… Certes, les ingénieurs sont clairement solutionnistes. Ils sont les gardiens d&rsquo;un savoir-faire technique. Or, on ne leur montre pas, notamment dans leur formation, qu&rsquo;ils peuvent le partager. Au contraire, il y a souvent chez eux une fierté à comprendre « la boîte noire » et à en être les gardiens. </p>
<p><strong>InternetActu.net : Justement, n&rsquo;y a-t-il pas chez eux une forme de résistance à « ouvrir les boîtes noires » ? À développer et mettre en place des processus plus démocratiques quant à l&rsquo;orientation des choix techniques qu&rsquo;ils font pour le reste de la société ? </p>
<p>Fanny Verrax :</strong> Soyons indulgents ! Ce n&rsquo;est pas le seul corps de métier qui a du mal à partager son savoir, à expliquer, à ouvrir un dialogue avec le reste de la société… Ça ne fait pas si longtemps que les médecins comprennent l&rsquo;apport des associations de patients par exemple et c&rsquo;est encore loin d&rsquo;être le cas de tous ! Le fait d&rsquo;avoir des compétences techniques élevées a tendance à engendrer des formes de corporatisme et de protection des savoir-faire vis-à-vis des savoirs profanes. Mais j&rsquo;ai l&rsquo;impression que cette question relève d&rsquo;un aspect générationnel : les jeunes générations d&rsquo;ingénieurs sont probablement plus disposées à expliquer et à faire comprendre au grand public le coeur de leur métier, comme <a href="https://www.isf-france.org/">l&rsquo;Association des ingénieurs sans frontières</a> qui met clairement la démocratie technique au coeur de son activité. </p>
<p>Il me semble que dans de plus en plus d&rsquo;écoles (il y a plus de 200 écoles d&rsquo;ingénieurs en France et je n&rsquo;ai travaillé que dans 3 d&rsquo;entre elles), il y a une demande des élèves pour que cela change, <a href="https://www.lemonde.fr/campus/article/2019/04/16/une-perte-de-sens-totale-le-blues-des-jeunes-ingenieurs-face-au-climat_5450927_4401467.html">à l&rsquo;image du manifeste des jeunes ingénieurs pour un réveil écologique</a>. Certaines écoles y répondent par des nouveaux cursus… Mais construire de nouveaux cursus est long et lent : il faut trouver des enseignants, des méthodes… Les écoles, les entreprises et les institutions vont être de plus en plus appelées à répondre à ce défi, qui ne se résoudra pas par un module de deux heures d&rsquo;enseignement sur le développement durable ! Le vernis démocratique ne suffira pas à répondre à ces enjeux ! Et ce d&rsquo;autant que de plus en plus de jeunes ingénieurs valident leurs diplômes sans jamais travailler dans ce secteur ! Ils vont faire autre chose. Chercher un sens qu&rsquo;ils ne trouvent pas dans le métier qu&rsquo;ils ont choisi. </p>
<p><strong>InternetActu.net : Un autre constat est frappant dans votre livre, c&rsquo;est combien les ingénieurs se révèlent un peu déconnectés des réalités. Vous citez notamment les enquêtes de la société des ingénieurs et scientifiques de France qui montrent par exemple, pour un sondage de 2011, que 14% des ingénieurs pensent que si les choses continuent sur leur lancée, nous allons bientôt vivre une catastrophe écologique majeure (contre 89% des Français ou 83% des cadres). 87% des ingénieurs estiment que le génie de l&rsquo;homme permettra que la Terre reste vivable (contre 51% des Français et 57% des cadres). Derrière ces chiffres, on sent qu&rsquo;un monde de perception sépare les ingénieurs du reste de la population. Vous soulignez notamment que les ingénieurs sont peu politisés, dociles et profondément technosolutionnistes. Pouvez-vous nous expliquer en quoi ? N&rsquo;est-ce pas là un signe de difficultés supplémentaires pour adresser les défis éthiques auxquels ils sont confrontés ?</p>
<p>Fanny Verrax :</strong> Attention à ne pas stigmatiser les ingénieurs ! Sur ce sujet comme sur d&rsquo;autres, ça n&rsquo;a d&rsquo;ailleurs peut-être pas beaucoup de sens de parler « des ingénieurs » en général. Il convient tout d&rsquo;abord de distinguer entre différentes générations, par exemple entre ceux qui ont été formés pendant les Trente Glorieuses, une époque où la majorité de la population partage cette foi dans le progrès technique et la croissance économique, et des ingénieurs qui ont grandi après le choc pétrolier de 1973, après Tchernobyl, ou aujourd&rsquo;hui dans un contexte fortement marqué par les théories de l&rsquo;Anthropocène. Il y a donc sans doute une tendance générale à plus de précautions et moins de foi béate dans le technosolutionnisme.  </p>
<p>Cela étant dit, oui, les sondages cités montrent que les ingénieurs gardent une vision plus optimiste de l&rsquo;avenir que la plupart des Français, et dans laquelle la technique a un grand rôle à jouer. Une interprétation possible de cette tendance pourrait reposer sur les phénomènes bien connus d&rsquo;évitement de la dissonance cognitive. Une autre interprétation insisterait plutôt sur la formation des ingénieurs, dans laquelle la place accordée aux humanités et aux sciences sociales et environnementales reste encore assez faible. C&rsquo;est tout l&rsquo;enjeu d&rsquo;une initiative comme <a href="http://formic.isf-france.org/">Formic : Former l&rsquo;ingénieur citoyen</a>, portée par Ingénieurs sans Frontières, qui vise à penser une formation humaniste et éthique des ingénieurs.</p>
<p><strong>InternetActu.net : Votre livre adresse 3 grands défis éthiques aux ingénieurs : un défi organisationnel qui pose la question d&rsquo;une éthique qui s&rsquo;adapte aux contraintes des entreprises et aux complexités technologiques qui sont les leurs et pas seulement une morale individuelle ou déontologique. Une responsabilité dans le développement technique même. Et une responsabilité environnementale. Face à chacun de ces défis, vous soulignez surtout les difficultés : ils ne semblent pas toujours impliqués dans la responsabilité sociale de l&rsquo;entreprise, qui semble leur être imposée ; ils rechignent à reconnaître leur responsabilité dans le développement technique et peinent à être moteur d&rsquo;une démocratie technique ; quant aux responsabilités environnementales nouvelles qui s&rsquo;adressent à eux, là encore, ils ne semblent pas toujours moteurs de ces transformations… On est trop souvent, soulignez-vous, dans une approche de réduction des impacts (par exemple dans les techniques d&rsquo;<a href="https://fr.wikipedia.org/wiki/Analyse_du_cycle_de_vie">analyse de cycle de vie</a>) que d&rsquo;évitement ! Qu&rsquo;est-ce qui ne va pas ? Ces enjeux à venir sont certes difficiles, mais ne résultent-ils pas d&rsquo;un trop long aveuglement, d&rsquo;une trop longue assurance de la supériorité de la technique sur la société ?</p>
<p>Fanny Verrax :</strong> Oui. Le droit français impose depuis 1976 aux industriels, notamment dans le Bâtiment et les travaux publics, la séquence ERC : « Eviter, Réduire, Compenser », c&rsquo;est-à-dire que là où on ne peut éviter l&rsquo;impact environnemental il convient au moins de le réduire, et là où on ne peut réduire, alors on compense. Si l&rsquo;intention initiale est louable, cette séquence pose néanmoins plusieurs problèmes. L&rsquo;un d&rsquo;entre eux, comme nous le soulignons dans l&rsquo;ouvrage, est que dans la réalité les stratégies de compensation sont largement favorisées, alors même que celles-ci naissent d&rsquo;une confusion ontologique. Pour prendre un exemple simple, quoique fantaisiste, brûler un hectare de végétation dans une forêt primaire en Amazonie n&rsquo;est pas compensé par le fait de planter un hectare de pins Douglas dans les Landes Françaises. Or l&rsquo;approche technosolutionniste ne sait pas gérer cette absence d&rsquo;équivalence.</p>
<p><strong>InternetActu.net : Vous plaidez, en conclusion pour une meilleure formation à l&rsquo;esprit critique, pour une meilleure prise en compte du sens politique de la technique en invitant les ingénieurs à s&rsquo;appuyer davantage sur la société civile (explorer un « pluralisme de perspectives ») et à imaginer un droit de refus qui nécessite d&rsquo;améliorer l&rsquo;ouverture démocratique de la technique ! La clé de l&rsquo;éthique de la technologie, c&rsquo;est plus de démocratie ?</p>
<p>Fanny Verrax :</strong> C&rsquo;est davantage de réflexivité, de capacités d&rsquo;analyses économiques et politiques des phénomènes techniques, de modes de gouvernance horizontaux et transparents, dans la formation comme dans les pratiques des ingénieurs, oui, oui et oui ! A titre d&rsquo;exemple, le philosophe et spécialiste de l&rsquo;éthique américain <a href="https://www.iit.edu/directory/people/michael-davis">Michael Davis</a> recommande aux entreprises qui emploient des ingénieurs d&rsquo;instaurer un temps de discussion régulier sous la forme de <em>brown bag lunch</em> éthiques. Au déjeuner, chaque salarié apporte ainsi son sandwich et une question éthique empruntée à l&rsquo;actualité ou au secteur professionnel pour en discuter dans un espace qui n&rsquo;est pas celui de la prise de décision. L&rsquo;avantage principal de cette pratique est que quand un problème surgit sur le lieu de travail, les modalités de la discussion &#8211; certains philosophes parleraient d&rsquo;<em>ethos</em> de la discussion &#8211; sont déjà en place. </p>
<p>Cependant, dans un contexte de faillite des démocraties occidentales, j&rsquo;insisterais peut-être plutôt sur un renouvellement du contrat social dans sa forme rousseauiste, c&rsquo;est-à-dire un modèle dans lequel on ne s&#8217;embarrasse pas d&rsquo;un souverain ou d&rsquo;un manager pour promouvoir l&rsquo;intérêt général. Peut-être pas plus de démocratie donc au sens qu&rsquo;on lui donne habituellement, mais plus d&rsquo;engagement, c&rsquo;est certain.</p>
<p><em>Propos recueillis par Hubert Guillaud</em></p>
<p>Laure Flandrin est maîtresse de conférences en sciences sociales à l&rsquo;École Centrale de Lyon et chercheuse associée au Centre Max Weber. </p>
<p>Fanny Verrax (<a href="https://twitter.com/fverrax">@fverrax</a>) est philosophe. Elle travaille comme consultante et chercheuse indépendante dans le domaine des humanités environnementales et de l&rsquo;éthique professionnelle. </p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
							<wfw:commentRss>https://www.lemonde.fr/blog/internetactu/2020/02/27/les-ingenieurs-au-defi-de-lethique/feed/</wfw:commentRss>
		<slash:comments>1</slash:comments>
						<post-id xmlns="com-wordpress:feed-additions:1">2827</post-id>	</item>
		<item>
		<title>Peut-on corriger les biais ?</title>
		<link>https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/</link>
				<comments>https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/#comments</comments>
				<pubDate>Thu, 20 Feb 2020 08:38:58 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[algorithme]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2822</guid>
				<description><![CDATA[Partout, les chercheurs universitaires et les grandes entreprises de technologie débattent des meilleures stratégies pour identifier et nettoyer leurs algorithmes de tout préjugé, explique la chercheuse au Media Lab du Massachusetts Institute of Technology Chelsea Barabas (@chels_bar) dans un récent billet pour le blog du Media Lab sur Medium. Mais, comme le disait déjà Kate Crawford, &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Peut-on corriger les biais ?&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=Peut-on+corriger+les+biais+%3F%20-%20https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/&amp;media=&amp;description=Partout%2C+les+chercheurs+universitaires+et+les+grandes+entreprises+de+technologie+d%C3%A9battent+des+meil" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Peut-on corriger les biais ?&amp;body=Partout, les chercheurs universitaires et les grandes entreprises de technologie débattent des meil%20-%20https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2822" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/&amp;title=Peut-on+corriger+les+biais+%3F" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/&amp;title=Peut-on+corriger+les+biais+%3F" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p>Partout, les chercheurs universitaires et les grandes entreprises de technologie débattent des meilleures stratégies pour identifier et nettoyer leurs algorithmes de tout préjugé, explique la chercheuse au Media Lab du Massachusetts Institute of Technology <a href="http://www.chelsbar.com/">Chelsea Barabas</a> (<a href="https://twitter.com/chels_bar">@chels_bar</a>) dans <a href="https://medium.com/mit-media-lab/beyond-bias-contextualizing-ethical-ai-within-the-history-of-exploitation-and-innovation-in-d522b8ccc40c">un récent billet pour le blog du Media Lab sur Medium</a>. Mais, <a href="http://www.internetactu.net/2019/09/30/kate-crawford-lia-est-une-nouvelle-ingenierie-du-pouvoir/">comme le disait déjà Kate Crawford</a>, cette quête est vaine, notamment parce que pour ôter les biais, il faut prendre des décisions qui risquent d&rsquo;en générer de nouveau et sous couvert de corrections « techniques » prendre des décisions aux enjeux politiques conséquents : quelle est la bonne proportion de parité par exemple et comment la déterminer ? Pas si simple ! Il va nous falloir faire avec les biais, explique Chelsea Barabas. Pour elle, nous devons arrêter d&rsquo;écouter les discours qui clament que les algorithmes nous offrent l&rsquo;opportunité unique de corriger les biais de nos sociétés, à l&rsquo;image de <a href="https://www.nytimes.com/2019/12/06/business/algorithm-bias-fix.html">la récente tribune</a> que le célèbre économiste comportemental <a href="https://www.chicagobooth.edu/faculty/directory/m/sendhil-mullainathan#biography">Sendhil Mullainathan</a> (<a href="https://twitter.com/m_sendhil">@m_sendhil</a>) tenait dans le <em>New York Times</em> où il expliquait qu&rsquo;il était plus facile de réparer des algorithmes biaisés que les biais des gens. </p>
<h2>« Il est beaucoup plus facile de réparer un appareil photo qui n&rsquo;enregistre pas la peau foncée que de réparer un photographe qui ne voit pas les personnes à la peau foncée »</h2>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/02/471fd153-biased-algorithms-are-easier-to-fix-than-biased-people-the-new-york-times-300x257.png"><img src="https://asset.lemde.fr/prd-blogs/2020/02/471fd153-biased-algorithms-are-easier-to-fix-than-biased-people-the-new-york-times-300x257.png" alt="Une de la tribune de Sendhil Mullainathan pour le New York Times" title="Une de la tribune de Sendhil Mullainathan pour le New York Times" width="300" height="257" class="alignright size-full wp-image-2823" /></a>Ce spécialiste de l&rsquo;audit des biais &#8211; connu notamment pour son livre sur <a href="https://us.macmillan.com/books/9781250056115">la pénurie</a> mais également pour <a href="https://www.nber.org/papers/w9873">une étude</a> sur les biais racistes du marché du travail américain &#8211; estime qu&rsquo;on peut facilement corriger les biais des systèmes notamment parce qu&rsquo;ils sont plus facilement accessibles qu&rsquo;avant. Dans l&rsquo;étude sur les biais racistes du marché du travail américain (qui date de 2004), le professeur avait dû envoyer des centaines de CV ou ne changeaient que les noms des candidats, alors que désormais, la discrimination se repère dans les données et les statistiques, à l&rsquo;image <a href="https://science.sciencemag.org/content/366/6464/447">d&rsquo;une récente étude</a> sur les biais racistes du système de santé américain, il a suffi de repérer la différence de traitement pour des soins de diabète et d&rsquo;hypertension entre patients  noirs et blancs. À niveau de maladie similaire, les patients noirs étaient considérés comme moins à risque que les patients blancs et les dépenses de santé étaient également moindres pour les patients noirs que blancs. </p>
<p><em>« Pour mesurer la discrimination raciale par les gens, nous devons créer des circonstances contrôlées dans le monde réel où seule la race diffère. Pour un algorithme, nous pouvons créer des circonstances également contrôlées simplement en lui fournissant les bonnes données et en observant son comportement »</em>. L&rsquo;étude de 2004 sur les CV n&rsquo;a pas permis de construire de réponses adaptées, tant il est difficile d&rsquo;agir sur les préjugés des gens. À l&rsquo;inverse, sur le biais de soin, il était possible de cartographier les différences de traitement selon la race. Il a donc été possible de proposer un correctif à ce système. <em>« Il est plus facile de changer les algorithmes que de changer les gens »</em>, conclut l&rsquo;économiste. Pour Sendhil Mullainathan, la discrimination algorithmique peut-être plus facilement découverte et plus facilement corrigée… avance-t-il en citant <a href="https://eml.berkeley.edu/~crwalters/papers/reasonable_doubt.pdf">un récent article de recherche</a> qui tente de développer un outil pour détecter la discrimination raciale à l&#8217;embauche qui permettrait d&rsquo;identifier les employeurs discriminants, de surveiller l&rsquo;évolution de ces discriminations, voire pour les autorités  d&rsquo;intervenir. Pour lui, les biais peuvent être corrigés, comme il le soutenait déjà dans <a href="https://academic.oup.com/jla/article/doi/10.1093/jla/laz001/5476086">un article de 2018</a> coécrit notamment avec le juriste <a href="https://fr.wikipedia.org/wiki/Cass_Sunstein">Cass Sunstein</a> : avec une « régulation appropriée », les algorithmes peuvent aider à réduire les discriminations… expliquaient-ils en regrettant que le principal écueil pour l&rsquo;instant soit justement la régulation. Pour Mullainathan, il est essentiel que des experts puissent avoir accès aux données de tests et aux données utilisées, qu&rsquo;un organisme d&rsquo;expertise et de réglementation dédié soit créé… Pourtant, conclut-il avec prudence, si de meilleurs algorithmes pourraient permettre d&rsquo;assurer un traitement équitable dans notre société, le chercheur concède qu&rsquo;ils <em>« ne résoudront pas le profond biais structurel qui continue de sévir aux États-Unis. Il n&rsquo;est pas plus facile de corriger les préjugés de la société que les préjugés des gens. (&#8230;) Par contre, il est beaucoup plus facile de réparer un appareil photo qui n&rsquo;enregistre pas la peau foncée que de réparer un photographe qui ne voit pas les personnes à la peau foncée. »</em></p>
<h2>Devons-nous mettre au point ces technologies, à forte intensité de données, dont l&rsquo;efficacité est sujette à caution, alors que l&rsquo;investissement et le développement dans ces technos se font au détriment d&rsquo;autres solutions ?</h2>
<p>Il suffirait donc d&rsquo;identifier les biais et d&rsquo;éliminer leurs impacts en réduisant la variable problématique de leurs modèles. La démonstration pourrait sembler convaincante. Pourtant, Chelsea Barabas, elle, n&rsquo;est pas convaincue. Cet argument &#8211; que plus de technique permet de corriger les biais &#8211; risque pourtant de persister tant que nous ne reconnaîtrons pas que les innovations algorithmiques sont inextricablement liées aux relations de pouvoir et d&rsquo;exploitation, concède-t-elle. Pour nettoyer les algorithmes de leurs biais, l&rsquo;une des méthodes les plus utilisées par les chercheurs consiste à développer leur équité, en renforçant la diversité et l&rsquo;inclusion : le principe est simple, si nous pouvons inclure plus de personnes dans les données que nous utilisons pour construire nos systèmes algorithmiques, alors ces algorithmes pourront servir un ensemble de personnes plus diversifiées à l&rsquo;avenir. L&rsquo;autre méthode consiste à faire disparaître les données ou catégories qui posent problème : c&rsquo;est ce qu&rsquo;avait fait Apple avec sa carte de crédit lancée en août dernier, jusqu&rsquo;à ce que des utilisateurs se rendent compte que celle-ci proposait systématiquement moins de crédit aux femmes qu&rsquo;aux hommes. Au final, avoir fait disparaître les variables visibles de genre a rendu la détection du biais bien plus difficile… <a href="https://www.wired.com/story/the-apple-card-didnt-see-genderand-thats-the-problem/">rapportait <em>Wired</em></a>.  </p>
<p>La recherche médicale a historiquement exclu les femmes et les personnes de couleur de ses essais cliniques et les professionnels de santé font preuve d&rsquo;un certain nombre de préjugés raciaux et sexistes troublants lorsqu&rsquo;ils administrent des traitements, rappelle la chercheuse. En améliorant les données, les algorithmes pourraient nous offrir la possibilité de corriger ces préjugés afin de rendre les soins médicaux plus inclusifs, à l&rsquo;image de ce que propose Sendhil Mullainathan. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/02/6f51927a-digital-justice-lab-300x199.png"><img src="https://asset.lemde.fr/prd-blogs/2020/02/6f51927a-digital-justice-lab-300x199.png" alt="Digital Justice Lab" title="Digital Justice Lab" width="300" height="199" class="alignleft size-full wp-image-2824" /></a>Mais pour Chelsea Barabas, un nombre croissant de personnes commencent à repousser l&rsquo;idée que la diversité et l&rsquo;inclusion soient les principales valeurs à défendre dans la recherche d&rsquo;une « IA éthique ». <a href="https://digitaljusticelab.ca/cfp">Lors d&rsquo;un récent atelier à Harvard organisé par le Digital Justice Lab intitulé « Please Don&rsquo;t Include Us »</a> (« Merci de ne pas nous inclure »), des chercheurs ont fait valoir que, pour de nombreuses personnes, l&rsquo;inclusion dans les systèmes algorithmiques entraîne un danger : celui de voir se développer des systèmes conçus pour surveiller, criminaliser et contrôler ces individus. Nous sommes là pleinement dans <a href="http://www.internetactu.net/a-lire-ailleurs/la-seconde-vague-de-la-responsabilite-algorithmique/">la seconde vague de la contestation algorithmique qu&rsquo;évoquait récemment le chercheur Frank Pasquale</a>. La quête d&rsquo;une IA éthique, plus inclusive, ne risque-t-elle pas au final de renforcer le contrôle des plus démunis ?</p>
<p>Pour Chelsea Barabas, <em>« la façon qu&rsquo;a une population de consommer une technologie repose souvent sur la façon dont une autre population est incarcérée par cette même technologie »</em>. La reconnaissance faciale en est un excellent exemple, explique-t-elle. <em>« Pour beaucoup de gens, la reconnaissance faciale est perçue principalement comme un bien de consommation, une commodité [NDE <em>cf.</em> <a href="http://www.internetactu.net/2019/11/05/interdire-la-reconnaissance-faciale-13-la-reconnaissance-faciale-nest-pas-une-technologie-cest-une-ideologie/">notre propos à cet égard</a>], qui permet à certains d&rsquo;entre nous d&rsquo;ouvrir plus facilement leur iPhone sans utiliser leurs mains. Pour d&rsquo;autres, le logiciel de reconnaissance faciale est surtout perçu comme un prolongement de l&rsquo;application de la loi, utilisé pour établir le profil des personnes et les criminaliser dans leur vie quotidienne »</em>. Comme le soutient l&rsquo;activiste <a href="https://nabilhassein.github.io/">Nabil Hassein</a> (<a href="https://twitter.com/nabilhassein">@nabilhassein</a>) sur <a href="https://digitaltalkingdrum.com/2017/08/15/against-black-inclusion-in-facial-recognition/">le blog décolonial et anticolonial Digital Talking Drum</a>, dans un billet qui s&rsquo;oppose à l&rsquo;amélioration de la reconnaissance faciale pour les personnes de couleur : <em>« à l&rsquo;avenir, les personnes qui contrôlent et déploient la reconnaissance faciale à toute échelle conséquente deviendront assurément nos oppresseurs. Pourquoi voudrions-nous alors que nos visages deviennent lisibles pour des traitements automatisés ? »</em></p>
<p>L&rsquo;inclusion dans les systèmes algorithmiques des populations les plus démunies repose souvent sur des relations coercitives d&rsquo;extraction de données, <a href="http://www.internetactu.net/2018/01/15/de-lautomatisation-des-inegalites/">comme le pointait très bien la chercheuse Virginia Eubanks</a>, où <a href="https://www.nytimes.com/2019/10/04/technology/google-facial-recognition-atlanta-homeless.html">ce récent et édifiant exemple de Google offrant des cartes cadeaux de 5$ à des sans-abris de couleurs d&rsquo;Atlanta pour collecter leur visage en 3D</a>. Les recherches médicales par exemple ont souvent et longtemps exploité les populations les plus vulnérables, rappelle Chelsea Barabas. Ce phénomène continue aujourd&rsquo;hui avec les outils de machine learning les plus à la pointe de la recherche, par exemple, via l&rsquo;étude des biomarqueurs vocaux qui consiste à étudier les caractéristiques de la voix pour détecter des maladies physiques ou mentales (voir <a href="https://medicalfuturist.com/vocal-biomarkers-new-opportunities-prevention/">une synthèse du sujet, très enthousiaste, sur <em>Medical Futurist</em></a>). Mais la promesse de l&rsquo;étude des biomarqueurs vocaux est aussi convoquée pour filtrer les terroristes potentiels à la frontière américaine, comme le soulignait <a href="https://theintercept.com/2018/11/25/voice-risk-analysis-ac-global/"><em>The Intercept</em> dans un article</a> évoquant la science de pacotille que représente l&rsquo;évaluation des risques vocaux (voir également <a href="http://www.internetactu.net/a-lire-ailleurs/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/">notre article critique sur l&rsquo;absence de fiabilité des technologies d&rsquo;analyse émotionnelle</a>). Or, cette promesse technologique, malgré ses failles intrinsèques, demeure utilisée par des fonctionnaires du gouvernement américain et les entreprises qui déploient ces technos, comme un moyen de minimiser la partialité des décisions humaines. Pour eux, cette techno vise à rendre la décision sur les demandes d&rsquo;asile à la frontière plus « équitables ». Pour Chelsea Barabas, cet exemple, parmi d&rsquo;autres, pose la question des priorités que nous avons à décider en tant que société. Devons-nous mettre au point ces technologies, à forte intensité de données, dont l&rsquo;efficacité est sujette à caution, alors que l&rsquo;investissement et le développement dans ces technos se font au détriment d&rsquo;autres solutions ? Pour Barabas, le risque en promouvant des systèmes éthiques est que les innovations technologiques profitent des inégalités et exacerbent les profondes injustices qui caractérisent nos sociétés. <em>« En tant que constructeurs de systèmes algorithmiques, nous devons résister activement aux pires applications de nos travaux et comprendre que plus nous nourrirons nos systèmes de données, plus cela va permettre de renforcer l&rsquo;exploitation et la criminalisation systématique des communautés les plus vulnérables »</em>. <em>« Nous devons construire des structures de responsabilité autour des algorithmes que nous produisons, afin de nous assurer que les personnes qui servent souvent de base aux innovations algorithmiques en bénéficient également. Nous devons dépasser le stade de la « partialité » et des biais, si nous voulons que nos innovations aient un impact positif sur le monde »</em>, conclut-elle. Autrement dit, pas de contrôle sans garantie, pas de surveillance sans contrepartie… ou alors, pas de surveillance du tout ! Quelque part, ce que Chelsea Barabas dénonce c&rsquo;est le prisme du contrôle et de la surveillance qui envahit tous nos outils, plutôt que de proposer des modalités d&rsquo;autonomisation ou de libéralisation. Les cadres éthiques qui posent la diversité et l&rsquo;inclusion comme une solution à la partialité sont fondamentalement limités, car ils négligent des questions importantes concernant les avantages et les inconvénients des innovations qui sous-tendent les nouvelles technologies. Pour elle, nous devons d&rsquo;abord questionner les conditions sociales de l&rsquo;innovation. Non pas nier ou refuser les biais, mais au contraire, les rendre plus visibles et lisibles, car ils sont toujours là. Comme disait Cathy O&rsquo;Neil, les algorithmes restent des opinions formalisées dans du code. </p>
<p>En juillet 2019, Chelsea Barabas avait signé avec ses collègues <a href="https://web.media.mit.edu/~kdinakar/">Karthik Dinakar</a> et le juriste de <a href="http://cjpp.law.harvard.edu/">l&rsquo;école de droit d&rsquo;Harvard</a> Colin Doyle <a href="https://www.nytimes.com/2019/07/17/opinion/pretrial-ai.html">une intéressante tribune dans le <em>New York Times</em></a> qui pointait le problème spécifique des outils d&rsquo;évaluation des risques criminels (et qui avait donné lieu à <a href="https://www.media.mit.edu/posts/algorithmic-risk-assessment/">une condamnation de ces techniques par une trentaine des meilleurs spécialistes du domaine</a>). Or, rappellent les chercheurs, ces outils offrent aux juges des recommandations qui font croire que la violence future semble plus prévisible et plus certaine qu&rsquo;elle ne l&rsquo;est en réalité. Ce faisant, les évaluations du risque perpétuent idées fausses et craintes qui sont déjà à l&rsquo;origine, aux Etats-Unis, d&rsquo;une incarcération massive avant procès. Cognitivement, les juges, par crainte de libérer des individus potentiellement dangereux, surestiment le risque pour refuser la libération avant procès. Pourtant, <em>« même dans les villes où le taux de criminalité et le taux de mise en liberté provisoire sont élevés, il est rare qu&rsquo;une personne commette des actes de violence en attendant son procès »</em>. Pour limiter cette surincarcération, les juridictions ont de plus en plus recours à des outils d&rsquo;évaluation des risques criminels. En utilisant de grandes quantités de données sur les antécédents criminels, les algorithmes d&rsquo;évaluation du risque tentent de calculer le risque de violence future d&rsquo;une personne en se fondant sur les tendances de la fréquence à laquelle des personnes ayant des caractéristiques similaires ont été arrêtées pour un crime violent dans le passé. Les différents algorithmes s&rsquo;appuient sur des caractéristiques personnelles différentes, comme les condamnations antérieures, la durée de l&#8217;emploi actuel ou même le code postal. Certains tiennent même compte du fait qu&rsquo;une personne possède ou loue une maison ou un téléphone mobile. </p>
<p>Pour leurs promoteurs, les évaluations algorithmiques du risque sont présentées comme étant plus objectives et plus précises que les juges pour prédire la violence future et reposent sur l&rsquo;espoir qu&rsquo;elles puissent corriger l&rsquo;intuition humaine trop souvent défectueuse des juges. Le problème est que les étiquettes d&rsquo;évaluation des risques qui s&rsquo;affichent sur les dossiers masquent surtout la profonde incertitude des prédictions, notamment parce qu&rsquo;à nouveau, la violence avant un procès est rare, il est statistiquement impossible d&rsquo;identifier des personnes plus susceptibles que d&rsquo;autres de commettre un crime. 92% des personnes que l&rsquo;algorithme signale comme pouvant commettre un acte violent avant procès ne sont pas arrêtées. En fait, ces outils sacrifient l&rsquo;exactitude au profit de distinctions douteuses entre des personnes qui ont <em>« toutes une probabilité faible, indéterminée ou incalculable »</em> de commettre un crime avec violence. Ces évaluations algorithmiques du risque étiquettent les personnes comme étant à risque sans donner aux juges une idée de la probabilité ou de l&rsquo;incertitude sous-jacente de cette prédiction. Par conséquent, ils participent à surestimer le risque de violence et l&rsquo;incarcération provisoire&#8230; c&rsquo;est-à-dire à renforcer le biais des juges. Le développement de prédictions risque surtout de cimenter les craintes irrationnelles et la logique de l&rsquo;incarcération massive derrière un vernis d&rsquo;objectivité pseudo-scientifique. Ni les juges ni les logiciels ne peuvent prédire qui commettra ou non de crimes violents. </p>
<h2>Certaines technologies sont certainement incompatibles avec la démocratie</h2>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/02/499b91d4-algorithmicinjustice-300x207.png"><img src="https://asset.lemde.fr/prd-blogs/2020/02/499b91d4-algorithmicinjustice-300x207.png" alt="Boston Review" title="Boston Review" width="300" height="207" class="alignright size-full wp-image-2825" /></a>Dans <a href="http://bostonreview.net/science-nature-politics/annette-zimmermann-elena-di-rosa-hochan-kim-technology-cant-fix-algorithmic">une tribune pour la <em>Boston Review</em></a>, les philosophes <a href="https://annettezimmermann.weebly.com/">Annette Zimmermann</a>, <a href="https://scholar.princeton.edu/elenadirosa">Elena Di Rosa</a> et <a href="https://politics.princeton.edu/people/hochan-sonny-kim">Hochan Kim</a>, s&rsquo;énervaient également du risque de neutralisation des biais&#8230; cette promesse, comme le souligne Irénée Régnault de <em>Mais où va le web ?</em> qui <a href="http://maisouvaleweb.fr/la-justice-algorithmique-nest-pas-une-question-technique/">a consacré un article détaillé à cette tribune</a>, d&rsquo;autorégulation des algorithmes. Mais la neutralité ne signifie pas la justice. Pour les philosophes, la quête d&rsquo;algorithmes plus justes <em>« ne réside peut-être pas dans leur amélioration, mais dans le fait de décider de ne pas les déployer »</em>. </p>
<p>Pour les trois philosophes, rendre les algorithmes plus justes n&rsquo;est pas suffisant, il faut entendre que certaines technologies sont certainement incompatibles avec la démocratie. Pour eux également, <em>« il convient donc d’aller plus loin et d’interroger les liens entre les systèmes d’intelligence artificielle et les configurations sociales et politiques existantes »</em>, se demander en quoi un système exploite et développe des inégalités. Pour contester les dimensions sociales, morales et politiques de la décision algorithmique, nous avons besoin de processus publics et démocratiques adaptés à ces enjeux par des autorités de contrôle indépendantes, des processus de délibération citoyens, des associations et des journalistes qui fassent un travail d&rsquo;enquête et de révélation des problèmes… Comme le dit Irénée Régnauld, pour mieux réguler les technos, il nous faut certainement plus de démocratie… Reste que plus de démocratie ne signifie pas nécessairement que les excès des systèmes puissent être contrés (<em>« on peut tout à fait prendre de « mauvaises décisions » démocratiquement »</em>). Autant dire que, pour saisir les enjeux de ces systèmes, nous avons certainement besoin d&rsquo;une démocratie et de débats bien plus vivants qu&rsquo;ils ne sont.   </p>
<p>Hubert Guillaud</p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
							<wfw:commentRss>https://www.lemonde.fr/blog/internetactu/2020/02/20/peut-on-corriger-les-biais/feed/</wfw:commentRss>
		<slash:comments>1</slash:comments>
						<post-id xmlns="com-wordpress:feed-additions:1">2822</post-id>	</item>
		<item>
		<title>De la difficulté à imposer la transparence des décisions automatisées</title>
		<link>https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/</link>
				<pubDate>Thu, 06 Feb 2020 08:41:09 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2817</guid>
				<description><![CDATA[Fin décembre 2017, la ville de New York avait lancé un groupe de travail sur la question des algorithmes (appelé New York City Automated Decision Systems (ADS) Task Force que nous évoquions rapidement ici), chargé d&#8217;élaborer une politique sur ces questions. Saluée comme une initiative modèle, le groupe de travail était censé produire des règles &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;De la difficulté à imposer la transparence des décisions automatisées&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=De+la+difficult%C3%A9+%C3%A0+imposer+la+transparence+des+d%C3%A9cisions+automatis%C3%A9es%20-%20https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/&amp;media=&amp;description=Fin+d%C3%A9cembre+2017%2C+la+ville+de+New+York+avait+lanc%C3%A9+un+groupe+de+travail+sur+la+question+des+algor" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=De la difficulté à imposer la transparence des décisions automatisées&amp;body=Fin décembre 2017, la ville de New York avait lancé un groupe de travail sur la question des algor%20-%20https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2817" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/&amp;title=De+la+difficult%C3%A9+%C3%A0+imposer+la+transparence+des+d%C3%A9cisions+automatis%C3%A9es" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/&amp;title=De+la+difficult%C3%A9+%C3%A0+imposer+la+transparence+des+d%C3%A9cisions+automatis%C3%A9es" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p>Fin décembre 2017, la ville de New York avait lancé <a href="https://cdt.org/insights/nyc-may-be-at-the-vanguard-of-algorithmic-accountability-in-2018/">un groupe de travail sur la question des algorithmes</a> (appelé <em>New York City Automated Decision Systems (ADS) Task Force</em> que nous évoquions rapidement <a href="http://www.internetactu.net/2018/07/19/concretement-comment-rendre-les-algorithmes-responsables-et-equitables/">ici</a>), chargé d&rsquo;élaborer une politique sur ces questions. Saluée comme une initiative modèle, le groupe de travail était censé produire des règles pour encadrer l&rsquo;utilisation des technologies de traitement dans les politiques publiques. Mais voilà, <a href="https://www.citylab.com/equity/2019/12/ai-technology-computer-algorithm-cities-automated-systems/603349/">rapporte <em>CityLab</em></a>, l&rsquo;initiative s&rsquo;est enlisée. Le groupe de travail n&rsquo;a même pas réussi à avoir accès aux informations de base sur les systèmes de traitement automatisés déjà utilisés par la ville ni à produire un catalogue de ces systèmes. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/02/988a2a2c-shadowreport-278x300.jpg"><img src="https://asset.lemde.fr/prd-blogs/2020/02/988a2a2c-shadowreport-278x300.jpg" alt="" width="278" height="300" class="alignright size-full wp-image-2818" /></a><a href="https://ainowinstitute.org/ads-shadowreport-2019.pdf">Le rapport non officiel (.pdf)</a> (intitulé « Se confronter aux boîtes noires ») publié par l&rsquo;<a href="https://ainowinstitute.org/">AI Now Institute</a> (<a href="https://twitter.com/ainowinstitute">@ainowinstitute</a>) s&rsquo;inquiète justement des limites des procédures administratives existantes pour affronter les décisions automatisées. À l&rsquo;heure où les décisions sont de plus en plus automatisées, la question du contrôle de l&rsquo;équité de ces décisions demeure souvent entière, et ce alors qu&rsquo;en reproduisant nos biais, ils peuvent se révéler encore plus injustes et discriminants que d&rsquo;autres types de procédures. Le groupe de travail de la ville de New York &#8211; qui comprenait également Meredith Whittaker, cofondatrice de l&rsquo;AI Now Institute &#8211; a formulé des recommandations structurelles en recommandant la création d&rsquo;une structure dédiée au sein de l&rsquo;administration municipale auquel le maire de New York, Bill de Blasio, avait répondu positivement en créant <a href="https://www1.nyc.gov/office-of-the-mayor/news/554-19/mayor-de-blasio-signs-executive-order-establish-algorithms-management-policy-officer">un poste de responsable de la gestion et des politiques algorithmiques au sein du bureau des opérations du maire</a>, mais qui semble avoir relevé pour l&rsquo;instant du pur affichage. Les membres du groupe de travail ont souligné que les organismes municipaux n&rsquo;ont pas été à même de fournir une liste des systèmes automatisés en service, du fait des secrets commerciaux liés aux technologies de leurs fournisseurs de services. <em>« Il y a eu des retards et des obscurcissements, puis, au printemps 2019, des refus catégoriques »</em>, <a href="https://www.fastcompany.com/90436012/the-first-effort-to-regulate-ai-was-a-spectacular-failure">a expliqué Albert Fox Cahn à <em>Fast Company</em></a>, directeur exécutif de l&rsquo;association <a href="https://www.stopspying.org">Stop Surveillance</a> (<a href="https://twitter.com/STOPSpyingNY">@STOPSpyingNY</a>), du <a href="https://urbanjustice.org/">Centre pour la justice urbaine</a> (<a href="https://twitter.com/UrbanJustice">@urbanjustice</a>) qui a participé à ce groupe de travail. Cahn rappelle dans sa tribune que la Task Force avait pour but d&rsquo;examiner toutes les fonctions automatisées de la ville : de la répartition scolaire des élèves en passant par les logiciels qui décident du ramassage des ordures… Il souligne que le conseil municipal avait d&rsquo;abord exigé que la ville n&rsquo;ait recours qu&rsquo;à des systèmes de décision <em>open source</em>, mais qu&rsquo;elle a rapidement cédée sur ce point. Il explique encore que les discussions du groupe de travail se sont rapidement enlisées autour de la question visant à déterminer ce qui relevait ou ne relevait pas de décisions automatisées, sans parvenir à un consensus pour déterminer le périmètre de leur action. Petit à petit, le périmètre s&rsquo;est restreint aux systèmes d&rsquo;IA et de machine learning, excluant les formes d&rsquo;automatisation plus simples, celles, nombreuses, qui fonctionnent via un simple tableau sous Excel. Or, souligne-t-il <em>« Vous n&rsquo;avez pas besoin d&rsquo;un modèle en langage naturel de plusieurs millions de dollars pour développer un système dangereux qui prend des décisions sans surveillance humaine, et qui a le pouvoir de changer la vie des gens »</em>. Les fonctionnaires de la ville ont tenté de limiter le champ d&rsquo;action du groupe de travail au code source algorithmique, mais sans parvenir à ouvrir au groupe de travail un accès à ces codes. Ce n&rsquo;est pas tant que les données n&rsquo;existent pas, pointe Cahn : la ville dispose d&rsquo;informations sur les systèmes et même des informations sur leurs fonctionnements, mais il est difficile pour les services d&rsquo;assumer une transparence. Le rapport officiel de la ville en reste à des préoccupations sur les biais, le financement ou la régulation nécessaire, sans faire de réelles propositions pour lever ces difficultés.</p>
<p><a href="https://www1.nyc.gov/assets/adstaskforce/downloads/pdf/ADS-Report-11192019.pdf">Si le récent rapport (.pdf)</a> de la ville de New York reconnait que le groupe de travail a eu des difficultés à obtenir des informations du fait de la protection liée au caractère propriétaire des systèmes utilisés. Le rapport non officiel souligne que les municipalités doivent mieux contrôler les contrats qu&rsquo;elles passent avec les fournisseurs de technologies, notamment via des clauses d&rsquo;obligation de transparence. Pour l&rsquo;AI Now Institute, l&rsquo;échec de New York risque d&rsquo;être un bien mauvais exemple pour toutes les autres administrations et risque de créer un dangereux précédent permettant aux villes de ne rien faire pour améliorer ces situations. La ville de Portland qui a récemment adopté une résolution sur la protection de la vie privée a demandé une évaluation des impacts des systèmes de décision automatisés, mais elle n&rsquo;a pas réalisé d&rsquo;inventaire des systèmes concernés, a déclaré <a href="https://twitter.com/hdomaguirre">Hector Dominguez</a> coordinateur des données ouvertes de la ville. À Seattle, la ville a mis à jour <a href="https://www.seattle.gov/Documents/Departments/Tech/Privacy/Q2%202019%20CTO%20Quarterly%20Surveillance%20Technology%20Determination%20Report%20.pdf">une liste (.pdf)</a> de technologies de surveillance utilisées par les agences municipales. La ville et le comté de San Francisco ont eux recours à <a href="https://ethicstoolkit.ai/">une boîte à outils</a> pour évaluer l&rsquo;impact des systèmes algorithmiques. </p>
<p><a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3464203">Dans un article</a>, les professeurs <a href="https://www.ischool.berkeley.edu/people/deirdre-mulligan">Deidre Mulligan</a> (<a href="https://twitter.com/DMulliganUCB">@DMulliganUCB</a>) et <a href="https://www.law.berkeley.edu/our-faculty/faculty-profiles/kenneth-bamberger/">Kenneth Bamberger</a> de Berkeley, estiment que les autorités doivent mettre à jour leurs politiques d&rsquo;achats de technologie, pour <em>« passer d&rsquo;une mentalité de passation de marchés publics à une mentalité de décision politique »</em>, afin de permettre de construire et d&rsquo;utiliser des outils qui soient alignés avec les valeurs que les collectivités veulent mettre en oeuvre (<a href="http://www.internetactu.net/2019/07/10/vers-des-villes-politiquement-intelligentes/">dans son livre</a>, Ben Green, le data scientist de la ville de Boston, ne disait pas autre chose). Comme ils le soulignent encore dans leur article, le risque est de laisser les décisions de conception aux services privés et d&rsquo;abdiquer la responsabilité des acteurs publics et la participation du public dans l&rsquo;élaboration des politiques publiques. Pour eux, il est nécessaire d&rsquo;avoir recours à une conception « contestable » (qui fait écho <a href="http://www.internetactu.net/2019/11/14/de-lexplicabilite-des-systemes-les-enjeux-de-lexplication-des-decisions-automatisees/">aux modalités de contestations que nous évoquions il y a peu</a>), c&rsquo;est-à-dire <em>« une conception qui expose les valeurs des caractéristiques et des paramètres choisis et qui prévoit une participation humaine et itérative à l&rsquo;évolution et au déploiement des systèmes de décision automatisés »</em>. </p>
<p>L&rsquo;exemple emblématique de cet échec fait écho <a href="http://www.internetactu.net/2019/04/18/intelligence-artificielle-des-limites-de-lethique-aux-promesses-de-la-regulation/">aux échecs récents</a> que bien des entreprises de technologie ont rencontré à mettre en place des garde-fous, via des comité d&rsquo;éthiques dédiés à la question de l&rsquo;IA. Il souligne également combien les politiques publiques ont une marche de responsabilité à franchir <a href="http://www.internetactu.net/2018/12/05/vers-des-algorithmes-exemplaires/">pour devenir exemplaires</a> : et cet enjeu là ne se limite pas à New York ou aux villes américaines, mais concerne dès à présent les politiques publiques de tous les pays engagés dans des questions de transformation numérique. </p>
<p>*  </p>
<p>Profitons de cet article pour faire, comme chaque année (<a href="http://www.internetactu.net/a-lire-ailleurs/10-recommandations-pour-lia/">2018</A>), un point rapide sur un autre rapport de l&rsquo;AI Now Institute : <a href="https://ainowinstitute.org/AI_Now_2019_Report.pdf">son rapport annuel 2019 (.pdf)</a> qui pointe 12 recommandations pour améliorer les questions de justice liées au déploiement des systèmes automatisés : </p>
<ul>
<li>&#8211; Interdire <a href="http://www.internetactu.net/a-lire-ailleurs/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/">l&rsquo;analyse émotionnelle automatisée</a> (c&rsquo;est-à-dire toutes les technologies qui visent à faire de l&rsquo;analyse de sentiment, de personnalité, des émotions ou relatives à la santé mentale) ; </li>
<li>&#8211; Décider d&rsquo;un moratoire sur la reconnaissance faciale, notamment liée à leur utilisation dans les milieux sociaux sensibles et sur des questions politiques allant de la surveillance au maintien de l&rsquo;ordre, à l&rsquo;éducation et à l&#8217;emploi ; </li>
<li>&#8211; Fournir des mesures de protection pour les communautés contre lesquels ces technologies sont utilisées, afin qu&rsquo;elles puissent évaluer, contester ou rejeter leur déploiement ;</li>
<li>&#8211; Invite l&rsquo;industrie de l&rsquo;IA a apporter des changements structurels pour remédier au problème systémique de son absence de diversité ;</li>
<li>&#8211; Inviter la communauté des chercheurs à dépasser la question de l&rsquo;équité technique et de correction des biais pour s&rsquo;intéresser à la politique et notamment aux conséquences de l&rsquo;utilisation de l&rsquo;IA, à ces effets en matière de classification et déplacer ses préoccupations jusqu&rsquo;aux enjeux « non techniques » (<a href="http://www.internetactu.net/2019/09/30/kate-crawford-lia-est-une-nouvelle-ingenierie-du-pouvoir/">comme nous y invitait déjà la fondatrice de l&rsquo;AI Now Institute, Kate Crawford</a>) ; </li>
<li>&#8211; Renforcer l&rsquo;étude sur l&rsquo;impact climatique de cette industrie ;</li>
<li>&#8211; Ouvrir un droit à la contestation à l&rsquo;encontre des décisions abusives liées aux systèmes automatisés, notamment pour les travailleurs confrontés à ces systèmes, via leurs syndicats.</li>
<li>&#8211; Permettre aux ingénieurs qui travaillent sur ces systèmes de contester les développements non éthiques dont ils participent ;</li>
<li>&#8211; Renforcer la législation sur la protection biométrique de la vie privée, car les données biométriques de l&rsquo;ADN aux empreintes faciales sont au coeur des utilisations les plus toxiques de l&rsquo;IA ;</li>
<li>&#8211; Réglementer l&rsquo;intégration des formes de surveillance publiques et privées, commerciales et étatiques en rendant obligatoire la transparence des partenariats, des acquisitions et des contrats entre ces deux secteurs ;</li>
<li>&#8211; Elargir les études d&rsquo;impact algorithmiques aux questions de climat, de santé et de déplacements ;</li>
<li>&#8211; Améliorer l&rsquo;enseignement de l&rsquo;IA notamment en obligeant les chercheurs à documenter leurs modèles et leurs données ;</li>
<li>&#8211; Enfin, les législateurs devraient exiger un consentement éclairé pour l&rsquo;utilisation de toute donnée à caractère personnel dans le cadre des applications d&rsquo;IA liées à la santé.</li>
<ul>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2020/02/06/de-la-difficulte-a-imposer-la-transparence-des-decisions-automatisees/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
									<post-id xmlns="com-wordpress:feed-additions:1">2817</post-id>	</item>
		<item>
		<title>Logiciels de planification des horaires : dans les biais cognitifs du management par les coûts</title>
		<link>https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/</link>
				<pubDate>Wed, 22 Jan 2020 10:34:42 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[travail]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2811</guid>
				<description><![CDATA[Les logiciels de planification des horaires des employés sont très courants dans la distribution et la restauration notamment (aux États-Unis, ces logiciels impactent la vie de 16 millions de personnes qui travaillent dans la distribution et 12 dans la restauration). Ils ajustent les heures de travail en prévoyant l&#8217;affluence en magasin (et donc le nombre &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Logiciels de planification des horaires : dans les biais cognitifs du management par les coûts&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=Logiciels+de+planification+des+horaires+%3A+dans+les+biais+cognitifs+du+management+par+les+co%C3%BBts%20-%20https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/&amp;media=&amp;description=Les+logiciels+de+planification+des+horaires+des+employ%C3%A9s+sont+tr%C3%A8s+courants+dans+la+distribution+e" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Logiciels de planification des horaires : dans les biais cognitifs du management par les coûts&amp;body=Les logiciels de planification des horaires des employés sont très courants dans la distribution e%20-%20https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2811" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/&amp;title=Logiciels+de+planification+des+horaires+%3A+dans+les+biais+cognitifs+du+management+par+les+co%C3%BBts" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/&amp;title=Logiciels+de+planification+des+horaires+%3A+dans+les+biais+cognitifs+du+management+par+les+co%C3%BBts" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p><a href="https://asset.lemde.fr/prd-blogs/2020/01/5bb66111-whyshopping-300x219.png"><img src="https://asset.lemde.fr/prd-blogs/2020/01/5bb66111-whyshopping-300x219.png" alt="L'article du Washington Monthly" title="L'article du Washington Monthly" width="300" height="219" class="alignright size-full wp-image-2812" /></a>Les logiciels de planification des horaires des employés sont très courants dans la distribution et la restauration notamment (aux États-Unis, ces logiciels impactent la vie de 16 millions de personnes qui travaillent dans la distribution et 12 dans la restauration). Ils ajustent les heures de travail en prévoyant l&rsquo;affluence en magasin (et donc le nombre d&#8217;employés nécessaires) selon d&rsquo;innombrables données comme l&rsquo;historique des ventes, l&rsquo;affluence, la météo… explique la journaliste et essayiste <a href="http://www.brigidschulte.com/">Brigid Schulte</a> (<a href="https://twitter.com/BrigidSchulte/">@BrigidSchulte</a>) &#8211; auteur de <a href="https://www.harpercollins.ca/9781443410182/overwhelmed/"><em>Overwhelmed</em></a> (<em>Débordé : travailler, aimer et jouer quand personne n&rsquo;a le temps</em>, Harper Collins, 2014, non traduit) et directrice du <a href="https://www.newamerica.org/better-life-lab/">Better Life Lab (<a href="https://twitter.com/BetterLifeLab">@BetterLifLab</a>) du think tank centriste <a href="https://www.newamerica.org/">New America</a> &#8211; dans <a href="https://washingtonmonthly.com/magazine/january-february-march-2020/why-todays-shopping-sucks/">une enquête pour le <em>Washington Monthly</em></a>. Pourtant, si nombre de magasins ou de restaurants semblent dysfonctionnels pour les clients (mauvais service, absence d&rsquo;aide et d&rsquo;information, attente interminable…), peut-être est-ce lié à la manière dont le management organise le chaos dans la vie même de leurs employés. Les horaires chaotiques de bon nombre d&#8217;employés (semaines de travail irrégulières, agenda incohérent…) sont liés aux logiciels utilisés et aux prédictions incertaines qu&rsquo;ils calculent, puisque, malgré celles-ci, bon nombre d&rsquo;ajustements doivent être faits au dernier moment en appelant ou décommandant un employé dans l&rsquo;heure. </p>
<h2>Des systèmes indifférents aux conditions d&rsquo;existence</h2>
<p><em>« L&rsquo;ordonnancement algorithmique a fait des ravages dans la vie, la santé, la stabilité financière et les perspectives d&rsquo;avenir de millions de travailleurs du secteur des services »</em>. Des millions de travailleurs et leurs familles sont <em>« pris au piège d&rsquo;un cycle sans fin de travail précaire et imprévisible à bas salaire »</em>. Les ordinateurs décident quand un humain travaille, combien de temps et s&rsquo;il travaille. En ne le voyant que comme un paramètre dans un tableur, une pièce d&rsquo;un puzzle, indifférent à ses conditions d&rsquo;existence. Le développement de ces systèmes n&rsquo;a pas eu d&rsquo;autres visées qu&rsquo;améliorer l&rsquo;efficacité et les rendements, en calculant au plus juste la main-d’œuvre, c&rsquo;est-à-dire les dépenses. </p>
<p>Pourtant, ces logiciels pourraient très facilement être programmés pour traiter les employés comme des êtres humains. Certaines entreprises l&rsquo;ont déjà compris et ont constaté que cette correction n&rsquo;améliorait pas que la santé et le bien-être des employés, mais également la satisfaction client et les ventes. Mais ce n&rsquo;est pas le cas de la majorité des entreprises : pour la plupart, elles les utilisent pour punir les travailleurs les plus pauvres et les maintenir dans leur état. Ces logiciels se sont surtout déployés avec le développement du temps partiel suite à la crise de 2008. Selon plusieurs études menées par les démographes et sociologues <a href="https://sociology.berkeley.edu/faculty/daniel-schneider">Daniel Schneider</a> (<a href="https://twitter.com/dannyjschneider">@dannyjschneider</a>) et <a href="https://sociology.sas.upenn.edu/people/harknett">Kristen Harknett</a> (<a href="https://twitter.com/kristenharknett">@kristenharknett</a>), ceux-ci ont longuement observé comment la crise avait affecté les ménages américains (chute de la natalité, augmentation du taux de divorce…) : la montée du chômage et la perte d&#8217;emploi semblaient les principales raisons de ces nouvelles instabilités. Pourtant, les chercheurs ont constaté que ces conséquences se prolongeaient même chez ceux qui avaient conservé un emploi ou en avaient trouvé un nouveau. En fait, la précarité et l&rsquo;instabilité (le fait de ne pas savoir quand ni combien de temps ils travailleraient) semblaient des facteurs d&rsquo;explication plus marqués que d&rsquo;autres. </p>
<p>Depuis 2016, les deux chercheurs ont lancé <a href="https://shift.berkeley.edu/">le projet Shift</a> (<a href="https://twitter.com/Shift_UCB">@Shift_UCB</a>), qui s&rsquo;intéresse aux effets des pratiques de planification des horaires sur la santé et le bien-être des travailleurs pour mesurer comment les entreprises transfèrent leurs risques vers les travailleurs et leurs familles. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/01/051b20a0-shiftproject.png"><img src="https://asset.lemde.fr/prd-blogs/2020/01/051b20a0-shiftproject.png" alt="Home page du Shift Project" title="Home page du Shift Project" width="540" class="aligncenter size-full wp-image-2813" /></a></p>
<p>Plus de la moitié des travailleurs à faibles salaires recensés indiquent que leurs volumes horaires et leurs horaires changent de jour en jour et de semaine en semaine. Deux tiers indiquent devoir être disponibles en permanence si on les appelle. 90% qu&rsquo;ils n&rsquo;avaient pas ou peu d&rsquo;influence sur l&rsquo;établissement de leurs horaires de travail. Et bien sûr, cette impuissance et cette grande volatilité des horaires s&rsquo;aggravent si vous êtes une femme, une personne de couleur, un jeune, ou une personne avec des enfants. Les postes stables semblent de plus en plus rares : pour nombre de salariés de ces secteurs, la flexibilité est la règle. </p>
<p>Or, constatent les chercheurs, l&rsquo;irrégularité des horaires est associée à des niveaux plus élevés de dépression, de stress, de nervosité, de désespoir, de trouble du sommeil… (à salaire équivalent par rapport à un travailleur ayant des horaires stables et réguliers). Normal : contrairement aux dépenses, les revenus des salariés ainsi précarisés peuvent fluctuer de 30% d&rsquo;une semaine l&rsquo;autre. Pour les chercheurs, des horaires plus prévisibles ont plus d&rsquo;impact sur la santé et le bien-être qu&rsquo;un meilleur salaire, du fait de la désorganisation et de l&rsquo;absence de contrôle que cela implique. Pire, les chercheurs ont récemment souligné que ce stress du temps désorganisé avait des conséquences sur les enfants, chez qui on retrouve des niveaux d&rsquo;anxiété, de stress et de dépression plus élevés que ceux dont les parents travaillent à heures fixes. </p>
<h2>Le biais cognitif du management par les coûts</h2>
<p>Syndicats et associations de travailleurs ont commencé à combattre ces horaires volatiles. En février, des travailleurs ont gagné un recours collectif en Californie en arguant que la planification d&rsquo;horaire à la volée tenait d&rsquo;une forme de retenue de salaire abusive. Plusieurs organisations ont fait adopter une loi sur les horaires stables. D&rsquo;autres villes et États ont adopté des lois sur l&rsquo;établissement d&rsquo;horaires équitables, permettant d&rsquo;apporter un meilleur préavis et de garantir une rémunération en cas de déplacement annulé au dernier moment. Depuis 2018, après nombre de contestations, Walmart garantit désormais un préavis de 2 semaines sur les horaires et permet à ses employés de choisir des heures de base et a introduit 9 heures de repos entre les quarts (pour empêcher que des gens terminent tard et reprennent le lendemain matin tôt). L&rsquo;entreprise a également créé une application pour permettre à ses employés d&rsquo;échanger leurs quarts de travail, un dispositif important pour introduire de la souplesse dans ces processus. Autant de changements qui ont permis de réduire les taux d&rsquo;absentéisme, mais aussi d&rsquo;augmenter la productivité et les ventes. Car contrairement à ce que pensent les entreprises, ces horaires flexibles ont bien plus d&rsquo;impacts négatifs que la seule économie immédiate sur les dépenses qu&rsquo;ils promettent. </p>
<p>Pour remédier à cela, il suffit bien souvent de configurer autrement ces logiciels de gestion d&rsquo;horaires et de favoriser la régularité d&rsquo;une semaine l&rsquo;autre. Bien souvent, explique la chercheuse <a href="https://ssa.uchicago.edu/ssascholars/s-lambert">Susan Lambert</a>, la question de l&rsquo;instabilité des horaires ne dépend pas que du logiciel, notamment parce qu&rsquo;il ne sait pas affronter les imprévus, comme une livraison ou une promotion de dernière minute. Or, les gestionnaires sont poussés à atteindre des objectifs de vente stricts, calculés au jour voire à l&rsquo;heure même, basée sur des prévisions qui prennent en compte historique des ventes, météo, affluence… et ventes en temps réel pour s&rsquo;ajuster toujours plus finement. Et pour parvenir à tenir ces objectifs, les logiciels brident également les budgets de main-d’œuvre. <em>« Ce qui se passe, explique Susan Lambert, c&rsquo;est qu&rsquo;un gestionnaire dit : « Nous étions censés vendre 60 pulls à l&rsquo;heure actuelle, mais nous n&rsquo;en avons vendu que 30 ! Quelqu&rsquo;un doit rentrer chez lui !”</em> </p>
<p>Pour le professeur en marketing <a href="https://www.kenan-flagler.unc.edu/faculty/directory/saravanan-kesavan/">Saravanan Kesavan</a>, les coûts liés au manque de personnel ne peuvent pas être mesurés facilement, alors que le sureffectif (qui a peut-être un coût moindre), est très visible. Pour <a href="https://oid.wharton.upenn.edu/profile/fisher/#research">Marshall Fisher</a>, professeur à la Wharton School, les entreprises sont confrontés à un biais cognitif, une mentalité d&rsquo;école de commerce qui les incite à devoir à tout prix maintenir des coûts de main-d’œuvre faibles (<em>« un management par les coût »</em> courtermiste qui promeut la surveillance pour améliorer la productivité, <a href="http://www.internetactu.net/2014/06/04/la-demesure-est-elle-le-seul-moyen-pour-changer-doutil-de-mesure/">ce qui est loin d&rsquo;être démontré !</a>)&#8230; Et pour elles, la seule manière de tenir cet objectif serait d&rsquo;avoir recours à des horaires instables. Pour Rachel Deutsch, qui dirige <a href="http://www.fairworkweek.org/">l&rsquo;initiative pour une semaine de travail équitable</a> (<a href="https://united4respect.org/campaigns/fair-workweek/">voir également la campagne lancée</a>) au <a href="https://populardemocracy.org/">Centre pour la démocratie populaire</a> (<a href="https://twitter.com/popdemoc">@popdemoc</a>), ces hypothèses sont fausses, mais omniprésentes. En Oregon, les entreprises de ventes au détail, d&rsquo;hôtellerie et de restauration comptant plus de 500 employés sont tenues de donner des estimations de bonne foi des heures de travail mensuelles. À partir de 2020, elles devront donner aux travailleurs leurs horaires 2 semaines à l&rsquo;avance, un droit de repos d&rsquo;au moins 10 heures entre les quarts de travail, un droit de regard sur leurs horaires et une compensation pour tout changement d&rsquo;horaire de dernière minute. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2020/01/083fc3c1-fair-workweek.png"><img src="https://asset.lemde.fr/prd-blogs/2020/01/083fc3c1-fair-workweek.png" alt="l'initiative pour une semaine de travail équitable du Centre pour la démocratie populaire" title="l'initiative pour une semaine de travail équitable du Centre pour la démocratie populaire" width="540" class="aligncenter size-full wp-image-2814" /></a></p>
<p>Pourtant, il n&rsquo;est pas nécessaire de modifier la loi pour traiter convenablement ses employés, rappelle la célèbre spécialiste du management <a href="https://www.zeynepton.com">Zeynep Ton</a> du <a href="https://goodjobsinstitute.org/">Good Jobs Institute</a> du MIT qui a publié l&rsquo;un des livres de référence sur le sujet <em>« Stratégie pour de bons emplois : comment les entreprises les plus intelligentes investissent dans leurs employés pour réduire les coûts et augmenter les profits</em> (non traduit, Amazon Publishing, 2014). Comme le souligne la responsable des relations humaines de Mud Bay, une coopérative d&rsquo;aliments pour animaux qui a déployé son propre logiciel de planification d&rsquo;horaire : <em>« ce n&rsquo;est pas à la technologie de décider comment faire tourner notre entreprise »</em>. </p>
<p>Hubert Guillaud</p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2020/01/22/logiciels-de-planification-des-horaires-dans-les-biais-cognitifs-du-management-par-les-couts/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
									<post-id xmlns="com-wordpress:feed-additions:1">2811</post-id>	</item>
		<item>
		<title>Technopouvoir : comment le numérique est devenu l&#8217;enjeu de son propre accomplissement</title>
		<link>https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/</link>
				<pubDate>Thu, 12 Dec 2019 09:37:14 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[algorithme]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2807</guid>
				<description><![CDATA[Avec Technopouvoir : dépolitiser pour mieux régner (Les liens qui libèrent, 2019), Diana Filippova (@dnafilippova), responsable éditoriale de l&#8217;agence Stroïka, cofondatrice du mouvement politique Place Publique et de la communauté promouvant la société collaborative, Ouishare, signe un puissant essai de philosophie politique critique de la technologie et de ses effets. Un livre dense, plutôt impressionnant &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Technopouvoir : comment le numérique est devenu l&#8217;enjeu de son propre accomplissement&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=Technopouvoir+%3A+comment+le+num%C3%A9rique+est+devenu+l%26rsquo%3Benjeu+de+son+propre+accomplissement%20-%20https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/&amp;media=&amp;description=Avec+Technopouvoir+%3A+d%C3%A9politiser+pour+mieux+r%C3%A9gner+%28Les+liens+qui+lib%C3%A8rent%2C+2019%29%2C+Diana+Filippov" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Technopouvoir : comment le numérique est devenu l&rsquo;enjeu de son propre accomplissement&amp;body=Avec Technopouvoir : dépolitiser pour mieux régner (Les liens qui libèrent, 2019), Diana Filippov%20-%20https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2807" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/&amp;title=Technopouvoir+%3A+comment+le+num%C3%A9rique+est+devenu+l%26rsquo%3Benjeu+de+son+propre+accomplissement" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/&amp;title=Technopouvoir+%3A+comment+le+num%C3%A9rique+est+devenu+l%26rsquo%3Benjeu+de+son+propre+accomplissement" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p>Avec <em>Technopouvoir : dépolitiser pour mieux régner</em> (Les liens qui libèrent, 2019), Diana Filippova (<a href="https://twitter.com/dnafilippova">@dnafilippova</a>), responsable éditoriale de l&rsquo;<a href="https://www.stroika.paris/">agence Stroïka</a>, cofondatrice du mouvement politique <a href="https://place-publique.eu/">Place Publique</a> et de la communauté promouvant la société collaborative, <a href="https://www.ouishare.net/">Ouishare</a>, signe un puissant essai de philosophie politique critique de la technologie et de ses effets. Un livre dense, plutôt impressionnant et qui ne réduit pas la complexité de son sujet, mais au contraire, le déploie. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/12/111a5b78-technopouvoir02.png"><img src="https://asset.lemde.fr/prd-blogs/2019/12/111a5b78-technopouvoir02.png" alt="Couverture du livre Technopouvoir" title="Couverture du livre Technopouvoir" width="196" height="300" class="alignright size-full wp-image-2808" /></a><em>Technopouvoir</em> est assurément un livre technocritique, qui s&rsquo;inscrit dans cette filiation riche, ancienne, nourrie qui a déjà produit une réflexion dense et abondante, mais qui est resté à la marge, incapable de produire les effets de ses constats. De l&rsquo;extérieur, le technocritique est demeuré le technophobe. Pour Diana Filippova, malgré ses efforts, si la technocritique n&rsquo;a pas produit d&rsquo;effets, c&rsquo;est peut-être parce que, malgré la justesse de ses constats, elle peine à saisir l&rsquo;intrication technique qui est la nôtre. Pour elle, le choix même du terme technopouvoir &#8211; plutôt que technoscience &#8211; souligne combien, avec le numérique, la technique a définitivement pris le pas sur la science. Les technologies sont devenues des objets de pouvoir, c&rsquo;est-à-dire <em>« un répertoire d&rsquo;actions, de stratégies, de tactiques qui se fondent sur les techniques et leur organisation afin de nourrir ceux qui exercent le pouvoir, souhaitent le conserver ou entreprennent de la conquérir »</em>. Le technopouvoir est un enchevêtrement de logiques techniques transformées en modalités de pouvoir. La puissance de la techno, n&rsquo;est plus tant le bras armé du capitalisme, que le moyen, le milieu de sa propre réalisation, comme si la technologie avait assujetti à sa propre efficacité tant le politique que le pouvoir économique. Le numérique, l&rsquo;architecture technique de la technologie, est devenu l&rsquo;arme ultime : l&rsquo;enjeu de son propre accomplissement. À l&rsquo;heure du changement permanent, <em>« la politique est dès lors réduite à l&rsquo;organisation des conditions et de la gestion de ce changement »</em>, c&rsquo;est-à-dire à l&rsquo;organisation des conditions du marché par la techno, au détriment de la politique elle-même. <em>« La politique n&rsquo;est plus le royaume des fins, mais celui des moyens destinés à atteindre des buts qui s&rsquo;imposent à lui de l&rsquo;extérieur »</em>. Le politique est rétrogradée au rang de technique que seule la technique peut activer ! La Chine comme les États-Unis, Facebook comme Google, disposent du même arsenal technique. Les technologies de pouvoir sont également autoritaires, quels que soient les pays ou les entreprises qui les proposent, et reposent tous sur le contrôle qu&rsquo;elles induisent et l&rsquo;efficacité qu&rsquo;elles produisent. La technique nous est pourtant présentée comme neutre, dépolitisée, comme si elle n&rsquo;offrait <em>« aucune alternative »</em> à son propre accomplissement, comme si elle était <em>« le produit de forces naturelles sur lesquelles nous n&rsquo;aurions pas prises »</em> &#8211; et effectivement, nous n&rsquo;en avons pas beaucoup, tant son imbrication, son intrication semble totale. Il semble n&rsquo;y avoir plus aucune alternative à la totalisation technique : pas même un espace pour débattre de ses fins. La critique technologique est désarmée, tant elle est confrontée à une totalisation toxique. <em>« La complexité. L&rsquo;invisibilité. L&rsquo;enfouissement des causes et des effets dans la coque opaque d&rsquo;un système-objet dont on nous dit qu&rsquo;il s&rsquo;utilise et s&rsquo;observe plutôt qu&rsquo;il ne s&rsquo;explique et se comprend. Un système total, interdépendant, dont aucune partie ne peut-être remise en cause sans ébranler le tout »</em>. La technologie a caché ses effets dans ses tréfonds : l&rsquo;extractivisme et le désastre écologique qu&rsquo;elle induit sont enfouis sous la douce et rassurante lumière des écrans, l&rsquo;injustice sociale sous la réactivité immédiate, l&rsquo;exploitation et l&rsquo;aliénation sous la commodité… <em>« Notre société qui valorise l&rsquo;appât du gain et la réussite individuelle se retrouve autant dans les voitures que dans les plateformes numériques dont elles sont le produit. »</em> Le numérique semble l&rsquo;accomplissement parfait de l&rsquo;efficacité de la technique pour elle-même, même si l&rsquo;on peut s&rsquo;interroger sur les valeurs que porte cette efficacité, cette optimisation permanente d&rsquo;elle-même. </p>
<p>Le technopouvoir s&rsquo;impose par des techniques, des « micropolitiques » (qui agissent sur les corps comme sur les idées, les comportements, les conduites individuels et collectifs), qui sont autant de moyens de dépolitisation <em>« en vue de l&rsquo;accomplissement le plus efficace possible de fins éminemment politiques »</em> : le design, le nudge, la manipulation douce, le storytelling… sont les modalités pour produire en profondeur le <em>« système technicien »</em>, c&rsquo;est-à-dire sa complexité pour elle-même, sa <em>« boîte noire »</em>. Nous sommes face à une complexité qui n&rsquo;est plus compréhensible, que nous ne sommes capables seulement d&rsquo;observer, d&rsquo;orienter, de <em>« gouverner »</em>, c&rsquo;est-à-dire d&rsquo;en gérer les externalités et le fonctionnement. Seul compte le résultat : cette efficacité pour elle-même ! La complexité est la structure de la technique qui permet de l&rsquo;imposer à tous, en enfouissant les causes et les finalités, et en imposant à fois l&rsquo;impossibilité à la comprendre comme l&rsquo;impossibilité à la contester. Le chiffre et la mesure deviennent le but de l&rsquo;action. La gouvernance ne repose plus sur la subordination des individus, mais sur leur programmation pour mieux les mouler dans et au système. Le technopouvoir s&rsquo;impose par l&rsquo;obéissance. L&rsquo;idéologie n&rsquo;est pas terminée, elle s&rsquo;est fragmentée et individualisée, elle s&rsquo;est enfoncée dans les profondeurs des choix techniques&#8230;</p>
<p>Le livre de Diana Filippova est un livre désabusé sur la puissance de la technologie. Le Technopouvoir en s&rsquo;infiltrant dans toutes les modalités de gouvernement sous forme de microdécisions est en train de réussir la dépolitisation du monde au profit de la seule perspective d&rsquo;un progrès technique sans fin ni but, autre que lui-même, sans espace d&rsquo;autonomie individuelle ou collective. <em>« L&rsquo;automatisation n&rsquo;est plus un choix, mais un impératif qui découle du double impératif technologique et néolibéral qui le sous-tend »</em>. Nous n&rsquo;avons plus que de la liberté une apparence, cernés par <em>« une architecture conçue pour orienter rigoureusement les choix »</em>, coincés dans une architecture où le coût marginal d&rsquo;exercice du pouvoir est nul&#8230; <em>« Notre répertoire d&rsquo;action est structuré dans un ensemble fini, prévisible et compatible avec les objectifs poursuivis par le logiciel, le site internet, la plateforme, le service »</em>. La loi contre la haine en ligne délègue la justice aux plateformes. La dématérialisation des services publics s&rsquo;annonce totale et s&rsquo;impose sous le seul vocable de l&rsquo;austérité et de l&rsquo;efficience (<em>« Mais quel objectif de pouvoir l&rsquo;austérité sert-elle ? »</em>). La symbolique politique semble neutre et consensuelle alors qu&rsquo;elle vise à substituer notre milieu par un autre, à dissoudre notre monde commun dans une idéologie masquée sous sa bienveillante neutralité technique. <em>« La modernisation de l&rsquo;État n&rsquo;est ainsi que l&rsquo;autre nom, prétendument neutre, de son désengagement et du démantèlement progressif de ses fonctions. Les mots issus du champ lexical de la technique &#8211; automatiser, numériser, rationaliser &#8211; recouvrent d&rsquo;un vernis de neutralité et de nécessité des choix politiques très définis »</em>. Une idéologie déterminée qui se masque sous la technicisation de nos milieux de vie… qui introduit de la techno pour réduire tout ce qui semble encore inefficace, toute friction, toute conflictualité. </p>
<p>Le problème, c&rsquo;est que nous sommes non seulement dépolitisés et dépossédés, mais également dépourvus de moyens de résistance. Nous voilà sans échappatoires, acculés par la technologie, pris dans ses rets. Aucun cadre ne peut aujourd&rsquo;hui refuser de se soumettre à ce qui est devenu son principal outil de travail comme de contrôle, le smartphone. Nous sommes pris au piège. Notre douce technophilie nous a lentement assujettie en nous confinant dans un malaise croissant… d&rsquo;un espace qui ne nous offre plus aucune liberté. </p>
<p>Pire, assène Diana Filippova : <em>« le numérique est manifestement devenu un obstacle pour l&rsquo;émergence, le déploiement et le succès »</em> de tout mouvement contestataire. Le panoptique s&rsquo;est refermé sur nous-mêmes ! <em>« Les technologies de l&rsquo;information n&rsquo;ont pas seulement échoué à tenir les promesses de démocratisation et de décentralisation dont elles ont toujours été investies. Elles en sont arrivées, de façon presque diabolique, à représenter l&rsquo;une des plus graves menaces contre nos démocraties »</em>. </p>
<p>Alors que faire ? Comment sortir de la <em>« cage d&rsquo;acier »</em> ? Comment entrer en dissidence ? Comment ramener la critique technique sur le terrain social ? Comment concentrer, faire converger, les technocritiques ? Comment repolitiser ce qui ne cesse d&rsquo;être dépolitisé ?</p>
<p>Démanteler les Gafa, comme on l&rsquo;entend si souvent, ne mettra pas fin au système global de surveillance dont ils participent prévient Filippova ! Nous sommes confrontés à un système de plus en plus enchevêtré. <em>« Toute tentative pour contester ce système se heurte presque systématiquement à une aporie »</em> ! Même la réappropriation des capacités techniques ne semble pas une solution : <em>« Il ne suffit pas de redistribuer la propriété d&rsquo;une plateforme à ses contributeurs, proclamer un nouvel internet coopératif ou encore mettre les travailleurs aux manettes d&rsquo;une usine pour faire soudain advenir une société écologique, égalitaire et démocratique. »</em> <em>« Aucune démocratie, aucune société collective, aucun système économique viable ne peut naître du capitalisme de surveillance »</em>, parce que son moteur est le même que le capitalisme : la marchandisation de tout ! La critique et la dissidence sont les seules armes qui nous restent. Des armes sans grands effets ni puissance. Et ce alors que toute résistance est de plus en plus intime et individuelle, puisque ces outils sont programmés pour nous individualiser. Face à des stratégies aussi multiples, polyphoniques, la résistance ne suffit pas, surtout quand elle demeure massivement individuelle. Elle est désarmée. Elle ne sait pas où agir, surtout face à une complexité qui nous dérobe le sens du monde. <em>« L&rsquo;efficacité des stratégies du technopouvoir tient au découplage entre les intentions de celui qui parle et le langage qu&rsquo;il mobilise. Promettre la sociabilité universelle tout en faisant son commerce illégal de l&rsquo;intimité des gens. Louer la démocratie numérique en vendant les données et les services à des mouvements politiques fascisants. Se déclarer favorable à l&rsquo;émancipation technologique en concevant des interfaces addictives qui absorbent chaque parcelle inoccupée de notre attention »</em>. Nous sommes comme saisis dans une schizophrénie de machines et de langages qui les structurent qui disent le contraire de ce qu&rsquo;ils font.</p>
<p>Les rares espaces d&rsquo;action sont peut-être encore là où la cage d&rsquo;acier ne fonctionne pas aussi bien que le technopouvoir le dit ou le rêve…  </p>
<p>Diana Filippova rapproche la critique du néolibéralisme et de la technique pour nous rappeler que l&rsquo;autoritarisme de la technologie n&rsquo;est pas un accident, mais bien une fonctionnalité. L&rsquo;intrication de la technologie, de l&rsquo;économie et du pouvoir s&rsquo;est profondément sédimentée dans le numérique. Elle nous dépossède de nos qualités propres pour n&rsquo;être plus qu&rsquo;un produit de données, que cet <em>« homme sans qualités »</em> dont les valeurs ont été remplacées par des hastags et des chiffres, réduit à sa propre programmation. </p>
<p>Reste qu&rsquo;il manque peut-être à ce livre profondément désenchanté, des issues, des prises… Il me semble par exemple, que la faiblesse de ce technopouvoir, de cette intrication, de ce libéralisme autoritaire, c&rsquo;est qu&rsquo;il ne fonctionne pas aussi bien qu&rsquo;il le rêve. Que l&rsquo;efficacité idéalisée de la machine est un horizon, une perfection inatteignable. Le transfert du pouvoir politique (le logement, l&rsquo;éducation, l&#8217;emploi, la protection sociale…) aux entreprises technologiques révèle chaque jour ses limites. La manipulation de nos choix, de nos opinions, de nos actes… la fabrication du consentement bogue. La surveillance constante ne produit jamais l&rsquo;idéal qu&rsquo;elle promet, à savoir la disparition totale du risque, la sécurité parfaite (au contraire). Tout comme l&rsquo;attention absolue qu&rsquo;elle mobilise ne produit absolument aucun enchantement. Comme si cette efficacité pour elle-même menait à sa propre dissolution. Comme le dit <a href="http://www.edwardtenner.com/">Edward Tenner</a> dans son livre, <em>Le paradoxe de l&rsquo;efficacité</em> (Vintage Books, 2018, non traduit) : une explosion d&rsquo;efficacité rend le monde bien moins efficace. Il va nous falloir accepter qu&rsquo;il ne puisse se réduire à son objectivité totale. La quête de l&rsquo;efficacité absolue nous conduit à une contradiction irréductible : celle de sa propre inefficacité. Le technopouvoir fabrique le vide sur lequel il repose, à savoir une efficacité pour elle-même, sans valeur ni sens, <a href="http://www.internetactu.net/2018/06/01/videosurveillance-ou-avons-nous-failli/">à l&rsquo;image de la surveillance totale</a> qui, à mesure qu&rsquo;elle progresse, ne produit aucun résultat réel et détruit la confiance et la liberté.  </p>
<p>À lire Diana Filippova la question qui reste en suspend semble plutôt de savoir de combien de temps encore disposons-nous… avant l&rsquo;avènement de la phase terminale du néolibéralisme, ce technologisme autoritaire <a href="http://www.groupejeanpierrevernant.info/#Falscisme">que d&rsquo;autres appellent déjà falscisme</a>. </p>
<p>Hubert Guillaud</p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2019/12/12/technopouvoir-comment-le-numerique-est-devenu-lenjeu-de-son-propre-accomplissement/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
									<post-id xmlns="com-wordpress:feed-additions:1">2807</post-id>	</item>
		<item>
		<title>Expliquer les boites noires : les enjeux de l’explication des décisions automatisées</title>
		<link>https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/</link>
				<pubDate>Thu, 28 Nov 2019 09:49:23 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[algorithme]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2796</guid>
				<description><![CDATA[Etymologiquement, expliquer, c’est déployer, déplier, c’est-à-dire soulever les ambiguïtés qui se cachent dans l’ombre des plis. C&#8217;est donc également « ouvrir » (avec tout le sens que « l&#8217;ouverture » &#8211; open &#8211; a acquis dans le monde numérique), défaire, dépaqueter, c&#8217;est-à-dire non seulement enlever les paquets, dérouler les difficultés, mais aussi montrer les noeuds qu&#8217;ils forment et comprendre &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Expliquer les boites noires : les enjeux de l’explication des décisions automatisées&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=Expliquer+les+boites+noires+%3A+les+enjeux+de+l%E2%80%99explication+des+d%C3%A9cisions+automatis%C3%A9es%20-%20https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/&amp;media=&amp;description=Etymologiquement%2C+expliquer%2C+c%E2%80%99est+d%C3%A9ployer%2C+d%C3%A9plier%2C+c%E2%80%99est-%C3%A0-dire+soulever+les+ambigu%C3%AFt%C3%A9s" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Expliquer les boites noires : les enjeux de l’explication des décisions automatisées&amp;body=Etymologiquement, expliquer, c’est déployer, déplier, c’est-à-dire soulever les ambiguïtés%20-%20https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2796" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/&amp;title=Expliquer+les+boites+noires+%3A+les+enjeux+de+l%E2%80%99explication+des+d%C3%A9cisions+automatis%C3%A9es" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/&amp;title=Expliquer+les+boites+noires+%3A+les+enjeux+de+l%E2%80%99explication+des+d%C3%A9cisions+automatis%C3%A9es" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p><em>Etymologiquement, expliquer, c’est déployer, déplier, c’est-à-dire soulever les ambiguïtés qui se cachent dans l’ombre des plis. C&rsquo;est donc également « ouvrir » (avec tout le sens que « l&rsquo;ouverture » &#8211; <em>open</em> &#8211; a acquis dans le monde numérique), défaire, dépaqueter, c&rsquo;est-à-dire non seulement enlever les paquets, dérouler les difficultés, mais aussi montrer les noeuds qu&rsquo;ils forment et comprendre pourquoi ils se forment. Expliquer, c’est clarifier. Mais clarifier comment ? Pour qui ? Que faut-il expliquer (et donc que faut-il ou que laisse-t-on dans l’ombre des plis ?) ? A qui ? Dans quel but ? Quels types d’explications doivent être disponibles ? Quand et où doivent-elles être disponibles ?… Voici quelques-unes des questions qui se posent quand on s&rsquo;attaque à la question de l&rsquo;explicabilité des systèmes techniques, notamment des processus algorithmiques et d&rsquo;intelligence artificielle, mais également de nombres de technologies complexes, de « boîtes noires » auxquelles nous sommes de plus en plus confrontés. Qu&rsquo;est-ce qu&rsquo;expliquer ? Comment doit-on expliquer ce qui se dérobe à l&rsquo;explication ? Explications sur l&rsquo;explication. </em> </p>
<p>En philosophie on distingue souvent expliquer de comprendre. Dans le <em>Phédon</em> de Platon, Socrate qui dialogue avec ses amis alors qu&rsquo;il va mourir explique pourquoi il reste là à dialoguer. Il distingue alors l&rsquo;explication (qui repose sur des causes physiques, simples, causales de son comportement) de la compréhension (qui nécessite d&rsquo;entendre les raisons et les valeurs de ses actes). Mais l&rsquo;une et l&rsquo;autre ont parties liées. Car expliquer, c&rsquo;est également amener à comprendre. En ce sens, l&rsquo;un et l&rsquo;autre sont également un moyen d’action qui peut amener à générer de l’adhésion, ou au contraire, du rejet ou de la contestation. Expliquer, tout comme comprendre, c’est donc également actionner, c&rsquo;est-à-dire rendre l&rsquo;action et la transformation possible. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/11/56e5d884-explainingexplanation-1.jpg"><img src="https://asset.lemde.fr/prd-blogs/2019/11/56e5d884-explainingexplanation-1.jpg" alt="Couverture du livre de David Hillel Ruben, Explaining Explanation" title="Couverture du livre de David Hillel Ruben, Explaining Explanation" width="259" height="400" class="alignright size-full wp-image-2797" /></a>Le philosophe <a href="https://en.wikipedia.org/wiki/David-Hillel_Ruben">David-Hillel Ruben</a> qui a consacré dans les années 90 <a href="https://philarchive.org/archive/RUBEE-3">un livre (.pdf)</a> à l&rsquo;explication de l&rsquo;explication conclut son ouvrage en soulignant que l&rsquo;explication est <em>« ce qui relie les relations déterminantes »</em>, c&rsquo;est-à-dire qu&rsquo;elle consiste à montrer ce qui est responsable de ces relations et ce qui les fait, les fabrique, telles qu&rsquo;elles sont. </p>
<h2>Expliquer pour faire société</h2>
<p>La question de l’explicabilité des systèmes techniques et notamment des décisions automatisées est un enjeu éthique fort de l’automatisation de nos sociétés, soulignent le philosophe et éthicien italien <a href="http://www.philosophyofinformation.net/">Luciano Floridi</a> (<a href="https://twitter.com/Floridi">@floridi</a>) et le chercheur Josh Cowls (<a href="https://twitter.com/joshcowls">@joshcowls</a>) dans <a href="https://hdsr.mitpress.mit.edu/pub/l0jsh9d1/">un passionnant article de recherche</a> sur les principes éthiques de l&rsquo;IA. Pour les deux chercheurs, la question de l&rsquo;explicabilité, comprise à la fois comme l&rsquo;intelligibilité (c&rsquo;est-à-dire la réponse à la question « comment ça marche ? ») et l&rsquo;éthique de responsabilité (c&rsquo;est-à-dire la réponse à la question « qui est responsable de la façon dont ça marche ? ») est la modalité qui permet l&rsquo;application d&rsquo;une IA éthique et juste. Nombre d&rsquo;articles de recherche insistent sur la nécessité de rendre les systèmes explicables, c&rsquo;est-à-dire de comprendre les processus décisionnels de l&rsquo;IA pour que les utilisateurs comme la société puissent lui demander des comptes. Ce principe d&rsquo;explicabilité s&rsquo;exprime souvent sous différents termes allant de la « transparence » à la « responsabilité », en passant par « l&rsquo;ouverture », « l&rsquo;intelligibilité » ou « l&rsquo;interprétabilité ». </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/11/f8d90a18-a-unified-framework-of-five-principles-for-ai-in-society-·-harvard-data-science-review.png"><img src="https://asset.lemde.fr/prd-blogs/2019/11/f8d90a18-a-unified-framework-of-five-principles-for-ai-in-society-·-harvard-data-science-review.png" alt="Les 5 principes éthiques de l'IA" title="Les 5 principes éthiques de l'IA" width="540" class="aligncenter size-full wp-image-2798" /></a><br />
<em>Image : Contrairement à la plupart des principes éthiques nés avec la bioéthique (comme l&rsquo;autonomie ou la justice, le fait d&rsquo;apporter un bénéfice à la société ou de ne pas faire le mal&#8230;) l&rsquo;explicabilité est un principe d&rsquo;éthique qui s&rsquo;est développé avec le développement de l&rsquo;IA.</em></p>
<p><strong>L&rsquo;explication : un enjeu technique ?</strong><br />
La question de l&rsquo;explicabilité est donc d’abord un enjeu technique, un champ de recherche en soi (on parle d&rsquo;ailleurs de <em>XAI</em>, pour <em>Explanable artificial Intelligence</em>), d’autant plus important que la performance des techniques d’IA est inversement proportionnelle à leur explicabilité (voir <a href="http://www.internetactu.net/a-lire-ailleurs/lintelligence-artificielle-va-t-elle-rester-impenetrable/">« L&rsquo;intelligence artificielle va-t-elle rester impénétrable ? »</a> et <a href="http://www.internetactu.net/2016/10/18/intelligence-artificielle-comment-sortir-de-lopacite/">« Intelligence artificielle : comment sortir de l&rsquo;opacité ? »</a>). L’apprentissage automatique profond par exemple est l’une des techniques dont les modalités de calculs et les résultats restent les plus obscurs, même à leurs programmeurs. Ce n’est pas pour rien que l’on parle de « boîtes noires » quand on évoque les systèmes de traitement automatisés (<em>cf.</em> <a href="http://www.internetactu.net/2016/06/29/il-est-plus-que-temps-que-le-big-data-evalue-ses-impacts/">« Il est plus que temps que le Big data évalue ses impacts »</a>). L’explicabilité est donc souvent un compromis entre performance et explication. Ce n’est pas le plus simple de ses paradoxes. L’amélioration technique de l’explicabilité des systèmes, notamment en IA, est donc un champ de recherche en soi, qui vise à ce que les systèmes expliquent ce qu&rsquo;ils font comme leurs résultats, les critères de leurs succès comme de leurs échecs. C’est un champ de recherche qui pour l&rsquo;instant n&rsquo;a pas proposé de fortes percées techniques, mais qui renouvelle et approfondit l&rsquo;épistémologie de l&rsquo;explication. </p>
<p>D&rsquo;ailleurs, il se pourrait que ce champ de recherche ne représente qu&rsquo;un vain espoir, avancent les spécialistes <a href="https://erwanlemerrer.github.io/">Erwan Le Merrer</a> et <a href="http://homepages.laas.fr/gtredan/">Gilles Trédan</a> dans <a href="https://arxiv.org/pdf/1910.01432v1.pdf">un récent article (.pdf)</a>. Pour eux, la quête d&rsquo;une intelligence artificielle explicable est inatteignable. En fait, <a href="https://algorithmwatch.org/en/story/explainable-ai-doesnt-work-for-online-services-now-theres-proof/">expliquent-ils sur AlgorithmWatch</a>, un système peut très bien donner une fausse explication, comme le videur d&rsquo;une boîte de nuit peut affirmer qu&rsquo;il ne vous laisse pas entrer parce que vous n&rsquo;avez pas la bonne cravate ! Un peu comme dans la vie réelle, la véritable raison peut toujours être couverte d&rsquo;une autre explication. Pour AlgorithmWatch, ce constat plaide pour le développement d&rsquo;autorités de contrôle et d&rsquo;enquêtes indépendantes. Comme aujourd&rsquo;hui les associations peuvent procéder à du « testing » pour évaluer les cas de discrimination à l&rsquo;entrée des boîtes de nuit, nous avons besoin de pouvoir continuer à réaliser ces tests par delà les explications qui sont fournies par ceux qui déploient les systèmes. Reste que cela nécessite bien sûr des accès les plus ouverts possible au fonctionnement même de ces systèmes, ce qui est bien loin d&rsquo;être le cas. Bien loin d&rsquo;être seulement un enjeu technique, l&rsquo;explicabilité se révèle d&rsquo;abord et avant tout un enjeu de société. <a href="http://www.internetactu.net/2019/09/30/kate-crawford-lia-est-une-nouvelle-ingenierie-du-pouvoir/">Kate Crawford ne disait pas autre chose</a> quand elle soulignait l&rsquo;importance de la recherche, de la presse et des associations citoyennes pour débusquer les biais des systèmes.  </p>
<p><strong>L&rsquo;explication est interdépendante et à multiple niveau</strong><br />
Comme nous le notons depuis le début de cet article, l&rsquo;explicabilité est foncièrement polysémique. Dans le cadre des réflexions réalisées par <a href="http://fing.org/?NosSystemes">le groupe de travail Nos Systèmes</a>, nous nous sommes rendu compte que l&rsquo;explicabilité recouvre une large gamme d&rsquo;explications, allant d&rsquo;explications « procédurales » (comment faire, concrètement ? Quelles formalités accomplir ? Quelle succession d&rsquo;opération exécuter ?&#8230;) à la compréhension des critères (quels sont les éléments pris en compte et quels sont leurs « poids » relatifs les uns par rapport aux autres ?) en passant par la clarification des enjeux et motivations (pourquoi ce système ? Que fait-il… ? Et donc que ne fait-il pas ?&#8230;). </p>
<p>Outre la gamme d&rsquo;explications à délivrer, un autre problème concerne les explications elles-mêmes : comment les délivrer ? Une question qui pose à la fois celle de savoir jusqu&rsquo;où les explications doivent aller (et donc, lesquelles sont passées sous silence) et celle de leur interfaçage avec les systèmes techniques (où et quand doivent-elles être disponibles ?). </p>
<p>En fait, bon nombre de ces notions sont interreliées et interdépendantes. Le niveau d&rsquo;automatisation du calcul (c&rsquo;est-à-dire, le fait qu&rsquo;il prenne des décisions sans interférence humaine) est lié à son explicabilité et son auditabilité (le fait qu&rsquo;il soit vérifiable, examinable par des tiers). De même le niveau de médiation ou de dialogue influe sur l&rsquo;explicabilité d&rsquo;un système : le fait que le traitement propose des modalités de contact ou pas pour demander des explications, le fait qu&rsquo;il propose (ou pas) une variété de supports d&rsquo;explications (des FAQ aux vidéos, des schémas aux visualisations, des infographies aux tutoriels en passant par les simulateurs ou par des explications textuelles permettant plusieurs niveaux de compréhension&#8230;) ou des réponses personnalisées (avec des garanties sur les délais de réponses voire des modalités offrant des contreparties et des possibilités de recours à l&rsquo;encontre d&rsquo;une décision)&#8230; sont autant d&rsquo;éléments qui influent sur l&rsquo;explicabilité. </p>
<p>On constate au final que plusieurs niveaux d&rsquo;explications sont possibles&#8230; Pour faire simple, les explications peuvent être : </p>
<ul>
<li>nulles voire faibles : les explications délivrées sont génériques, procédurales, peu informatives, incomplètes, voire déloyales.</li>
<li>moyennes : les explications peuvent utiliser des formes multiples (textes, bases de connaissance, vidéos, infographies…) mais demeurent générales avec un degré de profondeur, de complétude, de fiabilité ou de précision faible.</li>
<li>fortes voire exemplaires : les explications sont personnalisées, voire interactives, précisent les critères, les intentions, les modalités, documentent les résultats avec un degré de précision, de loyauté et de clarté élevé et permettent aux utilisateurs de contester voire leurs offrent des garanties et des modalités de recours en cas d&rsquo;explication fausse ou insuffisante.</li>
</ul>
<p><strong>L&rsquo;explication, une obligation légale et morale</strong><br />
Expliquer &#8211; c&rsquo;est-à-dire motiver les décisions &#8211; est essentiel. <a href="http://www.internetactu.net/2018/12/05/vers-des-algorithmes-exemplaires/">Comme le rappelait très justement Simon Chignard</a> (<a href="https://twitter.com/schignard">@schignard</a>), conseiller stratégie à <a href="https://www.etalab.gouv.fr/">Etalab</a> : l&rsquo;explicabilité est aussi et avant tout une obligation légale. Apporter une explication raisonnable, même imparfaite, est nécessaire pour établir une relation de confiance entre le calcul et les calculés, <a href="http://www.internetactu.net/2017/04/04/les-algorithmes-sont-ils-une-nouvelle-forme-de-bureaucratie/">entre un système et ses administrés</a>. Le RGPD a d&rsquo;ailleurs introduit un droit à d&rsquo;explication des décisions automatisées. Reste que ces explications doivent être également adaptées au public et justes. Or, le risque bien souvent est de fournir des explications inadaptées aux publics auxquels elles s&rsquo;adressent, partielles voire partiales, incomplètes ou trop simplistes, ou pire, fausses et mensongères, comme lors d&rsquo;un refus de crédit qui peut vous donner une raison de refus, alors que la raison principale est tout autre (le fait que vous viviez seul par exemple, que vous soyez une femme ou une personne de couleur… <a href="https://www.usine-digitale.fr/article/l-algorithme-derriere-l-apple-card-serait-sexiste.N902509">à l&rsquo;image des très récents soupçons à l&rsquo;égard de la carte de crédit d&rsquo;Apple</a>). Un enjeu qui pose une question de fond sur la loyauté des explications elles-mêmes et donc leur contrôle. En ce sens, l&rsquo;explicabilité est donc à la fois une obligation légale &#8211; car le résultat et la modalité d’un calcul doivent pouvoir être rendus au calculé &#8211; ce qui suppose des modalités de contrôle. Et une obligation morale : car un système qui délivre un résultat à quelqu’un doit pouvoir le justifier, précisément, fidèlement et factuellement. </p>
<p>L&rsquo;explicabilité n&rsquo;est donc pas négociable. Ce qui n&rsquo;est pas explicable ne peut entrer en discussion avec la société. <em>« L&rsquo;absence d&rsquo;interprétabilité n&rsquo;est pas une option »</em>, <a href="http://internetactu.blog.lemonde.fr/2016/10/30/lintelligence-artificielle-va-t-elle-rester-impenetrable/">disions-nous</a>. <a href="http://www.internetactu.net/2016/03/16/algorithmes-et-responsabilites/">La philosophe Antoinette Rouvroy</a> nous rappelait qu&rsquo;il n&rsquo;y a pas de société sans motivation des décisions, que les finalités d&rsquo;un traitement doivent nous être transparentes. Que les motivations d&rsquo;une décision doivent être communiquées et communicables sous une forme intelligible. Pourtant, trop souvent encore, l&rsquo;explication résiste, notamment parce que les ingénieurs soulignent que fournir des explications fait peser un risque sur la qualité ou la robustesse d&rsquo;un système. Pour beaucoup de responsables des traitements, les expliquer ou les ouvrir fait peser un risque de subversion, de détournement, comme si la transparence de l&rsquo;explication faisait peser un risque sur la qualité du traitement lui-même. Chez les <em>data scientists</em> qui conçoivent les algorithmes et les systèmes automatisés, il y a partout une réticence à l&rsquo;explication par peur d&rsquo;un « effet rebond » à l&rsquo;image du <a href="https://fr.wikipedia.org/wiki/Bombardement_Google">Google Bombing</a> qui a longtemps permis aux internautes de se jouer des résultats de Google en y introduisant des formes de détournement. Or, l&rsquo;opacité des calculs permet surtout de masquer leurs lacunes, leurs faiblesses, leurs failles, c&rsquo;est-à-dire leurs défauts, les injustices, les biais et les inégalités que les chiffres recouvrent, <a href="http://www.internetactu.net/2014/11/18/ouvrir-les-modeles-pas-seulement-les-donnees/">expliquait brillamment la mathématicienne Cathy O&rsquo;Neil</a>. Idéalement, un calcul qui mesure parfaitement ce qu&rsquo;il prétend ne devrait pouvoir être subverti par sa propre transparence. <a href="http://www.internetactu.net/a-lire-ailleurs/reguler-les-systemes-de-decisions-automatises-en-fonction-de-leur-facteur-de-risque/">Comme le pointait très récemment la commission éthique des données du gouvernement allemand</a>, plus un système a un impact social, c&rsquo;est-à-dire un impact sur la vie et l&rsquo;existence d&rsquo;individus, plus ceux-ci doivent être contraints à la transparence et contrôlés afin qu&rsquo;ils mesurent bel et bien ce qu&rsquo;ils annoncent mesurer. </p>
<h2>Où sont les explications ? Vers une échelle des niveaux d&rsquo;explications ?</h2>
<p><a href="http://fing.org/?Nos-Systemes-les-pistes-d">L’explication est le parent pauvre des systèmes techniques</a>. Bien souvent, les explications sont tout simplement absentes, comme si elles n&rsquo;étaient pas nécessaires au fonctionnement des systèmes. Dans le monde de l&rsquo;innovation, on nous propose souvent une solution avant même de nous expliquer comment elle fonctionne. L&rsquo;explication vient parfois plus tard. Et nombre de systèmes fonctionnent sans fournir beaucoup d&rsquo;explications sur ce qu&rsquo;ils font, comment ils le font, dans quel but et sans proposer de garanties ne serait-ce que sur la fiabilité de leurs explications donc… </p>
<p><strong>Le refus d&rsquo;explication</strong><br />
Outre leur absence, bien souvent, les explications nous sont refusées. C&rsquo;est le cas par exemple des « recettes » utilisées par les commissions d&rsquo;examen des voeux de chaque filière pour trier les candidatures sur Parcoursup. Sous prétexte de protéger les délibérations pédagogiques des jurys d&rsquo;admission, <a href="https://www.numerama.com/politique/526261-parcoursup-les-universites-ne-sont-pas-obligees-de-divulguer-leurs-algorithmes-de-selection-des-eleves.html">les algorithmes locaux permettant aux filières de trier les milliers de candidatures qu&rsquo;elles reçoivent ont été exclus de la règle de communication au public</a> (au prétexte que la loi n&rsquo;oblige les universités à n&rsquo;informer que les candidats qui en font la demande). Or, nombre de filières (on estime que c&rsquo;était le cas de 25% d&rsquo;entre elles en 2019) ont mis en place des outils de classement des candidats <a href="http://blog.educpros.fr/julien-gossa/2018/03/29/parcoursup-et-lycee-dorigine-une-difficulte-technique-de-moins-pour-une-difficulte-philosophique-de-plus/">à l&rsquo;image des feuilles Excel que montrait Julien Gossa en 2018</a>, permettant par exemple de trier les élèves selon leur lycée de provenance (<a href="http://blog.educpros.fr/julien-gossa/2018/03/07/parcoursup-quelle-place-pour-le-lycee-dorigine-dans-le-tri-des-dossiers/">une pratique discrète qui entérine la sélection sociale</a>). <a href="http://blog.educpros.fr/julien-gossa/2018/02/02/parcoursup-petit-manuel-de-tri-des-candidatures-a-lusage-des-enseignants-du-superieur/">Ce dernier pointait d&rsquo;ailleurs très bien combien l&rsquo;évaluation des candidats était compliquée, pour ne pas dire impossible</a>. Il n&#8217;empêche que mieux saisir les attendus des filières, leurs critères de classements et de tris, demeure un moyen de comprendre les motivations des sélections… mais dans parcoursup, cette compréhension qui est refusée au candidat est bien souvent démultipliée par le fait que chaque filière va utiliser une méthode qui lui est propre, comme autant de recettes auxquelles il est difficile de se conformer. </p>
<p>Ce n&rsquo;est bien sûr pas le seul endroit où les explications nous sont refusées. Nombres de demandes que nous pouvons accomplir auprès de systèmes qui s&rsquo;appuient sur des traitements et calculs prennent en compte des critères qui ne sont pas tous explicites. Les demandes d&rsquo;affectation pour un poste, les demandes de crédits ou les systèmes de tris automatisés de candidatures à des emplois font parti des systèmes automatisés qui délivrent peu ou pas d&rsquo;information sur leurs modalités, sur les critères utilisés ou d&rsquo;explications sur leurs décisions. Nous sommes là confronté à un déni d&rsquo;information et un déni démocratique qu&rsquo;il est nécessaire d&rsquo;armer, en obligeant à la démultiplication des explications des procédures de calcul.   </p>
<p><strong>Le code et la transparence : l&rsquo;explication technique</strong><br />
Au mieux, pour les plus ouverts des systèmes de traitement, on trouve une explication technique : le code, voire la formule du calcul est directement accessible. Parfois elles sont accompagnées d&rsquo;indications sur les données utilisées et leur pondération dans le calcul&#8230; C’est là une explication technique pour technicien. Elle est souvent précieuse, primordiale, mais ne parle qu’aux techniciens, pas à la société à laquelle des explications sont dues. Elle nécessite d&rsquo;être décodée, dépliée, interprétée, argumentée… Mais, depuis le code, des tiers (associations, citoyens, médias…) peuvent s&rsquo;en emparer pour interroger la construction qui a eu lieu. C&rsquo;est le cas notamment de nombre de projets publics qui publient leur code source en accès libre (sur Github) comme <a href="https://leximpact.beta.gouv.fr/">LexImpact</a>, un outil qui permet d&rsquo;estimer l&rsquo;impact de réformes législatives sur des foyers fiscaux types. Ou encore <a href="https://labonneboite.pole-emploi.fr/">La Bonne Boîte</a>, un outil qui indique les entreprises qui embauchent pour permettre aux demandeurs d&#8217;emploi de mieux cibler leurs candidatures spontanées. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/11/61af2b69-beta.gouv_.fr-·-github.png"><img src="https://asset.lemde.fr/prd-blogs/2019/11/61af2b69-beta.gouv_.fr-·-github.png" alt="Le répertoire GitHub des startups et projets d'Etat" title="Le répertoire GitHub des startups et projets d'Etat" width="540" class="aligncenter size-full wp-image-2799" /></a><br />
<em>Image : <a href="https://github.com/betagouv">Le répertoire GitHub des startups et projets d&rsquo;Etat</a>.</em></p>
<p>La vraie limite de cette explicabilité technique est qu&rsquo;elle ne s&rsquo;impose qu&rsquo;aux projets qui ont une obligation légale de transparence, et particulièrement aux projets portés par des acteurs publics ou militants, et pas du tout à la plupart des projets privés, même si ceux-ci ont un impact fort sur la vie des gens (comme des systèmes d&rsquo;attribution de crédit, de police ou de justice, ou de sélection à l&#8217;emploi). </p>
<p><strong>La multimodalité des niveaux d&rsquo;explications</strong><br />
Nombre de systèmes font néanmoins des efforts pour expliquer ce qu’ils font. Certains livrent des explications très simples et basiques, accessibles au plus grand nombre, mais souvent lacunaires voire parcellaires (et là on peut se poser des questions sur l’intention de ces explications et surtout sur leurs limites, visant parfois à masquer ce qui n&rsquo;est pas expliqué). Beaucoup proposent des explications procédurales, c’est-à-dire qui expliquent les procédures à suivre, plus que les finalités ou les objectifs du système. Certains proposent des explications assez complètes, à l&rsquo;image <a href="https://www.agence-biomedecine.fr/IMG/pdf/guide_score_coeur_2018.pdf">du Score Coeur (.pdf)</a>, l&rsquo;algorithme d&rsquo;attribution des greffons cardiaques réalisé par l&rsquo;Agence de biomédecine ou encore <a href="https://www.impots.gouv.fr/portail/files/media/8_transverse/open_data/th/algorithme_th_v2_complet.pdf">cette notice</a> détaillant le calcul de la taxe d&rsquo;habitation sous forme d&rsquo;un mode d&#8217;emploi synthétique&#8230; Deux exemples qui soulignent combien l&rsquo;explication, quand elle se veut loyale et exhaustive, scientifique, demeure néanmoins un processus touffu, dense, compliqué et qui est donc, par nature, difficile d&rsquo;accès au plus grand nombre. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/11/0b2fc7f8-de-l-explicabilité-des-systèmes-hubertguillaud-gmail.com-gmail.png"><img src="https://asset.lemde.fr/prd-blogs/2019/11/0b2fc7f8-de-l-explicabilité-des-systèmes-hubertguillaud-gmail.com-gmail.png" alt="Comment Facebook nous explique ce qu'il nous montre" title="Comment Facebook nous explique ce qu'il nous montre" width="277" height="360" class="alignright size-full wp-image-2800" /></a>Enfin, bien plus rares sont les explications qui permettent de personnaliser les éléments du calcul qui ont été opérés, de délivrer des explications personnalisées donc. Ainsi, Facebook par exemple propose de multiples formes d&rsquo;explications et d&rsquo;aide sur son fonctionnement (<a href="https://www.facebook.com/privacy/explanation">sur l&rsquo;utilisation des données</a>, <a href="https://www.facebook.com/help/1155510281178725/?helpref=hc_fnav">sur le fonctionnement du fil d&rsquo;actualité</a> et sur <a href="https://www.facebook.com/help/520348825116417">l&rsquo;ordre des publications dans le fil d&rsquo;actualité</a> comme <a href="https://www.facebook.com/about/ads">sur les publicités</a>). Cette large gamme d&rsquo;explications plutôt claires (on y trouve à la fois des textes, des vidéos, des datavisualisations, des graphes… et même des modules interactifs comme le fait d&rsquo;expliquer par un exemple d&rsquo;un article de votre flux provenant de votre compte ce qui justifie que vous le voyez apparaître sur votre mur), est-elle pour autant accessible à tous les utilisateurs de FB ? Est-elle complète ? Est-elle loyale ? Ainsi, FB explique par exemple que l&rsquo;ordre des publications dans notre fil d&rsquo;actualité est lié à la fréquence d&rsquo;interaction, au type de publication, aux réactions qu&rsquo;ont déjà reçu ces publications et à leur caractère récent. Mais des milliers d&rsquo;autres facteurs entrent en ligne de compte explique la page. Aucun mot n&rsquo;est dit par exemple sur le fait que FB nous partage plus volontiers des contenus de nos amis qui rejoignent des thématiques qu&rsquo;il a identifiées comme importantes pour nous, alors que c&rsquo;est là un critère fort de l&rsquo;affichage. Par contre, s&rsquo;il nous propose des modalités pour réguler cet affichage, notamment en sélectionnant mieux les personnes, les pages ou les groupes que l&rsquo;on suit, mais pas les thématiques qu&rsquo;il nous attribue. Les explications sur le fonctionnement de FB sont pourtant parmi les plus riches qu&rsquo;on puisse trouver, mais on voit rapidement leurs limites. Qu&rsquo;est-ce qui nous est tue ? Qu&rsquo;est-ce que l&rsquo;effort d&rsquo;intelligibilité masque ? Pourquoi le lien entre ce qui nous est affiché et le modèle économique de Facebook n&rsquo;est-il pas plus clair ? </p>
<p><strong>Simulation et jouabilité : l&rsquo;explication actionnable</strong><br />
Les simulations et les possibilités de jouabilité sont plus rares encore, mais elles sont particulièrement stimulantes notamment parce qu&rsquo;elles offrent souvent l’avantage de permettre une compréhension plus fine et donnent à celui qui reçoit les explications des moyens pour contextualiser et adapter sa réponse aux explications. Les systèmes jouables permettent souvent de montrer un peu mieux la complexité qui opère. La jouabilité a pourtant des limites : rares sont les explications qui expliquent et motivent les choix qui ont été faits, les décisions qui ont été prises, les critères qui ont été retenus et écartés. Rares donc sont les spécifications qui proposent de rendre les choix qui ont été faits plus transparents. Peu proposent des descriptions du calcul, des données utilisées. Encore moins proposent de montrer ou d’évaluer une autre méthode de calcul qu’il aurait été possible de proposer. </p>
<p>Dans cette gamme d&rsquo;explications jouables, on trouve par exemple,  <a href="https://explorabl.es/">les explications à explorer</a> (voire notre dossier : <a href="http://www.internetactu.net/2017/11/15/vers-un-design-de-la-mediation-22-jouer-avec-les-interfaces/">Vers un design de la médiation, jouer avec les interfaces</a>). Des explications interactives permettant une compréhension active via des procédés interactifs, afin de développer <em>« une intuition sur le fonctionnement d&rsquo;un système »</em>, comme le disait leur concepteur, Victor Bret. Parmi les nombreux outils de ce type, on peut également signaler <a href="http://www.outbrainaffinityindex.com/">celui</a> réalisé par <a href="https://dataveyes.com/#!/fr">le studio Dataveyes</a> pour Outbrain, l&rsquo;agence de recommandation de contenus sponsorisés qui avait besoin d&rsquo;expliquer à ses clients comment leur algorithme allait placer leurs contenus publicitaires (voir nos explications détaillées : <a href="http://www.internetactu.net/2018/12/05/vers-des-algorithmes-exemplaires/">« Vers des algorithmes exemplaires »</a>). Récemment, <a href="https://www.technologyreview.com/s/613508/ai-fairer-than-judge-criminal-risk-assessment-algorithm/">la <em>Technology Review</em> a proposé une explication explorable</a> pour aider à comprendre les limites de Compas, le très controversé algorithme de calcul du risque de récidive utilisé par la justice américaine. Dans le cadre de son effort vers une <em>« intelligence artificielle de confiance »</em>, IBM Research a publié <a href="http://aix360.mybluemix.net/">une boîte à outils open source</a> permettant de comprendre plusieurs modèles d&rsquo;apprentissage automatique, notamment <a href="http://aix360.mybluemix.net/data">un petit outil pour comprendre les résultats de l&rsquo;évaluation Fico</a>, qui attribue un score à chaque Américain souhaitant emprunter (<a href="https://www.myfico.com/credit-education/whats-in-your-credit-score">selon divers critères</a>, notamment l&rsquo;historique de paiement et les emprunts que vous avez déjà à charge). Le petit démonstrateur montre d&rsquo;ailleurs que les explications du calcul sont différentes selon qui l&rsquo;utilise : il fournit des réponses différentes selon qu&rsquo;on est un spécialiste des données, un agent chargé de calculer le crédit ou un client. </p>
<p><strong>L&rsquo;explication forte</strong><br />
On pourrait enfin proposer un ultime niveau sur l&rsquo;échelle de l&rsquo;explication : une forme d&rsquo;explication forte, qui reprendrait toutes les qualités des précédents niveaux et y ajouterait une forme de garantie, de responsabilité à l&rsquo;égard de ceux à qui on explique. C&rsquo;est-à-dire qui garantirait un droit de réponse, de contestation, d&rsquo;amélioration…  Voire même des contreparties ou des procédures facilitant la contestation ou les compensations, en cas de défaut d&rsquo;explication. Bref, des formes de <em>« symétrie »</em> des traitements où les explications délivrées aux calculateurs seraient équivalentes aux explications livrées aux calculés, où les stratégies des calculateurs seraient transparentes aux calculés et garanties.   </p>
<p>Pour l&rsquo;instant, nous n&rsquo;avons pas trouvé d&rsquo;exemple pour illustrer cet idéal.</p>
<p><strong>Les explications pour qui ? Les explications comment ?</strong><br />
Cette échelle des niveaux d&rsquo;explication est pourtant incomplète. Il lui manque notamment deux facteurs : les publics et les interfaces. </p>
<p>La question de savoir à qui se destinent les explications est importante. Bien souvent, on ne trouve des explications que pour un seul niveau de public, alors que celui-ci est bien souvent multiple. Dans les systèmes techniques, l’explication demeure majoritairement technique : elle est avant tout destinée aux ingénieurs, aux développeurs voir aux agents qui vont être amené à interagir avec le système, qui vont devoir développer des outils qui vont s’y brancher, qui vont discuter avec. Bien souvent, elle vise à rendre les ambiguïtés interprétables plus qu’explicables, c’est-à-dire à expliciter les choix de paramètres, leur pondération… Mais malgré leur technicité, ces explications ne sont pas complètes : elles cachent souvent le coeur du système qui relève du secret commercial, privilégiant seulement les options de branchements, les modalités de choix, les procédures accessibles (pas celles qui ne le sont pas). L&rsquo;expérience montre que bien souvent un système automatisé doit rendre des comptes et des explications à plusieurs types de publics : des autorités de contrôle, des agents chargés de procéder ou d&rsquo;accompagner le calcul et le public (qui n&rsquo;est pas non plus unique : les explications ne sont pas les mêmes pour tous publics, pour des enfants ou des adultes par exemple, pour des patients ou pour leur famille, pour des personnes en interne et des personnes extérieures…). Les publics des calculs sont donc multiples, pluriels… Et les explications qu&rsquo;il faut délivrer aux uns ne sont pas toujours de mêmes natures de celles qu&rsquo;il faut délivrer à d&rsquo;autres. Nous avons pour notre part constaté que nombre de projets ont tendance à réduire leurs explications à un utilisateur idéal, oubliant la pluralité des publics qui sont les leurs, et ce alors que la mise en place de systèmes automatisés perturbe toute la chaîne de compréhension du fonctionnement d&rsquo;une organisation ou d&rsquo;un calcul. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/11/07615fda-transparence-concis-2-1.gif"><img src="https://asset.lemde.fr/prd-blogs/2019/11/07615fda-transparence-concis-2-1.gif" alt="Exemple de parcours utilisateur pour une inscription à un service où chaque étape est détaillée et expliquée" title="Exemple de parcours utilisateur pour une inscription à un service où chaque étape est détaillée et expliquée" width="200" class="alignright size-full wp-image-2801" /></a>Enfin, la question de savoir où sont disponibles ces explications est importante. Bien souvent, les explications sont décorrélées de l’outil lui-même, à la manière d&rsquo;un mode d&#8217;emploi papier pour une machine électronique. Les explications sont trop souvent encore à aller les chercher à côté des systèmes. Il faut aller les trouver dans une nasse d&rsquo;information complexe ou dans des documents extérieurs aux outils eux-mêmes. Elles sont rarement là où on en a besoin, au coeur des interfaces qu’on explore et qu’on ne comprend pas. La plateforme Données &amp; Design de la Cnil <a href="https://design.cnil.fr/concepts/information/">donne un exemple parlant</a> d&rsquo;information contextualisée intégrée au parcours utilisateur : chaque demande d&rsquo;information relative aux données personnelles lors du parcours d&rsquo;inscription est explicite. À chaque étape de l&rsquo;inscription, d&rsquo;une interaction, des explications sont délivrées, exactement là où elles sont nécessaires.   </p>
<h2>Polysémiques, multifacettes, continues… : à quoi servent les explications ?</h2>
<p>Expliquer semble simple. Mais comme on vient de la voir, à l’heure des systèmes techniques, l&rsquo;explicabilité n&rsquo;est pas seulement polysémique, elle est également multifacette. </p>
<p>Comme le soulignent Robert Hoffman, Shane Mueller et Gary Klein, <a href="https://journals.sagepub.com/doi/pdf/10.1177/1541931218621047">dans leur article</a> <em>« Explaining Explanation for « Explainable AI » »</em>, il est nécessaire d&rsquo;interroger à quoi servent les explications, de comprendre ce qu&rsquo;elles accomplissent, leur but. Ainsi, rappellent les chercheurs, l&rsquo;explication est un processus continu. Fournir une explication n&rsquo;est pas une fin en soi pas plus qu&rsquo;il n&rsquo;est une chose que l&rsquo;on fait une fois pour toutes : cela ne consiste pas à fournir un matériel didactique plus ou moins satisfaisant. Une explication sert à créer de la confiance à toutes les étapes des interactions, ce qui signifie que l&rsquo;utilisateur doit être capable d&rsquo;explorer activement les choix dont il dispose et notamment les erreurs possibles. </p>
<p>L&rsquo;explication est également un processus de co-adaptation : ce n&rsquo;est pas seulement des instructions ou des informations qu&rsquo;on délivre à une personne, c&rsquo;est une collaboration entre celui qui explique, celui qui reçoit l&rsquo;explication et le système. L&rsquo;explication est par nature participante et par exemple, doit savoir s&rsquo;adapter à ce que le destinataire comprend et même, idéalement, s&rsquo;adapter en retour. </p>
<p>L&rsquo;explication doit être « déclenchable » insistent-ils : tout n&rsquo;a pas besoin d&rsquo;être expliqué. Par contre, il faut saisir les éléments qui nécessitent de déclencher des explications appropriées. </p>
<p>L&rsquo;explication est également une exploration : elle doit aider l&rsquo;utilisateur à comprendre les limites du système. Elle doit aider l&rsquo;utilisateur à comprendre de lui-même : montrer ce qui n&rsquo;est pas fait pour mieux montrer ce qui est accompli. </p>
<p>Pour le dire plus simplement, une explication sert à comprendre, à discuter et à contester. Elle n&rsquo;est pas un outil de communication qui doit faire disparaître ses biais, ses erreurs ou ses choix. Elle est un outil loyal qui doit montrer ses lacunes et ses failles, qui doit aider à améliorer le système et le calcul.  </p>
<h2>Qu&rsquo;est-ce qu&rsquo;une bonne explication ? Les caractéristiques d&rsquo;une bonne explication</h2>
<p><strong>Vers des explications contrastables, actionnables </strong><br />
L&rsquo;iconoclaste <a href="https://people.eng.unimelb.edu.au/tmiller/">Tim Miller</a> (<a href="https://twitter.com/tmiller_unimelb">@tmiller_unimelb</a>)  <a href="https://arxiv.org/abs/1706.07269">a étudié plus de 250 articles scientifiques</a> dans le domaine de la philosophie, de la psychologie et des sciences cognitives pour mettre en avant que la principale caractéristique d&rsquo;une bonne explication est d&rsquo;être <em>contrastive</em> (qu&rsquo;on pourrait traduire par « contrastable » ou « comparable »). Les gens ne demandent pas « pourquoi il y a quelque chose ? », mais plutôt « pourquoi il y a quelque chose plutôt que rien », rappelle-t-il. C&rsquo;est-à-dire qu&rsquo;une explication ne se déroule pas pour elle-même, mais en contexte, en regard d&rsquo;autres éléments. Le caractère « contrasté » permet aux gens de mieux mesurer la différence entre ce à quoi ils s&rsquo;attendaient et le résultat (et d&rsquo;interroger ce qu&rsquo;ils ne savent pas). Donner une explication contrastée est souvent d&rsquo;ailleurs plus simple pour celui qui doit fournir l&rsquo;explication. L&rsquo;enjeu n&rsquo;est pas de donner toutes les explications ou toutes les causes, mais de permettre de les balancer entre elles, de rendre les explications actionnables, jouables !</p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/11/dd535c82-understanding-automated-decisions-sprint-1-learnings-if-1.png"><img src="https://asset.lemde.fr/prd-blogs/2019/11/dd535c82-understanding-automated-decisions-sprint-1-learnings-if-1.png" alt="L'interface de Flock qui montre que si le vent ou la probabilité de pluie étaient moins fortes, le prix proposé serait moins élevé" title="L'interface de Flock qui montre que si le vent ou la probabilité de pluie étaient moins fortes, le prix proposé serait moins élevé" width="234" height="435" class="alignright size-full wp-image-2802" /></a>Pour mieux comprendre ce qu&rsquo;est une explication contrastable ou actionnable, donnons un exemple. L&rsquo;un des meilleurs est celui qu&rsquo;a conçu <a href="https://www.projectsbyif.com/">l&rsquo;agence de design britannique IF</a> pour <a href="https://flockcover.com/">Flock</a>, une assurance pour drone qui peut être souscrit à la volée. <a href="https://automated-decisions.projectsbyif.com/">Ce travail a consisté à montrer</a>, dans le design même de l&rsquo;application, les enjeux et impacts des décisions. Ainsi, l&rsquo;interface calcule un prix pour assurer un drone à la volée, au moment où l&rsquo;on souhaite l&rsquo;utiliser, selon le lieu et les conditions météo du moment (<a href="https://www.projectsbyif.com/blog/design-to-explain-what-youre-doing-with-data/">voir ces explications</a>). Mais, une fois qu&rsquo;elle a calculé le prix de l&rsquo;assurance, elle vous indique également que si le vent était moins fort, ou que si la probabilité de pluie était moins forte, vous payeriez moins cher. <a href="https://www.projectsbyif.com/blog/understandings-automated-decisions-sprint-1-recap/">D&rsquo;autres paramètres sont pris en compte pour vous expliquer la tarification qui s&rsquo;applique à vous</a> : la proximité d&rsquo;une école ou d&rsquo;un hôpital peut faire augmenter le prix et l&rsquo;application peut vous indiquer que si vous vous en éloignez, cela pourrait en faire diminuer le prix. <a href="https://www.projectsbyif.com/blog/understanding-automated-decisions-sprint-2-reflections/">Dans le cadre d&rsquo;un travail de prototypage pour une assurance auto basée sur le comportement de l&rsquo;automobiliste</a>, l&rsquo;agence IF a également esquissé des interfaces qui permettent au conducteur de voir la différence entre son comportement et la norme. Ces exemples, stimulants, permettent de montrer quels facteurs contribuent aux décisions et comment les atténuer ou agir sur ces éléments.</p>
<p><strong>Vers des explications sélectives &#8211; mais loyales</strong><br />
Contrairement à ce à quoi on pourrait s&rsquo;attendre, une bonne explication pour Miller n&rsquo;est pas une explication complète ou exhaustive. Une bonne explication est « choisie », sélective (et donc biaisée). Les gens ne s&rsquo;attendent pas à voir une cause unique et complète ni une liste causale exhaustive. Son caractère « sélectionné » est bien sûr un compromis. Son caractère partiel ou incomplet doit pourtant rester fidèle et loyal à ce qu&rsquo;il se passe réellement. </p>
<p>Les probabilités n&rsquo;ont pas tant d&rsquo;importance que l&rsquo;on croit, explique encore Tim Miller. Si la vérité est importante, se référer aux probabilités ou aux relations statistiques d&rsquo;une explication n&rsquo;est pas aussi efficace que se référer aux causes. </p>
<p><strong>Vers des explications sociales</strong><br />
Enfin, les explications sont profondément sociales… Elles relèvent de l&rsquo;échange, d&rsquo;un transfert de connaissance, d&rsquo;une interaction. En ce sens, elles demeurent profondément contextuelles. A toute question posée, plusieurs réponses peuvent être produites, rappelle Miller. En ce sens, la médiation et l&rsquo;explication sont profondément dépendantes l&rsquo;une de l&rsquo;autre. Un système de décision automatisé ne peut donc faire l&rsquo;économie de médiations adaptées, d&rsquo;équipes et de solutions dédiées aux dialogues avec les usagers, et se doit d&rsquo;organiser ce dialogue entre son système et la société.</p>
<p>Tant mieux. Cela nous rappelle que l&rsquo;explication n&rsquo;est en rien réductible à une simple technique, à une question objectivable, mais a tout à voir avec une relation et sa complexité. </p>
<p>Hubert Guillaud<br />
(<em>Avec la complicité de Simon Chignard et Thierry Marcou</em>).</p>
<p>PS : Amis lecteurs, si vous avez vu passer des services qui proposent des modalités d&rsquo;explications remarquables, n&rsquo;hésitez pas à nous les signaler. </p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2019/11/28/expliquer-les-boites-noires-les-enjeux-de-lexplication-des-decisions-automatisees/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
									<post-id xmlns="com-wordpress:feed-additions:1">2796</post-id>	</item>
		<item>
		<title>On ne peut pas se fier à la reconnaissance de l&#8217;émotion</title>
		<link>https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/</link>
				<pubDate>Thu, 24 Oct 2019 08:07:35 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[intelligence artificielle]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2792</guid>
				<description><![CDATA[Appliquer les technologies de l&#8217;intelligence artificielle de la reconnaissance faciale aux questions émotionnelles est en plein essor. Nombre d&#8217;entreprises vendent des solutions proposant de détecter les émotions de quelqu&#8217;un en se basant sur ses expressions faciales… Nous avons plusieurs fois sur InternetActu.net souligné bien des limites à l&#8217;analyse émotionnelle automatisée (« De la conception émotionnelle en &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;On ne peut pas se fier à la reconnaissance de l&#8217;émotion&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=On+ne+peut+pas+se+fier+%C3%A0+la+reconnaissance+de+l%26rsquo%3B%C3%A9motion%20-%20https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/&amp;media=&amp;description=Appliquer+les+technologies+de+l%27intelligence+artificielle+de+la+reconnaissance+faciale+aux+questions" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-iloop="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=On ne peut pas se fier à la reconnaissance de l&rsquo;émotion&amp;body=Appliquer les technologies de l&#039;intelligence artificielle de la reconnaissance faciale aux questions%20-%20https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2792" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/&amp;title=On+ne+peut+pas+se+fier+%C3%A0+la+reconnaissance+de+l%26rsquo%3B%C3%A9motion" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/&amp;title=On+ne+peut+pas+se+fier+%C3%A0+la+reconnaissance+de+l%26rsquo%3B%C3%A9motion" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><p>Appliquer les technologies de l&rsquo;intelligence artificielle de la reconnaissance faciale aux questions émotionnelles est en plein essor. Nombre d&rsquo;entreprises vendent des solutions proposant de détecter les émotions de quelqu&rsquo;un en se basant sur ses expressions faciales… Nous avons plusieurs fois sur InternetActu.net souligné bien des limites <a href="http://www.internetactu.net/tag/informatique-motionnelle/">à l&rsquo;analyse émotionnelle automatisée</a> (<a href="http://www.internetactu.net/2018/10/17/de-la-conception-emotionnelle-en-ses-limites/">« De la conception émotionnelle en ses limites »</a> ; <a href="http://www.internetactu.net/2018/07/13/peut-on-rendre-le-ciblage-psychologique-productif/">« Peut-on rendre le ciblage psychologique productif ? »</a>&#8230;). </p>
<p><a href="https://www.theverge.com/authors/james-vincent">James Vincent</a> <a href="https://www.theverge.com/2019/7/25/8929793/emotion-recognition-analysis-ai-machine-learning-facial-expression-review">pour <em>The Verge</em></a> (<a href="https://twitter.com/verge">@verge</a>), appuie encore un peu plus là où ça fait mal : la croyance que les expressions faciales correspondent fidèlement aux émotions n&rsquo;est pas fondée ! Croire que si quelqu&rsquo;un à un front plissé et les lèvres pincées ne signifie pas nécessairement qu&rsquo;il est en colère. Pour la professeure de psychologie et neuroscientifique <a href="https://lisafeldmanbarrett.com/">Lisa Feldman Barrett</a>, auteure notamment de <a href="https://www.panmacmillan.com/authors/lisa-feldman-barrett/how-emotions-are-made/9781509837526"><em>Comment les émotions sont construites</em></a> (Pan MacMillan, 2018, non traduit), <em>« Les entreprises peuvent dire ce qu&rsquo;elles veulent, mais les données sont claires. Ils peuvent détecter un air renfrogné, mais ce n&rsquo;est pas la même chose que de détecter la colère »</em>. <a href="https://journals.sagepub.com/eprint/SAUES8UM69EN8TSMUGF9/full">L&rsquo;Association pour la science psychologique a convié 5 scientifiques à examiner quelques 1000 études sur ce sujet</a>. Conclusions des spécialistes : les émotions sont exprimées d&rsquo;une grande variété de façon, ce qui rend difficile de déduire de façon fiable comment se sent une personne à partir des seuls mouvements de son visage. Les données montrent par exemple que lorsqu&rsquo;ils sont en colère, les gens ne se montrent pas nécessairement renfrognés. L&rsquo;air renfrogné n&rsquo;est qu&rsquo;une expression de la colère parmi d&rsquo;autres et la plupart du temps (70%), les gens n&rsquo;ont pas l&rsquo;air renfrognés quand ils sont en colère. En fait, ils ont bien plus souvent l&rsquo;air renfrognés quand ils ne sont pas en colère ! </p>
<p>Cela signifie que les systèmes d&rsquo;analyse émotionnels automatisés induisent tout le monde en erreur… <em>« Voudriez-vous que dans un tribunal, une situation d&#8217;embauche ou un diagnostic médical ou dans un contrôle de sécurité à l&rsquo;aéroport… faire confiance à un algorithme qui ne serait précis que 30% du temps ? »</em>, insiste Lisa Barrett. </p>
<p>L&rsquo;étude ne nie pas que des expressions faciales communes ou prototypiques puissent exister ni que notre croyance en la puissance communicative des expressions faciales joue un rôle essentiel dans nos sociétés, mais souligne que dans les situations de la vie courante, nous disposons de plus de contexte pour analyser les émotions que seulement tirer des conclusions d&rsquo;analyses faciales simplistes. La méta-étude souligne qu&rsquo;il existe de grandes variétés de croyances dans le domaine des études sur les émotions, mais ce qu&rsquo;elle rejette spécifiquement c&rsquo;est l&rsquo;idée d&rsquo;une <em>« empreinte »</em> fiable de l&rsquo;émotion par l&rsquo;expression. Les études qui semblent montrer une forte corrélation entre certaines expressions faciales et les émotions sont souvent imparfaites sur le plan méthodologique, pointent les chercheurs : par exemple, nombre de recherches utilisent des acteurs qui exagèrent l&rsquo;expression de leurs émotions comme point de départ pour dire à quoi les émotions ressemblent. Bien souvent encore, lorsqu&rsquo;on demande aux sujets d&rsquo;étiqueter une émotion à un visage, on le fait depuis une sélection limitée de propositions, ce qui les pousse vers un certain consensus. Or, quand on ne leur propose pas un choix restreint, leurs réponses sont bien plus variées et bien moins assurées. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/10/110fb64f-emotionlabel01.png"><img src="https://asset.lemde.fr/prd-blogs/2019/10/110fb64f-emotionlabel01.png" alt="" width="540" class="aligncenter size-full wp-image-2793" /></a><br />
<em>Image : quand on propose aux gens d&rsquo;attribuer des émotions à des visages, sans prédéfinir les options, les classements sont bien plus variés et incertains qu&rsquo;on le pense.</em></p>
<p>Les gens comprennent intuitivement que les émotions sont bien plus complexes que cela, souligne Barrett. Ces subtilités sont pourtant rarement reconnues par les outils d&rsquo;analyse des émotions. <a href="https://azure.microsoft.com/en-us/services/cognitive-services/face/">Le logiciel de Microsoft par exemple</a>, affirme être capable de reconnaître « huit états émotionnels fondamentaux » depuis des expressions faciales « universelles »&#8230; <a href="https://www.nytimes.com/2014/03/02/opinion/sunday/what-faces-cant-tell-us.html">La critique n&rsquo;est pas nouvelle</a>. Pour se défendre, les entreprises affirment souvent que leur analyse est basée sur d&rsquo;autres signaux, mais sans qu&rsquo;on sache toujours lesquels et comment ils sont équilibrés entre eux. Affectiva, l&rsquo;entreprise leader du marché a lancé un outil <a href="http://go.affectiva.com/auto">qui ajoute l&rsquo;analyse de la parole aux expressions faciales</a>. D&rsquo;autres ajoutent <a href="https://www.fastcompany.com/90375885/a-new-ai-can-tell-how-you-feel-just-by-watching-you-walk-down-the-street">l&rsquo;analyse de la démarche</a> ou <a href="http://openaccess.thecvf.com/content_cvpr_2017_workshops/w41/papers/Bulling_Its_Written_All_CVPR_2017_paper.pdf">le suivi du mouvement oculaire</a>… Rana el Kaliouby, la cofondatrice d&rsquo;<a href="https://www.affectiva.com/">Affectiva</a>, qui s&rsquo;est toujours exprimé prudemment sur son produit, reconnait que l&rsquo;étude est assez mesurée. <em>« Le rapport des expressions à l&rsquo;émotion est très nuancé, complexe et peu prototypique »</em>.</p>
<p>Et James Vincent de rappeler que le machine learning est souvent utilisé pour produire des métriques permettant de prendre des décisions <em>« non pas parce qu&rsquo;elles sont fiables, mais simplement parce qu&rsquo;elles peuvent être mesurées »</em>. Le risque est bien d&rsquo;être demain cernés d&rsquo;analyses fallacieuses, <a href="https://www.aclu.org/blog/privacy-technology/surveillance-technologies/experts-say-emotion-recognition-lacks-scientific">comme le soulignait l&rsquo;ACLU</a>, l&rsquo;union américaine pour les libertés civiles. <em>« La reconnaissance des émotions repose sur le même principe sous-jacent que le polygraphe, ou « détecteur de mensonges » : que les mouvements et les conditions physiques du corps peuvent être corrélés de façon fiable avec l&rsquo;état mental interne d&rsquo;une personne »</em>. Ce n&rsquo;est pas le cas ! <em>« Traduite en systèmes automatisés, cette croyance pourrait mener à bien d&rsquo;autres préjudices ; une caméra corporelle « intelligente » annonçant faussement à un policier que quelqu&rsquo;un est hostile et plein de colère pourrait contribuer à une décision inappropriée&#8230; »</em></p>
<p>Et James Vincent de souligner un autre risque : que nous adaptions nos comportements aux défauts de nos machines… <em>« De la même façon que les gens agissent maintenant en sachant que ce qu&rsquo;ils font en ligne sera interprété par divers algorithmes (par exemple, en choisissant de ne pas aimer certaines images sur Instagram parce que cela affecte les publicités que l&rsquo;on voit), nous pourrions finir par exagérer l&rsquo;expression de nos émotions sur nos visages parce que nous savons qu&rsquo;elles seront interprétées par des machines »</em>. </p>
<p>Hubert Guillaud</p>
<p>Mise à jour : <a href="https://algorithmwatch.org/en/story/speech-analysis-hr/">L&rsquo;association Algorithm Watch revient pour sa part sur les limites des systèmes d&rsquo;analyse émotionnels vocaux</a>, pour faire un constat tout aussi accablant que celui de l&rsquo;analyse émotionnelle des visages. <a href="https://reallifemag.com/recorded-for-quality-assurance/">A compléter par un article de RealLifeMag</a> sur l&rsquo;analyse de sentiment des employés de centre d&rsquo;appels, qui eux aussi détectent des tonalités vocales limitées qu&rsquo;ils transforment en analyse de la « qualité » émotionnelle&#8230; </p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2019/10/24/on-ne-peut-pas-se-fier-a-la-reconnaissance-de-lemotion/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
									<post-id xmlns="com-wordpress:feed-additions:1">2792</post-id>	</item>
		<item>
		<title>Kate Crawford : « les biais sont devenus le matériel brut de l&#8217;IA »</title>
		<link>https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/</link>
				<comments>https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/#comments</comments>
				<pubDate>Thu, 03 Oct 2019 07:11:04 +0000</pubDate>
		<dc:creator><![CDATA[internetactu]]></dc:creator>
				<category><![CDATA[Web/Tech]]></category>
		<category><![CDATA[intelligence artificielle]]></category>

		<guid isPermaLink="false">https://www.lemonde.fr/blog/internetactu/?p=2782</guid>
				<description><![CDATA[Kate Crawford (@katecrawford) est la cofondatrice (avec Meredith Whittaker, @mer__edith) de l&#8217;AI Now Institute (@AINowInstitute, blog). Chercheuse à Microsoft Research, professeur à l&#8217;université de New York, elle est spécialiste de l&#8217;étude des implications sociales des systèmes techniques et notamment des effets du Big Data, des algorithmes et de l&#8217;Intelligence artificielle. À l&#8217;occasion de l&#8217;inauguration de &#8230; <p class="link-more"><a href="https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" class="more-link">Continuer la lecture<span class="screen-reader-text"> de &#171;&#160;Kate Crawford : « les biais sont devenus le matériel brut de l&#8217;IA »&#160;&#187;</span></a></p>]]></description>
								<content:encoded><![CDATA[<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-social_icons wpsr-btn-sb-b-8"><div class="socializer sr-32px sr-opacity sr-count-4 sr-pad sr-popup"><span class="sr-facebook sr-text-in"><a rel="nofollow" href="https://www.facebook.com/share.php?u=https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" target="_blank"  title="Share this on Facebook"  style="color: #fff"><i class="fa fa-facebook-f"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-twitter "><a rel="nofollow" href="https://twitter.com/intent/tweet?text=Kate+Crawford+%3A+%C2%AB%C2%A0les+biais+sont+devenus+le+mat%C3%A9riel+brut+de+l%26rsquo%3BIA%C2%A0%C2%BB%20-%20https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/%20" target="_blank"  title="Tweet this !"  style="color: #fff"><i class="fa fa-twitter"></i></a></span>
<span class="sr-pinterest sr-text-in"><a rel="nofollow" href="https://www.pinterest.com/pin/create/button/?url=https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/&amp;media=&amp;description=Kate+Crawford+%28%40katecrawford%29+est+la+cofondatrice+%28avec+Meredith+Whittaker%2C+%40mer__edith%29+de+l%27AI+Now" target="_blank"  title="Submit this to Pinterest"  style="color: #fff"><i class="fa fa-pinterest"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-linkedin sr-text-in"><a rel="nofollow" href="https://www.linkedin.com/sharing/share-offsite/?url=https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" target="_blank"  title="Add this to LinkedIn"  style="color: #fff"><i class="fa fa-linkedin"></i><span class="ctext"><span data-wpsrs-cached="true">0</span></span></a></span>
<span class="sr-email "><a rel="nofollow" href="mailto:?to=&amp;subject=Kate Crawford : « les biais sont devenus le matériel brut de l&rsquo;IA »&amp;body=Kate Crawford (@katecrawford) est la cofondatrice (avec Meredith Whittaker, @mer__edith) de l&#039;AI Now%20-%20https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" target="_blank"  title="Email this "  style="color: #fff"><i class="fa fa-envelope"></i></a></span>
<span class="sr-more"><a href="#" target="_blank" title="More sites"  style="color: #fff"><i class="fa fa-share-alt"></i></a><ul class="socializer"><span class="sr-shortlink "><a rel="nofollow" href="https://www.lemonde.fr/blog/internetactu/?p=2782" target="_blank" onclick="socializer_shortlink( event, this )" title="Short link"  style="color: #fff"><i class="fa fa-link"></i></a></span>
<span class="sr-pocket "><a rel="nofollow" href="https://getpocket.com/save?url=https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/&amp;title=Kate+Crawford+%3A+%C2%AB%C2%A0les+biais+sont+devenus+le+mat%C3%A9riel+brut+de+l%26rsquo%3BIA%C2%A0%C2%BB" target="_blank"  title="Submit this to Pocket"  style="color: #fff"><i class="fa fa-get-pocket"></i></a></span>
<span class="sr-reddit "><a rel="nofollow" href="https://reddit.com/submit?url=https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/&amp;title=Kate+Crawford+%3A+%C2%AB%C2%A0les+biais+sont+devenus+le+mat%C3%A9riel+brut+de+l%26rsquo%3BIA%C2%A0%C2%BB" target="_blank"  title="Submit this to Reddit"  style="color: #fff"><i class="fa fa-reddit"></i></a></span>
<span class="sr-pdf "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" target="_blank"  title="Convert to PDF"  style="color: #fff"><i class="fa fa-file-pdf-o"></i></a></span>
<span class="sr-print "><a rel="nofollow" href="https://www.printfriendly.com/print?url=https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" target="_blank"  title="Print this article "  style="color: #fff"><i class="fa fa-print"></i></a></span></ul></span></div></div></div><blockquote><p><a href="https://www.katecrawford.net/">Kate Crawford</a> (<a href="https://twitter.com/katecrawford">@katecrawford</a>) est la cofondatrice (avec Meredith Whittaker, <a href="https://twitter.com/mer__edith">@mer__edith</a>) de l&rsquo;<a href="https://ainowinstitute.org/">AI Now Institute</a> (<a href="https://twitter.com/AINowInstitute">@AINowInstitute</a>, <a href="https://medium.com/@AINowInstitute">blog</a>). Chercheuse à Microsoft Research, professeur à l&rsquo;université de New York, elle est spécialiste de l&rsquo;étude des implications sociales des systèmes techniques et notamment des effets du Big Data, des algorithmes et de l&rsquo;Intelligence artificielle. À l&rsquo;occasion de l&rsquo;inauguration de la chaire invitée IA et Justice, ouverte à l&rsquo;École normale supérieure, elle a livré une passionnante présentation sur les enjeux de ces technologies. Prenons le temps de la dérouler ! </p></blockquote>
<p><em>« Nous sommes confrontés à des systèmes techniques d&rsquo;une puissance sans précédent, qui impactent très rapidement tous les secteurs, de l&rsquo;éducation à la santé, de l&rsquo;économie à la justice&#8230; Et la transformation en cours est concomitante à la montée de l&rsquo;autoritarisme et du populisme »</em>. Cette évolution n&rsquo;est pas une coïncidence, avance la chercheuse : l&rsquo;un et l&rsquo;autre interrogent la centralisation du pouvoir et nécessitent d&rsquo;améliorer notre compréhension critique des formes de pouvoir. Cette combinaison renforce les difficultés pour maîtriser ces outils et les rendre responsables et nécessite de comprendre en profondeur les relations entre politique, pouvoir et IA. <em>« L&rsquo;IA est une nouvelle ingénierie du pouvoir »</em>. La science, la société et les autorités doivent trouver les modalités pour qu&rsquo;elle rende réellement des comptes. <em>« C&rsquo;est bien plus qu&rsquo;une question d&rsquo;équité, de loyauté, d&rsquo;honnêteté ou de responsabilité ! C&rsquo;est une question de justice ! »</em>, introduit Kate Crawford non sans passion. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/10/853c7006-crawfordens.jpg"><img src="https://asset.lemde.fr/prd-blogs/2019/10/853c7006-crawfordens.jpg" alt="Kate Crawford sur la scène de l'ENS" title="Kate Crawford sur la scène de l'ENS" width="540" class="aligncenter size-full wp-image-2783" /></a><br />
<em>Image : Kate Crawford sur la scène de l&rsquo;ENS, <a href="https://twitter.com/hare_brain/status/1174373444496089088">photographiée par Stéphanie Hare</a>.</em></p>
<p>Kate Crawford commence par raconter une histoire. Celle d&rsquo;un projet de recherche de police prédictive, lancée par Jeff Brantingham, l&rsquo;un des fondateurs du célèbre Predpol (voir <a href="http://www.internetactu.net/2015/06/23/predpol-la-prediction-des-banalites/">« Predpol : la prédiction des banalités »</a> et <a href="http://www.internetactu.net/2017/07/26/ou-en-est-la-police-predictive/">« Où en est la police prédictive ? »</a>), visant à prédire la criminalité liée aux gangs. Le problème est que cette appartenance à des gangs est déterminée par les services de police d&rsquo;une manière très subjective et conservée dans des bases de données et sur des fiches très lacunaires et très partiales. Comme l&rsquo;expliquait <a href="https://www.theverge.com/2018/4/26/17285058/predictive-policing-predpol-pentagon-ai-racial-bias">un excellent article de <em>The Verge</em></a>, Brantingham proposait de prédire cette appartenance à partir de différentes données comme l&rsquo;arme utilisée, le nombre de suspects d&rsquo;un crime, le lieu et la description du crime que l&rsquo;on trouve dans les bases de données de la police (le lieu surdéterminant l&rsquo;association avec un gang sous prétexte qu&rsquo;un quartier relève de leurs territoires). <a href="http://teamcore.usc.edu/projects/Minerva/">L&rsquo;étude</a> a fait l&rsquo;objet <a href="https://www.sciencemag.org/news/2018/02/artificial-intelligence-could-identify-gang-crimes-and-ignite-ethical-firestorm">de critiques dans <em>Science</em></a>. À un colloque, l&rsquo;un des jeunes coauteurs, alors qu&rsquo;il était interrogé sur les limites et les implications éthiques de ces recherches, a répondu par un piteux <em>« Je ne suis qu&rsquo;un ingénieur »</em>. En 2016, <a href="https://www.revealnews.org/blog/california-state-auditor-rampant-flaws-in-gang-database/">un audit sur la base de données CalGang de l&rsquo;État de Californie</a> a montré des erreurs endémiques sur les dossiers : 23% des personnes présentent dans ce fichier n&rsquo;avaient aucune connexion avec des gangs… Les ingénieurs ne peuvent pas pourtant séparer ainsi leur  responsabilité des conséquences des outils qu&rsquo;ils conçoivent, s&rsquo;énerve Kate Crawford. Pire, cette façon de ne pas reconnaître sa responsabilité est en passe de devenir une norme. <a href="https://www.axon.com/">Axon</a>, l&rsquo;entreprise qui vend des caméras de corps à la police (voir <a href="http://www.internetactu.net/2014/12/09/les-cameras-pour-policier-sont-elles-une-solution/">« Les caméras pour policier sont-elles une solution ? »</a>), via son laboratoire d&rsquo;IA, affirme pouvoir prédire la criminalité, en faisant de la reconnaissance faciale pour déterminer l&rsquo;historique criminel d&rsquo;une personne et de la détection de menace depuis leur expression faciale ! Nous entrons dans une époque où des procédés techniques sont transformés très rapidement en systèmes. Ce faisant, ils renforcent des biais culturels et les automatisent, en les rendant à la fois invisibles et incontournables.</p>
<p>Crawford se rappelle d&rsquo;<a href="https://fr.wikipedia.org/wiki/ELIZA">Eliza</a>, le premier chatbot mis au point dans les années 60 par l&rsquo;informaticien <a href="https://fr.wikipedia.org/wiki/Joseph_Weizenbaum">Joseph Weizenbaum</a>. Ce pionnier de l&rsquo;IA nous avertissait déjà que le séduisant potentiel de l&rsquo;IA risquait de nous faire oublier et ignorer ses profondes implications politiques. Eliza était un programme d&rsquo;une grande simplicité, mais nombre de ceux qui ont joué avec ont été impressionnés par le programme, convaincus qu&rsquo;une personne se cachait derrière pour leur parler <em>« A l&rsquo;époque, les gens les plus intelligents du monde réfléchissaient à l&rsquo;intelligence artificielle, et c&rsquo;était passionnant… »</em> Weizenbaum prévenait déjà pourtant de la désillusion à venir de l&rsquo;IA et soulignait que ces technologies allaient permettre aux ingénieurs de mettre à distance le coût humain des systèmes qu&rsquo;ils concevaient. C&rsquo;est exactement ce qu&rsquo;affirmait le jeune ingénieur du programme de police prédictive. Nous continuons à ne pas regarder les implications sociales des outils que nous créons. 60 ans plus tard, nous sommes encore empêtrés dans ces problèmes, or, les changements sociaux que produit l’IA sont profonds. Nous devons nous préoccuper de ces enjeux sociaux, éthiques et politiques avec le même engagement et la même rigueur que nous appliquons à l&rsquo;optimisation des systèmes techniques ! </p>
<h2>L&rsquo;IA est à la fois une technologie, une pratique sociale et une infrastructure industrielle</h2>
<p>L&rsquo;IA n&rsquo;est pas seulement une technologie, comme on le croit souvent. <em>« Quand on parle d&rsquo;IA, on parle d&rsquo;une écologie de différentes technologies »</em>, qui ont beaucoup évolué ces dernières années. Même le <em>machine learning</em> est un assemblage de différentes techniques, rappelle rapidement la chercheuse. Le mot « intelligence » est un piège, notamment parce que l&rsquo;intelligence artificielle ne fonctionne pas du tout comme la cognition humaine. Mais l&rsquo;IA surtout, n&rsquo;est pas qu&rsquo;une technique, insiste-t-elle. <em>« C&rsquo;est aussi une pratique sociale qui nécessite de comprendre qui travaille sur ces systèmes, quelles données sont utilisées, comment sont-elles classées… »</em> Le fait que le milieu de l&rsquo;IA soit dominé par des hommes, des ingénieurs, majoritairement blancs et appartenant aux catégories supérieures crée et adresse des problèmes spécifiques. Enfin, l&rsquo;IA, c&rsquo;est également une industrie particulièrement imbriquée et complexe. C&rsquo;est ce que tentait de montrer <a href="https://anatomyof.ai/">Anatomy of an AI System</a>, un travail mené par la chercheuse et <a href="https://twitter.com/thecreatureslab">Vladan Joler</a>, directeur du <a href="https://labs.rs/en/">Share Labs</a>, qui dressait la cartographie exhaustive de ce qu&rsquo;implique l&rsquo;usage de la commande vocale Amazon Echo. Cette carte montrait que derrière l&rsquo;appareil, nous sommes confrontés à un système de calcul planétaire qui a des impacts nombreux en terme de ressources, de données, de travail… Cette tentative de décomposition de l&rsquo;appareil d&rsquo;Amazon montre combien ce qu&rsquo;on appelle l&rsquo;IA est aussi une infrastructure industrielle particulièrement concentrée. À chaque fois que nous demandons l&rsquo;heure à Alexa, nous activons un système extractiviste en terme de matériaux, de données, de travail… qui a des impacts sociaux, environnementaux, économiques et politiques cachés. <em>« L&rsquo;IA est une nouvelle ingénierie du pouvoir »</em> (<em>« AI reengineering power »</em>).  </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/10/84765980-anatomiofai.jpg"><img src="https://asset.lemde.fr/prd-blogs/2019/10/84765980-anatomiofai.jpg" alt="Anatomi of AI" title="Anatomi of AI" width="540" class="aligncenter size-full wp-image-2784" /></a></p>
<p><a href="http://www.internetactu.net/2008/09/09/est-ce-que-le-deluge-de-donnees-va-rendre-la-methode-scientifique-obsolete/">En 2008</a>, Chris Anderson de <em>Wired</em> prophétisait la fin de la théorie : c&rsquo;est-à-dire l&rsquo;âge où l&rsquo;analyse des données suffirait pour produire des résultats. On pensait alors, explique Kate Crawford, qu&rsquo;avec plus de données, les systèmes deviendraient neutres. Mais c&rsquo;est le contraire qui s&rsquo;est passé, comme elle le pointait déjà en 2013 dans <a href="https://hbr.org/2013/04/the-hidden-biases-in-big-data">« les biais cachés des Big Data »</a> (<a href="http://www.internetactu.net/2011/09/23/big-data-la-necessite-d’un-debat/">et même avant</a>) : avec la démultiplication des données, <em>« les discriminations ont été démultipliées »</em>. Nous en avons eu depuis chaque jour de nombreux exemples… En 2015, l&rsquo;application photo de Google était prise à étiqueter des étudiants noirs en « gorilles » (et si elle ne le fait plus, <a href="https://www.technologyreview.com/f/609959/google-photos-still-has-a-problem-with-gorillas/">c&rsquo;est visiblement parce que le terme gorille a été supprimé de son moteur d&rsquo;annotation !</a>). En 2016, <a href="https://www.bloomberg.com/graphics/2016-amazon-same-day/">une remarquable enquête de Bloomberg</a> montrait que la livraison en un jour d&rsquo;Amazon dans les plus grandes villes des États-Unis n&rsquo;était pas proposée dans les quartiers noirs de ces villes. <a href="https://www.numerama.com/tech/426774-amazon-a-du-desactiver-une-ia-qui-discriminait-les-candidatures-de-femmes-a-lembauche.html">En 2018</a>, on a découvert qu&rsquo;Amazon avait utilisé un système d&rsquo;IA pour faciliter son recrutement. Problème : le système écartait systématiquement les femmes, pour se conformer au modèle en vigueur dans la firme, où 85% des employés sont des hommes. Après des tentatives de correction inopérantes, Amazon a dû abandonner ce système ! Avec la chercheuse <a href="https://ainowinstitute.org/people/rashida-richardson.html">Rashida Richardson</a> et le professeur de droit <a href="https://its.law.nyu.edu/facultyprofiles/index.cfm?fuseaction=profile.biography&amp;personid=36880">Jason Schultz</a> (<a href="https://twitter.com/lawgeek">@lawgeek</a>), Kate Crawford <a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3333423">a publié</a> en début d&rsquo;année une analyse des systèmes de police prédictive américains. Les chercheurs soulignent que les systèmes de prédiction des crimes reposent sur des données historiques <em>« sales »</em> voire illégales, mal documentées, produites par des services qui n&rsquo;ont pas toujours été exemplaires et qui ont consigné des informations bien souvent en violation des droits civils. Travailler depuis ces données pour créer des systèmes de prédiction du crime conduit donc à renforcer les biais, leurs erreurs et inexactitudes de manière systémique. </p>
<h2>« Les biais sont devenus le matériel brut de l&rsquo;IA »</h2>
<p>Pour être plus concret encore, la chercheuse amène son public à regarder les images qui alimentent nos systèmes, à ouvrir le capot et comprendre comment fonctionne l&rsquo;entraînement des systèmes de reconnaissance d&rsquo;image. Elle prend l&rsquo;exemple <a href="http://vis-www.cs.umass.edu/lfw/">d&rsquo;un jeu d&rsquo;images étiquetées</a> couramment utilisé pour l&rsquo;entraînement des systèmes à la reconnaissance d&rsquo;image. C&rsquo;est un jeu de 13 000 images utilisé pour entraîner les systèmes à reconnaître des schémas… Mais qui n&rsquo;est pas sans biais. Il est composé de 78% de portraits d&rsquo;hommes et de 84% de portraits de personnes blanches, ce qui implique que les systèmes entraînés depuis ces données fonctionneront mieux sur les hommes blancs. Ce jeu a été assemblé principalement en <em>« scrappant »</em> (c&rsquo;est-à-dire en extrayant des données, pas nécessairement avec le consentement des espaces d&rsquo;où elles ont été aspirées) des photos provenant de Yahoo News entre 2002 et 2004, d&rsquo;où le fait que le visage qui est le plus présent dans la base soit celui de George W. Bush. Ce simple exemple souligne combien les jeux de données reflètent les hiérarchies sociales et les structures de pouvoir existantes. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/10/9dadc820-avakickingaperson.png"><img src="https://asset.lemde.fr/prd-blogs/2019/10/9dadc820-avakickingaperson.png" alt="" width="300" class="alignleft size-full wp-image-2785" /></a>Autre exemple en utilisant <a href="https://research.google.com/ava/">AVA</a>, une base de données de vidéos annotées, permettant aux machines de comprendre les actions humaines et les activités humaines, comme de tenir un verre ou d&rsquo;être assis sur une chaise. Le problème est que quand on regarde les vidéos associées à une activité, comme de jouer avec enfants, vous ne voyez que des femmes, aucun homme. Si vous cherchez la catégorie <em>kicking a person</em> (donner un coup de pied à quelqu&rsquo;un), vous ne trouverez que des scènes violentes avec hommes pratiquant le kung-fu ! Ces exemples montrent que ces bases d&rsquo;entraînement dévoilent une vision particulière de nos vies, très normative, très stéréotypée et très limitée. </p>
<p>Ces biais ne contaminent pas que les images, ils se retrouvent également dans les mots que ces systèmes utilisent, que ce soit pour la traduction automatique, comme dans l&rsquo;étiquetage automatique des images et vidéos. Les mots qu&rsquo;on utilise sont souvent très connotés au genre, relevait <a href="https://www.pnas.org/content/115/16/E3635">une étude</a>. Ainsi des mots comme « génie » ou « tactique » sont associés majoritairement aux pronoms masculins, alors que des mots comme « beau » ou « lecture », sont associés aux pronoms féminins. Ces biais de langage se retrouvent bien sûr dans l&rsquo;analyse émotionnelle qui consiste à déterminer des émotions depuis des textes ou des images de visages ou d&rsquo;attitudes. À sa sortie, <a href="https://cloud.google.com/natural-language/?hl=fr">l&rsquo;API de Google sur le langage naturel</a>, associait des termes comme juifs ou gay a des sentiments négatifs (voir <a href="http://www.internetactu.net/2018/03/22/vers-des-interactions-empathiques-pour-qui/">« Vers des interactions automatisées et empathiques à la fois »</a>). Le terme <em>White Power</em> est associé à un sentiment positif, contrairement au terme féministe… <em>« Les biais sont devenus le matériel brut de l&rsquo;IA »</em> </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/10/a982e0c4-briefhistoryoffairnessinml.png"><img src="https://asset.lemde.fr/prd-blogs/2019/10/a982e0c4-briefhistoryoffairnessinml.png" alt="" width="300" class="alignright size-full wp-image-2786" /></a>Comme le résume un petit graphique humoristique</a> de l&rsquo;informaticien <a href="https://mrtz.org/">Moritz Hardt</a> (<a href="https://twitter.com/mrtz">@mrtz</a>), on a longtemps pensé que tout allait bien avec le machine learning, jusqu&rsquo;à ce que les systèmes et les études se démultiplient… et montre l&rsquo;ampleur du problème de la discrimination, et ce alors que le déploiement de ces systèmes engage et impacte des millions de personnes, explique-t-elle en montrant une image de Jack Nicholson dans <em>Shining</em>, son visage halluciné dans le trou de la porte qu&rsquo;il vient de défoncer à coup de hache et qu&rsquo;un logiciel d&rsquo;analyse d&rsquo;image qualifie de <em>« joyeux »</em>. </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/10/884876c4-jnicholsonshinning.png"><img src="https://asset.lemde.fr/prd-blogs/2019/10/884876c4-jnicholsonshinning.png" alt="" width="540" class="aligncenter size-full wp-image-2787" /></a><br />
<em>Image : Le visage de Jack Nicholson dans Shining soumis à <a href="https://azure.microsoft.com/en-us/services/cognitive-services/face/">l&rsquo;outil d&rsquo;analyse de sentiment de Microsoft</a>, qui le désigne comme « joyeux ».</em> </p>
<p>Pour répondre à ces biais, les spécialistes travaillent à apporter des réponses techniques, mais dont la portée s&rsquo;annonce limitée, prévient Kate Crawford. <em>« Il est probable que ces solutions ne résolvent rien, voire empire le problème »</em>. En fait, les chercheurs et ingénieurs font une application erronée de l&rsquo;équité ou de l&rsquo;inclusion. Appliquer des corrections statistiques sur un corpus n&rsquo;est pas si simple. Dans une recherche menée avec <a href="http://solon.barocas.org/">Solon Barocas</a>, <a href="https://www.aaronshapiro.com/">Aaron Shapiro</a> et <a href="http://dirichlet.net/">Hanna Wallach</a> sur le problème des biais, qui s&rsquo;est intéressé aux solutions techniques proposées par la recherche à ces questions, celles-ci sont principalement de 3 ordres : elles visent à améliorer la précision, à gommer pour neutraliser et à mieux refléter la démographie. Améliorer la précision consiste à collecter toujours plus de données, d&rsquo;une manière toujours plus précise donc trop souvent toujours plus invasive. Gommer pour neutraliser consiste par exemple à enlever le terme gorille des possibilités d&rsquo;étiquetage des images de Google, même pour celles qui montrent véritablement des gorilles. Enfin, mieux refléter la démographie consiste à appliquer des corrections statistiques pour qu&rsquo;elles soient plus représentatives… Mais comme la chercheuse l&rsquo;a montré, les biais sont partout et profondément intriqués dans les données. Derrière ces corrections statistiques imparfaites, il est nécessaire de poser des questions plus larges et plus profondes. Quelle idée de neutralité est à l&rsquo;oeuvre ici ? De quelle neutralité veut-on parler ? Comment compenser les inégalités ? Certes on peut corriger le manque de diversité, mais comment, sur quels critères, selon quelle représentation, avec quelle correction ? Si on reprend le jeu des 13 000 images utilisées précédemment, on peut certes y ajouter un peu de diversité… mais combien ? Qui décide de qui doit être représenté dans cette base ? Dans quelle proportion ? Si on ajoute des femmes présidentes d&rsquo;entreprise dans ces bases, à quelle proportion faut-il le faire ? Faut-il que le système se base au niveau &#8211; bien bas &#8211; du nombre de femmes présidentes d&rsquo;entreprises actuel ? Ou au contraire y projeter un modèle idéal de société où les femmes et les hommes pourraient être représentés comme présidents d&rsquo;entreprises à parts égales ?&#8230; Ce simple choix projeté dans les boucles de ces systèmes devient très vite éminemment politique ! <em>« La parité n&rsquo;est pas la justice »</em>, explique Kate Crawford, en tout cas n&rsquo;est pas suffisante pour l&rsquo;imposer. Beaucoup d&rsquo;articles de recherche actuellement tentent de mettre au point des outils d&rsquo;évaluation des risques algorithmiques afin de les rendre plus équitables, notamment dans le secteur de la prédiction du crime ou de la justice prédictive. L&rsquo;enjeu par exemple est de traiter de la même façon les populations criminelles, quelle que soit leur couleur de peau. Mais cette parité est-elle pour autant plus juste, alors que ces populations ne sont pas arrêtées de la même façon ? Pour l&rsquo;instant, nous n&rsquo;avons pas de procédures fiables pour améliorer ces systèmes décisionnels correctement… La correction « technique » de ces systèmes &#8211; présentée comme neutre et objective &#8211; risque surtout de refermer les débats et l&rsquo;intérêt actuel à regarder concrètement comment ils fonctionnent et les problèmes qu&rsquo;ils posent, s&rsquo;inquiète la chercheuse, et les éloigner de la scène du débat politique que nous devons avoir. Cette correction n&rsquo;est ni  « technique », ni un problème d&rsquo;ingénieur ! Elle porte des enjeux politiques considérables ! </p>
<p><a href="https://asset.lemde.fr/prd-blogs/2019/10/9134d5c4-labeledimageinimagenet.png"><img src="https://asset.lemde.fr/prd-blogs/2019/10/9134d5c4-labeledimageinimagenet.png" alt="Exemple d'image étiquetée d'un loser dans ImageNet" title="Exemple d'image étiquetée d'un loser dans ImageNet" width="300" class="alignleft size-full wp-image-2788" /></a>Alors qu&rsquo;elle ne l&rsquo;évoquait pas sur la scène de l&rsquo;ENS, signalons que Kate Crawford et l&rsquo;artiste <a href="https://www.paglen.com/">Trevor Paglen</a> (<a href="https://twitter.com/trevorpaglen">@trevorpaglen</a>) viennent de lancer un projet provocateur, <a href="https://imagenet-roulette.paglen.com/">ImageNet Roulette</a>, qui utilise un réseau de neurones entraîné sur les catégories utilisées pour décrire des images de personnes de la base de données <a href="http://image-net.org/">ImageNet</a>, très utilisée pour l&rsquo;entraînement des systèmes. ImageNet Roulette propose aux gens d&rsquo;y télécharger un portrait et de voir les étiquettes que lui attribue l&rsquo;IA. Très souvent, ces étiquettes se révèlent particulièrement cruelles, misogynes ou racistes… Un moyen pour montrer, simplement et concrètement, les problèmes que soulève l&rsquo;IA. <a href="https://www.excavating.ai/">L&rsquo;essai</a> qui accompagne le projet et l&rsquo;exposition associée, détaille très concrètement lui aussi les limites des jeux d&rsquo;entraînements que l&rsquo;on fournit aux machines, la complexité de leur étiquetage, qu&rsquo;il soit humain ou auto-apprenant. </p>
<p><em>« Quand on optimise un système par nature discriminatoire, qu&rsquo;optimise-t-on ? »</em> Kate Crawford pointe une autre étude, <a href="http://gendershades.org/">« Les nuances du genre »</a> (<a href="https://www.wired.com/story/photo-algorithms-id-white-men-fineblack-women-not-so-much/">voir l&rsquo;article de <em>Wired</em></a>) qui a testé plusieurs systèmes de reconnaissance faciale pour montrer qu&rsquo;ils reconnaissent mieux les hommes que les femmes, quels que soient la couleur de peau, mais qu&rsquo;ils ont des performances bien moindres avec les femmes que les hommes, et encore bien moindre pour les femmes qui ont les peaux les plus sombres ! <em>« Ce sont toujours les mêmes groupes sociaux qui demeurent, dans la société, comme vue au travers des systèmes techniques, assujettis à l&rsquo;injustice, à la surveillance, à la pauvreté »</em> (<a href="http://www.internetactu.net/2018/01/15/de-lautomatisation-des-inegalites/">c&rsquo;est que disait également la chercheuse Virginia Eubanks dans son livre, <em>Automatiser les inégalités</em></a>). </p>
<p>Les entreprises de la tech se veulent rassurantes. Pour elles, nous pouvons réparer ce problème, il suffit d&rsquo;élargir les jeux de données pour le corriger ! Mais cela signifie collecter toujours plus d&rsquo;images, notamment des groupes minoritaires.Des groupes qui sont déjà les plus exposés à la surveillance, au contrôle, aux procédures d&rsquo;expulsion… En élargissant les jeux de données, nous risquons surtout de rendre les populations les plus fragiles plus faciles à contrôler et à surveiller ! <em>« Une surveillance égalitaire n&rsquo;est pas l&rsquo;égalité ! »</em> Au contraire ! Le risque est de développer des atteintes encore plus disproportionnées qu&rsquo;elles ne sont aux groupes les plus minoritaires et les plus fragiles ! Ces systèmes sont <em>« dangereux quand ils échouent, nocifs quand ils fonctionnent »</em>. <em>« Améliorer un système injuste ne peut que créer un plus grand préjudice »</em>. <a href="https://www.nature.com/articles/d41586-019-02514-7">Dans <em>Nature</em></a>, la chercheuse a appelé à un moratoire sur les technologies de reconnaissance faciale ! Le président de <a href="https://www.kairos.com/">Kairos</a>, un spécialiste des services de reconnaissance faciale <a href="https://gizmodo.com/face-recognition-ceo-says-use-of-this-tech-by-police-is-1827103296">a annoncé</a> vouloir arrêter de vendre ses services à la police&#8230; Nos données reflètent la complexité et l’injustice de nos systèmes, rappelle Crawford. Pour répondre à ces problèmes, nous devons augmenter les garanties et les garde-fous pour les plus vulnérables. Automatiser la société ne la rend pas plus juste. Il faut aussi regarder plus largement comment et pour qui un système est utilisé. À qui donne-t-il du pouvoir ? Pour Crawford, il est nécessaire pour les concepteurs de systèmes de se poser des questions (<a href="https://medium.com/@AINowInstitute/after-a-year-of-tech-scandals-our-10-recommendations-for-ai-95b3b2c5e5">à l&rsquo;image de celles qu&rsquo;adressent le dernier rapport le dernier rapport de l&rsquo;AI Now Institute</a> : votre outil donne-t-il plus de pouvoir aux plus puissants ? Si c&rsquo;est le cas, il va approfondir les inégalités. </p>
<h2>Le pouvoir (et le risque) de classer</h2>
<p>Par nature, l&rsquo;IA classe, segmente et regroupe. C&rsquo;est une fonctionnalité, pas un bug. Or, la classification a toujours été une forme de pouvoir. La classification produit un préjudice encore plus fort que les biais. La chercheuse rappelle alors rapidement l&rsquo;histoire de la classification scientifique. Elle évoque notamment <a href="https://fr.wikipedia.org/wiki/Phr%C3%A9nologie">la phrénologie</a>, cette pseudoscience qui espérait déterminer l&rsquo;intelligence ou la criminalité depuis des caractéristiques morphologiques (voir <a href="http://www.internetactu.net/a-lire-ailleurs/112768514361/">« Les Big Data sont-elles la nouvelle phrénologie ? »</a>). Pour cette pseudoscience, les caractéristiques les plus accablantes étaient réservées aux femmes et aux étrangers. L&rsquo;enjeu de ces formes de classements était déjà d&rsquo;affirmer la puissance des puissants. </p>
<p>L&rsquo;accélération de la classification apparaît à la fin du XIXe siècle. Quand un employé du bureau du recensement américain, <a href="https://fr.wikipedia.org/wiki/Herman_Hollerith">Herman Hollerith</a>, invente la <a href="https://fr.wikipedia.org/wiki/M%C3%A9canographie">mécanographie</a>, une machine statistique fonctionnant à partir de cartes perforées. Inspiré par un poinçonneur de tickets de Tram, Hollerith va mécaniser la lecture des fiches de recensement pour en accélérer le traitement. Il quittera l&rsquo;administration pour créer sa société qui deviendra en 1917, l&rsquo;International Business Machine Corporation, plus connue depuis sous le nom d&rsquo;IBM. En 1934, une filiale allemande d&rsquo;IBM va fournir ce type de solutions au régime nazi qui va s&rsquo;en servir pour tenir des registres raciaux de la population. </p>
<p>La science de la classification a toujours flirté et attiré la discrimination et le racisme, rappelle la chercheuse. En 2016, deux chercheurs de l&rsquo;université de Shanghai, Xiaolin Wu et Xi Zhang, ont publié lors d&rsquo;une conférence sur le Machine Learning un article où ils affirmaient pouvoir prédire depuis une simple photo de visage si une personne allait devenir un criminel. Naïvement, ils ont affirmé que leur étude était dénuée de biais. Pour la mener, ils ont utilisé une base de donnée de criminels du gouvernement chinois et de l&rsquo;autre une base de données de photos de conducteurs de taxis… Or, <a href="https://callingbullshit.org/case_studies/case_study_criminal_machine_learning.html">les différences de traits du visage qu&rsquo;ils ont mis à jour n&rsquo;en étaient pas</a>. Ils ont confondu les traits du visage et les expressions du visage. Il n&rsquo;y avait pas de différences dans la structure faciale entre les criminels et ceux qui ne l&rsquo;étaient pas, mais une différence d&rsquo;expression : sur les photographies des services de police, les criminels ne souriaient jamais ! Crawford évoque un autre exemple, tiré des travaux du psychologue <a href="https://www.michalkosinski.com/">Michal Kosinski</a> (<a href="https://twitter.com/michalkosinski">@michalkosinski</a>), l&rsquo;étude dite Gaydar, du nom de l&rsquo;application de rencontre dont les photos ont été extraites… Cette étude a utilisé des réseaux de neurones pour détecter des caractéristiques de milliers de visages permettant de prédire l&rsquo;orientation sexuelle de quelqu&rsquo;un depuis ses traits de visages. Pour Crawford, cette étude pose de nombreuses questions méthodologiques et éthiques, notamment quand on considère que le fait d&rsquo;être gay est une pratique criminalisée par quelque 78 pays à travers le monde et pour certains, punis de la peine de mort (même si l&rsquo;objection éthique de Crawford est juste, l&rsquo;étude de Kosinski est plus ambigüe que cela comme le montrent <a href="https://callingbullshit.org/case_studies/case_study_ml_sexual_orientation.html">les explications de Carl Bergstrom et Jevin West de l&rsquo;excellent Calling Bullshit</a> ou, en français, <a href="https://www.cairn.info/revue-reseaux-2018-5-page-137.htm?contenu=article">l&rsquo;article de déconstruction de l&rsquo;ambiguïté de l&rsquo;alerte</a> de Nicolas Baya-Laffite, Boris Beaude et Jérémie Garrigues pour la revue <em>Réseaux</em>). Pour Crawford, quand l&rsquo;IA cherche à catégoriser les gens sur le genre, la race ou l&rsquo;identité sexuelle, depuis leur visage, elle fait une erreur conceptuelle et pratique la confusion des catégories, en pensant que ces classements sont des objets fixes, comme le sont une table ou une chaise. Kosinski a justifié son article en expliquant qu&rsquo;il était important de montrer aux gens que ce type de classements pouvait être accompli. Mais pour Kate Crawford, nous avons une obligation éthique à ne pas faire des choses scientifiquement contestables, capables de causer de sérieux préjudices et marginaliser plus encore les gens marginalisés. <em>« Ce n&rsquo;est pas parce qu&rsquo;on peut fabriquer quelque chose qu&rsquo;on doit le faire »</em>. Il n&rsquo;est pas indifférent que la possibilité de détecter le crime ou l&rsquo;homosexualité se produise au moment où le populisme et l&rsquo;autoritarisme se développent, insiste la chercheuse. Beaucoup de gens souhaitent des systèmes de pouvoir et de contrôle qui n&rsquo;aient de comptes à rendre à personne. Le sociologue <a href="https://fr.wikipedia.org/wiki/Stuart_Hall_(sociologue)">Stuart Hall</a> &#8211; tout comme Michel Foucault &#8211; affirmait que les <em>« systèmes de classification sont en eux-mêmes des objets de pouvoir »</em>. Toute classification dépend d&rsquo;une abstraction, qui vise à mettre certaines choses en avant et à en rendre d&rsquo;autres silencieuses. Qu&rsquo;est-ce qui est accentué, optimisé ? Qu&rsquo;est-ce qui est rendu silencieux ? Nous avons le devoir de ne pas reproduire les erreurs du passé !</p>
<h2>Géopolitique de l&rsquo;IA : articuler la Justice et l&rsquo;IA</h2>
<p>Aujourd&rsquo;hui, le monde entier s&rsquo;intéresse aux « superpouvoirs » de l&rsquo;IA, glisse la chercheuse en faisant une référence implicite au best-seller de Kai-Fu Lee (voir <a href="http://www.internetactu.net/2019/09/16/lintelligence-artificielle-chinoise-un-modele/">« L&rsquo;intelligence artificielle chinoise, un modèle ? »</a>). De partout, le risque est que l&rsquo;IA, parce qu&rsquo;elle est un système de contrôle et de pouvoir, change la démocratie. C&rsquo;est évident pour nous, occidentaux, quand on regarde le crédit social chinois, qui très concrètement proscrit certains individus, à l&rsquo;image <a href="https://www.theguardian.com/world/2019/mar/01/china-bans-23m-discredited-citizens-from-buying-travel-tickets-social-credit-system">des 23 millions de Chinois qui sont interdits de se déplacer</a>. Mais la Chine n&rsquo;est pas le seul vilain petit canard de l&rsquo;IA. L&rsquo;analyse de sentiments par exemple, pose d&rsquo;innombrables problèmes, à l&rsquo;image de ceux montrés par le scandale Cambridge Analytica ou de <a href="https://www.hirevue.com/">HireVue</a>, un système d&rsquo;entretien d&#8217;embauche en vidéo qui calcule de votre prestation un profil psychographique. Le problème ne concerne pas seulement le secteur privé, mais également le secteur public, à l&rsquo;image de l&rsquo;Agence de police douanière et de contrôle des frontières américaine qui utilise un système de prévision du risque des migrants arrêté <a href="https://www.reuters.com/investigates/special-report/usa-immigration-court/">qui a fait tripler la détention des immigrants</a> notamment <a href="https://theintercept.com/2017/03/02/palantir-provides-the-engine-for-donald-trumps-deportation-machine/">par l&rsquo;interconnexion de bases de données</a>. Le nouvel algorithme mis en place en 2017 recommande désormais la détention dans 100% des cas ! <em>« C&rsquo;est un outil prédictif qui n&rsquo;apporte qu&rsquo;une réponse »</em>. Des milliers d&rsquo;agents ont accès aux données du système et peuvent les manipuler, par exemple en faisant disparaître les informations permettant de relier des enfants à leurs parents ! Et Crawford d&rsquo;ironiser : comment la parité et l&rsquo;équité fonctionnent-elles dans de tels systèmes où des gens à la peau sombre sont facilement identifiés par des gens à la peau blanche qui ne les aideront pas ! Pour la chercheuse, nous touchons là des enjeux majeurs liés aux droits de l&rsquo;homme, à la responsabilité et aux procédures équitables. La philosophe Hannah Arendt rappelait que ce qui hantait le plus sa génération après le procès de Nuremberg était de comprendre comment cela avait pu arriver ! Et comment avons-nous pu laisser cela arriver ! Elle constatait déjà que la seule chose qui a pu limiter la montée des dérives totalitaires a été de s&rsquo;opposer à leurs technologies. En 1968, la philosophe nous prévenait déjà :<em>« Le rêve de la police est qu&rsquo;une carte gigantesque sur les murs de leurs bureaux suffise pour établir à chaque moment qui est en relation avec qui et selon quel niveau d&rsquo;intimité… »</em> Ce cauchemar ne paraît plus irréalisable aujourd&rsquo;hui, sa réalisation technique est juste difficile. Pour Crawford, nous avons là une description du danger que nous courons. </p>
<p>Nous avons pourtant déjà répondu à des défis et des dangers de ce type. En matière de risque nucléaire ou de génie génétique par exemple, nous avons tenté d&rsquo;établir des règles et des garde-fous, estime avec beaucoup d&rsquo;optimisme la chercheuse. La communauté scientifique doit travailler à comprendre les implications sociales de l&rsquo;IA, notamment son potentiel à accélérer les inégalités. Pour cela, nous avons besoin d&rsquo;éthique, estime la chercheuse. Les ingénieurs qui développent ces systèmes ont une grande responsabilité, car les systèmes sur lesquels ils travaillent impactent non seulement des millions de personnes, mais également les générations futures. </p>
<p>L&rsquo;éthique n&rsquo;est pourtant pas une solution toute faite qu&rsquo;il suffirait d&rsquo;appliquer. Elle interroge comment faire pour que les formes de gouvernance rendent clairement et publiquement des comptes à ceux qu&rsquo;elles gouvernent. Mais pour Kate Crawford, nous avons surtout besoin d&rsquo;articuler la question de la justice et de l&rsquo;IA. Pour elle, l&rsquo;enjeu tient plus de la justice que de l&rsquo;équité. D&rsquo;une justice économique, politique, sociale, environnementale… Il nous faut trouver les moyens pour que ces systèmes automatisés rendent compte de leurs fonctionnements, de leurs actions… Et cela passe nécessairement par le développement de contrôles, de réglementations et de législations. Mais également par les actions individuelles comme collectives que nous menons… Et Kate Crawford de rappeler le rôle de l&rsquo;ingénieur du recensement français, <a href="https://fr.wikipedia.org/wiki/Ren%C3%A9_Carmille">René Camille</a>, qui a oeuvré contre la machine à identifier les juifs du régime nazi. Chaque ingénieur a un moyen d&rsquo;utiliser son pouvoir de manière éthique… Pour la chercheuse, nous devons utiliser ce moment critique des technologies qui se fait jour. Souvenons-nous des dangers de l&rsquo;histoire de la classification, conclut-elle. Et travaillons à nous assurer que nous construisons un monde où chacun pourra vivre. </p>
<p>Après son intervention, Kate Crawford a répondu à quelques questions du public. Pour identifier les biais, interroge une personne, encore faut-il pouvoir les repérer… Beaucoup de données par exemple ne comportent pas d&rsquo;information sur l&rsquo;origine ethnique des gens. Pour pouvoir corriger cette question, le risque n&rsquo;est-il pas qu&rsquo;on soit toujours plus invasifs à l&rsquo;encontre de la vie privée ? Et Kate Crawford d&rsquo;appuyer : à nouveau, même en récoltant des données plus précises, la question demeure de comment les rendre neutres, comment corriger concrètement les résultats ? Bien souvent par exemple, les données raciales sont d&rsquo;une grande généralité : aux États-Unis, nous avons le plus souvent 4 catégories : noir, blanc, asiatique et autres ! Qui est rangé dans quoi ? Qu&rsquo;est-ce que ces catégories reflètent ?</p>
<p>Faut-il bannir l&rsquo;IA dans certains secteurs et si oui, lesquels ? Comment estimer le risque dans l&rsquo;innovation ?, interroge un autre participant. Il y a 3 ans, personne n&rsquo;envisageait de bannir la reconnaissance faciale… Et regardez maintenant l&rsquo;évolution de cette question, notamment en Californie et à San Francisco ! Ça bouge vite. Personnellement, je pense qu&rsquo;il nous faut des moratoires dans certains secteurs, soutient la chercheuse. Dans le monde de la médecine ou de la pharmacie, on ne laisse pas faire n&rsquo;importe quoi aux industriels… Cela suppose bien sûr de comprendre les risques, ce qui n&rsquo;est pas toujours si simple. La qualité des discussions autour de ces enjeux, tant du côté des politiques que du grand public a beaucoup progressé, même si les enjeux sont complexes. Cela demande beaucoup de courage et de pression du public pour contrer la puissance des grandes entreprises du secteur à imposer leur agenda ! </p>
<p>Si l&rsquo;IA est biaisée, les gens portent également leurs propres biais… Entre les biais d&rsquo;un recruteur humain et les biais d&rsquo;un recruteur automatique, qui pourrait être le plus objectif ? Peut-on rendre l&rsquo;IA meilleure que les hommes ?, interroge une autre personne. Ce n&rsquo;est pas parce que le monde est biaisé que nous devons en ajouter une couche, rétorque Kate Crawford. Certes, le jugement des juges est biaisé, mais ils fonctionnent dans un système où leurs pouvoirs sont contrebalancés. Leurs décisions doivent être motivées. Il y a des garde-fous et des garanties institutionnelles, des procédures, des recours … Dans le domaine des décisions automatisées, nous devons développer des procédures et des garanties également ! </p>
<p>Répondant à une autre question sur la collecte de données personnelles toujours plus invasive, la chercheuse souligne que les assistants vocaux par exemple, pour fonctionner, ont besoin de toujours plus de données spécifiques et contextualisées. <em>« Nous sommes dans une course à l&rsquo;extraction de données et c&rsquo;est cette culture qu&rsquo;il faut changer ! »</em> Ces systèmes ne sont pas soutenables et il nous faut des modèles qui utilisent le moins de données possible ! </p>
<p>Hubert Guillaud</p>
<div class="wp-socializer wpsr-buttons wpsr-row-1"><div class="wpsr-btn wpsr-srvc-facebook wpsr-btn-fb_hl"><div class="fb-like" data-href="https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" data-width="" data-layout="button_count" data-action="like" data-show-faces="false" data-share="false" data-size="small"></div></div><div class="wpsr-btn wpsr-srvc-google_plus wpsr-btn-gp_hl"></div><div class="wpsr-btn wpsr-srvc-twitter wpsr-btn-twitter_hl"><a href="https://twitter.com/share" class="twitter-share-button" data-show-count="false" data-related="" data-url="https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" data-size="small" data-via="" data-hashtags="">Tweet</a></div><div class="wpsr-btn wpsr-srvc-linkedin wpsr-btn-linkedin_hl"><script type="IN/Share" data-url="https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" data-counter="right"></script></div><div class="wpsr-btn wpsr-srvc-pocket wpsr-btn-pocket_hl"><a data-pocket-label="pocket" data-pocket-count="horizontal" class="pocket-btn" data-save-url="https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/" data-lang="en">Pocket</a><script type="text/javascript">!function(d,i){if(!d.getElementById(i)){var j=d.createElement("script");j.id=i;j.src="https://widgets.getpocket.com/v1/j/btn.js?v=1";var w=d.getElementById(i);d.body.appendChild(j);}}(document,"pocket-btn-js");</script></div></div>]]></content:encoded>
							<wfw:commentRss>https://www.lemonde.fr/blog/internetactu/2019/10/03/kate-crawford-les-biais-sont-devenus-le-materiel-brut-de-lia/feed/</wfw:commentRss>
		<slash:comments>44</slash:comments>
						<post-id xmlns="com-wordpress:feed-additions:1">2782</post-id>	</item>
	</channel>
</rss>
