Skip to main content
logo
Lancer la vidéo

Algorithmocratie. L’économie numérique, un nouvel obscurantisme fondé sur la recherche de l’efficacité ?

Numéro 4 - 2017 par Olivier Derruine

mai 2017

L’essor de l’économie numé­rique repose sur les pro­grès de l’informatique qui per­mettent de col­lec­ter un volume incom­men­su­rable de don­nées et de les trai­ter grâce à des capa­ci­tés de cal­cul sans cesse accrues. « En 2013, il y aurait eu envi­ron 1.200 exa­oc­tets d’informations sto­ckées dans le monde, dont moins de 2 % sous forme non numé­rique. Il est extrêmement […]

Dossier

L’essor de l’économie numé­rique repose sur les pro­grès de l’informatique qui per­mettent de col­lec­ter un volume incom­men­su­rable de don­nées et de les trai­ter grâce à des capa­ci­tés de cal­cul sans cesse accrues. « En 2013, il y aurait eu envi­ron 1.200 exa­oc­tets d’informations sto­ckées dans le monde, dont moins de 2 % sous forme non numé­rique. Il est extrê­me­ment dif­fi­cile de se faire une repré­sen­ta­tion claire d’un tel volume de don­nées. Seraient-elles sous forme de livres impri­més qu’elles cou­vri­raient la super­fi­cie totale des États-Unis sur cin­quante-deux strates d’épaisseur. Sous forme de CD-ROM empi­lés, elles s’étireraient jusqu’à la lune en cinq piles sépa­rées. […] La crois­sance de la quan­ti­té d’informations sto­ckées est quatre fois plus rapide que celle de l’économie mon­diale, et la puis­sance de cal­cul des ordi­na­teurs va neuf fois plus vite1. »

Le trai­te­ment et l’analyse de don­nées sont ren­dus pos­sibles grâce au recours à des algo­rithmes tou­jours plus com­plexes. Un algo­rithme consiste en une série ordon­née d’opérations ou d’instructions qui mène à la réso­lu­tion d’un pro­blème. Les algo­rithmes ont pro­li­fé­ré en l’espace de quelques années : ils sont au cœur des moteurs de recherche, des réseaux sociaux, des sites de ren­contre, des sys­tèmes de fonc­tion­ne­ment des véhi­cules sans conduc­teurs, des robots indus­triels, des pla­te­formes qui mettent en rela­tion des pres­ta­taires de ser­vices et des clients poten­tiels, les modèles de pro­jec­tion des cours bour­siers et d’autres indi­ca­teurs éco­no­miques, les achats d’actifs finan­ciers (le tra­ding à haute fré­quence per­met­tant d’effectuer des tran­sac­tions à la vitesse de la nano­se­conde), la recom­man­da­tion de pro­duits, la recon­nais­sance de la parole ou de signes bio­mé­triques, le diag­nos­tic médi­cal, la détec­tion de fraude, etc.

Le degré de sophis­ti­ca­tion des algo­rithmes est deve­nu tel que pour reprendre l’expression d’Yves Caseau, « on fait croitre les algo­rithmes plus qu’on ne les écrit (« sys­tems that are grown, not desi­gned »). […] La sépa­ra­tion entre les para­mètres de l’algorithme et les cor­pus de don­nées qu’il traite n’existe plus2. » À par­tir du moment où l’algorithme est conçu, il fonc­tionne de manière auto­nome, ne requé­rant plus d’intervention humaine puisqu’il se per­fec­tionne lui-même en s’ajustant en fonc­tion des don­nées reçues3.

Or, parce qu’il s’affute lui-même en fonc­tion des don­nées qu’il ingère (par exemple, les recherches anté­rieures d’un inter­naute, sa loca­li­sa­tion), « un algo­rithme opaque et fer­mé n’autorise pas la repro­duc­ti­bi­li­té des résul­tats, il ne peut donc pas être régu­lé. Cela rend l’évaluation de sa fia­bi­li­té encore plus dif­fi­cile4 ». En France, l’Institut natio­nal de recherche en infor­ma­tique et en auto­ma­tique (Inria) a été char­gé en décembre 2016 de conce­voir une plate-forme appe­lée Trans­Al­go pour la trans­pa­rence et la res­pon­sa­bi­li­té des algo­rithmes et des don­nées dans le cadre de la loi pour une Répu­blique numé­rique. L’Inria fait office de pion­nier dans le domaine et sa réa­li­sa­tion est regar­dée avec beau­coup d’intérêt par d’autres pays et orga­ni­sa­tions de défense des consom­ma­teurs et des usa­gers d’internet.

L’objectif de Trans­Al­go est de détec­ter les biais éven­tuels dans les algo­rithmes pré­sents sur les sites inter­net. Ces biais peuvent être moti­vés par le fait que les algo­rithmes peuvent dis­cri­mi­ner les inter­nautes ou subor­don­ner leurs inté­rêts propres à celui d’entreprises, comme lorsqu’un site de dépla­ce­ment cal­cule un iti­né­raire qui n’est ni le plus court ni le plus rapide, mais qui fait pas­ser l’internaute devant une enseigne com­mer­ciale.

La pla­te­forme qui est le fruit d’une équipe plu­ri­dis­ci­pli­naire réunis­sant des scien­ti­fiques, des mathé­ma­ti­ciens, des infor­ma­ti­ciens, mais aus­si des socio­logues, des éco­no­mistes et des juristes s’adressera au grand public et lui four­ni­ra des outils télé­char­geables de test des algo­rithmes et des forums de dis­cus­sion où les usa­gers pour­ront échan­ger leurs expériences.

L’illusion de la connaissance ?

Outre ce type de biais, « le big data tend à pri­vi­lé­gier le “quoi” plu­tôt que le “pour­quoi”. […] L’important n’est pas tant d’expliquer un phé­no­mène, mais d’être capable de l’identifier et de le pré­dire5 ». C’est ain­si que, exci­tés par les nou­velles oppor­tu­ni­tés offertes par le big data, cer­tains semblent perdre de vue ce que cela signi­fie concrè­te­ment : « Dans un monde de big data, fini l’obsession de la cau­sa­li­té » comme s’il s’agissait d’une tare, d’une addic­tion hon­teuse. « La plu­part de nos ins­ti­tu­tions voient leur créa­tion repo­ser sur l’idée que le fon­de­ment des déci­sions humaines tient à un petit nombre d’informations exactes et de nature cau­sale. Tout change quand les don­nées deviennent mas­sives, peuvent être trai­tées avec rapi­di­té et ont une cer­taine tolé­rance à l’inexactitude. Les déci­sions peuvent alors être prises par des machines et non plus par des êtres humains. […] [Dans les sciences sociales] l’analyse des big data va main­te­nant rem­pla­cer les per­sonnes qui étaient hau­te­ment qua­li­fiées en matière d’enquêtes. Les dis­ci­plines des sciences sociales repo­saient en effet lar­ge­ment sur les études d’échantillonnage et les ques­tion­naires. Mais quand les don­nées peuvent être mas­si­ve­ment col­lec­tées auprès de gens menant leurs acti­vi­tés habi­tuelles, les anciens biais asso­ciés à l’échantillonnage et aux ques­tion­naires par­ti­cu­liers disparaissent. »

C’est ain­si que la socié­té de la connais­sance qui se pro­file risque bien d’être la socié­té de l’absence de réflexion et d’autocritique dont toute démo­cra­tie saine et ouverte sur le monde se nour­rit ! Au contraire, alors que l’humanité n’a jamais eu accès à autant de connais­sances, elle semble en réa­li­té se lais­ser duper par cette nou­velle idole que serait le big data. C’est un véri­table culte qu’un nombre crois­sant de fidèles voue au dieu algo­rithme dans le sens où le culte se défi­nit comme « un ensemble de pra­tiques d’hommage ou de véné­ra­tion ren­du par un groupe à une divi­ni­té, à un être mythique ou réel, à un inani­mé ou à un phé­no­mène à qui ce groupe recon­nait une dimen­sion de supé­rio­ri­té, d’excellence ou de sacré. »

Le dan­ger est que l’emprise crois­sante des algo­rithmes sur nos vies et nos déci­sions et la sen­sa­tion gri­sante d’approcher tou­jours plus du Graal qu’est la connais­sance abso­lue nous empêchent de pro­cé­der à une cri­tique en règles des algo­rithmes. C’est d’autant plus vrai qu’ils par­ti­cipent bien à cet état de satis­fac­tion des indi­vi­dus tout en les enfer­mant dans leur propre monde6. Dans un monde de plus en plus com­plexe et rapide où tout semble inter­re­lié et où les repères des uns et des autres s’estompent, les indi­vi­dus sont prêts à adop­ter et à défendre tout ce qui pour­rait leur pro­cu­rer un sen­ti­ment de récon­fort. Or, les algo­rithmes uti­li­sés par les moteurs de recherche et les réseaux sociaux tendent à confi­ner les uti­li­sa­teurs dans une « bulle cog­ni­tive » ou « bulle fil­trante ». Ils sont para­mé­trés de manière à pré­sen­ter aux inter­nautes les résul­tats (articles, sites, per­sonnes…) qui sont le plus de nature à être en phase avec leur per­son­na­li­té, leur vision du monde les­quelles sont caté­go­ri­sées à par­tir de l’analyse par ledit algo­rithme de traces qu’ils ont lais­sées au gré de leurs navi­ga­tions anté­rieures, de leur géo­lo­ca­li­sa­tion, de la fré­quence et des choix des clics, des publi­ci­tés regar­dées, des achats effec­tués, etc.

De la sorte, selon Katha­ri­na Viner, rédac­trice en chef du Guar­dian, nous avons « moins de chances d’être expo­sés à une infor­ma­tion qui nous sti­mu­le­rait ou élar­gi­rait notre vision du monde, et donc moins de chances de tom­ber sur des faits qui réfu­te­raient des infor­ma­tions par­ta­gées par d’autres ». Ain­si, petit à petit « les filtres de per­son­na­li­sa­tion servent une sorte d’autopropagande invi­sible : nous endoc­tri­ner avec nos propres idées, ampli­fier nos dési­rs pour des choses fami­lières et nous lais­sant incons­cients des dan­gers cachés des ter­ri­toires incon­nus ». Ceci est d’autant plus pré­oc­cu­pant que beau­coup d’internautes s’informent — ou se dés­in­forment ! — en se ren­dant sur les réseaux sociaux. « Cet iso­la­tion­nisme intel­lec­tuel et cultu­rel [génère] une étroi­tesse d’esprit, mais aus­si une absence de confron­ta­tion d’idées pré­ju­di­ciable à la vie civique. » Dès lors, c’est un jeu d’enfants pour les troles, les per­sonnes et les orga­ni­sa­tions mal­veillantes de faire cir­cu­ler les fausses infor­ma­tions et de par­ve­nir à les dra­per d’un sta­tut de « fait objec­tif »7. Pen­sons à la manière dont Daech ou les sym­pa­thi­sants de Trump ou de Le Pen uti­lisent les réseaux sociaux pour mobi­li­ser, sans même par­ler des fake news véhi­cu­lées depuis la Rus­sie8.

Comme le sou­ligne Renaud Maes dans sa contri­bu­tion au pré­sent dos­sier, le pro­ces­sus de « bulle fil­trante » a aus­si pour effet de nor­ma­li­ser les com­por­te­ments indi­vi­duels et jusqu’à l’image que les uti­li­sa­teurs d’applications connec­tées ont d’eux-mêmes. Il sug­gère en par­ti­cu­lier, en pre­nant pour exemple Tin­der et Free­le­tics que les usa­gers peuvent pro­gres­si­ve­ment se retrou­ver alié­nés dans un pro­jet de construc­tion d’eux-mêmes qui est par­fai­te­ment com­pa­tible avec le cadre idéo­lo­gique sous-jacent au néolibéralisme.

Le savoir, c’est le pouvoir (économique et politique)

De l’autre côté de l’écran et des fils, les Gafa (acro­nyme dési­gnant Google, Apple, Face­book et Ama­zon) et leurs émules du numé­rique tirent de plan­tu­reux pro­fits de ces évo­lu­tions en rai­son du gigan­tesque volume de don­nées9. Ces don­nées consti­tuent une mine d’or pour qui les détient et sait les étu­dier pour en extraire toute leur valeur. À titre d’exemple, en rap­por­tant le nombre de likes et autres conte­nus moné­ti­sables (comme les clics sur des publi­ci­tés, des par­tages, etc.) à la valo­ri­sa­tion de Face­book au moment de son intro­duc­tion en Bourse, un bureau d’études de mar­chés valo­ri­sa chaque « like » et autre conte­nu moné­ti­sable à cinq cen­times de dol­lar envi­ron. Il en résul­ta donc que chaque uti­li­sa­teur pré­sen­tait pour Face­book une valeur d’une cen­taine de dol­lars10.

Actuel­le­ment, la plu­part de ces don­nées ne sont pas exploi­tées par manque de conscience de la valeur cachée ou faute de connais­sances ou de moyens tech­niques… Cer­tains pré­tendent que seule­ment 1% de celles-ci serait réel­le­ment uti­li­sé à sa juste valeur.

Antoine Del­forge traite dans ce dos­sier de l’importante ques­tion des droits des indi­vi­dus et de la pro­tec­tion de leurs don­nées. Il aborde notam­ment le nou­veau règle­ment euro­péen qui sera d’application d’ici quelques mois et la ques­tion des rela­tions avec les États-Unis qui demeure épi­neuse en rai­son de la domi­na­tion des Gafa, Micro­soft et Twit­ter pour n’en citer que quelques-uns. Les don­nées per­son­nelles sont d’ailleurs une fameuse pierre d’achoppement pour les euro­dé­pu­tés dans l’examen des accords du TTIP, actuel­le­ment au point mort. Tout récem­ment, en avril, les euro­dé­pu­tés ont adop­té une réso­lu­tion dans laquelle ils ont mis en évi­dence « des lacunes qu’il faut com­bler de façon urgente afin de garan­tir une cer­ti­tude juri­dique à tous les citoyens et les entre­prises qui dépendent de cet accord », que le TTIP soit aban­don­né ou non.

Les États-Unis sont en effet plus per­mis­sifs que l’Europe dans l’utilisation des don­nées per­son­nelles et il n’y a pas que les grands groupes pri­vés qui y trouvent leur compte. Le big data s’est d’ailleurs dis­crè­te­ment immis­cé au centre de l’institution essen­tielle à toute démo­cra­tie : le pro­ces­sus élec­to­ral. Les cam­pagnes élec­to­rales ont pris aux États-Unis une autre tour­nure depuis celle menée en 2008 par Barack Oba­ma qui avait pris conscience de l’avantage que les réseaux sociaux lui offri­raient sur son oppo­sant. Si le démo­crate uti­li­sa son réseau social pour orga­ni­ser sa cam­pagne et mobi­li­ser effi­ca­ce­ment ses mili­tants, c’est en 2012 qu’Obama confé­ra à cet outil une nou­velle dimen­sion : « Oba­ma va faire de son usage du web et des réseaux sociaux la véri­table colonne ver­té­brale de sa cam­pagne, un usage tour­né vers l’extérieur, qui sera déter­mi­nant dans ses dépla­ce­ments, dans ses dis­cours et leurs ciblages, ain­si que dans les nou­velles manières d’utiliser les fameuses don­nées. Il uti­li­se­ra, par exemple, pour la pre­mière fois le tar­ge­ted sha­ring pro­po­sé par Face­book : une appli­ca­tion que ses fans acceptent d’installer pour lui don­ner accès à leurs réseaux indi­vi­duels et à toutes les infos qui en découlent sur leurs amis etc.11 » Quatre ans plus tard, Donald Trump s’appuiera lui aus­si (mais tar­di­ve­ment) sur les big data pour com­pen­ser le désa­mour des médias tra­di­tion­nels à son égard. Le can­di­dat qui n’hésite pas à prendre des liber­tés avec la réa­li­té et capi­ta­lise sur le rejet de « l’establishment » d’une grande par­tie de la popu­la­tion béné­fi­cie­ra de l’effet de la bulle cog­ni­tive et l’alimentera en fake news. Cette bulle cog­ni­tive va l’aider à conso­li­der sa base et lui ame­ner des élec­teurs. Enfin, la cam­pagne numé­rique de Trump fut ori­gi­nale à deux titres. D’une part, elle consis­ta à concen­trer un impor­tant bud­get sur les publi­ci­tés en ligne et ciblées contrai­re­ment à Clin­ton pour qui la dif­fu­sion de spots sur les chaines tra­di­tion­nelles res­ta pri­mor­diale. « Ce ciblage extrê­me­ment pré­cis a don­né lieu à une cam­pagne publi­ci­taire en ligne com­pre­nant plus de 100.000 mes­sages dif­fé­rents adap­tés au public, par­fois variant de quelques détails, pour frap­per au plus juste. » D’autre part, sa cam­pagne exploi­ta la fai­blesse de Clin­ton qui était de mobi­li­ser des groupes votant pour­tant tra­di­tion­nel­le­ment pour les démo­crates. Trump et son équipe s’employèrent à dis­sua­der défi­ni­ti­ve­ment les élec­teurs poten­tiels de Clin­ton à aller voter. Cette stra­té­gie por­ta ses fruits.

Sans aller aus­si loin que les États-Unis, les don­nées per­son­nelles ont éga­le­ment été uti­li­sées à l’occasion de l’élection pré­si­den­tielle fran­çaise, à com­men­cer par la phase des pri­maires, pour per­mettre aux équipes des can­di­dats en lice d’opérer des frappes chi­rur­gi­cales. Ces don­nées sont agré­gées de manière à [« carac­té­ri­ser les quar­tiers en termes élec­to­raux et socio­lo­giques : quels sont les quar­tiers plu­tôt à gauche, à droite, indé­cis, jeunes, vieux, riches ou bobos. …] À par­tir de ces don­nées, chaque pâté de mai­sons reçoit une note. Plus celle-ci est éle­vée, plus il est inté­res­sant d’y faire du porte à porte. Quant aux zones où les habi­tants se déclarent déjà cer­tains de leur choix ou rejettent le can­di­dat, pas la peine d’y perdre du temps. »

Cela amène un cer­tain nombre d’observateurs à s’inquiéter des dérives aux­quelles ces pra­tiques de mar­ke­ting poli­tique pour­raient abou­tir. Le citoyen qui est au centre du ciblage risque — davan­tage que c’est déjà le cas aujourd’hui — de ne voir dans le pro­gramme du can­di­dat que les aspects qui lui conviennent per­son­nel­le­ment et de pas­ser à côté de son pro­jet pour l’ensemble de la socié­té. Quant au can­di­dat une fois élu, com­ment par­vien­dra-t-il à conci­lier toutes les attentes de cette mul­ti­tude de mes­sages si fine­ment cali­brés ? Un échec de sa part pour­rait nour­rir la décep­tion des citoyen(ne)s (63% d’Européens, 65% de Belges) qui estiment que leur voix ne compte pas dans leur propre pays et pro­fi­ter aux extrêmes.

Un paradis économique sur un désert social et démocratique

Le recours aux algo­rithmes com­bi­nés aux pla­te­formes de par­tage ne sera pas sans impact pour le monde du tra­vail. Ces pla­te­formes dési­gnent la mise en rela­tion d’individus, d’organisations et de res­sources au sein d’un éco­sys­tème inter­ac­tif qui crée de la valeur. Selon des experts du MIT12, les pla­te­formes vont prendre en charge et à un cout bien infé­rieur les acti­vi­tés et l’emploi de nom­breuses firmes. La divi­sion du tra­vail, théo­ri­sée par Adam Smith il y a deux siècles, sera pous­sée à son paroxysme grâce à l’intervention d’algorithmes tou­jours plus per­for­mants qui auront pour effet d’éclater une acti­vi­té com­plexe en cen­taines de tâches beau­coup plus simples. Concrè­te­ment, tout cela don­ne­ra lieu à une pro­li­fé­ra­tion du sta­tut de tra­vailleur free­lance qui pose­ra des défis en termes de sta­bi­li­té et de pré­dic­ti­bi­li­té du tra­vail. Dans un tel contexte où les liens entre tra­vailleurs se dis­tendent, les syn­di­cats devraient conti­nuer à décli­ner. Comme les tra­vailleurs tire­ront une part crois­sante de leurs reve­nus de leur par­ti­ci­pa­tion aux pla­te­formes, il fau­dra que celles-ci se mettent à inves­tir dans la com­mu­nau­té qui gra­vite autour d’elle et l’approvisionne en res­sources de manière à sus­ci­ter de meilleures oppor­tu­ni­tés pour tous. Cer­taines pla­te­formes comme Upwork offrent déjà des for­ma­tions à leurs tra­vailleurs indé­pen­dants lorsqu’ils dépassent un cer­tain nombre d’heures d’activités.

Robert Reich13, ancien secré­taire au Tra­vail de Bill Clin­ton, pré­dit éga­le­ment des bou­le­ver­se­ments sur le plan de la pro­tec­tion du tra­vail : éli­mi­na­tion du salaire mini­mum, éro­sion des normes de san­té et de sécu­ri­té au tra­vail, affai­blis­se­ment des congés payés et sur­sa­laires pour heures sup­plé­men­taires. Cet exer­cice de pros­pec­tive l’amène, comme d’autres, à sou­te­nir l’idée de l’instauration d’un reve­nu minimum.

Ces tra­vaux qui dressent des pers­pec­tives par­ti­cu­liè­re­ment sombres s’inscrivent dans le long terme. Les méca­nismes à l’œuvre ne sont pas irré­ver­sibles pour autant que les déci­deurs poli­tiques conçoivent des règle­men­ta­tions adé­quates et que, au-delà des inter­lo­cu­teurs sociaux, ce soit bien l’ensemble de la socié­té civile qui s’empare de cette ques­tion qu’est le futur du travail.

Chris­tophe Degryse nous montre que des chan­ge­ments sont déjà en cours. Auteur d’une impor­tante étude pour l’Institut syn­di­cal euro­péen14, il syn­thé­tise les rouages de ce que d’aucuns appellent la « qua­trième Révo­lu­tion indus­trielle » et attire l’attention sur « ce mana­ge­ment numé­rique qui vise à “opti­mi­ser” les pro­ces­sus et donc aus­si les faits et gestes de cha­cun. [Ce mana­ge­ment] risque de glis­ser vers une forme de réi­fi­ca­tion du tra­vailleur, celui-ci étant consi­dé­ré comme un simple outil dont il convient de maxi­mi­ser l’usage. Il y a là une menace claire de vio­la­tion de la digni­té du tra­vailleur, qui s’accompagne d’un risque non négli­geable de rup­ture de confiance entre sala­riés et mana­ge­ment. » Chris­tophe Degryse esquisse alors les contours d’une réelle éco­no­mie du par­tage fon­dée sur la coopé­ra­tion et par­ti­ci­pant à un chan­ge­ment de para­digme éco­no­mique. Il y aborde certes la pro­blé­ma­tique de l’économie numé­rique, mais aus­si le rôle des robots dans les per­tur­ba­tions sur le mar­ché du tra­vail qui a fait l’objet d’une ana­lyse du Fonds moné­taire inter­na­tio­nal en avril15. Dans cette étude, le FMI relève que la part du gâteau reve­nant aux tra­vailleurs n’a ces­sé de se réduire au cours des vingt-cinq der­nières années. « Entre 1991 et 2014, la part des salaires a décli­né dans vingt-neuf des cin­quante plus grandes éco­no­mies ; ces vingt-neuf pays repré­sen­taient envi­ron deux tiers du PIB mon­dial en 2014. Cette part sala­riale a sur­tout bais­sé dans les sec­teurs manu­fac­tu­riers, des trans­ports et de la com­mu­ni­ca­tion. La moi­tié de la baisse peut être attri­buée à l’impact des tech­no­lo­gies. Il est impor­tant de noter que pour une modi­fi­ca­tion don­née dans le prix rela­tif des inves­tis­se­ments, les éco­no­mies pré­sen­tant une expo­si­tion éle­vée à la stan­dar­di­sa­tion du tra­vail ont expé­ri­men­té un déclin de la part sala­riale jusqu’à près de quatre fois plus impor­tante que dans les autres pays » [Tra­duc­tion de l’auteur].

Des éco­no­mistes du MIT, de Yale et de la Bos­ton Uni­ver­si­ty16, ont de leur côté éva­lué, après obser­va­tions de don­nées s’étendant de 1993 à 2007, que l’introduction d’un robot indus­triel avait pour effet de rem­pla­cer en moyenne sept tra­vailleurs. Or, selon cer­taines pro­jec­tions, il faut s’attendre à un tri­ple­ment, voire un qua­dru­ple­ment du nombre de robots indus­triels d’ici 2025.

Le Par­le­ment euro­péen n’entend pas res­ter pas­sif puisqu’il a adop­té en février une réso­lu­tion des­ti­née à la Com­mis­sion au sujet des règles de droit civil sur la robo­tique dont il fau­drait se munir au niveau euro­péen et avant que les États membres ne réagissent de manière dis­per­sée. C’est l’émergence de robots de plus en plus auto­nomes qui a moti­vé ce texte. Celui-ci concerne les véhi­cules auto­nomes, les drones, les robots indus­triels, les robots de soins ou encore les robots de diver­tis­se­ment. Il ne se penche pas sur les robots pou­vant être uti­li­sés comme des armes.

Dans la mesure où l’introduction de robots pour­rait entrai­ner des per­tur­ba­tions sur les mar­chés du tra­vail, les euro­dé­pu­tés demandent à la Com­mis­sion d’en éva­luer les « consé­quences sur la via­bi­li­té des régimes de sécu­ri­té sociale des États membres ».

Ils avancent éga­le­ment plu­sieurs pistes pour enca­drer les robots. Les euro­dé­pu­tés envi­sagent de confé­rer à terme aux plus sophis­ti­qués d’entre eux une per­son­na­li­té juri­dique spé­ci­fique et à plus brève échéance, de mettre au point un cadre légal pour les robots actuel­le­ment dis­po­nibles sur le mar­ché ou qui le seront au cours de la pro­chaine décen­nie. Le rap­port aborde éga­le­ment la ques­tion de la res­pon­sa­bi­li­té dans le cas où un dom­mage serait cau­sé par un robot.

En tout état de cause, les muta­tions sur le mar­ché du tra­vail du fait de la robo­ti­sa­tion et, plus récem­ment de l’émergence de l’économie numé­rique, ont aggra­vé les inéga­li­tés. L’on aurait tort de limi­ter la réflexion aux seules inéga­li­tés car bien plus que cela, c’est tout l’édifice démo­cra­tique qui vacille comme l’a bien iden­ti­fié Hart­mut Rosa : « L’organisation du pro­ces­sus de for­ma­tion de l’opinion est plus longue si les groupes sociaux deviennent plus hété­ro­gènes et dyna­miques et si les condi­tions du milieu se modi­fient rapi­de­ment […] Ain­si, les mêmes pro­ces­sus qui accé­lèrent les chan­ge­ments sociaux, cultu­rels et éco­no­miques [et qui sont une consé­quence logique d’un sys­tème de mar­ché capi­ta­liste concur­ren­tiel] ralen­tissent la for­ma­tion de la volon­té et la prise de déci­sion démo­cra­tiques, ce qui mène à une nette désyn­chro­ni­sa­tion entre la poli­tique, d’une part, et la vie et l’évolution socioé­co­no­miques, d’autre part. Aujourd’hui, la poli­tique n’est donc plus per­çue comme la force don­nant le rythme du chan­ge­ment social et de l’évolution sociale. Bien au contraire, la poli­tique “pro­gres­siste” — si le terme garde encore le moindre sens en 2010 — est aujourd’hui carac­té­ri­sée par la volon­té de ralen­tir les tran­sac­tions et les déve­lop­pe­ments tech­no­lo­giques et éco­no­miques afin d’établir ou de conser­ver un peu de contrôle poli­tique sur la direc­tion et le rythme de la socié­té (par exemple à tra­vers des ins­tru­ments comme la taxe Tobin)17. »

Mais les tech­no-opti­mistes comme les tech­no-pes­si­mistes ne perdent-ils pas de vue que l’économie imma­té­rielle reste subor­don­née à la pro­duc­tion d’infrastructures phy­siques ? Or, dans sa contri­bu­tion, José Hal­loy montre com­ment les lois de la phy­sique, mais aus­si la dis­po­ni­bi­li­té en res­sources joue­ront le rôle de freins vis-à-vis de la crois­sance fon­dée sur les nou­velles tech­no­lo­gies de l’information. En effet, la minia­tu­ri­sa­tion des tran­sis­tors approche du mini­mum pos­sible et l’énergie à dépen­ser pour extraire tou­jours plus d’énergie, notam­ment celle qui est néces­saire pour ali­men­ter les robots, objets connec­tés, etc., aug­mente. De la sorte, ce sera peut-être l’approche des limites natu­relles de la pla­nète qui nous per­met­tra de pré­ser­ver un mini­mum de fonc­tion­ne­ment démocratique…

  1. V. Mayer-Schön­ber­ger, K. Cukier, Big data : La révo­lu­tion des don­nées est en marche, Robert Laf­font, 2014.
  2. Rap­port à la secré­taire d’État fran­çaise char­gée du Numé­rique, Moda­li­tés de régu­la­tion des algo­rithmes de trai­te­ment des conte­nus, 2016.
  3. Voir Th. Lemaigre, « Big data, la don­née c’est toi ! », La Revue nou­velle, 8, 2016, p. 34.
  4. Data­no­mics, p. 25.
  5. Data­no­mics, 26.
  6. Voir l’entretien avec A. Rou­vroy, « L’art de ne pas chan­ger le monde », La Revue nou­velle, n° 8, 2016.
  7. Fr. Joi­gnot, Com­ment les algo­rithmes nous enferment dans une bulle intel­lec­tuelle.
  8. B. Cam­pion, « Faut-il avoir peur de la pro­pa­gande russe », sur le blog e‑Mois de La Revue nou­velle.
  9. Voir l’article de J.-L. Manise, « Refu­ser d’être une four­mi numé­rique », La Revue nou­velle, n°8, 2016, p. 38.
  10. V. Mayer-Schön­ber­ger, K. Cukier, Big data : la révo­lu­tion des don­nées est en marche, Robert Laf­font, 2013.
  11. B. Erkes, L’usage du big data et la puis­sance inédite du ciblage dans la cam­pagne américaine
  12. G. G. Par­ker, M. W. Van Alstyne et S. P. Chou­da­ry, How net­wor­ked mar­kets are trans­for­ming the eco­no­my – and how to make them work for you.
  13. Why the sha­ring eco­no­my is har­ming wor­kers — and what can be done, 2015.
  14. Chr. Degryse, Impacts sociaux de la digi­ta­li­sa­tion de l’économie, ETUI, 2016
  15. FMI, Unders­tan­ding the down­ward trend in labor income shares, 2017
  16. D. Ace­mo­gly, P. Restre­po, Robots and Jobs : Evi­dence from US labor mar­kets, 2016.
  17. H. Rosa, Alié­na­tion et accé­lé­ra­tion, 2014.

Olivier Derruine


Auteur

économiste, conseiller au Parlement européen