Sur le site de l’IEM


Pour soutenir notre action :
Appuyer l'iem
Partager nos travaux :

Joignez notre groupe sur Facebook

Algorithmes : il ne faut pas nationaliser le code

par Pierre Schweitzer
lundi 18 juillet 2016.

Texte d’opinion publié en exclusivité sur le site de l’Institut économique Molinari.

rien

Dans un récent billet de blog repris par Rue89, Olivier Ertscheid, partant du constat d’une ouverture généralisée des algorithmes d’intelligence artificielle de type deep learning par les GAFAM (Google, Apple, Facebook, Amazon et Microsoft), plaide pour leur appropriation par la puissance publique au nom de l’intérêt général et des valeurs de la République. Bien qu’il soulève des questions fondamentales, cet article traduit une vision très française des progrès du numérique : centralisation, monopole et irresponsabilité des citoyens.

Rappelant l’article fondateur de Larry Lessig en 2000 selon lequel « Le code, c’est la loi », il constate avec inquiétude que la logique du deep learning (également appelé machine learning) n’est plus une programmation plus ou moins sophistiquée mais toujours bien humaine et explicite de l’intelligence d’une machine, mais au contraire un apprentissage autonome de la part de la machine dotée d’un système nerveux artificiel. Jason Tanz le résume ainsi : « Si vous voulez enseigner à reconnaître un chat à un réseau de neurones, par exemple, vous ne lui dites pas de chercher les moustaches, les oreilles, la fourrure et les yeux. Vous lui montrez simplement des milliers et des milliers de photos de chats, et finalement il arrive à les reconnaître. S’il continue à classifier les renards avec les chats, vous ne devez pas réécrire le code. Vous continuez à le coacher ».

Il en découle que même les concepteurs de tel ou tel algorithme de deep learning seront incapables de dire exactement pourquoi les résultats obtenus sont ceux-là, de la même manière qu’un cerveau humain peut résoudre des problèmes ou avoir des idées créatives sans avoir conscience du processus qui l’a mené à ce résultat. Autrement dit, nous ne serons plus tout à fait en mesure de fournir des lois aux machines par le biais du code, nous ne pourrons que leur assigner des objectifs et les entraîner dans la direction qui nous convient par un processus d’essai-erreur-correction.

Olivier Ertscheid met alors en garde contre le piège tendu par les grandes firmes du numérique dont la volonté affichée de partager avec le reste du monde leurs algorithmes de deep learning ne serait qu’un leurre, une tactique pour faire travailler la communauté scientifique à améliorer les programmes actuels avant de sournoisement se les réapproprier et en tirer profit. D’ailleurs les immenses quantités de données nécessaires à l’entrainement d’une intelligence artificielle nouvelle génération ne sont accessibles qu’à peu d’institutions, au premier rang desquelles les GAFAM. Il propose alors que le politique prenne le problème à bras le corps et oblige légalement Google et tous les autres géants à communiquer le détail de ses algorithmes, autrement dit non seulement les différents paramètres mais aussi leur pondération exacte dans le fonctionnement. Son raisonnement se résume ainsi : les géants du numérique occupent une place importante dans nos vies, il faut donc que chacun sache exactement comment ils fonctionnent en coulisses. Cette vision méconnait pourtant deux dimensions importantes du problème.

Premièrement personne ne nous oblige à chercher sur Google, acheter sur Amazon ou raconter nos vacances sur Facebook. Des alternatives existent pour tous ces services, et leur domination actuelle dans leurs tâches respectives est surtout due à la combinaison d’un service de qualité et d’une certaine paresse du consommateur qui va au plus facile, au plus connu. Et plutôt que de s’interroger sur les raisons qui font que Google a 93,5% de part de marché en France (2015) contre seulement 78,5% aux États-Unis (patrie de Google !) et à peine plus de 56% en Corée du Sud (chiffres pour l’année 2015), beaucoup d’analystes français préfèrent tenir pour acquis ce quasi-monopole du célèbre moteur de recherche et ne tardent pas à tenir Google pour une entreprise à mission de service public et soumise par conséquent au bon vouloir du gouvernement. L’habile confusion entre monopole de facto et monopole règlementaire ne doit pas nous faire oublier que Google est en quasi-monopole parce qu’une immense majorité le veut ainsi, et les moyens ne manquent pas pour vivre sans Google. Et au prétexte que les Français utilisent majoritairement Google, on voudrait dès lors obliger cette entreprise privée à livrer son principal secret industriel ? En plus d’être injuste, ce serait contre-productif.

Car le référencement Internet a pour objet principal de servir à l’internaute les résultats correspondant à sa recherche, tandis que pour des millions d’entreprises et d’institutions le but du jeu consiste à se rendre plus visible que le concurrent, et ce quel que soit le motif de la recherche par l’internaute. Voilà pourquoi Google doit garder le secret à tout prix : si demain n’importe quel informaticien connaissait les critères de classement de Google, la souris aurait toujours une longueur d’avance sur le chat, les référenceurs verraient leur pouvoir s’accroître dangereusement. Les résultats « naturels » deviendraient non moins trafiqués que les résultats « sponsorisés », au détriment de l’internaute et au bénéfice des clients les plus disposés à payer les meilleurs référenceurs.

Deuxièmement, en faisant croire aux citoyens que c’est le rôle du gouvernement de veiller aux abus de pouvoir supposées des GAFAM, on concourt à une déresponsabilisation générale.

La réflexion sur les algorithmes revient souvent sur la question de l’enfermement algorithmique (ou « filter bubble ») un concept développé à partir de 2011 par Eli Pariser. En nous soumettant à des contenus qui nous plaisent, en favorisant les discussions avec des amis choisis selon nos propres valeurs, nous risquons de nous voir toujours renforcés dans nos convictions au lieu d’aller vers plus de débat. Soit, on peut aisément l’admettre. Mais comme avec la question du monopole de Google, beaucoup éludent notre propre responsabilité dans la manière dont nous nous informons sur le net et vont directement à la conclusion dangereuse que notre libre-arbitre n’est qu’une illusion derrière laquelle ce sont les géants du numérique qui tirent les ficelles. Vous n’êtes pas d’accord avec ce que fait Google ? Vous ne supportez pas d’ignorer comment les services Google fonctionnent en détails ? Prenez vos responsabilités et faites jouer la concurrence, plutôt que de laisser l’État prendre un peu plus de pouvoir sur les acteurs d’Internet. C’est un véritable danger car partir de l’idée que les citoyens n’ont plus de libre arbitre est contradictoire et ouvre de fait la porte à d’autres partis pris, ceux-ci centralisateurs et étatistes dont on n’a pas démontré qu’ils étaient supérieurs.

D’ailleurs on voit mal pour quelle raison les individus qui forment l’État, dont on espère qu’ils ne sont pas fondamentalement différents du nous puisque censés nous représenter, seraient protégés de cette « filter bubble », qui n’est rien d’autre que le célèbre biais de confirmation. Pourquoi donc espérer de l’État une meilleure solution ? Il n’y a pas de République sans communs, nous explique Olivier Ertscheid. Peut-être, mais cela ne nous exonère pas de la réflexion sur l’extension de ces communs. L’ère du numérique nous met certes en face de choix délicats et nous impose une certaine vigilance, mais plutôt que de travailler au libre choix des internautes librement informés, il y a une sorte de biais français à vouloir défendre le transfert de responsabilité à l’État et la mise sous tutelle de l’innovation numérique au profit d’une classe politique dont on ne tardera pas à se rendre compte qu’elle pourrait avoir des objectifs qui ne sont pas dans l’intérêt de ses administrés.

Il existe bien des cas où les citoyens devraient pouvoir connaître le contenu précis des algorithmes, c’est lorsque qu’on identifie un usage abusif et que cet usage semble incontournable. Les problèmes d’éditorialisation algorithmique méritent réflexion et action, comme lorsqu’un programme de lutte contre la récidive par l’administration pénitentiaire américaine s’avère raciste. On peut alors soutenir l’obligation pour les titulaires de contrats publics de livrer au public (et pas seulement aux experts gouvernementaux, vigilance démocratique oblige) leurs algorithmes complets. On peut aussi se fixer comme règle l’utilisation de programmes développés par la puissance publique, bien que cette deuxième option risque de révéler la lenteur technologique de l’État par rapport au secteur libre et concurrentiel. Enfin on pourrait s’interdire de recourir à des formes d’intelligence artificielle qui ne répondent pas de manière vérifiable aux instructions du code qui leur a donné naissance, lequel devra naturellement contenir les « valeurs de la République », encore que le problème de la définition de ces valeurs se pose immédiatement.

Il ne faut pas confondre loi et règlement privé. Avec son « code is law » Larry Lessig faisait déjà cette confusion et réclamait plus d’État pour réguler l’Internet qui était alors en plein développement et montrait son potentiel disruptif face à la puissance publique. Les codes que certains veulent nationaliser sont des règlements privés pour des services et espaces privés qui n’ont d’importance que celle que nous voulons bien leur donner en les fréquentant.

Pierre Schweitzer est économiste de formation. Il enseigne l’économie du numérique et des médias à Aix-Marseille Université et écrit pour différentes revues. Coauteur avec Paul Salaün d’un ouvrage intitulé Droit et Economie des Médias et des Univers Numériques, paru en 2015 aux éditions Studyrama, il a également travaillé dans le journalisme et le conseil en communication.




Institut économique Molinari : proposer des solutions alternatives et  innovantes favorables à la prospérité de l’ensemble des individus composant la  société

Institut économique Molinari
Paris - Bruxelles - Montréal