mercredi 11 juillet 2018

17 "Le numérique à l'origine d'une nouvelle fracture sociale"

Pour ceux que le sujet intéresse, je ne saurais trop vous recommander la lecture d'un article du Monde, intitulé : "Le numérique à l'origine d'une nouvelle fracture sociale"
Si, l'article est à mon sens assez objectif et équilibré, il explique bien mieux que je n'ai pu le faire dans mon blog, que si le numérique, incontestablement, crée de nouveaux emplois, il en supprime bien d'autres, essentiellement "intermédiaire". Des statistiques étayent cette thèse. Je me permets de citer trois passages,

S’il crée des emplois, le numérique en supprime aussi. Surtout, il a un autre effet pernicieux sur l’emploi : il le transforme, et pas forcément dans le bon sens. « Dans nombre d’entreprises du numérique, c’est 10 % d’emplois qualifiés et 90 % de gens qui font des cartons », rappelle abruptement Jean-Hervé Lorenzi, le président du Cercle des économistes.

« Extrême bipolarisation »

David Autor, professeur d’économie au Massachusetts Institute of Technology (MIT), a le premier théorisé ce phénomène, dans un article paru en 2013, « The Growth of Low-Skill Service Jobs and the Polarization of the US Labor Market ».
Il y explique en substance que la digitalisation supprime les emplois intermédiaires, remplacés par les robots ou des algorithmes, et crée un monde du travail « en sablier », avec, en bas, les emplois peu ou pas qualifiés (caissières, agents d’entretien, manutentionnaires dans les entrepôts, caristes…) et, en haut, les emplois à forte qualification (ingénieurs, développeurs, juristes, financiers…).
 Deuxième passage :
Autrement dit, le numérique, loin d’atténuer les inégalités, ne fait que les creuser, au détriment de la classe moyenne, déqualifiée et paupérisée. « La bipolarisation est extrême puisque à un emploi fortement qualifié peuvent être reliés jusqu’à cinq emplois peu qualifiés », souligne Patrick Artus, chef économiste chez Natixis.
Le mouvement se généralise. Aujourd’hui, il n’est pas beaucoup de métiers qui échappent au rouleau compresseur du digital. L’Organisation de coopération et de développement économiques (OCDE) a évalué le risque : moins de 10 % des emplois dans la zone OCDE pourraient, à court ou moyen terme, être totalement remplacés par des robots. Mais 25 % pourraient l’être partiellement. Entre 50 % et 70 % des tâches seraient réalisées par des machines ou des algorithmes, le reste du travail étant encore effectué par l’homme.
Troisième passage :

Emergence d’un « cybertariat »

Face à ce phénomène, certains n’hésitent pas à parler de l’émergence d’un « cybertariat » – une sorte de prolétariat de l’économie numérique. L’essor des plates-formes, dominées par les acteurs globaux que sont les GAFA (Google, Apple, Facebook, Amazon) et autres Uber, fait pencher davantage encore la balance en faveur du capital.
« Ces entreprises superstars sont très efficaces et, avec des rendements croissants, elles obtiennent des rentes de monopoles, analyse Patrick Artus. Les nouvelles technologies contribuent ainsi à la hausse des marges bénéficiaires des entreprises et à la baisse de la part des salaires dans le revenu national. »

Le dernier point me paraît crucial et rejoint les analyses de Picketty : la part des revenus du "capital" s'accroît au détriment des revenus du travail,  ce qui se traduit par une montée des inégalités de revenus, mais surtout des patrimoines. Ce qui est vrai en France, même si l'inégalité des revenus croît moins qu'ailleurs. Inutile de préciser que cette montée des inégalités, accrue par le développement non contrôlé du numérique, porte en germe une fracture sociale explosive, aussi bien au sein des pays qu'entre les pays.

dimanche 13 mai 2018

16 Villani, un rapport plutôt complet

Le rapport Villani est indubitablement un rapport de qualité.
Bien  documenté, il aborde la plupart des thèmes et problèmes liés à l'IA.
Quelques points. 

IA et big data

Les développements actuels de l'IA sont très souvent liés à l'exploitation de la masse énorme des données numérisées. En particulier les données personnelles. Villani prend acte du fait que ce sont les GAFAM qui maîtrisent quasi complètement les données personnelles, qui sont probablement le gisement dont l'exploitation va bouleverser la vie économique, sans parler de notre vie tout court. Partant du principe que l'on ne saurait rattraper les GAFAM, il cherche des domaines autres, les données des administrations, les données de santé, Mais l'intérêt des données administratives est plus limité que certains ne l'espèrent. Quant aux données de santé, elles posent des problèmes éthiques : l’anonymisation est techniquement problématique, ôte de leur intérêt, si bien que l'on se heurte à l'exigence sociétale de confidentialité des données médicales.
Il y a peut-être d'autres voies à trouver, comme l'exploitation des données que vont massivement rapporter les objets connectés qui envahissent nos maisons, nos voitures...

IA et éthique 

Si le rapport a le mérite  d'aborder ce point, il n'est pas sûr que la création d'un nouveau comité d'éthique change grand chose. Il n'évitera pas le développement des recherches sur les robots ou les drones tueurs, surtout si ces recherches se font hors d'Europe. 
Il n'évitera pas non plus la destruction d'emplois ou leur appauvrissement. La rentabilité à court terme prime dans nos sociétés capitalistes : chanter les mérites du contact humain n'évitera pas les déshumanisations en cours. Il suffit de regarder ce qui se passe avec nos services publics pour le comprendre : tout se passe par internet, les traitements sont semi-automatisés, les contacts directs avec les agents administratifs sont difficiles à obtenir. Et le mouvement ne fait que commencer ! Victimes : ceux, encore nombreux, qui ne maîtrisent pas les outils informatiques.

Développer la recherche

Avec une proposition phare : pour permettre le développement de la recherche, et réduire la distance entre la recherche et ses applications, autoriser les chercheurs professionnels à passer 50% de leur temps en entreprise. Il faut certainement plus de souplesse  qu'aujourd'hui. Le problème n'est pas spécifique à l'IA. On va retrouver les vieux débats, mais toujours actuels, sur la façon de financer la recherche, sans l’assujettir aux intérêts privés.

Améliorer la transparence des "décisions sous influence" d'IA

Quand on vous refuse un prêt, une location, une place dans une université, vous aimeriez bien savoir pourquoi. 
Déjà avec un algorithme décisionnel classique, ce n'est pas simple : plus l'algorithme est complexe, et plus il est difficile d'expliquer son fonctionnement.
Si l'on y introduit des heuristiques, c'est à dire des méthodes dont on constate statistiquement l'efficacité, mais dont on ne peut pas prouver l'optimalité, c'est encore plus dur.
Mais avec l'essor des réseaux neuronaux, ça se complique encore.
Certes on peut observer, mieux que dans un cerveau humain, la façon dont les neurones sont activés, comprendre plus ou moins comment un réseau de neurones particulier est arrivé à sa conclusion, mais de là à en justifier le résultat...
Pour le chercheur, cette analyse rétrospective peut être source d'enseignement : comprendre par exemple comment le réseau de neurones correctement entraîné parvient à discriminer des visages. Ce qui permet d'ailleurs de construire des réseaux de neurones "précablés" encore plus efficaces, ressemblant de plus en plus à la façon dont notre propre système nerveux fonctionne : mélange de précablage et d'apprentissage.
Mais nous sommes faillibles ! Et les réseaux neuronaux sans doute encore plus aujourd'hui.
Une des raisons en est  la phase d'apprentissage.
Dans le cas de ce que l'on appelle l'apprentissage "supervisé", on fait avaler à notre cerveau artificiel une masse énorme de cas, avec les conclusions qu'il faut en tirer à chaque fois. L'algorithme (de descente) utilisé, depuis les années 70, et constamment perfectionné, est un algorithme dit de rétro-propagation du gradient (d'une fonction de pertinence). Le plus souvent, les cas sont présentés de façon aléatoire, si bien que l'on peut parler de gradient stochastique. Pour avoir mis en œuvre ce type d'algorithme dans les années 80, j'en ai tiré quelques enseignements. D'abord, pour arriver à le faire converger, il faut un nombre pharamineux de cas. Et évidemment, plus il y a de variables à optimiser (en l'occurrence les coefficients des neurones), plus ce nombre est important.
On peut se retrouver piégé sur des optimums locaux, assez loin d'une bonne solution (cela dépend beaucoup du domaine). Et l'ordre de présentation des cas peut conduire à des résultats différents.
Et bien souvent on oublie en plus un facteur clé : si l'ensemble des cas est en fait biaisé, eh bien ! le résultat le sera aussi. Si volontairement ou non, votre ensemble d'apprentissage comprend des contre-vérités, vous obtiendrez un "esprit faux". Les chercheurs se sont amusés à le montrer. 
Bref justifier une conclusion d'un réseau neuronal en général sera impossible : il faudra plutôt à vivre avec ! Nous mêmes, nous ne sommes pas toujours des exemples de fiabilité, et nous arrivons pourtant  collectivement à travailler efficacement ensemble !

jeudi 25 janvier 2018

15 Peigner le mammouth

J'ai déjà eu l'occasion d'écrire que la révolution technologique actuelle,  - informatisation + robotisation - allait bouleverser la société probablement encore plus que la première révolution industrielle. Non seulement les modes de production et d'échanges changent, mais le changement lui-même s'accélère. Là où il fallait une génération pour qu'un changement s'installe, c'est en quelques années que des emplois se créent puis sont détruits.
Aujourd'hui et demain, ce sont des emplois intermédiaires qui sont massivement détruits : dans les banques et dans nombre de services.  La destruction d'emplois n'épargne pas non plus des emplois relativement peu qualifiés comme ceux de caissier dans la distribution, d'agents des postes.
Il est clair que le chômage massif actuel ne se résorbera pas sans une révolution dans les modes d'organisation du travail et de redistribution des revenus. Mais ce blog n'est pas trop le lieu pour développer ces points.
Là où en fait je voulais en venir, c'est qu'il est de plus en plus vain d'espérer que les formations collèges-lycées fournissent un bagage qui suffira pour s'assurer un métier durable.
Il faut surtout aider les lycéens à acquérir ce qui leur permettra de s'adapter, de se former plus tard plus spécifiquement. Plutôt que transmettre un savoir, apprendre à apprendre, à conceptualiser, à trouver les informations, et les organiser. Plutôt que de remplir les têtes avec des dates, des anecdotes, des recettes de cuisine, apprendre à apprendre, apprendre à structurer une pensée.

Je ne veux pas dire par là qu'il faille négliger les compétences de base comme le français, le calcul : aujourd'hui bon nombre d'élèves qui arrivent tant bien que mal au collège, puis au lycée ont des lacunes énormes dans ces matières, ce qui obère complètement la suite de leurs études. C'est l'une des faillites de notre système éducatif, qui loin d'estomper les inégalités entre élèves, a tendance à les aggraver. L'essentiel se joue dès la maternelle et en primaire, Mais cela mériterait beaucoup plus qu'une page dans un blog, et je ne me sens pas vraiment qualifié pour cela.

 Quoi qu'il en soit, et en supposant cet énorme problème résolu, en secondaire, plutôt que transmettre un corpus plus ou moins clos, il faut en donner le squelette et apprendre aux étudiants à ajouter eux-mêmes la chair autour de ce squelette. Aujourd'hui tout est en ligne ou presque. Encore faut-il savoir le trouver : bien utiliser les moteurs de recherche (un sous-produit de l'IA, certes), trier le bon grain et l'ivraie qu'ils permettent de ramener.
Apprendre à raisonner sans s'enfermer dans une discipline, ce qui suppose développer l'interdisciplinarité malgré les fortes réticences du corps enseignant, figé dans un découpage en disciplines qui s'ignorent largement. Apprendre à raisonner tout court et à comprendre le nécessaire mouvement dialectique de la pensée, apprendre aussi à construire des analogies fécondes.
L'urgence est là, mais sa perception semble faible, à voir les évolutions des programmes passées et prévues.