lundi 12 avril 2021

IA générale ou complète

 

IA générale ou complète

En 2 mots. Le Graal des chercheurs en IA : celle qui dit papa, maman, capable de toutes les prouesses, d’apprendre toute seule ou presque, bref de passer le test de Turing sans artifice, celle qui faisait peur à Hawking et à d’autres, car l’homme deviendrait inutile.

Aujourd’hui les progrès de l’IA et de la robotique permettent tout juste de mettre en chômage endémique une partie non négligeable de la population la moins qualifiée.

Et pourtant il n’y a guère de jours où l’on ne signale un progrès dans des domaines variés : reconnaissance de visages, traduction automatique, diagnostics divers et variés, actions adaptatives de robots etc...

Des limites des Réseaux Neuronaux artificiels

La plupart du temps, ces progrès sont attribués à « l’apprentissage profond » à l’aide de réseaux neuronaux, soit de simples « perceptrons » multicouches, soit de réseaux neuronaux plus perfectionnés (convolutifs par exemple) ou utilisés en tandem (réseaux antagonistes).

On cite abondamment dans la littérature les faiblesses des RN :

  • faible explicabilité dûe au côté boîte noire,
  • taille colossale des ensembles de données nécessaires à l’apprentissage supervisé - en fait les superviseurs sont des petites mains qui étiquettent les données à digérer par le Moloch –,
  • biais qui peuvent être induits plus ou moins volontairement,
  • et surtout aucune transposition possible après apprentissage d’un domaine à un autre, même connexe vu de nous.

Le RN n’est ni plus ni moins qu’une machine à interpoler au sein du domaine d’apprentissage. Même si l’aspect statistique de l’apprentissage permet de s’affranchir de certains bruits sur les données d’apprentissage, si ces données sont fausses les interpolations le seront aussi.

Exemple trivial : si l’on étiquette comme chien des chats, alors pour lui les chats seront reconnus comme chiens... On a beaucoup parlé ces derniers temps des biais raciaux ou de genre, causés par des ensembles d’apprentissage eux-mêmes biaisés.

Une autre réalité : les algorithmes d’apprentissage sont des algorithmes à convergence très lente qui nécessitent un nombre énorme d’exemples pour l’apprentissage. Et évidemment plus le domaine est grand, et plus il faudra d’exemples.

Ces algorithmes s’apparentent à des algorithmes de gradient stochastique. Et en plus dans un espace où beaucoup de variables (en entrée et/ou en sortie) sont des variables discrètes. Résultat, ils peuvent se faire piéger dans des optima locaux mauvais, et ceci même si on met en œuvre des métaheuristiques (recuit simulé ou autres, il y en a plein). Le simple fait de changer l’ordre de présentation des données d’apprentissage peut changer le résultat, c’est-à-dire in fine la pertinence de la reconnaissance.

Quant à la faiblesse explicative de l’Oracle ? Énormément de recherches pour lui ouvrir le crâne, trouver des interprétations aux neurones des couches cachées, mais jusqu’à aujourd’hui assez peu de réussites... Cela semble un peu plus facile dans le cas des réseaux convolutifs, qui ont des couches spéciales, inspirées de notre cortex visuel, qui permettent d’extraire des caractéristiques des images et de ne plus travailler au niveau du pixel.

Quant à transposer un RN éduqué sur un domaine, pour en faire un sur domaine même voisin... Passer d’un RN pour reconnaître les chiens à un RN pour chats... Faut pas rêver.

Réconcilier le cerveau gauche et le cerveau droit

L’analogie en l’occurrence est probablement aussi mauvaise que le concept de cerveau reptilien.

Néanmoins, je l’utilise un peu. À ma droite (du cerveau) les RN capables de traiter des volumes de données impressionnants comme ceux d’une image. Mais de façon très automatique et quasi-inconsciente.

À ma gauche tout un pan de l’IA aujourd’hui dans l’ombre : celle des inférences logiques, des réseaux de concepts et autres ontologies, des jadis encensés systèmes experts censés cristalliser la connaissance des experts humains et reproduire leurs raisonnements. À vrai dire, il y en a encore qui luttent vaillamment avec les RN dans des domaines comme l’analyse de demandes de prêts... En tout cas ce cerveau gauche est à la recherche du sens (représentation sémantique).

Peut-être que le salut viendra quand l’on saura associer ces cerveaux droits  et ce cerveau gauche : extraire des concepts d’un outil RN de reconnaissance et leurs relations, voir qu’on retrouve à peu près la même structure de concepts dans un autre outil RN, et en déduire un outil plus général.

(Les chiens ont en général 4 pattes, les chats aussi, peut-être existe-t-il une classe d’objets à 4 pattes plus générale. (Et les bipèdes alors ?)).

Une lecture conseillée

Pour arriver à faire ça il faut un méta-outil qui détecte et permette d’analyser les ... analogies !

Et sur ces analogies on pourra faire des raisonnements constructifs.

Il faut d’abord trouver des réseaux de relations similaires entre des concepts d’un domaine A et celles d’un domaine B. Cela s’apparente à la recherche d’homomorphismes dans les graphes, problème résolument non trivial mais pour lequel on peut imaginer des heuristiques.

Ensuite on peut imaginer transposer une relation existant dans le domaine A dans le domaine B duquel elle semble absente. Ensuite encore, il faut vérifier que cette extrapolation de la relation tient la route en réanalysant le domaine B. Soit on gagne et l’analogie se renforce, soit on perd. Mais tout n’est pas perdu car on peut imaginer rechercher ce qui cause cette divergence conceptuelle : par exemple que certaines caractéristiques qui seraient intéressantes étaient absentes du domaine B d’apprentissage, mais peut-être ont-elles un sens quand on passe du virtuel au réel. Rêvons, rêvons...

Je suis loin d’épuiser la richesse du raisonnement par analogie : c’est un mode de raisonnement que nous pratiquons tous intensivement, mais dont on parle très peu en définitive dans le monde de l’IA et des mathématiques.

Et donc je conseille la lecture passionnante du bouquin de Douglas Hofstadter (Gödel Escher Bach) et de Emmanuel Sander : « L’Analogie, Cœur de la pensée ». (Odile Jacob 2013).

jeudi 6 février 2020

20 Mi-ange mi-démon !

Mi-ange, mi-démon, comme toutes les technologies

6 mois déjà que je posais la question en évoquant des applications marquantes de l'IA et des TICs.
J'ai désespérément chercher quelque chose d'original à écrire : rien !
Ou plutôt, une évidence : les technologies ne sont pas bonnes ou mauvaises en soi : elles sont ce qu'en font les hommes. La fission nucléaire par exemple : on l'a utilisé pour faire des bombes et des réacteurs nucléaires pour produire de l'électricité. L'équilibre de la terreur a rangé les bombes dans les silos, au moins jusqu'à maintenant. Les réacteurs nucléaires continuent à produire leurs déchets radio-actifs et à fournir une électricité décarbonée (en faisant abstraction de la construction des centrales).
Reprenons certaines des "avancées" que nous avons évoquées dans l'article précédent.

Numérisation des services publics

Un gain de temps certain pour ceux qui savent bien se servir d'un ordinateur, un casse-tête pour les autres.  Une accélération, mais aussi des économies dans les traitements des dossiers si cela se traduit par des compressions de personnel. À moins que pour l'on décide de renforcer des accueils "humains" dans les services publics ou au moins de créer un "service public d'aide aux démarches". C'est un choix politique : en France on n'en prend pas le chemin, sauf dans certaines communes.

Robotisation dans l'industrie

Là encore, économie d'ouvriers, gain de productivité par employé, moins de pénibilité pour ceux qui restent. Se pose la question du partage de le rente au niveau micro-économique de l'entreprise et macro-économique des nations. Masse salariale en baisse, gains pour le capital, du moins dans l'économie "libérale" qui est la notre. Là encore, choix politique du partage de la rente ou des revenus.

Plate-formes d'intermédiation

Elles sont de tous les types et leur nombre explose.
Certaines paraissent au premier abord, un vrai progrès pour développer une économie circulaire ou au moins limiter le gaspillage des biens. LeBonCoin et les autres. Mais elles peuvent avoir aussi des effets négatifs, en particulier quand il s'agit d'offres de service : développement du travail au noir, concurrence déloyale de l'artisanat.
Un peu comme ce qui se passe avec des plate-formes comme AirBNB : une bonne idée a priori, sauf qu'elle contribue un peu partout dans le monde à la spéculation immobilière en centres ville et permet des revenus non assujettis aux taxes ou cotisations. Sauf si le "politique" parvient à encadrer cet usage, et introduit des modes de régulation, ce qui arrive progressivement en France ou ailleurs. Choix politiques ici aussi. 

Uber, Amazon

Uber restera dans l'histoire, certainement, plus par le terme "uberisation" que par les services rendus via la plate-forme : des hordes de chauffeurs ou de livreurs "micro-entrepreneurs", en fait des prolétaires mal payés, des journaliers ou des tâcherons, sans protection  sociale et avec l'angoisse du lendemain ou de la maladie qui les privera de tout revenu. Là aussi, évidemment, un problème de rapport de forces politique...

Le géant Amazon, dans sa partie commerce, crée aussi des hordes de livreurs et de magasiniers pour remplacer les employés du commerce qui périclite en centre-ville ou ceux des grandes surfaces qui faisaient leur beurre à la périphérie. Pour l'instant Amazone crée effectivement des emplois mais travaille à fond pour automatiser ses dépôts et et créer des robots ou des drones de livraison autonomes, qui lui permettront de réduire sa main-d’œuvre. Là aussi il y a des choix politiques à faire, au moins pour rendre la concurrence plus loyale en améliorant le statut des livreurs, en améliorant le rapport de force entre Amazon et "ses" producteurs au profit de ces derniers, en renforçant l'attractivité économique des commerces traditionnels...

Reconnaissance automatique des visages, des expressions, des plaques d'immatriculation...

La reconnaissance des formes a fait d'énormes progrès.
Là aussi, ce peut-être la meilleure et la pire des choses : aggravation ou amélioration (?) du contrôle social et de la détection des déviances, au volant par exemple... À chacun de juger mais la législation en Europe et en France nous protège pour l'instant des excès.

Véhicules et robots autonomes, pilotage automatique... 

Livreurs robotisés, trains, avions sans conducteurs et sans pilotes : plus de régularité, moins de grèves. On verra comment ça tourne et au profit de qui.
Mais les robots tueurs, c'est autre chose, et même si les employés de Google ont refusé de travailler sur les armes, il y aura de nombreux docteurs Folamour pour le faire.
C'est déjà en œuvre :  les drones tueurs sont déjà semi-autonomes et dotés de capacités de reconnaissance des formes.

Exploitation des données personnelles

Là des choix européens et français, assez exemplaires... au moins sur le papier. Car les moyens réels de savoir ce que fabrique les GAFAM avec les données que nous leur confions, plutôt contraints et forcés, et les moyens de peser pour qu'ils respectent une certaine déontologie, sont faibles. Et Trump saura les protéger.

La morale de cette histoire, la notre... n'est pas encore écrite !

L'ultime espèce invasive, nous-mêmes, réussira-t-elle à éviter de s'autodétruire, avec son éco-système, la terre ? Notre capacité d'adaptation semble désespérément plus lente que l'évolution de notre technologie. Par exemple, nous sommes entrés dans un ère d'ubiquité virtuelle et de communication instantanée : saurons nous les vivre au mieux ?
Et même nos règles et nos lois arrivent toujours bien après les innovations techniques qui bouleversent nos équilibres sociaux. Et la maturité politique ne semble pas au rendez-vous.

vendredi 9 août 2019

19 Ange ou démon ?

Kaléidoscope de quelques aspects emblématiques des TICs.
Passés en revue, avec des arguments pros and cons, pros selon les uns, cons selon les autres, peut-être, et le tout sans prétention à l’exhaustivité. Pas de jugement de valeur dans cet article ... c'est dans le suivant que l'on parlera plus éthique et politique des TICs.
Dans la suite, des applications des technologies de l'informatique et des communications, plutôt que les technologies utilisées qui sont en générale multiples.

Numérisation des services, en particulier, publics

La "webisation" des services publics (ou privés) va bon train et bénéficie d'un soutien sans faille des gouvernements et d'une bonne part de la nomenklatura.
De mieux en mieux faits, même si l'accès et l'utilisation de certains services, est laborieuse, c'est souvent un gain de temps, par évitement des déplacements physiques et des queues aux guichets.
 
Mais c'est aussi un facteur d'exclusion pour une bonne part de la population, handicapée devant l'usage de l'informatique, par manque de formation, d'habitude, d’appétence, et peut-être d'aptitude.
Mais que celui qui n'est jamais resté perplexe devant les nouveaux de distributeurs des stations service, jette la première pierre !
Remplir certains formulaires, après avoir créé un compte, est un drôle de casse-tête quand on n'a pas l'habitude.

L'impact sur l'emploi est en général évident : diminution, voire disparition des agences de proximité, et même des centres d'appel (voir par exemple, les opérateurs de télécoms, la SNCF, les banques...).
En même temps, on éloigne, et pas seulement physiquement, les services publics et les services de base de l'usager ou des clients. Même si la connotation est négative, on peut parler de déshumanisation des services concernés.

Et la fois précédente, on a évoqué les gains en termes de vraie productivité (par rapport au travail) de la fourniture du service. Avec un effet paradoxal, c'est que la diminution des coûts ou des prix de service se traduit par une baisse du PIB, quand la demande de services reste stable ; c'est le cas de la plupart des services de base.

Robotisation

Les robots ne sont pas une invention récente, mais les progrès continus de la robotique ("intelligence", capteurs, effecteurs...) les rendent de plus en plus flexibles et adaptables à différents univers.
Certains emplois sont ainsi transformés, avec une pénibilité plus faible. L'efficacité des nouveaux postes de travail robotisés développe aussi la productivité rapportée au travail.
Autrement dit des emplois peu qualifiés sont supprimés au profit d'emplois de maintenance, mais certainement pas dans les mêmes proportions.
Tous les secteurs sont touchés : aidées par les progrès en biochimie, les analyses médicales, les analyses d'ADN se sont fortement automatisés. Là aussi, moins de laborantins, mais des analyses beaucoup plus efficaces et rapides qu'auparavant.

Véhicules ou robots autonomes

On peut considérer les véhicules autonomes comme un cas particulier du développement de la robotique.
Les champs d'application sont énormes : les trains ou métros automatiques existent depuis longtemps, mais maintenant outre le Graal de la voiture autonome, on parle de plus en plus de cargos automatiques, d'avions sans pilotes, du moins dans le cockpit. Les technologies sont là, reste à régler le problème de l'acceptabilité sociale.
Quant à l'armée, les recherches vont bon train : les robots tueurs ne sont pas loin. D'ailleurs les frappes par  drones pilotés à distance, mais semi automatiques, sont devenues monnaie courante : assassinats ciblés à distance, mais avec quelques dégâts collatéraux éventuels.
Mais on peut utiliser les drones non seulement pour de la surveillance policière mais aussi pour de la surveillance ou de la reconnaissance techniques.

Réseaux sociaux et GAFA

Il y a 15 ans, on ne parlait pas de Facebook, et Google n'avait guère plus de 5 ans.
Depuis c'est la croissance détonante de ces nouveaux géants.
D'énormes possibilités d'échange et de recherche d'informations.
Et des aspects qui peuvent plaire ou fortement déplaire.
Diffusion ultra-rapide des informations, quelques secondes ou minutes, qu'elles soient vraies... ou parfaitement fausses.
Une forme d'ubiquité donnée à l'humanité, grâce aux réseaux sociaux et à leurs messageries instantanées, mais qui favorise aussi un isolement physique, narcissique.
La possibilité d'accéder à des informations de toutes sortes, et sur n'importe qui ou presque, mais aussi un fichage généralisé et profond : vos données, vos photos, vos amis, vos actions, vos centres d'intérêt, vos déplacement, votre comportement...

Reconnaissance des images.

Aujourd'hui il est possible de chercher un individu dans des photos de foule, que ce soit pour des motifs policiers ou non. Vos photos sont automatiquement indexées selon les visages de vos supposés amis qu'elles contiennent.  Qui n'a pas été surpris de découvrir dans la galerie de portraits affichée par l'application, la tête que l'on pensait oubliée ? (Encore que le port de postiches, de barbes ou le lunettes garantit encore, pour peu de temps, une certaine forme d'anonymat).

Traduction automatique

Moins problématique au premier abord, la traduction automatique est entrée dans la vie courante. Babel c'est fini, ou presque.
Un européen et un asiatique qui ne connaissent que leur langue, mais qui ont sur leur smartphone l'application magique, peuvent presque dialoguer, s'écrire...

Plate-formes d'intermédiation

Qu'èsaco ? Ce sont tous les sites qui permettent de mettre en relation une offre et une demande, quasiment sans autre intermédiaire... que les plateformes elles-mêmes. Suivant les modèles, celles-ci se rémunèrent par la pub plus ou moins ciblée, le prix des annonces et/ou des abonnements payés par les offreurs et/ou les demandeurs.
Elles sont multiples : le Bon Coin, Amazon, Uber, Meetic ... et se multiplient dans tous les domaines, et particulièrement celui du commerce, où elles élargissent le concept de commerce en ligne.
La virtualisation des intermédiaires grâce à la plate-forme contribue à élargir considérablement l'offre ou la demande disponibles, de fluidifier le marché, de diminuer les coûts d'intermédiation, de gagner du temps. À condition de savoir se servir d'internet... voir discussion plus haut.
Comme indiqué dans l'article précédent, on constate des gains de la productivité réelle, même s'ils peuvent se traduire monétairement par une baisse apparente du PIB. La virtualisation de la rencontre entre offre et demande, se traduit par une diminution des déplacements, et contribue à réduire l'empreint écologique. Et encore plus quand elle permet de donner une nouvelle jeunesse à des produits qui auraient dormi dans un grenier ou fini à la déchetterie.
Mais évidemment, il y a d'autres conséquences.
La virtualisation des intermédiaires se traduit évidemment par une disparition des intermédiaires physiques traditionnels. Autrement dit, le petit commerce souffre, et les grandes surfaces ou les centres commerciaux fanent en périphérie des agglomérations.
D'où diminution des emplois dans le commerce physique, et, concomitamment, création d'emplois encore moins qualifiés de livreurs et de manutentionnaires. Avènement d'une nouvelle race de travailleurs, encensés en tant qu'auto-entrepreneurs (la fin du salariat, n'est-ce pas), mais qui rappelle furieusement les tâcherons et les journaliers d'antan, étroitement dépendants du donneur d'ordre.
Globalement, précarité accrue et disparition d'emplois intermédiaires aggravant la fracture sociale.

Automatisation du paiement en grande surface

Logiquement, les grandes surfaces réagissent et cherchent à réduire leurs coûts de différentes façons, et à réduire le temps passé par le client pour faire la queue et payer : il faut renforcer l'attractivité de ces hangars. D'où une débauche de recherche pour espionner le caddy du client, le faire casquer rien qu'en le reconnaissant en train de fourrager dans les étals ou sur le point de sortir. Vous êtes ponctionnés après reconnaissance de votre bonne mine !
Bien entendu, le nombre de caissières sera réduit, voire annulé, mais votre visage et vos habitudes d'achat seront archivés dans les serveurs du magasin.

Dans l'article suivant : si le pire n'est jamais sûr, il est néanmoins probable.

jeudi 9 mai 2019

18 Productivité et TICs


Un article qui ne voulait pas accoucher, sur l’éthique des TICs, qui seraient à la fois les meilleures et les pires des choses.
Finalement 3 articles dont voici le premier : TICs et productivité.
Le suivant devrait traiter : « les TIC, l’IA : diaboliques, angéliques ? ».
Et enfin la rupture TIC du troisième millénaire conduira-t-elle à une nouvelle guerre du feu ?

Pour l’instant, parlons économie, et d’abord microéconomie.

Il y a eu une phase de doute sur le lien entre productivité et investissement dans les TIC aux alentours des années 2000. En fait aujourd’hui, le doute n’est plus de mise, en particulier parce que dans un même secteur on observe une corrélation forte entre investissements d’une entreprise dans les TICs et sa performance.
Mais il faut avoir en tête un certain nombre d’éléments. Les gains de productivité varient selon les secteurs d’activité et évoluent dans le temps. Dernièrement les gains semblent être surtout dans les services, par exemple bancaires.
Ensuite les projets TICs amènent rarement des gains s’ils ne sont pas inscrits dans une réingénierie des processus et des savoirs de l’entreprise. Dans le temps, l’idée que à laquelle je tiens, était justement que, côté métier, il n’y a pas de projets TICs : il n’y a que des projets « métier » avec une composante TIC. Faute de quoi l’échec ou le semi-échec sont garantis. Et les coûts d’investissement échoués font évidemment baisser les ratios de productivité des TICs.
Il faut pouvoir aussi mesurer la productivité ramenée par exemple à l’heure de travail : or une partie de la productivité se traduit par une plus grande flexibilité et une plus grande qualité de la production des biens ou des services : on ne sait pas très bien ni mesurer ni valoriser ces facteurs.
Et attention, on sait mesurer dans certains secteurs la baisse de main d’œuvre à production constante : mais si l’on mesure la productivité en la ramenant aux coûts salariaux, on risque d’être déçu. En effet les diminutions d’effectifs affectent essentiellement les salariés aux salaires inférieurs ou intermédiaires et l’on sait qu’une robotisation se traduit par des embauches de cadre et de techniciens plus diplômés, et donc payés plus cher : la masse salariale diminue mais moins relativement que le nombre d’heures de travail, toutes catégories confondues.
Autre point : les changements de paradigme permis par les nouvelles techniques compliquent aussi les analyses des gains en productivité. Ainsi si l’on prend le commerce, les gains permis par les TICs au niveau des commerces traditionnels sont très faibles. Cependant on assiste à une explosion de la vente en ligne : les gains de productivité ne peuvent être appréciés qu’en incluant ce nouveau paradigme dans l’analyse du secteur commerçant.

Je me suis intéressé essentiellement aux gains de productivité par rapport aux heures de travail. Mais les TICs permettent aussi des gains de productivité par rapport au capitale.  Par exemple, ils permettent de produire à flux tendus, ce qui permet d’éviter les stocks de biens intermédiaires et donc de baisser le capital circulant.

Côté macro-économie,

il y a un certain consensus aujourd’hui sur le fait que les TICs ont permis des gains de productivité, mais moins que ce que l’on attendrait.
S'il est déjà délicat de mesurer l’impact des TICs sur la productivité pour un secteur de production donnée, ça l’est encore plus au niveau global. On se heurte de plein fouet à l’ambiguïté du thermomètre PIB. Le plus souvent, en effet, les calculs sont faits grosso modo en divisant ce PIB par un nombre d’heures travaillées.
Or si la production des biens matériels est assez bien connue, une partie des services est peu ou mal mesurée. Par exemple, pour les services non-marchands, assurés par les collectivités et l’état, les montants sont évalués à leur coût de revient. Supposons qu’un coût de baguette magique Macronien permette de doubler les services rendus : à prix de revient équivalent, ça ne fera pas augmenter le PIB d’un iota. Et même plus, si l’on en profite pour réduire le nombre de fonctionnaires, le PIB baissera, et les gains de productivité... baisseront.

Globalement, en réalité, on retrouve les critiques qui sont faites au PIB quand il s’agit d’évaluer les coûts et les bénéfices des démarches environnementales. Exemple bien connu des Shadocks : pour augmenter le PIB il suffit de payer les uns pour faire des trous et les autres pour les boucher. Gaspiller fait monter le PIB, et encore plus si cela génère plus de déchets qu’il faudra traiter.
À l’inverse, si vous prenez des plates-formes d’intermédiation emblématiques comme BlaBlaCar ou Lebon Coin, la valorisation de leurs services se fait vraisemblablement au prix de vente de leurs services (abonnements, ou coûts des annonces).
Or leur valeur ajoutée n’est pas là et n’est pas comptabilisée : moins de transports traditionnels, une réutilisation massive de biens un peu défraîchis, utilisables, qui sans cela auraient fini au fond d’un grenier ou dans une benne à ordures.
Et non seulement ces économies ne sont pas comptabilisées, mais en plus elles contribuent à baisser le PIB et donc la productivité globale !
Autre point. En principe on raisonne à euros constants : on enlève l’inflation de l’augmentation du PIB. Et dans l’autre sens, mais pas toujours, on corrige, pour tenir compte de la baisse des biens ou services produits.
Mais très rarement tient-on compte des améliorations des produits ou services. Si l’on regarde les TICs, la puissance de calcul, ou le volume de données transmises, ramenés à l’euro


d’achat ont explosé en une génération. Les PCs d’aujourd’hui ont la puissance des gros bouzins d’antan pour un coût ridicule à l’aune des anciens monstres. Il est vrai que c’est moins marquant dans la plupart des autres secteurs, ce qui explique que les TICs sont quasiment le seul secteur économique ou quelques économistes ont tenté de tenir compte de cette véritable explosion.
Bref, ce n’est pas parce que le PIB stagne que le niveau de vie baisse ou que la productivité réelle n’augmente pas !

La suite au prochain numéro.