mercredi 14 décembre 2016

10 Plares-formes d'intermédiation ?

Afficher l'image d'origineQuelques définitions ...

Les plates-formes d'intermédiation sont probablement une des manifestations les plus remarquables de ces dernières années de la révolution induites par les TIC. J'emprunte à l'Université Toulouse 1 Capitole la définition suivante
"Le site est une plate forme favorisant la rencontre entre une offre et une demande en diminuant significativement les coûts de transaction (B2B, B2C, C2C). L’opérateur tarifie le plus souvent la transaction".

Maintenant, si on lit bien la définition, les marchés sont depuis fort longtemps des plates-formes d'intermédiation ! Les TIC ne les ont pas inventées ! Et tac ! La place de marché rassemble des commerçants et des producteurs d'un côté, de l'autre les clients viennent acheter ce dont ils ont besoin. Et le gérant du marché empoche les droits auprès des commerçants. Selon Wikipédia, il s'agit de Marchés Bifaces :

La littérature économique ne propose pas de définition consensuelle de ce qu'est un marché bifaces4. Pour (Weyl 2010), les modèles fondateurs comportent trois caractéristiques essentielles : 
  1. Ils étudient une plate-forme, qui propose des services différents à deux faces (ou côtés) du marché, proposant à chaque côté un prix qui lui est propre (exemple : un journal vend du contenu au lecteur et des espaces publicitaires aux annonceurs).
  2. Le marché présente des effets de réseau croisés (ou externalités croisées) : l'utilité qu'un agent d'un côté du marché retire de sa participation au service offert par la plate-forme dépend du nombre de participants de l'autre côté du marché, nombre qui dépend lui-même des décisions de prix de la plate-forme.
  3. La ou les plates-formes jouissent d'un pouvoir de marché bilatéral : elles décident du prix demandé à chaque côté du marché et fixent le plus souvent des prix uniformes (le prix est le même pour tous les agents d'un côté donné du marché). 
L'absence d'une de ces caractéristiques permet généralement de se ramener à des situations où la dimension bifaces est peu pertinente (réseau simple, monopole vertical ou distributeur).

Et les TIC dans tout ça ? 

L'essor d'internet, du WEB, a permis un développement exponentiel des échanges B to C dans le monde virtuel. Les plates formes de Uber, AirBnB, Blablacar, Leboncoin, booking.com et une foultitude d'autres, s'adressent à des millions de personnes.
Ces plateformes permettent de mettre en relation quasi instantanément un demandeur et un offreur, où qu'ils soient, et en fluidifiant les transactions. Du coup les coûts de transaction deviennent très faibles.

Les conséquences économiques

Elles sont multiples. Certaines sont manifestement bénéfiques. Des sites comme Blablacar ou Leboncoin, en permettant le covoiturage ou la réutilisation de biens dont on ne veut plus, contribuent à réduire le gaspillage de ressources. Fini les attentes au bord des routes à attendre vainement un taxi libre : gain de temps. On sent bien quelque part que la productivité des échanges augmente, même si les économistes n'arrivent pas à la chiffrer ou en doutent.
Mais n'est-ce pas la façon de compter qui est en cause ? La productivité (du travail) est mesurée la plupart du temps, surtout en macro-économie, en faisant le ratio du montant monétaire des produits ou services vendus, sur les coûts salariaux. Or avec les plates formes d'intermédiation comme airbnb, leboncoin, blablacar, on se retrouve dans une sorte d'économie grise imparfaitement comptabilisée. 
Individuellement, c'est comme si le pouvoir d'achat était augmenté sans que les revenus le soient.
De quoi bluffer les indicateurs nationaux.

Les conséquences sociales

Uberisation ? Mort des intermédiaires ? Ce paragraphe est moins réjouissant que le précédent.
De fait les plates-formes d'intermédiation rendent obsolètes certaines fonctions d'intermédiaires : les courtiers sont à la peine, les agences de voyage, les agences immobilières, des commerces, des sociétés de services, des compagnies de taxi sont menacés d'extinction. Seuls survivront ceux qui seront capables d'apporter une réelle valeur ajoutée à leurs clients.
Les plates-formes favorisent et même vivent sur l'atomisation des prestations et des prestataires de services. Le prestataire est seul, jouissant d'une autonomie souvent factice, et souvent dépendant à l'excès d'une plateforme d'intermédiation : celle-ci dicte sa loi ... et les tarifs.
Cet aspect a bien été décortiqué à propos d'Uber pop et de plateformes d'intermédiation pour des livraisons ou des courses. Des salariés, protégés par les lois et le code du travail, se retrouvent "indépendants" : c'est de fait la précarisation qui s'accroit.
Mais le pire n'est jamais sûr : on est dans une situation où l'essor des techniques induit un bouleversement sociétal profond. Or les sociétés mettent du temps à s'adapter : après la révolution industrielle, il a fallu des décennies et bien des luttes sociales pour qu'un certain équilibre soit instauré dans les relations entre patronat et salariat.
Il est possible qu'il faille moins longtemps pour réguler le jeu des plateformes d'intermédiation : j'en veux pour preuve les mouvements sociaux récents de chauffeurs ou de livreurs et un certain nombre d'arrêts de justice, aux USA ou en France sanctionnant des abus manifestes de position dominante.
Qui vivra, verra ...


Quelques liens concernant les modèles économiques des plateformes d'intermédiation :
Les Critères de Réussite des Plateformes d’Intermédiation Entre Particuliers
Les nouveaux business models de l'intermédiation 


vendredi 15 juillet 2016

9 Un effet des TICs

Comme j'ai déjà eu l'occasion de l'écrire, le développement des TICs depuis à peine plus de deux générations est une révolution à l'échelle de l'humanité. Son importance n'est pas loin de celle de la domestification du feu ! L'avenir le dira. Nous avons du mal aujourd'hui à percevoir cette révolution, par manque de recul ... la vie est si courte.
Dans cet article je vais essayer de donner un premier exemple de transformations des métiers ou professions induites par les TIC.

Les notes de l'ancien temps.

Comme chacun le sait dans les entreprises, un ingénieur est le plus souvent un pisse-papiers. J'entends par là que dans bien des fonctions, sa production se concrétise par des notes diverses et variées. Quand je suis rentré à EDF, je n'ai pas échappé à cette règle, même si une autre part de ma production était composée de lignes de codes (sur du papier perforé !).
Regardons ce qui se passait pour les notes : il s'agit d'un processus lent et laborieux. Je ne parle pas de l'écriture (encore qu'à l'époque l'enseignement de l'écriture des notes se faisait sur le tas).  Je parle ici de sa frappe puis de sa diffusion. La frappe est réalisée par des dactylos. Première file d'attente dans le secrétariat de l'équipe ! Puis allers et retours répétés pendant des jours ou des semaines pour arriver à une note sans trop de coquilles (sauf sous le tipex). Sans oublier les graphiques réalisées encore quelquefois sur calques et les formules "calligraphiées" à la main. (J'ai une écriture de cochon).
La moindre itération avec les relecteurs (en général hiérarchiques)  se traduit par une multiplication de la durée du processus. Au final, une note un peu conséquente prend facilement six mois après sa conception.
Et maintenant la diffusion ! Quand ce n'est pas ronéotypé, il faut accéder aux photocopieuses rares et chères. Aussi on limite la diffusion. D'autant qu'après la réalisation des exemplaires, il faut les mettre sous enveloppes puis au courrier... tâches exaltantes des secrétaires !

Une génération et Kayak devient réalité (enfin presque) !

Dans les années 70-80, l'INRIA travaille sur un projet de bureau sans papier : le projet Kayak.
Un beau projet mais avec peu de retombées commerciales in fine.
Dans le même temps, à peu près, Xerox innove avec Xerox Star, qui se transformera en GlobalView. De GlobalView j'ai eu le privilège d'assister au ratage technique et commercial : logiciel puissant, Wysiswyg, en réseau Ethernet (à la mode Xerox). Malheureusement affreusement couteux et tournant à l'époque sur PC sous OS/2 hybridé monstrueusement avec un processeur spécialisé pour faire tourner le système Mesa de Xerox : un boot interminable, des plantages en cascade. Le chef de service de mon service, à la pointe du progrès avait choisi son secrétariat comme cobaye. Ses secrétaires, d'abord jalousées, déchantèrent bien vite.

Et dans le même temps ou presque (milieu des années 80) Microsoft impose progressivement Word face à des concurrents comme Wordperfect de Corel.

Toujours est-il, qu'à partir du milieu des années 80, les IBM à boules disparaissent progressivement au profit de PC (IBM !) équipés de MS Word, permettant aux secrétariats de taper leurs textes plus vite sous une forme diffusable et surtout facilement modifiable.
Et progressivement, les versions de Word et de Windows évoluent vers le Wysiwyg des logiciels Corel ou Xerow d'antan sur stations de travail.
Mais il faudra attendre la fin des années 80 et le développement des réseaux internet d'entreprise pour passer à l'étape suivante : l'essor des messageries électroniques et la diffusion des notes grâce à ces messageries. (Babel au départ ! CCmail+MSmail+Lotus mail).
Sans oublier les outils de gestion documentaire comme Documentum qui permettent de gérer les documents et leurs versions, et d'implémenter les processus correspondants.

Si bien qu'aujourd'hui, techniquement, il est possible de dématérialiser tout le processus des notes, de la création, à l'approbation, puis à la diffusion. Si ce n'est pas encore le cas dans les entreprises, ce n'est pas en général pour des raisons techniques. C'est plutôt qu'il est difficile de se défaire de certaines habitudes héritées du papier : signatures sur la page de garde, conservation d'un "original" papier dans les secrétariats...

Productivité bureautique

Quoi qu'il en soit, la productivité en matière de notes s'est considérablement accrue. Si l'on prend par exemple les ratios de secrétaires par ingénieur, quand j'ai commencé à travailler à EDF, on était à environs 1 pour 7. 20 ans plus tard, à l'approche de l'an 2000, on était passé à environ 1 pour 20.
Autrement dit le nombre de dactylos et de secrétaires s'était réduit de plus de la moitié, et à vrai dire les "dactylos" ont disparu ... reconverties en "assistantes". La diminution aurait été plus forte si les tâches dévolues aux secrétaires ne s'étaient pas "enrichies" côté gestion des équipes : traçage des temps des agents, gestion des commandes-factures, interventions sur les budgets ...
Çà c'est pour les secrétaires. Mais pour les ingénieurs, dont beaucoup ont du se mettre à saisir eux-mêmes leurs notes, productivité accrue également : finis les temps d'attente aux secrétariats et béni soit le correcteur orthographique ! Possibilité d'organiser des relectures croisées et parallèles beaucoup plus vite : moins de pertes de temps. En réalité, je ne suis pas sûr que le temps consacré par les ingénieurs à la réalisation et à la vérification des notes ait beaucoup baisser. Par exemple, comme les itérations sont plus faciles, on chicane plus et on multiplie les itérations !
De fait je pense que c'est surtout au plan de l' elapsed time (la durée du process) et de la qualité finale que l'on gagne et que l'on gagne beaucoup. Il s'agit bien de productivité accrue dans la mesure où l'atteinte du même niveau de qualité aurait exigé beaucoup plus d'efforts dans l'ancien temps. Et de plus, une note bien travaillée fait gagner du temps à ses destinataires.
Mais l'on touche ici un point sensible : si la baisse des effectifs des secrétariats est mesurable, les gains apportés par des sorties plus rapides de notes d'une plus plus grande qualité sont pratiquement impossibles à mesurer ! Du coup l'affaire devient subjective : les gens du SI y croient (aux gains de productivité), mais les financiers, non !
C'est une situation sur laquelle j'aurai l'occasion de revenir par la suite : une bonne partie de la productivité induite par les TIC échappe aux outils de mesure habituels.

mercredi 4 mai 2016

8 Sécurité ! Le pire ennemi ...

RSSI

J'ai été 3 ans RSSI à RTE, puis 5 ans à EDF.
Ceci pour dire que j'étais bien au fait des problématiques de sécurité, des méthodes de défense et aussi des méthodes d'attaque.
Mais certains de mes ex collègues risquent de frémir en lisant la suite !

Microsoft veille sur vous !

Le 2 avril,  appel téléphonique sur le téléphone fixe, pris par mon épouse.
Elle m'indique qu'un interlocuteur se présentant comme ingénieur de maintenance à Microsoft souhaite me parler, car ils ont détecté un comportement anormal de mon PC lors des connexions à Internet. Je prends l'appel.
En mauvais français et en anglais moyen, l'interlocuteur me faire part qu'ils ont été alerté par un nombre très important de messages d'erreur en provenance de mon PC.
Pour preuve, il m'invite à examiner l'observateur d'événements (outil standard de Windows).
En suivant ses indications, après une navigation un peu laborieuse guidée par mon interlocuteur, je constate effectivement un grand nombre d'anomalies réseau.
Il m'indique que ses anomalies sont causées par un virus, et après moultes discussions me propose une assistance en ligne pour diagnostiquer plus avant ce qui se passe sur le PC.
Il m'indique également que ce type de virus crée un ralentissement progressif du système, qui se termine par un figeage complet. Il insiste lourdement là dessus.
Pas fou, et bien au courant des risques de la PMAD (prise en main à distance), je lui fais remarquer que je n'ai aucune preuve qu'il est bien de Microsoft.
Il me fait regarder alors (toujours aussi laborieusement) un numéro d'identification que seul Microsoft peut connaître. Effectivement, il me le récite exactement.
J'avoue que si d'une part j'étais méfiant et soupçonnait une tentative de phishing par téléphone interposé, j'étais d'autre part également curieux de connaître la suite. J'avais été même un peu impressionné par le discours qu'il m'avait servi et le côté Big Brother ainsi prêté à Microsoft.
Donc le lui laisse prendre la main à distance sur le PC, un peu trop confiant dans mes capacités à bloquer une attaque par la suite, si d'aventure c'était une tentative de hacking.
Je devenais d'autant plus méfiant que le logiciel de PMAD qu'il utilisait était TeamViewer et non pas l'un des outils classiques de Microsoft.

Passer la PoMmADe pour étourdir la victime 

Avec une certaine agilité, l'interlocuteur me remontre l'observateur d'événements avec sa flopée d'erreurs. Il me montre aussi sur les processus en cours des processus suspects (Adwares en fait).
Pour que je comprenne bien ce qu'il me dit, il utilise un traducteur anglais-français.
Il me décrit encore une fois tous les risques, et en particulier celui de perdre toutes mes données.
Il m'indique alors que le déverminage peut être pris en charge dans le cadre de la maintenance de windows. Mais malheureusement mon contrat de maintenance a expiré ! (Pour ce faire il m'affiche un écran qui confirme cette expiration ; je ne sais d'ailleurs pas trop de quoi il s'agit).
Mais pas de souci ! Il suffit de régler cette maintenance, pour laquelle 3 options sont possibles !

Ça se gâte !

Je choisis la moins chère (quelques dizaine d'euros si  mes souvenirs sont exacts) mais mentionne qu'il est hors de question que je règle cette maintenance par CB sous ses yeux !
Qu'à cela ne tienne ! Allez faire un virement par Western Union.
Mais attention, me dit-il : dans 6 heures, si vous ne faites rien, vous allez perdre toutes vos données !
Je suis enfin définitivement convaincu que je suis sous le coup d'une tentative de rançonnage car jamais le grand Microsoft ne s'abaisserait à de telles pratiques ! Suprême imprudence  : je le lui dis !
Je vois alors se dérouler un mouvement de fichier sur l'écran : move ou delete. Immédiatement je coupe physiquement la connexion internet et arrête le PC en arrêt d'urgence (l'arrêt normal ne se déclenchant pas).
Il m'indique alors que je n'aurait plus accès à mes données la prochaine fois que je redémarrerai le PC, et raccroche.
J'avoue que malgré toutes mes sauvegardes, j'étais un peu inquiet.

Reconstruction... laborieuse

Effectivement au redémarrage, je me retrouve face à une demande de mot de passe inconnue.
Impossible de bypasser la demande de mot de passe par un démarrage sans échec. Toujours ce vieil écran vieillot de demande de mot de passe.
Sur un autre PC je consulte le "net" et trouve des indications pour remédier à un ransomware de ce type : par exemple le kit Kaperski : on le télécharge et on boote dessus.
Avant de me lancer dans l'opération, je regarde les autres options de Windows, et constate que l'on peut repartir d'un point de reprise système. Miracle ! Le dernier date du premier avril et ce n'est pas une farce ! Je lance la restauration (et ne perd que 2 installations mineures du 2 avril).
Et ça marche sans kit. Je retrouve l'usage du PC et grâce au ciel et à la faible technicité des hackeurs constate que mes données sont en clair ...
Moins rigolo, je constate également qu'une partie de mes photos ont disparu.
J'essaye de faire une restauration depuis mon back-up Seagate. Impossible ! (Alors que les sauvegardes sont faites régulièrement ; je l'avais vérifié car les fichiers en back-up sont accessibles dans l'arborescence du back-up). 
Plutôt que d'aller à la pêche aux fichiers, je décide d'utiliser SyncBack à partir d'une autre sauvegarde. Je récupère bien tous mes fichiers.
Mais patatras : je n'arrive plus à faire fonctionner Office correctement : SyncBack a dû m'écraser des fichiers de paramètres d'Office.
Qu'à cela ne tienne ! Réinstallons Office (je suis en Office 365, ça fait partie du possible).
Succès apparent de la réinstallation mais ça ne marche toujours pas (2 fois de suite).
Aux grands maux, les grands remèdes. Désinstallons puis réinstallons ! Ça marche ! Ouf !

Les morales de cette histoire

  • Si j'avais raisonné calmement, j'aurais immédiatement été sûr qu'il s'agissait de phishing : l’omniscience de Microsoft a des limites et faire le lien entre un numéro de téléphone fixe, et un PC précis et certes théoriquement possible mais il y a plus simple pour contacter un utilisateur, ne serait-ce que le mail.
  • Évidemment ne jamais laisser faire une PMAD dans les conditions où elle a été faite.
  • Attention aux sauvegardes : il faut évidemment vérifier qu'elles s'exécutent normalement, mais pour être sûr il faudrait faire un back-up de test (en faisant un signe de croix, car des imprévus sont possibles). En l'occurrence il semble que la restauration de Seagate s'emmêle les pinceaux avec Windows 10.
  • Windows souffre toujours d'une tare congénitale avec un joyeux méli-mélo de fichiers utilisateurs et de paramètres d'applications. Quand on restaure vaut mieux ne restaurer que ses fichiers et réinstaller le reste si nécessaire. Ceci dit Windows a fait par ailleurs de sérieux progrès qui évitent des réinstallations complètes et fiabilisent le fonctionnement.

La morale de cette morale

Faut jamais se croire trop malin et la plus grosse faille de sécurité est l'utilisateur : pas besoin d'une technologie d'attaque très sophistiquée ; un scénario de social-engineering bien rodé, comme celui qui m'a été servi est très efficace, et j'imagine qu'il a fait bien des victimes par ailleurs ...

samedi 26 mars 2016

7 Intelligence artificielle et bêtise naturelle.

L'IA plus intelligente que l'homme  ?

Çà y est, Turing se retourne dans sa tombe, car le champion du monde du jeu de go, considéré comme le plus difficile, est une IA !
Cette nouvelle mérite une halte dans ma chronique, même si en réalité elle me permet de passer des messages que j'aurais de toute façon passés plus tard.
Les spécialistes annonçaient cette victoire de la machine dans une ou deux décennies mais les progrès de l'intelligence artificielle semblent s'être accélérés depuis près de 20 ans. Deep Blue de big blue en était le signe avant-coureur. Deep Mind de gogol en est la preuve.
De plus les techniques utilisées sont plus facilement généralisables que celles de Deep Blue qui mettaient en œuvre des techniques heuristiques spécifiques aux échecs, ainsi qu'un énorme catalogue des débuts et fins de partie.
Dans le cas de Deep Mind, les techniques d'apprentissage non supervisé des réseaux "neuronaux" multicouches (c'est ce qui se cache derrière le nouvel acronyme de "deep learning") permettent d'utiliser des bases de données énormes pour optimiser un réseau de neurones artificiels (et virtuels) pour une tâche spécifique. 
(Voir article très détaillé de Yann LeCun du 24 07 2015 dans le Monde.fr, lien ci-dessous).
Au milieu des années 70, il y a déjà 40 ans, je suivais les enseignements de Jacques Pitrat et jean-Claude Simon à Paris VI pendant ma thèse en IA. Dès cette époque des chercheurs commençaient à travailler sur les réseaux neuronaux multicouches.
Dans les années 90, après la mode des systèmes à base de connaissances, c'était l'engouement pour les réseaux neuronaux. Dans le congrès ISAP (Intelligent Systems Applied to Power system) que j'avais organisé à Montpellier en 94, je crois que sur les 200 articles présentés, près du 1/3 présentaient l'utilisation des réseaux neuronaux. Feu de paille ! Rien de très opérationnel dans ce domaine précis.
Qu'est-ce qui a changé et a permis les progrès sans précédent du "deep learning" après 2000 ?
D'abord les gains de puissance énormes et continus des machines, beaucoup plus rapides, ce qui permet de mettre en œuvre des réseaux de très grande taille. Avant on devait se contenter de quelques centaines de neurones virtuels au mieux.
Mais surtout peut-être la digitalisation massive d'une quantité énorme d'informations structurées, qui permet de construire des ensembles d'apprentissage gigantesques, que l'on peut faire avaler aux réseaux neuronaux pour qu'ils optimisent leurs paramètres.
De plus, dans le cas d'un jeu où l'on peut dire qui a gagné à la fin de la partie, la machine peut faire de l'auto-apprentissage en jouant contre elle-même !

Ceci dit, si on demande à la même machine de jouer dans la foulée ne serait-ce qu'à la belote, ça ne marcher pas ... tant qu'on ne l'a pas entraînée à jouer à la belote.
Mais si l'on réfléchit un peu, c'est aussi notre cas ! Un bon joueur de GO qui n'a jamais joué aux cartes sera perdu au départ...
Finalement il est difficile d'imaginer ce que l'on ne pourrait pas faire faire d'intelligent à la machine.
Par contre,ce qui nous distingue - pour l'instant - c'est le nombre incalculable et la grande variété des tâches que nous avons appris à faire, des plus élémentaires aux plus sophistiquées.

L'IA va nous dominer !

Peut-être bien, pas tout de suite !
En tout cas ce sont les craintes affichées par quelques grands esprits !
La machine n'aura plus besoin de l'homme, qu'allons-nous devenir ?
En plein mythe du Golem !
Et il est vrai que l'homme est capable d'inventer des systèmes démoniaques, comme les bombes H, les outils de surveillance généralisée, les drones et les robots tueurs, des virus mortels artificiels...
Le vrai problème n'est-il pas la folie humaine plutôt que l'intelligence artificielle des machines ?
Asimov avait assez bien cerné le sujet avec ses trois lois de la robotique : encore faut-il que l'homme soit assez sage pour cantonner les machines à un rôle utile pour l'humanité.

La véritable menace / l'IA et la robotique

Ce qu'il faut vraiment regarder, c'est ce qui se passe aujourd'hui dans la production et les services : une utilisation de plus en plus perfectionnée des robots et des TIC (technologies de l'information et de la communication). On assiste à un déplacement des tâches : de plus en plus d'emplois dans la production et les services sont "détruits" par le développement de ces nouvelles technologies.
Dans un article précédent (on était loin de l'IA) j'avais expliqué comment un programme de tracé automatique de graphes PERT avaient permis de fermer une équipe d'une vingtaine de dessinateurs-projeteurs dans une société d'ingénierie. Aujourd'hui c'est à la puissance 10 (ou presque) que cela se passe partout dans le monde.
On crée une masse de chauffeurs-livreurs, mais on supprime une masse d'employés de bureaux, d'agents du commerce ou des banques, d'ouvriers qualifiés. Tôt ou tard l'enseignement sera touché à son tour, voire la médecine...

C'est une crise de civilisation que nous commençons tout juste à vivre !
Si l'on ne s'y attelle pas c'est un précipice qui va cliver la société entre les nantis (tout court) et les nantis de la connaissance, et les laissés pour compte, précaires ou chômeurs.



https://www.google.fr/url?sa=t&rct=j&q=&esrc=s&source=web&cd=2&cad=rja&uact=8&ved=0ahUKEwi_rqjEyN_LAhUH1hoKHfyKBpAQFgghMAE&url=http%3A%2F%2Fwww.lemonde.fr%2Fpixels%2Farticle%2F2015%2F07%2F24%2Fcomment-le-deep-learning-revolutionne-l-intelligence-artificielle_4695929_4408996.html&usg=AFQjCNGiX9IJeF3b4YioaE5pROYTxbpECA&sig2=oKx42d-_myAv6JD3nSCZKA)

lundi 8 février 2016

6 MOA, MOE, AMOA… pourquoi pas MoEU ?



MOA, MOE, PS, PO

Dans le système d’information (SI) naissant du futur RTE, une problématique a très vite surgi : le pilotage des projets SI et les rôles respectifs de la maîtrise d’ouvrage et de la maîtrise d’œuvre.
Pour les projets d’infrastructure ou plus généralement les projets dont la maîtrise d’ouvrage est dans le SI, il n’y a guère de problème car les notions de maîtrise d’ouvrage (MOA) et de maîtrise d’œuvre (MOE) y sont définies depuis longtemps (les années 80 ?), même si certaines ambiguïtés subsistent sur la maîtrise d’œuvre quand la réalisation effective du projet est confiée à une SSII. Dans ce texte, quand on parlera de MOE, on fera toujours référence à la partie de la MOE interne à la même entreprise que la MOA.
Il faut reconnaître que si l’on ne vient pas d’un domaine où rôles de maîtrise d’ouvrage et de maîtrise d’œuvre sont bien repérés, comme dans le bâtiment et les travaux publics, le fait qu’œuvre et ouvrage soient quasiment synonymes rend la compréhension et la mémorisation des rôles sous-jacents délicats.
Je n’ai pas l’intention d’ajouter une définition propre : le lecteur curieux pourra se référer aux articles de Wikipédia ou à l’article plus succinct de « comment ça marche .com » : « On appelle maître d'ouvrage (ou maîtrise d’ouvrage, MOA) l'entité porteuse du besoin, définissant l'objectif du projet, son calendrier et le budget consacré à ce projet. Le résultat attendu du projet est la réalisation d'un produit, appelé ouvrage. La maîtrise d'ouvrage (en anglais Project Owner) maîtrise l'idée de base du projet, et représente à ce titre les utilisateurs finaux à qui l'ouvrage est destiné. »
« Le maître d'œuvre (ou maîtrise d'œuvre, MOE) est l'entité retenue par le maître d'ouvrage pour réaliser l'ouvrage, dans les conditions de délais, de qualité et de coût fixées par ce dernier conformément à un contrat. La maîtrise d'œuvre est donc responsable des choix techniques inhérents à la réalisation de l'ouvrage conformément aux exigences de la maîtrise d'ouvrage. » (En anglais, la traduction la plus proche de maître d’œuvre est « Project manager »).

Mais où donc est le PO ?

Toujours est-il qu’à EDF, il existait une note qui tentait de préciser les concepts en matière de projets : « le management par projets ». 3 rôles essentiels y étaient définis : commanditaire, pilote stratégique et pilote opérationnel.
En principe les choses sont claires. Dans le cas d’un projet SI métier, le commanditaire qui est en quelque sorte la tête de la MOA (en tout cas il a un pouvoir d'engagement) désigne un PS. En général ce sera au sein du métier, et le PS sera garant du bon aboutissement du projet et du respect des objectifs fixés.
Ce PS charge un PO de piloter la réalisation : c’est lui qui est en interface avec les équipes de réalisation internes et/ou externes. Dans le cas d’un projet SI, il paraît évident que ledit pilote doit savoir piloter un projet de réalisation mais qu’en plus il doit avoir des compétences en SI, même s’il peut s’entourer d’experts pour les compléter.
Premier sujet de discorde entre SI et métier : où doit être le PO ? Dans l’organisation du métier ? ou dans celle du SI ? Il est plus que recommandé de prendre un chef de projet qui a de l’expérience et en particulier celle du SI. Dans ces conditions, faut-il prendre quelqu’un du SI et le rattacher au moins temporairement au métier, voire créer une entité métier-SI chargée de la maîtrise d’œuvre des projets SI du métier ? Ou au contraire le laisser le PO dans une structure SI ? La réponse de normand est probablement la meilleure : tout dépend de l’importance du SI métier, des modes d’évaluation pour les PO, des habitudes de l’entreprise. Ce qui est sûr en revanche c’est que le PO est lié au PS par un contrat au moins moral : il lui doit des comptes et l’évaluation du PO par le PS doit faire partie de l’évaluation du PO par sa structure hiérarchique.
Par ailleurs, la réalisation de prototypes fonctionnels, ou les méthodes Rapid And Dirty imposent une forte proximité (« un plateau projet ») entre MOA du métier, et réalisateurs. Ceci plaide pour un rattachement au moins provisoire du PO.    
((RAD : Rapid Application Development, pas toujours si crade, voire indispensable dans des contextes où les besoins doivent être raffinés et pour bien prendre en compte ce qu’on appelle « l’expérience utilisateur »)).

À moi AMOA !

Bien souvent le pilote stratégique s’appuie sur une assistance à maîtrise d’ouvrage.
Son rôle est d’abord d’aider à la définition du besoin métier et à l’élaboration du cahier des charges, puis à lé recette métier et à l’insertion.
Mais très souvent cette AMOA est piochée dans une société de services qui outre le conseil, développe du SI. D’où bien souvent des conflits entre AMOA et PO sur l’élaboration des contrats de réalisation avec les éventuels prestataires externes, sur des choix techniques, voire sur la conduite du projet, et, in fine sur les procédures de recette.
Je passe sur les conflits d’intérêts qui peuvent exister côté AMOA.
Quoi qu’il en soit, l’’AMOA, qui a l’oreille du PS, peut outrepasser son rôle. Il arrive aussi que ce soit le PO. Si le PS a de l’expérience, il saura régler les conflits, sinon ce sont des empoisonnements à n’en plus finir et une bonne probabilité d’échec. Ne pas oublier que l’on fait du SI avec des humains…

Gare aux frontières !

CDC

En principe les choses sont claires, le cahier des charges est l’œuvre de la MOA, les spécifications sont l’œuvre du réalisateur. Oui, mais bien souvent le réalisateur est une SSII. Le PO n’a pas de rôle à jouer ? Si, il doit travailler de concert avec la MOA pour finaliser un appel d’offres qui se tienne, et rajouter les prescriptions techniques qui permettront de garantir une bonne continuité avec le reste du SI et une maintenance économique.
Mais la MOA ne peut être écartée de certains choix techniques : et en particulier quand l’utilisation d’un progiciel est envisagée. On ne discutera pas ici des avantages comparés de solutions à base de progiciels ou de logiciels spécifiquement développés. Ce qui est sûr c’est que le choix a à la fois des incidences techniques et des incidences fonctionnelles : les processus métier doivent être compatibles ou adaptés aux contraintes dures du progiciel.

Le contrat

Qui contractualise ? La MOA ou la MOE ? À l’évidence la MOE qui va suivre le contrat et la réalisation au jour le jour doit être dans le coup. De plus, elle est sensée avoir l’expérience de ce type de d'appels d'offre et de contractualisation. Mais vu que les sous viennent de la MOA et que c’est quand même un point clé du projet, la MOA aussi doit être impliquée !
En clair c’est une œuvre conjointe.

Recette

Souvent on distingue la recette technique à la charge de la MOE et la recette fonctionnelles où la MOA doit s’impliquer.  La recette est donc fatalement une œuvre conjointe. (Ne pas oublier non plus d'impliquer des représentants des utilisateurs finals.)

Déploiement insertion

Le déploiement est une vision technique : donner aux utilisateurs l’accès aux applications.
L’insertion est une vision processus métier ; insérer l’usage de l’application dans les activités métier. À l’évidence les 2 actions doivent être soigneusement coordonnées. De plus la MOE est souvent chargée de monter avec le métier les formations à l’outil.

2 PO pour 1  PS !?!?

J’ai gardé pour la fin une source de conflits, qui avec du recul paraît parfaitement ridicule.
2 PO dans un projet, à savoir un PO métier + un PO SI.
Ça donne des boutons aussi bien côté métier que côté SI.
2 PO pour un même projet ! Quel est le bon ? Quel est le chef ?
Mais j’ai déjà eu l’occasion de l’affirmer : il n’y a pas de projet SI métier !
Il n’y a que des projets métier avec une composante SI : il y a toujours une ré-ingénierie des processus à faire, une insertion métier à préparer... Ces tâches constituent un sous-projet en soi et il est donc logique qu’il ait son PO. Et il y aura également un PO pour le sous-projet SI du projet métier. Sans rentrer dans les détails, il faudra bien que ces deux-là coopèrent puisque les utilisateurs métiers vont subir les applications développées, et que faire une application et la tester sans tenir compte des besoins du métier (qui vont bouger) et des utilisateurs (qui vont changer) est une absurdité.
D’où mon MoEU plaisantin du titre : maîtrise d’œuvre Expérience Utilisateur.
Dans le temps on parlait d’ergonomie des applications. Quoi qu’il en soit il est indispensable de prendre en compte le ressenti des utilisateurs (traduction de user experience ;  en franglais maqué : expérience utilisateur). Le PO métier est probablement le mieux placé pour cela, mais s’il n’y a pas dialogue avec le pilote de la réalisation informatique, on risque d’avoir des surprises à l’arrivée  …