Objectifs et fiscalité en matière automobile

Mon précédent article traitait de la consommation de carburant et des émissions de CO2 des véhicules à moteur. Il mettait en doute les progrès de l’industrie en matière de maitrise des émissions des gaz à effet de serre.

Quelles seraient alors les possibilités de baisser réellement les consommations des véhicules privés ? Je vais tenter de dresser quelques pistes et par la même occasion aborder la question de la fiscalité.

1ère partie : objectifs à atteindre

Décider d’une politique fiscale présuppose de fixer les objectifs à atteindre. Je vais donc tenter de fixer ce que pourrait être une voiture idéale.

Evaluation des solutions actuelles

La voie des petits pas consiste à travailler sur une base existante et apporter des évolutions telles que l’arrêt du moteur aux feux (stop & start), de plus petits moteurs (downsizing) et la baisse du poids. C’est la principale option retenue par les constructeurs.
Cette politique minimise le risque industriel mais apporte un gain modeste.

La voie du tout électrique. Ce type d’autos est popularisé par la marque californienne Tesla Motor dont les voitures sont la coqueluche des nantis concernés par les enjeux d’écologie.Soyons réalistes, un vaisseau de plus de 2 tonnes, dont 500 kg de batteries ne va pas dans la bonne direction. S’il flatte son propriétaire, il ne fait que donner l’illusion de ne pas émettre de CO2 puisque l’énergie nécessaire à charger les batteries provient de centrales qui ont toutes les chances d’être à charbon ou nucléaires.
En revanche, je note qu’un moteur électrique bénéficie d’un excellent rendement, de l’ordre de 90%.
Un excellent point est à mettre au changement de perception du consommateur car un véhicule « écologique » devient attirant et désirable.

Enfin, la voie de l’hybridation consiste à joindre un moteur électrique à un moteur thermique. Le premier succès du genre a été la Toyota Prius.

Cette solution consiste à soulager le moteur thermique lors des relances.
Couplé à une boite automatique, il incite à une conduite apaisée qui participe à une économie de carburant.
A véhicule comparable, une hybride essence bénéficie d’une consommation mixte plus ou moins équivalente à celles d’un moteur diesel.

La voiture idéale

S’il n’y a pas de voiture idéale, on peut néanmoins tenter de fixer les caractéristiques souhaitées, un peu à l’image de ce que Pierre Boulanger avait fait pour la Citroën 2CV en établissant un cahier des charges qui, en substance, disait ceci: « faire une voiture pouvant transporter deux cultivateurs en sabots et 50 kg de pommes de terre, à la vitesse de 60 km/h, pour une consommation de 3 litres d’essence aux 100 km« .

Près de 80 ans après, cette définition reste d’une incroyable modernité. Se concentrer sur la fonction permettrait de redéfinir ce que devrait être une voiture.

Je retiens pour objectif « un véhicule embarquant 4 personnes et ne consommant pas plus de 3 litres aux cent effectifs et qui s’insère aisément dans la circulation actuelle« . Fort des règles de la physique, il faut produire une voiture légère et d’une puissance permettant d’atteindre la vitesse limite sur autoroute tout en minimisant au maximum les frottements.

L’objectif de poids consiste à atteindre la masse d’une familiale des années 60′ soit 750 kg à vide. Utilisée le plus souvent par une personne seule, je note que le transport de 75 kg de charge déplace 825 kg. Ainsi, le ratio charge utile / masse totale n’est que de 9% ce qui constitue déjà un énorme gaspillage.

L’aérodynamique doit bien entendu être soignée et surtout la surface frontale exposée au vent doit être limitée. Moins de surface portante dessine une auto plus petite, donc plus légère.

Quant au groupe propulseur, il sera hybride. Un tout petit moteur thermique de moins de 500 cm3 sera couplé à un moteur électrique dont l’objectif est d’accompagner les relances. Le tout doit suffire à mouvoir l’ensemble confortablement mais sans excès de puissance.
La boite à vitesse sera automatique afin d’exploiter le moteur dans ses plages de rendement optimums.

Et astuce, l’accélérateur asservi sera pourvu de dispositifs optimisés pour l’économie d’énergie. Notamment par un paramétrage qui permet d’accélérer dans la zone de rendement maximum du moteur et/ou en paramétrant des consommations maximums à ne pas dépasser.

Un challenge marketing

Peut-être que le challenge le plus complexe n’est pas d’ordre technique mais de la mercatique. En effet, en dépit des croyances, le marché automobile est très conservateur et supporte mal l’innovation.

Marqueur social par excellence l’automobile n’est pas rationnelle, les constructeurs font tout pour flatter l’égo de l’acheteur. Les tentatives de carrosseries « différentes » ont eu de la peine à s’imposer (p.ex. Renault Espace, Smart) ce qui rend les industriels particulièrement frileux.

Rendre désirable et valorisant un véhicule qui n’en n’impose à priori pas à son voisin va demander quelques trésors d’ingéniosité au département du marketing.

2ème partie : fiscalité

Trois types de prélèvement spécifiques sont appliqués sur les véhicules : les taxes à l’achat, l’impôt annuel et les taxes sur le carburant.

Les taxes actuelles

Aujourd’hui en suisse, il existe bien une taxe à l’achat sur le CO2 mais dont le règlement d’application alambiqué a plutôt pour but de freiner le marché des importations parallèles. Cette taxe n’a pas grand-chose d’incitatif puisqu’elle est pratiquement indolore lors qu’on acquiert un véhicule dans le réseau officiel.

Concernant les impôts, nous allons voir qu’il est relativement complexe d’établir un impôt juste et qui poursuit un but politique.

Par le passé à Genève, l’impôt sur les véhicules était fixé à la cylindrée. Le problème est qu’à cylindrée égale, des catégories de voiture très différentes se trouvaient taxées de façon équivalente.

L’exemple suivant illustre la perplexité devant laquelle le législateur était placé en 1980 :

L’une était une sage citadine, l’autre un dragster taillée pour le rallye !

Pour corriger cette aberration, le législateur a donc modifié l’impôt en tenant compte désormais de la puissance du moteur selon la norme DIN.
Aujourd’hui nous nous trouvons dans la situation suivante :

Voilà deux voitures de même puissance et qui seront donc imposées de la même manière alors que l’une est une micro-citadine et l’autre un SUV familial. Ces deux modèles n’appartiennent manifestement pas à la même catégorie.

Par ces exemples, on comprend la difficulté d’établir une fiscalité équitable et vertueuse.

Cheval fiscal

La notion de cheval fiscal ne correspond pas à la puissance d’une motorisation comme j’ai pu parfois le lire. Il s’agit d’un calcul qui prend en compte toutes sortes de paramètres dans le but d’établir un impôt qui est le reflet d’une volonté politique en matière fiscale.

En France, les formules ont évolué dans le temps avec les versions de 1956, 1978 et 1998.
La dernière mouture de la formule prend en compte la puissance maximum et la quantité de CO2 rejetée et prend la forme suivante :

Cette notion de puissance fiscale a le mérite d’offrir une flexibilité pour la mise en place d’une politique et je suis d’avis que le législateur aurait avantage à se pencher sur une telle formule.

Le futur, une tentative de proposition

Les deux types de taxes visent des objectifs différents :

  • La taxe unique à l’achat doit inciter le consommateur à privilégier une acquisition compatible avec les objectifs fixés par la collectivité,
  • L’impôt annuel vise plutôt à financer les conséquences engendrées par l’usage d’un véhicule.

Pour la taxe unique, je retiens les paramètres suivants :

  • CO2
  • Poids

L’idée est de pénaliser les voitures lourdes et voraces en énergie. Ainsi le consommateur est appelé à réfléchir sur la portée de son achat et sera amené à réévaluer ses prétentions.

Chaque composante de la taxe serait progressive, les deux composantes s’additionnent. Les taxes prennent la forme suivante :

A titre d’exemple, une proposition concrète de formule pour une taxe incitative à l’achat serait la suivante :Avec un coefficient à définir mais qui pourrait être fixé aux alentours de 80.

Quant à l’impôt, c’est une taxe annuelle assez peu incitative en matière de comportement car intégrée dans le budget du consommateur.

Je suis d’avis que le CO2 ne doit pas être compté dans l’impôt car il est strictement proportionnel à la consommation normalisée. La méthode de calcul de cette dernière est douteuse et ne tient absolument pas compte du comportement de l’automobiliste dont les consommations peuvent fortement varier.
Si on souhaite une forme d’incitation à une conduite économe, la taxe CO2 devrait être prélevée directement sur le carburant.

Il faut donc chercher un impôt qui reflète l’usage de la route et la nuisance potentielle qu’induit un véhicule particulier. C’est ainsi que je retiens les deux paramètres suivants :

  • La puissance
  • Le poids

La puissance est un paramètre historique compris de tous, quand bien même il est discutable.
Avec la généralisation du turbocompresseur, l’augmentation de puissance n’est qu’une question de paramétrage de l’électronique embarquée. Ainsi, on peut afficher des puissances relativement faibles et privilégier un couple important qui favorise les accélérations.
D’autre part, la tendance actuelle des constructeurs est de proposer des voitures toujours plus puissantes qui incitent à une conduite plus nerveuse donc moins économe. Je note l’hypocrisie qui consiste à afficher des puissances exploitables toujours plus élevées associé à des consommations flatteuses qu’on ne retrouve pas dans la réalité.

Quant au poids, je trouve que c’est une mesure intéressante. A priori une voiture lourde est plus grosse et occupe une surface au sol plus élevée. Plus lourde c’est aussi une plus grande usure de la chaussée, même si elle n’est que théorique. De sorte que le poids reflète une forme d’emprise plus grande sur l’espace commun.

Comme pour les taxes, l’impôt est progressif et pourrait prendre la forme suivante :

Avec un coefficient à définir mais qui pourrait être fixé aux alentours de 15.

Conclusions

Comme nous l’avons vu, la voiture doit être légère, aérodynamique et disposer d’un moteur d’une puissance suffisante mais pas excessive.

Forcer la fabrication de ce type de voiture passe par une fiscalité incitative. Personne ne sera empêché par plaisir ou par passion d’accéder à un fantasme automobile mais il aura son coût. Ce coût est le prix à payer pour éviter le glissement observé ces trente dernières années où les voitures sont toujours plus grosses, plus lourdes et plus puissantes. Le tout annoncé à des consommations mensongères.

La Suisse n’a pas d’industrie à protéger, elle peut montrer la voie comme elle l’avait fait avec l’introduction du catalyseur en 1987. Tout en gardant à l’esprit que pour un industriel généraliste, la fabrication destinée à la Suisse représente moins d’une semaine de production.

L’automobile n’est pas un objet rationnel et on ne peut espérer une autorégulation des acteurs. L’industrie est puissante et trouve toujours toutes les excuses pour retarder ce qui pourrait nuire à ses affaires.
Au demeurant, à défaut de mesures drastiques, les propositions en matière fiscales me semblent être une piste qui a le mérite de ne pas interdire et qui joue sur l’élasticité des prix.

© Pascal Rulfi, janvier 2015

Téléchargez l’article : Objectifs_et_fiscalité

Publié dans Généralités, Gouverance, Stratégie | Marqué avec , , , , , , , | Laisser un commentaire

Moteurs et CO2, progrès ou esbroufe ?

La notion d’émission de CO2 est connue du grand public depuis que la lutte contre la pollution et le réchauffement climatique sont devenus des préoccupations importantes de la communauté scientifique et des gouvernements.

En Europe, environ 75% des émissions liées aux transports sont dues aux automobiles et aux camions. On comprend donc l’importance de réduire drastiquement ce type d’émission.

C’est ainsi que les gouvernements mettent en place des politiques visant à pénaliser les véhicules polluants sous la forme de taxes improprement appelées « écologiques ».

Depuis l’introduction de ces taxes, les constructeurs ont réagi et annoncent de spectaculaires baisses des émissions de CO2 à chaque génération de véhicules. Mais est-ce que les progrès sont réellement aussi importants que clamés?

Le CO2

Le dioxyde de carbone est produit lors de la transformation chimique découlant de la combustion d’un carburant. Il est proportionnel à la consommation en carburant d’un véhicule et dépend du type de carburant.

Soit :

  • 2’600 grammes de CO2 par litre de diesel,
  • 2’280 grammes de CO2 par litre d’essence,
  • 1’660 grammes de CO2 par litre de GPL.

Baisser le CO2

Par conséquent, si l’on veut baisser les émissions de CO2, il faut baisser la consommation des véhicules. Nous allons examiner ci-après les paramètres qui permettraient de limiter l’impact environnemental.

Diminuer la consommation implique de diminuer l’énergie à déployer pour déplacer une voiture. Les deux causes qui sont à prendre en compte sont :

  • les frottements
  • la masse.

Les frottements sont de diverses origines : frottements internes de la mécanique, résistance à l’air, résistance des roues sur le sol.

S’agissant de la résistance à l’air, il faut savoir qu’elle est proportionnelle au carré de la vitesse. Ainsi pour diminuer ces frottements, il faut un véhicule aérodynamique doté d’une faible surface exposée. Tout le contraire d’un « SUV » à l’aérodynamique d’armoire normande.
La vitesse implique une grande consommation d’énergie. Il est donc nécessaire de la limiter comme le montre le diagramme ci-dessous :

Quant à la masse, elle exige de l’énergie lorsqu’on accélère le véhicule ou lorsqu’on lutte contre la gravité en escaladant une côte.

Le processus n’est pas réversible car l’énergie cinétique n’est pas récupérée lors de ralentissements. En effet, le freinage détruit l’énergie par frottement donc par dissipation thermique.

On remarque que plus les véhicules sont lourds plus ils nécessitent des pneus dotés d’une surface de contact avec le sol importante. Cela induit plus de frottement donc une dépense d’énergie plus élevée. Ceci ne constitue pas un cercle vertueux.

Comme l’affirmait Colin Chapman, le fondateur de Lotus, « light is right », le poids c’est l’ennemi. Pourtant, les voitures n’ont cessé de prendre du gras.

Ainsi, en 40 ans, l’ampleur de la prise pondérale est de l’ordre de 60%, ce qui ne constitue pas vraiment un progrès.
Cette augmentation est en partie explicable par la sécurité passive réelle et par le confort que les voitures modernes apportent.

Les moteurs

De mon point de vue, les deux progrès notables des moteurs thermiques de ces trente dernières années sont la fiabilisation et l’injection.

Contrairement au pastis dont le mélange idéal est de 5 pour 1, le moteur à essence s’apprécie avec un mélange théorique idéal de 15 volumes d’air pour 1 volume d’essence appelé mélange stœchiométrique.
Par le passé, ce mélange était obtenu par un carburateur dont la précision du dosage laissait à désirer. Aujourd’hui, l’injection – couplée à la sonde lambda qui mesure la qualité de la combustion des gaz – permet un juste dosage du carburant injecté dans le moteur. Le résultat est une diminution du niveau des rejets polluants et de la consommation.

Au-delà de ça, un moteur à explosion fournit un travail dont le rendement maximum est fixé par les principes de la thermodynamique formulés en 1824 par Sadi Carnot. Le rendement maximal calculé par Sadi Carnot fait l’hypothèse de conditions théoriques pour un cycle réversible (pas de dissipation).

Sans rentrer dans les détails du cycle thermodynamique, on retiendra que le rendement maximal (ratio de la puissance mécanique restituée par rapport à la puissance thermique fournie par le carburant) d’un moteur est de l’ordre de 30 % à 35 % pour l’essence et de 40 % à 45 % pour le Diesel.

Il s’agit bien d’un rendement maximum obtenu dans des conditions particulières. En réalité, le domaine d’exploitation d’un moteur montre des zones ou le rendement est plus faible comme l’illustre le diagramme suivant:

Le diagramme nous montre que le rendement maximum du moteur à essence qui fait l’objet de l’analyse se produit à un régime compris entre 2000 et 3000 t/min et pour une couple d’environ 140Nm. Conditions atteintes avec une pédale des gaz enfoncée aux 2/3 de sa course.

Sachant que le rendement maximum d’un moteur est fixé par les lois de la thermodynamique il est impossible d’augmenter significativement son rendement.

Le travail des motoristes va donc consister à user d’astuces pour diminuer la consommation. Les domaines de recherche sont :

  • Diminuer les pertes de charges. Par exemple en découplant des charges inutiles lorsque c’est possible (arrêt de l’alternateur ou de la climatisation, stopper le moteur à l’arrêt…),
  • Optimiser l’exploitation dans son domaine de rendement. Par exemple en augmentant le nombre de rapports d’une boite à vitesse automatique et la gérer par un calculateur,
  • Augmenter le domaine d’exploitation optimum. Par exemple avec l’injection directe et la suralimentation sur des moteurs de plus petite cylindrée.

Ces progrès s’obtiennent au prix d’une complexification technique notable dont on peut attendre une fragilisation de l’ensemble. Le tout pour une baisse réelle de consommation qui reste à prouver.

En réalité

Les émissions de CO2 découlent de la consommation d’un véhicule, consommation calculée sur la base d’un parcours normalisé fixé par la directive européenne 70/220/CEE qui date de 1973.

La procédure d’homologation est fortement sujette à caution tant elle ne reflète pas les conditions d’utilisation réelles. Accélérations, température, résistance, le protocole de test fixe des paramètres fantasques tels que des accélérations excessivement lentes (0 à 70 km/heure en 43 secondes).

S’agissant des voitures hybrides, le cycle de test leur est particulièrement favorable puisque les trois quarts du test sont effectués sur les batteries. Ainsi une berline Volvo V60 hybrid est annoncée à 1.8 litres aux cents, ce qui est parfaitement utopique.

De plus, les constructeurs préparent les voitures pour l’homologation et adoptent des astuces pour obtenir de meilleurs résultats, parfois par des moyens relevant de la fraude. On raconte que les calculateurs de bord sont capables de détecter un cycle d’homologation et adaptent les paramètres afin d’optimiser les consommations.

On l’aura compris, les consommations officielles sont très largement sous évaluées et irréalistes dans des conditions de conduite normales.

Les taxes CO2 étant directement calculées sur ces consommations normalisées, nous pouvons ainsi soupçonner les constructeurs d’élaborer des solutions dans le seul but de performer aux tests de consommation.
Par exemple, en France, il serait fortement disqualifiant d’écoper d’une pénalité de 2’000 euros sur un véhicule coûtant 12’000 euros, d’où l’importance vitale de réduire la consommation officielle.

En outre, certaines solutions censées apporter des économies de carburant péjorent les consommations dans les faits. Par exemple, un allongement excessif des rapports de boite permet d’afficher des résultats flatteurs lors du test, mais a un effet contraire au quotidien : en effet l’automobiliste aura tendance à appuyer davantage sur l’accélérateur pour relacer un véhicule devenu apathique.

Notons qu’une nouvelle procédure mondiale établie par les Nations Unies (Worldwide harmonized Light vehicles Test Procedures) devrait rentrer en vigueur et mieux refléter les consommations réelles des véhicules.

Conclusions

Les lois de la physique sont ce qu’elles sont. Déplacer une masse exige une énergie définie qui est fournie par un moteur dont le rendement a peu évolué dans le temps.

Par conséquent, les progrès fulgurants vantés par les constructeurs sont certainement moins importants que clamés. Fort de ce constat, la lutte contre les émissions de CO2 semble un miroir aux alouettes et les communications ont tout du « green washing ».
Les as de la mercatique ont inventé des labels fleurant bon la propreté immaculée (eco2, BlueEfficiency, BlueMotion …) qui relèvent plus de l’esbroufe que d’une réalité quelconque.

La communication sur le CO2 a le mérite de sensibiliser les consommateurs sur un paramètre qu’ils connaissaient déjà : la consommation de carburant.

En revanche, il est douteux que les pouvoirs publics se basent sur des normes vieilles de plus de 40 ans pour lutter contre les émissions de gaz à effet de serre. Doit-on soupçonner une certaine complaisance vis à vis d’un secteur pourvoyeur d’emplois ? Je laisse à chacun le soin de se forger son opinion.

Proposition pour mesurer une consommation réaliste

Normaliser une consommation est une démarche qui me semble vouée à l’échec. On peut se rapprocher d’une consommation plus réaliste mais la norme fera obligatoirement abstraction d’un ensemble de paramètres dont notamment le comportement des conducteurs.

En clair, l’acquéreur d’une Porsche ou d’une Ferrari n’aura certainement pas l’ambition de faire de l’éco-conduite avec son bolide quand bien même il serait probablement possible d’atteindre des consommations normalisées raisonnables.

D’ici octobre 2015, les voitures neuves devront être équipées d’un système d’alerte automatique en cas d’accident. Ce dispositif s’appuie sur des détecteurs de collision, un système de géolocalisation (GPS) et une connexion au réseau mobile. Ainsi, en cas d’accident la voiture appelle toute seule un central et signal sa position. Les voitures sont donc devenues des objets communicants.

Dans une approche « web 2.0 », il suffit d’ajouter dans l’arsenal électronique le débitmètre d’essence qui est par ailleurs un équipement largement diffusé. Ainsi, il suffirait de collecter les consommations réelles mesurées de chaque véhicule pour avoir une estimation assez précise d’un modèle de voiture.

Seraient alors communiqué aux consommateurs les traditionnelles mesures de consommation normalisées ainsi que la consommation moyenne réelle observée qu’un organisme indépendant pourrait être chargé de collecter.

Post scriptum

Deux modèles récents ont été testés par la presse spécialisée et confirment mon propos.

L’essai du tout nouveau Nissan Qashqai 1.2 DiG-T équipé d’un moteur essence ultra moderne embarquant toutes les technologies sensées abaisser la consommation d’essence (downsizing, turbo, injection directe).
Pour cette voiture de 1’350kg, la consommation normalisée de 5.6 litres/100 est flatteuse.
Verdict des essayeurs (caradisiac.com – janvier 2015), la consommation moyenne réelle mesurée est de 8.1 litres aux cent soit 45% de plus qu’annoncé. En ville la consommation bondit entre 9 et 12 litres aux cent: un gouffre !

Le test de la nouvelle Smart Forfour, qui partage sa plateforme avec la Renault Twingo, est tout aussi édifiant. Cette citadine de moins d’une tonne est équipée d’un moderne 3 cylindres essence de 999 cm3 qui promet une consommation de 4,2 l/100 km et 97 g/km de CO2.
Malheureusement, un moteur 3 cylindres demande à être cravaché pour bien fonctionner. Lors d’une conduite qualifiée de dynamique par les essayeurs (turbo.fr – janvier 2015), cette petite citadine a englouti plus de 11 litres aux cent.

Manifestement, les miracles sont à Lourdes.

© Pascal Rulfi, janvier 2015

Téléchargez l’article : Moteurs_et_CO2

Publié dans Généralités, Gouverance | Marqué avec , , , , , | Laisser un commentaire

Maquette et optimisme, un risque important en informatique

Depuis toujours la conduite d’un projet informatique est un exercice périlleux dont le résultat n’est pas toujours à la hauteur des attentes.
Dans cet article, je propose d’aborder brièvement les méthodes traditionnelles de conception et de m’interroger sur la pratique consistant à formaliser les besoins sur la base de maquettes.

Hier

Une longue liste de couacs informatiques illustre l’issue de bon nombre de projets de développement. Par le passé il était admis que seuls 3% des projets étaient livrés dans les délais, dans le budget fixé et pour les fonctionnalités convenues.

Afin d’améliorer ces résultats, dès les années 1970, les théoriciens ont formulé un certain nombre de méthodes (notamment Merise en France et Hermès en Suisse) pour maitriser les réalisations et pour convenir d’un cadre descriptif pour le maitre d’ouvrage.

A son corps défendant, l’informatique est une science horriblement complexe dont la difficulté n’est pas proportionnelle mais exponentielle à la taille de l’ouvrage. De plus, il fallait composer avec les donneurs d’ordre sans expérience sur les mutations numériques.

Enfin, le développement d’un programme nécessitait de produire la totalité du code, généralement de manière monolithique donc peu flexible aux changements.

C’est ainsi que les méthodes de l’époque préconisaient des cahiers des charges détaillés et fermés. Chaque changement donnait lieu à un avenant au contrat qui pouvait devenir extrêmement onéreux selon l’état d’avancement du projet.
En faisant un parallèle avec la construction d’un pont à haubans, cela reviendrait à demander en fin de réalisation une modification afin qu’il devienne suspendu. Impensable.

Les cahiers des charges exhaustifs étaient la réponse au besoin de formalisation d’un projet.
La complexité de décrire le besoin allié à la difficulté d’exprimer une vision claire et pérenne de l’organisation m’ont toujours fait paraitre le cahier des charge comme un vœu pieux, voire un fantasme.
A telle enseigne que je n’en ai jamais vu un rédigé dans les règles de l’art.

Aujourd’hui

Les années 1990 voient émerger de nouvelles méthodes qui permettent de répondre de manière différente au besoin de formalisation et d’évolution d’un projet informatique dans le cadre d’un développement traditionnel.

L’évolution des outils de l’ingénierie logicielle et la possibilité de définir des architectures plus flexibles a permis l’émergence de méthodes qui répondent mieux aux besoins du marché et qui sont plus performantes en terme de résultat net. Le vocabulaire des méthodes dites agiles s’enrichit de nouveaux venus : RAD, XP, SCRUM.

La mise en application des méthodes agiles donne d’excellents résultats mais impose ses propres exigences parmi lesquelles je note :

  • Une équipe de développement soudée, compétente et communicante. Petit, agile et rapide plutôt que énorme et procédurier.
  • Des objectifs partagés, réalistes et auxquels tous adhérent.
  • Un client impliqué et dont les objectifs stratégiques sont clairs. De plus, il est partie prenante et suit son projet.

L’ensemble de ces contraintes implique une bonne maturité des acteurs, ce qui n’est de loin pas une généralité.

Alternative

Une alternative consiste à mettre en place des progiciels de gestion intégré (ERP) adaptés à ses propres besoins.

Sachant qu’il vaut mieux acheter le meilleur que de tout reconstruire, envisager l’introduction d’un « intégré » est une stratégie légitime qui minimise le risque d’un projet aventureux.

Pour certains, c’est même l’occasion de restructurer l’entreprise en imposant une organisation qui devra s’adapter au produit plutôt que le contraire.
J’observe que cette vue théorique fait trop souvent l’économie d’une analyse approfondie considérant que ce qui marche ailleurs doit fonctionner ici. Dans la foulée, puisque qu’il s’agit de déployer un progiciel structurant, on néglige le suivi de projet avec, à l’arrivée, des morceaux de fonctionnalités sans cohérence. Par conséquent, qui n’apporteront pas le bénéfice attendu.

Impliqué dans des arbitrages pour des projets en souffrance, une pratique récente m’interpelle : la maquette powerpoint.
La maquette (mock-up) est généralement basée sur des « workshops » qui sont des réunions entre brainstorming et foire d’empoigne où le prestataire tente de comprendre les grandes lignes du métier du client.

Censé être un spécialiste métier, le prestataire tente de guider les débats et synthétise les échanges en vue de paramétrer une solution qui doit correspondre au mieux aux besoins du client.

Afin de transcrire la synthèse des débats dans un « ersatz » de solution logicielle, les prestataires ont pris l’habitude de dessiner des maquettes (des écrans) constituant l’adaptation de leur progiciel au besoin du client. L’intention est de donner une « idée » de à quoi va ressembler la solution.

Cette maquette est discutée avec le client et deviendra le document de spécification du projet.

Dans le cas où nous avons à faire à un progiciel vertical dont les fonctionnalités correspondent très bien au métier du client, cette démarche a le mérite de faire l’économie d’une fastidieuse analyse et une structure de projet importante.

Au demeurant, cette méthode, ou plutôt cette absence de méthode, donne une vision statique de la solution proposée et ne dit absolument rien sur les flux de données et les processus métier.
En clair, la correspondance entre les processus métier du client et les fonctionnalités du programme relèvent de la chance.

Cette tare devient criante lorsqu’on assemble plusieurs solutions de divers éditeurs. Le plus souvent, la segmentation des solutions est faite par métier où l’on choisit le meilleur programme dans chaque domaine, en minimisant la cohérence du tout sur la promesse d’une interconnexion aisée. Enfin, si le client est organisé en silo, nous avons l’assurance d’avoir maximisé les risques d’échec.

S’il y a difficulté ou échec, le constat se fera très tardivement dans le processus de réalisation du projet. Les licences auront été acquises et les prestations seront consommées à hauteur du budget sans possibilité de corriger le tir.

De plus, en cas de procédure d’arbitrage, en l’absence de documents de référence sérieux, rien ne permettra de déterminer les responsabilités des acteurs. Il ne reste alors au client qu’à remettre la main au portefeuille ou dans le pire des cas enregistrer une perte sèche.

J’illustre souvent le propos par l’ascension du Mont-Blanc par beau temps. Deux méthodes s’affrontent. La première, légère, consiste à miser sur la vitesse, ce qui est possible avec un équipement minimum et en comptant sur la clémence des éléments. La seconde, lourde qui implique plus d’équipements et d’infrastructure, donc plus de lenteur et d’effort.

La méthode légère peut fonctionner en cas de situation idéale; le beau temps se maintient, la force physique est au top durant toute l’ascension.
En revanche, si le mauvais temps arrive ou qu’un imprévu surgit durant l’ascension, le risque de l’expédition devient maximal voir létal.
L’équipement lourd permet d’envisager des plans alternatifs et diminue le risque en cas d’événements imprévus.

Il en est de même avec les projets abordés avec optimisme et avec une structure légère. Pour le décideur il s’agira d’évaluer avec lucidité et attention les points de vigilance afin d’estimer avec objectivité le risque et les conséquences de la méthode choisie.

En tout état de cause, j’invite les responsables de projet à la plus forte méfiance lorsque le projet est abordé sur la base de workshops et de maquettes.

© Pascal Rulfi, décembre 2014

Téléchargez l’article : Maquette_et_optimisme

Publié dans Généralités, Informatique, Stratégie | Marqué avec , , , | Laisser un commentaire

Libre ou privatif, une question de logiciels

Début 2009, j’avais rédigé une étude prospective et stratégique sur les logiciels libres et privatifs. Six ans plus tard, ce document ne manque pas de pertinence. Il commençait ainsi:

Depuis quelques temps, le logiciel libre semble constituer une alternative crédible au logiciel commercial. Cette alternative concorde avec un sentiment général hostile aux grandes firmes éditrices de logiciels.

Polarisés par le contrôle des dépenses et mus par une attitude inamicale vis-à-vis des éditeurs commerciaux, certains politiques demandent que la voie du logiciel libre soit sérieusement examinée par les instances techniques des administrations.

De plus, dans un monde qui propose des modèles gratuits, payants ou payés par des tiers, il devient difficile d’objectiver les modèles économiques. Devant des repères instables, les montants exigés pour l’utilisation de logiciels semblent élevés alors que la contrepartie est intangible.

Le choix d’une plate-forme logicielle est une décision stratégique qu’il convient d’aborder avec prudence et responsabilité. Il ne s’agit pas de choisir des solutions qui « semblent » bonnes mais des solutions qui préservent au mieux les intérêts de ceux qui consentent des investissements.

A défaut de constituer une étude comparative exhaustive, ce document traverse quelques sujets liés aux logiciels libres et commerciaux qui me semblent intéressants.

La suite de l’étude est téléchargeable ci après : Etude prospective

Publié dans Informatique, Stratégie | Marqué avec , , , , | Laisser un commentaire

Expérience de consommation (2ème partie)

Le précédent article a tenté de trouver les grandes tendances de consommation de ces 50 dernières années.

La tentative n’a pas la prétention d’avoir une valeur scientifique mais permet de dégager quelques tendances qui vont nous permettre d’apprécier la qualité de services concrets ouverts au public.

L’idée est de passer en revue des services en nous interrogeant par décennie décroissante s’ils sont en phase avec une époque.

Boutique Nespresso

Nespresso offre du café en dosette emballée dans une capsule en aluminium. Ces doses à usage unique sont perçues comme polluantes et énergivores, ce qui manque de sens. Selon notre modèle, ce n’est pas un produit ancré dans notre décennie.

En revanche, lorsqu’on parle d’expérientiel, Nespresso est un cas d’école. On ne boit pas un simple café, mais on entre dans un univers de saveurs exotiques proposées par Georges.
What else? Des boutiques Nespresso qui reprennent les codes du luxe pour ancrer la marque dans le haut de gamme, une femme en gants noirs vous propose des capsules comme de précieux diamants…tout en sachant que les achats s’effectueront par internet, dans un « club Nespresso » bien entendu.

Nespresso est l’exemple par excellence d’un produit à l’expérientiel soigné qui caractérise les années 2000.

H&M

H&M est une chaine de magasins suédois de prêt-à-porter, active dans le secteur de la mode bon marché qu’il est inutile de présenter.

Acheter bon marché et peu durable, aiguillonné par une mode imposée à un rythme soutenu ne fait pas franchement de sens. Les efforts sont destinés à provoquer un acte impulsif d’achat, éclairage éblouissant et musique tapageuse ne construisent pas une expérience produit, pas plus qu’un environnement intimiste qui prend en compte la personnalité du client.

En revanche, l’aspect du paraitre est fortement présent, notamment en associant très opportunément la marque à des noms en vogue : Lagerfeld, Stella McCartney, Madonna, Beckham.

J’associe donc H&M à un produit ancré dans les années 80.

Migros

Migros est le grand distributeur Suisse comme Carrefour l’est en France. Une institution helvétique de près 90 ans dont le conglomérat est actif dans tous les secteurs de la distribution. Le propos ne concerne pas les services (banque, voyage, etc) ou les distributeurs tels Globus.

Les magasins Migros ne font pas vivre une expérience produit, pas plus que l’offre de service se préoccupe de la personnalité de ses clients. Ses magasins de sport ou d’électronique font pâle figure avec des vendeurs dont l’argumentaire entendu « personne ne s’est jamais plaint » est d’un autre âge. On ne passe pas impunément du rayon « fruit & légume » à « informatique »…

Remarquons tout de même que Migros est une marque rassurante pour le consommateur helvétique. De même que la ligne M-Budget est devenue une marque « achat malin » qui fait du sens et qui est passagèrement devenue un must pour quelques hypster Zurichois.

Paraitre ne fait logiquement pas partie des ressorts de l’offre de Migros.
En revanche la qualité est une valeur que l’on peut attacher à Migros, tant pour les produits que pour l’environnement d’achat qui surpasse souvent les hangars qui caractérisent les hypers étrangers.

L’enseigne Migros me semble s’inscrire dans l’environnement 70′ avec quelques incursions dans des environnements de consommation plus modernes.

Service public

Je choisis un service que la plupart consomment de façon périodique : le service des véhicules.

Voici 3 photos prises ce mois d’octobre 2014 au bureau des autos. A noter qu’une série de photos prises en 2009 sont identiques.

Que nous disent ces images ?

Une proposition de repas plutôt bon marché barre l’entrée de ce service d’Etat. Low cost et peu institutionnel est l’image imposée dès l’entrée à celui qui fréquente le service.
A l’intérieur, le client se retrouve dans un environnement froid et sombre à l’architecture d’intérieur démodée, des guichets, une file et des banquettes inconfortables en ferraille.
On ne peut pas dire que l’accueil démontre une préoccupation de bien être de l’usager qui demeure dans ce cas un simple administré.

Enfin, en sortant, un panneau déclare que « l’administration vous facilite la vie ». Le décalage entre la déclaration d’intention et l’expérience réellement vécue entérine l’incohérence et le sentiment d’amateurisme.

Une revue de l’organisation intervenue dans les années 80 a permis de baisser l’attente aux guichets dont la moindre des démarches occupait bien une demi-journée par le passé.
Un service distribué à la chaine, seul l’aspect de la quantité est pris en compte ce qui inscrit ce service dans un environnement de consommation des années 60.

Constats

Un sondage récent de la faculté d’économie et de management l’Université de Genève fait apparaitre que Migros, les TPG ou l’Etat de Genève sont des employeurs pour lesquels les diplômé(e)s ne souhaitent unanimement pas travailler.

Le professeur Ferrary qui a mené l’étude émet l’hypothèse que ce rejet homogène est « certainement dû à une méconnaissance du jeune public, qui fonde surtout son avis sur son utilisation des services que proposent ces entités ».
Une façon élégante de dire que l’offre de service est peu séduisante pour le consommateur, ce que mon modèle empirique semble confirmer.

En effet, s’agissant du service public observé, la démonstration nous indique que l’expérience de consommation l’ancre dans les années 60. Au demeurant, le prix payé pour le service (au travers de l’impôt) est actuel ce qui crée un décalage entre le prix payé et la perception de la prestation.

Délivrer une prestation dans un environnement actuel et avec une considération réelle de la satisfaction du client me semble une démarche nécessaire pour améliorer l’image du service public. L’effort me semble dérisoire pour un bénéfice important.

Et pour conclure, je vous rappelle que ma démarche n’a rien de scientifique ou d’académique. Le développement de ma démonstration se base sur des observations empiriques objectivées…

© Pascal Rulfi, novembre 2014

Téléchargez l’article : Marché et consommateur (2ème partie)

Publié dans Généralités | Marqué avec , , , , | Laisser un commentaire

Expérience de consommation (1ère partie)

L’expérience de consommation ou les attentes liées à un achat dans nos contrées a évolué durant ces 50 dernières années. Chaque décennie a été caractérisée par les grandes tendances de son temps.

Ces tendances sont largement documentées, mais il me semble intéressant de les passer en revue au moyen d’exemples tirés du secteur automobile.
L’industrie automobile est un marqueur intéressant de son époque. C’est un produit industriel de haute technologie qui évolue dans un environnement ultra compétitif et qui exige d’énorme investissement qu’il s’agit de rentabiliser. Un modèle est condamné à plaire et pour cela il doit refléter les grandes tendances de son temps.

L’illustration suivante résume mon propos.


Les années 60

Époque créative et contestataire durant laquelle la population découvre les joies de la société de consommation. Après les difficultés d’après-guerre, la société est résolument optimiste, la technologie est prometteuse et semble sans limites.
1969 l’homme se pose sur la lune, comment ne pas être ébloui par cette évolution galopante que rien n’arrête ?

Epoque bénie des industriels qui n’ont qu’un souci : produire suffisamment pour satisfaire le marché.
C’est la quantité qui qualifie cette décennie. La Renault 4, présentée en 1961 sera la voiture populaire qui symbolise ces années. Moderne, accessible, pratique donc populaire.
Construite sur l’ile Seguin, c’est notamment dans ses usines qu’auront lieu les grèves ouvrières de mai 68, tout un symbole.

Les années 70

Epoque plus troublée avec l’enlisement du conflit Vietnamien, la guerre du Kippour et en point culminant le premier choc pétrolier. C’est la fin des illusions, le monde découvre sa dépendance à l’énergie et la finitude de ses ressources.
Marées noires, grandes pollutions industrielles, duplicités politiques (Watergate) achèvent les 30 glorieuses insouciantes. La fin de la décennie accouchera d’un courant nihiliste dont les punks sont l’archétype, bonjour la génération X.

Le consommateur atteint une certaine maturité et n’accepte plus d’acheter les yeux fermés. Il se renseigne et peut désormais s’appuyer sur les associations de consommateurs qui émergent dans tous les pays (« à bon entendeur » est créé en 1976) afin d’évaluer la qualité d’un produit.

La VW Golf est présentée en 1974 me semble appropriée pour représenter cette décennie. Fonctionnelle, économique, fiable (elle ne rouille pas), c’est une voiture de son temps qui fera référence. Elle sortira Volkswagen de ses difficultés notamment causées par la monoculture de la Coccinelle.

Les années 80

Thatcher et Reagan initient la vague néo-libérale qui donne le ton. La reprise économique et une bourse qui s’envole, construisent ce qu’on appellera les années frics symbolisées en France par Bernard Tapie qui décomplexera l’argent roi.
Spéculation sur les marchés, instrument financiers, golden boys, junk bonds et délit d’initié entrent dans le vocabulaire. Plus près de nous, une spéculation immobilière de tous les excès mènera les banques, en particuliers cantonales en situation de faillite.
L’industrie informatique naissante génère des nouveaux millionnaires de moins de 30 ans. Tout est possible!

S’il y a eu les punks, c’est également le règne des paillettes et du paraitre. Champagne, disco et révolution gay achève de décomplexer le monde.

S’il est une voiture qui a symbolisé le paraitre pour toutes les bourses, c’est la Peugeot 205 GTI. Des publicités James Bondiennes concoctées par le toujours bronzé Jacques Séguéla feront date. Années broum broum où la voiture sera de préférence rouge et m’as-tu-vu pour se rendre au Macumba.

Les années 90

Guerre du Golfe et, plus proche de nous, éclatement de la bulle spéculative sur l’immobilier, les années 90 commencent par une mémorable gueule de bois.
L’effondrement du bloc soviétique et la fin de la guerre froide ont suscité un élan d’espoir avant de laisser le monde devant de grandes incertitudes. La fin des forces bipolaires nous laisse un environnement complexe qui est encore le nôtre aujourd’hui.

L’apparition d’internet ouvre le monde depuis sa chaise, il change les usages et révolutionne les services : voyages, banques, achats impactent et déstabilisent les acteurs traditionnels.

Ces changements renforcent la tendance du repli sur soi. La décennie consacre le cocooning et devient intimiste ; personnalisation et discrétion sont de mise.

L’Audi 80 break me semble être représentative de cette période. Le charme discret de la bourgeoisie, une carrosserie lisse, sans aspérité mais qui permet tous les excès de personnalisation, cuir et bois caché aux yeux de tous avec la suppression des signes distinctifs. Les « turbo » « injection » sur la malle arrière qui faisaient flores dans les années 80 disparaissent.

Les années 2000

Un certain 11 septembre consacre la complexité de notre monde et entérine la globalisation. L’insécurité devient l’enjeu de la campagne électorale française de 2002.

Dématérialisation et mondialisation, la valeur est générée par des intangibles alors que la marchandise elle-même, produite en Asie, ne vaut plus rien. Entre gratuité et cherté, le consommateur perd ses repères et attrape le vertige devant une planète désormais à portée de main.

L’automatisation et les télécommunications accélèrent le monde dans des proportions inconnues et surtout mal maitrisées. Les échanges d’argent dépassent la dimension d’une nation, la finance est infiniment plus nerveuse, les crises se succèdent à plus forte fréquence et l’impact est désormais global et sans filtre. C’est une décennie des déséquilibres dont la fin plongera l’économie mondiale dans une crise sans précédent.

Désormais, le consommateur n’acquiert plus un bien mais il vit une expérience qui doit être rassurante et positive. Il ne suffit pas d’acheter mais il faut être accompagné avant, pendant et après l’acquisition. Un produit devient marque et raconte une histoire qui se doit d’être authentique.

Pour notre propos, ce n’est plus une automobile qui illustre la décennie mais un environnement produit. Les marques imposent aux garages une image et un niveau de service uniformisé. C’est la fin du mécano en bleu de travail les mains noires de cambouis. Désormais le consommateur vit une expérience aseptisée, connectée et conforme à l’esprit de la marque.
Le BMW Welt est l’exemple d’un temple dédié à la marque, entre musée, garage et outil de propagande. C’est 2 millions de visiteur par an qui vivent l’expérience BMW et participent béats à la gloire du constructeur bavarois.

Et après…. Les années 2010

La question se pose de savoir quelle est la tendance de notre décennie déjà bien entamée.

Les fables de la mercatique perdent en crédibilité.
Les « digital natives » enracinent des habitudes d’immédiateté, que ce soit pour la recherche d’information que dans les habitudes de consommation. De par la multiplication des canaux, la vérité unique n’existe plus ce qui induit un comportement méfiant et pragmatique.

L’individu prend le dessus sur le groupe ringardisant définitivement les valeurs « dieu patrie famille ».
La relation est consommée par opportunité au travers des réseaux, elle est totalement plastique et opportuniste.

Pour qualifier cette décennie, les valeurs que je retiens sont: sens et immédiateté.

Pour revenir à nos exemples, la voiture ne constitue plus un marqueur, depuis la crise de 2008 le secteur croule sous les invendus, les jeunes ne se précipitent plus sur la bagnole qui n’est plus un synonyme de liberté.

S’agissant du transport individuel, je conclus que les valeurs qui caractérisent le mieux notre époque est le vélo électrique!

Finalement, l’histoire de l’expérience de consommation en occident des 60 dernières années pourrait être schématisée comme suit :

Ce schéma servira de ligne conductrice dans un prochain article. Il s’agira d’utiliser ce canevas comme évaluateur d’un service.

© Pascal Rulfi, novembre 2014

Téléchargez l’article : Marché et consommateur (1ère partie)

Publié dans Généralités, Stratégie | Marqué avec , , , , | Laisser un commentaire

Une informatique vertueuse pour l’administration

Depuis plusieurs années, le service informatique de l’état acquiert des forces de travail par le biais de la location de ressources. En clair il loue des informaticiens.
Cette méthode présente quelques avantages parmi lesquels je retiens la flexibilité dans la gestion des ressources et la capacité d’acquérir temporairement des compétences pointues.

Cependant, il en résulte un surcoût dont le parlement pointe régulièrement les excès.
A mon avis, d’autres inconvénients sont plus gênants: les fournisseurs de ressources garantissent une compétence mais en aucun cas un résultat. En d’autres termes, plus un projet dérive dans le temps, plus le fournisseur louera longtemps ses ressources avec profit, ce qui constitue une forme de prime à la malfaçon.
Pour ne rien arranger, l’objectif naturel du fournisseur est d’optimiser sa marge, donc de recruter des ressources sur les marchés au coût le plus bas quitte à négliger les ressources locales. Le paradoxe n’est pas des moindres car la Suisse dispose des meilleures écoles et n’exploite pas ses propres talents. J’ajoute que je n’ai jamais observé de politique RH volontariste pour recruter des diplômés dans nos écoles.

Le parlement émet régulièrement le souhait d’internaliser ces ressources. A mon avis, dans un secteur aussi dynamique la proposition ne constitue de loin pas la panacée.

Je propose une alternative qui porte sur la gouvernance dans la réalisation des projets et passe par une redéfinition des rôles et responsabilités des acteurs.

Sur le principe, il s’agit d’externaliser les projets de développement d’applications à des sociétés locales. L’objectif est de partager les responsabilités et que les acteurs s’engagent sur un résultat.
La définition du projet est fixée par un cahier des charges élaboré par le service des méthodes. Ce dernier se porte garant que le projet fasse sens, dans une organisation adaptée et qu’il soit réaliste dans un périmètre défini.

Pour sa part, le fournisseur assume le développement pendant tout le cycle de vie du produit.
Il prend la responsabilité du produit dont il a la charge, il évalue les coûts et réalise le projet de façon forfaitaire dans le cadre convenu. Ainsi, un projet qui dérive ne permet plus une augmentation mécanique et déresponsabilisée des dépenses comme c’est le cas avec la location de ressources.

Le fournisseur assume la maintenance corrective pendant la durée du cycle de vie du produit et ce, pour un montant qui sera contractuellement fixé.
Il sera également en charge de la maintenance évolutive à des tarifs qui seront convenus d’avance.

L’état acquiert un droit complet et exclusif sur le code et le logiciel, cependant limité au territoire du canton.
A l’extérieur du canton, l’état et le fournisseur sont copropriétaires du logiciel de telle sorte que le fournisseur puisse commercialiser le produit et développer un marché dans un domaine pour lequel il devient spécialiste.

En cas de désaccord entre l’Etat et le fournisseur, le contrat peut être rompu. L’état récupère le logiciel et est libre du mode de fonctionnement qu’il souhaite appliquer pour la maintenance corrective et évolutive.
Au demeurant, le fournisseur initial conserve la propriété du logiciel à l’extérieur du canton. Ce droit est intransmissible, il permet de conserver ses relations commerciales avec des clients actuels ou futurs.

L’intention est de de favoriser l’émergence d’une industrie logicielle spécialisée dans le secteur des administrations en créant les conditions cadres propices à la mutualisation des investissements futurs.

Si la masse devient suffisante, le secteur pourrait générer à terme des rétrocessions et des emplois sur le canton sans augmentation des investissements de la part de l’Etat.

Ainsi le fournisseur ne pourra plus se contenter de louer des ressources spécialisées, il devra développer des compétences et une expérience dans la mise en œuvre globale pour le développement de solutions.
L’amélioration de la qualité devient un objectif vital car mal construire coute cher en entretien.
Cette augmentation de la valeur initie une démarche vertueuse qui, si elle trouve un marché, serait profitable pour tous.

La proposition s’apparente à faire de la promotion pour une industrie innovante sans aucune augmentation des investissements. C’est un partenariat public-privé appliqué au secteur informatique.

© Pascal Rulfi, octobre 2014

Téléchargez l’article : Informatique vertueuse

Publié dans Gouverance, Informatique, Stratégie | Marqué avec , , , , , | Laisser un commentaire

De la méthode pour les projets informatiques de l’administration

La gouvernance des projets informatiques de l’Etat ne déchaine généralement pas les passions et c’est bien dommage car le monde numérique est au secteur administratif ce que les robots sont à l’industrie : un outil de productivité. Par conséquent, un outil stratégique.

Généralement le parlement accepte mollement les projets qui lui sont soumis, souvent pour des sommes extravagantes et pour des utilités qui restent parfois à prouver.
C’est après d’importantes dérives, dévoilées par la cour des comptes, que le public apprend les montants engagés et le résultat net. Le tout dans une relative indifférence devenue fatalité pour cette matière particulièrement ardue.

L’observation de quelques-uns de ces projets donne quelques pistes sur les causes des dérives.

Premièrement, le fonctionnement par crédit d’investissement. Cette approche consiste à développer un logiciel comme on construirait un bâtiment, dans un effort concentré et unique.
Le service dont la demande est prise en compte par l’administration aura une tendance naturelle à surcharger le cahier des charges en fonctionnalités qui s’avèreront inutiles ou tentera d’adresser une couverture fonctionnelle qui ne fait économiquement et logiquement pas de sens.
Or, un système d’information se construit dans la durée, au gré des changements et pour des utilités concrètes. Il s’agit d’un processus évolutif permanent, pas d’une construction unique.

Deuxièmement, à Genève, le règlement stipule que la responsabilité de l’expression des besoins incombe au maitre d’ouvrage (le commanditaire).
Ainsi le maitre d’œuvre aura tendance à reproduire son propre fonctionnement sans réinterroger sa pratique. De plus, l’expression des besoins n’intègrera pas une vision globale de l’environnement qui permettrait de profiter de synergies. Par conséquent, le service a toutes les chances de se perdre dans des complexités coûteuses et inutiles pour un gain de productivité net incertain.
Sans oublier dans certains cas une absence d’objectifs clairement formulés, voire des objectifs contradictoires et non arbitrés qui mèneront à de cuisants échecs, souvent injustement attribués au service informatique.

Le rapport de défiance qui existe entre le parlement et l’exécutif débouche sur une multiplication des instances de contrôle. Malheureusement, le contrôle constate à postériori mais ne prévient pas et son regard est ressenti comme punitif. Finalement, la somme des contrôles et règlements étouffe toute velléité de changement.
Le contrôle est un dispositif qui ne constitue pas une solution pour créer de l’efficience.

Somme toute, l’enjeu est celui de l’organisation. Le service informatique a pour mission de gérer et produire un système d’information, le maitre d’œuvre de mener sa mission à bien de façon efficace. Dans cet environnement, il manque une compétence liée à l’organisation du travail, ce que les industriels appellent le service des méthodes.

Le service des méthodes est l’interface entre les services opérationnels et le producteur du système d’information. Il est chargé d’interroger les processus, de concevoir les outils utiles et pertinents pour les services opérationnels afin d’améliorer la productivité globale et de fournir les outils d’analyse nécessaires à une bonne gestion.

Lorsqu’une demande de projet informatique apparait, le service des méthodes est sollicité afin d’établir, en collaboration avec le maitre d’œuvre, l’organisation, le cahier des charges et les outils de mesure du projet de façon indépendante. Un projet informatique nécessiterait l’aval du service des méthodes pour pouvoir être présenté.

Par extension, le service des méthodes pourrait également être librement sollicité pour établir une étude d’opportunité sur des sujets liés à l’optimisation des processus.
Afin d’éviter les abus, seul le Conseil d’Etat serait habilité à demander une telle étude d’opportunité.

L’abus de contrôle et la défiance ont montré leurs limites et j’encourage le parlement à explorer des voies alternatives dans la bonne gouvernance de l’Etat, dont il semble acquis qu’il devra faire œuvre de tempérance dans l’attribution des ressources pour produire des services à la population.

(Cet article a été publié dans le journal Le Temps du 1er octobre 2014)

Téléchargez l’article : Service méthode

Publié dans Gouverance, Informatique, Stratégie | Marqué avec , , , , , | Laisser un commentaire

Tout neuf

Sous la douche ou en déplacement, les moments de liberté sont l’occasion de laisser ses pensées divaguer au fil de l’actualité.

Parfois des sujets me tiennent un peu plus à cœur et je développe la réflexion jusqu’à rédiger une note sans autre intention que d’éveiller un intérêt ou susciter le débat.

Mieux vaut tard que jamais, je posterai mes quelques rares élucubrations sur ce blog.
Ce n’est pas pour autant que je fréquenterai moins les cafés, lieux d’échanges et de convivialité qui se perdent.

Voilà qui est dit !

Publié dans Généralités | Laisser un commentaire