Découvrez ici les 4 derniers billets

Previous
Next

vendredi 28 avril 2017

Une vision nouvelle sur les territoires de toutes les intelligences

Une vision nouvelle sur les territoires de toutes les intelligences


La semaine dernière, le député Luc Belot a remis au Premier Ministre un rapport commandé en novembre dernier sur le thème "De la smart city au territoire d’intelligence(s), L’avenir de la smart city". Un titre qui résonne avec plusieurs billets de GreenSI, sur la smart city mais aussi sur l'open data.

Alors quoi de neuf révélé par ce nouveau tour de France et du Monde, effectué par cette mission pour dégager des bonnes pratiques pour réussir cette mise en oeuvre dans les collectivités françaises?

Avant d'explorer les 24 propositions du rapport, on peut quand même se poser la question de son calendrier.

Quelle urgence y avait-il à sensibiliser un gouvernement sortant, qui n'appliquera donc pas les recommandations proposées, de plus sur un sujet qui par construction est plus ancré dans les territoires que dans les ministères ?
Cela restera pour GreenSI un grand mystère comme celui de #FranceIA, autre sujet pourtant clef pour le numérique et pour le rayonnement de la France, dont les recommandations rendues en janvier dernier auront de fortes chances de se perdre lors du déménagement à venir du gouvernement.

Le rapport de la mission conduite par Luc Belot (disponible en ligne) reprend une définition de la ville intelligente mêlant numérique et intérêt général: "une ville qui cherche à répondre aux questions d’intérêt général par des solutions numériques, permises grâce à un partenariat entre une multitude d’acteurs".

Son champ d'analyse par le prisme de l'intérêt général est donc volontairement plus réduit que la notion plus générale "Smart City = ville à l'ère numérique" que préfère GreenSI et où les acteurs peuvent interagir avec d'autres considérations que l'intérêt général, comme des contrats par exemple, mais on y reviendra.

Une nécessaire conduite de changements

On retrouve dans ce rapport une vision de la ville intelligente très complète, qui reconnaît ses opportunités pour les territoires, leurs habitants, les entreprises et donc, sans détour, va demander une nouvelle gouvernance par les collectivités territoriales et donc des moyens en rapport avec ces nouvelles missions.

Pour GreenSI, la question du "business modèle" est effectivement LA question essentielle, et un business modèle doit aller au-delà de la justification de l'investissement initial, souvent aidé par des subventions, et doit inclure les coûts de fonctionnement sur la durée. Ce rapport amène donc une grille de décision intéressante pour aider les collectivités à lancer ou non des projets.

Sur la gouvernance, qui est peut être le domaine où l'écart entre l'existant et le besoin est le plus grand, la mission identifie que l'enjeu est d'aller vers plus de transversalité pour sortir de politiques en silo, et d'associer à minima élus et administration, enseignement supérieur, et acteurs économiques.

Cette coordination sera d'autant simplifiée si ils sont déjà impliqués dans la politique de la ville, le numérique ne faisant qu'élargir le champ du développement de ses services.

Elle va aussi devoir donner une place à chaque citoyen, donc combattre la fracture sociale ou numérique, leur donner une plus grande place dans la décision publique et surtout remobiliser ces citoyens pour les élections locales qui ont un taux d'abstention en chute depuis 1982. Car si les élus locaux ne représentent plus les populations, à cette échelle locale, il va être de plus en plus difficile pour eux d'oeuvrer pour l'intérêt général. Compte tenu de cette perspective, les initiatives des "Civic Techs" qui cherchent avec l’usage de la technologie à renforcer le lien démocratique entre les citoyens et le gouvernement local, doivent donc être prises très au sérieux.

Ce rapport fait également le constat d’un manque de  formation des personnels. Notamment sur les fondamentaux du numérique et de la sécurité qui sont pourtant le socle de ces nouveaux services. Ce sera certainement une étape préalable indispensable avant de pouvoir aborder, de façon pragmatique, la question de la gouvernance.

L'accompagnement et la conduite des changements au sein des territoires et de leur organisation est donc certainement un chantier gigantesque et compliqué à engager pour développer la ville intelligente qui prendra donc du temps. Un chantier qu'il ne sera pas facile de coordonner avec celui de la technologie qui relativement ira plus vite et devra se renouveler plus souvent. Bienvenue dans la transformation digitale des collectivités territoriales !

Un marché mondial

Mais ce que révèle ce rapport c'est que la ville intelligente est aussi un marché mondial porteur d'opportunités pour la France. Une marché estimé à environ 1.000 milliards quand on regarde globalement les services à la ville que le numérique vient moderniser (mais n'en représente qu'une partie).


Car effectivement la France dispose d’une réelle expertise dans les marchés des services de la ville, reconnue dans le monde, à l'instar d'Orange, Bouygues, Suez ou Engie qui construisent ou opèrent des systèmes dans de nombreuses grandes villes sur tous les continents. Pour ces entreprises c'est l'occasion de conforter leur position à l'international en utilisant le numérique comme différenciateur tout en faisant de la France leur meilleure vitrine.
Une position très visionnaire de ce rapport au moment où après les premières expérimentation la Smart City veut passer à l'échelle.

L'inauguration à Paris place d'Alésia cette semaine d'un puit de carbone rempli d'algues et de capteurs pour transformer l'air pollué en énergie propre, au coeur d'une des villes les plus visitées au monde et à la veille de recevoir le Comité des Jeux Olympiques,  montre le potentiel de cette vitrine sur le plan international.

La France comme "living lab" de la ville intelligente, ou démonstrateur à l'échelle, qui forte de sa propre expérience exporte sa vision urbaine, sa technologie et son influence, est certainement un éclairage nouveau amené par ce rapport.

A l'autre bout du spectre des entreprises, les start-ups peuvent aussi se développer sur de nouveaux services à la ville car nier la complémentarité des offres privées et publiques conduirait à une dégradation des services offerts aux habitants. De plus, après un premier succès local, ces start-ups pourraient aussi être emmenées par ces grandes entreprises établies à l'international.

Le projecteur mis ces deux dernières années sur la FrenchTech, qui a eu le mérite de réussir la régionalisation des initiatives tout en gardant une marque nationale visible à l'international, est un atout majeur dont ce sont emparés ces nouveaux territoires numériques, et d'intelligences.

Un intérêt général qui ne doit pas devenir un frein

Cependant pour GreenSI l'intérêt général, dans sa conception française, n'est pas le seul moteur de développement dans l'écosystème d'une ville mêlant public et privé. Pour les anglo-saxons, l'intérêt général (ou intérêt commun) est la résultante de la somme des intérêts individuels et non comme on l'entend en France, une finalité d'ordre supérieur aux intérêts individuels qui dépasse l'intérêt commun.

Prenons le cas pratique de l'open data. L'open data s'est développé sur l'idée que le producteur d'une donnée, après l'avoir utilisé lui même, puisse ouvrir cette donnée pour que d'autres lui trouvent des usages qu'il n'avait pas imaginé au départ. Ainsi, en faisant circuler la donnée on va répondre successivement aux intérêts individuels des réutilisateurs qui sont concernés et converger progressivement vers l'intérêt commun vu des anglo-saxons.

L'open data est pour GreenSI le moteur des futurs échanges de données au niveau des territoires et un outil de création de valeur par les données sans précédent en se référant à l'étude en 2013 du sérieux cabinet McKinsey (Open data : unlocking innovation and performance with liquid information) qui voit au contraire la donnée fermée comme une inefficacité des marchés. Une inefficacité évaluée au niveau mondial à $3.000 milliards tous secteurs confondus. Bien sûr, il faudra organiser a posteriori ces échanges avec des contrats et des licences.
Le rapport Smart City qui se fonde sur l'intérêt général a priori propose de le renforcer via les licences, donc d'interdire a priori certains usages, qui peuvent tout à fait correspondre à des intérêts individuels permettant de développer le territoire par le numérique et d'offrir de nouveaux services aux citoyens, deux des enjeux poursuivis par la ville intelligente.



L'idée est intéressante mais la question c'est comment apprécier a priori les réutilisations par rapport à une politique d'intérêt général, dans un monde numérique aux évolutions si rapides, et sans détruire de réelles opportunités ?  Bien sûr tout le monde pense du côté des GAFAs, mais ne tuons pas nos startups françaises non plus. Donc tout cela semble bien compliqué à mettre en oeuvre. La CNIL sur le seul périmètre des données personnelles (non concernées par l'open data donc déjà protégées) a bien du mal, avec les moyens qui lui sont alloués, à obtenir toutes les déclarations d'utilisation de données et d'en vérifier les usages réels.

Pour GreenSI, la souveraineté ne devrait pas nécessairement conduire les territoires à vouloir garder une maîtrise totale sur toutes les données et sur tous les outils de la ville à l'ère du numérique. L'ouverture sur des fonds privés de Station-F à Paris, le plus grand incubateur de startups européen, ou prochainement de The Camp, à Aix en Provence, vont développer des écosystèmes numériques locaux sans précédent qui auront certainement un effet similaire à la Silicon Valley sur les villes Californiennes.

Deux leviers: l'architecture et la conduite des changements

Dans les propositions qui ont retenu l'attention de GreenSI on retrouve celles qui concernent l'architecture (car de tout temps la ville a été une construction avec ses règles et ses standards) et la conduite des changements (car Rome ne s'est pas construite en un seul jour) :
  • Attribuer une compétence nouvelle pour chaque type d’EPCI à fiscalité propre relative à la donnée pour créer un nouveau service public. Une compétence similaire devrait être donnée aux régions et aux départements pour les données qui les concernent.
  • Engager systématiquement des discussions et des collaborations avec l’ensemble des acteurs de la ville.
  • Inclure dans tous les marchés liés à la digitalisation des collectivités une clause sur la sécurité avec des critères d’exigence minimale définis au niveau national, en concertation avec les associations de collectivités et l’ANSSI.
  • Faciliter la réutilisation des jeux de données. Faire émerger une norme pour les données les plus utiles – transport, énergie et adresses – avant 2018.
  • S’assurer que les nouvelles infrastructures numériques puissent être le support de plusieurs usages et que l’investissement initial corresponde à l’adaptabilité de ces infrastructures.
  • Poursuivre le déploiement du réseau haut débit Internet et de la 4G de manière à couvrir les zones blanches.
  • Créer une clause "interopérabilité" et en faire une clause par défaut des contrats de commande publique des infrastructures numériques de la smart city.
  • Offrir des formations techniques en général, sur la sécurité en particulier pour évaluer les nouveaux objets connectés et des systèmes d’informations qui leur sont liés.
À défaut d'avoir un avenir dans des initiatives concrètes du prochain gouvernement, ce rapport permettra certainement aux collectivités engagées dans cette transformation numérique, ou qui la prépare, d'avoir une check-list des sujets à ne pas oublier et de mesurer que c'est une réelle transformation digitale des territoires qui se cache derrière l'acronyme de "Smart City".

mercredi 19 avril 2017

Stratégie digitale : Flip your mind !

Stratégie digitale : Flip your mind !


En 2012, GreenSI publiait une série de billets intitulés "Transformers" pour illustrer avec l'image de ces voitures robots (autobots) le besoin de changement des DSI pour aborder le numérique qui était en train de "digivorer" les industries une par une.

Cinq ans plus tard, la transformation numérique est sous tous les projecteurs et dans toutes les conférences, et l'ubérisation est à l'agenda de tous les comités de direction. Ce sont cinq années qui ont vu dans beaucoup d'entreprises beaucoup plus de changements que les dix années précédentes.

Pourtant, pour avoir eu l'occasion récente de faire un point sur ces changements dans quelques entreprises, on mesure que la route à parcourir est encore longue, et même peut-être sans fin, que les questions sont multiples comme celle du rôle du CDO que l'on redécouvre maintenant comme le "Chief Transformation Officer", une transformation à l'échelle de l'entreprise.

Quand en 2012 les enjeux de l'internet étaient sur les plateformes clients et la consolidation de la présence en ligne des entreprises pour prospecter, vendre et assurer des services, en 2017 le champ de l'internet des objets étend cette relation clients toujours plus loin, et demain, la nature même de cette relation sera chamboulée par l'intelligence artificielle et la blockchain.

GreenSI considère donc que le sujet de la transformation n'est plus celui de la technologie mais celui des usages (Entreprise du futur arrêtons de parler de technologies) et surtout de la conduite de la transformation. La méthode et la capacité d'apprentissage prends le dessus sur la technologie.

Car la technologie émerge à une vitesse plus rapide que celle de son assimilation et encore plus que celle de son adoption. En revanche, la façon d'apréhender la technologie structure encore l'organisation des entreprises et c'est pour celà qu'il faut encore lui préter attention.
Pour GreenSI les entités de l'entreprise qui exploitent la technologie (donc au delà de la seule DSI) se répartissent trois catégories :
  • celles qui gèrent l'infrastructure interne, la sécurise et la connecte à une infrastructure externe gérée par d'autres (Cloud public, Broker, BYOD, API ouvertes ...). C'est généralement le rôle régalien de la DSI.
  • celles qui accompagnent les usages des services numériques internes (notamment le Collaboratif ) mais aussi externes (notamment l'usage des API de l'entreprises par des communautés de développeurs). Le sujet de cette "Direction de l'Efficacité et de l'Attractivité des Collaborateurs" mêlant DSI et DRH est exploré dans "N'est-il pas temps de rebooter l'empire DSI?"
  • enfin, celles qui numérisent les processus pour adapter l'entreprise au digital, des entités aux compétences hybrides (métiers, data et numérique) incluant une approche agile adaptée à ces nouveaux processus et à l'organisation du travail et de la logistique qui en découle. Ces nouveaux processus peuvent alors porter de nouvelles offres de l'entreprise dans cette économie numérique.

La prise de conscience du digital est donc maintenant acquise

En 2012, les difficultés que l'on pouvait rencontrer entre les Directions métiers et la DSI commençaient ; quand seule la Direction métier prenait conscience du besoin de transformation, et que la DSI gardait son fonctionnement traditionnel. Elle gardait sa trajectoire souvent par déni de l'émergence de quelque chose de nouveau (l'internet, le Cloud et même l'iPhone on tous été considérés comme des "aberrations" par les DSI - et leur conseils - quand ils sont apparus.).

D'ailleurs, le déni (après l'ignorance) est la première étape de résistance de toutes les démarches de conduite des changements. Elle montre que le processus de changement a bien commencé. Mais en 2017, qui peut encore affirmer que la transformation digitale de l'économie est une mode qui va passer ? Bien sûr personne ne se retranchera derrière ces arguments.

Mais alors est-elle réellement assimilée ?

Qu'est-ce qui freine encore les projets de transformation numérique en 2017 ? GreenSI en a une petite idée et vos commentaires et nos échanges sur les réseaux sociaux la compléteront. L'hypothèse principale est: Nous sommes entrés dans une phase où nous cherchons à agir à l'ère du digital mais nous pensons encore comme à l'ère précédente.

Et c'est bien souvent sans s'en rendre compte. Parfois malgré un processus de changement engagé, nous ne nous sommes pas encore assez convaincus au fond de nous-mêmes que ce changement est irréversible.


Ce dernier cas, facile à repérer, n'est pas celui qui intéresse le plus GreenSI.
C'est par exemple quand quelqu'un qui n'a jamais fait d'agile vous explique que l'agile ne doit pas être une échappatoire aux projets au forfait et qu'il vous à déjà planifié sur 3 mois ce qu'il y aura dans chaque sprint et vous demande même de piloter selon un découpage arbitraire ignorant le retour clients. 

C'est aussi quand quelqu'un vous explique qu'il n'y a pas de problème pour utiliser le Cloud mais qu'il veut avant en définir les normes et standard.

De vaincre ces resistances au changement qui viennent plus des personnes qui ne se jettent pas à l'eau, que de la démarche collective de transformation, prendra certainement un peu de temps, mais pour GreenSI ce n'est pas le frein principal.

Flip your mind !

Ce qui intéresse GreenSI c'est quand les règles ont changé et qu'il faut penser différemment. Faisons un test pour vous en convaincre.

Pourquoi les gouttes d'eau de l'image ci-dessous vont du haut vers le bas? Et pourquoi les chiffres défilent aussi du haut vers le bas ? Ne passez pas tout de suite à la suite du billet.




Dans le monde de Newton, c'est la gravité qui régit ce mouvement. Et les distributeurs d'eau en profitent pour faire circuler l'eau dans les réseaux sans trop d'effort. C'est un monde où les méthodes locales du monde de la construction se sont imposées à l'informatique (Maîtrise d'oeuvre, maîtrise d'ouvrage,  recette, cycle en V, ...) et cette informatique s'est développée en dehors des métiers (paradigme de la DSI autonome). La conduite des changements est le moyen de déployer ces constructions relativement figées pour que les utilisateurs les adoptent.

Dans le monde numérique (celui de la matrice mise en avant par le film Matrix), les chiffres défilent du haut vers le bas, parce que les développeurs l'ont décidé ! Ils auraient pu programmer de les faire remonter de bas en haut ou aller de gauche à droite. La conduite des changements est remplacée par l'Agilité, cette habilité de créer et de répondre au changement dans le but d’avoir du succès dans un environnement fortement évolutif.

Le monde numérique se manipule donc comme on le souhaite.
Il se construit collaborativement sur des plateformes interconnectées au niveau mondial.

Les développeurs sont les magiciens dont l'entreprise a besoin pour enfreindre les règles du monde physique, car on n'est plus soumis aux règles de la construction et de la gravité mais à celles de l'agilité sous toutes ses formes, et dans toutes les directions. C'est le monde du minimum viable product (MVP), de l'expérience utilisateur (UX), des itérations et de l'amélioration continue (Lean), des plateformes qui amènent des économies d'échelles et un coût marginal, ...


GreenSI va donc rédiger une série de billets intitulée "Flip your Mind" dont l'objectif est de faire prendre conscience, à ceux qui n'en seraient pas déjà convaincus, que les règles du monde dans lequel dorénavant l'entreprise est en compétition et la collectivité opère, ont changé. 

Il faut en être totalement convaincu pour réellement adopter entièrement ce changement pour ensuite manipuler les règles et en prendre le contrôle.

Pour ceux qui ont vu le film Matrix, et la scène mythique des pilules, vous savez que le moment est venu d'explorer la matrice par vous-même : "Choisissez la pilule bleue et tout s'arrête. Après vous pourrez faire de beaux rêves et penser ce que vous voudrez. Choisissez la pilule rouge et vous resterez au pays des merveilles (numériques) et on descendra avec le lapin blanc au fond du gouffre".

Are you ready to flip your mind ?!

jeudi 13 avril 2017

L'État plateforme (numérique) se met en place

L'État plateforme (numérique) se met en place

Cette semaine, GreenSI explore les enjeux de l'ouverture par l'État de la plateforme nationale des données de référence.




C'est donc avec 9 jeux de données que le nouveau portail du service public de la donnée porté par Etalab a ouvert sur data.gouv. C'est la réalisation de la mission chargée de la politique Open Data de l’administration intégrée à la DSI de l’État (la DINSIC). Cette ouverture s'inscrit dans le cadre de la nouvelle dynamique de l'open data en France (et de la loi République Numérique) qui faisait l'objet du dernier billet de GreenSI.


Avec un oeil initié aux SI cette ouverture ressemble furieusement à un... MDM !

Le MDM est le fameux Master Data Management, au sein du système d'information, sur lequel toutes les autres applications peuvent s'appuyer pour projeter leurs propres données. L'enjeu d"une démarche MDM est de réduire les coût de maintenance par rapport à une gestion des référentiels dans une multitude d’applications distinctes et bien sûr aussi de réduire le risque d'incohérence et de multiplicité de définitions et de versions.
L'approche MDM se résume souvent par la phrase souvent entendue: "n'avoir qu'une seule version de la vérité".

Ce qui est intéressant dans le cas présent c'est qu'Etalab arrive à mettre en place une approche de type MDM pour organiser l'extérieur du SI (open data) alors que dans les entreprises l'approche sert d'abord pour gérer la cohérence en interne. La réduction des coûts et de l'incohérence portera donc ses fruits en externe chez ceux qui réutilisent ces données de référence. On peut cependant imaginer que les SI des ministères et des agences au sein de l'État vont aussi s'en emparer si elles utilisent aussi ces données.
D'autre part il est amusant (ou pas) de noter que ce qui relève du simple bon sens dans une architecture SI, voire d'un peu de gouvernance des données entre acteurs, conduit au niveau de l'État à définir par la Loi le côté "souverain" de ces données. Il s'agit certainement d'une autre exception bien française dans le monde de l'open data découvert par les anglo-saxons il y a plus de 15 ans.
Avec ce portail de données de référence, c'est donc une vision très architecturale de l'open data qui concrétise le concept d'État Plateforme numérique, et qui se met progressivement en place. On a une plateforme qui permet à tous d'interagir avec les services numériques de l'État et maintenant avec les données de référence gérées par l'État.

Ces neuf bases de données de référence sont des données qui sont utilisées au-delà des SI de l'État et du service public. Par exemple, la base adresse permet de géo-référencer toute adresse, donc de la positionner sur une carte, un besoin que l'on retrouve dans tous les secteurs et qui est essentiel depuis longtemps pour tous les acteurs de ville par exemple. Quand on regarde les statistiques d'utilisation des données sur data.gouv, la base Sirene ou des associations, maintenant devenues des données de référence, figurent dans les jeux de données les plus consultés.


Avec ce type de plateforme, on va certainement voir émerger de nouvelles organisations pour gérer le cycle de vie de la donnée au sein d'un écosystème et d'en répartir les responsabilités entre les différents acteurs :
  • Les producteurs produisent la donnée de référence et documentent les métadonnées. Ce sont eux qui doivent prendre des engagements pour leur mise à jour, instruire les retours des utilisateurs : par exemple, l'INSEE pour les données Sirene des entreprises.
  • Les diffuseurs mettent à disposition les données avec un haut niveau de qualité et s’engagent sur la performance et la disponibilité. Etalab dans le cadre du portail open data national, mais de multiples diffuseurs existent aussi en région avec des portails locaux.
    Un rôle en rupture avec les approches plus centralisatrice habituelles et où le "réseau" (producteurs et reutilisateurs) doit s'animer via la valeur d'usage des données.
  • Enfin les utilisateurs ou réutilisateurs qui (ré)utilisent ces données de référence pour produire de nouveaux services et créer de la valeur économique et sociale. Avec leurs retours, ils participent à la montée en qualité des données (signalement des erreurs, propositions d’amélioration).
Ces bases permettent donc d'avoir une source de référence, que l'on espère pérenne et rapidement mise à jour par les administrations concernées. Cependant, à ce jour, toutes ces bases n'offrent pas encore d'API pour une utilisation simplifiée. Mais ce n'est pas le plus compliqué une fois que l'on a des données de qualité.



L'été dernier, Etalab avait déjà ouvert quatorze API, comme celle qui permet de rechercher et consulter les annonces de Marchés Publics (BOAMP) directement depuis une autre application ; ou comme le dispositif France Connect, qui permet aux internautes de s’identifier sur un service en ligne par l’intermédiaire d’un compte déjà existant (celui des impots.gouv.fr, ameli.fr…). Dans ce dernier cas, la plateforme Etalab assure un niveau de sécurité supplémentaire puisque c'est elle qui fait le lien avec les fournisseur d’identité et non l'application appelante.

La convergence du sujet open data avec celui des API est une évidence pour GreenSI depuis plusieurs années, il se concrétise au niveau national, entre autres, avec ces nouveaux portails.


Cependant, le chemin sera certainement long pour passer des 14 API plus 9 données de référence actuelles, aux centaines d'API que l'on peut estimer si on considère la place de l'État et de l'Administration dans tous domaines de l'économie française (et donc de facto des données qui s'échangent en amont ou en aval). Il faudra donc des compétences techniques nouvelles au niveau d'Etalab et de la DINSIC mais aussi dans chaque direction SI de chaque Ministère pour produire ces données directement depuis les SI, et exploiter le potentiel de cette architecture, sans s'arrêter au sujet réglementaire imposé par la Loi.

GreenSI fait le lien entre ces SI de l'État plus interconnectés et s'ouvrant sur un écosystème, un État qui doit s'adapter pour exploiter le numérique et ne pas se laisser distancer par une société qui s'en est emparé à tous les niveaux, et la gouvernance interministérielle qui se met en place en matière de filière RH des ingénieurs des systèmes d'information et de communication (ISIC) et qui a fait l'objet d'une circulaire le mois dernier.
À la clef, l'amélioration de l'attractivité de la filière des métiers du numérique au sein de l'État, la fluidification des parcours professionnels et bien sûr l'harmonisation des pratiques (notamment salariales) entre les ministères. Traduisez : ne nous piquons pas les talents entre nous ;-)



Car en terme d'attractivité 
des candidats externes talents du numérique l'État a encore du chemin à faire. On s'en rend compte quand on consulte l'annonce de l'ouverture de plusieurs postes de développeurs en CDD de 3 ans (sic!) pour rejoindre l’incubateur de l'État, et travailler sur les projets numériques qui doivent transformer les services de l'État (sinon, à quoi bon avoir un incubateur).

Ce cadre RH contraint empêche clairement de rivaliser avec les offres de startups qui embauchent immédiatement en CDI après une période d'essai de 3-6 mois et offrent en bonus des actions de la startup. Sans compter sur les entreprises qui se battent aussi pour avoir les meilleurs profils. Et c'est sans anticiper la pénurie de bons développeurs annoncée qui va s'accentuer sur Paris quand l'incubateur "Station F" aux mille startups sera totalement déployé dans le sud est parisien et aura aspiré tous les jeunes des prochaines promotions de la 42, Epitech, Epita et autres écoles du numériques environnantes.

En synthèse, l'ouverture des données est donc un formidable levier de transformation qui oblige à se poser les bonnes questions comme celle de l'architecture, des API, de l'urbanisation du SI, des rôles et responsabilités des acteurs et même de l'attractivité qu'il faut pour conserver les talents qui sauront tirer parti de ces plateformes.

Des sujets auxquels la filière SI de l'État s'attaque et que l'on retrouve également dans les DSI des entreprises privées où, à quelques exceptions, le cadre de la Loi République ne s'applique pas. Finalement l'architecture des SI n'a pas de frontière pour la circulation et la valorisation des données.

lundi 3 avril 2017

Opendata: nouveau départ!

Opendata: nouveau départ!

La conférence EFE "L'open data en pratique" le 23 mars a été l'occasion de rencontrer de nombreux acteurs de l'opendata en France, tous engagés dans des projets dans leur collectivité locale, mais bien souvent aussi ambassadeurs de l'open data au delà des limites de son territoire.

Ce fut une belle occasion de faire le point sur cette démarche open data qui est entrée dans la loi République Numérique par la grande porte en 2017, et qui n'attend plus que son dernier décret d'application pour que les 3800 collectivités (de plus 50 agents et plus de 3500 habitants) soient immédiatement concernées par son déploiement.

L’ouverture des données publiques est donc désormais une obligation. Pourtant, comme l'a présenté Olivier Deviller, conférencier sur la transformation numérique qui a travaillé en collectivités, et animateur de la journée, la question n'est pas une contrainte réglementaire de plus mais bien un levier du changement pour favoriser l'innovation dans les collectivités locales, et plus largement dans tout l'écosystème de la future Smart City. 

Pour cela il va falloir quitter le monde limité des premiers "ambassadeurs", qui a caractérisé la période de ces 7 dernières années, (les premières ouvertures comme Rennes ou Bordeaux datent de 2010-2011), et trouver le moteur à allumer pour aller vers l'appropriation la plus large possible.

Dans un contexte financier restreint, l’open data est donc clairement un levier d’optimisation des politiques publiques, de développement de l’innovation et pourquoi pas du territoire (numérique) pour les plus audacieux.

L'Occitanie, la nouvelle région qui rassemble en autres Toulouse et Montpellier, est certainement l'un des barycentres français de ces territoires qui veulent utiliser l'open data pour dynamiser leurs actions. Sandrine Mathon, chef du service Administration de la Direction du Numérique (ex DSI) de Toulouse Métropole, responsable de l'ouverture des données de la Métropole et membre active de l'association Open Data France, a rappelé les fondamentaux derrière l'open data.

Un business modèle qui reste à trouver

Les données publiques concernées sont les données que la collectivité collecte et utilise pour ses missions de services publics et qu'elle ouvre ensuite publiquement pour le bénéfices de tiers, internes (les agents des autres services) ou externes (entreprises, startups, grand public...), avec des formats facilement ré-exploitables.

Les limites fixées à cette ouverture sont celles des données personnelles (régies par la CNIL), et celles des données sensibles sur le plan de sécurité (OIV, Loi de Programmation Militaire...).

Les collectivités qui confient des missions à des prestataires externes (PS) ou délèguent leur services (DSP) ont commencé l'insertion de clauses dans les marchés publics pour collecter les données relatives à ces missions au fil de l'eau, et pas uniquement en fin de contrats (qui sont souvent de plusieurs années). La nouvelle loi viendra les aider en modifiant également les règlements des codes qui s'appliquent à ces contrats.
Mais dans les 3800 collectivités concernées par l'opendata, la très grande majorité regroupent entre 15.000 et 20.000 habitants. Elles n'ont donc pas les moyens d'une grande Métropole. Pour GreenSI, il est donc évident que seule la mutualisation et les économies d'échelles permettront d'amener ce service de la donnée sur tous les territoires.
L'autre difficulté qu'il faudra lever, c'est de répondre au "business modèle" du financement des coûts du service avec des moyens complémentaires.
Pour GreenSI, il est en effet illusoire de penser que le service sera "gratuit" puisque les données, même si elles sont déjà collectées et utilisées, devront être nettoyées, anonymisées (contraintes CNIL, LPM, ...) et exposées avec un niveau de service et de disponibilité suffisant pour qu'elles soient réutilisées.

Tout ceci a donc un coût : serveurs, stockage, supervision... qu'il faudra bien financer soit directement (vendre l'accès au service open data), soit indirectement (utiliser les ressources de la collectivité donc réaffecter des impôts)
Or, la loi Valter a fixé la gratuité des données publiques et la nouvelle loi a confirmé les licences de réutilisation à titre gratuit qui seront fixées par un décret qui n'est pas encore publié (ODBL, License ouverte et CCBY devraient être confirmées). Une équation qu'il reste donc à résoudre avant d'allumer le moteur pour passer à l'échelle...

Au niveau national le décret du 14 mars met en place le service public de la donnée (nationale) pour les données de références (base SIRENE des entreprises, répertoire des associations, bases RGE de l'IGN, Organisation administrative...). Sa mise en oeuvre demande aussi un haut niveau de disponibilité, de sécurité et de fiabilité qui conduit naturellement à l'ouverture d'API. Les entités productrices de ces données vont donc également devoir leur allouer des moyens supplémentaires à cette mise à disposition, mais elles en ont certainement plus les moyens que les collectivités de moins de 15.000 habitants.

Les ingrédients législatifs sont en train de s'assembler  pour passer à l'échelle, mais le plus dur reste à faire : accompagner le changement à cette échelle, en interne mais aussi en externe.

La conduite des changements pour passer à l'échelle

Pour cela, Romain Lalanne de la Direction Digitale de la SNCF qui a piloté l'ouverture de l'API SNCF (ouverte en déc. 2015), riche aujourd'hui de 88 jeux de données  (sur data.sncf.com - horaires, régularité, comptage voyageurs, incidents) s'est appuyé sur un écosystème digital le plus large possible : développeurs, sociétés de services, startups de la Frenchtech...

L'open data conduit à créer et animer la communauté des réutilisateurs. Sinon, les données ouvertes resteront sans usages à dormir sur les serveurs.

L'ouverture d'API, par rapport à des fichiers XLS ou CSV, prépare l'avenir quand les robots dans les gares ou les chatbots dans les messageries instantanées voudront eux aussi connaître les horaires pour renseigner les usagers avec qui ils sont en contact. Le choix de SNCF est de proposer son API gratuitement jusqu'à 150.000 requêtes par mois, puis de tarifer le service quelles que soient les données demandées (et donc de son coût de mise à disposition). Un modèle lissé qui permet une plus grande lisibilité.

Parmi les autres retours d'expériences de collectivités qui ont lancé un projet de portail open data, on trouve la Métropole Européenne de Lille qui reconnaît être partie parce que toutes les autres grandes métropoles avaient déjà lancé un portail. Pourtant, faut-il ne pas ouvrir tant que les données ne sont pas parfaites ? Et bien non justement !

L'ouverture a permis d'exposer les données et de corriger les erreurs en travaillant directement avec les producteurs. L'ouverture n'est que la partie émergée de l'iceberg, une étape vers une animation autour des données du territoire en commençant par les producteurs et en allant vers les réutilisateurs.

L'implication de tous les acteurs

Autre témoignage, celui de David Poncet, responsable Open Data de l'Agglomération de Saint Malo qui a mis en place une démarche systématique de scoring (faisabilité politique, technique et juridique) des données de la collectivité pour évaluer leur potentiel d'ouverture. Un scoring auquel GreenSI ajoute bien sûr l'usage et l'attente de la donnée par une écosystème, même si ce n'est pas toujours facile à évaluer et que cela peut cacher des surprises.

Par exemple, Saint malo a ouvert les menus des cantines municipales et déclenché le développement par un particulier d'une application citoyenne pour les partager ("Y'A D frites"). La rencontre avec ce ré-utilisateur et les différentes prestataires des cantines a permi de normaliser le format d'échnage de ces menus et de donner plus de rayonnement à l'application.

Une histoire parallèle à celle qui s'est passée à Toulouse Métropole avec l'application ("QuiDitMiam!") démontre que cet usage, promis partout où il y a des enfants avec un smartphone, a un bel avenir. Il se pose alors la question du rôle (ou pas) de la collectivité à soutenir le développement d'une application au-delà de son territoire, et pour la startup à trouver un modèle économique. C'est ce qu'a fait cette semaine QuiDitMiam en participant au salon Restau'Co pour y présenter une version nationale de son application.

La cantine scolaire en train de devenir le premier succès à grande échelle de l'open data ?!...
Autres surprises, le jeu de données le plus réutilisé à Saint Malo est celui de la position des bateaux pour le départ de la route du Rhum et au Département 92 (qui a reçu un trophée pour sa démarche open data), ce sont les photos libérées des archives de la planète du Musée Départemental Albert-Kahn

Ces données permettent de créer de nouveaux services dans le domaine des loisirs et de la culture.Au final, c'est donc bien par "test & learn" que les avancées sont les plus significatives. Le DGS et DGA doivent être impliqués en amont avant d'aller travailler avec les services pour l'ouverture de leurs données. On note que le processus s'accélère quand les élus s'impliquent, et qu'au final ce sont eux qui doivent trancher quand les services ne sont pas en phase pour ouvrir tel ou tel jeu de données. Le portage règlementaire était nécessaire mais il n'est pas suffisant.

L'open data comme ouverture du SI

C'est un diagnostic partagé par Yann Mareschal de Bordeaux Métropole qui a retracé l'historique des multiples démarches open data du territoire depuis 2010. Sans réduire l'engagement de chacun, l'heure d'une plus grande mutualisation au niveau régional est arrivée. De plus, si à l'avenir l'open data est un signe de vitalité de l'aménagement numérique du territoire, il s'inscrira dans une compétition entre grandes collectivités pour attirer les investissements.

Jusqu'à présent la motivation des convaincus a été essentielle pour faire avancer les projets. Mais pour passer à l'échelle il faudra convaincre à tous les niveaux. C'est donc avec un projet "Smart Data" fédérateur que Bordeaux Métropole s'attaque à cette nouvelle étape de rationalisation qui doit mobiliser en interne les élus, les métiers et bien sûr la DSI. L'open data est aussi vu comme un moyen de "garder la main sur l'architecture" du Systèmes d'Information et un formidable moteur pour les réorganiser.

Voici une idée que GreenSI ne peut pas renier : l'open data comme brique du SI et de la normalisation des données. C'est une condition qui n'était pas présente dans les projets et qui est certainement devenue nécessaire. Elle n'est bien sûr par suffisante et ce sont les nouveaux services/usages et leur succès qui resteront les critères de succès de la démarche. C'est une évidence que la DSI ne doit pas oublier quand elle n'est pas en prise directe avec les citoyens et/ou que son périmètre se limite aux SI internes de la collectivité.

Après la première vague des projets commencée en 2010, la période est donc propice aux retours d'expériences avant un nouveau départ de l'open data dès 2017, mais certainement plus en 2018 quand le calme sera revenu en France sur le front électoral pour remobiliser nos élus.

jeudi 30 mars 2017

Pas d'Internet des objets sans écosystème

Pas d'Internet des objets sans écosystème

Cette semaine, c'était l'effervescence à Paris pour les acteurs de l'Internet des Objets (IoT) avec à la fois l'IoTWorld et la conférence LPWAN. L'Internet des objets, cette infrastructure qui se développe sur l'internet mondial, se déploie dans l'entreprise et les collectivités locales pour des applications plus industrielles au cœur de la transformation numérique.


Dans ce contexte, GreenSI s'est penché sur les prévisions du cabinet IDC en matière d'IoT. Des prévisions très pertinentes sur plusieurs points, en tout cas plus originales que celles qui se contentent de projeter de façon linéaire l'internet actuel à l'échelle de 50 milliards d'objets.

Mais connaissez-vous le LP Wan, le Low-Power Wide Area Network ?

Dans un contexte d'entreprise numérique étendue, le WAN dépasse les murs de l'entreprise et parfois a besoin de se déployer là où il n'y a pas d'énergie pour alimenter les objets qui émettent des mesures permettant de numériser les processus. La disponibilité d'une place de parking dans la ville est facilement mesurable par un capteur dans la chaussée, mais celui-ci doit avoir de l'énergie pour émettre régulièrement son état et signaler que la place est disponible. 

C'est là que ces liaisons sans fil à faible consommation énergétique sont de plus en plus utilisées. Elles permettent de maîtriser la durée de vie des batteries dans les capteurs (durée de vie de 20 ans nécessaire dans certains cas!)

Cela concerne bien sûr les villes et les collectivités locales qui gèrent leur aménagement, mais aussi les entreprises pour tracker les processus de bout à bout, notamment dans la logistique ou le suivi de chantiers.

Pour l'OVUM dans une récente étude, le LPWAN, longtemps réservé aux distributeurs d'eau ou de gaz (l'electricité utilise son propre réseau électrique) devient une tendance forte dès 2017.  Ses usages vont se multiplier, mais aussi ses technologies avec l'arrivée du NB-IoT (à bande étroite IoT) et du LTE-M (Long Term Evolution pour machines).

C'est donc cette semaine que GRDF, SUEZ, Sagemcom et une trentaine d'autres acteurs, historiques ou startups, ont choisi pour annoncer leur alliance: l'Alliance WIZE. Ils ont rappelé au marché que leur technologie éprouvée depuis plus de 10 ans fait l'objet de milliards d'investissements (à comparer aux 150 millions d'euros levés récemment par Sigfox), et se déploie massivement sur les territoires pour télérelever les compteurs d'eau et de gaz.
Alors pourquoi ne pas réutiliser cette infrastructure, dont la fréquence est normalisée et la qualité de service est connue, pour d'autres usages ?



Libérée au niveau de l’Europe à l’aube des années 2000, la fréquence 169 MHz utilisée par ces opérateurs, largement intégrée par les fabricants de semi-conducteurs dans des composants radio de faibles coûts, offreune portée de plusieurs kilomètres en champ libre. Elle permet aussi des débits compris entre 2400 et 6400 bits/s, qui permettent d’échanger des télégrammes de plusieurs dizaines d’octets.

Le réseau n'est bien sûr qu'une partie de la solution pour assurer les nouveaux usages, mais ses caractéristiques physiques, comme le besoin en énergie ou le fait que les communications soient bi-directionnelles, en font un élément de choix essentiel. Il est donc vraisemblable que l'avenir sera fait de plusieurs réseaux, dont la fidèle 3G/4G (et dans 3 ans 5G), mais aussi d'autres réseaux longue portée (WIZE, Sigfox, LoRa,...), qui seront choisis en fonction des usages.

C'est finalement plutôt une bonne nouvelle pour les DSI soucieux de la pérennité de leurs investissements de pouvoir faire ce choix.
Sigfox, très présent dans les médias, pouvait nous laisser croire qu'il n'y aurait qu'un seul réseau IoT qui traiterait tous les usages. Il n'en est rien. Sigfox est par exemple vu par l'analyste IDC principalement pour les applications non critiques, pour une partie relativement faible de l'ensemble des applications.


La ville et les infrastructures ne sont d'ailleurs pas le seul usage de l'IoT.


Pour IDC, en 2017, les véhicules connectés, les objets pour le bien-être personnel et les bâtiments intelligents seront à l'honneur dans l'ensemble des régions du monde, et représentent $96 milliards en dépenses. Reprenons maintenant les principales prévisions d'IDC sur l'IoT dans les 3 prochaines années :
  • Le smartphone reliant en bluetooth les objets personnels par millions sera dominant pour le B2C - ou directement en WiFi - et n'aura pas besoin d'autre réseau. En revanche, pour le B2B la collecte sera facilitée par les réseaux étendus de faible puissance LPWAN.
  • D'ici 2018, l'enjeu pour les entreprises se situe dans la remontée d'informations, via des capteurs ou des mesures bien situées le long des processus opérationnels pour en améliorer l'efficacité.
  • Un besoin au départ principalement interne à l'entreprise. Mais d'ici 2018, le besoin d'une plateforme "Open Data" se fera sentir et structurera les choix et les architectures. Les entreprises ayant déjà investi dans des solutions de plate-forme IoT pour ses besoins internes devront alors les ouvrir sur leur écosystème ou se synchroniser avec ces nouvelles plateformes "Open Data".
  • A mesure que l'adoption de l'IOT croîtra dans les principaux secteurs de l'industrie, du gouvernement et des consommateurs, le besoin de confiance dans ces donnés fera que 20% de tous les déploiements d'IOT auront des services Blockchain activés pour assurer la traçabilité au sein d'écosystèmes.
  • De plus, au moins 40% des données créées par IoT seront stockées, traitées, analysées et mises en œuvre à proximité ou en bordure du réseau, donc dans l'architecture de ce réseau et non dans des plateformes centralisées.
  • Les fabricants d'équipement IoT devront également améliorer leurs sécurité et leur traitement de la confidentialité, qui actuellement est la faille principale de ces systèmes.
  • D'ici 2019, 40% des collectivités locales et régionales utiliseront l'IOT pour transformer les infrastructures (routes, lampadaires, réseaux...) en actifs au service de l'évolution des villes à l'ère du numérique (Smart City). La quantité de données produites en constante augmentation permettra de poursuivre des stratégies d'analyse en continu et d'apprentissage par la machine au lieu de programmer les règles et seuils de pilotage de la performance.
Pour GreenSI, cette perspective est pertinente sur plusieurs points :
  • le fait que l'IoT est bien une infrastructure partagée par des écosystèmes, avec sa propre architecture, qui va se mettre en place progressivement avec ses standards, et non la vision d'un seul opérateur de bout en bout,
  • dans cette architecture la blockchain, autre technologie structurelle pleinement opérationnelle vers 2020, trouve bien sa place pour gérer des transactions au sein des écosystèmes qui vont se développer sur l'IoT. D'autres services se développeront au sein de cette architecture.
  • l'apprentissage se fera en interne dans chaque entreprise mais c'est bien la perspective externe et l'ouverture qu'il faut viser dès le départ pour éviter de remettre en cause ses investissements,
  • enfin, en B2Bn la sécurité est un élément essentiel à intégrer tout au long de la chaîne, ce qui est loin d'être le cas des déploiements B2C actuels (voir: les objets connectés sont des passoires).
Pour McKinsey, dans son étude sur l'impact de l'IoT sur les différentes industries, le potentiel de création de valeur de ces écosystèmes à l'horizon de 2025 sera principalement dans les usines et les villes (compteurs intelligents, éclairage urbain, parkings, environnement,...). C'est donc certainement ces deux cas d'usages qui vont structurer fortement l'architecture et les infrastructures de l'IoT à ce même horizon.



Pour les SmartCities, la présentation il y a 10 jours de la vision du Grand-Dijon qui mobilise plus de 100 millions d'euros pour mettre en place une gestion centralisée de l'espace urbain, intégrant la signalisation, l'éclairage... complété par une démarche unique d'open data s'inscrit totalement dans ces tendances IoT. Elle est le signe de ce changement de braquet des projets de villes intelligentes et montre, si on en doutait, le savoir-faire français après les premières vagues de technologies des géants américains il y a 5-7 ans.

Dans ce contexte, l'écosystème de la nouvelle Alliance WIZE (169MHz), qui vise les collectivités et les industriels et qui utilisent des passerelles sécurisés installées sur des toits d’immeubles, est certainement une technologie qui assurera de façon perenne de multiples usages aux côtés des autres réseaux déjà existants.

Sans aucun doute l'avenir sera celui des écosystèmes et de l'interopérabilité.

mardi 14 mars 2017

La France en avance pour DevOps et l'agilité

La France en avance pour DevOps et l'agilité


Cette semaine dans le cadre des rencontres d'affaires mobilité et digitale de ROOMn, s'est tenue une table ronde pour faire le point sur la mise en oeuvre de DevOps dans les entreprises. Dans une salle pleine et très participative, ce fut l'occasion de faire le point sur les questions pratiques que se posent encore les directions SI et marketing sur DevOps et sur l'agilité en général, des démarches indispensables pour toute transformation digitale.

Gaettan Falletta, qui participe à la stratégie Internet des Objets d'Airbus, Philippe Bedu, chargé de mission à la DSI groupe d'EDF et moi-même en charge de la Stratégie Digitale de Suez Smart Solutions, étaient interrogés par Olivier Bouzereau qui animait le débat avec la salle.

DevOps: une étape dans l'agilité de l'entreprise

De plus en plus de projets digitaux mettent en oeuvre une approche DevOps pour développer avec un cycle court et mettre en production avec le même rythme, par exemple hebdomadaire.

Mais mettre en production toute les semaines si aucun client n'utilise chaque version livrée ne sert pas à grand chose, à part à dire qu'on travaille en mode agile. L'agilité n'a de pertinence que sur l'ensemble de la chaîne, donc en amont pour la production de besoins avec des cycles itératifs courts, et en aval avec la validation régulière des développements (plus rapide que le rythme choisi) et l'utilisation après mise en production de l'application par de "vrais utilisateurs".
Résultat de recherche d'images pour

D'ailleurs sans vouloir dévaloriser le travail d'une équipe dite de maîtrise d'ouvrage pour valider les nouvelles fonctions, la seule validation qui compte est celle des utilisateurs qui, en conditions opérationnelles réelles, vont utiliser ces nouveaux services, se les approprier voire en imaginer de nouveaux usages auxquels l'entreprise n'avait pas pensé au départ.


DevOps a t-il vocation a être la règle pour l'ensemble des projets d'une DSI ?

Les retours d'expérience d'Airbus et EDF montrent qu'une partie uniquement des projets sont gérés avec cette approche et que les objectifs sont au mieux de l'utiliser pour 20% à 50% des projets. Le "cycle en V" a donc encore de beaux jours devant lui ! Par exemple quand on veut travailler avec un prestataire unique au forfait. Le forfait est difficilement compatible avec une approche agile puisque le besoin n'est pas totalement spécifié au départ et donc ne peut faire l'objet d'un engagement ferme pour sa réalisation.

Pour GreenSI, pour les projets de transformation numérique, on assiste à une augmentation du nombre de développements spécifiques pour développer des plateformes de plus en plus différenciantes. DevOps est totalement adapté aux développements spécifiques. On peut donc penser que cette approche pourrait représenter à terme 100% des développements spécifiques liés à la transformation digitale, principalement dans la mobilité et les plateformes numériques pour les clients.

Est-ce que DevOps c'est mieux que le cycle en V?

L'agilité n'est pas la panacée si l'entreprise n'est pas prête ou si la MOA ne comprend pas les fondamentaux de la démarche. Au contraire, une démarche agile ou DevOps peuvent être un risque d'échec des projets. La bonne pratique exposée consiste à définir les critères à respecter avant de partir tête baissée dans un projet en mode agile. Trois de ces critères discutés lors de cette table ronde ont été :
  • Le besoin d'arriver rapidement en production avec quelques services puis d'itérer avec de nouveaux services.
  • La confiance établie entre ceux qui établissent le besoin, développent, gèrent la production et les utilisateurs finaux.
  • La possibilité de supprimer les validations formelles longues, notamment auprès d'instances externes à l'entreprise.
Un projet agile n'est pas un projet qui arrive plus vite. L'approche ne doit pas être choisie pour réduire les délais du projet. Au contraire, un projet agile peut même être plus long sur l'ensemble du besoin, puisqu'il multiplie par exemple les activités de tests ou de mise en production.



Un projet agile amène plus vite UNE PARTIE des fonctionnalités (ex. "la patinette") en production. Il permet d'itérer et donc de s'améliorer, pour avancer vers un service de plus en plus adapté à l'utilisateur. C'est pour ces raisons que l'on doit choisir DevOps, et cela demandera une énergie au quotidien.

Une maîtrise d'ouvrage n'ayant pas cette énergie, ou trop prise dans son quotidien opérationnel, ne sera pas à l'aise dans un projet agile, et l'échec sera probable. En premier lieu, ce sera le rejet de la méthodologie de façon plus ou moins affichée, notamment le rejet des outils collaboratifs transverses pour revenir à des outils individuels et des documents, et parfois par la fin du projet lui même. En revanche si le projet est adapté à l'agile, ses chances de succès seront multipliées par rapport à celles dans un cycle en V.

Le second élément est LA CONFIANCE. Elle est cruciale. La question peut sembler politiquement incorrecte dans l'entreprise où tout le monde devrait se faire confiance. Pourtant de multiples procédures dites de contrôle ou de validation ne semblent être là que pour compenser un niveau de confiance moindre dans les autres équipes avec qui on travaille. C'est antagoniste avec l'agilité, qui, elle, se conçoit dans une démarche d'amélioration continue, donc de confiance puis d'amélioration, et donc pas de contrôle absolu a priori et permanent.
C'est cette confiance et cette compréhension mutuelle qui est à l'origine et à la base du rapprochement des "Dev" et des "Ops", puis avec l'agilité des métiers et des développeurs.

Alors quand un chef de projet veut tout contrôler car il croit (comme dans un cycle en V) que son rôle est d'être justement le "chef" du projet, vous savez que la méthode agile n'est pas adaptée et qu'un cycle en V frustrera moins les équipes.

De même, elle n'est pas adaptée quand on n'arrive pas à nommer un product owner UNIQUE, et quand chacun veut donner son avis ou tout contrôler de l'interface aux priorités des scrums. Ceci sachant d'ailleurs que le seul avis qui compte à la fin, c'est celui de l'utilisateur final et de sa perception de son expérience (utilisateur), le Saint Graal du succès digital.

L'approche DevOps suppose donc la maitrise d'un fonctionnement transversal pour les équipes techniques ET métiers, plus ou moins simple en fonction de la culture d'entreprise. Elle s'inscrit donc bien dans la transformation - changer de forme - digitale de l'organisation et dépasse largement le cadre de la DSI et des équipes SI.

DevOps, c'est la fin de la documentation ?

C'est vrai que les projets agiles ont des exigences plus faibles en matière de documentation. Le manifeste agile reconnaît la valeur de la documentation mais lui préfère un logiciel opérationnel.


Pour GreenSI, DevOps oblige en fait à se reposer la question de ce qu'est une documentation, de sa finalité et donc du format et du moment le plus a approprié pour la produire :
  • À quoi bon faire des spécifications détaillées dans d'épais classeurs si les développeurs ne les lisent pas?
  • Ne vaut-il pas mieux documenter son besoin pour qu'il soit compris par ceux qui vont le réaliser plutôt que par ceux qui l'écrivent?
  • À quoi sert un cahier de recette quand les tests sont automatisés?
  • À quoi sert une documentation d'installation quand on a le script du robot qui déploie en continu dans la minute les versions successives et gère les retours arrière ?
Autant de questions qui démontrent que la documentation a souvent été pensée dans un cycle en V et qu'elle doit être repensée dans une approche DevOps.

La France en avance sur DevOps !

Une enquête menée à l’échelle mondiale en partenariat avec CA Technologies révèle que 87% des organisations françaises considèrent les pratiques agiles et le DevOps comme essentiels à la réussite de leur transformation numérique.
Une sélection d’indicateurs clé de performances (KPI) permet de mesurer l’impact du DevOps et les conclusions pour la France sont sans équivoques :
  • Les pratiques agiles diminuent la durée de développement et de lancement de nouveaux produits de 24% (de 9,59 à 7,33 semaines) ;
  • Le DevOps raccourcit le temps nécessaire pour le développement et lancement de nouvelles applications de 38% (de 13,43 à 8,27 semaines) ;
  • Les pratiques agiles augmentent la productivité des employés de 44% ; le DevOps de 43% ;
L'étude montre aussi que les structures françaises font preuve d’une grande maturité en matière de DevOps avec 39% d’utilisateurs avancés (Allemagne - 40%, Royaume-Uni - 32%), et 33% quand on considère l'agile en général, soit autant que l’Allemagne et l’Espagne, et plus que le Royaume-Uni (29 %).

Cela fait 3 ans depuis le premier billet de GreenSI en 2014 qui s'étonnait que le sujet DevOps très développé outre Atlantique, n'avait pas encore atteint les côtes françaises. Visiblement en 3 ans la France a commencé à adopter cette bonne pratique, et certains prédisent que 2017 sera l'année de la généralisation.