Découvrez ici les 4 derniers billets

Previous
Next

samedi 20 janvier 2018

Et si le BIM était déjà dépassé ?

Et si le BIM était déjà dépassé ?

 Le BIM, pour Building Information Modeling, est l'approche qu'adopte l'industrie de la construction pour introduire des maquettes numériques tout au long du cycle de vie du bâtiment et permettre ainsi une meilleure collaboration, à chaque étape, et entre tous les métiers. 

L'année 1 du BIM a commencé en France en 2015 (en retard par rapport à d'autres pays européens). GreenSI avait écrit un premier billet début 2016 (Le bâtiment se met aussi au numérique) pour parler du Plan de Transition Numérique dans le Bâtiment (PTNB), qui a été lancé pour engager cette transformation. Faisons un point d'étape avec ce billet mais surtout regardons un peu plus loin.

Après deux ans d'évangélisation et de travaux normatifs, la profession commence à adopter le BIM, un guide de recommandations aux maîtres d'ouvrages a été publié par la mission interministérielle, mais la tâche reste encore immense; dans une industrie où de multiples TPE et PME opèrent et où le plan 2D l'emporte encore sur la vision 3D. Le rapport d'étape du PTNB de mars 2017 annonce cependant une progression du taux d'adoption de 35% (parti de 27%) mais le pourcentage de ceux qui n'utilisent jamais est encore de 65%...

Le BIM peut être vu comme le fil rouge de la transformation digitale de l'industrie de la construction.

C'est également celui du "travailler ensemble" et de la normalisation des échanges numériques dans une profession dont la stratégie nationale a été publiée le mois dernier (pdf). Le BIM, sa normalisation et son règlementaire qui se renforce (même si la loi qui le rend obligatoire n'est pas publiée), n'est finalement qu'un prétexte pour adopter et maîtriser plus largement les données et le numérique dans la filière de la construction.



Ces transformations attendues du secteur du bâtiment visent la baisse des coûts de la construction et d'exploitation des bâtiments, sur lʼensemble de leur cycle de vie. Une étude de McKinsey montre que la progression de la productivité dans la construction sur 20 ans est en retrait par rapport à la moyenne de l'économie en générale ou de la fabrication en particulier. Les méthodes utilisées dans la construction ont atteint un cap et demandent à être disruptées. L'impression en 3D par exemple, est une des pistes explorée par certains. 



Dans tous les cas, ces transformations seront lentes car elles touchent les organisations, les processus et la formation des employés.

Mais dans le même temps, les techniques de numérisation automatiques se développent très rapidement. Et leur coût est en baisse.

Il est possible aujourd'hui de numériser une maison ou un bâtiment, enveloppe extérieure et intérieure, avec des nuages de points capturés automatiquement par un "radar" (lidar, photogrammétrie, ...) puis traités numériquement pour obtenir un modèle 3D sur lequel on peut travailler.

Demain, avec le développement de drones pour capturer les images dans tous les espaces et les progrès de la reconnaissance d'objets sur ces images par l'intelligence artificielle, on peut estimer que la précision pourra encore s'améliorer jusqu'à recomposer un bâtiment et tous ses composants (portes, fenêtres, textures,...) de façon presque automatique.

C'est une bonne nouvelle pour le BIM. Mais c'est également une question sur son avenir, ou plutôt son positionnement dans la transformation numérique de l'industrie.

C'est une bonne nouvelle car le BIM va pouvoir s'attaquer à la majorité du parc urbain: les logements déjà construits. On va donc pouvoir les numériser à des coûts de moins en moins chers, pour le bénéfice des exploitants qui eux devraient exploiter ces données pour réduire leurs coûts d'entretien et de maintenance. Sans cette technologie, le BIM ne serait réservé qu'aux programmes immobiliers neufs, avec une modélisation initiale par les architectes au début de la chaîne, retardant la généralisation du BIM pour les exploitants.

Mais la perspective d'avoir de futurs "robots inspecteurs" en charge de créer et maintenir la maquette numérique avec des données plus riches (photos, vidéos, capteurs, ...) que celles imaginées dans la normalisation du BIM, pose la question de la remise en cause des processus collaboratifs de mise à jour des maquettes numériques que l'industrie est en train d'apprendre et de déployer, pour in fine simplement échanger des données.

A terme, le BIM dit "Open BIM", permettra à chacun de travailler sur la même maquette numérique, à priori dans le Cloud. Donc utiliser la même plateforme pour tous les acteurs au niveau d'un projet, voire d'un territoire. Mais cet "Open BIM" n'est pas la cible actuelle de l'industrie, tout du moins en France. Pour l'instant l'objectif est le BIM dit de niveau 2, où tous les acteurs sont passés aux outils numériques et peuvent s'échanger des données, d'où l'importance de la normalisation pour ces échanges.

Et quand on parle d'échanges, on ne parle pas ici du sujet cher à GreenSI, les APIs. On parle d'échanges de fichiers, zippés en entre eux quand ils sont liés, et à des formats lisibles par les logiciels de chaque métiers...

Et si technologiquement le BIM était déjà dépassé ?

Quand l'internet des objets amène la gestion intelligente des bâtiments, l'optimisation de leur performance énergétique ou la gestion de la sécurité, pour ne citer que ces applications ; les besoins de transformation numérique de la construction, et surtout des exploitants des bâtiments (on exploite plus longtemps que l'on ne construit), ont finalement déjà dépassé l'idée initiale du BIM, partager une maquette le long du cycle de vie.

Le BIM est certainement un standard de modélisation des bâtiments, mais on veut aller plus loin dans la gestion des états de chaque composant (en temps réel pour certains) et surtout l'analyse des données allant jusqu'à la maintenance prédictive. C'est tout l'enjeu du concept de "jumeau numérique", abordé par GreenSI il y a un an, que l'on voit se développer dans le monde anglo-saxon et dont on parle peut en France.

Pourtant ce concept a été adoubé par des travaux universitaires et des cabinets de conseil de renom, dont Michael Porter (auteur du "Business process Reengineering") dans la Harvard Business Review. Cette visibilité fait qu'il commence à mobiliser du capital risque outre Atlantique pour financer des startups partant à l'assaut de ce qu'elles adorent, les inefficacités et les gisements de productivité... 

Par rapport au BIM, les jumeaux incluent la mise à jour temps réel des objets ou infrastructures, ouvrant plus d'opportunités d'exploitation du numérique. 

Il est donc tout à fait possible qu'un acteur émerge et disrupte en quelques années les fondamentaux du BIM pour imposer sa plateforme à l'échelle mondiale, comme la référence de toutes les constructions. En y réfléchissant, l'industrie informatique également souvent critiquée pour ses projets en retard, a adopté en 10 ans l'agilité et sa plateforme Github est devenue la référence pour la construction de millions de projets et la communautés de centaines de milliers de développeurs. Comme quoi c'est possible...

GreenSI voit donc le BIM comme une étape indispensable de transformation de la construction, qui posera les fondamentaux des systèmes d'information de l'industrie avec des données de qualité, partagées, et à la clef une première réduction des coûts de la construction. Mais ceux qui sauront l'exploiter iront plus loin, certainement plus vite, dans l'exploration des nouveaux usages amenés par cette maquette numérique devenue plus dynamique avec l'analyse temps réel de ses données et l'internet des objets.

Regardez donc plus loin à l'horizon si vous êtes engagé dans un projet de BIM ;-)

samedi 13 janvier 2018

Le nouveau départ des interfaces vocales

Le nouveau départ des interfaces vocales

Ce Noël, vous ne pouviez pas rater les assistants vocaux sous le sapin. Que ce soient ceux de Google, d'Amazon, ou des autres acteurs qui les suivent (Sonos, Bose,...). Et comme la bataille pour la domination de cette nouvelle interface vocale dans la maison se joue maintenant, quand le père Noël ne l'offre pas, ces acteurs donnent leur version d'entrée de gamme via des offres combinées avec d'autres produits compatibles (ex. Thermostat + Enceinte). 

Ce billet est pour GreenSI l'occasion d'explorer l'arrivée dans le grand public d'une interface déjà exploitée dans les entreprises : le vocal. 
En 2018 les prévisions sont la vente de 56 millions enceintes intelligentes, soit une progression de +70% sur un an, pour une catégorie de produits créée par Amazon en 2014 aux États-Unis, suivi par Google en 2016.


C'est de l'autre côté de l'Atlantique que se feront la majorité des ventes mondiales. La Chine, est également vue comme le pays n°2 des ventes ; un paradoxe quand ni Amazon ni Google n'y sont prédominants. Ceci démontre la force du concept de cette nouvelle interface conversationnelle, déjà copiée par les BATX, parlant chinois, mais aussi anglais. Le premier est Xiaomi, qui a lancé en 2017 un produit au nom sans aucune équivoque de "AI speaker". Il sera prochainement suivi par Alibaba.

En France, le lancement de Google Home cet été, avant Amazon Echo, le taux de pénétration de Google dans le search en France (94%, plus fort qu'aux États-Unis), et le prix d'entrée de la Google Mini a moins de 50€, fait que GreenSI ne serait pas surpris si les chiffres montrent que Google dépasse Amazon sur le marché national dès 2017.

Les entreprises ont déjà exploité l'interface vocale pendant plus de 10 ans. Par exemple dans les centres d'appels avec les serveurs vocaux interactifs (SVI). Cependant, les choix de navigation sur ces serveurs restent souvent bien limités même si la reconnaissance vocale s'est un peu développée. Appeler son opérateur ou sa banque sur un SVI est vécu par beaucoup comme une contrainte et souvent la frustration d'un choix limité par rapport à un contact humain. Le résultat n'est pas en général une expérience utilisateur hors du commun. 

Les enceintes connectées, elles, ont la chance de se lancer sur des sujets plus "légers" (météo, ciné, wikipedia, musiques...) où vous n'attendez pas nécessairement de régler un problème critique pour votre journée ou votre épargne. Mme Michue sera donc certainement plus indulgente... à moins de confondre Johnny et JJ.Goldman ;-) 

Mais comme leur reconnaissance vocale est radicalement plus performante que celle des SVI, s'appuyant sur l'intelligence artificielle (y compris reconnaissance de votre voix), il sera intéressant de voir si les assistants s'imposeront comme des compagnons à qui finalement les humains aiment parler. Et si c'est le cas, les SVI vont rapidement prendre un sacré coup de vieux...

Puis vers la fin des années 2000, quand la téléphonie a rejoint les standards de l'internet (avec la VoIP) l'entreprise a pu imaginer et concevoir des applications vocales, c'est à dire construites sur sa plateforme téléphonique sous IP, qui met en réseau la majorité de ses salariés et qui peut être reliée aux données des applications de gestion :
  • Ainsi, un responsable de magasin peut être appelé par une application métier, sur son téléphone mobile, pour lui donner le niveau de stock d'un produit dont les ventes marchent bien ce jour.
  • Un commercial, pendant une vente, peut appeler une application de configuration du produit qu'il vends (voiture, ordinateur, ...) et obtenir directement par la voix un prix lui permettant de faire un devis.
  • Un magasinier peut, en main libre, être piloté pour traiter une commande par une interface vocale qui lui donne l'emplacement des produits ("picking") et suivre la complétude de la préparation.
  • Mais l'application la plus commune entre ces deux mondes (vocal, applicatif), reste certainement l'envoi d'un email, suite à un appel manqué, avec en pièce jointe un message vocal numérisé.
Ces applications exploitant des interfaces vocales existent donc déjà dans l'entreprise, mais force est de constater qu'elles ne se sont pas beaucoup développées.

La porte ouverte par ces enceintes connectées va être de réinventer ce type d'applications vocales avec ceux qui les achètent, pour l'instant les clients particuliers.

Aujourd'hui, les technologies sous-jacentes des enceintes connectées sont différentes. Elles exploitent une reconnaissance vocale de meilleur niveau, dans de multiples langues, et surtout sont connectées aux services disponibles en temps réel sur Internet.

Mais attention toutes les reconnaissances vocales ne se valent pas. Si vous voulez éviter les "oopss, je ne comprends pas", il vaut mieux choisir celles qui sont déjà au point dans la langue souhaitée. Le test de poser 5000 questions aux assistants mobiles montre un pourcentage de questions reconnues de moins de 70% et un taux de réponses correctes de 60% à 90% selon les enceintes. 


Sans surprise, celui qui a le plus de données d'interactions avec des humains pour son moteur de recherche est le meilleur pour les comprendre...
Ces enceintes permettent d'écouter la musique, mais surtout elles peuvent rechercher le web et activer des services applicatifs qui se seront rendus compatibles. Le thermostat connecté Nest (acheté par Google) mais également Netatmo, sont compatibles avec Google Home et peuvent être réglés et interrogés par la voix. Ce sont les nouvelles applications vocales qui remplacent l'usage d'une Apps sur son smartphone ou les boutons sur les thermostats.

Amazon a aujourd'hui beaucoup de services applicatifs et vous pouvez déjà par exemple commander un taxi ou une pizza (selon les pays). Mais vu le rythme des ventes et donc des développeurs qui rejoignent le développement sur ces nouvelles plateformes, comme pour les Apps mobiles, ça peut aller très vite.
L'intégration de ces plateformes (pas que la partie émergée : l'enceinte) est donc la clef.

Et là vous savez que GreenSI va vous rappeler de vérifier avec  votre DSI si vos applications clients ont bien des API pour s'intégrer à ces futures plateformes. Et puis comme la conversation doit être naturelle, ces API seront certainement dans le Cloud avec assez de puissance à la demande pour avoir des temps de réponse excellents.

On est donc au tout début du retour de l'interface vocale dans l'entreprise.

Son nouvel objectif : entrer en relation avec ses clients et imaginer une nouvelle expérience d'achat et ou de service clients. Et puis pourquoi pas dans quelques temps imaginer des usages pour les salariés eux-même, par exemple dans les applications collaboratives de communication et de gestion de tâches.

De l'autre côté de cette interface, les internautes se retrouvent comme au début du web, avec un "navigateur vocal" dans les mains leur permettant d'accéder à une masse d'information... mais sans trop savoir quoi demander !
Pour en tester un, j'avoue qu'il y a au départ un peu la même excitation qu'au début du Net, dès qu'on découvre un nouvel usage.

Les premiers assistants vont bien sûr chercher à éduquer ces premiers utilisateurs, dans l'intérêt du financement de leur service à long terme. Donc leur apprendre des services qu'ils sauront valoriser...

En effet, comme avec le web, si l'équipement est acheté au départ par le client, il faudra bien financer la reconnaissance vocale sur le long terme. La publicité, les recommandations, voire la vente de produits et services, vont donc certainement venir s'incruster rapidement dans cette interface. Comment, et de façon non-intrusive, restent à imaginer...

Certains vont donc crier au loup et les articles sur "faut-il acheter un assistant" et "quelles recommandations de la CNIL quand on en achète un" se multiplient. Par rapport à la révolution précédente du web qui a laissé les cookies proliférer sans contrôle, l'encadrement veut s'organiser plus en amont.
Sans aucun doute, ces enceintes vont capturer et exploiter encore plus de données personnelles et comportementales. Les données des européens seront sous la surveillance du RGPD, mais pas celles des américains et des chinois qui vont tirer le marché et la technologie. Les versions européennes seront-elles bridées ? (voir RGDP l'épée de Damoclès sur l'innovation européenne)

Et puis une fois adoptées (et l'opt-in validé) il sera difficile de revenir en arrière et les utilisateurs l'accepteront en échange de la nouvelle expérience rendue possible par cette interface vocale. Qui a fermé son compte Gmail quand il a appris que l'analyse des emails personnels permettait de cibler la publicité ?
Alors, même si ces enceintes n'étaient pas sous votre sapin, surveillez quand même le développement du retour du vocal dans les entreprises en 2018. La souris, le clavier et l'écran ne seront plus les seuls moyens pour vos applications d'interagir avec vos clients et pourquoi pas avec vos salariés.

lundi 8 janvier 2018

#TransfoNum : Back to the future in 2017

#TransfoNum : Back to the future in 2017


Pour ce dernier billet de l'année GreenSI vous propose de regarder dans le rétroviseur de la quarantaine de billets publiés en 2017. C'est un exercice que je fais régulièrement pour apprécier la vitesse de la transformation digitale de la société et surtout confirmer les faits que l'on sentait importants et qui se sont révélés comme des points d'inflexion ou de rupture.

Généralement les trajectoires qui suivent ces faits sont totalement modifiées et les décisions à prendre dans ces domaine également.

2017 a commencé comme les deux années précédentes avec un buzz croissant en France autour du CES à Las Vegas (Pourquoi tant de buzz autour du CES à Las Vegas? ). Les cocoricos de la jeune #FrenchTech n'y sont pas pour rien. Cette année-là, le CES est devenu le "Car Electronic Show" - et non Consumer -  déplaçant les géants de la Tech bien sûr, mais surtout les constructeurs automobiles qui jusque là misaient sur le "Mondial de l'automobile" pour leurs annonces.

Le CES à Las Vegas pourrait devenir pour quelques années le salon mondial de l'automobile et de son écosystèmes de services, maintenant que le sujet est la voiture connectée, électrique et autonome via une intelligence artificielle de pilotage. Nous saurons à partir du 9 janvier 2018 si cette trajectoire se confirme. En tout cas c'est bien une voiture qui est sur la home page du salon ;-)

Autre thème de 2017, l'abondance jusqu'à plus soif des technologies (Entreprise du futur: arrêtons de parler de technologies).

Les technologies ne sont rien sans les usages ; et ce qui fera l'entreprise du futur, ayant réussi sa transformation digitale, sera son organisation, son management agile et une plateforme digitale centrée sur des usages qu'elles saura valoriser avec son modèle économique.

La blockchain qui aura marqué l'année par l'envol du cours du Bitcoin - l'une de ses applications - reste un pari technologique risqué pour sa mise en oeuvre, autant sur le plan énergétique que de la concertation que cela demande pour convaincre assez d'acteurs d'utiliser la même plateforme qui deviendra un standard de fait (attirant donc toutes les convoitises et incitant tout le monde à lancer la sienne).

D'où d'ailleurs le dernier billet de GreenSI sur un autre écueil de la technologie et des prévisions, souvent ambitieuses quand elles ne sont pas farfelues : la technologie est bien un marché mondial mais son application reste locale, soumise aux contraintes et à la culture des entreprises ou des gouvernements. Donc ce n'est parce qu'on l'a lu sur Internet que ça va arriver près de chez vous.

Par exemple l'Intelligence Artificielle se développera certainement plus rapidement aux Etats-Unis et en Chine qu'en Europe, où le marché sera freiné en 2018 par la régulation sur les données (RGPD: épée de Damoclès sur l'innovation européenne). 2017 a d'ailleurs été l'année de révélation de la Chine qui a rejoint les Etats-Unis dans les chiffres du e-commerce (le numérique se l'ève aussi à l'Est).

D'ailleurs en 2017, l'intelligence artificielle a marqué un cap. Elle est de plus en plus comprise par les entreprises et la question d'une stratégie dans ce domaine est posée par les Directions Générales. La technologie "AI First" de Google a été annoncée, et la question de l'ERP à l'ère de l'IA se pose à toutes les entreprises industrielles.

La fin de la mission "France IA" en début d'année qui avait accouché d'un rapport a été reprise par le gouvernement avec une figure emblématique et compétente en la personne du député Cédric Villani. La consultation large qu'il a engagé s'achève dans quelques jours et on espère que 2018 donnera réellement à la France les fondements d'une stratégie qui porte en germe de nombreuses questions de notre société de demain.

Une de ces questions dans le numérique est celle de la diversité et IA et le manque de diversité ne feront pas bon ménage à cause de l'apprentissage par les machines d'un monde non diverse qu'elles auront tendance à reproduire dans leurs décisions autonomes.

2017 a été une année charnière dans l'internet des objets. Les ventes de l'Apple Watch ne sont pas au rendez-vous et elle sera au mieux leader dans le domaine de la e-santé et du coach personnel, aussi convoité par Nokia qui a racheté le français Withings. Les objets connectés grands publics autour du poignet continuent de chercher leur modèle économique et de pivoter. Les enceintes connectées dopées à l'intelligence artificielle ont surpris tout le monde (merci Amazon) en s'imposant dans les foyers américains. C'est certainement de ce côté qu'il faut continuer de regarder en 2018.

En revanche, les objets connectés se portent bien dans les entreprises industrielles et leurs applications convergent avec la supervision à distance mais surtout les réalités augmentée, virtuelle ou mixte. La sécurité de ces objets connectés (des passoires) venant sur le devant de la scène, c'est l'Internet des objets Industriels - IIOT - qui reprend le flambeau de l'innovation. 

Chose rare depuis les années 2000, cette innovation se passe dans les entreprises avant le grand public. C'est donc dans les entreprises que l'on trouve des applications opérationnelles de réalité augmentée, et que l'on construit les architectures pour gérer les millions d'objets anticipés.
Tous les éditeurs professionnels y voient un Eldorado mais il faudra sortir de l'internet des silos et surtout traiter la question de la propriété de la donnée des machines soulevée par GreenSI (va-t-on assister à une bataille pour les données des machines).

Dans ce contexte, le rôle des DSI qui n'ont pas fait leur propre transformation agile pour accompagner l'entreprise dans sa propre transformation digitale s'est encore un peu plus marginalisé en 2017 (l'IA révélatrice de la transformation de la DSI). 

Ces DSI ne sont pas présentes et/ou impliquées dans les sujets qui construisent l'entreprise de demain. Quand la transformation digitale peine, c'est peut-être que nous cherchons à agir à l'ère du digital mais nous pensons encore comme à l'ère précédente. GreenSI a sorti une série de billets pour renoncer à certaines règles du passé qui n'ont plus de prise dans le monde digital : #FlipYourMind

Mais la DSI peut reprendre la main en se transformant en "modern software factory", en simplifiant le SI pour le rendre moins vulnérable (Heureux comme un Wanacrypt dans un jeu d'applications obsolètes) et en reprenant en main la stratégie open source de la plateforme digitale de l'entreprise, deux sujets très présents en 2017. C'est certainement ce qu'attendent les CDOs - Chief Digital Officer et Chief Data Officer - de l'entreprise, qui ont maintenant besoin de bras armés pour déployer leurs stratégies à grande échelle.

Enfin, le numérique ne s'arrête pas à la porte de Mme Michu et des entreprises, il irrigue aussi les territoires et 2017 restera une année charnière dans l'ambition des Smart Cities avec l'attribution du projet Grand Dijon d'espace public connecté géré depuis un centre de pilotage unique en France (Smart City; quel modèle s'impose en 2017). 

Après une première vague d'expérimentation et de démonstrateurs, s'engage une seconde vague de projets plus ambitieux, financés par de réelles économies dans l'éclairage ou les nouveaux services aux citoyens.

Et au-delà de la ville, c'est la transformation numérique au service de la transition énergétique qui devient visible.

2017 aura donc été une année charnière avec de nouvelles trajectoires à avoir en tête, notamment dans l'internet des objets industriels, l'intelligence artificielle ou les villes intelligentes.

Les indicateurs sont plutôt au vert pour que 2018 soit toute aussi intéressante, alors continuez de lire GreenSI et d'en partager largement ses billets sur les réseaux - vous savez les boutons en haut à gauche !! - et remercier ZDnet de continuer de faire confiance à des blogueurs indépendants pour commenter l'actualité ;-) 

Il ne me reste qu'à vous souhaiter une excellente année 2018 !

dimanche 31 décembre 2017

Back to the future en 2017

Back to the future en 2017

Pour ce dernier billet de l'année je vous propose de regarder ensemble dans le rétroviseur de la quarantaine de billet publiés en 2017. Un exercice que je fais régulièrement pour apprécier la vitesse de la transformation digitale de la société et surtout les faits que l'on sentait importants et qui se sont révélés comme des points d'inflexion ou de rupture. Généralement les trajectoires qui suivent sont totalement modifiées.
2017 a commencé comme les deux années précédentes avec un buzz croissant en France autour du CES à Las Vegas (Pourquoi tant de buzz autour du CES à Las Vegas? ). Les cocoricos de la jeune #FrenchTech n'y sont pas pour rien. Cette année là le CES est devenu pour GreenSI le "Car Electronic Show" (billet) déplaçant les géants de la Tech bien sûr, mais surtout les constructeurs automobiles qui jusque là misaient sur le "Mondial de l'automobile" pour leurs annonces. Le CES à Las Vegas va t-il devenir pour quelques années le salon mondial de l'automobile et de son écosystèmes de services, maintenant que le sujet est la voiture connecté, électrique et autonome et plus le nombres de cylindres du moteur ? Nous saurons si cette trajectoire se confirme à partir du 9 janvier 2018. En tout cas c'est bien une voiture qui est sur la Home du salon ;-)

jeudi 28 décembre 2017

RGDP: épée de Damoclès sur l'innovation européenne?

RGDP: épée de Damoclès sur l'innovation européenne?

La fin d'année est une période où pleuvent les prévisions technologiques, pour 2018 et après.

Il est généralement un peu tard dans l'entreprise de s'en préoccuper à cette période car les budgets sont bouclés avant la fin d'année, mais comme c'est le marronnier du mois orchestré par les cabinets de conseils et maintenant la communication autour du CES de Las Vegas, alors tout le monde doit y passer.

La vision de GreenSI est qu'un certain optimisme technologique fait peut-être oublier les difficultés de mise en œuvre (de transformation des organisations) et aborde dans ce billet les difficultés à venir du contexte réglementaire autour des données qui se durcit.

Cette année la prédiction incontournable est l'intelligence artificielle.


Pour 2020 les experts nous prédisent par exemple la création de l'ordre 2 millions d'emplois liés au développement de l'intelligence artificielle, et la destruction d'un peu moins d'emplois (le solde prédit est positif). Comme ces emplois ne vont pas être tous être créés le 31 décembre 2020, dès 2018 des centaines de milliers d'emplois vont apparaître.

Pourtant la vision de GreenSI est moins optimiste sur ces prédictions au sein de l'Europe.
En effet, ces prévisions s'appuient sur la disponibilité et la capacité de traitement de grandes sources de données, certaines personnelles. Or, pour GreenSI beaucoup de ces prévisions font l'impasse d'une épée de Damoclès que l'Europe a mise sur tous ses champions : le Règlement Général de Protection des Données (ou GDPR en anglais).

En effet, à partir du 25 mai 2018, le RGPD va fortement contraindre le traitement des données des entreprises européennes. Ce règlement de 99 articles - et plus de 100 pages - est en fait déjà actif mais les sanctions ne pourront arriver qu'après cette date.

En théorie, le champ d'application de ce règlement est limité aux données personnelles et à tous les traitements concernant des données d'européens ; mais en pratique la notion de donnée personnelle peut-être est très large après recoupement. Et les experts ne sont pas toujours d'accord entre eux dans les analyses, ce qui induit un risque d'interprétation. Il est donc très vraisemblable que ce règlement crée en Europe un environnement plus anxiogène (car plus facilement contrôlable, avec des moyens de collecte des amendes déjà en place), donc une épée de Damoclès pour toutes les entreprises localisées en Europe.


Par exemple, la plate-forme numérique TaQadam permet d'entraîner une intelligence artificielle (IA) à reconnaître des objets sur les photos en distribuant des images via une application mobile à des travailleurs partout dans le monde (notamment des réfugiés Syriens). Ces utilisateurs voient là un moyen immédiat de monétiser leurs facultés humaines de reconnaissance d'images.

Ce projet est d'ailleurs soutenu par des ONG pour cette finalité.

Cette IA deviendra ensuite progressivement autonome mais aura toujours besoin d'un "contrôle qualité" de ses résultats, même si on peut imaginer qu'elle aura progressivement besoin de moins d'utilisateurs humains pour ces contrôles versus sa création.

Cet exemple a été volontairement pris en dehors de l'Europe pour se poser une question importante concernant la GDPR. Peut-on envisager de développer cette startup au cœur de Paris ou de Bruxelles dans l'un de nos incubateurs européens?


Et bien cela va dépendre de ce qu'il y a sur les photos ! Comble de l'ironie, car c'est bien pour savoir ce qu'il y a dessus que l'on développe cette technologie...

Si elles ont par exemple été prises dans la rue sur une voiture qui a une caméra HD à l'avant et une à l'arrière et qui enregistre de façon autonome en roulant, ce sera très compliqué d'opérer à Paris. Le risque d'avoir beaucoup de données personnelles est élevé.

Cela aurait pourtant permis de développer des IA, qui ensuite, de façon autonome, pourraient diagnostiquer nos villes et fournir de précieux conseils pour les gérer (tags, nids-de-poules, dépôts sauvages...).
Mais l'innovation ne s'arrête pas là. Cette application sera certainement développée en dehors de l'Europe, où le RGPD fait peser trop d'incertitudes sur ce projet, et les investisseurs localiseront leurs traitements là où ce sera plus simple. L'Afrique, le Moyen-Orient et l'Asie ne manqueront pas de pays qui accueilleront ces nouveaux "centres de traitements" à bras ouverts.

Pour GreenSI, après le dumping fiscal qui exploite les écarts de réglementation à l'échelle de la planète, l'Europe est en train de créer les bases du "dumping traitement des données" en créant une telle distortion dans la localisation des captures des données et des traitements.

En revanche, une fois cette IA développée et codée dans une caméra, on pourra l'exploiter en Europe. Ainsi , sans aucun stockage, cette caméra intelligente permettra de mettre en œuvre son intelligence en temps réel sans enfreindre aucun règlement. Ce bijou aura donc été développé par des ingénieurs non localisés en Europe ; et les millions d'emplois pour l'apprentissage de l'IA de nos prévisions seront également localisés en dehors de l'Europe. D'où la prudence affichée par GreenSI sur les prévisions en matière d'IA.

On peut aussi imaginer qu'ils puissent être localisés en Europe de manière "irrégulière" pour prendre l'image du travail non déclaré et l'étendre aux "traitements non déclarés"...

Le RGPD va mobiliser les rares ressources qui comprennent le sujet et les données, va créer des doutes sur les usages et demander de multiples validations (comme on les aiment) pour les projets de traitement de données. 

De là à dire que le RGPD va bloquer en Europe des projets d'innovation majeurs, il n'y a qu'un pas que GreenSI franchi sans aucune hésitation. 


Le crin de cheval qui retenait l'épée de Damoclès ne pourra que lâcher...

Et puis derrière le RGPD se cache également le règlement "ePrivacy", qui va demander d'obtenir l'accord des consommateurs pour tout enregistrement d'information, et qui va en l'état acter la fin des cookies (légaux) en Europe.

À titre d'illustration, le 14 décembre notre licorne nationale Criteo s'effondrait en bourse d'un quart de sa valeur, car Apple, qui avait restreint l'utilisation des cookies sur iOS, commençait à impacter ses comptes prévisionnels.

Sans aucun doute les GAFAs, par le contrôle des navigateurs et leur maîtrise de l'expérience clients, n'auront pas de mal a être conformes aux nouveaux règlements. Quel utilisateur de Facebook ou de Gmail ne validera pas la demande et prendra le risque de perdre son profil, toutes ses données et de ne plus utiliser leurs services ? Et puis Facebook a déjà commencé à proposer des fonctionnalités "hors Europe" non disponibles pour les profils européens. Le RGPD ne va pas stopper les fonctionnalités exploitant les données personnelles, il va les écarter de l'Europe.
En revanche, ce sera beaucoup plus difficile pour de nouvelles startups ou des médias avec une base de lecteurs plus réduite. De là à dire que la "ePrivacy" va consolider les positions des GAFAs, il n'y a également qu'un pas que GreenSI a franchi sans hésitation.


Et puis du côté des BATX, en Chine, le traitement des images sur l'espace public est possible et est même déjà utilisé avec de la reconnaissance faciale pour commander son repas en fast-food. On est reconnu, on peut voir son profil sur l'écran de la caisse, et avoir son compte WeChat débité du montant de son achat par un simple regard.

Ceci va bien sûr amener en Europe une protection des données qui fera envie aux citoyens du monde !?

Les entreprises européennes vont en tirer un avantage compétitif mondial qui sera décisif !

Permettez GreenSI d'en douter. Les entreprises européennes ne sont pas prêtes et courent pour une conformité "à minima". Il y aura donc peu d'élus qui en tireront un avantage compétitif comme celui de créer une confiance client plus forte.

Et puis dans les soubresauts actuels de la politique Européenne. Elle laissent planer un doute sur l'accès à ces données par les gouvernements, d'aujourd'hui et surtout de demain. D'ailleurs ces citoyens utilisent de plus en plus des VPN et d'autres moyens de protéger eux même leurs données personnelles, sans avoir besoin d'un règlement. Dans un contexte de fin de la neutralité du net, le VPN sera le nouvel acteur a qui les citoyens décideront de confier leur confiance. De multiples offres payantes existent, localisés dans les pays de son choix, la Chine en revanche en sera privée car cela créé des brèches dans le "grand firewall" contrôlé par l'État.

La prévision pour 2018 de GreenSI ne porte donc pas sur les technologies qui, elles, continueront à se développer et se déployer mondialement, mais sur la nouvelle "tectonique des plaques numériques" dans le monde de l'Internet qui se segmente au delà de sa simple neutralité:
  • la Chine et les États-Unis pour les services et les réseaux au cœur de tous les échanges,
  • l'Europe pour y protéger les données personnelles en acceptant l'ingérance des gouvernements et des fonctionnalités réduites,
  • et le reste du monde pour y déporter les traitements non autorisés en Europe ou ailleurs.
Au citoyen maintenant de choisir où il veut vivre numériquement, son service VPN repris en main.
Quelle est votre stratégie Open Source ?

Quelle est votre stratégie Open Source ?

Début décembre la France servait de flambeau à la communauté open source en hébergeant l'un de ses sommets annuels : l'Open Source Summit. Cette manifestation, qui a absorbé depuis 3 ans d'autres salons (dont Solutions Linux), sert également de prétexte au think tank "Open CIO Summit" (DSI qui croient en l'open source pour la gouvernance des DSI) pour se réunir.

Cette année, cette manifestation a même vu un secrétaire d’État chargé du numérique, Mounir Mahjoubi, et sa prédécesseur, Axelle Lemaire, se relayer à la tribune. Une fois de plus, le recours plus systématique à l'open source dans les projets des services de l'État a été promis...

Pourtant,  la loi sur la République Numérique aurait pu être un boulevard pour faire de cette promesse une réalité en prenant une décision historique de faire de l'open source, non pas une solution "à privilégier" dans les administrations, mais une solution tout court. Mais cette loi ne l'aura pas fait.

Pourtant ces solutions permettrait à l'État de fabriquer des "communs", utilisables et réutilisables dans le cadre d'une licence, mais également de construire des solutions scalables à l'échelle des territoires, d'un État puis d'un pays. C'est une autre façon de concrétiser la stratégie "d'État plateforme" au delà des seuls services d'accès aux services publics.

Mais cette vision demande de changer de perspective sur l'open source qui est parfois réduit au seul sujet de licence logiciel.

D'ailleurs quand les GAFAs, que GrenSI comparent parfois à des États (voir: Google la startup qui voulait se faire aussi grosse qu'un État) ont commencé à développer les plateformes qui servent maintenant des centaines de millions d'utilisateurs, et deux milliards pour la plus grande, c'est bien vers l'open source qu'ils se sont tournés dès le départ. Puis une fois qu'ils en ont adopté et amélioré certains composants, ou mis en open source ceux qu'ils ont créé, c'est tout un écosystème de sociétés et d'acteurs qui s'est engouffré dans leur sillage et qui continue d'innover sur les socles qu'ils ont ouverts.

Dans les derniers exemples de ces ouvertures, au cœur des technologies du Cloud, l'adoption très rapide de Kubernetes, montre la force d'un tel modèle. Kubernetes est en effet un système open source permettant d'automatiser le déploiement et la montée en charge d'applications, conçu par Google et offert à la Cloud Native Computing Foundation. Quelle entreprise ou quel État pense avoir une meilleure expérience de scalabilité que Googe ?

GreenSI n'a donc pas beaucoup de mal à penser que l'open source pourrait être la base d'une révolution au niveau des infrastructures (numériques) d'un État plus agile, à la fois pour sa transformation au numérique en interne (et c'est le vœu de Mounir Mahjoubi dans son discours) mais également pour la transformation externe de l'écosystème qui dépend (ou pourrait bénéficier) de son activité.

Et si la nouvelle politique industrielle d'un État était de créer une plateforme offrant les conditions favorables au développement des PME qui sont si en retard sur Internet? Et si la #FrenchTech était plus qu'un label et l'accès à du financement, mais l'accès à une plateforme technologique et une expertise technique? Dans ces deux cas, la création de communs sur la base d'open source et une stratégie de plateforme seraient un très bon point de départ.

En 2017, l'open source a donc clairement quitté le cœur de Linux, le débat sur le système d'exploitation souverain ou sur la licence, pour devenir la plateforme scalable et ouverte de transformation digitale.

Pour GreenSIl'open source ne doit donc plus être comparé aux progiciels du marché avec licence, car c'est plus que du logiciel : c'est une démarche. L'open source est une démarche outillée de création d'une plateforme numérique permettant à l'entreprise de développer, et même d'acheter, les applications qui deviennent le cœur de son métier.

L'open source peut donc être une stratégie, et qui mieux que la DSI peut la porter, si cette dernière ne se laisse pas enfermer dans sa relation historique avec les éditeurs ? Ces dernières années, les grands éditeurs ont d'ailleurs cherché à interpréter à leur avantage les contrats avec ces DSI. Dans un contexte d'ouverture de données (en dehors de ces progiciels) elles ont cherché a étendre les bases du calcul des licences pour en maximiser leurs profits et financer leur migration vers le SaaS. Si après de telles initiatives les DSI ont encore confiance, cela tient du syndrome de Stockholm...

Le décalage entre open source et progiciel est donc autant celui des progiciels, qui deviennent des plateformes avec le SaaS (ou disparaissent), que celui de l'open source qui, de plateforme technique, devient une plateforme métier.
Dorénavant le métier de l'entreprise numérique est la fabrication de logiciels et  la capacité à délivrer des services numériques. Ces deux métiers sont outillés par les plateformes open source, de l'infrastructure aux outils de développement.


La stratégie SI devrait donc lucidement regarder ce décalage et statuer sur le rôle de l'open source comme vecteur de transformation. GreenSI voit donc aujourd'hui un grand intérêt à l'open source pour traiter des plateformes digitales et les intégrer dans une stratégie clairement formulée, et non un choix tactique quand il se présente dans les projets :

  • l'activation de composants : les versions communautaires permettent de démarrer très en amont des projets souvent complexes qui demandent des pilotes, sans être obligé d’acheter une licence alors qu’on ne connaît pas encore exactement les besoins. Le modèle "pay as you go" amené par le développement du Cloud est finalement plus adapté à l'innovation que celui de la licence.
    Combien de DSI ont cherché à défendre des budgets élevés pour des plateformes logicielles permettant de nouveaux projets, alors que si ils avaient pu démarrer et obtenir des résultats rapides, ils n'auraient même pas eu besoin de demander de poursuivre?
    L'open source est donc bien positionné pour cela et les plateformes éditeurs vont devoir intégrer cette règle à leur modèle tarifaire.
  • la scalabilité : les GAFAs ont démontré les capacités d'architectures scalables pour répondre à la demande mondiale, souvent largement au-delà des besoins des plus grandes entreprises. Les plateformes big data les plus utilisées sont d'ailleurs toutes issues de l'open source.
  • le modèle collaboratif : l'open-source permet de rassembler plusieurs acteurs pour développer ensemble des composants ou les compléter, chacun ayant accès au code à confiance dans ce qu’il utilise.
    Ce travail collaboratif commence au niveau des développeurs avec une plateforme comme Github, qui en 10 ans s'est imposée comme essentielle pour animer une communauté de développeurs. C'est d'ailleurs une communauté où l'entraide est très forte pour compenser les faiblesses de documentation que peuvent avoir certains composants open source.
    GreenSI aime bien dire que de nombreuses entreprises cherchent l'entreprise collaborative alors qu'elles l'ont sous les yeux si elles regardaient leurs développeurs travailler.

    Dans le domaine des Smart Cities, structurellement collaboratif, où chacun amène sa pierre à l'édifice (sans jeu de mot), GreenSI pense qu'il n'y a pas d'autre alternative que d'avoir un noyau commun open source. C'était le thème au Paris Open Source Summit d'un atelier organisé par la société Smile.
  • les standards : l'open source favorise l’émergence de standards de faits, et rassure les acteurs de l'écosystème jusqu'à permettre l’open-innovation pour travailler à plusieurs entreprises ou collectivités sur un même composant standard. Pour recruter des développeurs il est également plus simple de coller à des standards que de chercher le spécialiste d'un produit du marché devenu rare... qui se vendra à prix d'or. Suivez mon regard.
  • la sécurité : elle est amenée par le processus collaboratif de construction, par l'ouverture du code, et comme personne n'est parfait, par une plus grande vitesse à patcher quand une faille est détectée. La sécurité, dans les années qui arrivent, va sonner la mort de tous les éditeurs qui n'auront pas les équipes suffisantes pour réagir rapidement. Pour l'open source, la taille et la vigueur de la communauté est donc un critère de choix des logiciels.
À l'Open Source Summit se tenait également un pavillon spécialisé sur l'internet des objets, et donc une fenêtre sur les architectures de l'internet de demain.

Force* est de constater que l'open source est également bien placé pour continuer sa course dans ces nouvelles architectures du monde IoT en développement, à la fois au niveau des plateformes IoT centrales, comme les fournisseurs de Cloud l'ont montré en reposant principalement sur de l'open source, mais également dans les objets avec de l'embarqué et notamment une version Linux.

Le duo Arduino et Raspberry Pi a également montré que la démarche open source s'étendait aux objets connectés eux-mêmes en permettant le prototypage rapide, mais également par le partage du design, de créer des communautés autour d'objets physiques.


On sait également que l'intelligence artificielle va équiper à l'avenir ces objets pour les transformer en objets plus intelligents permettant de repenser les processus de l'entreprise. Comme l'open source sera incontournable pour l'analyse des données et l'intelligence artificielle, ce renforcera également sa proposition de valeur dans le mondes des objets connectés.

L'open source semble donc être un formidable levier de transformation digitale, aujourd'hui mais également demain. Alterway, acteur du web et de l'open source, a déjà cette martelé cette vision d'un open source comme nouvelle idée du web. GreenSI pense qu'il va maintenant au delà du web et embrasse tout l'Internet.




Pour l'activer il faut stopper de le comparer à du logiciel "acheté" sur le marché. C'est devenu autre chose. L'open source peut être vu comme une plateforme et un démarche, ouvertes et collaboratives d'open innovation. Toute stratégie SI de transformation devrait se demander comment l'exploiter.

Mais comme les budgets marketing investis dans la promotion de l'open source sont négligeables par rapport aux millions que dépensent certains éditeurs pour vous raconter la même histoire, vous pourriez rater l'opportunité historique d'intégrer l'open source dans votre transformation digitale...
 ____
*  il fallait bien caser le mot "Force" dans ce billet la semaine de la sortie de l'épisode VIII. May the Open Source Force be with you ! ;-)

lundi 4 décembre 2017

#SmartCity : quel modèle s'impose en 2017 ?

#SmartCity : quel modèle s'impose en 2017 ?

Pour GreenSI, novembre c'est le mois qui permet de faire le point sur l'avancée d'un concept, celui de la ville intelligente, connectée ou tout simplement Smart City. C'est en effet le mois où la concentration des salons et conférences sur le sujet permet de voir les dernières réalisations et d'écouter la vision des élus ou des Directeurs Généraux des Services (DGS) qui en pilotent les projets. En novembre on a bien sûr l'incontournable SmartCity Expo World Congress à Barcelone, qui a vu plus de 18.000 visiteurs cette année, de plus de 120 pays, ou le Salon des Maires, qui sans cibler spécifiquement la Smart City en expose de nombreuses innovations, mais également des conférences plus ciblées comme celle du G9+ sur les business modèles de la smart city, le forum Smart City du Grand Paris ou la journée Smart City à Antony (92)



Les présentations lors de ces manifestions, auxquelles GreenSI a pu assister à certaines (ça devient compliqué d'aller à toutes cette année!), montre que l'on a quitté une première phase d'expansion dirigée par la technologie, avec ses succès et ses échecs, pour faire du concept de smart city celui de la révolution digitale de la ville, ou de la ville à l'ère du numérique. C'est un positionnement identifié dans un billet en début d'année (Une vision nouvelle sur les territoires de toutes les intelligences) qui se confirme.
 

Les villes et les métropoles cherchent un modèle économique qui leur permettra de poursuivre leur développement, tout en assurant une qualité de service à leurs citoyens et une attractivité pour les entreprises, au niveau des nouveaux standards amenés par cette économie numérique. Et pour cela, comme des startups, elles doivent de temps en temps faire pivoter leur modèle afin de ne pas perdre leur influence dans cet environnement en forte évolution.
La première question que se pose un nouvel acquéreur d'un logement dans une ville est maintenant celle du débit du raccordement internet et de la couverture mobile. La dernière étude de l'ARCEP est sans équivoque sur le taux d'équipement des ménages et leur besoin de connexion, qui devient un besoin primaire. 


La seconde question sera bientôt celle de savoir quelle est la note des services de proximité qui sont disponibles dans le quartier. Ces services proviendront soit de la transformation digitale des services municipaux classiques (petite enfance, bibliothèque, piscine, ...) soit des services privés localisés dans son quartier (haut débit, livraison de repas, covoiturage, ...). La Smart City c'est donc aussi la mise en évidence par le numérique d'une certaine fracture entre les territoires. Le rôle des acteurs publics pour la réduire est toujours aussi essentiel.

Alors quelle est l'analyse de GreenSI en 2017 des projets de Smart City ?

La Smart City est au cœur de l'évolution de la société

C'est La Tribune qui titre "le siècle des ville se dessine" en écho aux multiples initiatives où les villes relèvent les défis de demain.

Si on ne devait citer qu'une de ces initiatives, ce serait quand les grandes villes, dont New-York et Paris, ont tenu tête à Donald Trump sur les accords de Paris et confirmé leur adhésion aux engagements pour la planète. Car finalement c'est bien au niveau des villes que l'on peut déjà agir.
Et puis dans un contexte français de moins grande dotation de l'État aux collectivités, les communes vont devoir retrouver un nouvel équilibre financier et indirectement en tirer une plus grande liberté d'action. Pour certaines chercher à s'appuyer plus largement sur le secteur privé, startups ou grandes entreprises.

Dans ce contexte, le projet Smart City devient un moyen de mieux maîtriser la consommation d'énergie et d'optimiser la circulation automobile, pour réduire les gaz à effet de serre.

Le programme DataCity, qui a lancé ce mois-ci sa 3e saison, a fait émerger des challenges auxquels les startups vont maintenant pouvoir s'attaquer et proposer des solutions qui seront implémentées dans la capitale. Sans surprise, cette année de nombreux challenges portent sur le transport, avec le déplacements des salariés, la congestion des carrefours, ou la meilleure connaissance du trafic routier, tout en réduisant les coûts de capture des données nécessaires.



C'est l'illustration concrète du rapprochement entre les révolutions digitale et environnementale.

Les projets Smart City doivent afficher un ROI

Outre l'aspect environnemental, la rentabilité des projets est maintenant challengée par les élus mais également par les citoyens.

C'est donc une rentabilité économique mais également sociale, qui peut être compensée par une valeur collective. L'étude publiée par la CDC ce mois-ci est la première qui rentre autant en profondeur sur cette valeur collective avec une démarche socio-économique très structurée. 

En 2017, des projets se référant à la Smart City visent à améliorer la qualité de service et l'espace public, tout en démontrant un retour sur investissement réel, avec des économies situées dans les opérations de la collectivités, mais également dans celles d'autres acteurs de la ville et bien sûr chez les citoyens.

La gestion intelligente de l'éclairage public à Rilleux-la-Pape est, dans cette étude, celle qui affiche la plus grande valeur collective par euro investi (6,4€) alors que ce projet a une valeur négative pour la collectivité (gain de 2,5M€ pour un investissement de 3M€). À la clef ce sera certes une réduction de la facture pour la collectivité, non suffisante pour que le projet soit immédiatement rentable, mais également une réduction des émissions de C02, de l'accidentologie nocturne et de la criminalité, qui ont chacun un coût pour la société. La valorisation de ces externalités fait basculer le projet dans la rentabilité socio-économique. À la collectivité maintenant d'organiser les acteurs externes pour réaliser ces économies et les mesurer...

La réflexion autour d'un "business modèle" intégrant tous les acteurs concernés par chaque projet Smart City devient donc indispensable.

Les écosystèmes créent la valeur

Réunir ces acteurs en écosystèmes est une tendance forte.
Au 1er janvier 2018 l'organisation du stationnement urbain, actuellement partagée entre la police et les services de la voirie, va évoluer vers une gouvernance simplifiée. La politique tarifaire va également changer pour dépénaliser le stationnement et permettre à la commune de fixer le tarif en cas de dépassement. On paiera donc ce dépassement à la commune, qui ne sera plus une amende, comme le stationnement.

Ce double changement va permettre de créer des observatoires du stationnement, comme à Strasbourg, qui s'appuient sur une meilleure connaissance de l'usage de l'espace public, y compris l'offre de parking du privé, pour piloter la politique tarifaire et d'aménagement. À la clef ce sera une réduction de la pollution et du bruit (à chercher une place) et un meilleur service aux usagers de la voirie.

Pour GreenSI, cet exemple illustre bien les nouvelles organisations mixtes, y compris public-privé, qui vont se mettre en place pour rendre intelligent une fonction de la ville, en créant des échanges de données permettant une coordination des moyens.

C'est dans ce registre que l'on peut classer le projet du Grand Dijon pour les prochaines années, d'optimiser globalement la gestion de l'espace public à partir d'un centre de pilotage connecté et de s'appuyer pour cela sur un consortium d'entreprises et une nouvelle organisation de ses services. À la clef ce seront des économies par une meilleure connaissance de l'état du patrimoine, réalisées par la politique de maintenance, mais également la libération de données pour permettre des optimisations transverses au sein d'écosystèmes.

C'est également dans ce registre que les smart grids, qui optimisent les échanges d'énergies au sein de la ville, se développent. La ville est un système complexe avec un écosystème d'acteurs et de compétences, dont les relations se combinent à l'infini dans de multiples services.

Mais, quand on commence à parler de projet de blockchain au sein de la Smart City pour gérer ces écosystèmes, c'est certainement une bonne idée, mais GreenSI pense qu'elle restera très conceptuelle avant 2020. Cela ramène également le projet de Smart City 5 ans en arrière, un projet tiré par la technologie, que peu comprennent. Faisons donc attention aux priorités.

La circulation des données passe par des APIs

À défaut de nouvelles architectures comme la blockchain, GreenSI est convaincu que des technologies simples et ouvertes permettent la réalisation de ces nouveaux modèles. La mise à disposition de données doit passer par l'ouverture d'API, pour mettre à disposition, en permanence, des données réutilisables par tous les acteurs de l'écosystème qui pourra mieux les valoriser que ceux qui les produisent.

L'open API est l'avenir de l'open data et concerne autant le privé que le public. Il s'imposera plus facilement par les business modèles et les gains associés que par la loi.

Cette mise à disposition sera facilitée par l'utilisation d'un cloud privé qui est plus facilement partagé par tous les acteurs de façon sécurisée. Ce sera une rupture pour les collectivités qui souhaitent collecter toutes les données sur leur propre système d'information, car elles devront être à la hauteur de ces nouveaux usages. La CNIL s'est d'ailleurs déjà penchée sur le sujet et a produit une note de recommandation sur la Smart City et les données personnelles.

Cette approche de plateforme ouverte d'API est mise en place dans le projet de Saint-Etienne Smart City, qui a été présenté à la Cloud Expo Europe cette année, et qui repose aussi sur une plateforme open source pour assurer la réutilisation de composants par tous les acteurs de l'écosystème qui voudront y contribuer. 

On retrouve ici un début de "plateformisation de l'économie" tel que GreenSI l'a décrit dans son billet sur le futur du cloud (L'empire des mille plateformes)
En conclusion, la ville - ou la métropole - où vivent et travaillent plus 75% de la population en France, continue donc de renforcer son attractivité mais a besoin de repenser son modèle pour le rendre durable, écologiquement et économiquement.

Les projets qui s'y attellent en 2017 sont placés sous le signe de l'open innovation, de nouvelles organisations des collectivités et de la création de valeur au sein d'écosystèmes. Ils s'appuient également sur les technologies de la transformation numérique (Data, API, mobilité, cloud, open source...) tout en ayant des objectifs socio-économiques.

GreenSI qui observe la transformation digitale des villes depuis plus de 5 ans, pense que 2017 aura marqué en France une rupture dans les projets et que de nouveaux modèles sont en train de se développer pour rendre la ville plus "smart".