Ce billet est paru sur le magazine économique suisse Bilan le 16 juillet 2018.
Arrêtons-nous sur le buzz autour de la transformation digitale et constatons ensemble que ce n’est pas que du buzz et qu’au contraire nous vivons un mouvement fondamental et différent de l’informatisation au sens « classique ».
En quoi la transformation digitale est-elle différente? Réponse: le rythme.
Évoquons ainsi les capacités de calcul et stockage, l’Internet mobile, l’Intelligence Artificielle, l’informatique poussive jusqu’à l’arrivée d’Internet et enfin l’orientation client.
Dans cette série de billets sur la transformation digitale, vous aurez remarqué que je ménage quelques pauses sur le chemin qui nous conduit vers une approche pragmatique, réaliste et réalisable pour adapter les entreprises aux nouvelles exigences de l’ère digitale .
La première pause était sur la dynamique du changement.
Puis, après avoir abordé la question centrale de la prise de contrôle de la transformation digitale via l’angle des flux d’informations, on a fait une deuxième pause et une digression estivale sur l’intelligence artificielle, la créativité et l’empathie.
Voici une nouvelle pause estivale.
Cette fois-ci, arrêtons-nous sur le buzz autour de la transformation digitale et constatons ensemble que ce n’est pas que du buzz et qu’au contraire nous vivons tous un mouvement fondamental:
l’accélération du rythme d’adoption des nouvelles technologies et de nouveaux modèles d’affaires, favorisé notamment par un changement de génération
Dans le premier billet de cette série, on a donné une définition de la transformation digitale: combinaison i) de la puissance de calcul , ii) de la capacité de stockage et iii) de l’ Internet mobile qui interconnecte tout et tout le monde, partout et tout le temps, ce qui change l’infrastructure dans laquelle toutes les organisations humaines opèrent et donc modifie en profondeur la manière de réaliser nos activités.
Lors de notre dernière conférence, on nous a posé une question : « en quoi est-ce différent de l’informatisation que certains d’entre nous, ingénieurs informatiques de formation, connaissons depuis toujours? »
Pour répondre, donnons quelques exemples.
Le stockage
Certains se souviennent du bug de l’an 2000 qui n’aura finalement pas eu lieu, en tout cas pas à grande échelle.
Mais d’où cela venait-il ? Du coût énorme de l’informatique de l’époque et notamment des coûts de stockage. Les ingénieurs des années 70 avaient donc opté pour ne stocker que les 2 derniers chiffres de l’année dans leurs bases de données. C’est peu dire que le stockage était une préoccupation.
Aujourd’hui, tout un chacun bénéficie de 5 Go gratuit sur le cloud d’Apple, 15 sur Google et 100 sur Microsoft actuellement en promotion: c’est plus de 100’000 documents ou 30’000 photos. Gratuit !
La capacité de calcul
La loi de Moore , du nom d’un des fondateurs d’Intel, nous rappelle que la densité des transistors implantés sur une puce électronique double tous les 2 ans. Cela a pour impact que les machines électroniques deviennent de plus en plus puissantes et de moins en moins coûteuses.
Résultat: la puissance de calcul qui tient dans notre main avec un smartphone est « plusieurs milliers de fois supérieure à celle des ordinateurs qui ont envoyé un homme sur la lune en 1969. Ces appareils connectent la majorité de la population humaine et ils n’ont que dix ans (McKinsey) » (ndlr : le premier iphone a été lancé en 2007 par Apple).
Sans aller sur la Lune, le monde entier est à la portée de nos doigts sur smartphone avec Google Earth, 400 ans après la lunette astronomique de Kepler et 50 ans après le cliché de la Terre pris depuis la Lune.
Tout un chacun peut bénéficier de la puissance d’un serveur « dans les nuages de l’Internet » (Cloud) en toute sécurité, par exemple pour se créer un site web, tout cela pour quelques dizaines de francs par an, quand ce n’est pas simplement gratuit.
La puissance de calcul coûte tellement peu qu’elle va se nicher non seulement dans les équipements informatiques, mais aussi dans les équipements électroniques.
Les objets se mettent à traiter l’information. Ils se mettent à « réfléchir ».
Notre voiture bientôt autonome en est un exemple.
Il ne leur manquait plus que la parole et la conversation: c’est fait avec l’intelligence artificielle inclue dans les assistants de Google, Apple ou Amazon ou leur grand frère évolué Watson d’IBM.
Il ne leur manquait plus qu’échanger des informations, entre eux ou avec l’humain: c’est fait aussi avec l’Internet mobile…
L’Internet mobile
Avant de parler de mobile, parlons déjà Internet.
« 40 des 56 pays de plus de 20 millions d’habitants comptaient plus de 50% d’utilisateurs de Facebook » selon une étude de 2017.
Cela donne une idée du rythme d’adoption de l’Internet.
On peut aussi voir dans ce chiffre le verre à moitié vide et constater l’étendue de la fracture numérique. Préoccupante, mais elle se résorbe. Elle se résorbe notamment grâce à l’Internet mobile. Car dans de nombreux pays dont l’infrastructure « est à la traîne », leur présent ou futur immédiat est directement mobile. On y saute les étapes.
La 5G arrive et avec elle une puissance de transmission mobile encore jamais atteinte: 1’000 fois plus rapide que la technologie de 2010 et 100 fois plus rapide que l’actuelle 4G. De quoi télécharger un film en quelques secondes, une chanson en une seconde. Pas pour dans 10 ans, mais d’ici 2020 pour les plus optimistes.
La 5G permettra d’interconnecter non seulement les téléphones, mais plus généralement les objets, voitures et autres robots.
Ces mêmes objets dopés à l’intelligence électronique exponentielle dont on a parlé plus haut…
Cela ne donne-t-il pas le vertige ?
L’Intelligence Artificielle et le Deep learning (apprentissage profond)
Pour revenir à la question de notre interlocuteur, « qu’est-ce qui change ? »: le rythme .
Durant mes études, j’avais appris les algorithmes de l’Intelligence Artificielle il y a 25 ans, les réseaux neuronaux notamment.
On les connaît depuis longtemps.
Le premier ordinateur à avoir battu un champion du monde d’échec s’appelait Deep Blue, d’IBM, il y a 20 ans. Il est le résultat de la combinaison entre puissance de calcul et algorithmes d’intelligence artificielle. C’était un défi et un exploit industriel pour l’époque.
Il a pu « réfléchir » grâce à des données. Les données dans ce contexte étaient « simples »: 64 cases d’un damier et quelques règles du jeu.
Un changement majeur est intervenu entre-temps. De nombreuses données sont devenues disponibles en quantité énorme; c’est ce qu’on appelle le Big Data, par la grâce des capacités de stockage exponentielles évoquées plus haut et d’Internet comme moyen de captation de données.
Cela permet soudain de donner du « grain à moudre » aux algorithmes et de fiabiliser leurs calculs.
Ils apprennent et restituent toujours plus vite et toujours plus.
Ainsi Watson, l’évolution de Deep Blue, analyse 300 pages d’une étude médicale en 0,5 secondes et promet des avancées majeures dans la détection de maladies, leur diagnostic et leur traitement, à un stade précoce.
« Je n’ai jamais vu une révolution aussi rapide. On est passé d’un système un peu obscur à un système utilisé par des millions de personnes en seulement deux ans . » déclarait Yann LeCun en 2015, un des inventeurs du Deep learning (apprentissage profond appartenant au domaine de l’intelligence artificielle), aujourd’hui utilisé dans les algorithmes de Google Assistant et Apple Siri notamment.
Google Brain a ainsi découvert lui-même le concept de « chat » en 2012 dans des images et vidéos, sans intervention humaine.
Google Deep Dream crée des œuvres « artistiques » (voir mon dernier billet sur la créativité).
Google Duplex simule une conversation avec un humain à s’y méprendre et va tellement loin dans l’imitation de la voix et l’intelligence de la conversation que cela soulève aussi des questions éthiques.
Le Deep learning date pourtant de la fin des années 80, mais ce n’est que maintenant qu’il fait parler de lui de manière exponentiellement rapide, car il a des masses de données à disposition pour s’auto-former…
Une informatisation poussive jusqu’à l’arrivée d’Internet: une fenêtre ouverte sur l’entreprise
La première fonction informatisée en entreprise a été la comptabilité.
Il a fallu quelques années pour passer ensuite à la gestion des stocks et la chaîne logistique.
Puis encore quelques années pour les ventes et le marketing (CRM) et encore, péniblement.
Dans tous les cas, il s’agissait d’informatiser des processus internes et des données « simples », voire de connecter les fournisseurs entre eux.
L’arrivée d’Internet ouvre définitivement l’entreprise sur des données plus complexes et vers l’extérieur, fournisseurs, partenaires et bien-sûr clients, 365 jours par an, 7 jours sur 7, 24 heures sur 24.
Internet est une fenêtre ouverte sur l’entreprise.
L’implication directe est qu’il faut rendre les systèmes d’information simples, à la portée d’un utilisateur-client.
Un client qui a devant lui pléthore de choix, en toute transparence.
L’entreprise se doit donc aussi de changer radicalement son état d’esprit: on passe d’une orientation produit centrée sur ses contraintes internes à une orientation clients centrée sur leurs besoins.
Internet combiné au smartphone multiplie les usages tout en s’insérant dans nos vies sans même que l’on s’en rende compte.
Auparavant, l’informaticien avait tendance à se substituer à l’utilisateur pour déterminer ses besoins à sa place.
Aujourd’hui, on développe des logiciels qui s’adaptent aux utilisateurs. On personnalise leur expérience. C’est l’utilisateur qui définit ses usages, pas les informaticiens.
Alors voilà bien la différence avec ce que l’on a appris à l’école de l’informatisation il y a 25 ans: la combinaison des technologies et l’accélération exponentielle de leur adoption par tout un chacun.
Et cela, ce n’est de loin pas du buzz. C’est concret, ici et maintenant (hier en fait), et force à adapter les entreprises à la nouvelle réalité de l’ère digitale, rapidement si possible.
Et vous, qu’en pensez-vous ?