Se préparer à une menace progressive
Tentons d’éclairer ce débat en lançant ici un regard rétrospectif et prospectif sur l’innovation disruptive.
On est habitué à voir arriver périodiquement des innovations appelées à changer le monde. Ces dernières années, les objets connectés, le métavers puis la blockchain ont été les stars successives des salons de l’innovation. Pourtant, force est de constater que les déceptions sont souvent à la hauteur des attentes. C’est ce qu’on appelle d’ailleurs le cycle du hype (hype curb – Cf. intra). Lorsqu’une nouvelle technologie arrive, elle a tendance à créer des attentes très fortes et surtout dans un horizon de temps rapide. Or il faut du temps pour qu’une technologie devienne mature et accessible, du temps pour que l’écosystème s’adapte pour intégrer les promesses, du temps enfin pour que les consommateurs adoptent de nouveaux cas d’usage qui se substituent à leurs habitudes. Car la nature a horreur du vide : une technologie s’impose quand elle résout un problème. Or, avant qu’une technologie n’arrive, il y avait toujours une façon d’adresser ce problème. Avant l’apparition de Google, on avait des bibliothèques, le Quid et des centres d’information. Même une invention comme la lampe à incandescence en 1879 devra attendre trente ans pour arriver vraiment dans les foyers parisiens, le risque d’incendie (réel) n’aidant pas dans les premières années à s’imposer face à la lampe à huile.
Plus près de nous, un rapide rappel de l’histoire d’internet est illustrative de ces dynamiques. Apparu au début des années 90, le web dût attendre ses premiers navigateurs (Mozaïc en 1993) et moteurs de recherche modernes (Lycos en 1995) pour qu’internet se développe massivement : de 500.000 à 36 millions d’ordinateurs connectés en cinq ans. La France fit de la résistance car les ingénieurs télécom défendaient le système – souverain mais fermé – du minitel, si en avance en son temps. L’écosystème s’agrandit avec la multiplication des sites, ce qui aboutit à la bulle internet qui explosa en 2001 comme l’avait fait la bulle des chemins de fer en 1847. Trop de promesses et d’argent par rapport à la capacité de monétisation de l’époque. La télévision fait de la résistance pour capter les minutes de cerveau disponible, le web n’est pas encore assez collaboratif pour tirer pleinement partie des effets de réseau et la capacité à faire payer ne viendra que plus tard. Pourtant aujourd’hui, les promesses de l’époque se sont bien réalisées, mais il a fallu attendre l’essor du mobile first et l’ascension de l’économie du partage. En bref, sans écosystème adapté, point de salut à grande échelle.
L’IA sur le pic des attentes exagérées
Qu’est-ce qui change avec l’IA générative, popularisée par ChatGPT ? L’Intelligence Artificielle existe depuis quelques dizaines d’années via l’apprentissage par renforcement dont le premier symbole médiatique fut la victoire de AlphaGo sur le champion du monde de Go. Ces algorithmes apprenants se sont perfectionnés grâce au Big data et les capacités de calcul démultipliées pour gérer le deep learning bien plus performant.
L’IA générative est l’aboutissement de ce chemin pour générer du texte, mais aussi des médias (images, musique…), en réponse à une demande. Et cette demande peut être émise de façon simple comme une question : c’est l’agent conversationnel ChatGPT sorti publiquement en décembre 2022. Et c’est là qu’est la disruption d’usage qui change tout. Précédemment l’IA pouvait être descriptive (identifier une tendance), puis prédictive (prédire) et enfin prescriptive (recommander une action). A chaque fois, la valeur disruptive augmentait, mais la complexité d’implémentation et surtout d’appropriation aussi. Avec l’IA générative, le potentiel augmente encore, mais cette fois la difficulté d’appropriation diminue. Chacun peut aisément l’utiliser et avoir un résultat immédiat ; langage naturel, contextualisation, intégrable dans les outils du quotidien sont quelques clés de son succès. D’où un taux d’adoption sans nul autre pareil : 100 millions en deux mois contre 55 mois pour Spotify et 6 ans pour le World Wide Web. C’est « l’effet spoutnik » d’un phénomène visible par tous mais pourtant bien réel et sous-jacent depuis 10 ans.
Pour autant, l’IA générative ne devrait pas forcément échapper au cycle du hype. Cette courbe théorique décrit le cycle d’intérêt pour une technologie émergente qui, après le lancement (phase 1) génère des attentes exagérées (phase 2) avant de décevoir dans le gouffre des désillusions (phase 3) et de remonter la pente de l’illumination (phase 4) pour atteindre le plateau de productivité (phase 5).
Si son lancement est un grand succès, l’IA générative induit une attente à sa hauteur. En témoigne, le nombre de startups qui se sont lancées sur ce secteur et des levées de fonds qui atteignent des montants qui contrastent avec la torpeur actuelle du private equity (d’un seed de 105 M€ pour le français IA Mistral à une série C de 270 M$ pour le canadien Cohere). L’appât du gain pour investir dans le prochain GAFA guide l’investisseur en mal de concrétiser un « home run » mais aussi les industriels qui ont peur de rater un virage technologique à l’instar de Blockbuster, Toys’R Us ou encore Nokia.
Mais au regard des promesses (polyvalence et adaptabilité par construction) et de la maturité de la technologie (version 4 pour ChatGPT), il fait peu de doutes qu’elle s’imposera. D’autant qu’outre l’IA générale (General AI) sachant traiter des problèmes dans tous les domaines mais avec des limites évidentes, se développent, sur des technologies comparables, des IA étroites (Narrow AI) spécialisées sur des tâches précises avec un niveau d’efficacité bien meilleur. Les gains portent à la fois sur l’amélioration du service permettant d’augmenter les revenus mais aussi, bien sûr, sur les charges via une amélioration de la productivité. L’IA générative suivra le cycle du hype, mais probablement plus rapidement que d’habitude.
Déjà le nombre d’utilisateurs de ChatGPT a diminué entre mai et juin 2023 (-10%) après une croissance exponentielle lors des six premiers mois. L’intégration de l’IA générative suscite surtout de grands débats sur l’éthique de la donnée, à propos des droits de copyright, concernant la souveraineté technologique et l’impact sur l’emploi. Concrètement, de nombreuses sociétés ont bloqué l’usage pour des raisons de sécurité et de confidentialité. Il est indéniable que cette révolution pose un grand nombre de questions. Notamment la capacité des sociétés à s’adapter dans un univers concurrentiel. Cela mettra à l’épreuve l’organisation des entreprises concernées. Cela interrogera aussi la capacité du politique et du marché de l’emploi à prendre en compte cette nouvelle donne alors que l’on sait que le temps de la technologie est naturellement plus rapide que celui du législatif et du monde éducatif.
Au début d’une nouvelle révolution industrielle
La première révolution industrielle avait apporté la mécanisation (la machine à vapeur, le métier à tisser mécanique et le chemin de fer), accélérant pour la première fois la productivité d’une main d’œuvre peu chère et abondante. La seconde révolution industrielle (l’électricité, la chimie et l’automobile) se traduisit par de nouvelles méthodes de travail industrielles et bouleversa encore plus profondément l’ensemble de la société via la production de masse. Ce sont cette fois des emplois plus qualifiés qui furent affectés. La troisième révolution industrielle (l’informatique, l’électronique, les télécommunications) a permis la production automatisée et va concerner cette fois des emplois intermédiaires diminuant la part de la ressource humaine dans la valeur ajoutée.
A chaque fois, l’industrialisation fait disparaitre des emplois de plus en plus qualifiés amenant à augmenter le niveau d’expertise et de formation pour adapter le monde du travail. L’amélioration de la productivité est concomitante à la croissance et donc à la création de nouveaux emplois. En bref, la société s’est adaptée et la création de nouveaux emplois s’est globalement substituée à la destruction d’autres (le chômage des pays occidentaux depuis les chocs pétroliers est largement compensé par la création d’emplois dans d’autres pays, certains mécanismes sociaux pouvant freiner les ajustements locaux). C’est ce qu’on appelle le processus de destruction créatrice introduit par Schumpeter : un mouvement constant de destructions d’activités et de création de nouvelles activités liées à l’innovation.
Qu’en sera-t-il donc avec la quatrième révolution industrielle (internet industriel, intelligence artificielle) qui a commencé récemment ? Elle se traduit par une expertise machine qui progresse plus vite que l’expertise humaine, ce qui repousse la capacité de remplacement de l’humain à un niveau qu’on n’imaginait pas il y a encore peu de temps. Ne pensait-on pas que l’expertise scientifique serait garante des emplois de demain ? Les radiologues vont devoir s’adapter à une machine plus fiable pour identifier une anomalie sur une image alors que l’infirmière qui apporte de l’empathie est mieux protégée. Ne pensait-on pas que la connaissance d’un avocat le protégeait de l’obsolescence ? Mais ce bastion tombe car le conseiller juridique virtuel connait toutes les jurisprudences en temps réel. Ne pensait-on pas que la création artistique serait un univers protégé ? Les concours de photographie commencent à être gagnés par des intelligences artificielles. Il est certain encore une fois que de nouveaux types d’emplois, plus qualifiés encore, vont disparaître. Plus un emploi est couteux et commun, plus il sera en danger car il sera alors rentable d’y développer une technologie onéreuse mais disruptive.
« Notre maison brûle et nous regardons ailleurs » (Jacques Chirac – 2002)
En bref, le choc technologique de l’intelligence artificielle est bien devant nous. Il ne faut pas paniquer sur la rapidité de cette révolution, sous réserve de l’anticiper dès maintenant. Daniel Susskind, professeur d’économie à Oxford, fait l’analogie avec le Climat : comme le réchauffement climatique, il s’agit d’une menace progressive qu’il est possible de traiter sereinement si elle est traitée dès son apparition. Mais comme pour toute menace progressive, il n’est pas aisé d’investir dès qu’on y est confronté. La grenouille dans la casserole trouve que l’eau a tendance à devenir même plus agréable au début quand on commence à la chauffer.
Au niveau individuel, il y a de nombreux emplois disponibles et en devenir dans l’industrie du digital, mais tout le monde ne doit pas devenir codeur pour autant. D’ailleurs l’essor est plutôt aux logiciels no code et l’intelligence générative est capable de générer des lignes de programmation à partir d’une instruction (prompt). Devenir un utilisateur averti sera un enjeu pour demain mais cela devrait se faire dans les entreprises aussi logiquement que l’utilisation d’Excel. C’est-à-dire que rapidement chacun sera déjà en mesure d’en tirer profit (qui ne sait utiliser déjà Bing/OpenAI ?). Pour autant, bien peu sauront en tirer tous les avantages (quelle proportion sait faire une bonne macro sous Excel ?). C’est une fracture numérique d’un nouveau genre qui risque d’arriver. A terme, concernant l’impact de l’intelligence artificielle, le choc sur le marché du travail pourrait être important et sans rapport avec le nombre d’emplois directs créés dans la technologie. Le salut viendrait alors, comme souvent, de la croissance induite et de sa capacité à créer de l’emploi et de la richesse à redistribuer. La synergie de ces deux dynamiques sur l’emploi (destructive par l’innovation, constructive par la croissance) sera cette fois encore au centre de l’économie de demain.
Au niveau des entreprises, l’histoire nous a appris que le rythme d’adoption des technologies reste souvent plus lent qu’anticipé. Le e-commerce a mis du temps à s’imposer et il n’a pas tué le commerce traditionnel. Pour autant, force est de constater qu’après 20 ans, il est devenu la norme dans de nombreux domaines (culturel, agences de voyage) et a transformé bien des entreprises (médias, banques) pour voir apparaître des pure players (DNVB, restaurants virtuels). Sans tomber dans une approche court-termiste, on peut anticiper un mouvement d’adoption qui s’étalera sur plusieurs années au rythme de la recherche industrielle au niveau de l’offre et des cycles d’investissement au niveau de la demande. Les premiers investissements ne sont pas toujours les plus performants car, souvent, la technologie n’est pas encore optimum, la méthode d’implémentation révèle des marges d’amélioration et l’écosystème de l’entreprise sous-performe ses capacités. Mais il faut savoir rester prudent car les cycles de l’innovation semblent s’accélérer.
Dans une entreprise, une tendance à dix ans s’anticipe dès aujourd’hui, car les projets informatiques majeurs sont longs, car il faut préparer les organisations, car un employé embauché en CDI est là pour une durée dite « indéterminée ». Implémenter une nouvelle technologie dans l’entreprise, n’est pas qu’un choc technique à maitriser ; c’est également un choc organisationnel à anticiper vis-à-vis des hommes et des femmes qui la composent. Cela implique de mener les chantiers d’accompagnement du changement permettant d’intégrer les impacts sur le travail individuel, sur le fonctionnement du collectif ainsi que sur le sens et la reconnaissance au sein de l’organisation.
Microsoft est symptomatique de ces menaces et opportunités : persuadé de la supériorité du PC, l’entreprise de Seattle a mis trois ans à réagir à l’apparition de l’iPhone mais c’était déjà trop tard ; pour autant, compte tenu de ses moyens importants, elle a su compenser par d’autres innovations pour reprendre le leadership dans l’intelligence artificielle avec OpenAI. C’est ce qu’avait anticipé l’ancien patron d’Intel, Andrew S. Grove lorsqu’il écrivit en 1988 : « Only the Paranoid survive ». Il y invitait les dirigeants à permettre à leurs collaborateurs de tester de nouvelles techniques, de nouveaux produits, de nouveaux canaux de vente et de nouveaux clients, afin d’être prêts pour des changements inattendus commercialement ou technologiquement. Et surtout il relevait le besoin d’identifier les signaux faibles, notamment via son silver bullet test (popularisé depuis par Warren Buffet) : identifier régulièrement le concurrent qu’on serait prêt à éliminer si on devait en choisir un seul et redoubler d’attention si le nom d’un compétiteur qu’on ne connaissait pas apparait !
Pour le leader en change management John P. Kotter, il faut déjà avoir convaincu trois quarts du management pour faire bouger une organisation. Mais avoir des managers convaincus n’est pas suffisant face à un choc disruptif car c’est tout le corps social d’une entreprise qui risque d’être concerné. Or, par sa richesse procédurale, l’entreprise peut être une effroyable machine à casser l’initiative individuelle et à détériorer la capacité d’apprendre. L’entreprise s’est organisée pour résister au changement de moyen terme pour garantir son efficacité au quotidien. Pour que chacun devienne un acteur bienveillant du changement, il est donc urgent, plus que jamais, que l’entreprise sache développer les soft skills de ses employés et leur curiosité d’apprendre pour préparer chacun à faire face à un avenir incertain.
La seule chose dont on est sûr, c’est que cet avenir sera bien différent d’aujourd’hui. Sans paniquer, cela mérite d’y réfléchir dès aujourd’hui, au niveau individuel et collectif. A défaut, les réveils peuvent être douloureux.
Publié par Laurent Darmon