Construire les bases d'un investissement responsable dans l'IA
Lors d'un récent événement organisé à Londres, nous avons évoqué les répercussions environnementales et sociales de l'IA, en soulignant son potentiel de transformation et la nécessité d'un déploiement responsable.
12 minutes de lecture
Principaux points à retenir :
- L'IA générative est connue comme la quatrième vague technologique et, comme les vagues précédentes, elle devrait transformer et perturber un large éventail de secteurs, créant ainsi des opportunités pour les investisseurs actifs.
- Le déploiement de l'IA générative présente des défis et des risques, non seulement en raison de la disruption concurrentielle, mais aussi en ce qui concerne la protection des données, le déplacement potentiel d'emplois et les impacts environnementaux – ce qui souligne l'importance d'une innovation responsable.
- Les investisseurs devraient se concentrer sur les entreprises qui sont à la pointe de l'innovation en matière d'IA tout en démontrant leur volonté de s'engager dans un déploiement responsable.
L'intelligence artificielle (IA) générative est la quatrième vague technologique, après celle de l'ordinateur central, celle de l'ordinateur personnel (PC) et celle de l'internet et de la téléphonie mobile. Ces précédentes vagues d'innovation ont transformé des secteurs allant de la vente au détail aux médias et au commerce électronique. Aujourd'hui, l'IA générative est susceptible de transformer un plus grand nombre de secteurs, ce qui souligne nécessité absolue d'un déploiement responsable face aux défis et aux risques. Cette question était au cœur d'un récent événement organisé par des experts en IA responsable, dont Michelle Dunstan, Sarah de Lagarde, Alison Porter et Antony Marsden.
Qu'est-ce que l'IA ?
Avant d'aborder le sujet de l'IA responsable, il est important de distinguer l'IA générative de l'intelligence humaine et de l'IA générale, c'est-à-dire des modèles qui deviennent aussi intelligents, voire plus, que les humains. L'IA générative est capable de générer des contenus nouveaux et originaux grâce à ce que l'on appelle des « modèles transformateurs » (un type de modèle d'IA qui génère des textes comme le ferait un humain en analysant des schémas repérés dans de grandes quantités de données. Ces modèles, qui utilisent un nombre grandissant de paramètres (le Chat GPT-4 d'Open AI en compte plus de mille milliards), permettent aux algorithmes d'apprendre, de réagir, de créer et de prédire à partir de données et d'interactions historiques.
L'essor de l'IA
Pourquoi entendons-nous soudain autant parler de l'IA ? C'est devenu un mot à la mode un peu fourre-tout, mais pourquoi maintenant ? Même si l'IA est au coeur des romans et des films de science-fiction depuis des décennies, les récentes innovations en matière de produits ont fait de son application une réalité.
Les vagues technologiques précédentes sont nées d'une diminution rapide des coûts qui les a rendues plus accessibles et évolutives et il en va de même pour cette récente vague d'IA générative. Par exemple, la mémoire flash de l'iPhone 16 d'Apple (128 Go) aurait coûté plus de 5 millions de dollars dans les années 1990. Les progrès rapides des modèles de transformateurs permettant le traitement du langage naturel, combinés à l'accroissement de la puissance de calcul des unités de traitement graphique (GPU) de Nvidia, ont fait baisser le coût du calcul au point d'en démocratiser l'accès et d'élargir les cas d'utilisation. Ces progrès ont fait de l'IA une réalité, permettant aux consommateurs et aux entreprises d'avoir accès et d'adopter des technologies telles que ChatGPT et d'autres grands modèles de langage (LLM) pour un large éventail de cas d'utilisation, plus facilement et à un prix abordable.
Vagues d'innovation en matière d'IA
Contrairement aux thèmes d'investissement précis, les vagues d'innovation nécessitent des investissements dans toutes les strates de la technologie, du silicium à l'infrastructure, en passant par les terminaux, les logiciels et les applications. C'est la raison pour laquelle ces vagues ont tendance à se dérouler sur plusieurs années.
Chacune de ces vagues a entraîné des perturbations plus profondes et plus vastes, avec un élargissement des applications et des cas d'utilisation. Les applications bureautiques, la communication et le commerce électronique ont tous été bouleversés à l'ère de l'internet sur PC. Ce fut ensuite le tour des médias, des divertissements et des transports à l'ère du cloud mobile.
Avec l'amorce de cette quatrième vague, d'autres secteurs tels que la santé et les transports sont bouleversés et transformés. Nous pouvons établir des parallèles entre les défis sociaux, environnementaux et réglementaires des vagues précédentes et ceux de la dernière vague. Chaque vague précédente a suscité des préoccupations similaires concernant l'usage abusif, les atteintes à la vie privée et l'impact sur le réseau électrique.
Malgré ces défis, nous avons constaté au cours des dernières vagues une augmentation des niveaux d'adoption des technologies dans un plus grand nombre de secteurs, l'innovation visant à exploiter la puissance des nouvelles technologies pour relever des défis critiques d'ordre géopolitique ou démographique, pallier les vulnérabilités des chaînes d'approvisionnement, améliorer la productivité des individus et faciliter la collaboration.
Figure 1 : Vagues d'innovation en matière d'IA
Source : Citi Research, Janus Henderson Investors
N.B. : Les références faites à des titres individuels ne constituent pas une recommandation d'achat, de vente ou de détention d'un titre, d'une stratégie d'investissement ou d'un secteur de marché, et ne doivent pas être considérées comme rentables. Janus Henderson Investors, son conseiller affilié ou ses employés peuvent détenir une position sur les titres mentionnés. Rien ne garantit que les tendances passées se poursuivront ni que les prévisions se réaliseront. Les points de vue sont susceptibles d’être modifiés sans préavis.
Déployer l'IA de manière responsable
Lorsque l'on réfléchit à la notion d'IA responsable, il est essentiel de commencer par comprendre que l'IA n'est qu'une technologie, qui n'est par nature ni bonne ni mauvaise. Elle aura certainement un large éventail d'impacts positifs et négatifs sur l'homme, qui peuvent souvent être considérés comme les deux faces d'une même pièce. Par exemple, dans le secteur de la santé, l'IA est susceptible de faciliter significativement le diagnostic précoce des maladies. Toutefois, si les données qui en résultent ne sont pas dûment protégées, cela pourrait par la suite compliquer l'obtention d'une assurance maladie. De même, si l'IA promet d'améliorer les conditions de travail en éliminant les tâches fastidieuses, sa capacité à bouleverser des métiers suscite des inquiétudes légitimes.
D'un point de vue climatique, les applications de l'IA ont un potentiel énorme pour ce qui est de s'attaquer à certaines des causes du changement climatique mais, paradoxalement, le déploiement actuel de l'infrastructure de l'IA contribue dans l'immédiat à l'augmentation des émissions de carbone.
Lors des précédentes vagues informatiques, la crainte qu'Internet et le cloud mobile dépendent des énergies fossiles était alimentée par les analystes du secteur de l'électricité, qui estimaient que la consommation d'électricité et l'intensité carbone se maintiendraient avec l'augmentation de la demande. Toutefois, ces prévisions ne tenaient pas compte des gains d'efficacité engendrés par ces nouvelles technologies, susceptibles de réduire la consommation d'électricité. En outre, même si la demande grandissante de centres de données entraîne une augmentation de la demande d'énergie, celle-ci est en partie compensée par des investissements importants dans de nouvelles technologies de silicium, de stockage et de mise en réseau, qui infléchiront la courbe de la demande d'énergie et réduiront les émissions potentielles futures.
En plus de ces nouvelles technologies, les grands hyperscalers s'intéressent toujours à de nouvelles sources d'énergie. Par exemple, Microsoft a récemment annoncé un accord avec Constellation Energy concernant la remise en service d'un réacteur nucléaire de 835 mégawatts (MW) sur le site de Three Mile Island en Pennsylvanie.1
Cet accord souligne l'ampleur des efforts déployés pour répondre aux besoins énergétiques croissants de l'IA et le recours croissant au nucléaire comme source d'énergie renouvelable. Cette décision s'inscrit dans le cadre de l'engagement global de Microsoft en faveur de la décarbonation, démontrant ainsi que les besoins énergétiques des entreprises se recoupent avec les solutions énergétiques durables.
L'IA est un domaine rempli de nuances et de zones grises. L'un des principaux risques à prendre en considération est le phénomène du double usage. Un groupe de chercheurs a ainsi démontré qu'une plateforme de recherche pharmaceutique pilotée par l'IA, initialement conçue pour trouver des médicaments bénéfiques, pouvait être facilement modifiée pour développer des substances nocives ou des armes biologiques.
L'utilisation abusive des outils d'IA générative constitue un autre problème important. Parmi les premiers exemples, citons Tay, le chatbot de Microsoft, qui a été manipulé pour produire des discours haineux peu de temps après son lancement. Cette question s'étend à des domaines sérieux tels que la cybercriminalité, d'où l'importance de mener des audits de sécurité et de recourir au « red teaming » (un exercice de cybersécurité réalisé avec le concours d'une équipe de hackers éthiques chargée de pirater un outil avant son lancement). Par exemple, l'audit approfondi réalisé par OpenAI sur son dernier modèle, qui remplacera son système GPT-4, témoigne de la nécessité absolue de prendre de telles précautions.
Mettre l'IA au service de l'intérêt général
Faire en sorte que l'IA serve l'intérêt général est un défi permanent, comme l'illustre le scénario du « maximisateur de trombones » échafaudé par le philosophe suédois Nick Bostrom, qui examine le « problème du contrôle » : comment l'homme peut-il réguler une IA super-intelligente, plus intelligente que lui ? Cela souligne la nécessité pour les chercheurs en sécurité de l'IA, chargés de prévenir les comportements indésirables des systèmes d'IA, de s'assurer que les objectifs de l'IA sont conformes aux valeurs humaines et aux intérêts de la société.
En outre, l'apparition d'erreurs et d'hallucinations dans les contenus générés par l'IA, illustrée par l'incident du chatbot d'Air Canada, qui a fourni des informations erronées à un voyageur, souligne la nécessité d'une plus grande transparence dans les processus de prise de décision en matière d'IA. Les questions de partialité et de manque de transparence compliquent encore le déploiement responsable des technologies d'IA, ce qui exige des efforts concertés pour élucider la manière dont les modèles d'IA parviennent à leurs résultats.
En définitive, l'avènement d'une IA responsable passe par la reconnaissance de son double potentiel, la prise en compte des principaux risques grâce à des mesures de sécurité rigoureuses, l'alignement sur les valeurs sociétales et l'amélioration de la transparence et de la responsabilité dans les systèmes d'IA.
IA : à quel point faut-il s'inquiéter ?
La question du risque existentiel associé à l'IA générale, qui sera issue de la vague actuelle d'IA générative lorsque cette dernière fera jeu égal avec l'intelligence humaine, reste un sujet de débats passionnés. L'inquiétude inspirée par l'IA générale est souvent résumée par une expression utilisée dans la Silicon Valley, le « P(doom) », qui fait référence à la probabilité que l'IA puisse surpasser l'humanité, voire nous asservir. Ce concept soulève des questions théoriques intéressantes. Les « parrains de l'IA », trois chercheurs qui ont reçu le prix Turing pour leurs contributions, ont des opinions divergentes sur la question.
Yann LeCun, qui participe à la recherche sur l'IA au sein de Meta, est relativement sceptique quant au risque existentiel de l'IA générale. Il compare l'intelligence des systèmes d'IA actuels à celle d'un chat et balaie d'un revers de main les préoccupations actuelles, qu'il juge dénuées de sens. De son côté, Geoffrey Hinton, une figure bien connue de la communauté de l'IA, a quitté Google pour faire part de ses inquiétudes concernant les progrès rapides de l'IA, craignant qu'elle ne devienne un jour plus intelligente que l'homme. Yoshua Bengio, un autre éminent chercheur, a mis en garde contre la catastrophe potentielle qui pourrait s'ensuivre si l'IA n'est pas réglementée dans un avenir proche. Compte tenu de leur proximité avec la recherche-développement dans le domaine de l'IA, leurs points de vue méritent d'être pris en considération.
Concentration du pouvoir
Toutefois, certains affirment que le fait de se concentrer sur ces risques existentiels à long terme de l'IA générale détourne l'attention de préoccupations plus immédiates. L'observation des évolutions au sein des géants technologiques ces deux dernières années, notamment en ce qui concerne leurs comités d'éthique et leurs équipes de sécurité dédiées à l'IA responsable, révèle des changements significatifs. Il est arrivé que des comités d'éthique de l'IA soient démantelés, que des équipes soient dissoutes et que des lanceurs d'alerte tirent la sonnette d'alarme sur les dangers de l'IA qui découlent de la course à l'innovation au sein de ces entreprises (figure 2).
Figure 2 : L'IA responsable devrait être une priorité pour toutes les entreprises
Visite de nouveaux formats de points de vente
Toutefois, nous tenons à souligner qu'au travers nos échanges avec ces entreprises, il est devenu évident que l'IA n'est plus un simple aspect théorique de l'activité mais un élément central de leur modèle économique, ce qui suppose d'intégrer et de centraliser les fonctions de gestion des risques. Ce passage des préoccupations théoriques aux préoccupations concrètes a entraîné une augmentation des ressources consacrées aux questions de sécurité dans de nombreuses entreprises, où une approche plus globale de l'IA se manifeste par la fusion et l'intégration d'organes en interne.
L'une des questions qui nous préoccupe le plus est celle de la concentration du pouvoir dans le domaine de l'IA. Cette question n'est pas nouvelle car certains des géants technologiques se caractérisent depuis longtemps par leur position dominante sur le marché, leurs structures d'actionnariat singulières et l'immense influence exercée par une poignée d'individus qui contrôlent cette technologie et son orientation future. Cette concentration du pouvoir est une préoccupation importante qui mérite d'être prise en compte.
Réglementer l'innovation – trouver l'équilibre
Partout dans le monde, les gouvernements sont aux prises avec l'évolution rapide de l'IA, que la réglementation a du mal à accompagner. Au niveau national, de nombreux gouvernements ont surtout adopté des réglementations fondées sur des principes. La Chine se distingue par le fait qu'elle a déjà mis en place des réglementations assez strictes, assorties de sanctions sévères. D'ici 2025 ou 2026, de nombreux pays devraient introduire des réglementations beaucoup plus strictes. L'Union européenne (UE) a franchi une étape importante avec l'adoption de son règlement sur l'IA, l'un des textes législatifs phares en matière d'IA, qui est déjà entré en vigueur. Son impact devrait devenir plus évident aux États-Unis l'année prochaine ou celle d'après.
Aux États-Unis, il n'existe actuellement aucune réglementation de l'IA au niveau fédéral, bien que le sujet donne lieu à des débats animés, par exemple en Californie ou les règles proposées ont finalement fait l'objet d'un veto malgré le soutien important de l'opinion publique. Ce veto a été motivé par la crainte qu'une telle réglementation n'étouffe l'innovation. Toutefois, au niveau des États fédérés, des réglementations commencent à voir le jour. Par exemple, l'État de New York a introduit des réglementations concernant les biais de recrutement découlant du recours à l'IA et d'autres États ont commencé à mettre en œuvre leurs propres mesures. En Californie, la réglementation qui devrait entrer en vigueur l'année prochaine exigera que les contenus tels que les images créées par l'IA soient marqués d'un filigrane, ce qui permettra de les détecter.
De nombreux pays envisagent de réglementer le recours à l'IA tout en ambitionnant de devenir des pôles d'innovation en matière d'IA. Cela crée une dynamique concurrentielle et constitue un véritable compromis, qui suscite des débats passionnés, en particulier dans l'UE, sur la manière de concilier la réglementation et la promotion de l'innovation dans le domaine de l'IA.
Surfer sur les vagues de l'innovation en matière d'IA
Le voyage à travers le paysage changeant de l'IA révèle une technologie susceptible de révolutionner tous les secteurs de la société, de la santé jusqu'aux transports, tout en posant des défis significatifs et de sérieux dilemmes éthiques. Cependant, cette formidable opportunité s'accompagne d'une immense responsabilité.
Dans l'immédiat, l'inquiétude suscitée par l'IA générale porte sur la concentration du pouvoir et la nécessité d'une réglementation efficace, ce qui ne sera pas une mince affaire. Les mesures prises par les gouvernements, les entreprises technologiques et la communauté internationale dans les années à venir seront cruciales pour façonner l'avenir de l'IA, mais elles évolueront différemment selon les régions du monde en fonction des fondements politiques, culturels et réglementaires mis en place lors des vagues informatiques précédentes. L'évolution de la réglementation est complexe et doit permettre de concilier la volonté d'innovation et l'obligation de préserver les normes éthiques et le bien-être de la société.
Alors que nous sommes au bord de cette frontière technologique, la voie à suivre suppose une concertation entre toutes les parties prenantes pour exploiter le pouvoir de transformation de l'IA, en favorisant la transparence et l'adoption de normes et de cadres nous permettant à tous de surveiller, d'identifier et de résoudre les problèmes qui découleront inévitablement de l'évolution des utilisations de l'IA. Ce faisant, nous pouvons faire en sorte que l'IA serve l'intérêt général, renforce les capacités humaines et contribue à un avenir plus équitable et durable pour tous.
Les opinions exprimées sont celles de l'auteur au moment de la publication et peuvent différer de celles d'autres personnes/équipes de Janus Henderson Investors. Les références faites à des titres individuels ne constituent pas une recommandation d'achat, de vente ou de détention d'un titre, d'une stratégie d'investissement ou d'un secteur de marché, et ne doivent pas être considérées comme rentables. Janus Henderson Investors, son conseiller affilié ou ses employés peuvent avoir une position dans les titres mentionnés.
Les performances passées ne préjugent pas des résultats futurs. Toutes les données de performance tiennent compte du revenu, des gains et des pertes en capital mais n'incluent pas les frais récurrents ou les autres dépenses du fonds.
Les informations contenues dans cet article ne constituent pas une recommandation d'investissement.
Il n'y a aucune garantie que les tendances passées se poursuivront ou que les prévisions se réaliseront.
Communication Publicitaire.