Si prega di assicurarsi che Javascript sia abilitato ai fini dell'accessibilità al sito web. Costruire le basi per un investimento nell'AI responsabile - Janus Henderson Investors - Europe PA Italy
Per investitori professionali in Italia

Costruire le basi per un investimento nell'AI responsabile

Durante un recente evento tenutosi a Londra, abbiamo esplorato le implicazioni ambientali e sociali dell'AI, sottolineandone il potenziale di trasformazione e l'importanza di un'implementazione responsabile.

Michelle Dunstan

Michelle Dunstan

Chief Responsibility Officer


Sarah de Lagarde

Sarah de Lagarde

Global Head of Corporate Affairs


Alison Porter

Alison Porter

Gestore di portafoglio


Antony Marsden

Antony Marsden

Global Head of Responsible Investment and Governance


10 dicembre 2024
12 minuti di lettura

In sintesi

  • L'AI generativa è nota come la quarta ondata tecnologica e, come le ondate precedenti, è destinata a trasformare e sconvolgere un'ampia gamma di settori, creando opportunità per gli investitori attivi.
  • L'implementazione dell'AI generativa comporta sfide e rischi, non solo in termini di effetto dirompente sulla concorrenza, ma anche per quanto riguarda la protezione dei dati, il potenziale spostamento di posti di lavoro e l'impatto ambientale, sottolineando l'importanza di un'innovazione responsabile.
  • Gli investitori dovrebbero concentrarsi sulle società che sono all'avanguardia nell'innovazione AI e dimostrano al contempo di impegnarsi per un'implementazione responsabile.

L'Intelligenza artificiale generativa (Gen AI) rappresenta la quarta grande ondata tecnologica, preceduta dalle rivoluzioni legate ai mainframe, ai personal computer (PC) e alla tecnologia mobile. Queste precedenti ondate di innovazione hanno rivoluzionato settori come il commercio al dettaglio, i media e l'e-commerce. Oggi, la Gen AI ha il potenziale per trasformare un numero ancora maggiore di ambiti, evidenziando l'importanza cruciale di un'implementazione responsabile per affrontare le sfide e i rischi che ne derivano. Questo è stato il tema di un recente evento condotto dagli esperti in materia di AI responsabile, tra cui Michelle Dunstan, Sarah de Lagarde, Alison Porter e Antony Marsden.

Come definire l'AI

Prima di addentrarci nel tema dell'AI responsabile, è fondamentale chiarire la differenza tra la Gen AI, l'intelligenza umana e l'intelligenza artificiale generale (AGI), quest'ultima fa riferimento ai modelli che raggiungono o superano l'intelligenza degli esseri umani. La Gen AI ha la capacità di generare contenuti nuovi e originali con i cosiddetti "modelli a trasformatore", un tipo di modello AI che genera testi simili a quelli umani analizzando sequenze in grandi quantità di dati. Questi modelli, che utilizzano una varietà sempre crescente di parametri (Chat GPT-4 di Open AI ne ha oltre un trilione), aiutano gli algoritmi ad apprendere, reagire, creare e fare previsioni utilizzando dati storici e interazioni.

L'ascesa dell'AI

Perché all'improvviso si sente parlare così tanto di intelligenza artificiale (AI)? È diventata una parola in voga in qualsiasi materia, ma perché proprio ora? Sebbene l'AI sia stata per decenni un tema centrale nei romanzi e nei film di fantascienza, le recenti innovazioni nei prodotti l'hanno trasformata in una realtà concreta e tangibile.

Analogamente alle precedenti ondate tecnologiche, questa recente ondata di Gen AI è stata resa possibile da una rapida riduzione dei costi, che ne ha favorito l'accessibilità e la scalabilità. Basti pensare alla memoria flash dell’iPhone 16 (128 GB) di Apple, che negli anni ’90 avrebbe avuto un costo superiore a 5 milioni di dollari. La convergenza tra i rapidi progressi nei modelli di trasformatori, che abilitano l'elaborazione del linguaggio naturale, e la potenza di calcolo accelerata garantita dalle unità di elaborazione grafica (GPU) di Nvidia, ha abbattuto i costi operativi, democratizzando l'accesso e ampliando significativamente i casi d'uso. Questi progressi hanno trasformato l'AI in una realtà accessibile, permettendo a consumatori e aziende di sfruttare tecnologie come ChatGPT e altri modelli linguistici di grandi dimensioni (LLM) in modo più semplice e conveniente per un'ampia gamma di applicazioni.

Ondate di innovazione in materia di AI

A differenza dei temi di investimento mirati, le ondate di innovazione richiedono un approccio integrato, con investimenti che abbracciano tutti i livelli della tecnologia: dal silicio all'infrastruttura, dai dispositivi al software fino alle applicazioni. Questo è il motivo per cui queste ondate si sviluppano generalmente su lunghi orizzonti temporali, spesso spaziando su diversi anni.

Ciascuna di queste ondate ha generato cambiamenti sempre più profondi e significativi, ampliando progressivamente le applicazioni e i casi d'uso. Le applicazioni per l'ufficio, la comunicazione e l'e-commerce furono tra i primi settori a essere trasformati con l'avvento di Internet per PC. Successivamente, l'era del cloud mobile ha avuto un impatto significativo sui media, sull'intrattenimento e sui trasporti.

Con l'inizio di questa quarta ondata, sempre più settori, come la sanità e i trasporti, stanno vivendo una rivoluzione e trasformazione profonde grazie alle nuove tecnologie. Anche in questa quarta ondata possiamo osservare parallelismi con le sfide sociali, ambientali e normative affrontate nelle ondate precedenti. Ogni rivoluzione tecnologica passata ha dovuto fare i conti con preoccupazioni legate all'uso improprio, alla privacy e all'impatto sull'infrastruttura elettrica.

Nonostante queste sfide, nelle ondate tecnologiche precedenti abbiamo visto un incremento nell'adozione della tecnologia in diversi settori. L'innovazione ha mirato a sfruttare la potenza delle nuove tecnologie per affrontare sfide critiche come la geopolitica, la demografia e le vulnerabilità delle catene di approvvigionamento, contribuendo anche a migliorare la produttività e la collaborazione umana.

Figura 1: Ondate di innovazione apportate dall'AI

Fonte: Citi Research, Janus Henderson Investors

Nota: I riferimenti a singoli titoli non costituiscono una raccomandazione all'acquisto, alla vendita o alla detenzione di titoli, strategie di investimento o settori di mercato e non devono essere considerati redditizi. Janus Henderson Investors, il suo consulente affiliato o i suoi dipendenti possono detenere una posizione nei titoli citati. Non vi è alcuna garanzia che le tendenze passate continuino o che le previsioni si realizzino. Le opinioni sono soggette a modifiche senza preavviso.

Utilizzare l'AI in modo responsabile

Quando si parla di AI responsabile, è essenziale partire dal presupposto che l'intelligenza artificiale è una mera tecnologia, priva di connotazioni intrinseche che la rendono benevola o malevola. È destinata ad avere una vasta gamma di impatti, sia positivi che negativi, sugli esseri umani, che spesso si manifestano come due facce della stessa medaglia. Ad esempio, nel settore sanitario, l'AI può contribuire in modo significativo a migliorare la diagnosi precoce delle malattie. Tuttavia, se i dati non vengono adeguatamente protetti, potrebbe risultare più difficile ottenere un'assicurazione sanitaria privata. Allo stesso modo, mentre l'AI offre la possibilità di semplificare il lavoro eliminando compiti ripetitivi, ci sono preoccupazioni legittime riguardo alla sua capacità di sostituire intere professioni.

Dal punto di vista climatico, le applicazioni dell'AI offrono un grande potenziale per affrontare le cause del cambiamento climatico. Tuttavia, l'attuale espansione delle infrastrutture necessarie per supportarla sta, paradossalmente, contribuendo a un aumento delle emissioni di carbonio nel breve termine.

In passato, gli analisti del settore energetico avevano sollevato preoccupazioni riguardo all'accesso a Internet e al cloud mobile, alimentato dai combustibili fossili, ipotizzando che l'aumento della domanda avrebbe comportato un continuo uso di energia e un'intensificazione delle emissioni di carbonio. Tuttavia, queste previsioni non hanno preso in considerazione il modo in cui gli incrementi di efficienza di queste nuove tecnologie potrebbero ridurre il consumo di energia. Inoltre, sebbene la crescente domanda di data center stia aumentando il fabbisogno energetico, questo viene parzialmente compensato da investimenti significativi in nuove tecnologie di silicio, stoccaggio e networking, che contribuiranno a invertire la tendenza della domanda energetica e a ridurre le potenziali emissioni future.

Oltre a queste nuove tecnologie, continuiamo a vedere i principali hyperscaler esplorare fonti alternative di energia. Ad esempio, Microsoft ha recentemente annunciato un accordo con Constellation Energy per la riattivazione di un reattore nucleare da 835 megawatt (MW) presso il sito di Three Mile Island in Pennsylvania.1

Questo accordo evidenzia l'entità degli sforzi compiuti per soddisfare il crescente fabbisogno energetico delle AI e il crescente uso dell'energia nucleare come fonte rinnovabile.  Questa mossa fa parte del più ampio impegno di Microsoft nel suo percorso di decarbonizzazione, evidenziando come le crescenti esigenze energetiche aziendali possano essere allineate con soluzioni energetiche sostenibili.

L'AI è un settore pieno di sfumature e zone grigie. Tra i principali rischi da considerare c'è il fenomeno dei prodotti a duplice uso. Un esempio significativo di questo rischio è stato fornito da un gruppo di ricercatori, che ha dimostrato come una piattaforma di scoperta di farmaci, sviluppata con l'intelligenza artificiale per identificare trattamenti per migliorare la salute, possa essere facilmente adattata per creare sostanze pericolose o addirittura armi biologiche.

L'uso improprio degli strumenti di Gen AI costituisce un'altra preoccupazione rilevante. I primi esempi includono il chatbot di Microsoft, Tay, che è stato manipolato per produrre discorsi improntanti all'odio poco dopo il suo rilascio. Questo problema si estende a settori con impatti concreti, come il crimine informatico, sottolineando l'importanza di implementare controlli di sicurezza rigorosi e di adottare pratiche di red teaming, che consistono nel simulare attacchi informatici per testare gli strumenti prima della loro diffusione al pubblico. Ad esempio, l'approfondita verifica di OpenAI del suo ultimo modello, che soppianterà il suo sistema GPT-4, è una testimonianza della necessità cruciale di tali precauzioni.

Allineamento dell'AI

Allineare l'AI con il bene comune è una sfida continua, come evidenziato dal concetto di massimizzazione delle graffette del filosofo svedese Nick Bostrom. Questo concetto esplora il "problema del controllo", ovvero come gli esseri umani possano regolare un'AI superintelligente che potrebbe essere più intelligente di noi e agire in modi imprevedibili. Ciò sottolinea la necessità di un'attenzione costante da parte dei ricercatori specializzati nella sicurezza dell'AI, che lavorano per prevenire comportamenti indesiderati nei sistemi intelligenti e garantire che gli obiettivi dell'AI siano allineati con i valori umani e i benefici sociali.

Inoltre, il verificarsi di errori e "allucinazioni" nei contenuti generati dall'AI, come nell'incidente del chatbot di Air Canada, in cui sono state fornite informazioni errate a un viaggiatore, evidenzia la necessità di una maggiore trasparenza nei processi decisionali dell'AI. Le questioni legate ai pregiudizi e alla mancanza di trasparenza complicano ulteriormente l'implementazione responsabile delle tecnologie di AI, richiedendo sforzi congiunti per chiarire i processi attraverso cui i modelli di AI giungono alle loro conclusioni.

In definitiva, comprendere il percorso verso un'AI responsabile implica riconoscere il suo duplice potenziale, affrontare i principali rischi attraverso rigorose misure di sicurezza, garantire l'allineamento con i valori sociali e promuovere una maggiore trasparenza e responsabilità nei sistemi di AI.

AI : quanto dovremmo preoccuparci?

Il tema del rischio esistenziale associato all'AGI, che evolverà dall'attuale ondata della Gen AI una volta che si raggiunga un'intelligenza equivalente o superiore a quella umana, continua a essere un argomento di grande preoccupazione e dibattito. Le preoccupazioni sull'AGI sono spesso sintetizzate in un termine utilizzato nella Silicon Valley, noto come "p(doom)", che indica la probabilità che l'intelligenza artificiale possa minacciare l'umanità, con il rischio di distruggere la civiltà o addirittura renderci schiavi delle macchine. Questo concetto solleva interrogativi affascinanti e complessi. I cosiddetti "padrini dell'AI", tre ricercatori che hanno ricevuto il prestigioso Premio Turing per i loro contributi nel campo dell'intelligenza artificiale, offrono una varietà di opinioni su questo tema.

Yann LeCun, ricercatore sull'AI presso Meta, adotta una posizione relativamente scettica riguardo al rischio esistenziale dell'AGI. Paragona l'intelligenza degli attuali sistemi di AI a quella di un gatto e considera infondate le preoccupazioni riguardanti il rischio di una minaccia esistenziale, etichettandole come irrazionali. Al contrario, Geoffrey Hinton, figura di spicco nel campo dell'AI, ha abbandonato Google per esprimere pubblicamente le sue preoccupazioni. Hinton teme che il rapido progresso dell'AI possa portare a una tecnologia capace di superare l'umanità in astuzia. Yoshua Bengio, un altro ricercatore di spicco, ha lanciato forti avvertimenti riguardo ai potenziali rischi catastrofici che potrebbero verificarsi se l'AI non verrà adeguatamente regolamentata nel prossimo futuro. Data la loro esperienza diretta nella ricerca e nello sviluppo dell'intelligenza artificiale, le diverse prospettive di questi esperti meritano una seria considerazione.

Concentrazione di potere

Tuttavia, alcuni sostengono che concentrarsi sui rischi esistenziali a lungo termine dell'AGI possa distogliere l'attenzione dalle preoccupazioni più immediate legate all'uso dell'intelligenza artificiale. L'osservazione degli sviluppi nelle principali aziende tecnologiche negli ultimi due anni, in particolare per quanto riguarda i loro comitati etici e i team di sicurezza dedicati all'AI responsabile, evidenzia cambiamenti significativi. Sono emersi casi di smantellamento di organismi etici dedicati all'AI, scioglimento di team e segnalazioni che hanno lanciato allarmi sui pericoli dell'AI, alimentati dalla spinta competitiva all'innovazione all'interno di queste aziende (Figura 2).

Figura 2: La AI responsabile dovrebbe essere una priorità per tutte le aziende

Fonte: Janus Henderson Investors

Tuttavia, è importante sottolineare che, attraverso i nostri impegni con queste aziende, è emerso chiaramente come l'AI si sia evoluta da un concetto teorico a una componente centrale dei loro modelli di business, rendendo indispensabile l'integrazione e la centralizzazione delle funzioni di gestione del rischio. Questo passaggio dalle preoccupazioni teoriche a quelle pratiche ha comportato un incremento delle risorse destinate alla sicurezza all'interno di molte aziende, dove si sta sviluppando un approccio più olistico all'AI, visibile nella fusione e nell'integrazione dei team dedicati a queste tematiche.

Una delle principali preoccupazioni è la crescente concentrazione di potere all'interno del settore dell'AI. Non si tratta di un problema nuovo, poiché molte delle principali aziende tecnologiche sono state storicamente caratterizzate da posizioni di mercato dominanti, strutture azionarie particolari e dall'immensa influenza di un ristretto gruppo di individui che controllano la tecnologia e ne determinano il futuro sviluppo. Questa concentrazione di potere rappresenta una preoccupazione rilevante che richiede un'attenzione approfondita.

Regolare l'innovazione: questione di trovare il giusto equilibrio

I governi di tutto il mondo stanno affrontando la sfida di mantenere il passo con il rapido evolversi dell'AI, trovandosi spesso in difficoltà nel rispondere tempestivamente alle esigenze normative. A livello nazionale, molti governi hanno adottato principalmente forme di regolamentazione basate su principi. La Cina si distingue per aver implementato normative rigorose, accompagnate da sanzioni severe, per controllare l'uso e lo sviluppo dell'AI. Entro il 2025 o il 2026, si prevede che numerosi paesi introdurranno normative molto più severe. L'Unione Europea (UE) ha compiuto un passo significativo con l'adozione della Legge sull'intelligenza artificiale, uno degli atti legislativi più importanti in materia di intelligenza artificiale, che è già entrato in vigore. Si prevede che il suo impatto diventerà più evidente negli Stati Uniti nel corso del prossimo anno o due.

Negli Stati Uniti, attualmente non esiste una normativa a livello federale specifica per l'AI, sebbene siano stati avviati numerosi dibattiti su possibili normative future. Tra queste, le proposte in California hanno suscitato grande interesse, ma alla fine sono state bloccate. Questo veto è stato influenzato dal timore che tale normativa potesse soffocare l'innovazione, nonostante il significativo sostegno dell'opinione pubblica. Tuttavia, a livello statale, stanno iniziando a emergere delle normative. Ad esempio, New York ha introdotto regolamenti specifici riguardanti l'uso dell'AI nel reclutamento e la gestione dei pregiudizi, mentre altri stati hanno iniziato ad adottare le proprie misure legislative in materia di AI. In California, le normative che entreranno in vigore il prossimo anno richiederanno che i contenuti generati dall'AI, come le immagini, siano filigranati, permettendo così di identificarne facilmente la provenienza.

Mentre molti paesi stanno valutando l'implementazione di normative sull'AI, esiste altresì un forte desiderio di affermarsi come hub globali per l'innovazione in questo campo. Ciò genera una dinamica competitiva e rappresenta un autentico compromesso, alimentando dibattiti intensi, soprattutto nell'UE, su come coniugare la regolamentazione con la promozione dell'innovazione nel settore dell'AI.

Affrontare le ondate dell'innovazione nell'AI

Questa panoramica dell'AI in continua evoluzione rivela una tecnologia dalle enormi potenzialità, capace di trasformare profondamente settori vitali come la sanità e i trasporti, ma solleva anche sfide cruciali e dilemmi etici. Tuttavia, le grandi opportunità che essa offre comportano altrettante responsabilità.

Le preoccupazioni immediate riguardanti la Gen AI, come la concentrazione del potere e la necessità di una regolamentazione efficace, evidenziano la realità complessa che dobbiamo affrontare. Le azioni intraprese dai governi, dall'industria tecnologica e dalla comunità globale nei prossimi anni saranno decisive nel plasmare il futuro dell'AI, evolvendosi però in modi differenti nelle diverse regioni, in base alle loro peculiarità: le basi politiche, culturali e normative stabilite dalle precedenti ondate tecnologiche. Gli sviluppi normativi sono complessi e devono bilanciare la spinta all'innovazione con l'imperativo di salvaguardare le norme etiche e il benessere della società.

Poiché siamo sull'orlo di questa frontiera tecnologica, il cammino da percorrere richiede un impegno collaborativo tra tutte le parti interessate per sfruttare il potenziale trasformativo dell'AI, promuovendo la trasparenza, l'adozione di norme e l'istituzione di quadri giuridici che permettano a ciascuno di noi di monitorare, identificare e affrontare le sfide che inevitabilmente emergeranno con l'evoluzione dei casi d'uso dell'AI. In questo modo, possiamo assicurarci che l'AI diventi una forza al servizio del bene comune, potenziando le capacità umane e promuovendo un futuro più equo e sostenibile per tutti.

Queste sono le opinioni dell'autore al momento della pubblicazione e possono differire da quelle di altri individui/team di Janus Henderson Investors. I riferimenti a singoli titoli non costituiscono una raccomandazione all'acquisto, alla vendita o alla detenzione di un titolo, di una strategia d'investimento o di un settore di mercato e non devono essere considerati redditizi. Janus Henderson Investors, le sue affiliate o i suoi dipendenti possono avere un’esposizione nei titoli citati.

 

Le performance passate non sono indicative dei rendimenti futuri. Tutti i dati dei rendimenti includono sia il reddito che le plusvalenze o le eventuali perdite ma sono al lordo dei costi delle commissioni dovuti al momento dell'emissione.

 

Le informazioni contenute in questo articolo non devono essere intese come una guida all'investimento.

 

Non vi è alcuna garanzia che le tendenze passate continuino o che le previsioni si realizzino.

 

Comunicazione di Marketing.

 

Glossario