AI – Il gioco vale la candela?
La disponibilità di energia è la sfida più grande per la crescita dell'AI . Hamish Chamberlayne, Gestore di portafoglio, discute di come l'innovazione cerchi di soddisfare il fabbisogno energetico dell'AI, ma evidenzia le questioni irrisolte relative alle fonti energetiche e al potenziale impatto della tecnologia sul clima.
13 minuti di lettura
In sintesi
- L'intersezione tra l'intelligenza artificiale (AI) e il settore energetico sta rivelando sfide e opportunità significative, in particolare nel contesto della sostenibilità e dei potenziali limiti fisici alla crescita della tecnologia.
- Sebbene i progressi significativi nell'efficienza informatica siano un fattore abilitante per la crescita dell'AI, questi guadagni non equivalgono necessariamente a una riduzione del consumo energetico complessivo delle applicazioni tecnologiche.
- Per gli investitori, l'evoluzione delle dinamiche tra l'AI e il settore energetico pone opportunità e sfide, con investimenti significativi nell'energia pulita necessari per soddisfare la domanda di energia dell'AI in modo sostenibile.
Le esigenze energetiche dell'intelligenza artificiale (AI), combinate con gli effetti della reindustrializzazione, dei veicoli elettrici (EV) e della transizione verso le energie rinnovabili, fanno della tecnologia una significativa opportunità di investimento lungo l'intera catena del valore, compresi i data center e le infrastrutture di rete, nonché i mercati finali dell'elettrificazione.
Tuttavia, è importante considerare e mettere sempre in discussione i potenziali rischi, in particolare i limiti fisici alla crescita dell'AI, da dove proverrà la sua insaziabile sete di energia e il modo in cui le emissioni associate potrebbero alimentare nuove preoccupazioni per il clima.
Cosa permette il progresso dell'AI?
Il progresso dell'AI è reso possibile principalmente dalle unità di elaborazione grafica (GPU) sempre più efficienti del produttore di chip statunitense Nvidia. La Figura 1 illustra l'evoluzione delle sue GPU, mostrando i guadagni di efficienza, rappresentati in termini di teraflop per GPU, per watt, nei modelli da Pascal (2016) alla sua ultima iterazione Blackwell (2024).
Attualmente, per addestrare il ChatGPT-4 di OpenAI in soli dieci giorni, sarebbero necessarie 10.000 GPU Blackwell per un costo di circa 400 milioni di dollari. Viceversa, solo sei anni fa, l'addestramento di un modello linguistico di grandi dimensioni (LLM) avrebbe richiesto milioni di GPU di tipo precedente per svolgere lo stesso lavoro. In effetti, sarebbero stati necessari oltre sei milioni di GPU Volta al costo proibitivo di 61,5 miliardi di dollari. Questo differenziale sottolinea non solo il costo considerevole associato ai predecessori di Blackwell, ma anche l'enorme fabbisogno energetico per l'addestramento di LLM come ChatGPT-4.
Figura 1: La curva dei costi
Fonte: NVIDIA, nextplatform, epochai.org
In precedenza, il solo costo energetico per l'addestramento di un LLM di questo tipo poteva raggiungere i 140 milioni di dollari, rendendo il processo economicamente non redditizio. Tuttavia, il significativo salto nell'efficienza di calcolo di questi chip, in particolare in termini di efficienza energetica, ha ora reso economicamente fattibile l'addestramento delle LLM.
Questo punto è illustrato nella Figura 1 sotto la metrica "inferenza joule/token", che viene utilizzata per misurare l'efficienza energetica dell'elaborazione di attività in linguaggio naturale, in particolare nel contesto di LLM come quelli utilizzati per generare o comprendere il testo (ad esempio, chatbot, sistemi di traduzione). Qui possiamo riscontrare un miglioramento di 25 volte dell'efficienza dell'Hopper (10) di Nvidia rispetto al suo successore Blackwell (0.4).
Il pungiglione nella coda
Le innovazioni in materia di efficienza energetica introdotte da Nvidia nei suoi chip hanno consentito sostanziali progressi nell'AI. Tuttavia, c'è un elemento significativo di cui tenere conto. Sebbene la convenienza di questi chip venga spesso valutata in termini di potenza di calcolo per unità di energia (Floating Point Operations Per Second o FLOPS, per watt), è importante notare che i chip più recenti hanno una potenza nominale più elevata (Figura 2). Ciò significa che, in termini assoluti, questi nuovi chip consumano più energia rispetto ai loro predecessori.
Figura 2: potenze nominali della GPU Nvidia
Fonte: ricerca Morgan Stanley
Nota: consumo energetico per server (presupponendo quattro chip per server).
Se a questo si aggiunge la considerevole crescita delle vendite di Nvidia, che indica un'incredibile domanda di potenza di calcolo da parte di aziende come Alphabet (Google), OpenAI, Microsoft e Meta, trainata dalle dimensioni sempre crescenti dei set di dati necessari per sviluppare tecnologie di AI, le implicazioni energetiche della rapida espansione dell'AI hanno iniziato a suscitare serie perplessità.
È interessante notare come il consumo energetico globale dei data center, grazie ai miglioramenti dell'efficienza, sia rimasto relativamente costante nell'ultimo decennio, nonostante il massiccio incremento del traffico Internet, moltiplicatosi per 12, e un aumento di otto volte dei carichi di lavoro dei data center.1 Un rapporto dell'Agenzia internazionale per l'energia (AIE) ha evidenziato come i data center abbiano consumato circa 460 terawattora (TWh) nel 2022, pari a circa il 2% della domanda globale di energia 2, rimasta in gran parte allo stesso livello del 2010.
Con l'avvento dell'AI e la sua sete di energia, il consumo energetico dei data center è tuttavia destinato ad aumentare. In effetti, l'AIE stima che il consumo totale di elettricità dei data center potrebbe più che raddoppiare per raggiungere oltre 1.000 TWh nel 2026, all'incirca equivalente al consumo di elettricità del Giappone.3 Ciò evidenzia come la domanda di AI stia creando un cambiamento di paradigma nella crescita della domanda di energia. Dalla crisi finanziaria globale (GFC) e fino a poco tempo fa, la domanda di elettricità negli Stati Uniti ha registrato un aumento limitato all'1% all'anno.4 Trainata dall'AI, dall'aumento della produzione manifatturiera/industriale e dalle più ampie tendenze verso l'elettrificazione, la domanda di elettricità negli Stati Uniti dovrebbe crescere, secondo le previsioni, del 2,4% all'anno.5 Inoltre, sulla base dell'analisi delle informazioni rese disponibili dalle aziende tecnologiche, dai fornitori di data center pubblici e dalle utility, nonché dei dati dell'Environmental Investigation Agency, Barclays Research stima che i data center rappresentino oggi il 3,5% del consumo di elettricità negli Stati Uniti e che il loro fabbisogno potrebbe essere di più del 5,5% nel 2027 e superiore al 9% entro il 2030.6
Il paradosso dell'innovazione, dell'efficienza e della sostenibilità
Questo cambiamento di paradigma introduce il concetto del paradosso di Jevons, che ha implicazioni per il consumo di energia e la sostenibilità ambientale. Il paradosso suggerisce che il semplice miglioramento dell'efficienza dell'uso delle risorse non è sufficiente per ridurne il consumo totale.
Il paradosso prende il nome da William Stanley Jevons, un economista inglese che per primo notò questo fenomeno nel XIX secolo, durante la rivoluzione industriale. Nel suo libro del 1865 "The Coal Question", Jevons osservò che i miglioramenti tecnologici nei motori a vapore li rendevano più efficienti nell'uso del carbone. Tuttavia, invece di indurre una riduzione della quantità di carbone utilizzato, queste efficienze avevano aperto la strada a una gamma più ampia di applicazioni per l'energia a vapore. Di conseguenza, il consumo complessivo di carbone era aumentato notevolmente.
Questo paradosso sembra essere ugualmente applicabile oggi, mentre ci troviamo alle soglie di una nuova rivoluzione industriale alimentata dall'AI . Poiché l'innovazione da parte dei produttori di microprocessori determina un rapido aumento della potenza di calcolo e dell'efficienza dei chip, i potenziali vantaggi in termini di produttività dell'AI in vari settori si traducono in una domanda ancora maggiore della tecnologia, che a sua volta sta provocando un aumento del consumo energetico nonostante questi miglioramenti dell'efficienza.
Per contestualizzare, in teoria, il passaggio da un data center alimentato da Hopper a uno basato su Blackwell dovrebbe comportare una riduzione di quattro volte del consumo energetico. Tuttavia, come illustrato dai dati della Figura 3, è vero il contrario, perché le grandi aziende di AI e gli hyperscaler stanno invece massimizzando l'uso di questi chip più potenti ed efficienti. Ciò ha comportato un aumento del numero di GPU all'interno di un data center, sottolineando l'essenza del paradosso di Jevons, in base al quale una maggiore efficienza porta a un maggiore consumo complessivo grazie all'aumento dell'uso.
Figura 3: Consumo di energia ed elettricità da parte del fornitore del data center
Fonte: Rapporti aziendali e Barclays Research
Domande critiche
I costi energetici hanno costituito un ostacolo storico allo sviluppo dell'AI. Tenendo conto delle tendenze prevalenti e delle loro implicazioni energetiche, sorge una domanda cruciale: da dove proverrà l'energia aggiuntiva e quali sono le implicazioni in termini di emissioni?
Nell'esaminare questo tema, tre aree chiave emergono come punti focali:
- Catena del valore dell'elettrificazione
La domanda di energia dell'AI, combinata con l'impatto della reindustrializzazione, dei veicoli elettrici e del passaggio alle energie rinnovabili, sta creando solide condizioni di mercato per le aziende esposte all'elettrificazione. Ciò è esemplificato dalle società elettriche Vistra e Constellation Energy, che sono state tra i titoli statunitensi con le migliori performance da inizio anno, con aumenti rispettivamente di oltre il 282% e il 105% al momento della pubblicazione.7
- Vincoli fisici
Vanno presi in esame anche i potenziali vincoli fisici alla crescita dell'AI. Ci riferiamo non solo ai limiti della tecnologia e dell'infrastruttura attuali, ma anche alla disponibilità delle risorse necessarie per sostenere la rapida crescita della domanda di energia della tecnologia.
- Profilo delle emissioni
Per affrontare questi problemi, i grandi hyperscaler hanno ribadito il loro impegno nei percorsi di decarbonizzazione e alcuni si sono rivolti all'energia nucleare come soluzione, suscitando tuttavia perplessità sul piano ambientale. Dobbiamo considerare il profilo delle emissioni dell'AI e il più ampio impatto ambientale derivante dall'aumento del consumo di energia. Ciò include non solo le emissioni immediate derivanti dalla produzione di energia, ma anche la sostenibilità di quest'ultima sul lungo termine. I profili delle emissioni delle grandi aziende tecnologiche sono diminuiti a malapena negli ultimi anni, in quanto la crescita dell'AI ha creato una domanda di energia ancora maggiore. Secondo una ricerca della startup Hugging Face e della Carnegie Mellon University, l'utilizzo dell'AI generativa per creare una sola immagine richiede tanta energia quanto la ricarica completa di uno smartphone.8
L'energia nucleare per soddisfare la domanda di energia dell'AI
Per illustrare le ripercussioni sul mondo reale della crescente domanda di energia di AI, ad esempio, Microsoft ha recentemente annunciato un accordo con Constellation Energy per la rimessa in servizio di un reattore nucleare da 835 megawatt (MW) nel sito di Three Mile Island in Pennyslyvania.9
Questo accordo evidenzia l'entità degli sforzi compiuti per soddisfare le crescenti esigenze energetiche dell'AI. La mossa fa parte del più ampio impegno di Microsoft nel suo percorso di decarbonizzazione, dimostrando come la domanda di energia delle aziende si intersechi con le soluzioni energetiche sostenibili.
Il costo della rimessa in servizio del reattore nucleare è stimato a 1,6 miliardi di dollari, con un'entrata in funzione del reattore prevista da Microsoft fra circa tre anni, nel 2028.
A ottobre, Alphabet ha finalizzato un ordine per sette piccoli reattori modulari (SMR) sviluppati da Kairos Power, con sede in California, per fornire una soluzione a basse emissioni di carbonio per alimentare i suoi data center, in un contesto di crescente crescita della domanda per l'AI e il cloud storage. Il primo di questi SMR dovrebbe essere completato entro il 2030, mentre il resto dovrebbe essere operativo entro il 2035.Amazon ha inoltre annunciato di aver firmato tre nuovi accordi per sostenere lo sviluppo di progetti di energia nucleare, tra cui la costruzione di diversi nuovi SMR per far fronte alla crescente domanda di energia.11
Queste iniziative sottolineano gli investimenti significativi e i tempi richiesti per garantire le capacità di alimentazione aggiuntive necessarie a supportare la crescente domanda di energia delle moderne tecnologie informatiche e dell'AI . Sono previste ulteriori iniziative, dato che la domanda incrementale di capacità dei data center nel mercato statunitense dovrebbe aumentare del 10% all'anno per i prossimi cinque anni.12 Questa crescita potrebbe portare i data center a rappresentare potenzialmente fino al 10% del fabbisogno energetico totale degli Stati Uniti entro il 2030: un dato significativo se si considera che Rystad Energy prevede un incremento della domanda totale di energia negli Stati Uniti di 175 TWh tra il 2023 e il 2030, che porterà il fabbisogno nazionale vicino a 4.500 TWh.13
Sebbene Microsoft si stia impegnando a favore dell'energia nucleare, una fonte di elettricità priva di emissioni di CO2, come parte dei suoi sforzi di decarbonizzazione, rimaniamo cauti e preoccupati su come verrà colmato il divario energetico necessario per supportare questo sviluppo dell'AI e dei data center.
Un futuro più digitale
All'inizio di quest'anno, abbiamo discusso con Microsoft dell'aumento delle emissioni e dell'impegno per l'approvvigionamento di energia rinnovabile per i data center. Ad agosto, abbiamo visto con soddisfazione Microsoft affrontare le preoccupazioni relative all'aumento del fabbisogno energetico di AI e al conseguente passaggio a pratiche sostenibili in tutto il settore, durante la sua presentazione al Comitato ristretto del Senato australiano sull'adozione dell'AI.14
L'hyperscaler ha riconosciuto che i modelli di AI e i servizi correlati richiedono molta più potenza rispetto ai servizi cloud tradizionali e che il settore doveva affrontare questo problema cruciale. Microsoft ha anche dichiarato di essere sulla buona strada per raggiungere i suoi obiettivi di zero emissioni nette e di utilizzo positivo delle risorse idriche per il 2030, nell'ambito della sua strategia di sostenibilità. Mentre l'aumento del fabbisogno energetico era sconosciuto nel 2020, quando sono stati fissati gli obiettivi, l'uso di energia rinnovabile e nucleare dovrebbe consentire di rispettare l'impegno in modo sostenibile.
Il fondatore di Microsoft, Bill Gates, ha esortato i responsabili politici globali ad astenersi dall'esagerare le proprie preoccupazioni sull'impronta energetica dell'AI, osservando che la tecnologia svolgerà probabilmente un ruolo decisivo nel raggiungimento delle ambizioni di zero emissioni nette, riducendo la domanda globale.
AI e transizione energetica
I progressi nell'AI, se abbinati alle innovazioni nel campo delle energie rinnovabili, potrebbero fornire la chiave per soddisfare in modo sostenibile la crescente domanda di energia. L'AIE ha riferito che si prevede che gli investimenti nel settore energetico nella tecnologia solare fotovoltaica (PV) supereranno i 500 miliardi di dollari nel 2024, superando tutte le altre fonti di generazione messe insieme.15 Integrando AI in varie applicazioni dell'energia solare, come l'utilizzo della tecnologia per analizzare i dati meteorologici al fine di produrre previsioni meteorologiche più accurate, è possibile mitigare l'approvvigionamento energetico intermittente.16 I ricercatori si affidano anche a AI per accelerare l'innovazione nei sistemi di accumulo di energia, dato che le batterie al litio convenzionali esistenti non sono in grado di soddisfare i requisiti di efficienza e capacità.17 Se da un lato AI creerà un'ulteriore domanda di energia, dall'altro ha anche il potenziale per risolvere le sfide legate alla transizione verso l'azzeramento delle emissioni nette.
Ad aprile, il Dipartimento dell'Energia degli Stati Uniti (DoE) ha pubblicato un rapporto che delinea il ruolo che l'AI svolgerà probabilmente nell'accelerare lo sviluppo di un sistema elettrico pulito al 100%.18
Sono state indicate significative opportunità nei seguenti ambiti:
- Migliore pianificazione della rete: utilizzo di dati climatici dettagliati del National Renewable Energy Laboratory, combinati con sofisticate tecniche di machine learning generativo, per integrare meglio le fonti di energia rinnovabile fluttuanti.
- Aumento della resilienza della rete: la capacità dell'AI di analizzare rapidamente vasti set di dati e identificare modelli complessi può aiutare gli operatori della rete elettrica a identificare rapidamente i problemi e a reagire o a prevenire le interruzioni dell'erogazione di energia.
- Individuazione di materiali innovativi: accelerare la scoperta di nuovi materiali è essenziale per le tecnologie energetiche pulite, comprese batterie che richiedano meno litio, nuovi materiali per l'ottimizzazione dei sistemi fotovoltaici o catalizzatori potenziati per aumentare la produzione di idrogeno.
Al di là della rete, l'AI ha il potenziale per svolgere un ruolo significativo nel supportare una varietà di applicazioni che possono contribuire allo sviluppo di un'economia dell'energia equa e pulita, ha osservato il DoE. Il raggiungimento di un obiettivo di zero emissioni nette di gas serra (GHG) in ogni settore dell'economia implica il superamento di sfide distinte in vari settori, come i trasporti, l'edilizia, l'industria e l'agricoltura.
Stiamo osservando segnali di crescita della domanda di AI in vari settori, tra cui sanità, trasporti, finanza e industria, e prevediamo che questa sarà una tendenza sostenuta a lungo termine.
Come team abbiamo beneficiato del coinvolgimento nell'AI e nei più ampi movimenti verso l'elettrificazione e la reindustrializzazione. Siamo consapevoli del potenziale aumento delle emissioni di CO2 dovuto all'espansione dell'AI e stiamo monitorando attentamente gli impegni di decarbonizzazione di aziende come Nvidia e Microsoft. Pur prevedendo un aumento delle emissioni a breve termine, siamo ottimisti sul ruolo positivo che l'AI svolgerà negli sforzi di decarbonizzazione, attraverso l'innovazione e il miglioramento della produttività, e siamo convinti che l'aumento della domanda di energia sarà soddisfatto tramite maggiori investimenti in energia pulita.
Nonostante questo sia un anno caratterizzato da significativi cambiamenti politici in tutto il mondo, le nostre prospettive per gli investimenti in azioni sostenibili rimangono positive. Le pressioni inflazionistiche si stanno allentando e la politica monetaria sembra prendere una direzione più favorevole. Indipendentemente dal panorama politico, le tendenze fondamentali su cui ci concentriamo continuano a progredire e svilupparsi.
INFORMAZIONI IMPORTANTI
I riferimenti a singoli titoli non costituiscono un invito ad acquistare, vendere o conservare tali titoli, strategie di investimento o settori di mercato, che non devono essere considerati necessariamente redditizi. Janus Henderson Investors, il suo consulente affiliato o i suoi dipendenti possono detenere una posizione nei titoli citati.
Non c'è alcuna garanzia che le tendenze passate si confermino o che le previsioni si realizzino.
Le performance passate non sono indicative dei rendimenti futuri.
L'investimento all'insegna dei fattori ambientali, sociali e di governance (ESG) altrimenti detto sostenibile, considera aspetti che esulano dall'analisi finanziaria tradizionale. Ciò può limitare gli investimenti disponibili e tradursi in performance ed esposizioni diverse da quelle del mercato nel suo complesso, e potenzialmente più concentrate in alcune aree rispetto a quest'ultimo.
1Agenzia internazionale dell'energia, "Global trends in internet traffic, data center workloads and data center energy use, 2010-2019 (ultimo aggiornamento: 3 giugno 2020)
2Agenzia internazionale dell'energia, "Electricity 2024: Analysis and forecast to 2026"
3Agenzia internazionale dell'energia, "Electricity 2024: Analysis and forecast to 2026"
4Università del Wisconsin-Madison, "The Hidden Cost of AI" di Aaron R. Conklin (21 agosto 2024)
5Goldman Sachs, "Generational growth: AI, data centres and the coming US power demand surge" (28 aprile 2024)
6Barclays Research, "Artificial Intelligence is hungry for power" (28 agosto 2024)
7Google Finance, Market summary for Vistra, Constellation Energy (12 novembre 2024)
8MIT Technology Review, "AI’s carbon footprint is bigger than you think" (5 dicembre 2023)
9Constellation Energy, comunicato stampa (20 settembre 2024)
10Kairos Power, Comunicato stampa (14 ottobre 2024)
11Amazon, comunicato stampa (16 ottobre 2024)
12McKinsey, "Investing in the rising data centre economy" (17 gennaio 2023)
13Rystad Energy, "Data centers and EV expansion create around 300 TWh increase in US electricity demand by 2030" (25 giugno 2024)
14ARNnet, "Microsoft A/NZ acknowledges local energy usage increase due to AI" (agosto 2024)
15Agenzia Internazionale dell'Energia, Rapporto sugli investimenti energetici mondiali 2024
16World Economic Forum, "Sun, sensors and silicon: How AI is revolutionizing solar farms" (2 agosto 2024)15Fonte: ERGO Group, "How AI is helping with battery development" (20 agosto 2024)
17Dean H. Barrett e Aderemi Haruna, Istituto di Scienze Molecolari, Scuola di Chimica, Università del Witwatersrand, "Artificial intelligence and machine learning for targeted energy storage solutions"
18Fonte: Dipartimento dell'Energia degli Stati Uniti, AI for Energy: Opportunities for a Modern Grid and Clean Energy Economy (aprile 2024)
FLOPS: è l'acronimo di Floating Point Operations Per Second (FLOPS) ed è una misura delle prestazioni di un computer, soprattutto nei campi che richiedono un gran numero di calcoli in virgola mobile. FLOPS più elevati indicano che è possibile eseguire più calcoli al secondo, il che è particolarmente rilevante per l'addestramento e l'esecuzione di modelli di machine learning complessi.
FLOPS/Watt è una misura dell'efficienza computazionale, che indica quante operazioni in virgola mobile un sistema può eseguire per unità di energia consumata. Più alto è il FLOPS/Watt, più efficiente è il sistema dal punto di vista energetico.
Inferenza: nel contesto di questo articolo, si riferisce al processo di utilizzo di un modello addestrato per fare previsioni o decisioni basate su dati nuovi e invisibili. Nel contesto dei modelli linguistici, l'inferenza comporterebbe attività come la generazione di risposte testuali, la traduzione o la risposta a domande.
Joule: un'unità di energia nel Sistema Internazionale di Unità di Misura. È una misura della quantità di lavoro svolto, o energia trasferita, quando si applica un newton di forza su uno spostamento di un metro, o un secondo di passaggio di una corrente elettrica di un ampere attraverso una resistenza di un ohm.
Politica monetaria: insieme delle politiche di una banca centrale volte a influenzare il livello di inflazione e di crescita di un'economia. Gli strumenti di politica monetaria includono la determinazione dei tassi d'interesse e il controllo dell'offerta di massa monetaria.d Per misure di stimolo monetario si intendono l'aumento dell'offerta di moneta da parte della banca centrale e la riduzione dei costi di finanziamento. La contrazione monetaria si riferisce all'attività della banca centrale volta a contenere l'inflazione e a rallentare la crescita dell'economia, aumentando i tassi d'interesse e riducendo l'offerta di denaro. Vedi anche politica fiscale.
Net zero: uno stato in cui i gas a effetto serra, come l'anidride carbonica (C02) che contribuiscono al riscaldamento globale, immessi nell'atmosfera sono bilanciati dalla loro rimozione dall'atmosfera.
Per token: nell'elaborazione del linguaggio naturale (NLP), un "token" si riferisce in genere a una parte di testo, che potrebbe essere una parola, parte di una parola o anche un carattere, a seconda della granularità del modello. Pertanto, "per token" significa che il consumo di energia viene misurato rispetto a ogni singolo pezzo di testo elaborato dal modello.
Watt: un'unità di potenza nel Sistema Internazionale di Unità di Misura, che rappresenta la velocità di trasferimento di energia di un joule al secondo.
Queste sono le opinioni dell'autore al momento della pubblicazione e possono differire da quelle di altri individui/team di Janus Henderson Investors. I riferimenti a singoli titoli non costituiscono una raccomandazione all'acquisto, alla vendita o alla detenzione di un titolo, di una strategia d'investimento o di un settore di mercato e non devono essere considerati redditizi. Janus Henderson Investors, le sue affiliate o i suoi dipendenti possono avere un’esposizione nei titoli citati.
Le performance passate non sono indicative dei rendimenti futuri. Tutti i dati dei rendimenti includono sia il reddito che le plusvalenze o le eventuali perdite ma sono al lordo dei costi delle commissioni dovuti al momento dell'emissione.
Le informazioni contenute in questo articolo non devono essere intese come una guida all'investimento.
Non vi è alcuna garanzia che le tendenze passate continuino o che le previsioni si realizzino.
Comunicazione di Marketing.
Informazioni importanti
Si prega di leggere attentamente le seguenti informazioni sui fondi citati in questo articolo.
- Le azioni/quote possono perdere valore rapidamente e di norma implicano rischi più elevati rispetto alle obbligazioni o agli strumenti del mercato monetario. Di conseguenza il valore del proprio investimento potrebbe diminuire.
- Le azioni di società a piccola e media capitalizzazione possono presentare una maggiore volatilità rispetto a quelle di società più ampie e talvolta può essere difficile valutare o vendere tali azioni al momento e al prezzo desiderati, il che aumenta il rischio di perdite.
- Il Fondo si attiene a un approccio d'investimento sostenibile, il che potrebbe condurlo ad essere sovrappesato e/o sottopesato in alcuni settori e pertanto a realizzare performance diverse da quelle di fondi con obiettivi analoghi, ma che non si avvalgono di criteri d'investimento sostenibile per la selezione dei titoli.
- Il Fondo potrebbe usare derivati al fine di ridurre il rischio o gestire il portafoglio in modo più efficiente. Ciò, tuttavia, comporta rischi aggiuntivi, in particolare il rischio che la controparte del derivato non adempia i suoi obblighi contrattuali.
- Qualora il Fondo detenga attivi in valute diverse da quella di base del Fondo o l'investitore detenga azioni o quote in un'altra valuta (in assenza di "copertura"), il valore dell'investimento potrebbe subire le oscillazioni del tasso di cambio.
- Se il Fondo, o una classe di azioni con copertura, intende attenuare le fluttuazioni del tasso di cambio tra la valuta di denominazione e la valuta di base, la stessa strategia di copertura potrebbe generare un effetto positivo o negativo sul valore del Fondo, a causa delle differenze di tasso d'interesse a breve termine tra le due valute.
- I titoli del Fondo potrebbero diventare difficili da valutare o da vendere al prezzo e con le tempistiche desiderati, specie in condizioni di mercato estreme con il prezzo delle attività in calo, aumentando il rischio di perdite sull'investimento.
- Il Fondo potrebbe perdere denaro se una controparte con la quale il Fondo effettua scambi non fosse più intenzionata ad adempiere ai propri obblighi, o a causa di un errore o di un ritardo nei processi operativi o di una negligenza di un fornitore terzo.
- Il Fondo segue uno stile d’investimento di tipo “growth” che privilegia determinati tipi di società. Conseguentemente, il Fondo potrebbe sottoperformare o sovraperformare significativamente la media del mercato.