Asegúrese de que Javascript esté activado a efectos de accesibilidad del sitio web. Sentando las bases de la inversión responsable en la IA - Janus Henderson Investors - Europa PA España
Para inversores profesionales en España

Sentando las bases de la inversión responsable en la IA

En un acto celebrado recientemente en Londres, expusimos las implicaciones medioambientales y sociales de la IA, destacando el potencial de transformación y la necesidad de un despliegue responsable.

Michelle Dunstan

Michelle Dunstan

Directora de Responsabilidad


Sarah de Lagarde

Sarah de Lagarde

Directora global de Asuntos corporativos


Alison Porter

Alison Porter

Gestor de carteras


Antony Marsden

Antony Marsden

Director global de Inversión responsable y gobernanza


10 de diciembre de 2024
12 minutos de lectura

Aspectos destacados:

  • La IA generativa se conoce como la cuarta ola de la tecnología y, al igual que las anteriores, está llamada a transformar y alterar un amplio conjunto de sectores, creando oportunidades para los inversores activos.
  • El despliegue de la IA generativa conlleva retos y riesgos, no solo por la disrupción competitiva, sino también en relación con la protección de datos, el posible cambio en el empleo y el impacto medioambiental, lo que subraya la importancia de una innovación responsable.
  • Los inversores deben centrarse en las empresas que están a la vanguardia de la innovación en IA y que, al mismo tiempo, demuestran su compromiso con un despliegue responsable.

La inteligencia artificial generativa (IA gen) es la cuarta ola de la tecnología, tras las olas de los ordenadores centrales, los ordenadores personales (PC), Internet y los móviles. Estas olas de innovación anteriores han transformado sectores que van desde el comercio minorista hasta los medios de comunicación y el comercio electrónico, y ahora la IA generativa tiene el potencial de transformar un conjunto más amplia de sectores, lo que subraya la necesidad absolutamente fundamental de un despliegue responsable ante los desafíos y los riesgos. Este fue el tema de un reciente acto organizado por expertos en IA responsable, entre los que se encontraban Michelle Dunstan, Sarah de Lagarde, Alison Porter y Antony Marsden.

¿Qué es la IA?

Antes de adentrarnos en el tema de la IA responsable, es importante distinguir la IA generativa de la inteligencia humana y de la inteligencia artificial general (IAG), que es cuando los modelos llegan a ser tan o más inteligentes que los humanos. La IA generativa tiene la capacidad de generar contenidos nuevos y originales con lo que se conoce como «modelos transformadores», un tipo de modelo de IA que genera textos similares a los humanos analizando patrones en grandes cantidades de datos. Estos modelos, que utilizan una variedad cada vez mayor de parámetros (el Chat GPT-4 de Open AI tiene más de un billón), ayudan a los algoritmos a aprender, reaccionar, crear y predecir utilizando datos históricos e interacciones.

El auge de la IA

¿Por qué de repente oímos hablar tanto de la IA? Se ha convertido en una palabra en boga para todo, pero ¿por qué ahora? Aunque la IA ha sido un pilar de las novelas y películas de ciencia ficción durante décadas, la reciente innovación de productos ha hecho que su aplicación sea una realidad.

Al igual que las olas tecnológicas anteriores se vieron impulsadas por una rápida reducción de los costes para hacerlas más accesibles y escalables, lo mismo ha ocurrido con esta reciente ola de IA generativa. Por ejemplo, pensemos que la memoria flash del iPhone 16 de Apple (128 GB) habría costado más de 5 millones de dólares en la década de 1990. La combinación de los rápidos avances en los modelos transformadores que permiten el procesamiento del lenguaje natural, junto con la potencia de cálculo acelerada que ofrecen las unidades de procesamiento gráfico (GPU) de Nvidia, ha reducido el coste informático hasta el punto de democratizar el acceso y ampliar los casos de uso. Estos avances han convertido la IA en una realidad, permitiendo a consumidores y empresas acceder y adoptar tecnologías como ChatGPT y otros grandes modelos lingüísticos (LLM) para una amplia variedad de casos de uso de forma más fácil y asequible.

Olas de innovación en IA

A diferencia de los temas de inversión limitados, las olas de innovación requieren inversiones en todos los niveles de la tecnología, desde el silicio hasta la infraestructura, los dispositivos, el software y las aplicaciones. Es por ello que estas olas tienden a desarrollarse durante largos períodos de varios años.

Cada una de estas olas ha provocado una disrupción más profunda y generalizada, con una ampliación de las aplicaciones y los casos de uso. Las aplicaciones de oficina, la comunicación y el comercio electrónico se vieron alterados en la era de Internet para PC, mientras que los medios de comunicación, el entretenimiento y el transporte se vieron afectados en la era de la nube móvil.

Conforme nos adentramos en esta cuarta ola, más sectores, incluidos la salud y el transporte, se están viendo alterados y transformados. Podemos ver paralelismos con los retos sociales, medioambientales y normativos de las olas anteriores también en esta última. Cada ola anterior se enfrentó de forma similar a preocupaciones sobre el uso inadecuado, la privacidad y su impacto en la red eléctrica.

A pesar de estos retos, en las olas anteriores hemos observado niveles crecientes de adopción de la tecnología en más sectores, ya que la innovación pretende aprovechar el poder de las nuevas tecnologías para hacer frente a retos críticos como la geopolítica, la demografía y las vulnerabilidades de la cadena de suministro, así como para mejorar la productividad humana y la colaboración.

Gráfico 1. Olas de innovación de la IA

Fuente: Citi Research, Janus Henderson Investors

Nota: las referencias hechas a valores individuales no constituyen una recomendación para comprar, vender o mantener ningún valor, estrategia de inversión o sector de mercado, y no deben asumirse como rentables. Janus Henderson Investors, su asesor afiliado o sus empleados, pueden tener una posición en los valores mencionados. No hay garantía de que las tendencias pasadas continúen o de que se cumplan las previsiones. Las opiniones pueden variar sin previo aviso.

Despliegue responsable de la IA

A la hora de plantearse la IA responsable, es crucial empezar por entender que la IA no es más que una tecnología, intrínsecamente ni buena ni mala. Está preparada para tener una amplia gama de impactos tanto positivos como negativos sobre los seres humanos, que a menudo pueden verse como dos caras de la misma moneda. Por ejemplo, en el sector salud, la IA tiene el potencial de avanzar sustancialmente en la detección precoz de enfermedades. Sin embargo, si los datos resultantes no se protegen adecuadamente, podría dificultar posteriormente la obtención de un seguro médico. Del mismo modo, aunque la IA promete mejorar el lugar de trabajo eliminando tareas tediosas, existen inquietudes legítimas sobre su capacidad para desplazar carreras enteras.

Desde una perspectiva climática, las aplicaciones de la IA tienen un enorme potencial para abordar algunas de las causas del cambio climático, aunque curiosamente la actual expansión de la infraestructura está contribuyendo a un aumento de las emisiones de carbono a corto plazo.

En las pasadas olas informáticas, la preocupación por que Internet y la nube móvil se alimentaran de combustibles fósiles se vio alentada por analistas del sector energético que extrapolaban que el uso actual de la energía y la intensidad de carbono continuarían con el aumento de la demanda. Sin embargo, estas previsiones no tuvieron en cuenta cómo el aumento de la eficiencia de estas nuevas tecnologías podría reducir el consumo de energía. Además, aunque la creciente demanda de centros de datos está provocando un aumento de la demanda energética, esto se está compensando en parte con importantes inversiones en nuevas tecnologías de silicio, almacenamiento y redes que doblarán esta curva de demanda energética y reducirán las posibles emisiones futuras.

Además de estas nuevas tecnologías, seguimos viendo cómo los grandes hiperescaladores exploran fuentes de energía alternativas. Por ejemplo, Microsoft anunció recientemente un acuerdo con Constellation Energy en relación con la nueva puesta en servicio de un reactor nuclear de 835 megavatios (MW) en el centro de Three Mile Island, en Pensilvania.1

Este acuerdo evidencia la magnitud de los esfuerzos que se están realizando para satisfacer las crecientes necesidades de energía de la IA y el aumento del uso de la energía nuclear como fuente renovable.  Esta medida forma parte del compromiso más amplio de Microsoft con su senda de descarbonización, lo que demuestra cómo la demanda de energía de las empresas se entrecruza con las soluciones de energía sostenible.

La IA es un área llena de matices y zonas grises. Entre los riesgos clave a tener en cuenta está el fenómeno del doble uso. El ejemplo lo vimos con un grupo de investigadores que demostró que una plataforma de descubrimiento de fármacos basada en IA, diseñada inicialmente para encontrar medicamentos beneficiosos, podía modificarse fácilmente para desarrollar sustancias nocivas o armas biológicas.

El uso indebido de las herramientas de IA generativa presenta otra inquietud importante. Los primeros ejemplos incluyen el chatbot de Microsoft, Tay, que fue manipulado para generar discursos de odio poco después de su lanzamiento. Este problema se extiende a ámbitos serios como la ciberdelincuencia, lo que pone en evidencia la importancia de realizar auditorías de seguridad y participar en el «red teaming», es decir, probar las herramientas intentando romperlas antes de su lanzamiento público. Por ejemplo, la exhaustiva auditoría de OpenAI de su último modelo, que suplantará a su sistema GPT-4, es un testimonio de la necesidad crítica de tales precauciones.

Adaptar la IA

Adaptar la IA al bien común es un reto continuo, como muestra el experimento mental del maximizador de sujetapapeles del filósofo sueco Nick Bostrom, que examina el «problema del control»: cómo pueden los humanos regular una IA superinteligente que sea más inteligente que nosotros. Esto subraya la necesidad de que los investigadores de la seguridad de la IA, cuyo objetivo es evitar comportamientos no deseados de los sistemas de IA, se centren continuamente en garantizar que los objetivos de la IA estén en consonancia con los valores humanos y los beneficios sociales.

Además, la aparición de errores y alucinaciones en el contenido generado por la IA, ejemplificada por el incidente del chatbot de Air Canada, por el que se dio información incorrecta a un viajero, apunta a la necesidad de una mayor transparencia en los procesos de toma de decisiones de la IA. Los problemas de parcialidad y la falta de transparencia complican aún más el despliegue responsable de las tecnologías de IA, exigiendo esfuerzos concertados para dilucidar cómo llegan los modelos de IA a sus resultados.

A la larga, recorrer la senda hacia una IA responsable implica reconocer su doble potencial, abordar los riesgos clave a través de rigurosas medidas de seguridad, garantizar la coincidencia con los valores sociales y mejorar la transparencia y la rendición de cuentas en los sistemas de IA.

IA: ¿hasta qué punto debemos preocuparnos?

El tema del riesgo existencial asociado a la IAG, que evolucionará a partir de la actual ola de IA general una vez alcanzada la inteligencia humana, sigue siendo un tema candente de debate. Las preocupaciones sobre la IAG suelen englobarse en un término utilizado en Silicon Valley conocido como «p doom», que se refiere a la probabilidad de que la IA supere a la humanidad y potencialmente nos esclavice. Este concepto plantea intrigantes cuestiones teóricas. Los llamados padrinos de la IA, tres investigadores galardonados con el premio Turing por sus contribuciones, muestran un amplio espectro de opiniones al respecto.

Yann LeCun, que participa en la investigación de la IA en Meta, adopta una postura relativamente desdeñosa hacia el riesgo existencial de la IAG, comparando la inteligencia de los sistemas de IA actuales con la de un gato y desestimando las preocupaciones sobre los riesgos existenciales como algo sin sentido. Por otro lado, Geoffrey Hinton, una figura muy conocida en la comunidad de la IA, abandonó Google para manifestar su preocupación por el rápido avance de la IA, temiendo que esta pueda llegar a ser más lista que la humanidad. Yoshua Bengio, otro destacado investigador, ha lanzado advertencias sobre la catástrofe potencial que podría producirse si no se regula la IA en un futuro próximo. Dada su proximidad a la investigación y el desarrollo de la IA, sus diversas perspectivas merecen ser tenidas seriamente en cuenta.

Concentración de poder

Sin embargo, algunos argumentan que centrarse en estos riesgos existenciales a largo plazo de la IAG distrae de preocupaciones más inmediatas. Observar la evolución de las principales empresas tecnológicas en los últimos dos años, en particular en lo que respecta a sus consejos de ética y equipos de seguridad dedicados a la IA responsable, revela cambios significativos. Se han dado casos de desmantelamiento de órganos de ética de la IA, de disolución de equipos y de denunciantes que han hecho saltar las alarmas sobre los peligros de la IA, alentados por el afán competitivo de innovación dentro de estas empresas (gráfico 2).

Gráfico 2. La IA responsable debería ser una prioridad para todas las empresas

Fuente: Janus Henderson Investors

Sin embargo, observamos que, a través de nuestros compromisos con estas empresas, se ha hecho evidente que la IA ha pasado de ser un aspecto teórico de los negocios a convertirse en un componente central de todo su modelo empresarial, lo que requiere la integración y centralización de las funciones de riesgo. Este cambio de las preocupaciones teóricas a las prácticas ha provocado un aumento de los recursos dedicados a las cuestiones de seguridad en muchas empresas, donde un enfoque más holístico de la IA se manifiesta en la fusión e integración de los organismos a nivel interno.

Uno de los aspectos que más nos preocupa es la concentración de poder en el ámbito de la IA. No se trata de una cuestión nueva, ya que algunas de las mayores empresas tecnológicas se caracterizan desde hace tiempo por sus posiciones dominantes en el mercado, sus estructuras accionariales únicas y la inmensa influencia que ejerce un pequeño número de individuos que controlan esta tecnología y su dirección futura. Esta concentración de poder es una inquietud importante que merece atención.

Regular la innovación: encontrar el equilibrio

Gobiernos de todo el mundo están lidiando en la actualidad con el rápido ritmo de cambio de la IA, lo que dificulta seguir el ritmo de las necesidades de regulación. A nivel nacional, muchos gobiernos han adoptado principalmente formas de regulación basadas en principios. China destaca por haber aplicado ya normativas bastante estrictas, acompañadas de severas sanciones. Para 2025 o 2026, se espera que numerosos países adopten normativas mucho más estrictas. La Unión Europea (UE) ha dado un paso importante con la Ley de IA de la UE, una de las leyes en materia de IA más conocidas, que ya ha entrado en vigor. Se prevé que su impacto se haga más patente en EE. UU. en los próximos uno o dos años.

En EE. UU. no existe actualmente ninguna normativa federal que regule la IA, aunque se han producido animados debates en torno a posibles nuevas normativas, como las propuestas en California, que finalmente fueron vetadas. En este veto influyó la inquietud de que dicha regulación pudiera hundir la innovación, a pesar del importante apoyo público a la misma. Sin embargo, a nivel estatal, están empezando a surgir normativas. Por ejemplo, Nueva York ha introducido normativas relativas a la contratación, la parcialidad y el uso de la IA, mientras que otros estados han empezado a aplicar sus propias medidas. En California, la normativa que entrará en vigor el año que viene exigirá que contenidos como las imágenes creadas por IA lleven una marca de agua que permita su detección.

Aunque muchos países están considerando la aplicación de normativas en relación con la IA, también existe un fuerte deseo de convertirse en centros de innovación en este campo. Esto crea una dinámica competitiva y presenta una verdadera disyuntiva, suscitando debates activos, especialmente en la UE, sobre cómo equilibrar la regulación con la promoción de la innovación en el campo de la IA.

Abordar las olas de la innovación de la IA

El recorrido a través del cambiante panorama de la IA revela una tecnología llena de potencial para revolucionar todos los sectores de la sociedad, desde la salud al transporte, al tiempo que plantea importantes retos y dilemas éticos. Sin embargo, una gran oportunidad conlleva una gran responsabilidad.

Las preocupaciones inmediatas sobre la IA generativa acerca de la concentración de poder y la necesidad de una regulación eficaz, ponen de relieve el complejo terreno que debemos atravesar. Las medidas que adopten los gobiernos, la industria tecnológica y la comunidad mundial en los próximos años serán cruciales para configurar el futuro de la IA, pero evolucionarán de forma diferente en las distintas regiones en función de su pasado: los cimientos políticos, culturales y normativos establecidos a partir de anteriores olas informáticas. Los desarrollos normativos son complejos y deben equilibrar el impulso de la innovación con el imperativo de salvaguardar las normas éticas y el bienestar de la sociedad.

Mientras nos encontramos en el precipicio de esta frontera tecnológica, el camino a seguir requiere un esfuerzo de colaboración entre todas las partes interesadas para aprovechar el poder transformador de la IA, impulsando la transparencia, las normas y los marcos que nos permitan a todos supervisar, identificar y remediar los retos que inevitablemente surgirán de la evolución de los casos de uso de la IA. Al hacerlo, podemos garantizar que la IA sirva como una fuerza para el bien, mejorando las capacidades humanas y fomentando un futuro más equitativo y sostenible para todos.

Estas son las opiniones del autor en el momento de la publicación y pueden diferir de las opiniones de otras personas/equipos de Janus Henderson Investors. Las referencias realizadas a valores concretos no constituyen una recomendación para comprar, vender o mantener ningún valor, estrategia de inversión o sector del mercado, y no deben considerarse rentables. Janus Henderson Investors, su asesor afiliado o sus empleados pueden tener una posición en los valores mencionados.

 

La rentabilidad histórica no predice las rentabilidades futuras. Todas las cifras de rentabilidad incluyen tanto los aumentos de las rentas como las plusvalías y las pérdidas, pero no refleja las comisiones actuales ni otros gastos del fondo.

 

La información contenida en el presente artículo no constituye una recomendación de inversion.

 

No hay garantía de que las tendencias pasadas continúen o de que se cumplan las previsiones.

 

Comunicación Publicitaria.

 

Glosario