Entwicklung der KI und ihr Potenzial: Fragen und Antworten mit Google
Zusammenfassung einer aktuellen KI-fokussierten Podiumsdiskussion mit Führungskräften von Google Asia, moderiert vom Portfoliomanager Richard Clode.
8 Minuten Lesezeit
Zentrale Erkenntnisse:
- Große Sprachtransformatormodelle setzen generative KI frei und wecken ein enormes Kundeninteresse.
- Hyperscaler profitieren vom Bedarf an Cloud-Infrastruktur, dem Bereitstellungsmechanismus für generative KI.
- Verantwortungsvolle Disruption rückt immer mehr in den Fokus, was sich sehr positiv auf die langfristigen Aussichten des Technologiesektors auswirkt.
F: KI gibt es schon seit Jahrzehnten. Warum erleben wir derzeit ein Wiederaufleben?
Viele Unternehmen, darunter auch Google, nutzen seit Jahren KI, um ihre Produkte und Dienstleistungen zu verbessern – sei es durch genauere Suchergebnisse oder durch bessere Routenvorschläge in Karten. Eine weitere häufige Verwendung von KI ist die Textvorhersage, beispielsweise in Gmail. Google war Pionier des Konzepts der Transformatormodelle als Technologie und hat es als Open-Source-Lösung bereitgestellt. Das GPT in ChatGPT ist die Abkürzung für generative Pre-Transformer.
Jetzt sind die Grundlagen geschaffen, um die Einsatzmöglichkeiten für KI zu vergrößern. Die Verarbeitungsgeschwindigkeit ist viel besser. Um große Sprachmodelle mit Hunderten Milliarden Parametern zu trainieren, ist eine enorme Leistung erforderlich. Zweitens ist die enorme Datenexplosion der Treibstoff, der es diesen Modellen ermöglicht, noch bessere Ergebnisse zu erzielen.
Gleichzeitig werden diese großen Sprachmodelle (LLMs) rasant weiterentwickelt, sie werden intelligenter und das Lernen beschleunigt sich. Die Möglichkeiten, wo generative KI (Gen AI) eingesetzt werden kann, sind enorm. LLMs treiben generative KI voran. Wenn Sie die Google-Suche heute fragen, was 2+2 ist, wird die Antwort 4 sein, nicht weil sie über Intelligenz verfügt, sondern weil sie irgendwo in einem Dokument auftaucht, an dem die LLMs von Google geschult wurden.
Es sind die Vorhersagefähigkeiten, die KI so interessant machen. Unternehmen und Organisationen stellen typischerweise drei Schlüsselfragen: Wie können wir mit KI Kosten sparen? Wie können meine Mitarbeiter produktiver sein? Wie kann das Kundenerlebnis verbessert werden? Ein digitaler Support-Assistent ist eine echte Anlagechance für generative KI, und je stärker er in Prozesse eingebettet wird, desto nützlicher wird er.
Entscheidend ist auch, dass die Monetarisierung von Daten begonnen hat. Anwendungsprogrammierschnittstellen (APIs), die es zwei Softwarekomponenten (z. B. einer App und einem Mobiltelefon) ermöglichen, miteinander zu kommunizieren, waren oft kostenlos. In letzter Zeit haben wir gesehen, dass beliebte soziale Plattformen wie Twitter und Reddit Entwicklern den Zugriff auf die Daten ihrer Apps in Rechnung stellen. Unternehmen wollen ihre Daten monetarisieren und – was entscheidend ist – verhindern, dass jeder das Internet durchforstet, um LLMs zu erstellen.
F: Welche Bereiche haben das größte Potenzial für KI-Anwendungen?
Aus Sicht der Verbraucher liegt der Fokus auf den Tools und Dienstleistungen, die ihr Leben verbessern können. Es gibt eine Vielzahl von Verbraucherinteraktionen, die durch KI viel einfacher und tiefer werden. Unterdessen nutzen Unternehmenskunden KI, um das Umsatzwachstum anzukurbeln.
Die dritte Säule dabei ist Verantwortung. Welche Möglichkeiten gibt es, die Gesellschaft als Ganzes zu verbessern? Wir müssen die Menschen durch Schutzmaßnahmen und Vorschriften vor den potenziellen Gefahren der KI schützen. Wie können wir das Leben der Menschen verbessern, wie kann KI das viel effizienter tun? Einige Bereiche, in denen KI bereits hilft, sind die Diagnose von Krankheiten in großem Maßstab und die Unterstützung bei der Vorhersage von Überschwemmungen. Die USA erleben ein Rekordjahr für neue Medikamente, wobei KI diese Produktivität ermöglicht.
F: Wo wird generative KI heute eingesetzt?
In jedes Produkt von Google ist KI eingebettet. Google erkennt ein echtes Interesse der Verbraucher, mit dieser Technologie zu interagieren und sie auf interessante Weise zu nutzen. Es gibt mehrere Bereiche, die spannend sind und mithilfe von KI großes Potenzial haben. Der grundlegende menschliche Wunsch, nach Informationen zu suchen, die relevant und semantischer Natur sind, ist sehr stark. Wir können eine KI-gestützte Reise durch einen HR-Helpdesk, einen Bank-Helpdesk, einen Reise-Helpdesk oder jeden anderen Kundenbedarf unternehmen. KI hilft dabei, die Datensuche zu erschließen. Generative KI, die große Sprachmodelle verwendet, ist in der Lage, jede Datenquelle auf natürliche Weise abzufragen und sie auf eine bestimmte Art und Weise entsprechend zu trainieren.
Sundar Pichai, CEO von Google und Alphabet, sagte, ihr Ansatz gegenüber KI müsse mutig, aber auch verantwortungsvoll sein. Die Art und Weise, wie KI entwickelt und eingesetzt wird, kann zur Verbesserung der Gesellschaft beitragen, sei es durch die Umgestaltung der Gesundheitsversorgung, die Verlangsamung des Klimawandels oder andere Möglichkeiten, die letztendlich unser Leben verbessern könnten. Das Green Light-Projekt von Google nutzt Gen-KI und Fahrtrends, um die Autoemissionen zu senken, indem es die effizientesten Verkehrsmuster und Routen erstellt.
Im Hinblick auf die Verbesserung der Mitarbeiterproduktivität verbringt ein Softwareentwickler durchschnittlich mindestens 30 Minuten pro Tag mit der Suche nach Lösungen. KI-Technologie kann helfen, indem sie den Prozess beschleunigt, innerhalb von Sekunden eine Lösung anbietet und den Code für die Bereitstellung der Lösung schreibt. Dieser Anwendungsfall für KI ist bereits weit verbreitet und erstreckt sich auf alle Branchen, sei es Finanzdienstleistungen, Telekommunikation, Einzelhandel, Gesundheitswesen, E-Commerce, Regierungen usw.
F: Warum ist die Cloud ein wichtiger Bereitstellungsmechanismus für KI? Was treibt den Bedarf von Hyperscalern an, über spezielle Mikrochips zu verfügen, die erhebliche Forschungs- und Entwicklungskosten verursachen?
Generative KI ist nicht nur eine Technologie, sondern ein Vielzahl an Technologien, wobei die Infrastruktur die grundlegendste ist. Andrew Ng von der Stanford University sagte: „Künstliche Intelligenz ist die neue Elektrizität.“ Wenn wir diesen Aussage erweitern, sind Daten der Treibstoff, der das Netz antreibt, und das Netz ist eigentlich die Cloud. Cloud-Daten und KI sind sehr eng miteinander verbunden; Cloud-Hyperscaler werden zum Kern und Mittelpunkt aller KI. Die Cloud ist die Basis-Infrastruktur, die für die Verwaltung, Verarbeitung und Speicherung großer Datenmengen erforderlich ist. Uber Eats betreibt seine gesamte Konversations-KI-Schnittstelle mithilfe von Google-APIs und -Infrastruktur. Und was noch wichtiger ist: Big Data ist der Katalysator für die Cloud, denn um die Architektur wirklich neu zu gestalten, Gen-KI zu nutzen und Daten zugänglich zu machen, benötigen Sie eine Cloud-Infrastruktur.
Es gibt drei Gründe, die den Bedarf an maßgeschneiderten Chips rechtfertigen: Preis-Leistung, Nachhaltigkeit und die schiere Komplexität von LLMs, um den komplexen und individuellen Bedürfnissen der Kunden gerecht zu werden. Google hat auf der GPU-Seite (Grafikverarbeitung) mit NVIDIA zusammengearbeitet, hat aber in der Vergangenheit auch Innovationen bei TPUs oder Tensor-Verarbeitungseinheiten hervorgebracht. Tensor Processing Units (TPUs) sind die speziell von Google entwickelten anwendungsspezifischen integrierten Schaltkreise (ASICs), die zur Beschleunigung von Arbeitslasten beim maschinellen Lernen eingesetzt werden.
Heutige Allzweck-Chips führen nur eine Standardmultiplikation durch, aber komplexe große Datensätze (Zettabytes an Informationen) erfordern eine Matrixmultiplikation, die Standard-CPUs (auf denen das Betriebssystem und Apps ausgeführt werden) nicht leisten können. Aus diesem Grund entstand die ganze Idee der Beschleuniger, die von Unternehmen wie nVIDIA und Marvell Technology entwickelt wurden. Das derzeit größte "große Sprachmodell" für Google verfügt über etwa 540 Milliarden Parameter. Der nächste wird rund eine Billion Parameter haben.
Im Hinblick auf Kosten- und Nachhaltigkeitsfaktoren gilt: Je effizienter Sie werden, desto geringer werden die Kosten für die Bearbeitung der Anfrage. Auch die Trainings- und Inferenzkosten für große Sprachmodelle sind extrem kohlenstoffintensiv, daher besteht für Hyperscaler der Wunsch und die Notwendigkeit, ihr eigenes Silizium zu entwerfen.
F: Was sind angesichts der Leistungsfähigkeit der KI die größten Bedenken?
Verantwortungsvolle Disruptionen sind unglaublich wichtig, da sie sich auf das Leben, die Arbeitsplätze, die Regierungen und die Wirtschaft der Menschen auswirken. Im Allgemeinen verfolgen Technologieunternehmen diesbezüglich einen viel durchdachteren Ansatz als in der Vergangenheit, was für die Branche sehr positiv ist.
Sicherheit im Hinblick auf Datenschutz und Cyberkriminalität gehört bei jeder neu entwickelten Technologie dazu. Was KI auch mit sich bringt, ist eine Herausforderung hinsichtlich der Erklärbarkeit. Wenn einem Chatbot/einer Konversations-KI eine Frage gestellt wird und er eine Antwort gibt, wie erklärt er dann, wie er zu dieser Antwort gelangt ist? Dies ist ein Problem, das insbesondere Organisationen betrifft, deren Kunden letztlich auf Vertrauen angewiesen sind, beispielsweise Regierungen und Banken.
Erklärbarkeit ist in einem großen Sprachmodell ein schwieriges Problem. Wenn zwei Menschen interagieren, ist es nicht so einfach vorherzusagen, wie der andere reagieren wird, da dies vom Kontext abhängt, wo und wann sie sich treffen usw. Die gleiche Situation gilt, wenn es um generative KI und große Sprachmodelle geht. Damit verbunden ist „Halluzinieren“, wenn generative KI etwas völlig Erfundenes hervorbringt.
Googles Bard hat eine Prüffunktion integriert, die seine Stärken in der Suche nutzt, um Fakten zu überprüfen; was dazu beitragen soll, KI zu einem beruhigenderen und positiveren Erlebnis zu machen. Ein Schwerpunkt liegt auf der Identifizierung und Beseitigung von Fehlinformationen.
Im Hinblick auf proprietäre Daten und Scraping-Bedenken ist Google der Ansicht, dass der Zugang zu großen Sprachmodellen demokratisiert wird, sei es von Google, OpenAI, Meta usw. Große Sprachmodelle werden normalerweise auf generischen Daten trainiert, die frei verfügbar sind. Unternehmen gewinnen einen echten Mehrwert, wenn sie ihre proprietären Daten mit der Leistungsfähigkeit eines großen Sprachmodells kombinieren. Ab diesem Zeitpunkt beginnen sie zu profitieren, indem sie Kundendaten in proprietäre Datenbanken mit Front-End-Plattformen und Back-End-Systemen integrieren.
Hinweis: Führungskräfte von Google – Mitesh Agarwal, Chief Technology Officer, Google Cloud APAC und Simon Kahn, Chief Marketing Officer, Google APAC.
KI-Inferenz: Die erste Phase des maschinellen Lernens ist die Trainingsphase, in der Intelligenz durch Aufzeichnen, Speichern und Kennzeichnen von Informationen entwickelt wird. In der zweiten Phase wendet die Inferenzmaschine logische Regeln auf die Wissensbasis an, um neue Informationen auszuwerten und zu analysieren, die zur Verbesserung der menschlichen Entscheidungsfindung verwendet werden können.
Computing: bezieht sich auf Rechenleistung, Arbeitsspeicher, Netzwerk, Speicher und andere Ressourcen, die für den Rechenerfolg eines Programms erforderlich sind.
CPU: Die Zentraleinheit ist das Kontrollzentrum, das das Betriebssystem und die Apps der Maschine betreibt, indem es Anweisungen von Hardware- und Softwareprogrammen interpretiert, verarbeitet und ausführt.
Generative KI: bezieht sich auf Deep-Learning-Modelle, die auf großen Rohdatenmengen trainieren, um „neue Inhalte“ wie Texte, Bilder, Audio und Video zu generieren.
GPU: Eine Grafikverarbeitungseinheit führt komplexe mathematische und geometrische Berechnungen durch, die für die Grafikwiedergabe erforderlich sind.
Hyperscaler: Unternehmen, die Infrastruktur für Cloud-, Netzwerk- und Internetdienste in großem Maßstab bereitstellen. Beispiele hierfür sind Google Cloud, Microsoft Azure, Meta Platforms, Alibaba Cloud und Amazon Web Services (AWS).
LLM (Large Language Model): eine spezielle Art künstlicher Intelligenz, die auf großen Textmengen trainiert wurde, um vorhandene Inhalte zu verstehen und Originalinhalte zu generieren.
Open-Source-Software: Code, der im Hinblick auf die Ansicht, Änderung und Verbreitung öffentlich zugänglich ist.
TPU: Die Hauptaufgabe von Tensor Processing Units ist die Matrixverarbeitung, eine Kombination aus Multiplikations- und Akkumulationsoperationen. TPUs enthalten Tausende von Multiplikationsakkumulatoren, die direkt miteinander verbunden sind und eine große physikalische Matrix bilden.
Transformer-Modell: ein neuronales Netzwerk, das Kontext und damit Bedeutung lernt, indem es Beziehungen in sequentiellen Daten verfolgt.
WICHTIGE INFORMATIONEN
Technologiebranchen können erheblich von der Veralterung bestehender Technologien, kurzen Produktzyklen, fallenden Preisen und Gewinnen, dem Wettbewerb durch neue Marktteilnehmer und den allgemeinen wirtschaftlichen Bedingungen betroffen sein. Eine konzentrierte Anlage in einer einzelnen Branche könnte volatiler sein als die Wertentwicklung weniger konzentrierter Anlagen und des Marktes.
Die vorstehenden Einschätzungen sind die des Autors zum Zeitpunkt der Veröffentlichung und können von den Ansichten anderer Personen/Teams bei Janus Henderson Investors abweichen. Die Bezugnahme auf einzelne Wertpapiere stellt keine Empfehlung zum Kauf, Verkauf oder Halten eines Wertpapiers, einer Anlagestrategie oder eines Marktsektors dar und sollten nicht als gewinnbringend angesehen werden. Janus Henderson Investors, die mit ihr verbundenen Berater oder ihre Mitarbeiter haben möglicherweise eine Position in den genannten Wertpapieren.
Die Wertentwicklung in der Vergangenheit ist kein zuverlässiger Indikator für die künftige Wertentwicklung. Alle Performance-Angaben beinhalten Erträge und Kapitalgewinne bzw. -verluste, aber keine wiederkehrenden Gebühren oder sonstigen Ausgaben des Fonds.
Der Wert einer Anlage und die Einkünfte aus ihr können steigen oder fallen. Es kann daher sein, dass Sie nicht die gesamte investierte Summe zurückerhalten.
Die Informationen in diesem Artikel stellen keine Anlageberatung dar.
Es gibt keine Garantie dafür, dass sich vergangene Trends fortsetzen oder Prognosen eintreten.
Marketing-Anzeige.
WICHTIGE INFORMATIONEN
Bitte lesen Sie die folgenden wichtigen Informationen zu den Fonds im Zusammenhang mit diesem Artikel.
- Aktien/Anteile können schnell an Wert verlieren und beinhalten in der Regel höhere Risiken als Anleihen oder Geldmarktinstrumente. Daher kann der Wert Ihrer Investition steigen oder fallen.
- Aktien kleiner und mittelgroßer Unternehmen können volatiler sein als Aktien größerer Unternehmen und bisweilen kann es schwierig sein, Aktien zu bewerten oder zu gewünschten Zeitpunkten und Preisen zu verkaufen, was das Verlustrisiko erhöht.
- Wenn ein Fonds ein hohes Engagement in einem bestimmten Land oder in einer bestimmten Region hat, trägt er ein höheres Risiko als ein Fonds, der breiter diversifiziert ist.
- Der Fonds ist auf bestimmte Branchen oder Anlagethemen ausgerichtet und kann durch Faktoren wie Änderungen der staatlichen Regulierung, dem zunehmenden Preiswettbewerb und dem technologischen Fortschritt sowie durch andere nachteilige Ereignisse stark beeinflusst werden.
- Der Fonds verfolgt einen nachhaltigen Anlageansatz, der dazu führen kann, dass er in bestimmten Sektoren über- und/oder untergewichtet ist und sich daher anders entwickelt als Fonds, die ein ähnliches Ziel verfolgen, aber bei der Auswahl von Wertpapieren keine nachhaltigen Anlagekriterien berücksichtigen.
- Wenn der Fonds oder eine währungsabgesicherte Anteilsklasse versucht, die Wechselkursschwankungen einer Währung gegenüber der Basiswährung des Fonds abzumildern, kann die Absicherungsstrategie selbst aufgrund von Unterschieden der kurzfristigen Zinssätze zwischen den Währungen einen positiven oder negativen Einfluss auf den Wert des Fonds haben.
- Wertpapiere innerhalb des Fonds können möglicherweise schwer zu bewerten oder zu einem gewünschten Zeitpunkt und Preis zu verkaufen sein, insbesondere unter extremen Marktbedingungen, wenn die Preise von Vermögenswerten möglicherweise sinken, was das Risiko von Anlageverlusten erhöht.
- Der Fonds könnte Geld verlieren, wenn eine Gegenpartei, mit der er Handel treibt, ihren Zahlungsverpflichtungen gegenüber dem Fonds nicht nachkommen kann oder will, oder als Folge eines Unvermögens oder einer Verzögerung in den betrieblichen Abläufen oder des Unvermögens eines Dritten.
Besondere Risiken
- Aktien/Anteile können schnell an Wert verlieren und beinhalten in der Regel höhere Risiken als Anleihen oder Geldmarktinstrumente. Daher kann der Wert Ihrer Investition steigen oder fallen.
- Wenn ein Fonds ein hohes Engagement in einem bestimmten Land oder in einer bestimmten Region hat, trägt er ein höheres Risiko als ein Fonds, der breiter diversifiziert ist.
- Der Fonds ist auf bestimmte Branchen oder Anlagethemen ausgerichtet und kann durch Faktoren wie Änderungen der staatlichen Regulierung, dem zunehmenden Preiswettbewerb und dem technologischen Fortschritt sowie durch andere nachteilige Ereignisse stark beeinflusst werden.
- Wenn der Fonds oder eine währungsabgesicherte Anteilsklasse versucht, die Wechselkursschwankungen einer Währung gegenüber der Basiswährung des Fonds abzumildern, kann die Absicherungsstrategie selbst aufgrund von Unterschieden der kurzfristigen Zinssätze zwischen den Währungen einen positiven oder negativen Einfluss auf den Wert des Fonds haben.
- Wertpapiere innerhalb des Fonds können möglicherweise schwer zu bewerten oder zu einem gewünschten Zeitpunkt und Preis zu verkaufen sein, insbesondere unter extremen Marktbedingungen, wenn die Preise von Vermögenswerten möglicherweise sinken, was das Risiko von Anlageverlusten erhöht.
- Der Fonds könnte Geld verlieren, wenn eine Gegenpartei, mit der er Handel treibt, ihren Zahlungsverpflichtungen gegenüber dem Fonds nicht nachkommen kann oder will, oder als Folge eines Unvermögens oder einer Verzögerung in den betrieblichen Abläufen oder des Unvermögens eines Dritten.