Hype um künstliche Intelligenz Ist KI überbewertet, Nvidias Erfolg eine Blase?

Von Susanne Braun 7 min Lesedauer

Anbieter zum Thema

Ein bekannter Hedgefonds erregte Aufmerksamkeit mit einem Investorenbrief, in dem der Wirbel um KI angegriffen wird. KI sei überbewertet und Hauptprofiteur Nvidia befände sich in einer Blase, die zwangsläufig bald platzen würde. Geht KI tatsächlich baden?

Sehen Sie doppelt? Wird generative KI beim Training über mehrere Generationen nicht mit ausreichend frischen, sondern nur mit synthetisch generierten Daten gefüttert, entstehen bei Bildgeneratoren mit der Zeit unnatürliche Artefakte, die die Realität höchstens simulieren, jedoch nicht darstellen. Wird beim Training die Ausbreitung der Artefakte vermindert, dann geht das bei einer KI zulasten der Diversität. Und dann geschieht so etwas, wie im Bild zu sehen.(Bild:  University of Stanford / Rice University)
Sehen Sie doppelt? Wird generative KI beim Training über mehrere Generationen nicht mit ausreichend frischen, sondern nur mit synthetisch generierten Daten gefüttert, entstehen bei Bildgeneratoren mit der Zeit unnatürliche Artefakte, die die Realität höchstens simulieren, jedoch nicht darstellen. Wird beim Training die Ausbreitung der Artefakte vermindert, dann geht das bei einer KI zulasten der Diversität. Und dann geschieht so etwas, wie im Bild zu sehen.
(Bild: University of Stanford / Rice University)

Wenn sich jemand öffentlich hinstellt und sagt „KI ist überbewertet und der Börsenerfolg von KI-Großprofiteur Nvidia nur eine Blase“, ist damit zu rechnen, dass es zu einer kleinen Implosion in den Finanz- und Techmedien kommt. Anfang August 2024 geschah das genau so. Die Autoren der Financial Times berichteten von einem Brief des Hedgefonds Elliott an die Investoren. Relativ unverblümt wurde den Kunden mitgeteilt, dass viele angebliche Anwendungen der Technologie „niemals wirklich funktionieren werden“.

Entsprechend sei KI, die den Wert der Anteile am KI-Platzhirsch Nvidia in den vergangenen Monaten in astronomische Höhen hat steigen lassen, auch überbewertet. Und dass sich die großen Technologieaktien, insbesondere die von Nvidia, in „Bubbleland“ befänden – also Teile einer Blase sind, die zwangsläufig platzen und damit einen vernichtenden Wertverlust erleben wird.

„Man fügte hinzu, dass man ‚skeptisch‘ sei, dass die großen Tech-Unternehmen die Grafikprozessoren des Chip-Herstellers weiterhin in so großen Mengen kaufen würden, und dass die KI ‚überbewertet wird und viele Anwendungen noch nicht reif sind‘“, zitiert Financial Times. Die Anwendung von KI würde „nie kosteneffizient sein, nie richtig funktionieren, zu viel Energie verbrauchen oder sich als unzuverlässig erweisen.“ Auf ein Statement zu dem Brief angesprochen, beschloss man bei Elliott, die Aufregung nicht zu kommentieren. Aber … liegt Elliot mit der Kritik am KI-Hype richtig?

Platzt die KI-Tech-Bubble bald?

Der Brief von Elliott kam zu einem Zeitpunkt, zu dem die Aktien großer Tech-Unternehmen gerade ins Wanken gerieten. Intel hat in der ersten Augustwoche verkündet, dass man plane, 15.000 Jobs einzusparen und dass man die Rolle als Auftragsfertiger ausbauen wolle. Der Markt rächte sich für diese Ankündigungen, so realistisch sie auch ausfallen mögen, mit einem Wertverlust von fast 38 Prozent.

Die Aktien von Nvidia brachen nur weniger Tage später um fast 17 Prozent ein, als das Gerücht die Runde machte, dass die Auslieferung der Blackwell-GPUs sich um mehrere Monate verzögern könnte. Stimmen von Nvidia sowie Microsoft wurden laut, dass sich der Launch von Blackwell vom vierten Quartal 2024 auf das erste Quartal 2025 verschieben könne, obwohl jüngst erst Samples der B100- und B200-Chips versendet worden waren.

„Die Quellen behaupten, dass es Designfehler gäbe. Daher sei es besser, die Veröffentlichung des Produkts zu verzögern, um die Fehler zu beheben, so wie AMD es mit dem Ryzen 9000 getan hat. Nach der Markteinführung einen Ausfall bei den Chips zu erleiden, wie die Instabilitätsprobleme, unter denen Intel mit den Core-Prozessoren der 13. und 14. Generation leidet, wäre katastrophal“, kommentiert Jowi Morales von Tom's Hardware. Da für einen B200-Superchip gerüchteweise 70.000 bis 80.000 US-Dollar an Anschaffungskosten anfallen, wäre ein Hardwareproblem, das erst beim Kunden entdeckt wird, höchstwahrscheinlich vernichtend.

Als Marktführer kann sich Nvidia eine Verspätung leisten – zu groß sollte sie dennoch nicht ausfallen. Nicht nur die Mitbewerber, insbesondere AMD, werden langsam zur ernsthaften Konkurrenz, auch wenn es wahrscheinlich Jahre dauern wird, bis sich andere Hersteller mit ihren AI-Produkten sich ein Stück vom Markt sichern können. Doch auch die Kunden selbst arbeiten fieberhaft daran, ihre eigene Technik zu realisieren. Kein Wunder. Der Aufbau und Betrieb eine KI-Datacenters ist teuer, und Tech-Unternehmen kommen langsam auf den Trichter, dass ressourcensparende Technologie möglicherweise Vorteile bieten könnte.

Kein sinnvoller Nutzen für KI

Der Elliott-Brief wirft obendrein die Frage nach dem aktuellen Nutzen der sogenannten künstlichen Intelligenz auf. Insbesondere generative KI, an die vermutlich 90 Prozent der Weltbevölkerung denkt, wenn man den Begriff künstliche Intelligenz äußert, dient nicht sonderlich vielen Zwecken. Oder, um die Worte von Elliott aufzugreifen: „Es gibt nur wenige wirkliche Verwendungszwecke, abgesehen von der Zusammenfassung von Notizen, der Erstellung von Berichten und der Unterstützung beim Programmieren.“

Wenn man sich das einmal vor Augen hält, wofür die meisten KI-Ressourcen eingesetzt werden, dann hat die KI eigentlich nicht viel mit Intelligenz zu tun, sondern vielmehr mit Wahrscheinlichkeitsberechnung und Mustererkennung. Diese Aufgaben löst künstliche Intelligenz zweifelsohne in einer so hohen Geschwindigkeit, dass so gut wie kein Mensch mithalten kann. Doch ist das wirklich das, was wir uns von künstlicher Intelligenz versprechen?

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

Die Künstliche Intelligenz basiert lediglich auf menschlichem Wissen. Die Modelle generativer KI werden mit Daten trainiert, die von Menschen erschaffen wurden – und oft ohne Rücksicht auf das Urheberrecht. Regelmäßig räumen die Betreiber von KI-Plattformen ein, das Training mit urheberrechtlich geschütztem Material durchzuführen.

Fair Use ist kein Freifahrtschein

Nvidia soll mit Youtube- und Netflix-Videos trainiert haben. Die KI-Generatoren Suno und Udio mit urheberrechtlich geschützter Musik. Was da alles noch unter dem vermeintlich (und noch) schützenden Feigenblatt des in den USA so oft herbeizitierten Fair Use geschieht, geht vielleicht auf keine Kuhhaut.

Fair Use ist ein Rechtskonzept im Urheberrecht, das es unter bestimmten Bedingungen erlaubt, urheberrechtlich geschütztes Material ohne die Erlaubnis des Rechteinhabers zu nutzen. Es handelt sich dabei um eine Art Ausnahmeregelung, die in den Vereinigten Staaten weitverbreitet ist, aber auch in ähnlicher Form in anderen Rechtssystemen existiert. 

Trainiert etwa GPT-4 unter Anwendung von Fair Use? Klar: „Ja, das Training von Modellen wie mir nutzt das Konzept von Fair Use und ähnliche rechtliche Prinzipien. Während des Trainingsprozesses werden große Mengen an Textdaten verwendet, die aus verschiedenen öffentlichen Quellen stammen. Diese Daten umfassen Bücher, Artikel, Webseiten und andere Texte“, gesteht der Chatbot ein.

Immerhin sieht GPT-4, dass man als Urheber ein Problem mit dieser Fair-Use-Regelung haben könnte. „Ob dies als fair angesehen wird, hängt stark von individuellen ethischen und rechtlichen Ansichten ab. Es gibt starke Argumente auf beiden Seiten, und es ist ein Bereich, der weiterhin intensiv diskutiert wird, insbesondere da KI-Technologien sich weiterentwickeln und immer stärker in das tägliche Leben integriert werden.“ Bis die Lage endgültig geklärt ist, sprudelt noch viel KI-generiertes „Wissen“ ungefiltert ins Internet. Und das ist nicht unbedingt erstrebenswert.

KI sabotiert sich selbst

Denn es gibt noch ein weiteres Phänomen, dass man bei der Bewertung der KI-Technologie nicht außer Acht lassen sollte. Es sprudeln täglich massive Mengen KI-generierter Daten ins Internet. Diese Daten werden unter anderem auf Basis des Fair-Use-Konzepts genutzt, um KI zu trainieren. Bedeutet in der Theorie, dass generative KI den Höhepunkt ihres Wissens bereits hinter sich gelassen hat und, umgangssprachlich, immer dümmer wird. Forscher warnen, dass sich KI-Modelle sabotieren, weil sie KI-generierte Daten für das Training verwenden.

In der StudieSelf-Consuming Generative Models Go MAD“ von Forschern der Universitäten Stanford und Rice haben insbesondere generative Bilderzeugung für das Experiment genutzt, denn so wird die schwindende Qualität der Trainingsdaten deutlich sichtbar. Weil generative KI-Algorithmen so viele Fortschritte gemacht haben, wird man dazu verleitet, synthetische Daten zum Trainieren von Modellen der nächsten Generation zu nutzen, erklären Sina Alemohammad, Josue Casco-Rodriguez, Lorenzo Luzi, Ahmed Imtiaz Humayun, Hossein Babaei, Daniel LeJeune, Ali Siahkoohi und Richard G. Baraniuk im Abstract ihres Papers.

„Durch die Wiederholung dieses Prozesses entsteht eine autophagische („sich selbst verzehrende“) Schleife“, erklären die Forscher. Um den Effekt, der die Forschenden an neurodegenerative Erkrankungen wie Rinderwahnsinn erinnert, zu erklären, wurden unter Verwendung generativer Bildmodelle drei autophage Schleifen eingerichtet. Diese unterschieden sich anhand der synthetischen und frischen Datenmengen, die zum „Training“ der KI-Bildgeneratoren verwendet wurden; ein Modell wurde ausschließlich mit synthetischen KI-Daten gefüttert, ein anderes mit Mix aus synthetischen und frischen Daten.

„Unsere primäre Schlussfolgerung für alle Szenarien ist, dass ohne genügend frische reale Daten in jeder Generation einer autophagen Schleife, zukünftige generative Modelle dazu verdammt sind, dass ihre Qualität (Präzision) oder Vielfalt (Recall) immer weiter abnimmt. Wir bezeichnen diesen Zustand als Model Autophagy Disorder (MAD), in Analogie zum Rinderwahnsinn“, wird erklärt.

Ist KI jetzt der Feind?

Schlagen wir den Bogen zurück zu den Elliott-Aussagen, dass KI derzeit überbewertet ist und dass Nvidia und Co., die Tech-Unternehmen mit großem Anteil am KI-Hype, Teil einer Bubble sind. Sollte man den Erfolg und die Wertexplosion der Tech-Unternehmen kritisch beäugen oder zumindest mit Vorsicht genießen? Ja klar. Wachstum ist endlich, auch wenn es immer noch Ökonomen gibt, die das nicht einsehen möchten. Irgendwann wird Nvidia nicht mehr der Platzhirsch sein, wir haben insbesondere in der Elektronikbranche schon ausreichend Giganten stolpern sehen.

Wird KI aktuell überbewertet? Wenn es um generative KI geht, dann wahrscheinlich ja, was allerdings auch an der Begrifflichkeit an sich und dem generellen Verständnis davon zusammenhängt. Künstliche Intelligenz, so wie wir sie aktuell kennen, ist eben nicht intelligent – und tut in gewissen Bereichen so einiges dafür, nicht intelligenter zu werden.

In einem industriellen, abgeschlossenen, also einem sogenannten gekapselten Umfeld hingegen schaut das vollkommen anders aus. Doch die überall verfügbaren, prominenten Tools, die wie Sand am Meer aus dem Boden sprießen und sich gegenseitig trainieren, diese Werkzeuge werden den Inhalten, die von Menschen gemacht wurden, insbesondere über einen langen Zeitraum keine Konkurrenz machen können. Darüber sollte man mal in aller Ruhe nachdenken.

Artikelfiles und Artikellinks

(ID:50163491)