Zum Hauptinhalt springen

KI ohne menschliche Daten: Warum 1,1 Milliarden Dollar kein Hype sind

· 5 min Lesezeit

KI, die ohne menschliche Daten lernt, ist kein Randphänomen mehr. David Silver hat gerade 1,1 Milliarden Dollar eingesammelt, um genau das zu bauen. Und wer Silver kennt, weiß: Der Mann liefert.

Silver war bis vor kurzem Leiter des Reinforcement-Learning-Teams bei DeepMind. Er hat AlphaGo und AlphaZero mitentwickelt, Programme, die Schach und Go nicht durch das Studium menschlicher Partien gelernt haben, sondern durch reines Ausprobieren. Millionen von Spielen gegen sich selbst. Kein menschliches Wissen als Vorlage, trotzdem besser als jeder Mensch auf der Welt. Das war kein akademisches Experiment, das war ein Beweis.

Jetzt gründet er Ineffable Intelligence und will dasselbe Prinzip auf alles anwenden.

#Was Reinforcement Learning wirklich bedeutet

Die meisten KI-Systeme, mit denen wir heute arbeiten, sind im Kern Mustererkenner. GPT-4, Claude, Gemini: alle trainiert auf riesigen Mengen menschlich erzeugter Texte. Was Menschen je geschrieben haben, dient als Grundlage. Das ist mächtig, aber es hat eine Decke. Die KI kann nur das reproduzieren und kombinieren, was Menschen schon gedacht haben.

Reinforcement Learning funktioniert anders. Das System bekommt ein Ziel und eine Umgebung, und dann probiert es aus. Es scheitert, passt an, scheitert wieder, wird besser. Kein Lehrer, kein Beispiel, kein menschlicher Fingerabdruck im Trainingsprozess. AlphaZero hat in 24 Stunden Schach auf einem Niveau gespielt, das jahrhundertelange menschliche Theorie hinter sich lässt. Nicht weil es cleverer programmiert war, sondern weil es die Freiheit hatte, eigene Strategien zu entwickeln, die Menschen nie in Betracht gezogen hätten.

Genau das will Ineffable Intelligence skalieren. Ihr "Superlearner" soll Wissen und Fähigkeiten aus eigener Erfahrung entdecken, ohne je menschliche Daten gesehen zu haben.

#Warum das relevant ist und nicht nur für Forscher

Ich arbeite täglich mit KI-Tools. Für Texte, für Code, für Recherche. Und ich merke ständig, wo die Grenzen liegen. Nicht weil die Modelle schlecht wären, sondern weil sie im Grunde sehr elaborierte Spiegel sind. Sie reflektieren, was Menschen produziert haben. Wenn etwas noch nie so gedacht oder geschrieben wurde, haben sie damit Probleme.

Wenn Silver recht hat, fällt diese Decke weg. Das klingt abstrakt, ist es aber nicht. Konkret bedeutet es: KI könnte Lösungen für Probleme finden, auf die Menschen noch nie gekommen sind, weil kein Mensch je in diese Richtung gedacht hat. In der Medikamentenentwicklung, in der Materialwissenschaft, in der Mathematik. Nicht weil sie schlauer ist als Menschen in dem Sinne, den wir kennen, sondern weil sie ohne die Scheuklappen menschlicher Vorannahmen arbeitet.

Das ist kein Science-Fiction-Versprechen. AlphaFold, das Protein-Faltungsproblem, war ein Vorgeschmack. Dort hat KI eine wissenschaftliche Frage gelöst, an der Biologen Jahrzehnte gearbeitet haben. Und AlphaFold war noch kein reines Reinforcement-Learning-System.

#Das Argument der Skeptiker, und warum es nicht reicht

Es gibt einen vernünftigen Einwand: Reinforcement Learning braucht eine Umgebung, in der es ausprobieren kann. Für Schach ist das einfach, das Spiel hat klare Regeln. Aber die reale Welt hat keine klaren Regeln. Wie definierst du Erfolg, wenn das Ziel "Wissen entdecken" ist?

Das ist eine echte Frage, keine rhetorische. Und sie erklärt, warum das Problem schwer ist. Aber sie erklärt nicht, warum es unlösbar ist. Silver und sein Team werden genau daran arbeiten. Die 1,1 Milliarden Dollar kaufen Zeit und Rechenleistung, um das herauszufinden.

Und die Bewertung von 5,1 Milliarden Dollar für ein Unternehmen, das erst ein paar Monate alt ist und noch kein Produkt hat, zeigt, wie ernst der Markt das nimmt. Das ist kein Hype um ein weiteres Chatbot-Startup. Das ist eine Wette auf einen grundlegend anderen Ansatz.

#Was das für alle bedeutet, die heute mit KI arbeiten

Kurze Antwort: Erstmal nichts. Ineffable Intelligence ist in einer frühen Forschungsphase. Bis ein marktreifes Produkt entsteht, vergehen Jahre, wenn überhaupt.

Aber die mittelfristige Konsequenz ist wichtig zu verstehen: Die Annahme, dass KI nur so gut sein kann wie die Daten, die wir ihr geben, ist nicht mehr gesetzt. Wer heute KI-Strategie für sein Unternehmen plant und diese Annahme als Fundament nimmt, baut auf Sand.

Konkret bedeutet das für mich: Ich beobachte diesen Bereich, weil er die Werkzeuge, mit denen ich arbeite, in den nächsten Jahren verändern wird. Nicht sofort, aber die Richtung ist klar. Wer das früh versteht, muss später weniger umdenken.

Für dich als Unternehmer oder Entscheider: Lass dich nicht von den heutigen KI-Grenzen täuschen. Was GPT-4 heute nicht kann, ist kein Naturgesetz. Es ist der Stand von heute.

Die Frage, die Ineffable Intelligence stellt, ist eigentlich die interessanteste in der KI-Forschung gerade: Was kann Intelligenz leisten, wenn sie nicht von uns abhängt? Die Antwort darauf werden wir nicht morgen kennen. Aber dass jemand wie David Silver sie ernsthaft verfolgt und dafür 1,1 Milliarden Dollar bekommt, sagt schon einiges.

Cheers,
Rafael

Du hast ein Projekt im Kopf? Ich höre zu, denke mit und liefere.

Lass uns reden