Die rasante Entwicklung der KI-Technologien scheint dabei zu helfen, bisher unüberwindbare Hürden zu nehmen. Die jüngsten Entwicklungen im Bereich der Mathematik sind eines der deutlichsten Beispiele hierfür. Mathematische Probleme, die von Menschen über Jahrzehnte nicht gelöst werden konnten, finden nun dank künstlicher Intelligenz ihre Lösung. Das jüngste Beispiel hierfür sahen wir diese Woche von Google. Die speziell entwickelte KI löste 13 mathematische Probleme, die seit Jahren als ungelöst galten.
Diese von Google DeepMind entwickelte KI namens Aletheia wurde auf der Gemini Deep Think-Infrastruktur aufgebaut und speziell für mathematische Probleme auf Forschungsniveau konzipiert. Laut den am 11. Februar von DeepMind veröffentlichten technischen Berichten scannte Aletheia systematisch 700 Probleme, die vom produktivsten Mathematiker des 20. Jahrhunderts, Paul Erdős, aufgeworfen und in Thomas Blooms Datenbank als „ungelöst“ markiert wurden. Am Ende dieses Prozesses wurden 13 Probleme gelöst, von denen vier laut Forschern als wirklich originell und autonome Entdeckungen eingestuft werden.
Google DeepMind entwickelte Aletheia zur Nachahmung akademischer Peer-Review-Prozesse
Was Aletheia von früheren mathematikfokussierten KI-Studien unterscheidet, ist das verwendete „Generate-Verify-Review“-Framework. Dieser Ansatz ist so konzipiert, dass er den akademischen Peer-Review-Prozess imitiert. Das System generiert zunächst eine Lösung; anschließend scannt ein auf natürlicher Sprache basierendes Verifizierungsmodul diese Lösung auf logische Fehler. Wenn ein Problem nicht gelöst werden kann, kann das System dies explizit melden. Es liefert also nicht nur Ergebnisse, sondern erkennt auch das eigene Scheitern.
Aletheia kann nicht nur eigene Prozesse, sondern auch die Arbeit von Menschen untersuchen und bewerten. Google berichtet, dass die Mathematikerin Lisa Carbone von der Rutgers University den Deep-Think-Modus nutzte, um ein technisches Paper zu prüfen, wobei das System einen logischen Fehler entdeckte, den menschliche Gutachter übersehen hatten. Solche Beispiele legen nahe, dass die KI künftig die Rolle eines Hilfsgutachters oder Forschungsassistenten übernehmen könnte.
Aletheia kann trotz kontrolliertem Vorgehen falsche Ergebnisse liefern
Obwohl dieser Ansatz es Aletheia ermöglicht, komplexe Probleme eigenständig anzugehen, bedeutet dies nicht, dass das System fehlerfrei ist. Im Gegenteil: Überprüfungen durch menschliche Experten zeigen, dass nur 6,5 Prozent der von Aletheia angebotenen Lösungen als „wesentlich korrekt“ eingestuft werden. Ein Teil der übrigen Antworten enthält grundlegende Logikfehler, während ein anderer Teil zwar technisch konsistent ist, aber die von Erdős beabsichtigte Version des Problems falsch interpretiert.
Forscher geben offen zu, dass das System dazu neigt, „die Frage so umzuinterpretieren, dass sie am einfachsten zu beantworten ist“, und im Vergleich zu Menschen immer noch eine hohe Fehlerrate aufweist. Zudem steht das Risiko des „unbewussten Plagiats“ im Raum; die Möglichkeit, dass das Modell Informationen aus Trainingsdaten ohne Quellenangabe reproduziert, wirft in einem Bereich wie der Mathematik, in dem Originalität und Zitation entscheidend sind, wichtige Fragen auf.
Trotz dieser falschen Ergebnisse wird die Tatsache, dass Aletheia 13 bisher ungelöste Probleme geknackt hat, als Zeichen dafür gewertet, dass die KI auf dem Weg ist, über die Fähigkeiten der Menschen, die sie trainiert haben, hinauszuwachsen.





