Die Grenzen der klassischen Informatik überwinden
Die International Conference on Neuromorphic, Natural and Physical Computing in Hannover brachte Fachleute zusammen, die aus unterschiedlichen Richtungen die Computerwelt revolutionieren wollen. Nicht zuletzt aus Energiegründen wird daran kein Weg vorbeiführen.
"Ich war beeindruckt von der hohen Qualität dessen, was in anderen Feldern meines Fachgebiets möglich ist. Das Computing, das jetzt beginnt, bewegt sich jenseits von Bits und klassischer KI." Es ist Daniel Brunner anzumerken, dass er noch immer unter dem starken Eindruck der dreitägigen Konferenz NNPC steht, die am 27. Oktober 2023 zu Ende gegangen ist. Brunner forscht zu optischen Computern am französischen Femto-ST-Institut. Gemeinsam mit Gordon Pipa von der Universität Osnabrück, Damien Querlioz von der Universität Paris-Saclay und Susan Stepney von der Universität York hat Brunner die zweite Auflage der NNPC, der International Conference on Neuromorphic, Natural and Physical Computing, in Hannover organisiert. Die Veranstaltung brachte erneut einige der renommiertesten Forscher:innen der Welt im Tagungszentrum Schloss Herrenhausen zusammen und ermöglichte ihnen, sich über die ihre jeweiligen Spezialisierungen auszutauschen.
Computer und Informatik, das beschreibt für viele Menschen die traditionellen elektronischen Maschinen mit Siliziumchips und einer Logik aus Nullen und Einsen. Die NNPC widmet sich jedoch allem anderen, was Computing ausmacht – oder eines Tages ausmachen könnte. Bereits die erste Auflage der Konferenz 2018 führte vier ungewöhnliche Bereiche zusammen: neuromorphes Rechnen, das sich an den Prozessen des Gehirns orientiert; natürliches Computing, das komplexe Prozesse der Natur imitiert; physikalisches Computing, das physikalische Effekte direkt nutzt; und den Bereich der theoretischen Forschung, der sich mit Effekten jenseits der Turing-Maschine beschäftigt.
Computing außerhalb des konventionellen Rahmens
"Die meisten Leute denken, ein Computer ist ein Desktoprechner, ein Smartphone oder eine Serverfarm", sagt Stepney. "Aber es gibt Computing an vielen anderen Orten, im Gehirn, in den Augen oder den Ohren zum Beispiel." Die Ohren etwa nehmen Vibrationen aus der Luft auf und verarbeiten diese bereits, bevor sie die Informationen darin ans Gehirn weiterleiten. "Können wir auf ähnliche Weise Computing betreiben?", fragt die Expertin für unkonventionelles Computing und gibt gleich die Antwort: "Können wir, aber die Hardware ist dafür nicht angepasst." Genau das ist eines der Themen der NNPC: Materialien zu nutzen, die von Natur aus besser an solche alternativen Computing-Konzepte angepasst sind als klassische Silizium-Elektronik. "Das erfordert ein breites Wissen", betont Stepney und nennt als Beispiele die Materialphysik, die Biologie der zu imitierenden natürlichen Prozesse und eine Menge Mathematik der Informatik. "Diese Konferenz bringt all diese Spezialisten zusammen", freut sich die Forscherin.
Die NNPC 2023 spannte dabei den Bogen in fünf Sessions von der Theorie bis zur Anwendung. Die Theoriesession befasste sich vor allem mit dem Lernen: wie können Materialien lernen, ein neuromorpher Computer zu sein? Wie bringt man entsprechenden Rechnern bei, eigenständig zu lernen? Wo klassische Computer mit diskreter Mathematik arbeiten, funktionieren die neuartigen Ansätze eher nach statistischen Prinzipien und verändern sich auch noch mit der Zeit. Es braucht also entsprechende Mathematik, um diese Systeme zu beschreiben. Ein weiteres Thema für die Theoretiker:innen ist die Frequenz: Klassische Rechner arbeiten mit Gigahertz-Frequenzen. Natürliche physikalische Objekte, wie zum Beispiel Fußgänger:innen, folgen einer natürlichen, normalerweise langsameren Zeitskala – Gigahertz können da ganz falsch sein. Wie können natürliche Rechennetzwerke parallel nach unterschiedlichen Zeitskalen arbeiten?
Ist eine analoge Logik natürlicher als die digitale?
Auch bei der Session zur Hardware drehte sich der Impulsvortrag ums Lernen: "Julie Grollier zeigte, wie die Minimierung der freien Energie genutzt werden kann, um einem System beizubringen, sich selbst zu unterrichten", berichtet Brunner fasziniert. Der Forscher vergleicht das damit, wenn man einen Ball auf ein Ziel wirft. "Das Gehirn gleicht den Plan und das Ergebnis ab und korrigiert sich selbst, um es beim nächsten Wurf besser zu machen."
Ebenfalls unter dem Aspekt Hardware diskutierte Melika Payvand, wie sich ein sogenannter Memristor – ein elektrisches Bauteil – analog zu Synapsen des Gehirns nutzen lässt. Anas Skalli erläuterte, wie ein Laser Informationen mit Information injiziert und zu einem hochkomplexen nichtlineraren Netzwerk werden kann, das Digits erkennt. "Das Lasersystem nutzte ein ternäres System aus -1, 0 und 1", schildert Stepney. Das funktioniere besser als binär, vielleicht weil es physikalisch natürlicher sei. "Das lässt einen in ganz anderen Bahnen denken und neue Möglichkeiten erwägen."
Rechnen wie das Gehirn – aber ohne dessen Einschränkungen
Weil das Gehirn bis heute das beste Beispiel für nicht-digitales Rechnen ist, befasste sich damit die dritte Session. "Das Gehirn ist unglaublich effizient, sowohl hinsichtlich der Energie wie auch der Zeit", betont Brunner. Wie kann man aus den kleinen Informationshäppchen, die man am lebendigen Gehirn schadlos erforschen kann, fundamentale mathematische Formalismen für ein selbstlernendes System ableiten? "Heutige KI braucht riesige Datenbasen, um alles über alles zu lernen – und damit extrem viel Energie", erläutert der Forscher. Im Gehirn wissen jedoch nur wenige Neuronen, was die anderen tun. "Das ist viel effizienter und eleganter", sagt Brunner. Aber für Informatiker macht es das Problem schwerer, denn die Neuronen wissen dann nicht, welches Problem sie gerade lösen. Kollegin Stepney ergänzt: "Wir wollen nicht exakt nachbauen, was das Gehirn macht. Aber wir wollen davon inspiriert sein, ohne die Begrenzungen des Gehirns zu übernehmen."
Komplexität führt zu Kompromissen
In der Forschung ist es interessant, wenn etwas mit einigen Neuronen funktioniert. Aber um einen Computer zu bauen, muss man sehr viele Neuronen verbinden. "Upscaling" war deshalb das Thema der vierten Session. Verhält sich etwas noch vorteilhaft, wenn es tausendfach größer ist? "Bei vier Neuronen kann man jedes mit jedem verbinden, aber nicht bei Milliarden Neuronen", gibt Stepney ein Beispiel. Dann werden Strukturen erforderlich, doch die bringen Beschränkungen und damit Kompromisse mit sich.
Eine weitere Frage ist: Lässt sich die stark erhöhte Komplexität noch handhaben? "Die Route eines Paketboten zu optimieren, der 100 Pakete an 100 Adressen liefern soll, ohne eine Adresse doppelt anzufahren, ist nicht zu berechnen. Das geht vielleicht bis 15", erläutert Brunner. Doch selbst wenn klassische Computer dabei an ihre Grenzen kommen, weiß man genau, wie sicher es ist, dass sie wirklich den kürzesten Weg errechnet haben. Andere Rechenmethoden könnten die Aufgabe vielleicht besser lösen – aber es gibt keinen mathematischen Beweis dafür. "Ohne den wird jedoch kein Unternehmen in eine solche Lösung investieren", weiß der Forscher um die praktische Relevanz.
Moderne Robotik ohne alternatives Computing undenkbar
Denn am Ende der Forschung steht oft die Anwendung – mit der sich die letzte Session der Konferenz befasste. Darin zeigte sich sehr deutlich, wie unumgänglich neue Konzepte des Computing sind. Roboter, die mit Menschen interagieren, werden Tausende von Sensoren benötigen, die mit klassischen Konzepten alle paar Mikrosekunden ausgewertet werden. "Da bräuchte jeder Roboter ein kleines Kraftwerk", scherzt Brunner – nicht zuletzt in der Klimakrise keine Option.
Stepney gibt ein Beispiel, wie es anders gehen könnte: Eine Kamera könnte etwa nur die Pixel verarbeiten, die sich jeweils verändern, und nicht das gesamte Bild. Ein Nebeneffekt wäre, dass Objektgrenzen einfach zu erkennen wären – etwas, das derzeit einen erheblichen Teil der Rechenleistung bei der Bilderkennung verursacht. "Wir müssen uns von festen Vorstellungen lösen, wie Dinge funktionieren müssen", formuliert Stepney eine der Take-home-Messages. Eine andere wäre, die unkonventionelle Hardware auch auf unkonventionelle Weise zu verwenden.
"Die interessanteste Zeit der Computerwissenschaften seit langem"
"Wir hatten von 9 bis 21 Uhr ein hartes, wissenschaftliches Programm, aber die Leute sind abends noch geblieben und hörten nicht auf zu diskutieren", resümiert Brunner. Ein Grund sei, dass die Volkswagenstiftung den Wissenschaftlern alle lästigen Aufgaben wie etwa das Catering abgenommen habe. "Sie ließen uns die Wissenschaft genießen", freut sich der Forscher.
Auch Stepney ist mit der Konferenz sehr zufrieden: "Ich habe 40 Jahre Moore’s Law gesehen, Verdoppelung um Verdoppelung um Verdoppelung der Rechenleistung. Die unglaublichsten Maschinen, die nach zwei, drei Jahren wieder überholt waren", erinnert sich die Forscherin. "Jetzt, mit dem Ende von Moore’s Law, haben wir die Chance etwas ganz Neues zu tun, ohne dass uns Moore’s Law und klassische Rechner einfach wegblasen. Jetzt ist die interessanteste Zeit in der Computerwissenschaft seit langem."