«Wir wollen KI als hilfsbereiten Assistenten, nicht als eigenständiges Wesen»
Benjamin Grewe ist Professor für Neuroinformatik und Neuronale Systeme am Institut für Neuroinformatik (INI) der ETH Zürich und der Universität Zürich und Forscher am ETH AI Center. Im Interview spricht er über seine Faszination für biologisch inspirierte Algorithmen und die Vorzüge vom neu entwickelten Sprachmodell SwissGPT gegenüber ChatGPT.
Was ist Ihr Forschungsgebiet?
Mein Forschungsgebiet umfasst zwei Hauptthemenbereiche. Zum einen untersuchen wir das Funktionsprinzip des Gehirns und seine Ähnlichkeit zu einem Computer. Wir analysieren, wie das Gehirn Informationen verarbeitet, um Verhalten und Sprache zu erzeugen, und wie diese Fähigkeiten entstehen. Ziel meiner Forschung ist es, zu verstehen, warum wir diese Fähigkeiten haben, um unser Verhalten in verschiedenen Situationen zu steuern, sodass wir unsere Ziele erreichen.
Die andere Richtung meiner Forschung betrifft das Ingenieurswesen, Machine Learning und theoretische Ansätze wie Artifizielle Neuronale Netzwerke lernen. Wir evaluieren den Stand des Machine Learnings bei neuronalen Netzwerken, insbesondere bei ChatGPT. Unser Ziel ist es zu verstehen, warum bestimmte Aufgaben gemeistert werden können, während der Algorithmus bei anderen scheitert. Wir möchten diese Algorithmen biologisch inspirierter gestalten, ähnlich dem menschlichen Lernprozess. Langfristig strebe ich an, einen Algorithmus zu entwickeln, der Aufgaben so löst, wie ich es tun würde, indem er meine Herangehensweise nachvollzieht und meine Ziele versteht.
Sie sind studierter Physiker. Könnten Sie erklären, wie Sie zur Neuroinformatik und zur Künstlichen Intelligenz gekommen sind?
Ich war zunächst ein enthusiastischer Physiker und tief in der Teilchenphysik verwurzelt. Während meines Studiums ins Heidelberg wurde dann in einer Biophysik-Vorlesung meine Begeisterung für Neurowissenschaften geweckt. In dieser Vorlesung beobachteten wir live, wie Neuronen Informationen verarbeiteten und sich im Gehirn verändern. So wechselte ich zur Biophysik, spezialisierte mich auf Gehirnforschung und verfasste meine Diplomarbeit. Dies brachte mich ins aufregende Feld der Neurowissenschaften.
Mein Doktorat in Neuroinformatik absolvierte ich an der ETH Zürich, wo ich ein Mikroskop entwickelte, um schnelle neuronale Aktivität präzise abzubilden. Neuronen reagieren in Millisekunden, und deshalb brauchten wir schnelle und hochauflösende Messmethoden.
Ist es Ihnen mittlerweile gelungen, das menschliche Gehirn besser zu verstehen?
Ja, tatsächlich! Allerdings hat dies mehr Fragen aufgeworfen als zuvor. Doch im Kern ist es positiv, mehr zu verstehen und gleichzeitig nach weiteren Erkenntnissen zu suchen. In diesem Prozess haben wir bereits einige bedeutende Schritte gemacht. Wir haben gesehen, wie sich die Codierung eines stimulierten Reizes verändert, wenn er Verhaltensbedeutung annimmt. Ein konkretes Beispiel: Ein Angst auslösender Reiz wird nicht nur erkannt, sondern auch als eine Art «Warnung» interpretiert.
Wir fanden auch heraus, wie dieser Reiz dann im nächsten Schritt in Verhalten umgesetzt wird. Im hierarchisch strukturierten Gehirn, wo Informationen schrittweise verarbeitet werden, erscheint der «Warnhinweis» für den Reiz im vorderen, praefrontalen Kortex. Er signalisiert erhöhte Aufmerksamkeit und ermöglicht uns, bereits drei bis vier Sekunden vor einer Handlungsausführung vorherzusagen, welche Handlung ausgewählt wird. All das basierte einzig auf dem sensorischen Reiz welcher im Gehirn in eine erlernte Codierung von Verhaltensplänen umgewandelt wird.
Aber es gibt doch auch angeborenes, instinktives Verhalten, das nicht auf Erfahrungen basiert?
Es gibt einige Reize, besonders in Bezug auf Ängste, bei denen nicht eindeutig feststeht, ob sie angeboren sind oder nicht. Es scheint so, dass es sich um sehr grundlegende Verhaltensweisen handelt und diese bereits in unserem Gehirn voreingestellt sind. Einem Roboter müssten wir natürlich alles explizit beibringen, etwa vor einem Löwen davonzulaufen, da er dieses angeborene Verhalten nicht von Natur aus hat.
«Einem Roboter müssten wir explizit beibringen, etwa vor einem Löwen davonzulaufen, da er dieses angeborene Verhalten nicht von Natur aus hat.»Prof. Benjamin Grewe
Welche Auswirkungen hat Ihre Forschung auf die Gesellschaft?
Das woran wir forschen, unterscheidet sich stark von dem, was wir aktuell in der KI, wie etwa bei ChatGPT, sehen. ChatGPT wurde darauf trainiert, auf Eingaben wie Bilder oder Texte zu reagieren und dann das nächste Wort vorherzusagen. Doch es kann kein effektives Verhalten erzeugen oder physische Interaktion steuern.
In unserer Forschung dagegen beschäftigen wir uns mit der Verständnis und der Entwicklung biologischer und robotischer Systeme, die nicht nur abstrakte visuelle Eindrücke aufnehmen, sondern auch begreifen können, welche Handlungspläne oder Verhaltensoptionen sie situationsbedingt haben. Eines unserer Projekte am ETH AI Center befasst sich z.B. damit, einen «Robotic Action Transformer» zu entwickeln. Hierbei ist faszinierend, dass der Roboter nahezu alles verstehen kann, was ihm über Sprache mitgeteilt wird und dann entsprechende Handlungen ausführt. Daraus ergeben sich spannende Anwendungsbereiche im industriellen oder medizinischen Bereich, wie z.B. ein Chirurgieroboter, den wir gerade virtuell trainieren und entwickeln.
Was kann die Elektrotechnik dazu Wichtiges leisten?
Die Algorithmen, die wir entwickeln, um Lernprozesse zu steuern, müssen auf Hardware laufen, momentan auf GPUs. Wir haben hier kürzlich grosse Fortschritte gemacht und ich glaube, dass wir in ein paar Jahren für sogenannte neuromorphe Prozessoren eigene Algorithmen entwickeln können, die deutlich weniger Energie verbrauchen. Die Elektrotechnik stellt uns hierbei wichtige technischen Grundlagen zur Verfügung.
Sie entwickeln mit dem Startup AlpineAI eine Schweizer Alternative zu ChatGPT. Was kann dieses Sprachmodell?
Wir verfolgen mit SwissGPT das Ziel, stereotype Computerarbeit zu automatisieren. Wenn wir heute mit ChatGPT interagieren, gehen unsere Eingaben an einen Server ins Ausland wo unsere Daten gespeichert werden. Vorsicht, Regulierung und Vertrauen sind hier wichtig. In dieser Hinsicht sind wir in der Schweiz gut aufgestellt. Wir implementieren unsere SwissGPT Produkte direkt in den Firmen, also beispielsweise auf den firmeninternen Servern, so dass die Daten dortbleiben.
Welche Gefahren sehen Sie in Bezug auf Künstliche Intelligenz? Und wie menschlich werden KIs in Zukunft sein?
Die grösste Gefahr sehe ich aktuell nicht darin, dass Algorithmen Unerwünschtes tun, sondern vielmehr darin, dass Menschen mit unterschiedlichen Interessen die Technologien nutzen könnten. Hierbei stellt sich die Frage, wie wir rechtzeitig eingreifen können, um die richtige Richtung sicherzustellen.
Ich glaube, dass wir in Zukunft KIs haben werden, die menschenähnlich sind. Dabei stellt sich jedoch auch die Frage, wie weit wir das tatsächlich möchten. Beispielsweise möchte ich mich nicht in ein Auto setzen, das mir dann sagt, dass es heute keine Lust zum Fahren hat. Wir müssen darüber nachdenken, wie wir diesen Algorithmen sinnvolle Ziele geben können. Allerdings möchten wir ihnen möglicherweise nicht die gleichen Ziele wie einem Menschen geben. Trotzdem möchten wir, dass uns diese Systeme verstehen, aber auf einem Level eines hilfsbereiten Assistenten und nicht auf dem Level eines eigenständigen Wesens.
Wie ist Ihre Forschungsgruppe aufgestellt?
Meine Gruppe besteht zur Hälfte aus Gehirnforscher:innen und aus Expert:innen in Computational Neuroscience und Machine Learning, die bioplausible Systeme entwickeln möchten, ähnlich dem Gehirn. Die Zusammenarbeit der beiden Subgruppen ist enorm inspirierend. Der Frauenanteil liegt bei erfreulichen 30 bis 40 Prozent, und wir haben sehr internationale Mitglieder, z.B. aus Deutschland, den Niederlanden, Belgien, Amerika und Marokko.
Welche Vorlesungen halten Sie in diesem Semester?
Die von mir entwickelte Vorlesung auf Masterstufe, die ich ständig an die neuesten Entwicklungen in der Künstlichen Intelligenz anpasse, trägt den Titel «Lernen in tiefen künstlichen und biologischen neuronalen Netzwerken». In dieser Vorlesung geht es um Parallelen zwischen biologischer Intelligenz und KI, aktuelle KI-Herausforderungen, Diskrepanzen und die Möglichkeit, Ideen zwischen den Bereichen zu übertragen, um Fragen in anderen Disziplinen zu lösen und neue Hypothesen zu generieren.
Wir beginnen mit biologischen Grundlagen und vertiefen dann das maschinelle Lernen, was eine ziemliche Herausforderung für die Studierenden ist. Die Übungen umfassen sowohl das Verständnis der Biologie als auch die Programmierung biologischer Netzwerke. Wir schaffen dabei Synergien, damit Studierende verschiedener Fachrichtungen die Thematik verstehen und interdisziplinär zusammenarbeiten können.
Und noch zum Schluss: Was sehen Sie bei KIs zur Zeit als grösste Herausforderung?
Was bisher noch fehlt, ist die bessere Integration von Zielen in die KI Systeme. Bei unseren menschlichen Handlungen haben wir stets ein Ziel vor Augen, sei es kurzfristig oder abstrakt-langfristig. Diese Aspekte sind bisher nicht in unserem «Robotic Transformer» enthalten.
Wir müssen darüber nachdenken, welche Daten wir verwenden, wie wir trainieren und wie die Architektur des Systems gestaltet ist. Was sollen die Systeme überhaupt leisten? Wenn wir diesen Punkt erreichen, können wir es schaffen, Systeme zu trainieren, die zwar nicht ganz auf das Niveau der Menschen gelangen, aber dennoch auf einer höheren Stufe stehen als ChatGPT. Dies wird voraussichtlich noch fünf bis zehn Jahre dauern.
Redaktionelle Mitarbeit: ChatGPT