2020: In der NR. 3 vom 10.1.2020 über die „Neugeburt des Computers“

Der Neustart

Es ist das Ende des Computers, wie wir ihn kennen. Forscher arbeiten an besseren, schnelleren, energiesparenden Prozessoren. Die Quanten- und Minimaschinen werden die Wirtschaftswelt erneut revolutionieren - und Unternehmern die Hoheit über ihr wertvollstes Gut zurückgeben.

In einem Industriepark im Aachener Stadtteil Rothe Erde, in einer weitläufigen Fabrikhalle voll mit Autoteilen und Werkzeugen, scheint ein unsichtbarer Regisseur am Werk zu sein: Transportroboter fahren wie von Geisterhand gesteuert von einer Station zur nächsten. Bildschirme zeigen den Arbeitern mit Worten und Bildern, was als Nächstes zu tun ist. Gabelstapler bringen Teile aus dem Lager nach, genau dann, wenn sie zum Einbau benötigt werden.

Mitten in dem perfekt abgestimmten Spiel von Menschen und Maschinen steht Günther Schuh, Gründer des Elektroautoherstellers Ego Mobile, und zeigt auf die Produktionsstraße: „Wir bauen hier nicht nur das Auto der Zukunft“, sagt er, „wir erproben auch die Computer der Zukunft.“

Die Computer, die unsichtbaren Regisseure der Fabrik, stehen nicht weit von der Produktionsstraße. Bald schon soll es solche Rechner millionenfach auf der Welt geben und das sogenannte Edge Computing ermöglichen. Anders als die Server in zentralen Rechenzentren, die oft Hunderte Kilometer weit weg von ihren Nutzern stehen und Video-Streaming und andere Internetdienste per Cloud Computing möglich machen, wandern sie an den Rand des Netzwerks (englisch: Edge). So rücken sie ihrem Einsatzzweck ganz nahe.

Regisseur in der Fabrik

Automanager Schuh greift sich von eine m Tisch einen Drehmomentschlüssel. Mit dem Werkzeug ziehen die Arbeiter die Schrauben an den Rädern fest. Das Besondere: Am Ende des Schlüssels steckt eine Funkantenne für den 5G-Mobilfunk. Über 5G-Antennen an der Hallendecke ist jeder Drehmomentschlüssel mit dem Rechner im Nebenraum verbunden. Der weist ihm genau das Drehmoment zu, das für die nächste Schraube nötig ist. Nach getaner Arbeit schickt das Werkzeug ein Funksignal zurück, der Rechner registriert die korrekte Montage. Auch Funksensoren, die Teile im Lager registrieren, und Kameras, die Fotos zur Qualitätsprüfung aufnehmen, sind mit dem Rechner verbunden. Vom Gerät zum Computer und zurück brauchen die Daten im besten Fall nur eine Millisekunde - sind also 100-mal schneller als ein Wimpernschlag. „Wir können Fehler in der Produktion dadurch auf ein Minimum reduzieren“, sagt Schuh.

Ego Mobile hebt die Fertigung auf eine neue Ebene: Vernetzte Maschinen und Werkzeuge tun exakt das, was von ihnen verlangt wird. Und sie halten fest, was sie getan haben. Jeder Arbeitsschritt wird dokumentiert, jedes Auto erhält eine Akte, jedem Bauteil entspricht ein Datenpaket. Und weil es keine Fließbänder mehr gibt in dieser Fabrik, sondern nur noch vernetzte Roboter und Rollcontainer, können Schuh und sein Team auch den Produktionsablauf rasch ändern - ein „Zuruf“ genügt dem Kollegen Computer.

Die Aachener Fabrik zeigt: Schnellere, leistungsfähigere Rechner ändern einmal mehr die Art und Weise, wie wir leben und arbeiten. Sie weisen uns den besten Weg durch den Stadtverkehr. Sie übernehmen medizinische Diagnosen. Sie simulieren Arbeitsumgebungen, in denen sich Mitarbeiter leicht zurechtfinden. Oder sie helfen bei der Erforschung neuer Werkstoffe. Und weil es schier unendlich viele Einsatzmöglichkeiten für sie gibt, gleicht kein Supercomputer mehr dem anderen: Je vielfältiger die Einsatzmöglichkeiten, desto deutlicher zeigt sich: Es gibt nicht mehr den einen Supercomputer, sondern eine Vielzahl von technologischen Errungenschaften, die mal für das eine, mal das andere Szenario gewappnet sind.

Es ist eine eindrucksvolle Entwicklung, die in den Fünfziger- und Sechzigerjahren des vergangenen Jahrhunderts mit riesigen monolithischen Großrechnern begann, über die PC-Ära der Achtziger- und Neunzigerjahre führte, als Rechner alle Unternehmen und auch die Haushalte eroberten, bis hin zur Ära, in dem die Computer als Smartphones in jede Hosentasche passten. Die Zukunft wird sogar noch spektakulärer. Denn neben die etablierten Rechner treten ganz neue Konzepte - mit neuen Fähigkeiten und ganz neuen Einsatzorten. Weltweit tüfteln Forscher an besseren, schnelleren und energiesparenden Formen des Rechnens.

Stromhunger der IT verdoppelt sich

Der Grund für die Wissensoffensive: Herkömmliche Computer stoßen an die Grenzen der Physik. Sie benötigen kurze Wege, um nahezu in Echtzeit reagieren zu können. Hinzu kommt, dass mit dem Datenverkehr auch die Kapazität der Rechenzentren wächst - und deren Energieverbrauch. Die französische Denkfabrik The Shift Project hat 170 internationale Studien über den Strombedarf von Informations- und Kommunikationstechnologien ausgewertet. Das Ergebnis: Der Energieverbrauch aller digitalen Technologien steigt um neun Prozent pro Jahr. Ihr Anteil am weltweiten Energieverbrauch soll sich von 2017 bis 2025 auf 5,2 Prozent fast verdoppeln.

Wäre das Internet ein Land, rangierte es im globalen Vergleich heute schon unter den zehn Staaten mit dem größten Stromverbrauch - auf dem Niveau von Japan. In vielen Rechenzentren liegen die Kosten für den Strom längst über denen des Kaufs der Maschinen. Es braucht daher dringend alternative Konzepte für das Design und den Betrieb von IT-Systemen. Der Ideen und Prototypen gibt es viele: verteilte Rechenkapazitäten und Quantencomputer, die Weiterentwicklung analoger Rechner - und Mikrochips, die das menschliche Hirn imitieren.

Besonders weit fortgeschritten sind die Entwickler beim dezentralen Edge Computing. In der Fabrikhalle in Aachen ist das schon Alltag. In Zukunft wird es auch autonomes Fahren und den Einstieg in die Telemedizin ermöglichen - etwa über die neuen 5G-Netze. Bisher laufen Mobilfunkdaten vom Smartphone zur Mobilfunkantenne, von dort durch das Handynetz bis zu einem entfernt stehenden Rechner - und wieder zurück aufs Smartphone. Das kostet Zeit und verhindert viele Echtzeitanwendungen. Mit dem Mobilfunkstandard 5G ist rechnerisch eine Latenzzeit von weniger als fünf Millisekunden möglich für den Hin- und Rückweg eines Signals im Netz inklusive Verarbeitung am Rechner. „Aber nur bei optimalen Bedingungen“, sagt Michael Bösinger, Chef für technische Innovationsentwicklungen bei Vodafone.

Auch er setzt daher auf die Datenverarbeitung in dezentralen Computern - auf kleine graue Rechner-Racks, die sich in einem Schalthäuschen direkt neben dem Mobilfunkmast befinden. „Damit funktioniert der digitale Schutzschild für Fußgänger heute schon“, sagt Bösinger. Er steht am Rand einer Automobilteststrecke im Rheinland. Dort haben Vodafone-Techniker Anfang 2019 nachgewiesen, dass ein Kommunikationsmodul rechtzeitig warnt, wenn sich der Weg eines Fußgängers mit dem eines Autos kreuzt: dank der Auswertung der Daten in Echtzeit.

Mit der Verarbeitung der Daten vor Ort ist noch ein Versprechen verbunden: Die Unternehmen können die Hoheit über ihre Produktionsdaten behalten - und laufen nicht länger Gefahr, dass ein amerikanischer oder chinesischer Dienstleister, auf dessen Server sie bislang analysiert werden, diese abgreift und seinerseits zu Geld macht. Karl-Ulrich Köhler und Sebastian Ritz im hessischen Herborn arbeiten daran. Auf dem Stützelberg, unweit vom Bahnhof, stellt Rittal den größten Teil der silber-grauen Schaltschränke für Rechenzentren her, über die Amazon, Microsoft und Google den weltweiten Datenverkehr steuern und kontrollieren. Das Geschäft hat dem Familienbetrieb in den vergangenen Jahren den größten Teil des Umsatzwachstums beschert. Aber jetzt wollen die beiden Geschäftsführer neue Umsätze erobern: mit mobilen Rechnern, kaum größer als eine Minibar im Hotel und damit so flexibel einsetzbar, dass sie direkt an die Produktionsanlagen geschoben werden können, wo all die sensiblen Daten anfallen. Die Entwickler haben sogar Räder unter die Minicontainer geschraubt.

Von März an sollen täglich bis zu 9000 dieser kleinen Rechenzentren im benachbarten Haiger vom Band laufen: „Oncite“, so der sprechende Name, eine Hightechinnovation aus der deutschen Fachwerkstadt - und ein wichtiger Baustein der europäischen Dateninfrastruktur Gaia-X, mit der Bundeswirtschaftsminister Peter Altmaier Europa aus der Abhängigkeit der Digitalsupermächte USA und China befreien will.

Ursprünglich verfolgte Rittal den Plan, die in Frankfurt konzentrierten deutschen Rechenzentren durch kleinere Ableger in allen Bundesländern zu ersetzen. 18 Standorte, so Köhlers Berechnungen, reichten aus, damit überall in Deutschland Daten mit einer Verzögerung von höchstens einer Millisekunde verarbeitet werden können. Doch das kam bei den Kunden nicht gut an. Köhler setzt deshalb auf „Lösungen direkt im Werk“, die auch mit bisherigen Cloud-Angeboten kombiniert werden. Erste Tests im Rittal-Werk laufen bereits: 200 Überwachungskameras an neuralgischen Punkten überwachen und analysieren in Echtzeit den Produktionsfluss.

Exponentieller Leistungsanstieg

Ein großer Stahlbehälter, glänzend weiß lackiert, schwebt gut einen Meter über dem Boden des Laborraums L 119 im IBM-Forschungszentrum Rüschlikon nahe Zürich. Dicke Bündel bunter Kunststoffleitungen verbinden die Konstruktion mit dem deckenhohen Rechnerschrank daneben. Das silberne Schild an der Labortür verrät, was hier im Tiefparterre erprobt wird: „Quantum Technology“.

Die Fachleute des US-Konzerns arbeiten an der Realisierung einer Idee von Richard Feynman: Dem amerikanischen Physiker schwebte bereits in den Achtzigerjahren eine neue Art von Computer vor, der Daten nicht mehr in langen Abfolgen von Nullen und Einsen verarbeiten, sondern die Grundlagen der Quantenphysik nutzen würde, um mehrere mögliche Rechenwege zugleich zu lösen. Damit, so Feynmans Hoffnung, ließen sich auch komplexe Aufgaben knacken, an denen herkömmliche Computer scheitern.

Der Clou des Quantencomputers sind seine Rechenkerne, die sogenannten Qubits: Weil sich die Rechenkraft der Maschine mit jedem Qubit verdoppelt, steigt ihre Leistungsfähigkeit exponentiell an - im Gegensatz zu herkömmlichen Rechnern, deren Rechenpower nur linear wächst. In den Laboren von IBM oder Google arbeiten bereits erste Testrechner mit 50 bis 80 Qubits. Auch Amazon hat angekündigt, ausgewählten Kunden die Möglichkeit anzubieten, Algorithmen auf Quantencomputern zu testen.

Die immense Rechenleistung solcher Maschinen, hoffen die Forscher, soll bald schon bislang undenkbare Simulationen in der Materialforschung durchrechnen, aber auch in der Pharmaentwicklung, bei Klimamodellen oder der Gehirnforschung. Stefan Filipp ist einer von diesen Forschern. In schwarzem T-Shirt, leicht fransigen Schlagjeans und breitgetretenen Halbschuhen steht der Enddreißiger an einem Herbstnachmittag in Laborraum L 119 in Rüschlikon und deutet auf den Quantencomputer: „Im Grunde ähnelt, was man von außen sieht, einer überdimensionalen Isolierkanne, nur ist die viel größer und innen viel, viel kälter.“ Im Inneren steckt ein außergewöhnlicher Mikroprozessor, in dessen Zentrum die Qubits sitzen.

Dass die Maschinen tatsächlich komplexe Rechenaufgaben lösen können, haben Forscher wie Filipp bei IBM oder der deutsche Chef von Googles Quantum-AI-Team, Hartmut Neven, längst bewiesen. Nevens Truppe etwa sorgte im vergangenen Herbst mit einer Berechnung für Aufsehen, die Googles Quantenprozessor Sycamore binnen weniger Sekunden ausführte. „Selbst die stärksten traditionellen Supercomputer hätten Zehntausende Jahre benötigt“, erzählt Neven. In seiner Stimme klingt Stolz mit. Zwar gibt es keine praktische Anwendung für den Algorithmus, den Google auf seinem Zukunftsrechner hat ablaufen lassen. Doch Neven zieht einen Vergleich aus der Raumfahrt, um den geringen praktischen Nutzen mit der immensen Relevanz zu verbinden, die Quantencomputer künftig bekommen können: „Es ist wie beim Start des Sputnik-Satelliten.“ Auch Sputnik habe nicht viel mehr getan, als für eine Weile um die Erde zu kreisen und zu piepsen. „Doch es war der Einstieg ins Raumfahrtzeitalter, das den Menschen auf den Mond gebracht hat.“

Das Geschäft mit Quantencomputern, vor allem mit darauf ausgeführten Kalkulationen und Simulationen, soll von heute 93 Millionen Dollar in den kommenden fünf Jahren auf 283 Millionen wachsen, prognostizieren die Analysten des Beratungshauses MarketsAndMarkets. Das ist noch nicht viel. Aber das ist ein erster Schritt.

Am absoluten Nullpunkt

Noch ringen Entwickler mit der Tücke des Objekts: Die Elektronen, die in den Qubits die Algorithmen abarbeiten, sind Sensibelchen. Schon die leichteste Störung bringt die physikalischen Effekte aus dem Takt. Also betreiben die Konzerne viel Aufwand, um Quantenprozessoren von der Umwelt abzukapseln. In Rüschlikon umhüllt die weiße Tonne - eineinhalb Meter hoch, 50 Zentimeter Durchmesser - einen Mikrochip, der so groß ist wie ein halber Fingernagel. Und dort findet er perfekte Arbeitsbedingungen vor: Kälte rund um minus 273 Grad Celsius, nahe dem absoluten Nullpunkt.

Trotz des großen Aufwands gelingt es bisher weder IBM noch Google, ihre Quantenrechner für mehr als ein paar Bruchteile von Millisekunden zuverlässig rechnen zu lassen. Dann werden die Elektronen instabil, und die Qubits liefern fehlerhafte Ergebnisse. Jetzt kommt es darauf an, „einerseits Algorithmen zu finden, die die stabile Phase möglichst effizient nutzen“, sagt Filipp, „und andererseits Rechner zu konstruieren, die länger stabil laufen“. Und - wann ist es so weit? Filipp zuckt mit den Schultern. Ein paar Jahre wird's wohl noch dauern.

Florian Neukart, Forschungsleiter für Quantencomputing beim Automobilkonzern VW, nutzt mit seinem Team trotzdem schon jetzt die Rechenleistung der künftigen Supercomputer. An seinem Stehpult in einem schicken Loft in San Francisco, Dackel Angström zu seinen Füßen, feilt er unter anderem an Algorithmen, mit deren Hilfe sich die Bestandteile künftiger Batteriegenerationen für E-Autos simulieren lassen. Wie Moleküle in den Energiespeichern zusammenwirken, erläutert Neukart, das sei enorm komplex, „dafür sind Quantencomputer prädestiniert, weil sie vielfältige, miteinander verbundene Faktoren in eine Berechnung einfließen lassen können“.

Derzeit sei die Entwicklung neuer Akkus ein hochgradig manueller Prozess, erzählt Neukart. In ein paar Jahren aber, glaubt er, könnten die Quantenmaschinen so stabil laufen, dass sich das chemische Zusammenspiel aller Batteriekomponenten simulieren ließe, ohne dass es dafür noch annähernd so viele Testbatterien brauche wie heute. Einstweilen simuliert der Physiker Moleküle einzelner Werkstoffe auf Rechnern mehrerer Hersteller. „Die mathematischen Modelle, die wir heute finden und zu Algorithmen weiterentwickeln“, sagt Neukart, „können wir nutzen, wenn universelle Quantencomputer dann einmal einsatzbereit sind.“ Für einige dieser Algorithmen hat sich VW die Patente gesichert.

Requisite aus den Sechzigern

Doch selbst wenn die Quantenrechner effizienter arbeiten als herkömmliche Computer: Die Kühlung der Qubits treibt den Strombedarf. Um den Energiehunger der IT in den Griff zu bekommen, verfolgen Forscher daher auch andere Designkonzepte für Computer: Strategien, die nicht in die Zukunft, sondern zunächst einmal in die Vergangenheit weisen.

Zum Beispiel in Hettenhain, eine halbe Stunde nördlich von Wiesbaden. Hier tüftelt Informatiker Bernd Ulmann an der Wiederbelebung von analogen Computern. Sein Einfamilienhaus ist sein Forschungslabor: Die ersten analogen Rechner stehen direkt am Eingang, mannshohe Metallkästen rechts und links im Flur, aus denen Dutzende bunte Kabel heraushängen, manche mit kleinen Displays und Reglern übersät. Mehr als 70 solcher Analogrechner nennt Ulmann sein Eigen. Und was auf den ersten Blick aussieht wie das private Computermuseum eines Mannes mit zurückgezopften Haaren und Kinnbart, ist womöglich der Genius Loci für die Lösung des Energieproblems: Ulmann verkleinert die Uralttechnologie auf die Größes eines Chips.

Analoge Rechner verfügen gegenüber digitalen Computern über einen entscheidenden Vorteil: Sie fressen deutlich weniger Strom, weil sie kein Programm benötigen und keinen Speicher. „Ein analoger Rechner ist im Prinzip ein mathematischer Legobaukasten für Schaltungen“, erklärt Mathematiker Ulmann - und deutet auf einen Telefunken RA770 in seinem Wohnzimmer. Mit dem Oszilloskop in der Mitte, den zahlreichen Knöpfen und Reglern sowie der riesigen Steckplatine erinnert das Gerät an eine Requisite der Science-Fiction-Serie „Raumschiff Orion“ aus den Sechzigerjahren.

Ulmann hat auf dem Rechner einen Simulator für die Fahrgestellentwicklung programmiert, das heißt: Dutzende Kabel in Rot und Blau kreuz und quer über das Patchboard auf der Front gesteckt. Auf dem Oszilloskop humpelt grünlich schimmernd ein stilisiertes Auto über einen Untergrund, der sich bewegt. Je stärker Ulmann den Boden schwingen lässt, indem er an einem Regler am Rechner dreht, desto stärker hüpft das Auto. Bei solchen Problemen, die sich mit mathematischen Gleichungen beschreiben lassen, können analoge Rechner ihre Stärke gegenüber digitalen Computern ausspielen, weiß Ulmann: Er will sie deshalb bei aufwendigen Berechnungen einsetzen - als Ergänzung zu digitalen Rechnern, nicht als deren Ersatz.

Ulmann arbeitet mit drei befreundeten Forschern daran, den Analogrechner auf einen kleinen Chip zu bringen. Dann müssten Programmierer nicht mehr aufwendig, wie beim Telefunken-Rechner, zahlreiche Kabel stecken. Stattdessen ließen sich die einzelnen Module des Analogchips per Software zusammenschalten. Dank der Verkleinerung würde der Stromverbrauch weiter sinken - und die Energiebilanz von Rechenoperationen verbessern.

Auf der Suche nach stromsparenderen Chips haben sich die Entwickler noch ein weiteres analoges Vorbild genommen: das menschliche Hirn. Es leistet noch immer mehr als jeder Computer. „Vor allem aber arbeitet es mit gerade mal rund 20 Watt unfassbar energieeffizient“, sagt Evangelos Eleftheriou. Er ist einer der hochrangigen Technologieexperten bei IBM und forscht wie der Quantenphysiker Filipp in Rüschlikon - allerdings daran, „die Abläufe im Gehirn im Computerbau zu imitieren: mit Chips, die lernfähig sind und ihr Wissen speichern können“. Neuromorphe Computer heißen diese neuen Rechner.

Computerbau nach dem Vorbild des Gehirns - diese Idee elektrisiert nicht nur die Forscher bei IBM. Auch Konzerne wie HP, Qualcomm oder Samsung investieren in diesen Bereich. Der Chiphersteller Intel hat kürzlich einen Spezialprozessor namens Loihi vorgestellt. Als erste Forschungspartner haben unter anderem Accenture, Airbus, GE und Hitachi vergangenen Herbst angekündigt, mit Intel die Einsatzmöglichkeiten für den neuen Chip auszuloten. Sie wollen unter anderem den Schutz gegen Cyberattacken verbessern, an neuen Werkstoffen forschen und Systeme für die automatische Bildanalyse entwickeln.

Loihi ahmt das Lernverhalten des Menschen nach und reagiert auf Reize, verspricht Richard Uhlig, Chef der Intel Labs. Möglich wird das durch neuartige Werkstoffe und Bauteile in den Prozessoren. Sie arbeiten wie künstliche Nervenzellen. Und wie biologische Neuronen und Synapsen im Gehirn können sie nicht bloß Informationen, sondern auch die Zusammenhänge dazwischen erfassen und speichern. Je häufiger digitale Gehirnzellen bestimmte Muster in Datensätzen verarbeiten, desto nachhaltiger bleibt die Information in den Neurochips gespeichert.

Dazu kommt, dass die neuen Werkstoffe in den neuromorphen Chips - anders als in den Prozessoren herkömmlicher Rechner - ihr Wissen nicht verlieren, wenn die Maschine abgeschaltet wird. Ein auf Mustererkennung trainierter Chip müsste nach dem Neustart des Rechners nicht erst wieder eine geeignete Software laden, um Gesichter oder Gegenstände in Fotos zu finden, sondern wäre sofort einsatzbereit. Auch hier gilt: Die Chips sammeln mehr Verständnis für Zusammenhänge an, je länger sie eine Aufgabe bearbeiten. Sie identifizieren etwa Augenpartien, Münder oder Nasen in Bildern zunehmend schnell und zuverlässig. Sie spezialisieren sich dabei aber auch immer mehr auf ihre jeweilige Aufgabe - mit der Folge, dass ein auf Gesichtserkennung trainierter Neurochip anschließend kaum noch damit klarkommt, Texte zu analysieren oder Verkehrsströme zu optimieren.

Neben der Bilderkennung könnten die neuen Elektronenhirne ihre Stärken unter anderem auch in Sprachassistenten ausspielen, indem sie verborgene Muster erkennen, hoffen die Forscher. Oder sie könnten in Messwerten wie der Herzfrequenz selbstständig und für jeden Patienten individuell Anomalien erkennen - und bei Abweichungen Alarm schlagen.

In drei bis fünf Jahren könnten neuromorphe Chips, so hofft IBM-Experte Eleftheriou, nicht bloß einzelne Mustererkennungsaufgaben meistern, sondern auch komplexe neuronale Netze selbstständig trainieren. Die braucht es etwa zur Betrugserkennung im Onlinehandel oder der Umgebungsanalyse beim autonomen Fahren. Bislang arbeiten an derart komplexen Systemen auch menschliche Entwickler. Die Marktforscher von i-Micronews prognostizieren, dass der weltweite Umsatz mit neuromorphen Systemen von knapp 70 Millionen Dollar im Jahr 2024 in den folgenden zehn Jahren auf 21 Milliarden Dollar wächst - sofern die Forscher ihre ambitionierten Ziele erreichen.

Denn noch reichen selbst die leistungsfähigsten neuronalen Supercomputer an die faszinierende Leistung ihres biologischen Vorbilds bei Weitem nicht heran. Die Rechner Brainscale S aus Heidelberg und Spinnaker aus Manchester etwa, die zu den schnellsten weltweit gehören, sind zwar in der Lage, Simulationen teils vieltausendfach schneller zu rechnen als herkömmlich arbeitende Computer. Spinnaker nutzt dafür immerhin rund 480 Millionen digitale Neuronen. Doch gemessen am Hirn, ist das noch immer ein Klacks: Die Schaltzentrale des Menschen arbeitet mit fast 90 Milliarden Neuronen.

Co-Autoren: Matthias Hohensee, Michael Kroker, Thomas Kuhn, Andreas Menn

Dieser Artikel auf der Website der Wirtschaftswoche