KI Illustration
KI-Illustration / picture alliance / CHROMORANGE | Christian Ohde

Technologisches Brachland EU - Die Maschinen der Anderen

Allein 2024 flossen in den USA rund 97 Milliarden Dollar in KI-Start-ups. Bei Drohnen und Datenbrillen kann Europa aufholen. Doch wenn es um wirkliche Superintelligenz geht, sind wir schlicht nicht im Spiel – mit fatalen Folgen für unsere Verteidigungsfähigkeit.

Autoreninfo

Florian Friedman ist freier Autor und Redakteur. Für zahlreiche Zeitschriften und Zeitungen schreibt er über gesellschaftliche Themen, Kunst, Technologie und Musik. www.florianfriedman.com

So erreichen Sie Florian Friedman:

„Es gibt nur zwei Kräfte auf der Welt, das Schwert und den Geist“, soll Napoleon Bonaparte 1808 in einer Unterhaltung mit Louis de Fontanes gesagt haben. „Auf Dauer wird das Schwert immer vom Geist besiegt.“ Einiges deutet darauf hin, dass der Mensch nun erstmals an einer Schwelle steht, an der allein der Geist entscheidet. Historischer Plot-Twist: Im 19. Jahrhundert hätte wohl niemand geahnt, dass dieser Geist einmal so wenig menschlich sein könnte wie das Schwert. In Europa dämmert das den meisten, man muss ehrlich sein, noch nicht.

Viele sprechen gerade von europäischer Selbstverteidigung, kaum einer von der Waffe, die wir dafür bräuchten: Schon in wenigen Jahren könnten allein künstliche Superintelligenzen über Sieg oder Niederlage entscheiden. Die EU besitzt hier kein realistisches Potenzial. Daran ändern auch die markigen Worte vieler Europäer nichts, die weiter in den Begriffen Napoleons denken.

AGI am Horizont

Künstliche Intelligenz ist nicht gleich künstliche Intelligenz. Wer glaubt, es lasse sich militärisch unter Weltmächten noch mithalten, ohne auf echte Durchbrüche in der KI zu setzen, könnte sein Glück auch mit halben Passwörtern versuchen. Die kognitiven Machtverhältnisse, die uns drohen, sind leider kategorial, nicht graduell.

Europa verfügt zwar über einschlägige Forschungsprogramme und gute spezialisierte KI (Narrow AI). Außerdem existiert ein breites Bewusstsein dafür, dass den europäischen Streitkräften wesentliche Kapazitäten fehlen. Erst im März forderten namhafte Vertreter aus Wirtschaft und Wissenschaft in dem Positionspapier „Abhängigkeit oder Selbstbehauptung“ eine Erhöhung der Verteidigungsausgaben auf bis zu 3,5 Prozent des Bruttoinlandsprodukts und gezielte Investitionen in KI. Der Appell fand Beachtung – und blieb kurzsichtig.

Durchaus typisch für den europäischen Zeitgeist ignoriert das Papier, was die neue Dynamik der KI von anderen Technologiewellen unterscheidet: In den USA und China wird auf eine Artificial General Intelligence (AGI) hingearbeitet. Eine Form von KI also, die nicht bloß Bilder erkennt oder Drohnen steuert, sondern übergreifend denkt, lernt und Probleme löst. Sie würde jedes spezialisierte System in den Schatten stellen. Diese technologische Aussicht ist der eigentliche Motor des KI-Booms. Nur eine AGI könnte die Grundlage für ein System bilden, das dem menschlichen Verstand weit überlegen ist – eine Superintelligenz. In der EU gibt es kein Projekt, das als Ausgangspunkt für eine derartige KI infrage käme.

Martialischer Ton

Diese Leerstelle in den strategischen Überlegungen beunruhigt, wenn man bedenkt, dass auch moderne Schachprogramme zwar als KI gelten, diese aber nicht einmal die Regeln erklären könnten, nach denen sie spielen. Es fehlt ihnen jene Universalität, die den menschlichen Geist auszeichnet. Genau diese Fähigkeit zum allgemeinen Denken rückt jetzt in Reichweite – sie ist der treibende Grund, warum Länder wie die USA und China Hunderte Milliarden in KI investieren.

Am neugefundenen Selbstbewusstsein vieler Europäer ändert ihr Mangel an Voraussicht nichts. Welt-Kolumnist Hans-Ulrich Jörges etwa möchte Trump aus der Nato werfen und verlangte: „Wir müssen uns aufbauen für den Kampf gegen die USA.“ Die FDP-Verteidigungspolitikerin Marie-Agnes Strack-Zimmermann sang ein ähnliches Lied, als sie den jüngsten US-Plan für ein Ukraine-Abkommen kommentierte: „Nein, die Amerikaner sind weder unsere Freunde noch unsere Verbündeten in Zukunft.“ Einen so martialischen Ton gegenüber Amerika kann man im Grunde nur anschlagen, wenn man wenig darüber weiß, welcher verteidigungstechnische Graben sich zwischen der EU und den USA auftut.

Kognitive Neuordnung

Eine AGI wäre in der Lage, ihren eigenen Code zu verstehen und zu optimieren. Es entstünde eine Rückkopplung: Mehr Intelligenz führt zu schnellerer Selbstverbesserung. Dieser Prozess könnte sich exponentiell beschleunigen. Die Tragweite so einer Intelligenzexplosion ist enorm – zwischen einer Maschine, die auf unserem Niveau denkt, und einer, die uns weit übertrifft, dürfte nur wenig Zeit liegen.

Mustafa Suleyman, CEO von Microsoft AI, spricht bereits von einer „neuen digitalen Spezies“. Der KI-Forscher Eliezer Yudkowsky sieht in der Entwicklung einer sich selbst verbessernden allgemeinen Intelligenz sogar ein singuläres Ereignis, vergleichbar allenfalls mit der Entstehung des Lebens. Eine Superintelligenz wäre, folgt man solchen Stimmen, keine bloße Fortschreibung digitaler Werkzeuge, sondern ein Bruch in der Ordnung des Denkens.

Sicherheitspolitisch würde diese Zäsur für Europa bedeuten: Selbst mit Atomwaffen stünden wir beim Angriff einer Superintelligenz so hilflos da wie ein Schimpanse vor einer Steuererklärung. Einige unserer Generäle wissen das vielleicht. Dass unsere Politiker jedoch kein Wort dazu verlieren, zeigt, wie performativ ihre Beteuerungen zur Verteidigung sind. Bedauerlicherweise geht das Stück, das sie aufführen, uns alle an.

Tugend vor Technik

KI lässt sich militärisch bereits für Datenauswertung und Entscheidungsunterstützung nutzen und könnte langfristig Drohnenschwärme hervorbringen, die eigenständig ganze Städte einnehmen. Bei Drohnen und Datenbrillen kann Europa aufholen. Doch wenn es um wirkliche Superintelligenz geht, sind wir schlicht nicht im Spiel. Nicht technologisch, nicht politisch, nicht geistig.

Die Entwicklung großskaliger Large Language Models (LLMs) wie GPT-4, Claude 3 oder ERNIE 4 findet ausschließlich in den USA und China statt. Hochleistungssysteme zur Sprachverarbeitung dieser Art sind die aussichtsreichsten Vorstufen einer AGI. Israel, Großbritannien und Südkorea haben, gemessen an Forschung und Implementierung von Hightech, zumindest mittelfristig eine Perspektive. Die EU ist im Vergleich technologisches Brachland.

Ein Blick ins Silicon Valley zeigt, wie ernst andere Regionen die Entwicklung nehmen: Y Combinator, der einflussreichste Start-up-Accelerator für Technologie-Unternehmen, hat in seiner Winterrunde 2025 vornehmlich auf KI gesetzt. Laut Geschäftsführer Garry Tan entwickeln rund 81 Prozent der geförderten Start-ups Anwendungen in diesem Bereich. Etwa ein Viertel nutzt dabei sogenanntes „Vibe Coding“, eine Methode, bei der bis zu 95 Prozent des Programmcodes von LLMs erzeugt werden.

2024 flossen in den USA rund 97 Milliarden US-Dollar in KI-Start-ups, fast die Hälfte des gesamten Risikokapitals des Landes. In ganz Europa waren es nur etwa 8 Milliarden. Es fehlt zum einen an Infrastruktur, vor allem an großen GPU-Clustern, also spezialisierten KI-Rechenzentren, die mit denen in den USA oder China konkurrieren könnten. Zum anderen wird am Thema vorbeigedacht: Die Diskussion dreht sich oft um Energie-Einsparung statt -Expansion. Ideologisch auf Linie, zieht man die Tugend der Technik vor.

Zwar kündigte die EU den Bau mehrerer „KI-Gigafactories“ mit je rund 100.000 Hochleistungschips an. Doch selbst wenn diese bis 2026 wie geplant fertiggestellt sind, entspräche ihre Rechenleistung gerade einmal dem, was US-Konzerne schon heute einsetzen. Diese vervielfachen ihre Infrastruktur derweil massiv. Führende europäische LLMs wie Mistral AI werden daher im Vergleich zu globalen Spitzenmodellen aller Voraussicht nach abgeschlagen bleiben.

Viel Behörde, wenig Business

Die EU erschwert, es ist kein Geheimnis, Innovation durch überbordende Regulierung und risikoscheues Denken. Deutschland zeigt sich in beiden Disziplinen besonders konsequent. Zur Behördenlogik kommt, dass unsere Universitäten nicht annähernd das Renommee von Stanford, MIT oder Carnegie Mellon genießen. Die größten deutschen KI-Talente zieht es spätestens nach dem Studium, oft früher, ins Ausland – Sebastian Thrun, Jan Leike und Leopold Aschenbrenner sind prominente Beispiele.

Natürlich wäre Schwarzweißmalerei zu einfach. Die Max-Planck-Institute oder Hochschulen wie die ETH Zürich mischen in der Forschung mit, und DeepMind in London zählt zu den innovativsten KI-Laboren weltweit. Insgesamt befindet sich Europa – namentlich die EU-Staaten – aber nicht auf Augenhöhe mit den USA.

Deutsche Start-ups wie Aleph Alpha, lange als europäische Antwort auf OpenAI gehandelt, machen das Gefälle sichtbar. Sie stehen für ein System, das Innovation gern inszeniert, aber selten liefert. Im Sommer 2024 berichteten mehrere Medien, dass von einer zunächst gefeierten 500-Millionen-Dollar-Finanzierung für Aleph Alpha nur ein Bruchteil als echte Eigenkapitalinvestition floss. Mittlerweile hat das Unternehmen die Entwicklung eines eigenen LLMs eingestellt und konzentriert sich auf Beratungsleistungen.

Nörgler auf den Rängen

Unser Rückstand betrifft nicht nur Forschung und Wirtschaft. Welche deutschen Intellektuellen haben je von der Online-Plattform „LessWrong“ gehört, einem maßgeblichen Forum für AI-Alignment? Im Kern geht es hier darum, Ethik als Teilgebiet der Informatik zu formalisieren. Oder wie der KI-Entwickler Ilya Sutskever fragte: „Was ist die mathematische Definition dafür, dass eine KI die Menschheit liebt?“

Sind wir ehrlich: Bis auf einige Außenseiter interessiert es in Deutschland kaum jemanden, dass die Welt der Algorithmen längst auch eine geisteswissenschaftliche Disziplin ist. In den USA schrieb der Ökonom Tyler Cowen dagegen vor kurzem: „Und natürlich sind die größten Philosophen unserer Zeit jene Menschen, die LLMs auf höchstem Niveau entwickeln und lernen, mit ihnen umzugehen.“ Man hört das deutsche Feuilleton nach Luft schnappen.

Immerhin, als ChatGPT Bilder im Stil des japanischen Zeichentrickfilmstudios Ghibli generieren konnte, erklärte der „Spiegel“ seinen Lesern, „was daran problematisch ist“. So wenig zuständig für das geistige Zeitgeschehen fühlt sich sonst nur der Beamte hinterm Schalter. Kein Wunder, dass Europa in dem Szenarienpapier „AI 2027“, das Anfang April in Tech-Kreisen ein breites Echo hervorrief, nur als Zuschauer auftritt. In dem narrativen Zukunftsentwurf von Daniel Kokotajlo, Scott Alexander et al. liefern sich die USA und China einen Wettlauf um die erste Superintelligenz, während Europa Konferenzen veranstaltet und nörgelt.

Geistige Lücken, militärische Folgen

Die harte Wahrheit lautet, dass wir in mancherlei Weise den Anschluss an internationale Debatten verloren haben. In Verteidigungsfragen ist dies fatal, weil Unwissenheit im Krieg noch weniger vor Konsequenzen schützt, als sie es in Gesetzesfragen tut. Wir sind deshalb – wenn nicht heute, dann morgen – auch sicherheitspolitisches Hinterland.

Im 21. Jahrhundert gilt: Wer schlechter rechnet, verliert. Ein digitaler Iron Dome muss uns womöglich in nicht allzu ferner Zukunft gegen Hunderttausende Computerviren verteidigen, von denen jeder einzelne Probleme löst, die selbst Isaac Newton nicht hätte durchdringen können. Spezialisierte KI kann dabei nur scheitern. Anderes hat Europa jedoch nicht zu bieten.

Es gab Zeiten, da genügte rohe Wucht, um ganze Reiche zu überrennen: Terror und Tempo trugen die Mongolen vom Pazifik bis an die Donau. Heute zählen andere Kräfte. Für Rechenzentren mit dem Energiehunger einer Großstadt sind Low-Tech-Armeen keine Gegner.

Kognitive Asymmetrie

Noch einmal: Superintelligenz wäre nicht bloß eine neue militärische Technik, keine Phalanx wie im alten Griechenland, kein Abfangjäger, der Lufthoheit garantiert. Intelligenz ist das mächtigste Mittel, das dem Menschen zur Verfügung steht. Wird sie als AGI ins Reich der Maschinen verlagert, verschiebt sich das gesamte geopolitische Machtgefüge. Wo ein Problem lösbar ist, darauf weist der britische Physiker David Deutsch zu Recht hin, kann ein Verstand es prinzipiell beseitigen.

 Ausbuchstabiert heißt das: In letzter Konsequenz ist Intelligenz in der Lage, alles möglich zu machen, was nicht gegen die Naturgesetze verstößt. Die Bandbreite dessen, was sie leisten kann, reicht vom Zurechtbeißen eines Asts, mit dem sich nach Insekten stochern lässt, bis zur Konstruktion einer Dyson-Sphäre, also einem Solarkraftwerk, das einen Stern komplett umschließt – und weiter. Einen Krieg gegen Menschen zu gewinnen, heißt, ein Problem zu lösen. Es gehört im Raum aller möglichen Probleme zu den leichteren Aufgaben.

Erinnern Sie sich daran, wie es Ihnen als Kind so erschien, als könnten Ihre Eltern jedes Problem lösen? Was die Erwachsenen da zauberten, lag jenseits Ihres Ereignishorizonts. Es schien sich, weil es unerklärlich blieb, der kausalen Welt zu entziehen. Aus der Perspektive des Kindes sind seine Eltern eine Superintelligenz. Wer die Ostereier versteckt hat, bleibt ihm ein Rätsel. Es ist seinen Eltern auf ganzer Linie ausgeliefert.

Krieg ohne Kriegserklärung

Von Arthur C. Clarke stammt das Zitat: „Jede hinreichend fortgeschrittene Technologie lässt sich von Magie nicht unterscheiden.“ Als Flugzeuge im Zweiten Weltkrieg erstmals auf abgelegenen Inseln der Südsee landeten, war das für die einheimischen Stämme ein derart existenzielles Ereignis, dass sie neue Religionen gründeten. Die seltsamen Himmelskörper konnten schließlich nur ein Werk der Geister und Ahnen sein. Arroganz wäre hier fehl am Platz: Auch Europa ist nicht davor gefeit, Fortschritt für Magie zu halten – oder Magie für Fortschritt.

Technologie ist das Ergebnis von Intelligenz. Sind sie uns hinreichend überlegen, bleiben Technologie wie Intelligenz zwar nicht per se unbegreiflich, aber intransparent, solange wir selbst keinen Fortschritt vollziehen. Diese Asymmetrie ist folgenschwer. In einem Krieg kann sie bedeuten: Die eigenen Soldaten fallen tot um, bevor man überhaupt weiß, dass man sich in einem Krieg befindet. Es gibt keine Alarmstufe Rot und keine Möglichkeit zur Gegenwehr.

Ein von Yudkowsky inspiriertes Szenario: KIs entwickeln anorganische Viren, die über Wochen eine Bevölkerung infizieren und dann geografisch begrenzt und minutengenau per innerem Timer zuschlagen – der Gegner ist eliminiert, die Infrastruktur intakt. Drohnenschwärme schalten schließlich verstreute Überlebende auf U-Booten, in Bunkern oder abgeschiedenen Wäldern aus. Diese Waffe träfe uns so ahnungslos wie eine Brandbombe um 1942 einen Bewohner von Vanuatu. Ihre Letalität speist sich aus überlegenem Denken.

Unbedarfte sterben schneller

Ob eine Form des Krieges, wie Yudkowsky sie skizziert, Realität wird, ist ungewiss, aber nicht mehr ausgeschlossen. Wem das alles dennoch zu sehr nach Science-Fiction klingt, der sollte eines wissen: Weil kognitive Asymmetrie auch zwischen einer Superintelligenz und jedem besteht, der sich solche Szenarien heute ausdenkt, bleiben die effizientesten Möglichkeiten der Kriegsführung für uns ohnehin im Dunkeln. Sie dürften noch fantastischer als bei Yudkowsky ausfallen.

Wo es wirklich bitter wird: Es ist wahrscheinlich, dass wir mit unserem Gegner zusammenarbeiten, wenn der seine Waffe auf uns richtet. Ein Schimpanse sitzt nicht nur ahnungslos vor jeder Steuererklärung; er greift auch zur Banane, auf der in einem Dutzend Sprachen „vergiftet“ steht. Ignoranz mag zu Friedenszeiten manche Vorzüge haben, im Krieg ist sie der Stoff, aus dem Verlierer gemacht sind. Um uns zu besiegen, muss eine KI übrigens kein Bewusstsein besitzen. Probleme lassen sich auch ohne Empfindungen lösen. Ein Taschenrechner spürt weder Hass noch Liebe, schlägt aber im Multiplizieren trotzdem jeden Menschen.

Jahrzehnt oder Jahrtausend?

Eine Superintelligenz bleibt spekulativ und, ja, sie ist Science-Fiction. Das waren Smartphones aber auch. Der Umstand, dass „Science-Fiction“ in Deutschland oft als Synonym für „Unfug“ genutzt wird, verdeutlicht vielleicht das Problem. Laut der amerikanischen Prognoseplattform Metaculus, auf der Experten und Laien Vorhersagen zu wissenschaftlichen und technologischen Entwicklungen abgeben, liegt der derzeitige Median für die Entstehung einer menschenähnlichen allgemeinen KI (AGI) bei Mai 2035.

Zukunftsprognosen sind heikel. Es mögen noch 100 oder 1.000 Jahre vergehen, bis wir eine Superintelligenz entwickelt haben. Fakt ist aber auch, dass zahlreiche Autoritäten in der KI-Forschung, etwa der Nobelpreisträger Geoffrey Hinton, den Zeitrahmen nicht auf ein Jahrtausend, sondern auf 5 bis 20 Jahre bemessen.

Eine KI-gestützte Zielerfassung für den künftigen Leopard-Kampfpanzer ist ein taktischer Zugewinn. Aber was nützt sie uns, wenn wir nicht einmal wüssten, wohin wir zielen sollen – selbst wenn man es uns erklärte. Nicht, weil der Gegner klüger ist, sondern weil wir weniger begreifen als das, was er programmiert hat. Und wie gehen wir damit um, wenn die Maschinen unseres Kontrahenten besser verhandeln als wir, wenn sie charmanter klingen und gekonnter lügen? Die Krux: Ist eine Maschine dem Menschen in allen kognitiven Bereichen überlegen, dann ist sie es auch in der Interaktion mit Menschen.

Wurfspeer und Wasserstoffbombe

Der Umbruch, den eine AGI auslösen könnte, hat aus all diesen Gründen weniger mit der Entwicklung der Dampfmaschine gemein als mit der Erfindung der Schrift. Zeichensysteme zur Repräsentation von Sprache entkoppelten das Wissen vom menschlichen Geist, weil sie es auf neue Weise speicherbar machten. Eine AGI würde den Geist vom Menschen entkoppeln.

Sicherheitspolitisch ist diese Verschiebung kaum zu überschätzen: Vor einer Superintelligenz verblassen sowohl der Mensch als auch eine herkömmliche KI wie der Wurfspeer vor der Wasserstoffbombe. Die Unterlegenheit ist umfassend und endgültig – wenn der Mensch beim Entwickeln neuer Schwerter nur noch Rauschen beiträgt, dann hat sein Geist militärisch ausgedient und die Maschine übernimmt.

Weil sich mit Geld vieles, aber nicht alles regeln lässt, wird kein Schuldenpaket der Welt so eine strukturelle Unterlegenheit wettmachen können. Das muss man nicht als Appell zur Superintelligenz-Aufrüstung interpretieren. AGI birgt bereits in ihrer bloßen Existenz, das betonen Experten wie Hinton, gewaltige Risiken. Aber es wäre strategisch achtlos, den einzigen unserer Verbündeten zu vergraulen, der fähig ist, eine solche Waffe zu entfesseln – oder uns vor ihr zu schützen. Ein Trost für alle, die ein transatlantisches Bündnis für Unterwerfung halten: Es gibt in der Welt Gegner, vor denen man sich tiefer verbeugen müsste.

Bei älteren Beiträgen wie diesem wird die Kommentarfunktion automatisch geschlossen. Wir bedanken uns für Ihr Verständnis.

Christoph Schnörr | Sa., 31. Mai 2025 - 20:28

... Artikel. Danke dem Autor und Cicero. Einerseits stellt der Autor eloquent den Missstand in der EU und speziell auch in Deutschland dar, was strategische Entscheidungen - nicht nur, wie hier angesprochen, die KI-Forschung - sondern auch viele andere Dinge betrifft. Andererseits vermisse ich, erstens, eine kurze Reflektion, ob diese inhärente Wettrüstungslogik (die anderen könnten ... also müssen wir erst recht) nicht unweigerlich zu verheerenden Kriegen führen wird und "stärker als der andere" im AGI Zeitalter deshalb noch ein sinnvolles Ziel ist sowie, zweitens, einen Hinweis, dass es auch außerhalb der EU ausgewiesene Wissenschaftler gibt, welche diese Entwicklung weniger kritisch sehen, vgl. etwa https://www.science.org/doi/10.1126/science.adn0117

Walter Bühler | So., 1. Juni 2025 - 09:25

... auch bei guten und sinnvollen Absichten.
Außerdem halte ich mehr von seriöser Wissenschaft und von ernsthafter hartnäckiger Arbeit als von lockerem Science-FICTION-Gerede, auch wenn es von einem Elon Musk vorgespielt wird.
---
Die wirklichen Probleme in Deutschland bestehen in der Herausbildung einer leistungsfeindlichen, hedonistischen Gesellschaft und in der ausgeprägten Technik- und Wissenschaftsfeindlichkeit, die dadurch zu Herrschaft gelangen konnte.

Dabei ist auch das Verhältnis zu Kindern und damit zur Zukunft zerrüttet worden.

All das sieht man klar an der faktischen Rolle, die Mathematik, Naturwissenschaften und Informatik heute an den Schulen spielen.
---
Mit der Dominanz sozial- und politikwissenschaftlicher "Wissenschaften" hat sich in unseren Eliten die Vorstellung von der "haltungsbestimmten" gegen die "realitätsbezogene" Wissenschaft festsetzen können.

Haltungsbestimmte Wissenschaften brauchen kein eigenes Nachdenken mehr und begünstigen die Denkfaulen.

Ernst-Günther Konrad | So., 1. Juni 2025 - 12:33

Wo soll denn künstliche Intelligenz herkommen? Richtig. Sie braucht natürliche menschliche Intelligenz, damit sie in KI umgewandelt mündet. Und wenn ich mir die Menschheit so anschaue, wie sie sich immer weiter ihrer eigenen menschlichen Intelligenz beraubt, bin ich überzeugt davon, dass sich KI in einigen Jahren von alleine erledigt. Ich sage nur: Wer die Hand am Stecker der Energie hat, wer in der Lage ist bewusst und gewollt auch einer KI den Saft abzudrehen, wird der letzte sein, der überlebt hat. Die Menschheit hat mehrere Hochkulturen erlebt und zugrunde gerichtet. Sie wird auch diese zerstören, solange sie sich nicht besinnt und sich den wahren Gründen des Menschseins entzieht. Und wer wissen will, was ich meine, den verweise ich auf die Bücher von AB-DRU-SHIN. Es ist alles geschrieben, es ist alles gesagt, man muss nur lesen, selber denken und sich auf den Weg des Lichtes der Erkenntnis machen. Ein anfangs harter Weg, aber es wird leichter, wenn man sich darauf einlässt.