Technologietrends 2025: Was besteht den Hype Cycle?
Jedes Jahr im Herbst kommt ein neues iPhone auf den Markt, das – mal mehr und mal weniger berechtigt – einen neuen Standard am Smartphone-Himmel behaupten soll. Bei aktuellen RPGs gilt Raytracing, also die ganz präzise grafische Darstellung von Licht und Schatten, gerade als das neue Ding, an dem sich Games messen lassen. Das sind nur zwei Beispiele für Technologietrends, die kurz- und mittelfristig den Diskurs bestimmen. Wer langfristig wissen will, wohin die Reise in Sachen Technologie geht, konzentriert sich aber weniger auf einzelne technologische Lösungen, sondern schaut sich nach „strategischen Technologietrends“ um. Welche das für dieses Jahr sein werden, das schauen wir uns jetzt mal an!
Was ist ein „strategischer“ Trend?
Strategische Trends unterscheiden sich von „normalen“ Trends sowohl ihn ihrer strukturellen Bedeutung als auch im Zeitrahmen ihrer Auswirkungen.Während als Technologietrends Innovationen gelten, die einzelne Probleme adressieren und Verbesserungen bewirken, gehen strategische Trends weiter: Hierbei geht es um Technologien, die das Potenzial besitzen, unsere Umwelt im Allgemeinen und besonders ganze Branchen oder Märkte nachhaltig zu prägen. Das sind solche Technologien, die dann gerne mal als „disruptiv“ oder auch „Schlüsseltechnologien“ beschrieben werden. Wer solche Trends verpasst, hat es früher oder später schwer. Das gilt für uns alle, aber ganz besonders für Unternehmen, die sich auf dem Markt behaupten wollen. Deshalb ist es wichtig, diese Trends frühzeitig zu identifizieren. Ein Spezialist ist auf diesem Gebiet ist das US-amerikanische IT-Beratungs- und Marktforschungsunternehmen Gartner.
Hype Cycle
Um zu analysieren, ob die Versprechen, die mit neuen Technologien einhergehen, wirklich valide sind oder nur ein kurzer Hype, hat Gartner das Modell des sog. „Hype Cycle“ geprägt: Jede neue Technologie durchläuft demnach 5 Phasen:
Eine neue Technologie erscheint auf der Bildfläche und zieht erste Aufmerksamkeit auf sich.
Beispiel: Quantencomputing. Das Potenzial in Bereichen wie der Kryptographie ist unbestritten, das Thema befindet sich aber bisher noch im experimentellen Stadium.
Die Technologie wird übertrieben gehyped. Viele Pilotprojekte werden gestartet – einige mit Erfolg, viele scheitern aber auch an der Realität.
Beispiel: Metaverse. Der Hype um „das Metaverse“ war zwischenzeitlich riesig (looking at you Meta, vormals „Facebook“). Die Anwendungsbereiche sind aber heute (noch) deutlich nischiger als prophezeit.
Ernüchterung tritt ein, weil die Technologie den Hype nicht erfüllen kann. Das Interesse schwindet und viele Player verlassen den Markt.
Beispiel: Blockchain. Ja, im Krypto-Bereich sind Blockchain-Technologien erfolgreich im Einsatz. Darüber hinaus bleibt der Mainstream-Durchbruch aber bisher aus.
Reale, realistische Anwendungsfälle entstehen. Unternehmen können die Technologie – samt ihrer Potenziale und auch Grenzen – besser verstehen.
Beispiel: Machine Learning. Kaum ein Wirtschaftszweig, in dem Machine Learning, also fortgeschrittene KI, nicht angewandt oder zumindest fundiert getestet wird. Nicht jeder Anwendungsfall wird sich langfristig als erfolgreich herausstellen, aber verschwinden wird Machine Learning so schnell nicht mehr.
Die Technologie wird Teil des Mainstreams. Jetzt zeigt sich wirklich, wie groß der Markt für die Technologie ist und welche Anwendungsfälle sich langfristig durchsetzen werden
Beispiel: Cloud Computing. Cloud-Technologien sind mittlerweile etabliert, weit verbreitet und für viele unverzichtbar. Herausforderungen bleiben, aber die Nutzung ist standardisiert und Unternehmen können Kosten und Nutzen realistisch abschätzen.
Diese systematische Betrachtung von Technologien soll Unternehmen helfen, einzuschätzen, wie groß das Risiko ist und wann der Zeitpunkt günstig ist, in eine neue Technologie zu investieren. Zur Wahrheit gehört aber auch: Wirklich zuverlässig ist der Hype Cycle nur bei der Beobachtung des Ist-Zustands. Ob eine Technologie den kompletten Zyklus durchläuft und wie lange die einzelnen Phasen dauern, lässt sich so nicht wirklich prognostizieren.
Trotzdem lohnt sich für Dich als IT-Talent ein genauer Blick auf die Technologien, die die Profis als wirklich relevant ansehen, in jedem Fall. Denn das sind die Felder, in denen sich schon heute und in naher Zukunft spannende Karrieremöglichkeiten ergeben!
Bildquelle: gartner.com
KI-Trends 2025
Trend 1: Agentic AI – Autonome KI-Agenten
Agentic AI ist im Grunde genommen der nächste Schritt der Automatisierung: Während GenAI, also generative KI, schon ziemlich zuverlässig Routineaufgaben für Dich übernehmen kann, hast Du mit Agentic AI die Möglichkeit, Deinen persönlichen KI-Assistenten – oder wohl treffender: Agenten – einzusetzen. Besonderes Gewicht liegt dabei auf der Autonomie der KI. Der KI-Agent trifft ohne Dein Zutun eigenständige Entscheidungen auf Grundlage der ihm zur Verfügung stehenden Umgebungsinformation. So kann er mit anderen Einheiten (sowohl Mensch als auch Maschine) interagieren, reagieren und sein Verhalten eigenständig anpassen. Anwendungsgebiete sind bspw. fortgeschrittene Assistenz-Roboter oder auch autonome Fahrzeuge.
Trend 2: Plattformen für die AI Governance
Autonome KI klingt für Dich neben aller Faszination auch risikoreich? So geht es nicht nur Dir. Deshalb ist auch KI-Governance ein großes Thema. Dabei geht es um Richtlinien, die festlegen, welche Rahmenbedingungen für einen sicheren und ethischen Einsatz von KI gelten müssen. So soll KI überwacht werden, um Missbrauch und sich einschleichenden Mängel (Stichwort „algortihmic bias“) entgegenzuwirken. Den der KI zugrundeliegenden Algorithmus ständig zu überwachen ist aber natürlich eine komplexe Aufgabe. Abhilfe sollen hier plattformbasierte Softwarelösungen schaffen, die sowohl rechtliche Vorgaben, als auch selbst definierte Governance-Prinzipien überwachen.
Trend 3: Sicherheit vor Desinformation
Der dritte Trend im Themenfeld KI beschäftigt sich mit dem großen Problem der Desinformation. So wie Desinformationskampagnen bspw. durch KI-gesteuerte Bots in sozialen Medien schon heute nachweisbaren Einfluss auf demokratische Prozesse haben, kann KI auch genau dagegen eingesetzt werden: Smarte KI-Tools sollen Fake News und andere Inhalte, die Desinformation streuen, erkennen und bekämpfen.
Die Zukunft des Computings
Trend 4: Post-Quanten-Kryptographie
Quantencomputer sind zwar noch nicht bei der Marktreife angekommen, glaubt man aber Expert:innen, dauert das nicht mehr allzu lange. Das stellt dann heute gebräuchliche Verschlüsselungsverfahren wie Public Key oder die Elliptische Kurven-Kryptografie vor große Herausforderungen. Denn selbst für sehr leistungsstarke klassische Computer reicht die Rechenkapazität in aller Regel nicht aus, um solche Schlösser zu knacken. Bei Quantencomputern sieht das aber ganz anders aus: Mit dem Shor-Alogirthmus können Quantencomputer die bisherige Sicherheit dieser Verschlüsselungsverfahren, die auf symmetrischen Kryptosystemen basieren, aushebeln. Deshalb braucht es kryptografische Verfahren, die auch von einem Quantencomputer nicht zu brechen sind. Denkbar sind hier laut BSI Verfahren, die neben „Codebasierter Kryptographie“ z. B. auch auf „Gitterbasierter“ oder „Hashbasierter Kryptographie“ aufbauen.
Trend 5: Unsichtbare Umgebungsintelligenz
Besonders im Bereich Smart Home oder Wearables haben wir erste Berührungspunkte mit unsichtbarer Umgebungsintelligenz bzw. „Ambient Intelligence“. Sensoren, IoT-Geräte oder KI-Systeme erfassen, analysieren und nutzen Umgebungsdaten in Echtzeit, bleiben aber selbst im Hintergrund, weil sie nahtlos in die Umgebung bzw. Alltagsgegenstände integriert sind. Solche Technologien erfordern aber natürlich hardwareseitig fortgeschrittene Sensortechnik, schnelle Datenübertragung und starke Sicherheitsprotokolle. Außerdem werden völlig neue Anforderungen an die Gestaltung der Mensch-Maschine-Interaktion gestellt, wenn „die Maschine“ praktisch unsichtbar ist.
Trend 6: Nachhaltiges Computing durch Energieeffizienz
Auch das universal-wichtige Thema der Nachhaltigkeit muss angesichts eines nahezu explodierenden Energiebedarfs durch gesteigerte Rechenleistung, wie u. a. notwendig für KI-Anwendungen, natürlich behandelt werden. Wie kann der Energieverbrauch von IT-Systemen verringert und Ressourcen effizienter genutzt werden? Lösungen sind hier z. B. energieeffiziente Hardware, wie stromsparende Prozessoren oder KI-Modelle, die mit weniger Rechenleistung auskommen. So können z. B. unnötige Parameter entfernt werden oder größere, komplexe Modelle trainieren kleinere, die dann spezialisierte Aufgaben effizienter lösen.
Trend 7: Hybrid Computing
Hybrid Computing kombiniert traditionelle Rechenressourcen (z. B. lokale Server) mit cloudbasierten und spezialisierten Systemen wie perspektivisch z. B. Quantencomputern. Die Idee ist, die Vorteile der verschiedenen Systeme optimal auszunutzen: Routineaufgaben laufen effizient in der Cloud, während komplexe Berechnungen von Hochleistungsrechnern übernommen werden. Unternehmen wie Google und IBM arbeiten schon an Hybridlösungen, die Quanten- und klassische Computer nahtlos integrieren sollen.
Aktuelle Jobs für Informatiker:innen
- Kraftfahrt-BundesamtInformatikerin / Informatiker (m/w/d), Verwaltungsinformatikerin / Verwaltungsinformatiker (m/w/d), Wirtschaftsinformatikerin / Wirtschaftsinformatiker (m/w/d) (Uni-Diplom oder Masterabschluss)FlensburgProjektmanagement +1
- Bosch GruppeJunior Managers Program – Information Technology – Traineeprogramm (w/m/div.)GerlingenSystem Engineering / Admin
- Berliner StadtreinigungTrainee IT (w/m/d) Anwendungsbetreuung im FinanceBerlinAnwendungsentwicklung
- EY (Ernst & Young GmbH)Duales Studium Wirtschaftsinformatik / IT (w/m/d)München +5Projektmanagement
- Berliner StadtreinigungTrainee IT (w/m/d) AnwendungsentwicklungBerlinConsulting
Synergien zwischen Mensch und Maschine
Trend 8: Spatial Computing
Piloten trainieren realistische Szenarien in virtuellen Cockpits, Ärztinnen üben komplizierte Eingriffe risikofrei in virtuellen OPs und Du platzierst Dein Traumsofa testweise via AR in Deinem WG-Zimmer: Spatial Computing nutzt Technologien wie AR, VR und KI, um digitale Objekte in der physischen Welt abzubilden. Spatial Computer nutzen Sensoren wie RGB- und Tiefenkameras, 3D-Tracker oder sog. „inertiale Messeinheiten“, um Bewegungen und Interaktionen von Menschen zu erfassen. Mithilfe von Computer Vision analysieren sie Umgebungen, erkennen Objekte und erstellen 3D-Karten. Diese Daten werden dann genutzt, um virtuelle Inhalte direkt in das Sicht- und Hörfeld der Nutzer zu projizieren.
Trend 9: Polyfunctional Robots
In Industrieunternehmen sind Gartner zufolge rund vier Millionen Roboter im Einsatz, die auf eine bestimmte Aufgabe spezialisiert sind. Das Ziel: den Arbeitskräftemangel abschwächen, Kosten einsparen und die Effizienz der Produktion steigern. Während solche spezialisierten Roboter in der Regel für genau diese eine Funktion entwickelt werden, können polyfunktionale Roboter ihre Aufgaben je nach Bedarf wechseln und sogar neue Fähigkeiten lernen. Ausgestattet mit Technologien wie KI und maschinellem Lernen und Hardware, die sich modular anpassen lässt, sind sie flexibel einsetzbar. Das macht sie auch in vielen anderen Umgebungen, die mit Arbeitskräftemangel kämpfen, denkbar, wie z. B. dem Gesundheitswesen oder in der Landwirtschaft.
Trend 10: Neurological Enhancement
Unter Neurological Enhancement verstehen die Wirtschaftsexpert:innen von Gartner die Nutzung von Computertechnologie, die die Gehirnleistung steigert oder erweitert. Prominentes Beispiel ist z. B. Elon Musks Unternehmen Neuralink, das an der Entwicklung einer direkten Gehirn-Maschine-Schnittstelle, also eines Brain-Computer-Interfaces arbeitet. Entwickelt werden hier Elektroden, die direkt in Dein Gehirn implantiert werden sollen, um dann per Neurostimulation einerseits neurologische Erkrankungen zu behandeln. Gartner sieht aber auch wirtschaftliches Potenzial abseits medizinischer Einsatzbereiche: Um in der KI-Arbeitswelt bestehen zu können, könnten „Wissensarbeiter“ zukünftig auf solche Gehirn-Tuner angewiesen sein. Und sie gehen noch weiter: “Organizations may even monetize customer thoughts and emotions.” Während Anfang 2024 der erste Neuralink-Chip zu Forschungszwecken in ein menschliches Gehirn implantiert wurde, halten Expert:innen solche Vorstellungen des „Gedankenlesens“ aber bislang für realitätsfern.
- Technologische Innovationen sind ständig in Bewegung, aber nicht jeder Trend hat langfristige Relevanz.
- 2025 werden vor allem strategische Trends wie autonome KI-Agenten, Post-Quanten-Kryptographie und nachhaltiges Computing wichtige Schlüsseltechnologien darstellen, die nicht nur einzelne Branchen, sondern auch das tägliche Leben prägen werden.
- Für Dich als IT-Talent sind diese Trends nicht nur spannend, sondern können auch entscheidend für Deine berufliche Zukunft sein.
Einblicke
Yuliia Sai, ConsultantEinblicke
Ansfried, IT SystemadministratorEinblicke
Daniel Reutter, IT Systemadministrator / Azubi