a Randstad company
Login
© Adobe Stock / phonlamaiphoto

Buzzword oder Bingo? Die wichtigsten Tech Trends bis (mindestens) 2020

Analysen von Gartner, Forrester und Crisp im Überblick

12.04.2018
GULP Redaktion – Monika Riedl
Artikel teilen:

Wohin geht es in der IT-Branche? In welchen Technologien müssen sich Experten fit machen, welche neuen Trends sollten sie auf dem Schirm behalten und was ist vielleicht nur Hype? Marktexperten wie Forrester, Crisp und Gartner sind nah am Geschehen und stellen regelmäßig die wichtigsten technologischen Trends zusammen. Wir haben ihre Ergebnisse untersucht und die wichtigsten Erkenntnisse zusammengestellt.

Als Grundlage dienten uns

Internet der Dinge (Internet of Things, IoT): mehr Anwendungsbeispiele und Treiber für Edge Computing

Es ist ein Muster erkennbar: Bestimmte Trends tauchen in den Vorhersagen der Analysehäuser immer wieder auf. Dazu gehören digitale Plattformen, also alles, was in irgendeiner Weise mit dem Internet der Dinge zu tun hat. Immer mehr IoT-Geschäftsmodelle und konkrete Anwendungsfälle werden entstehen. Die Software-Entwicklung wird ein immer wichtigerer Teil der Produktentwicklung, auch in Bereichen, in denen das bisher nie der Fall war: zum Beispiel in Zahnbürsten, Kettensägen oder Turnschuhen. Das bedeutet für Crisp, eine neue – zentrale – Rolle der Software-Entwicklung und neue, „programmierbare“ Geschäfts- und Preismodelle.

Die Analysten von Gartner teilen in ihrem Hype Cycle die Reife einer Technologie in fünf Phasen ein zwischen Innovation, überzogenen Erwartungen und schließlich Produktivität. Obwohl das Internet der Dinge aktuell fast den „Gipfel überzogener Erwartungen“ erreicht hat, sehen die Autoren, dass sich in Zukunft die Silos zwischen einzelnen Unternehmen auflösen werden. Die Entwicklung geht hin zu einem vernetzten Ökosystem mit allen organisatorischen und technologischen Anforderungen, die solche neuen Plattform-basierten Geschäftsmodelle mit sich bringen.

Bei allen drei Technologie-Trendanalysen fällt in diesem Zusammenhang der Begriff Edge Computing. Die Experten sind sich hier einig: Ohne Edge, also die dezentrale Verarbeitung von Daten am „Rande“ des Netzwerks, ist in Zukunft auch kein Internet der Dinge möglich. Selbst wenn die Technologie an sich noch relativ neu und gerade dabei ist, das Schattendasein zu verlassen.

Die Public Cloud wird erwachsen

Public Cloud Dienste wie Amazon Web Services, Google oder IBM werden laut Crisp bis 2030 das „Gravitationszentrum und Operating System für nahezu alle neuen digitalen Workloads und Plattformen“ werden. Während bis dato vor allem Start-ups und Internetunternehmen die Services genutzt haben, prognostizieren die Experten, dass nun auch Mittelständler und große Industrieunternehmen nachziehen werden. Auch Forrester sieht die Public Cloud in seiner Analyse im „Acceptance“-Stadium. Aus dem Trend wurde also eine akzeptierte Technologie.

Künstliche Intelligenz überall

„Artificial Intelligence (AI) Everywhere“ titelt Gartner in seinem Hype Cycle. Und die Liste der genannten Einsatzbereiche und Technologien ist lang: Deep Learning mit neuronalen Netzen, Machine Learning, Autonomes Fahren, Cognitive Computing, kommerziell genutzte Drohnen und vieles mehr. Doch viele der genannten Punkte stehen im Hype Cycle gerade an der Spitze des Hypes mit inflationär hohen Erwartungen. Innerhalb der nächsten zwei Jahre wird jedoch von keiner Technologie ein produktiver Durchbruch erwartet.

Etwas begeisterter äußert sich Forrester beim Thema künstliche Intelligenz am Arbeitsplatz. Die Experten prognostizieren, dass innerhalb der nächsten drei Jahre erste digitale Mitarbeiter kommen werden, auch im sogenannten „White Collar“ Bereich, also auch bei Angestellten und Wissensarbeitern.

Blockchain: Mehr Potenzial als nur für Bitcoins

Auch wenn Blockchain zur Verwaltung von Kryptowährungen entwickelt wurde, sehen die Analysten großes Potenzial in anderen Bereichen. Grundlage der Technologie ist eine Reihe von Datensätzen, die miteinander verschlüsselt verkettet sind. So lassen sich Transaktionen dezentral, aber trotzdem sicher und für alle nachvollziehbar tätigen. Dieser Ansatz eignet sich auch für viele andere Einsatzbereiche, die über Bitcoin & Co. hinausgehen und er wird viele Branchen gehörig aufmischen. Ergänzend zu den Einschätzungen der US-amerikanischen Analysehäuser sieht der Digitalverband Bitkom die Blockchain-Technologie als eine Möglichkeit, um die gestiegenen Anforderungen an Datenschutz und Datensicherheit durch die EU-Datenschutzgrundverordnung (DSGVO) zu bedienen – wenn die Technologie an sich richtig aufgesetzt wird.

Doch trotz aller verheißungsvollen Anwendungsvisionen mahnt Gartner aktuell zum Realismus: Die meisten Initiativen rund um Blockchain befinden sich noch im Alpha- bzw. Betastadium und die Liste an bewährten Anwendungsbeispielen ist noch recht kurz.

Trends unter dem Radar – mit Buzzword-Potenzial

Neben den oben genannten Trends, die die meisten zumindest schon einmal gehört haben sollten, fanden sich in den Analysen von Gartner, Forrester und Crisp auch Technologien, die sich aktuell noch etwas unter dem Radar der breiten Öffentlichkeit bewegen. Es wird sich zeigen, ob die Begriffe nur Lieferanten für das nächste Buzzword-Bingo sind oder ob sie in ein paar Jahren unter den Top-IT-Trends zu finden sind.

  • Cognitive Systems: Gemeint ist die Fähigkeit von Systemen mit künstlicher Intelligenz auch tief menschliche Aspekte wie Intonation, Gesten, Mimik oder Emotionen zu erkennen. So können die Systeme immer mehr und besser menschliche Aufgaben übernehmen.
  • Stackology: Die Kunst, komplexe Cloud- und IoT-Umgebungen aufzubauen und zu betreiben. Das wird angesichts der stetig zunehmenden Verbreitung digitaler Plattformen immer wichtiger.
  • Neuromorphic-Computing: Nachbau von neuronalen Strukturen des Gehirns auf Computerchip-Ebene. Das ermöglicht immer besseres Machine Learning und künstliche Intelligenz, da die Funktionsweisen näher an das menschliche Gehirn angelehnt und zudem energieeffizienter sind.
  • Quanten-Computing: Nicht mehr Bits und binäre Informationen dienen den Berechnungen, sondern quantenmechanische Grundsätze: So kann ein Bit beispielsweise zugleich 1 und 0 sein. Das sorgt für mehr Speicherplatz und schnellere Rechenoperationen auf dem gleichen (Hardware-) Raum. Lange waren Quantencomputer theoretische Konstrukte, jetzt investieren Digitalriesen wie Google, IBM und Microsoft sowie Geheimdienste verstärkt in die Forschung.
  • Digitale Zwillinge: Im Kontext des Internets der Dinge bildet ein digitaler Zwilling ein reales Objekt oder System digital ab, inklusive der Informationen zum Status bzw. Zustand. Bei Bedarf kann der digitale Zwilling auch auf Änderungen reagieren und Anpassungen beim realen Counterpart anstoßen. Weltweit 21 Milliarden Sensoren bis 2020 machen es möglich.
  • Smart Dust: Kleinste Partikel aus mikroskopischen Sensoren sollen untereinander kommunizieren und Informationen austauschen. Diese Schwarmintelligenz könnte zum Beispiel flächendeckend meteorologische Daten aufzeichnen oder um in der Biologie die Bewegungen von Insekten oder anderen kleinen Lebewesen zu untersuchen.

Lesermeinungen zum Artikel

Es wurden noch keine Bewertung abgegeben.

Ihre Meinung zum Artikel

Bitte verwenden Sie keine Links in Ihrem Kommentar.

Ihr Kommentar wird zunächst geprüft. Möchten Sie informiert werden, wenn er veröffentlicht wurde?
Bitte tragen Sie dazu Ihre E-Mail-Adresse ein:
Wir konnten Ihre Bewertung leider nicht speichern. Bitte geben Sie zuerst Ihr Feedback ab.
Lieber Leser, vielen Dank für Ihr Feedback.
Ihre Bewertung für den Artikel wurde gespeichert. Wir prüfen Ihren Kommentar bezüglich Netiquette und Datenschutzrichtlinien und veröffentlichen ihn danach in Kürze. Sie werden von uns per E-Mail darüber benachrichtigt.
Ihre GULP Redaktion.

Ähnliche Artikel