Die Google Updates 2025 markieren eine Phase, in der der Suchalgorithmus stärker als zuvor semantische Relevanz, Nutzererlebnis und adaptive ML‑Signale kombiniert. Ähnlich wie frühere Änderungen — etwa das FRED-Update, das Phantom Update oder das Penguin 3.0 — verbinden die 2025er Anpassungen Modell‑Signal und UX. Betreiber müssen Inhalte, technische Performance und Linkprofil synchronisieren, um Sichtbarkeit zu behalten; besonders die Rolle adaptiver Modelle (siehe AL Update) ist wichtig. Dieser Leitfaden liefert eine präzise Definition, einen Zeitplan, betroffene Ranking‑Signale sowie sofortige Prüf‑ und Maßnahmenlisten.



Was sind die Google Updates 2025?

Die Google Updates 2025 sind eine Reihe algorithmischer Anpassungen, die maschinelles Lernen, verstärkte Natural‑Language‑Processing‑Modelle und erweiterte UX‑Signale verknüpfen. Ziel ist, Ergebnisse stärker nach inhaltlicher Kontextqualität und Nutzerzufriedenheit zu ordnen.

In der Praxis bedeuten die Änderungen weniger isolierte Signale und mehr eine Bewertung der Website als Ganzes. Google interpretiert Seiteninhalte jetzt im semantischen Kontext und gewichtet Interaktion (Klickverhalten, Verweildauer), technische KPIs (z. B. Core Web Vitals) und Vertrauensindikatoren (E‑A‑T, Linkqualität) simultan. Kurzfristige Schwankungen sind möglich, während langfristig bessere Nutzererfahrung belohnt wird.

Pragmatisch ausgedrückt: Inhalte müssen jetzt nicht nur stimmen, sie müssen in Struktur und Auslieferung auch überzeugen. Optimieren heißt: Relevanz, Lesbarkeit, Aktualität und technische Zuverlässigkeit parallel verbessern. Prüfen Sie sowohl Inhalts‑ als auch Infrastruktur‑Bausteine, um schnell Ursachen für Rankingverluste zu identifizieren.



Kurzüberblick & Zeitliche Übersicht der Änderungen

Seit Jahresbeginn wurden mehrere größere Rollouts bestätigt, ergänzt durch kontinuierliche Modell‑Updates. Die Updates folgten einem zweigleisigen Plan: größere Core‑Rollouts plus laufende ML‑Feinjustierungen.

Die wichtigsten Meilensteine lassen sich so zusammenfassen: Ein initiales Core‑Update im März 2026, mehrere Folgepatchs im Mai und ein erweitertes Core‑Release im Juni 2026 (Rolloutphasen mit Monitoring). Parallel wurden Signale zur Bewertung semantischer Tiefe und Nutzerinteraktion schrittweise intensiver gewichtet.

Das Timing ist kein Zufall. Google testet größere Veränderungen schrittweise, um Volatilität zu begrenzen. Für Betreiber heißt das: schnelle Checks nach jedem Rollout, aber auch eine längerfristige Beobachtung über 8–12 Wochen. Tools wie Search Console, Analytics und Server‑Logs liefern dabei phasenspezifische Hinweise. Am effektivsten sind Rolling‑Checks: einmal kurzfristig prüfen, dann in Wellen nachbessern und schließlich stabilisieren.

Planen Sie zwei Aktionsphasen ein — Sofortchecks (0–2 Wochen) und strategische Anpassung (2–12 Wochen) — und verwenden Sie feste Metriken, um Wirkung sichtbar zu machen. Tragen Sie kommende Termine in Ihr Monitoring ein und definieren Sie Alerts für Ranking‑ und Traffic‑Abweichungen.



Release‑Termine und Versionen

Google kommuniziert mittlerweile häufiger, aber nicht immer vollständig. Bestätigte Release‑Zeitpunkte sind wichtig, aber nicht allein entscheidend.

Bekannte Termine: März 2026 (größeres Core‑Update), Mai 2026 (Feinjustierungen), Juni 2026 (erweitertes Core‑Release). Zwischen diesen Terminen liefen kontinuierliche Modelle‑Updates, die Rankings graduell beeinflussen. Google versieht manche Änderungen mit Labels (z. B. “Core update”), andere bleiben implizit und zeigen sich nur in Traffic‑Metriken.

  • März 2026 – Core‑Update: stärkere Berücksichtigung semantischer Relevanz.
  • Mai 2026 – Iteratives Update: Anpassung an Nutzerinteraktionssignale.
  • Juni 2026 – Erweiterte Bewertung: Cross‑Page‑Context und Freshness stärker gewichtet.

Legen Sie ein Release‑Log an (Datum, beobachtete Metriken, Maßnahmen). So entsteht ein Entscheidungsarchiv, das bei künftigen Rollouts wertvolle Vergleichspunkte liefert.

Was wurde technisch/algorithmisch verändert?

Die Updates verbinden drei Kernbereiche — NLP/ML‑Modelle, UX‑Metriken und Signale zur Vertrauenswürdigkeit.

Technisch wurden folgende Anpassungen vorgenommen:

  • Erweiterte Natural Language Processing‑Modelle: bessere Kontextualisierung von Long‑Tail‑Anfragen und Entitäten‑Beziehungen.
  • Adaptive Lernprozesse: Modelle gewichten Nutzersignale (CTR, Dwell Time) dynamischer und lernen aus Interaktionsmustern.
  • Feinere Integration von Core Web Vitals: Laden, Interaktivität und visuelle Stabilität fließen stärker in die Seitenbewertung ein.
  • Strukturierte Daten: Schema‑Signale werden präziser interpretiert; Rich Results‑Bereiche verschieben sich hin zu kontextreicherem Markup.
  • Linkbewertung: Qualität über Quantität; Algorithmus erkennt manipulierte Muster zuverlässiger.



Praktische Wirkung: Technische Fixes rentieren sich schneller, wenn parallel inhaltliche Relevanz gesichert ist. Ein Bild aus der Mechanik: Der Motor braucht Öl und saubere Leitungen, sonst läuft er nicht rund. Ergänzend ist eine Roadmap wie ein Kompass—sie zeigt die Richtung und hilft, Prioritäten zu setzen.

Welche Ranking‑Signale sind betroffen?

Fast alle relevanten Signale sind betroffen, doch die Gewichtung verschiebt sich spürbar Richtung User‑Centricity und semantische Tiefe.

Die Updates beeinflussen insbesondere:

  • Content‑Relevanz und E‑A‑T: Tiefe, Autorität und Aktualität werden stärker bewertet.
  • Backlinks & Link‑Qualität: thematische Relevanz und natürliche Linkprofile gewinnen an Gewicht.
  • User Experience & Core Web Vitals: technische Performance wird in Wechselwirkung mit Content‑Signalen betrachtet.

Da Signale jetzt zusammen betrachtet werden, darf keine Disziplin isoliert werden. Ein starkes Backlink‑Profil kompensiert kurzfristig technische Schwächen kaum; ebenso nützen schnelle Seiten nichts bei schwachem Inhalt. Priorisieren Sie Maßnahmen nach Impact und Aufwand: technische Blocker zuerst, Content‑Qualität parallel, Backlink‑Risiko dann.

Content‑Relevanz & E‑A‑T

Content wirkt wie ein Vertrauensbeweis — nicht nur für User, sondern auch für ML‑Modelle.

Google bewertet Expertise, Autorität und Vertrauenswürdigkeit anhand multipler Faktoren: Autorenkennzeichnung, Quellenangaben, Aktualität, Nutzerinteraktion und thematische Kohärenz. Inhaltsseiten sollten daher klare Autorensignale, Prüfnachweise und strukturierte Antworten zu Suchanfragen liefern. Tiefe schlägt oft reine Länge.

Praktische Prüfpunkte:

  • Autorenseiten und Credentials prüfen.
  • Quellen und Zitate einfügen, wo möglich primäre Quellen verlinken.
  • Search Intent‑Mapping: Jede Zielseite muss eine klare Intent‑Erfüllung bieten (informational, transactional, navigational).

Aktualisieren Sie Daten, prüfen Sie Fakten und fügen Sie strukturierte FAQs hinzu — das erhöht Trust und Relevanz für Featured Snippets.

Backlinks & Link‑Qualität

Früher galt mehr Masse, heute zählt Präzision.

Das Update verfeinert die Erkennung von unnatürlichen Linkmustern. Thematisch passende, kontextuelle Links werden deutlich stärker belohnt. Gleichzeitig werden manipulative Netzwerke und irrelevante Quellen besser enttarnt. Ein gesundes Backlink‑Profil ist divers, natürlich gewachsen und enthält Verweise aus Branchenseiten, Fachportalen und relevanten Nischenblogs.

Prüfschritte:

  • Audit: Identifizieren Sie toxische Domains (manuelle Maßnahmen + Disavow nur mit Prüfung).
  • Qualität vor Quantität: Outreach‑Kampagnen auf Autorenseiten und Fachportale fokussieren.
  • Interne Verlinkung: Themencluster intern stärken, um Linkjuice gezielter zu verteilen.

Entfernen oder entwerten Sie schädliche Links, und bauen Sie Beziehungen zu thematisch passenden Quellen auf. Bauen Sie Ihr Profil wie ein Portfolio — divers und thematisch konsistent.

User Experience & Core Web Vitals

Ein Nutzer kann eine Seite wegen Layout‑Shifts verlassen; das Signal landet beim Indexer. So einfach kann ein Rankingverlust entstehen.

Core Web Vitals bleiben kritisch: Largest Contentful Paint (LCP), First Input Delay (FID) bzw. Interaction to Next Paint (INP) und Cumulative Layout Shift (CLS) fließen nun in ein zusammengesetztes UX‑Scoring ein. Aber UX ist mehr als Vitals — Seitenstruktur, Lesbarkeit, Mobilfreundlichkeit und Navigationsklarheit zählen ebenfalls.

  • Technische Optimierung: Caching, Bildoptimierung, kritisches CSS, Script‑Defer.
  • Design/Content: sichtbare Headlines, klare CTA‑Platzierung, schnelle Informationszugänge.
  • Messung: Monitoring mit CrUX, Lighthouse und synthetischen Tests kombinieren.

Priorisieren Sie LCP‑ und CLS‑Fixes auf Ihren Top‑Landingpages — dort zahlt sich Verbesserung kurzfristig aus.

Konkrete Auswirkungen auf Traffic und Rankings

Nach Core‑Rollouts beobachteten viele Sites Schwankungen zwischen −30% und +50% Sessions; die Spannbreite hängt stark von Branche und Voroptimierung ab.

Typische Auswirkungen sind erhöhte Volatilität in den ersten zwei Wochen, gefolgt von stabileren Verschiebungen über 8–12 Wochen. Manche Seiten verlieren Positionen nur temporär; andere bleiben dauerhaft betroffen, wenn strukturelle Defizite bestehen. Besonders empfindlich sind Seiten mit dünnem Content, schwachen Backlinks oder technischen Mängeln.

Maßnahmenorientiert: Erfassen Sie Traffic‑Peaks und ‑Täler pro Seitentyp. Vergleiche mit Konkurrenzseiten helfen, ob Änderungen branchenspezifisch oder site‑intern sind. Ein Beispiel: Ein spezialisiertes Ratgeberportal ohne Zertifikate verlor Sichtbarkeit für medizinische Queries, während ein E‑Commerce‑Shop mit optimierten Produktdaten und schnellen Ladezeiten Gewinn verzeichnete.



Reagieren Sie schnell, analysieren Sie differenziert und priorisieren Sie Fehler mit hohem Impact.

Branchen/Seitenarten mit hohem Risiko

Nicht alle Branchen sind gleich verwundbar.

Hohe Risikogruppen sind in der Regel:

  • YMYL‑Seiten (Health, Finance, Recht): strengere E‑A‑T‑Bewertung.
  • Dynamische eCommerce‑Plattformen mit vielen Duplicate‑Inhalten.
  • Nischenblogs ohne klare Autorenschaft oder Quellenangaben.
  • Lokale Businesses mit veraltetem NAP/Schema und schlechter Mobiloptimierung.

Gründe: Hohe Verantwortung (YMYL) verlangt bessere Belege; eCommerce leidet bei schlechter Struktur; lokale Seiten verlieren, wenn Citation‑Signale inkonsistent sind. Priorisieren Sie YMYL‑Checks, strukturierte Daten und eindeutige Autor/Impressums‑Informationen.

Typische Ranking‑Verluste vs. Volatile Schwankungen

Nicht jeder Rückgang ist dauerhaft.

Typische kurzfristige Schwankungen entstehen durch Test‑Rollouts; diese glätten sich oft nach 2–6 Wochen. Dauerhafte Verluste resultieren aus strukturellen Problemen: systematisch schlechter Content, toxische Linkprofile oder andauernde UX‑Defizite. Ein schneller Check kann Indizien liefern:

  • Temporal: abrupter Traffic‑Einbruch nach Rollout → wahrscheinlich Update‑Effekt.
  • Persistent: stetiger Rückgang über Monate → strukturelles Problem.
  • Segmentiert: nur bestimmte Query‑Gruppen betroffen → Content‑/Intent‑Mismatch.

Identifizieren Sie die Kategorie und handeln Sie entsprechend — temporäre Schwankungen benötigen Monitoring; dauerhafte Verluste eine priorisierte Fehlerbehebung.

Prüfen: So erkennen Sie, ob Ihr Projekt betroffen ist

Ein systematischer Diagnosepfad verhindert Zeitverlust.

Setzen Sie folgende Prioritäten:

  1. Sammeln: Daten aus GSC, Analytics, Server‑Logs und Ranking‑Tools.
  2. Abgleichen: Datum des Rankingverlusts mit bekannten Rollouts.
  3. Segmentieren: Betroffene Seiten/Query‑Gruppen identifizieren.
  4. Hypothesen bilden: Technik, Content oder Links als Ursache prüfen.
  5. Testen & Monitoren: Änderungen schrittweise ausrollen und Effekte messen.

Beginnen Sie mit den Seiten mit dem höchsten Traffic‑Verlust. So erreichen Sie schnell eine Wirkung. Visualisieren Sie Zeitreihen, um Korrelationen zwischen Änderungen und Traffic‑Effekten leichter zu erkennen.

Lassen Sie uns gemeinsam Prioritäten setzen und einen Prüfplan erstellen.

Datenquellen (GSC, Analytics, Logs)

Ein Blick in die Search Console liefert oft den ersten Hinweis.

Unverzichtbare Datenquellen:

  • Google Search Console: Impressionen, CTR, Ranking‑Changes, Abdeckungsfehler.
  • Google Analytics / GA4: Nutzersignale, Sitzungsdauer, Absprungraten.
  • Server‑Logs: Crawling‑Verhalten, Response‑Codes, Crawl‑Budget.
  • Rang‑Tracker und Wettbewerbsanalyse‑Tools: Keyword‑Positionen über Zeit.
  • CrUX / Lighthouse: Core Web Vitals und Seitenperformance.

Kombinieren Sie Datenquellen statt isolierter Analysen. Concordanz zwischen GSC‑Rankingverlusten und höherer Serverlatenz ist ein starkes Indiz für technische Ursachen. Dokumentieren Sie Befunde und nutzen Sie Logs, um Crawling‑Anomalien nachzuweisen.

Zeitreihen‑Checks und Vergleichsmetriken

Zeitreihen sind ein starker Verbündeter beim Debugging.

Führen Sie diese Checks durch:

  • Wöchentliche Vergleichsreihen (aktueller vs. 4‑12 Wochen vorher).
  • Segmentanalyse nach Device, Landingpage und Query‑Typ.
  • Vergleich mit Wettbewerbern: Sind Änderungen branchenweit?
  • Conversion‑basierte Metriken: Trafficverlust ≠ Umsatzverlust immer; prüfen Sie Conversion‑Raten.

Nutzen Sie Dashboards mit annotierten Ereignissen (Rollout‑Datum, Site‑Änderungen). So erkennen Sie schnell, ob ein Rückgang mit internen Releases oder externen Google‑Änderungen korreliert.

Sofortmaßnahmen: 5‑Punkte‑Checklist bei Rankingverlusten

Direkt handeln: Diese Checkliste priorisiert schnelle Hebel mit maximaler Wirkung.

  • Technische Quick‑Checks (Priorität 1)
  • Content‑Audit & Aktualisierung (Priorität 2)
  • Backlink‑Screening (Priorität 3)
  • UX/CWV‑Optimierung (Priorität 4)
  • Monitoring & Re‑Testing (Priorität 5)

Arbeiten Sie von oben nach unten und dokumentieren Sie jeden Schritt. Kleine technische Fixes und gezielte Content‑Updates bringen oft die schnellste Stabilisierung.

Priorität 1 – Technische Quick‑Checks

Prüfen Sie in den ersten 48 Stunden diese Punkte:

  • Statuscodes (5xx, 4xx) und Redirect‑Schleifen.
  • Robots.txt und Noindex‑Fehler.
  • Serverlatenz, CDN‑Status, SSL‑Zertifikate.
  • Core Web Vitals: CrUX‑Anomalien auf Top‑Seiten.
  • Sitemaps und Indexierungsraten in GSC.

Beheben Sie Serverfehler und Indexierungsblocker zuerst. Danach folgen Performance‑Fixes auf den meistbesuchten Seiten. Ein technischer Blocker kann jede andere Maßnahme entwerten.

Priorität 2 – Content‑Audit & Aktualisierung

Ein Ratgeber, der veraltet ist, verliert Rankings schnell.

Audit‑Schritte:

  • Top‑Traffic‑Seiten identifizieren und auf Intent‑Treffer prüfen.
  • Duplicate Content ausschließen; konsolidieren und canonical setzen.
  • Mehrwert ergänzen: Daten, Grafiken, strukturierte FAQs.
  • Autorensignale und Quellenangaben hinzufügen bei YMYL.

Priorisieren Sie Updates nach Traffic‑Impact. Aktualisierungen mit geringem Aufwand und hohem Sichtbarkeits‑Potential zuerst. Kleine inhaltliche Ergänzungen (z. B. neue Studien, FAQ) können Featured Snippet‑Chancen erhöhen.

Priorität 3 – Backlink‑Screening

Ein toxisches Linkprofil kann Rankings unterschwellig drücken.

Prüfen Sie:

  • Neue, plötzliche Spike‑Links von fragwürdigen Domains.
  • Unnatürliche Ankertextverteilungen.
  • Vergleich mit Backlink‑Profilen von Top‑Rankern.

Kontaktieren Sie Webmaster, entfernen Sie spammy Links oder erstellen Sie eine begründete Disavow‑Liste nur nach sorgfältiger Prüfung. Fördern Sie gleichzeitig aktiven Aufbau zu relevanten, autoritativen Domains.

Priorität 4 – UX/CWV‑Optimierung

UX‑Optimierung ist kein Nice‑to‑Have mehr.

Schnelle Maßnahmen:

  • Lazy‑Loading und Bildkompression implementieren.
  • Critical CSS und Script‑Defer für above‑the‑fold.
  • CLS‑Ursachen: Fonts und dynamische Inhalte prüfen.
  • Mobile‑First‑Tests durchführen und Navigation vereinfachen.

Kürzere Ladezeiten und stabilere Layouts erhöhen Verweildauer und senken Absprünge — beides positive Signale für Google.

Priorität 5 – Monitoring & Re‑Testing

Messen Sie Wirkung und wiederholen Sie Tests.

Setzen Sie Alerts für:

  • Ranking‑Verluste von Top‑Keywords.
  • Signifikante Traffic‑Abweichungen.
  • CrUX‑ und Lighthouse‑Abweichungen.

Testen Sie Änderungen kontrolliert (A/B oder Staging‑Rollouts) und dokumentieren Sie Effekte. Legen Sie einen 12‑wöchigen Review‑Plan an und evaluieren Sie Anpassungen in festen Intervallen.

Langfristige Strategie nach den Updates

Kurzfristige Fixes genügen nicht — langfristig gewinnt, wer Prozesse etabliert.

Aufbau einer robusten Strategie umfasst drei Pfeiler: Content‑Roadmap, Linkbuilding‑Qualitätsprinzipien und klare Mess‑/Reporting‑Kriterien. Implementieren Sie regelmäßige Audits, rollen Sie Content‑Updates im Zyklus aus und pflegen Sie ein sauberes Backlink‑Portfolio. Technische Schulden sollten priorisiert und in Sprints abgebaut werden. Entwickler, Content und SEO müssen synchron arbeiten.

Ein methodischer Plan reduziert Volatilität und schafft Widerstandskraft gegen zukünftige Updates. Setzen Sie Review‑Meetings, messen Sie KPIs konstant und lernen Sie aus jedem Rollout. Ein strukturierter Prozess ist die beste Prävention gegen panische Reaktionen.

Content‑Roadmap

Themencluster statt Einzelseiten.

So gestalten Sie eine robuste Roadmap:

  • Keyword‑Mapping nach Intent und Funnel‑Stufe.
  • Cluster‑Seiten mit pillar pages und unterstützenden Artikeln.
  • Regelmäßige Aktualisierungstermine (Quarterly Refresh).
  • Testformate: interaktive Inhalte, Videos, strukturierte FAQs.

Ein praktisches Vorgehen schafft Konsistenz und erleichtert E‑A‑T‑Nachweise über Autorität und Quellen.

Linkbuilding‑Qualitätsprinzipien

Qualität sichtbar priorisieren.

Richtlinien:

  • Ziel: natürliche, thematisch passende Erwähnungen.
  • Outreach an Fachportale und Journalisten statt Massenverteilern.
  • Langfristige Beziehungen aufbauen (Gastbeiträge, Studienpartnerschaften).
  • Disavow nur nach sorgfältiger Analyse.

Ein gesundes Profil ist divers, organisch und thematisch kohärent — das reduziert Risiko bei künftigen Updates.

Mess‑und Reporting‑Kriterien

Klare KPIs verhindern Interpretationsfehler.

Empfohlene Metriken:

  • Organische Sessions, Klicks und Impressionen (GSC + Analytics).
  • Ranking‑Veränderungen für Top‑Keywords und Cluster.
  • Conversion‑KPI pro Landingpage.
  • Core Web Vitals und Seitenladezeiten.
  • Backlink‑Qualität: Domain‑Authority‑Äquivalente und Referring‑Domains‑Qualität.

Erstellen Sie wöchentliche Kurzreports und monatliche Strategiereports. So bleiben Entscheidungen datengetrieben.

Häufige Fragen zu Google Updates 2025 (FAQ)

Wann war/wird das Update ausgerollt?

Haupt‑Rollouts fanden im März, Mai und Juni 2026 statt; Google kommuniziert teilweise, überprüfbare Effekte zeigen sich aber häufig über mehrere Wochen nach dem Release.

Wie behebe ich plötzliche Rankingverluste?

Schritt 1: Technische Basis prüfen (48 h). Schritt 2: Content‑Audit der betroffenen Seiten. Schritt 3: Backlink‑Screening. Schritt 4: UX‑/CWV‑Optimierung und Monitoring. Priorisieren Sie nach Impact.

Betroffen meine Branche / mein Content‑Typ?

YMYL‑Seiten, E‑Commerce mit Duplicate‑Inhalten und lokale Unternehmen mit schwacher Mobiloptimierung sind besonders anfällig. Dennoch kann jede Branche betroffen sein. Vergleichen Sie Ihre Metriken mit Branchenbenchmarks.

Kurze Zusammenfassung: Was jetzt zu tun ist (Snippets‑geeignete Kurzantworten)

Prio‑Schnellcheck (in 48 Stunden): 1) GSC‑Ranking‑Veränderungen prüfen; 2) Server‑Status & Indexierung; 3) Top‑Pages auf CWV; 4) Betroffene Inhalte aktualisieren; 5) Backlink‑Anomalien identifizieren.

Priorität 30‑Tage: Technische Fixes umsetzen, Content‑Lücken schließen, Backlink‑Risiken entschärfen. Monitoring etablieren. Priorität 90‑Tage: Content‑Roadmap und Linkbuilding‑Strategie durchführen, KPIs routiniert reporten.

Weiterführende Ressourcen & Fallbeispiele

Nutzen Sie offizielle Google‑Ankündigungen in der Search Central, CrUX‑Daten für Benchmarks und unabhängige Analysen aus Branchenblogs. Fallbeispiele helfen beim Lernen: Suchen Sie nach Case Studies, die ähnliche Probleme adressieren (z. B. YMYL‑Optimierungen oder E‑Commerce‑Strukturierungen).

Erstellen Sie eine Sammlung mit drei relevanten Case‑Snippets aus Ihrer Branche und vergleichen Sie Maßnahmen und Outcomes. Optional: Nutzen Sie ein kostenfreies Analyse‑Kontingent, um erste Prioritäten technisch und inhaltlich zu validieren.

Wenn Sie möchten, unterstütze ich gern beim Erstellen eines individuellen Prüfplans für Ihre Domain — kurz, präzise und praxisorientiert.



Jetzt kostenfreie Analyse sichern!