Analyse
Textstatistik
Die Textstatistik analysiert beliebige Texte und liefert umfassende Metriken: Zeichenanzahl (mit und ohne Leerzeichen), Wortanzahl, Satz- und Absatzzahl, Byte-Größe in verschiedenen Kodierungen, geschätzte Lesedauer sowie die häufigsten Wörter und Zeichenhäufigkeiten. Ergänzend wird der Lesbarkeitsindex (Flesch-Reading-Ease für Deutsch) berechnet. Das Tool eignet sich für Content-Creator, technische Redakteure und Entwickler.
Welche Metriken liefert die Textstatistik?
Das Tool berechnet eine breite Palette an Textmetriken: Zeichenanzahl mit und ohne Leerzeichen, Wortanzahl (tokenisiert an Leerzeichen und Satzzeichen), Satzanzahl (an Punkt, Ausrufezeichen, Fragezeichen), Absatzanzahl (Leerzeilen als Trenner), eindeutige Wörter (Type-Token-Ratio als Maß für lexikalische Vielfalt), Byte-Größe in UTF-8, UTF-16 und ASCII sowie die Lesedauer (basierend auf 200–250 Wörtern/Minute für Deutsch). Die Häufigkeitsanalyse zeigt die Top-N-Wörter (bereinigt um Stoppwörter) und Buchstaben in Prozent.
Wie funktioniert das Tool?
Die Textanalyse erfolgt vollständig clientseitig in JavaScript. Wörter werden durch einen Tokenizer extrahiert, der Unicode-Wortgrenzen (Unicode TR#29) respektiert und Satzzeichen korrekt behandelt. Die Satzanzahl wird durch Erkennung von Satzendzeichen ermittelt, wobei Abkürzungen (z. B., Dr., bzw.) von echten Satzenden unterschieden werden. Für den Flesch-Reading-Ease-Score (adaptiert für Deutsch nach Amstad, 1978) werden durchschnittliche Satzlänge und durchschnittliche Silbenzahl pro Wort berechnet. Die Byte-Größe wird durch TextEncoder (UTF-8) oder manuell (UTF-16: 2 Bytes pro Codepoint) bestimmt.
Typische Anwendungsfälle
- SEO-Texte auf Mindestlänge (300+ Wörter) und Keyword-Dichte prüfen
- Technische Dokumentation auf Lesbarkeit (Flesch-Score) und Komplexität analysieren
- API-Payload-Größen in verschiedenen Kodierungen (UTF-8, UTF-16) schätzen
- Content-Marketing – Texte für angestrebte Lesedauer optimieren
Schritt-für-Schritt-Anleitung
- Schritt 1: Text in das Eingabefeld eingeben oder einfügen.
- Schritt 2: Alle Metriken werden in Echtzeit berechnet und angezeigt.
- Schritt 3: Wortliste und Häufigkeitsanalyse für Keyword-Analyse nutzen.
- Schritt 4: Lesbarkeitsindex und Lesedauer für zielgruppengerechte Anpassung auswerten.
Beispiel
Eingabe
Die Netzwerkkonfiguration umfasst mehrere Schichten. Jede Schicht hat spezifische Protokolle und Aufgaben. Das OSI-Modell beschreibt sieben solcher Schichten.
Ausgabe
Zeichen: 158 (141 ohne Leerzeichen) Wörter: 26 Sätze: 3 Bytes (UTF-8): 158 Lesedauer: ~7 Sekunden Flesch-Score: 42 (schwer) Häufigstes Wort: 'Schichten' (2x)
Tipps & Hinweise
- Tipp: Ein Flesch-Reading-Ease-Wert unter 30 gilt als sehr schwer (wissenschaftliche Texte), 60–70 als gut verständlich (normaler Text), über 80 als sehr leicht (Kindertexte).
- Tipp: Die Type-Token-Ratio (eindeutige Wörter / Gesamtwörter) ist ein Maß für Wortschatzvielfalt – ein Wert nahe 1 bedeutet wenig Wiederholungen.
- Tipp: Für Datenbankfelder und API-Payloads ist die UTF-8-Byte-Größe entscheidend – ein deutsches Sonderzeichen (ä, ö, ü) belegt 2 Bytes in UTF-8, aber nur 1 in Latin-1.
Häufige Fragen
Wie wird die Lesedauer berechnet?
Die Lesedauer basiert auf der durchschnittlichen Lesegeschwindigkeit von 200–250 Wörtern pro Minute für erwachsene Muttersprachler bei normalen Texten. Für technische oder wissenschaftliche Texte kann die tatsächliche Lesezeit deutlich länger sein.
Was ist die Type-Token-Ratio (TTR)?
Die TTR ist das Verhältnis einzigartiger Wörter (Types) zur Gesamtanzahl der Wörter (Tokens). Ein Text mit 100 Wörtern, von denen 70 unterschiedlich sind, hat eine TTR von 0,70. Eine hohe TTR deutet auf lexikalische Vielfalt hin, eine niedrige auf häufige Wiederholungen.
Textstatistik
Analysiere einen Text – Zeichen, Wörter, Sätze, Absätze, Bytes, Lesedauer, häufigste Wörter und mehr.
Tool öffnen