Parsero: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
| Zeile 11: | Zeile 11: | ||
*Beispiel: | *Beispiel: | ||
parsero -u www.facebook.de | parsero -u www.facebook.de | ||
| + | oder | ||
| + | parsero -u www.dhs.gov | ||
=Befehle= | =Befehle= | ||
Version vom 12. August 2021, 13:57 Uhr
Parsero Definition
- Mithilfe von Parsero wird die Robots.txt eines Web-Servers ausgelesen und die Disallow-Einträge angezeigt.
- Disallow-Einträge sind die Links die nicht von Suchmaschinen wie z.B. Bing. Google, etc. indexiert werden dürfen.
Robots.txt
- Robots.txt ist dafür um die komplette Website, Verzeichnisse, Unterverzeichnisse oder einzelne Dateien für alle Webcrawler oder auch nur für bestimmte zu sperren.
- Sie ist das erste Dokument das ein Bot beim Crawlen der Website aufruft
Funktion
- Mit dem Befehl parsero -u ''LINK'' wird die Robots.txt gelesen
- Beispiel:
parsero -u www.facebook.de
oder
parsero -u www.dhs.gov
Befehle
- parsero -h - Für Hilfe
- parsero -u URL
- parsero -u URL -o - gibt nur HTTP 200 status code anFetter Text
- parsero -u URL -sb - Nur Disallow Einträge für Bing suchen
