Parsero: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
| Zeile 10: | Zeile 10: | ||
*Mit dem Befehl '''parsero -u ''''LINK''''''' wird die Robots.txt gelesen | *Mit dem Befehl '''parsero -u ''''LINK''''''' wird die Robots.txt gelesen | ||
*Beispiel: | *Beispiel: | ||
| − | parsero -u facebook.de | + | parsero -u www.facebook.de |
| + | |||
=Befehle= | =Befehle= | ||
*parsero -h - '''''Für Hilfe''''' | *parsero -h - '''''Für Hilfe''''' | ||
Version vom 12. August 2021, 13:53 Uhr
Parsero Definition
- Mithilfe von Parsero wird die Robots.txt eines Web-Servers ausgelesen und die Disallow-Einträge angezeigt.
- Disallow-Einträge sind die Links die nicht von Suchmaschinen wie z.B. Bing. Google, etc. indexiert werden dürfen.
Robots.txt
- Robots.txt ist dafür um die komplette Website, Verzeichnisse, Unterverzeichnisse oder einzelne Dateien für alle Webcrawler oder auch nur für bestimmte zu sperren.
- Sie ist das erste Dokument das ein Bot beim Crawlen der Website aufruft
Funktion
- Mit dem Befehl parsero -u ''LINK'' wird die Robots.txt gelesen
- Beispiel:
parsero -u www.facebook.de
Befehle
- parsero -h - Für Hilfe
- parsero -u URL
- parsero -u URL -o - gibt nur HTTP 200 status code anFetter Text
- parsero -u URL -sb - Nur Disallow Einträge für Bing suchen
