Crawler sammeln automatisch alle Daten zum Beispiel aus Websiten. Ich erinnere an dieser Stelle mal an den Studivz crawler, der hat Praktisch jede Benutzerseite automatisch aufgerufen und die angegebenen Informationen gespeichert.
Harvester und Wrapper extrahieren bestimmte Elemente aus Datensätzen, eine erklärung dazu findest du in der Wikipedia unter Wrapper.
Wget ist ein Kommandozeilen Tool aus dem GNU Projekt und ermöglicht das runterladen von Dateien aus dem Internet. Zum Beispiel auf Linux Servern ohne Grafische Oberfläche wird wget heute noch verwendet um z.B. sourcecode zum kompilieren runterzuladen.
__________________
"They who can give up essential liberty to obtain a little temporary safety, deserve neither liberty nor safety"
|