Gdy administruje się dużymi stronami internetowymi raz na czas np. po większych zmianach w konfiguracji zachodzi potrzeba sprawdzenia czy na stronie nie ma stron prowadzących donikąd. O ile w małych serwisach można samemu szybko przeklikać się przez stronkę to dla starych rozrośniętych serwisów nie jest to takie proste.

Jest kilka narzędzi których można użyć do testowania linków na stronach - każde z nich ma swoje zalety i wady, postaram się je przybliżyć.

wget

Wget’a najprawdopodobniej już masz i możesz zaczynać:

wget -o /tmp/wget.log -nv -r -p http://example.com

W pliku /tmp/wget.log możemy znaleźć komunikaty błędów i na dobrą sprawę tyle. Ciężko to przetworzyć ale jeśli nasz serwis ma mechanizm do np. mailowego powiadomienia w momencie wystąpienia krytycznego błędu to wget’em najszybciej można takie strony wyłapać.

linkchecker

Uruchamia się go tak:

linkchecker -t3 --no-warnings http://example.com

Program jakoś nie przypadł mi do gustu - działał cholernie wolno i to na całkiem małej stronie.

linklint

Z trzech programów ten ma najdziwniejszą składnię - ale da się tego nauczyć, a możliwości ma chyba najwięcej.

linklint -error -warn -xref -forward -out report.txt -net -http -host example.com /@

Wystarczająco szybki i generuje przejrzyste raporty.przejrzyste raporty.