takle se to uklada do RAM a ta je vzdy rychlejsi, nez zapis/cteni na disk
Podstatne je, jestli se ty linky do pameti vejdou, aby to nemuselo swapovat.
Diky, asi to teda budem do toho suboru ukladat, ale este ma napadlo, ci by nebolo najlepsie ten crawling rovno do cyklu vsunut takto:
for FILE in $(wget -r --spider --no-parent -t 2 http://${HOST} 2>&1 | grep "http://" | cut -d " " -f 4)
do
...
done
Ale nie som si isty, ci to neni rovnake ako ked som najprv vsetky tie linky ukladal do premennej pred cyklom....