sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #45479
Re: SV: web crawling ....
wget - kan sættes til at hente recursively.. - se man wget..
/Klavs
On Wed, 12 Dec 2001 16:34:23 +0100, "Henrik Falkenthros-ny"
<HEF@xxxxxxxxxxx> wrote:
>Nææ, ikke helt !
>
>Jeg har brug for en rigtig crawler; d.v.s. at jeg skal kunne indtaste en URL
>og så få crawlet alle (inkl. under-)sider for specifikke søgeord.
>Måske der findes noget freeware (i perl ?), hvor man selv kan tilrette ... ?
>
>Jeg har prøvet en del web spiders, men de returnerer alt for lidt (uagtet at
>de er sat til at hente alt) !
>
>mvh. Henrik F:
>
>-----Oprindelig meddelelse-----
>Fra: Peter Makholm [mailto:peter@xxxxxxxxxxx]
>Sendt: 12. december 2001 14:27
>Til: sslug-teknik@xxxxxxxx
>Emne: Re: [TEKNIK] web crawling ....
>
>
>"Henrik Falkenthros, direktoer" <hef@xxxxxxxxxxx> writes:
>
>> er der nogen der kender et godt Internt crawler program ?
>
>Hvad forstår du ved et internetcrawler-program?
>
>Opfylder ht://dig <http://htdig.org> dine krav?
>
>>
>> ------=_NextPart_000_0000_01C18318.A8F27400
>> Content-Type: text/plain; charset=us-ascii
>>
>> ------=_NextPart_000_0000_01C18318.A8F27400--
>>
>
>Man undres over hvad Outlook kan finde på.
>
>--
>Når folk spørger mig, om jeg er nørd, bliver jeg altid ilde til mode
>og svarer lidt undskyldende: "Nej, jeg bruger RedHat".
> -- Allan Olesen på dk.edb.system.unix
>
>
>
>
References