← Back to team overview

sslug-teknik team mailing list archive

Re: SV: web crawling ....

 

wget  - kan sættes til at hente recursively.. - se man wget..

/Klavs

On Wed, 12 Dec 2001 16:34:23 +0100, "Henrik Falkenthros-ny"
<HEF@xxxxxxxxxxx> wrote:

>Nææ, ikke helt !
>
>Jeg har brug for en rigtig crawler; d.v.s. at jeg skal kunne indtaste en URL
>og så få crawlet alle (inkl. under-)sider for specifikke søgeord.
>Måske der findes noget freeware (i perl ?), hvor man selv kan tilrette ... ?
>
>Jeg har prøvet en del web spiders, men de returnerer alt for lidt (uagtet at
>de er sat til at hente alt) !
>
>mvh. Henrik F:
>
>-----Oprindelig meddelelse-----
>Fra: Peter Makholm [mailto:peter@xxxxxxxxxxx]
>Sendt: 12. december 2001 14:27
>Til: sslug-teknik@xxxxxxxx
>Emne: Re: [TEKNIK] web crawling ....
>
>
>"Henrik Falkenthros, direktoer" <hef@xxxxxxxxxxx> writes:
>
>> er der nogen der kender et godt Internt crawler program ?
>
>Hvad forstår du ved et internetcrawler-program?
>
>Opfylder ht://dig <http://htdig.org> dine krav?
>
>>
>> ------=_NextPart_000_0000_01C18318.A8F27400
>> Content-Type: text/plain; charset=us-ascii
>>
>> ------=_NextPart_000_0000_01C18318.A8F27400--
>>
>
>Man undres over hvad Outlook kan finde på.
>
>--
>Når folk spørger mig, om jeg er nørd, bliver jeg altid ilde til mode
>og svarer lidt undskyldende: "Nej, jeg bruger RedHat".
>                                -- Allan Olesen på dk.edb.system.unix
>
>
>
>



References