← Back to team overview

sslug-teknik team mailing list archive

SV: web crawling ....

 

Nææ, ikke helt !

Jeg har brug for en rigtig crawler; d.v.s. at jeg skal kunne indtaste en URL
og så få crawlet alle (inkl. under-)sider for specifikke søgeord.
Måske der findes noget freeware (i perl ?), hvor man selv kan tilrette ... ?

Jeg har prøvet en del web spiders, men de returnerer alt for lidt (uagtet at
de er sat til at hente alt) !

mvh. Henrik F:

-----Oprindelig meddelelse-----
Fra: Peter Makholm [mailto:peter@xxxxxxxxxxx]
Sendt: 12. december 2001 14:27
Til: sslug-teknik@xxxxxxxx
Emne: Re: [TEKNIK] web crawling ....


"Henrik Falkenthros, direktoer" <hef@xxxxxxxxxxx> writes:

> er der nogen der kender et godt Internt crawler program ?

Hvad forstår du ved et internetcrawler-program?

Opfylder ht://dig <http://htdig.org> dine krav?

>
> ------=_NextPart_000_0000_01C18318.A8F27400
> Content-Type: text/plain; charset=us-ascii
>
> ------=_NextPart_000_0000_01C18318.A8F27400--
>

Man undres over hvad Outlook kan finde på.

--
Når folk spørger mig, om jeg er nørd, bliver jeg altid ilde til mode
og svarer lidt undskyldende: "Nej, jeg bruger RedHat".
                                -- Allan Olesen på dk.edb.system.unix




Follow ups

References