sslug-teknik team mailing list archive
-
sslug-teknik team
-
Mailing list archive
-
Message #45476
SV: web crawling ....
Nææ, ikke helt !
Jeg har brug for en rigtig crawler; d.v.s. at jeg skal kunne indtaste en URL
og så få crawlet alle (inkl. under-)sider for specifikke søgeord.
Måske der findes noget freeware (i perl ?), hvor man selv kan tilrette ... ?
Jeg har prøvet en del web spiders, men de returnerer alt for lidt (uagtet at
de er sat til at hente alt) !
mvh. Henrik F:
-----Oprindelig meddelelse-----
Fra: Peter Makholm [mailto:peter@xxxxxxxxxxx]
Sendt: 12. december 2001 14:27
Til: sslug-teknik@xxxxxxxx
Emne: Re: [TEKNIK] web crawling ....
"Henrik Falkenthros, direktoer" <hef@xxxxxxxxxxx> writes:
> er der nogen der kender et godt Internt crawler program ?
Hvad forstår du ved et internetcrawler-program?
Opfylder ht://dig <http://htdig.org> dine krav?
>
> ------=_NextPart_000_0000_01C18318.A8F27400
> Content-Type: text/plain; charset=us-ascii
>
> ------=_NextPart_000_0000_01C18318.A8F27400--
>
Man undres over hvad Outlook kan finde på.
--
Når folk spørger mig, om jeg er nørd, bliver jeg altid ilde til mode
og svarer lidt undskyldende: "Nej, jeg bruger RedHat".
-- Allan Olesen på dk.edb.system.unix
Follow ups
References