← Back to team overview

sslug-teknik team mailing list archive

Re: "Screenshot" af webside

 

Robert Larsen wrote:
Hej alle

Jeg leder efter et stykke software, som kan tage et "screenshot" af en webside. Der er masser af programmer til Windows, som kan dette, men jeg kan ikke finde noget til Linux.

Det ville være nemt at sætte cron til at starte Firefox med en given URL, og så tage et screenshot, men hvis websiden er for stor til at være på skærmen, så mangler der jo noget. Findes der et kommandolinje program som kan rendere en URL og gemme resultatet som en PNG eller lignende ?

VH
Robert




Tak for svarene. Der er en del spændende, men jeg vil meget gerne kunne automatisere genereringen.

Det er for at have et let tilgængeligt galleri til at illustrere "historien". wget kan ikke helt, hvad jeg vil, for der bruges Ajax på siden, og siden fylder mere, end hvad der kan være på skærmen, så med de fleste andre tools kommer kun en del med. webthumb kan måske, hvad jeg vil, men jeg kunne ikke umiddelbart få den til at virke:

root@robert-laptop:~/code/webthumb-1.01# ./webthumb http://www.komogvind.dk
expected keysym, got XF86KbdLightOnOff: line 70 of pc
expected keysym, got XF86KbdBrightnessDown: line 71 of pc
expected keysym, got XF86KbdBrightnessUp: line 72 of pc
Could not init font path element /usr/share/fonts/X11/cyrillic, removing from list! AUDIT: Sun Sep 14 19:21:59 2008: 8421 Xvfb: client 1 rejected from local host (uid 0)
No protocol specified
xsetroot:  unable to open display ':2.0'
Unable to start mozilla -width 1024 -height 768 at ./webthumb line 161.
root@robert-laptop:~/code/webthumb-1.01#

Men det skal jeg nu nok få til at virke, men det ser også ud til at den skærer dele af billedet væk.

Den her Firefox extension: http://pearlcrescent.com/products/pagesaver/
..ser rigtig ud, men jeg ved ikke, om det kan automatiseres (via cron).


Follow ups

References