• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

Picture downloader erstellen? - Hat jeman eine Idee?

Odysis

Neues Mitglied
Heyho, ich möchte mir einen Bilder Downloader erstellen, der mir alle Bilder einer Seite läd. Wget funktioniert auf dieser Seite leider nicht. Also die Seite ist so aufgebaut:

X Unterseiten, mit X Alben pro Unterseite. Pro Album X Unterseiten mit X Bilder pro Unterseite.

Wäre um jegliche Hilfe und Tipps dankbar. :-)
 
Werbung:
Werbung:
Geht es dir a) primär um die Funktionalität oder eher b) darum, ne neue Sprache zu lernen? Falls a), warum nimmst du keine Sprache, mit der du dich besser auskennst?
 
Es geht mir eher um A.) da ich mehr die Funktion brauche, aber auch um B.) mich interessiert, wie das in C++ lösbar wäre.
 
Werbung:
Das kann ich leider nicht sagen, aber es läd alles mögliche. Und index.html. aber keine Bilder. Ich nutze wget so: wget -r -A jpeg,jpg,bmp,gif,png http://www.domain.com , aber es läd wie gesagt keine Bilder. :-/
 
Bei mir funktioniert der Befehl

Code:
wget -r -A jpeg,jpg,bmp,gif,png http://example.com

einwandfrei. Hast Du evtl. irgendeine andere/ältere Version von wget?
 
Ich habe einen Ubuntu VPS und alle Updates installiert - ich denke es ist die aktuelle Version. Das Problem ist ja unteranderem auch, dass wget mir wirklich alles läd, wie zb. Werbebanner etc. , aber nicht meine angezielten Bilder..
 
Werbung:
Kann es sein, dass die Bilder irgendwie über iframes oder JavaScript eingebunden werden?
 
Natürlich darf und sollte man das auch tun wenn man Hilfe bei einer Webseite möchte.
 
Werbung:
Solange Du kein Problem damit hast Deine Daten bereitzustellen, ist es hier keinerlei Problem irgendeinen Link zu posten (es sei denn er verstößt gegen irgendein Recht oder die guten Sitten ;) ).

Diese Seite liegt auf der Domain

Code:
http://www.virtualnights.com

Die Bilder dagegen auf der Subdomain:

Code:
http://media.virtualnights.com

Daher werden sie auch nicht runtergeladen.

D.h. Du musst einen Schalter bei wget finden durch den Du auch Subdomainübergreifend Dateien runterladen kannst. Mir fällt spontan nur -H ein, also:

Code:
wget -r -A jpeg,jpg,bmp,gif,png -H http://www.example.com

was bei Seiten die viele externe Links haben durchaus zu längeren Downloads führen kann. Mit anderen Parametern kann man das aber wiederum genügend einschränken.

Ich bin mir allerdings auch nicht sicher was Du mit dem Download bezwecken willst?! Ist das nicht deine Seite?
 
Zurück
Oben