HerrKlinke hat geschrieben:Alternativ dachte ich, ich könnte es so machen, dass ich per FTP eine Datei hochlade, in der Downloadadressen stehen. Der PC, der am DSL hängt, ruft dann jede minute die Datei ab, prüft ob was neues da ist. und wenn ja, lädt der PC das runter, comprimiert es, und lädt es dann schließlich wieder hoch. Ein "selbstgehosteter Cronjob" sozusagen.
Sowas ist vergleichsweise einfach.
HerrKlinke hat geschrieben:Vielleicht sollte ich auch einfach den Webhoster wechseln. Habt ihr da Tips? Auch wegen Cronjobs? Ich möchte wenn möglich nicht dafür Zahlen.
Wer nicht zahlen will, wird auch nix bekommen. Aber ich bezweifle, dass Du einen Geschwindigkeitsvorteil so erreichst, der nicht alleine durch das Suchen und übertragen der URLs wieder aufgefressen wird.
Die meisten größeren Daten sind bereits in Archiven komprimiert, Du kannst sie also direkt runterladen. Bei kleineren Dingen, lohnt sich der Aufwand erst recht nicht, wenn Du nicht ganze Webseiten abgreifen willst.
Merke: Wer Ordnung hellt ist nicht zwangsläufig eine Leuchte.
Ich beantworte keine generellen Programmierfragen per PN oder Mail. Dafür ist das Forum da.