cURL mit Timeoutproblemen

Hi Community,

folgende Problemstellung:
Ich habe einen haufen an Datensätzen, die in eine Datenbank müssen auf die ich keinen Zugriff habe. Lediglich über eine Webseite kann man die Daten übertragen. So dient diese als meine Schnittstelle. Alles läuft im internen FirmenNetzwerk.

Ich habe mich für cURL entschieden , um die Datenmengen an ein Formular zu übertragen. Das funktioniert auch ganz gut. Wenn da nicht die Timeouts wären.

Wie kann ich meine Datensätze portionieren, bzw. Timeouts verhindern ?
Ist es sinnvoll nach einer bestimmten anzahl von datensaetzen einen flag zu setzen und die seite neu via http_header zu laden und an dem punkt aufzusetzen oder gibts da elegantere methoden?

Läuft unter Windows, Linux auf Apache mit PHP und MySQL.

Gruss & Danke

PixelKoenig

HI,

es gibt ja mehrere Möglichkeit warum es fehlschlägt: Zu große Datenmenge um sie hochzuladen, zu viele Datensätze, sodass sie das Script nicht innerhalb der vom Webserver erlaubten Zeitspanne bearbeitet kriegt usw.

Wenn du weniger Datensätze auf einmal schickst könnte es gehen. Du kannst doch sicher zum test mal nur eine Datensatz übertragen oder?

Grüße
IceDragon

Hallo IceDragon,

Wenn du weniger Datensätze auf einmal schickst :könnte es
gehen. Du kannst doch sicher zum test mal nur eine :smiley:atensatz
übertragen oder?

Es ist definitiv der Apache timeout. Die Datenmenge ist zu groß für die langsame Leitung, die manchmal in unserem Netz vorherrscht.
Das Problem ist, dass ich vorher nie weiss wie gross die Datenmenge wird und wie langsam die Antwortzeiten des Formulars sind… Manchmal kann ich 70 Datensätze durchschieben… manchmal sogar 150.

Ich bräuchte jetzt entweder einen Mechanismus, der diese Timeouts umgehen kann. Also ggf. eine andere Technik als cURL oder eine möglichkeit Portionsweise zu schicken.

Da hab ich aber keinen Ansatzpunkt, wie man das umsetzt.

Gruss

PixelKoenig