Hi Community,
folgende Problemstellung:
Ich habe einen haufen an Datensätzen, die in eine Datenbank müssen auf die ich keinen Zugriff habe. Lediglich über eine Webseite kann man die Daten übertragen. So dient diese als meine Schnittstelle. Alles läuft im internen FirmenNetzwerk.
Ich habe mich für cURL entschieden , um die Datenmengen an ein Formular zu übertragen. Das funktioniert auch ganz gut. Wenn da nicht die Timeouts wären.
Wie kann ich meine Datensätze portionieren, bzw. Timeouts verhindern ?
Ist es sinnvoll nach einer bestimmten anzahl von datensaetzen einen flag zu setzen und die seite neu via http_header zu laden und an dem punkt aufzusetzen oder gibts da elegantere methoden?
Läuft unter Windows, Linux auf Apache mit PHP und MySQL.
Gruss & Danke
PixelKoenig