Mark
Geowizard
Ich hatte gerade diese Idee, vielleicht ist es eine Schnapsidee, aber ich möchte sie denoch mit euch teilen 
Bisher habe ich zich PQs für Baden-Württemberg gehabt und diese regelmäßig in GSAK eingelesen, um die Datenbank aktuell zu halten. Alle paar Tage filtere ich alle Caches nach "Kein GPX seit 14 Tagen" und lasse den Status Check drüber laufen. So kann ich sicherstellen, daß die alle Caches in der Datenbank maximal 14 Tage alt sind.
Jetzt hatte ich folgende Idee: Die Datenbank habe ich ja schon aufgebaut. Eigentlich bräuchte ich nur noch eine Pocket Query mit neuen Caches. Änderungen über Status Check scheinen ja nicht von den API-Aufrufen abgezogen zu werden.
Also quasi täglich eine PQ mit neuen Caches, alle paar Tage Status Check über alle Caches (oder irgendwie aufgeteilt) und ich habe eine aktuelle Datenbank.
Kann das jemand nachvollziehen oder liegt hier ein Denkfehler meinerseits vor?
Mark
Bisher habe ich zich PQs für Baden-Württemberg gehabt und diese regelmäßig in GSAK eingelesen, um die Datenbank aktuell zu halten. Alle paar Tage filtere ich alle Caches nach "Kein GPX seit 14 Tagen" und lasse den Status Check drüber laufen. So kann ich sicherstellen, daß die alle Caches in der Datenbank maximal 14 Tage alt sind.
Jetzt hatte ich folgende Idee: Die Datenbank habe ich ja schon aufgebaut. Eigentlich bräuchte ich nur noch eine Pocket Query mit neuen Caches. Änderungen über Status Check scheinen ja nicht von den API-Aufrufen abgezogen zu werden.
Also quasi täglich eine PQ mit neuen Caches, alle paar Tage Status Check über alle Caches (oder irgendwie aufgeteilt) und ich habe eine aktuelle Datenbank.
Kann das jemand nachvollziehen oder liegt hier ein Denkfehler meinerseits vor?
Mark