PQ Update - was bedeutet hier "Updated in the last 7 days"?

walkin'Simon

Geowizard
Bei meinen PQs kann ich ja in der Rubrik "That (And)" neben anderen Items wie "I don´t own" auch "Updated in the last 7 days" einstellen. Aber was genau bedeutet das?
Wann ist es für die PQ ein Update? Nur bei Founds, nur bei Listing geändert, bei jedem Log (ggf. auch SBA, NM oder auch einfach ein Nachlogger, der vor 3 Monaten den Cache gefunden hat)?
Oder werden bei der Update-Funktion alle aktiven Caches als "updated caches" betrachtet?
Und welche Auswirkungen hat dieses auf die GSAK-Funktion im Makro PQ-Loader (daher hier gepostet) "Action to take if caches are not updated"?
Ich habe eine Archiv-Datenbank, in die diese Caches verschoben werden.
Welcher Zeitraum ist hier sinnvoll? Für mich ist dieses von der Antwort der oberen Fragestellung abhängig. Was empfehlt ihr bzw. was habt ihr eingestellt?

Herzlichen Dank.
 

Astartus

Geowizard
Ich bin der MEinung, dass jede Art von Log den Cache updated. Wenn ein Cache also mal mehrere Wochen nicht gefunden werden kann (wegen Hochwasser oder wiel er einfach schwierig ist) würde er aus der PQ herausfallen.

Wenn du Caches automatisch als archiviert herausfiltern möchtest, solltest du dir eine PocketQuery in regelmäßigen Abständen generieren (z.B. jede Woche Montags oder ähnlich) und in GSAK importieren. Beim IMport setzt du die "Database Uupdate Options" auf "Newer only" und kannst dann nach "Last GPX Date -> Nut during the last X days" (wobei X hier 7 wäre) filtern. Alle Caches die dann angezeigt wurden sind innerhalb der letzten X Tage nicht durch eine PQ aktualisiert worden und daher wahrscheinlich archiviert (vorausgesetzt natürlich dass du dir die generierte PQ regelmäßig importierst)
 

[Gonzo]

Geocacher
irgendwie stehe nich gerade aufm dem Schlauch und komme nicht auf die simple Lösung folgendes Problems...

Ich pflege mein DB mit wöchendlichen PQ's, die "Updated in the last 7 days" sind. Die Caches in meiner DB umfassen alle, dh. archivierte und aktive und ich schicke mit nem Filter immer die aktiven aufs Oregon. Das archivierte wieder aktiv werden und umgekehrt entnehme ich der Zusammenfassung am Ende vom PQ-Import.

Alles gut soweit... wenn nicht...
Nun ist es schon öfter vorgekommen, das einige Caches, die archiviert wurden und dann innerhalb von 7 Tagen eine PQ, die ihn eigentlich mit drin haben sollte, ihn in GSAK nicht rot als archiviert markiert.

Wie kann das? Ich habe schon viel gelesen und komme wie gesagt irgendwie nicht auf die Lösung.

Habe den Cache dann als GPX manuell gezogen und ihn dann in GSAK importiert. Und schon war er eben rot... dh. er war nicht in der letzten PQ enthalten. Aber wenn ein Log des Owners vorhanden ist, sei es nur eine Note, müsste der Cache doch eigentlich mit in die PQ...
 

Astartus

Geowizard
Hast du das "Updated in the last 7 days" als PocketQuery Kriterium gesetzt oder ist das das GSAK Filter Argument?

Ein archivierter Cache wird nicht mehr in einer PocketQuery mitgeliefert (außer in der speziellen "My Finds" PQ). Ohne ein zusätzliches Makro werden archivierte Caches in der Datenbank aber auch nicht als solche markiert sondern verbleiben auf ihrem letzten Status bis du entweder den Cache manuell überprüfst oder alle Cachhes, die nicht innerhalb eines bestimmten Zeitraums aktualisiert wurden, löschst.
 
OP
walkin'Simon

walkin'Simon

Geowizard
Genau dieses war damals mein "Problem".
Ich arbeite inzwischen mit dem GSAK-Macro "PQ Loader".
Meine PQs nehmen immer alle Caches auf (also nicht "updated ...7 days"), egal ob aktiv oder diabled (=> "I don´t own" & "I did´nt find it"). Der PQ Loader lädt diese direkt in die Datenbank(en) und checkt, ob Caches nicht in den letzten x (ich habe 7) Tagen aktualisiert wurden und archiviert sie nach Bestätigung (bei mir: Verschieben in eine andere Datenbank - das lässt nochmaliges stichprobenhaftes Kontrollieren zu).
Somit habe ich immer den aktuellsten Stand (alle PQs laufen im wöchentlichen Rhythmus).
 

[Gonzo]

Geocacher
Astartus schrieb:
Hast du das "Updated in the last 7 days" als PocketQuery Kriterium gesetzt oder ist das das GSAK Filter Argument?

ich hab den Haken in der PQ...

Aber gut, wenn die nicht mehr mitgeliefert werden bei einer Update PQ, sollte ich mir eine generieren, die nur die inaktiven beinhaltet. Stelle ich dann alle inaktiven manuell auf aktiviert und lasse die PQ mit den gerade inaktiven oder archivierten drüber laufen, sollten die dann auch definitiv löschbar sein. Die archiverten werden vorher alle gelöscht..

walkin´Simon schrieb:
Genau dieses war damals mein "Problem".
Ich arbeite inzwischen mit dem GSAK-Macro "PQ Loader".
Meine PQs nehmen immer alle Caches auf (also nicht "updated ...7 days"), egal ob aktiv oder diabled (=> "I don´t own" & "I did´nt find it"). Der PQ Loader lädt diese direkt in die Datenbank(en) und checkt, ob Caches nicht in den letzten x (ich habe 7) Tagen aktualisiert wurden und archiviert sie nach Bestätigung (bei mir: Verschieben in eine andere Datenbank - das lässt nochmaliges stichprobenhaftes Kontrollieren zu).
Somit habe ich immer den aktuellsten Stand (alle PQs laufen im wöchentlichen Rhythmus).

klingt gut. das werde ich auch mal ausprobieren. Meine PQ's laufen ebenfalls wöchentlich, jedoch nur die Updates.
 

Astartus

Geowizard
Den Haken bei "Updated in the last 7 days" in den PQ's zu setzten ist auch nicht immer gut. Ein Cache der eine Woche lang nicht gefunden wurde und auch sonst keinerlei Notes oder ähnliches erhalten hat würde in solch einem Fall ebenfalls nicht in einer PQ mitgesendet werden da er kein "Update" erfahren hat.

Besser ist es eine PocketQuery zu generieren die immer den gleichen Bereich abdeckt, und diese wöchentlich am gleichen Tag zu importieren. Dann kann man in GSAK über den Filter mit "Last GPX Update date -> Not during the last 7 days" alle Caches herausfiltern, die nicht mehr Teil der letzten aktuellen PQ waren da sie entweder archiviert wurden oder aus dem Rahmen der PQ herausgefallen sind, da neuere Caches sie "herausdrängen".
 

Schnueffler

Geoguru
Ich benutze einfach regelmässig das Makro "Review for Archive". Dem gebeich einen Zeitraum an, in dem der Cache aktualisiert werden muss und klicke mich dann einfach durch die Vorschläge der evt. archivierten Caches durch und bestätige nur noch, ob der Cache wirklich archiviert ist.
 

[Gonzo]

Geocacher
Schnueffler schrieb:
Ich benutze einfach regelmässig das Makro "Review for Archive"..

Das in Kombi mit den nun wirklich immer kompletten PQ's denk ich ist ne gute Lösung.

Vielen Dank an euch!

Hab gesehen, das ich 5000 vermeintlich archivierte in meine komplett DB hab, die, so wie ich gehofft hab, durch neue Update PQ's wieder zum neuen Leben verholfen werden, so der Owner will. Naja nun steig ich da durch und kann mal wieder neue PQ-Reihen zusammenschrauben.

Naja dann wirds mit der kompletten Niedersachsen- und NRW-Abdeckung wohl nichts im wöchentliche Rhythmus, aber das soll auch mit einer Umkreis PQ reichen..., denn so oft komm ich ja nun doch nicht rum.

Macht es dann vielleicht nicht Sinn, nur aktive Caches in der PQ abzufragen? Und die dann zu "temp disabled" oder "archived" wechselnden in der PQ mit einem Filter zu erfassen und per obigen Makro gegenzuchecken.

So würde sich die Cachezahl pro PQ erniedrigen...
 
OP
walkin'Simon

walkin'Simon

Geowizard
Geo_Kai schrieb:
So würde sich die Cachezahl pro PQ erniedrigen...
Das stimmt, aber es bringt Dir nichts. Denn Du kannst der einen PQ nicht sagen "so viele wie möglich von Datum xy an" und der zweiten "das gleiche wie die erste, aber genau im Anschluss". Das verstehen die (noch) nicht.
Daher immer gleiche Rahmenbedingungen (Datum, Gebiet, Typen, D/T-Werte, ...) - unabhängig davon, ob Du nur die aktiven oder auch die unaktiven (aber nicht archivierten) in die PQ laufen läßt. Denn Du weißt ja auch nicht, ob nächste Woche plötzlich 30 Caches wieder aktiviert sind und dann die PQ Overflow hat. Da habe ich dann lieber auch eine PQ mit deutlich weniger Caches, aber das Wissen, dass ich alle in der Datenbank habe.
 

[Gonzo]

Geocacher
walkin´Simon schrieb:
Geo_Kai schrieb:
So würde sich die Cachezahl pro PQ erniedrigen...
Das stimmt, aber es bringt Dir nichts. Denn Du kannst der einen PQ nicht sagen "so viele wie möglich von Datum xy an" und der zweiten "das gleiche wie die erste, aber genau im Anschluss". Das verstehen die (noch) nicht.
Daher immer gleiche Rahmenbedingungen (Datum, Gebiet, Typen, D/T-Werte, ...) - unabhängig davon, ob Du nur die aktiven oder auch die unaktiven (aber nicht archivierten) in die PQ laufen läßt. Denn Du weißt ja auch nicht, ob nächste Woche plötzlich 30 Caches wieder aktiviert sind und dann die PQ Overflow hat. Da habe ich dann lieber auch eine PQ mit deutlich weniger Caches, aber das Wissen, dass ich alle in der Datenbank habe.

nene,da haste mich falsch verstanden. Meine PQ's umfassen immer so um 750 Caches, also da ist noch Luft füre weitere.

Denn Du kannst der einen PQ nicht sagen "so viele wie möglich von Datum xy an" und der zweiten "das gleiche wie die erste, aber genau im Anschluss". Das verstehen die (noch) nicht.

Was meinst du damit genau? Ich lasse die PQ's immer unter denselben Rahmenbedingungen ablaufen, natürlich nur nach Legedatum gestaffelt. Und bei diesen PQ's meine ich halt nur ein Haken bei "is Active". Ich verstehe da nicht, was die PQ's dabei nicht verstehen, denn das Atribut "aktiv" ist ja trotzdem noch dem Placeddatum unterworfen und das ist festgelegt. Daran wollte ich auch nichts ändern.

Die dann in meine jetzigen DB rausfallenden Caches, sprich, die eben nicht durch eine PQ in den letzten 7 Tagen aktualisier wurden, sollten demnach temp disabled oder archiviert sein. Wie ich schon sagte, werde ich die dann wie schnueffler schon beschrieben hat, rausfilern und mit dem Makro vielleicht nochmal gegenchecken...

Ich werde mir das mal zurechtbastel und dann mal bericht erstatten, wenns rund läuft;)
 
OP
walkin'Simon

walkin'Simon

Geowizard
Ich meinte damit, dass Du klar definieren musst, wie die Rahmenbedingungen der PQs sind (z.B: PQ1 bis 27.12. und PQ2 ab 28.12. des gleichen Jahres).
Mit
walkin´Simon schrieb:
Denn Du kannst der einen PQ nicht sagen "so viele wie möglich von Datum xy an" und der zweiten "das gleiche wie die erste, aber genau im Anschluss". Das verstehen die (noch) nicht.
meinte ich, dass Du nicht einstellen könntest, dass die PQ1 und PQ2 das gleiche Gebiet abdecken und automatisch die Datumsgrenze so anpassen, dass PQ1 voll ist (z.B. bis 15.05. und sich PQ2 automatisch anschließt (z.B. ab 16.05.) und bei der nächsten Woche PQ1 bis 20.05. und PQ2 ab 21.05. läuft.

Aber das war - denke ich - auch Dir bewusst; ich wollte nur klar stellen, dass Du alles selber definieren musst (da hatte ich mich vermutlich eher unklar ausgedrückt - wäre aber eine Innovation der Pocket Queries ;) ).
 
OP
walkin'Simon

walkin'Simon

Geowizard
Geo_Kai schrieb:
Die dann in meine jetzigen DB rausfallenden Caches, sprich, die eben nicht durch eine PQ in den letzten 7 Tagen aktualisier wurden, sollten demnach temp disabled oder archiviert sein. Wie ich schon sagte, werde ich die dann wie schnueffler schon beschrieben hat, rausfilern und mit dem Makro vielleicht nochmal gegenchecken...

Wenn Du aber den Haken bei "is activ" nicht setzt, bekommst Du auch die temp disabled mit. Und somit sind nur archivierte Caches ausserhalb des "updated ... 7 days" - die kannst Du dann auch schnell rauswerfen (ggf. stichprobenartig gegenchecken).
Die dann in der DB befindlichen temp disabled erkennst Du in GSAK an der farblichen Markierung - die sind dann auch schnell per Filter raussortiert (aber nicht gelöscht), so dass Du zum Übertragen aufs GPS immer noch nur die aktiven hast.
 

[Gonzo]

Geocacher
walkin´Simon schrieb:
Mit
walkin´Simon schrieb:
Denn Du kannst der einen PQ nicht sagen "so viele wie möglich von Datum xy an" und der zweiten "das gleiche wie die erste, aber genau im Anschluss". Das verstehen die (noch) nicht.
meinte ich, dass Du nicht einstellen könntest, dass die PQ1 und PQ2 das gleiche Gebiet abdecken und automatisch die Datumsgrenze so anpassen, dass PQ1 voll ist (z.B. bis 15.05. und sich PQ2 automatisch anschließt (z.B. ab 16.05.) und bei der nächsten Woche PQ1 bis 20.05. und PQ2 ab 21.05. läuft.

Aber das war - denke ich - auch Dir bewusst; ich wollte nur klar stellen, dass Du alles selber definieren musst (da hatte ich mich vermutlich eher unklar ausgedrückt - wäre aber eine Innovation der Pocket Queries ;) ).

ja klar, selber definieren tue ich das schon... ^^


walkin´Simon schrieb:
Wenn Du aber den Haken bei "is activ" nicht setzt, bekommst Du auch die temp disabled mit. Und somit sind nur archivierte Caches ausserhalb des "updated ... 7 days" - die kannst Du dann auch schnell rauswerfen (ggf. stichprobenartig gegenchecken).
Die dann in der DB befindlichen temp disabled erkennst Du in GSAK an der farblichen Markierung - die sind dann auch schnell per Filter raussortiert (aber nicht gelöscht), so dass Du zum Übertragen aufs GPS immer noch nur die aktiven hast.

wenn ich sie aber nicht rausschmeißen muss, dann ist das doch von vorteil, den haken bei "is active" zu setzen. Ob ich die archivierten dann per filter rausziehe nachher ohne den haken bei "is active" oder vorher nur aktive mir ziehe, ist doch eigentlich egal. wobei natürlich auch von den aktiven dann einige nicht mehr mit in neuen PQ's sein können, wenn die archiviert werden. Das filtern bleibt so gesehen nicht aus, aber es sind weniger, die dann ggf gegengecheckt wern müssten..

Aber man kann sich ganz schön viele Gedanken machen, die ich mir gerne mache, so ist es ja nicht. Dabei suche ich nicht nach der eierlegenden Wollmilchsau, sondern vielmehr nach einer kleinen Lösung, die meinen Aktionsbereich möglichst aktuell hält. Da ist meist für mein PDA mir vor einer geplanten Tour eine aktuelle PQ ziehe, sollte das mit dem ständigen aktualisieren auch nicht Überhand nehmen;)

Die Gedanken sind aber echt gut, denn ich will schließlich verstehen, was vorsich geht und wie die Daten aktualisiert werden können
 
Oben