• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

GSAK Finds Macro

Mauscacher

Geocacher
Hallo,

ich nutze GSAK seit kurzer Zeit und habe darin 3 Datenbanken:

- ToDo
- Finds
- Own

Momentan befülle ich alle DBs aus PQs. Die Logs der Own DB aktualisiere ich mit dem Macro "AddLogs", um die Anzahl der Finder meiner versteckten Caches zu aktualisieren.
Die Finds DB aktualisiere ich momentan entweder mit dem PQ "MyFinds", oder mit einem selbstgebauten PQ oder per Download der einzelnen .gpx Files.
Aus diesen beiden DBs lasse ich dann mit dem Macro "GenUploadStats" und dem dazugehörenden Macro "FindStatGen3" eine Statusseite erstellen.

Soweit SUPER! :D

Jetzt meine Frage, die ich stelle, nachdem ich die GSAK Threads gelesen:
Besteht eine Möglichkeit die Finds DB per Macro zu aktualiesieren, wenn ich online einen neuen Fund gelogt habe?

Thx
Mauscacher
 

Astartus

Geowizard
Du meinst, dass das Makro die "ToDo" Db aktualisiert, und alle gefundenen Caches in die "Finds" Db verschiebt?

Theoretisch ist das sicher möglich. Das Problem ist nur, dass die aktualisierung der ToDo DB sicher recht zeitintensiv wäre, wenn man sie komplett aktualisiert. Aber eventuell könnte man ein makro schreiben, dass die Caches aus einem "User Flag" Filter aktualisiert (z.B. via RefreshGPX makro). Also dass du alle Caches, die du gefunden hast (die aber in GSAK noch nicht aktualisiert sind) markierts und dann das Makro startest und anschließend alle mit "Found Status = found" in die andere DB verschiebst.

Funktionieren müsste das, wie das Makro-technisch aussieht kann ich aber leider nicht sagen, dazu habe ich mich mit der Materie noch nicht befasst.
 

Schnueffler

Geoguru
Ich glaube eher, dass er mit "aktualisieren" meint, dass die gefundenen Caches aus der ToDo-Db entfernt werden und in die Found-DB aufgenommen werden. Das sollte per Makro recht einfach gehen. Du kannst den Cache ja in eine neue DB kopieren und dann aus der Alten löschen. Aber die Daten, welche Caches rübergeschoben werden sollen, zu beschaffen, ist nicht so einfach. Zur Not müsstest Du das halt von Hand machen und z.B. das UserFlag für diese Caches setzten.
 

Mashirito

Geocacher
Mal eine ganz blöde Frage, die hier zwar nicht weiterhilft, aber mich interessiert:

Warum benutzen so viele eigentlich unterschiedliche Datenbanken? In manchen Fällen ist es ja sinnvoll und leuchtet mir ein (mach ich z.B. für Urlaubs-PQs). Aber in diesem Fall? Wieso nicht eine Datenbank? Man kann doch in GSAK eigentlich alles irgendwie abfragen und auswerten.

Neugierige Grüße

Mashirito
 

dbox

Geomaster
Ich habe eine je DB für noch nicht gefundene, gefundene und eigene Caches, dazu bei Bedarf welche für den Urlaub.
Ich mache das nur aus Gründen der Übersichtlichkeit. Sonst müsste ich bei nur einer DB ja z.B. jedesmal die schon gefundenen und die eigenen ausblenden.
500 ungefundene in einer PQ zum Nachladen sind auch besser 500 über alles.

Gruß Rüdiger.
 

Mashirito

Geocacher
Die Abfragen sind doch das schöne an einer DB... ;)
Also ich kann das Problem noch net nachvollziehen. Oder habt ihr langsame Rechner?

dbox schrieb:
500 ungefundene in einer PQ zum Nachladen sind auch besser 500 über alles.

Den Satz versteh ich net. Kannst Du das nochmal ausführen, bitte?

Danke und Grüße

Mashirito
 

Astartus

Geowizard
Ich glaube er wollte sagen, dass eine DB über 500 ungefundene Caches besser ist als eine DB über die naheliegendsten 500 (die dann ja auch bereits gefundene enthalten).

Eine DB mit den ungefundenen, gefundenen und eigenen Caches mag zwar schön sein, aber auf dem Laptop, auf dem ich arbeite und auf dem ich GSAK installiert habe, würde solch eine DB unendlich langsam laufen. Da habe ich doch lieber 3 einzlen DBs.
 

Schnueffler

Geoguru
Astartus schrieb:
Ich glaube er wollte sagen, dass eine DB über 500 ungefundene Caches besser ist als eine DB über die naheliegendsten 500 (die dann ja auch bereits gefundene enthalten).
Dafür kann man auch PQs erstellen mit dem Flag "That I haven't found" und "that I don't own". Und schon bekommst Du nur Caches aus der Umgebung, die Du noch nicht gefunden hast, und die Dir nicht gehören.
Astartus schrieb:
Eine DB mit den ungefundenen, gefundenen und eigenen Caches mag zwar schön sein, aber auf dem Laptop, auf dem ich arbeite und auf dem ich GSAK installiert habe, würde solch eine DB unendlich langsam laufen. Da habe ich doch lieber 3 einzlen DBs.
Also doch das bereits angeführte Argument mit den langsamen Mühlen.

BTW: Ich habe 1 riesige Datenbank mit mehr als 25000 Dosen drin. Diese Datenbank wird über PQs automatisch upgedatet und über das EmailReader-Makro bekomme ich auch direkt rein, wenn an einem Cache gearbeitet wird und er somit seinen Status ändert.
 

dbox

Geomaster
Mashirito schrieb:
Die Abfragen sind doch das schöne an einer DB... ;)
Ja schon, aber jedesmal, wenn ich eine Abfrage ans GSAK schicke, zwingend zusätzlich die bereits gefundenen oder die eigenen auszuklammern, halte ich für völlig unnötig. Sei es durch Anpassung der Suche oder durch Klick unten rechts auf die bunten Buttons. Überflüssig.

Das hat mit langsamen Rechnern nichts zu tun.

Gruß
Rüdiger.
 

Mashirito

Geocacher
Also ich hab für alles, was ich regelmäßig brauche, gespeicherte Filter. Da gibt's also 0,0 Mehraufwand!
Da finde ich das oben erwähnte hin und her kopieren und die umständliche Aktualisierung wesentlich aufwändiger!

Grüße

Mashirito
 

dbox

Geomaster
Mashirito schrieb:
Also ich hab für alles, was ich regelmäßig brauche, gespeicherte Filter. Da gibt's also 0,0 Mehraufwand!
Da finde ich das oben erwähnte hin und her kopieren und die umständliche Aktualisierung wesentlich aufwändiger!
Ich muss überhaupt nichts hin und her kopieren: 1 PQ für Finds, 1 PQ für Eigene, 1 PQ für Ungefundene, jede kommt in die entsprechende DB.
Da ich sehr oft andere Filter brauche, kann und will ich die nicht alle speichern.

Aber das ist halt alles Ansichtssache, jeder wie er mag. Da gibt es sicher nicht die beste Lösung.
Ist aber immer mal wieder interessant zu sehen, wie dieselben Dinge ganz anders angegangen werden. :D

Gruß
Rüdiger.
 

Mashirito

Geocacher
dbox schrieb:
Ich muss überhaupt nichts hin und her kopieren: 1 PQ für Finds, 1 PQ für Eigene, 1 PQ für Ungefundene, jede kommt in die entsprechende DB.

Und wie machst Du das, wenn einer aus der Ungefunden-DB von Dir gefunden wird? Das ist doch manueller Pflegeaufwand, oder nicht?
 
OP
Mauscacher

Mauscacher

Geocacher
Ich muss mich jetzt doch noch einmal einklinken! Mir ging es eigentlich um folgendes: Wenn ich einen oder mehere Funde auf der Geocaching.com Website geloggt habe, fände ich es cool, wenn ich dies per Macro ins GSAK übertragen könnte. Soll heißen ich habe z.B. eine DB mit 100 Finds, logge online 3 weitere Funde, starte ein Macro, welches mir die 3 neuen WPs in die Finds DB einbaut (unabhängig von allen anderen DBs), so daß ich danach direkt meine Statusseite per Macro neu generieren kann. Ich hoffe, das ich meine Frage bzw. meinen Wunsch besser formuliert habe. DANKE!
 

Astartus

Geowizard
@Mauscacher:
Sowas geht meines Wissens nicht. Dazu müsste das Macro eine Pocket Query erzeugen können und das ist nach meinem Wissensstand nicht möglich.

Also entweder jedesmal eine "MyFinds" PQ manuell generieren und dann via Macro vom eMail account abholen und verarbeiten. Oder die gefundenen Caches aus der "ungefunden" DB markieren, aktualisieren und in die "Funde" DB verschieben.
 
OP
Mauscacher

Mauscacher

Geocacher
Schade - ich dachte, man könne ein Macro schreiben, welches auf der geocaching.com unter meinem Account meine Logs mit den bereits vorhandenen Logs vergleicht und die differierenden Caches entweder downloaded oder aus der ToDo DB rüber schiftet.

Aber da ich keinerlei Ahnung von Programmierung habe, war das wohl zu naiv gedacht. :/

Trotzdem DANKE!
 

Joggl

Geomaster
Mashirito schrieb:
Mal eine ganz blöde Frage, die hier zwar nicht weiterhilft, aber mich interessiert:

Warum benutzen so viele eigentlich unterschiedliche Datenbanken? In manchen Fällen ist es ja sinnvoll und leuchtet mir ein (mach ich z.B. für Urlaubs-PQs). Aber in diesem Fall? Wieso nicht eine Datenbank? Man kann doch in GSAK eigentlich alles irgendwie abfragen und auswerten.

Neugierige Grüße

Mashirito

Bei mir gibts eine Hauptdatenbank in der sind alle Caches drin. Dann gibts noch verschiedene andere Datenbanken die mit PQs gefüllt werden. Z.b. eine mit Caches entlang einer Route die ich öfters mal fahre, dann eine mit Caches entlang von Autobahnen, eine für unseren Team-Account und eine für Caches in einer anderen Stadt in der ich mich öfters mal aufhalte. Beim abrufen landen die aktualisierten Caches jeweils in der richtigen Datenbank. So kann ich bei Bedarf z.B. einfach die Datenbank mit den Caches entlang der Route nehmen und auf mein GPSr laden, da meins nur 1000 Wegpunkte speichert, kann ich dadurch gewährleisten alle Caches entlang der Route zu haben und nicht welche die in Timbuktu liegen.
Die eigentliche Hauptdatenbank wird per Makro aus den anderen Datenbanken aktualisiert und es werden auch nur dort Eintragungen gemacht.
Leider hab ich bisher noch keine sinnvolle Möglichkeit gefunden die Caches der verschiedenen PQs so zu taggen damit ich sie per Filter auslesen kann. Geht ja aber auch so...

Grüße
Joggl
 
Oben