• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

Groundspeak es reicht!

Ich stelle meine Premium-Mitgliedschaft bei GC.com in Frage

  • Ja

    Stimmen: 20 14,8%
  • Nein

    Stimmen: 115 85,2%

  • Umfrageteilnehmer
    135
Status
Für weitere Antworten geschlossen.

radioscout

Geoking
Bursche schrieb:
Ich gehe davon aus, dass die deutschen Geocacher das Problem wieder pragmatisch lösen. Es ist ja jederzeit möglich, einen neuen Account anzulegen. Verwendet man nicht seinen Premium sondern einen reinen Spider-account zum spidern, wird groundspeak wohl wenig dagegen tun können.
Aber sicher: Z.B. weitere Einschränkungen für Nicht-PM einführen.

Oder meine bevorzugte Lösung: Wenn Spidern erkannt wird, werden die Daten verfälscht. Logs vertauscht, zu Koordinaten Zufallszahlen addiert, Listingtexte vertauscht, Caches als archived markiert usw.
Der Spiderer wird dann irgendwann feststellen, daß seine mühsam gefüllte Datenbank nur Müll enthält.
Aber wahrscheinlich wird er es nie bemerken oder schaut ein Datensammler seine Daten auch irgendwann mal an?
 

_Karsten

Geocacher
@jmsanta
PQ-Gebiet Notifications zu archivierten Caches zuschicken lassen
Wie stellt man solch eine Notification ein, ich kann nur 'neue' Caches bekommen...


@radioscout
schaut ein Datensammler seine Daten auch irgendwann mal an?
Ich schaue meine Datenbank mit ein paar tausend Caches schon recht häufig an, dies ist nämlich eine völlig normale Größe für Berlin. Und dieses Gebiet kann man nicht mit einer einzelnen PQ abdecken, sondern nur inkrementell. Von daher ist es schon interessant mitzubekommen, ob ein Cache aktiv ist oder nicht. Ich bin schon öfters mal losgezogen und der Cache war seit Wochen disabled, aber noch auf meinem GPS und in der Datenbank.

@Groundspeak / All
Das besagte Macro hab ich bisher noch nicht genutzt - sondern ich gehe von Hand alles durch was ein paar Wochen nicht aktualisert wurde, öfters nicht gefunden wurde, oder disabled ist...

Nun habe ich gerade auf ein nicht-inkrementelles System umgestellt, da geht es dann natürlich automatisch, indem man anguckt wann zuletzt aktualisiert wurde. Kostet aber nun 10 PQs für Berlin und Brandenburg - dh ich nutze jetzt mehr PQs als vorher...

Ich denke es sind einfach deutlich mehr Nutzer als 'früher' und damit ist auch die Servberlastung deutlich höher.
Aber warum sie gerade bei den zahlenden Premium-Leuten anfangen zu meckern... denn nur diese können überhaupt GPX Files abrufen.
 

Astartus

Geowizard
Es ist aber nunmal Tatsache, dass dieses Makro einer der wenigen Wege war, seine Datenbank, und dafür zahle ich nunmal als PM, wirklich aktuell zu halten.

Der oft genannte Vorschlag, sich regelmäßig PQ des selben gebiets zu holen und alles zu löschen, dessen "Last GPX" Datum niht der aktuellen PocketQuery entspricht ist aber nicht immer hilfreich und meines erachtens bulls****.
Denn viel zu oft gibt es viel mehr neue Caches als alte ins Archiv wandern (man braucht ja schon teilweise 1 komplette Pocketquery mit 500 um nur die neuen Caches in einem Bundesland zu sammeln, die in einem Monat hinzugekommen sind), und das bringt die Pocket Queries schnell zum überlaufen. Das führt dazu dass man bei Caches, die nicht mehr teil der Pocket Query sind nicht sicher sien kann ob diese nun wirklich archiviert wurden, oder einfach nur nicht mehr Teil der PocketQuery sind.

Und selbst auf diese wenigen Caches das Makro laufen zu lassen wurde als "exzessiver Missbrauch" gewertet.

Viele der hier genannten Ideen wurden schon des öfteren im blauen Forum vorgeschlagen, aber in irgendeiner Form darauf gehört hat Groundspeak noch nie. Warum kann es denn nicht einfach eine Archiv-PQ geben, die man ähnlich der MyFinds-PQ einmal pro Woche abrufen kann? Warum werden in PQs nur die letzten 5 Logs geliefert und nicht die letzten 20, wie in einer einzelen GPX Datei (wo es doch umgekehrt viel besser wäre), warum sind die Server abends an Wochenenden nicht erreichbar wenn wir Europäer unsere Finds loggen wollen und sicher kein RefreshMakro laufen lassen? Wofür zahlen wir eigentlich den Monatsbeitrag wenn man uns kein Gehör schenkt?

Genauso die Umstellung des GPX Formats so dass die Attribute (Takes less than 1 hour, etc) mitgeschickt werden: Endlich mal ein kleiner Fortschritt und nach 2 Wochen rudert Groundspeak schon wieder zurück und versendet das alte Format ohne Attribute.

Dann im Moment die ganze Sache mit den MyFinds PQs die nicht versendet werden.

Viele sagen hier immer: Dann geh doch zu OC. OC ist noch schlimmer, so nach dem Motto "Wenn Mama und Papa (GC) es mir verbieten, frage ich halt Oma und Opa (OC)".
 

radioscout

Geoking
_Karsten schrieb:
Kostet aber nun 10 PQs für Berlin und Brandenburg - dh ich nutze jetzt mehr PQs als vorher...

Ich denke es sind einfach deutlich mehr Nutzer als 'früher' und damit ist auch die Servberlastung deutlich höher.
Das kann ich mir nicht vorstellen. Das ist jeweils eine Datenbankabfrage und eine Email.

Bei Spidern erfolgt für jeden Cache mindestens eine Abfrage, generieren der Seite, Karten usw.
 

radioscout

Geoking
Astartus schrieb:
Warum kann es denn nicht einfach eine Archiv-PQ geben, die man ähnlich der MyFinds-PQ einmal pro Woche abrufen kann?
Vor langer Zeit war mal von offizieller Seite zu lesen, daß es für die Akzeptanz von Geocaching wichtig war, die Suche nach Caches durch Archivierung schnell stoppen zu können, wenn ein Cache auf verbotenem Gelände, im NSG usw. liegt.
Es ist demnach nicht damit zu rechnen, daß eine gezielte Suche nach oder der Abruf von archived Caches möglich sein wird.

Astartus schrieb:
Warum werden in PQs nur die letzten 5 Logs geliefert und nicht die letzten 20, wie in einer einzelen GPX Datei (wo es doch umgekehrt viel besser wäre),
Das ist doch gut so. Ich schreibe meine Logs jedenfalls nicht für Datensammler sondern für Cacher, die sie online lesen wollen.
Vergiss auch nicht, was das für große Datenmengen wären.
 
radioscout schrieb:
Vor langer Zeit war mal von offizieller Seite zu lesen, daß es für die Akzeptanz von Geocaching wichtig war, die Suche nach Caches durch Archivierung schnell stoppen zu können, wenn ein Cache auf verbotenem Gelände, im NSG usw. liegt.
Es ist demnach nicht damit zu rechnen, daß eine gezielte Suche nach oder der Abruf von archived Caches möglich sein wird.
Für GSAK-User verdreht sich das aber genau ins Gegenteil, wie hier schon mehrfach beschrieben. Das kann man natürlich ignorieren, indem man wie Groundspeak sagt, GSAK ist ein 3rd-Party-Tool, und wir haben keine Lust, uns nach deren Anforderungen zu richten. Und welches Problem hat man dann damit gelöst? Keines - das Problem mit den archivierten Caches geistert schon seit Jahren durch z.B. das blaue Forum. Die Leute, die danach fragen, habe ganz sicher nicht vor, speziell nach archivierten Caches zu suchen, sondern genau das Gegenteil. Ich weiss echt nicht, was daran so schwer zu verstehen ist - und in die PQ eine Option "archivierte Caches" einzubauen ist sicher technisch kein großer Aufwand.
 

radioscout

Geoking
Das ist aber kein GSAK-Problem.
Ich bin gerade dabei, die 30000 Watchlist-Mails zu lesen, die sich in den letzten Monaten angesammelt haben. Du glaubst nicht, wie oft man bei archived Caches liest: Nicht gefunden, sehe erst jetzt, daß er archived ist/die Beschreibung geändert wurde, hatte einen alten Ausdruck.

Und warum sollte Groundspeak das Datensammeln unterstützen? PQ erstellen herunterladen, auf PDA/GPSr kopieren, Caches suchen, PQ löschen und vor der nächsten Suche eine neue erstellen funktioniert doch hervorragend.
 
radioscout schrieb:
Das ist aber kein GSAK-Problem.
Ich bin gerade dabei, die 30000 Watchlist-Mails zu lesen, die sich in den letzten Monaten angesammelt haben. Du glaubst nicht, wie oft man bei archived Caches liest: Nicht gefunden, sehe erst jetzt, daß er archived ist/die Beschreibung geändert wurde, hatte einen alten Ausdruck.
Mag das gleiche Problem sein, denke aber, das wesentlich mehr User ihre Cachedaten per GSAK zusammenstellen, als die, die alte Ausdrucke irgendwo stapeln.

radioscout schrieb:
Und warum sollte Groundspeak das Datensammeln unterstützen?
Damit ich bei meiner per GSAK erstellten Cacheplanung nicht sinnloserweise nach archivierten Caches suche.

radioscout schrieb:
PQ erstellen herunterladen, auf PDA/GPSr kopieren, Caches suchen, PQ löschen und vor der nächsten Suche eine neue erstellen funktioniert doch hervorragend.
Wenn man damit zufrieden ist, ja.
Konkretes Beispiel in meinem Fall: Ein Skandinavien-Urlaub steht an. Genaue Route gibts keine, und die Größe der Länder macht es unmöglich, hier mit ein paar PQ zurecht zu kommen. Also hatte ich vor ein paar Jahren mal angefangen, mir über Monate mühsam mit sehr vielen PQ eine komplette Cache-DB von dort anzulegen. Damit bräuchte man im nächsten Jahr nur noch die neuen Caches seit dem letzten Urlaub per PQ ziehen. Nur leider weiss man dann nicht, was in der Zeit alles archiviert wurde. Und das ist einfach sehr unschön. :(
Hoffe ich konnte es jetzt für jeden nachvollziehbar erklären.
 

Sonitator

Geocacher
Ich glaube, wer einmal eine lokale Datenbank genutzt hat, wird nicht mehr drauf verzichten wollen.

Man kann jederzeit relativ schnell die Daten aufs Navi spielen und das sogar mit angepassten Daten. So kann ich trotzt etrex auf einen Blick Cachetyp und -größe, Schwierigkeit und Gelände sehen, und mit einem Klick mehr auch noch Last found, hint uvm.


Die Daten stellt groundspeak doch freiwillig (für Geld) zur Verfügung, warum soll ich sie denn nicht nutzen, wenn es die Planung vereinfacht? Allerdings muss man schon eine Menge Zeit investieren, eh man alles so eingerichtet hat, wie man es braucht. Hier macht groundspeak es einem unnötig schwer. Leider...

Mit Datensammlen hat das übrigens nichts zu tun. Ich nutze die Daten, auch wenn ich niemels alle Daten gleichzeitig nutzen können werde. Aber es wird sicherlich auch niemand 30000 emails gleichzeitig lesen ;)
 

feinsinnige

Geomaster
radioscout schrieb:
Das ist aber kein GSAK-Problem.
Ich bin gerade dabei, die 30000 Watchlist-Mails zu lesen, die sich in den letzten Monaten angesammelt haben.
Sagen wir mal 30 Sekunden pro Log (ist ja nicht alles "TFTC"), also bei pausenlosem Lesen 120 Logs pro Stunde. Dann wünsch ich Dir schon mal ein frohes Fest und einen guten Rutsch und allen anderen eine schöne Zeit ohne bigotte Wünsche wie
radioscout schrieb:
Oder meine bevorzugte Lösung: Wenn Spidern erkannt wird, werden die Daten verfälscht. Logs vertauscht, zu Koordinaten Zufallszahlen addiert, Listingtexte vertauscht, Caches als archived markiert usw.
wobei ich die schon herbeigebeteten Captchas etwas vermisse. Und wenn Du bis Neujahr nicht fertig hast, dann schicke ich Dir weitere 60.000 Logs gezippt per E-Mail. ;)
f
 

huzzel

Geowizard
radioscout schrieb:
Oder meine bevorzugte Lösung: Wenn Spidern erkannt wird, werden die Daten verfälscht. Logs vertauscht, zu Koordinaten Zufallszahlen addiert, Listingtexte vertauscht, Caches als archived markiert usw.
Da es wohl keinen Mechanismus gibt, der in der Hinsicht 100%ig arbeitet, werden auch normale Browsernutzer verfälschte Daten bekommen. Nicht viele, aber genug um viel Unmut herauf zu beschwören. Und außerdem werden dann nur die Spider "intelligenter".
 

huzzel

Geowizard
radioscout schrieb:
Aber sicher: Z.B. weitere Einschränkungen für Nicht-PM einführen.
Sagt halt einfach, dass NichtPMler nicht erwünscht sind.

Sperrt GS endlich für alle NichtPMler, dann ist endlich Ruhe

nur zur Sicherheit: :ironie2:
 

rautaxe

Geocacher
:xmas4-ironie2:
Ein anderes Problem sind die doch die Powercacher.
Was die an Traffic verursachen.
Die ganzen Pocketqueries und das
Loggen erst. Wiviel Seiten da aufgerufen werden.
Mann sollte die Logs pro Monat auf 30 begrenzen,
das würde eine Menge Traffic sparen :D .


Aber im Ernst:
Wenn GS ein Programm zur offline Verwaltung
mit direkter Anbindung an den Server.
Mit allen Logs und Bildern.
Mann könnte die Anzahl auch problemlos auf
begrenzen.
Da würde ich für die PM auf 50€ im Jahr für zahlen.
Oder eine Freewareversion mit Werbebanner.

Mit so einem Tool hätte sich die ganze Spiderrei
wohl ganz schnell erledigt.

Aber das System mit den PQs :ua_no2:
 

eigengott

Geowizard
_Karsten schrieb:
ich nutze jetzt mehr PQs als vorher...

Das ist für Groundspeak kein Problem. Die PocketQueries werden im Batchbetrieb auf einem separaten Server gefahren. Die Anzahl der PQs ist beschränkt (5 pro Tag pro Account) und damit planbar. Sprich: ganz andere Baustelle als der interaktive Abruf von Webseiten oder GPX-Dateien.
 

jmsanta

Geoguru
_Karsten schrieb:
@jmsanta
PQ-Gebiet Notifications zu archivierten Caches zuschicken lassen
Wie stellt man solch eine Notification ein, ich kann nur 'neue' Caches bekommen...
neu-2.png
http://www.geocaching.com/notify/

irgendwer schrub kürzlich irgendwo (Twitter, Blaues Forum?) von einem Makro (den Namen weiß ich nicht mehr) für GSAK, das die Notifications per E-Mail auswerten kann - also mein händisch beschriebenes Vorgehen lässt sich tatsächlich automatisieren - werde ich mir demnächst mal zu Gemüte führen
 

ElliPirelli

Geoguru
jmsanta schrieb:
irgendwer schrub kürzlich irgendwo (Twitter, Blaues Forum?) von einem Makro (den Namen weiß ich nicht mehr) für GSAK, das die Notifications per E-Mail auswerten kann - also mein händisch beschriebenes Vorgehen lässt sich tatsächlich automatisieren - werde ich mir demnächst mal zu Gemüte führen
Email Reader ;)
 

_Karsten

Geocacher
@jmsanta
Danke für die genaue Beschreibung.

jmsanta schrieb:
irgendwer schrub kürzlich irgendwo (Twitter, Blaues Forum?) von einem Makro (den Namen weiß ich nicht mehr) für GSAK, das die Notifications per E-Mail auswerten kann
Das ist das EMailReader Macro. dabei sollte man dieses aber besser so konfigurieren, dass das RefreshAllGPX nicht mehr aufgerufen wird :roll:

@eigengott, @radioscout
Ihr habt recht, mehr PQs/EMails sind defintiv nicht so server-belastend wie Spidern. Nicht einmal bei niedriger Cache/Spider Anzahl, da für die PQs und Mails auch ein anderer Server zuständig sein kann, das Spidern aber immer über den Hauptserver erfolgt. Desweiteren kann der Server bei Überlast selber entscheiden, wie er darauf reagiert - zB PQs/Emails verzögern usw.
 

jmsanta

Geoguru
Problem war eine temporäre gsak.net/Google-Bedienungsinsuffizienz auf Anwenderseite....
http://gsak.net/board/index.php?s=02bb50bfc31ae28675e30d22820673ee&showtopic=7604&st=20&#entry86531
danke @_Karsten, ElliPirelli und ein das "Vögelchen" per PN
 
Status
Für weitere Antworten geschlossen.
Oben