• Willkommen im Geoclub - dem größten deutschsprachigen Geocaching-Forum. Registriere dich kostenlos, um alle Inhalte zu sehen und neue Beiträge zu erstellen.

Paperless-Cachen ohne Premium-Account?

ardane

Geocacher
friederix schrieb:
c.geo ist nur offline legal.
Basiert diese Aussage auf die Terms of Use, wo es heißt:
"You agree that you will not use any robot, spider, scraper or other automated means to access the Site for any purpose without our express written permission."??

Falls ja, dann sollten wir mal schauen, was c:geo macht:
- es führt http-GET und -POST aus, nachdem der Anwender dies beauftragt hat
- es erhält html-Daten vom Groundspeak-server
- es führt ein html-Parsing durch, und präsentiert den Inhalt auf dem Bildschirm
- es bietet die Möglichkeit diese Daten zu speichern und zu durchsuchen

Dies ist genau was Firefox, IE, Opera und Chrome auch machen, wenn Du die GC.com-Seite besuchst. Applikationen wie c:geo und cachewolf sind Browser. Wenn die Anwendung dieser Clients illegal ist, ist die Verwendung eines Webbrowsers das auch.
 

radioscout

Geoking
Sofern das, wie bei der Verwendung eines "normalen" Webbrowsers, jeweils nur nach dem Anklicken eines Links geschieht, ist das IMHO ok.

Unzulässig ist es, wenn Cachelistings automatisiert abgerufen werden.
 

ardane

Geocacher
radioscout schrieb:
Sofern das, wie bei der Verwendung eines "normalen" Webbrowsers, jeweils nur nach dem Anklicken eines Links geschieht, ist das IMHO ok.
Unzulässig ist es, wenn Cachelistings automatisiert abgerufen werden.
Wie wäre es, Deiner Meinung nach, wenn ich mir von 20 Listings jeweils einen Bookmark anlege, und dann im Firefox anklicke: "öffne mir alle Bookmarks in separaten Tabs"? Ist das ein "automatisiertes Abrufen" im normalen Webbrowser, oder ist das einfach eine effektive Weise mir die 20 Listings anzusehen?
 

radioscout

Geoking
Das ist meiner Meinung nach ok weil die Caches manuell ausgewählt und abgerufen wurden und lediglich diese Auswahl zur späteren Verwendung gespeichert wurde.

Das ist aber auch nicht das, was als "Spidern" bezeichnet wird. Da geht es um das automatisierte herunterladen aller Cachelistings (in einem bestimmten Umkreis) und nicht um die bestimmungsgemäße Verwendung von Bookmarks.
 

ardane

Geocacher
radioscout schrieb:
Das ist meiner Meinung nach ok weil die Caches manuell ausgewählt und abgerufen wurden und lediglich diese Auswahl zur späteren Verwendung gespeichert wurde.

Das ist aber auch nicht das, was als "Spidern" bezeichnet wird.
Was die Bedeutung von 'Spidern' betrifft, sind wir uns einig. Wir kennen beide den Begriff, und wissen wohl auch, dass GC auch diese Bedeutung beabsichtigt.

Es geht mir darum, dass GC sich selbst das Bein stellt.
Du sagt ja selbst, dass es in Ordnung sei, wenn ich zunächst die 20 Caches besuche (also: die Seiten abrufe), jeweils einen Bookmark anlege, und dann die Seiten über die Bookmarks nochmal abrufe. Das bedeutet, dass ich zur weiteren automatischen Bearbeitung jede Seite doppelt so oft abrufe, als ein Spider machen würde.

Mal theoretisch und etwas extrem:
a) ich lege mir (automatisch mit einem Script) Bookmarks an für die Caches GC20000 bis GC21000.
b) ich rufe alle Bookmarks ab; jetzt habe ich den Quellcode aller Seiten lokal auf meinem Rechner
c) ich erstelle mir (automatisch per Script) lokal auf dem Rechner eine GPX-Datei aus diesen Quellcodes - das wird GC egal sein, denn es passiert ja auf meinem PC, offline.

Wäre das OK?
[Falls ja: eine Software wie Cachewolf macht genau dasselbe]

Bitte verstehe, dass ich hiermit nicht behaupte, dass der Einsatz von solchen Tools problemlos ist. Ein solcher Einsatz ist ein Verstoß gegen die Bedingungen (nun ja, gegen den einen, unklaren Satz, vielleicht).
Ich behaupte nur, dass die Bedingungen selbst ein Problem darstellen, weil die Grauzone enorm ist.
 

ColleIsarco

Geowizard
Moin moin,
ardane schrieb:
Mal theoretisch und etwas extrem:
a) ich lege mir (automatisch mit einem Script) Bookmarks an für die Caches GC20000 bis GC21000.
b) ich rufe alle Bookmarks ab; jetzt habe ich den Quellcode aller Seiten lokal auf meinem Rechner
c) ich erstelle mir (automatisch per Script) lokal auf dem Rechner eine GPX-Datei aus diesen Quellcodes - das wird GC egal sein, denn es passiert ja auf meinem PC, offline.

Wäre das OK?
Korinthenkackermodus on:
Nein, nicht OK.
Fall c) bezeichnet man auch als Scrapen, also nach TOU verboten.
Fall a) sind `any other automated means`. Auch nicht wirklich gut.
Fall b) könnte durch das Verbot, unnötige Last zu erzeugen (steht direkt der Sache mit dem Spidern) tangiert sein.

Man sieht, dass Einschränkungen vorhanden sind und der Spielraum enger ist, als man denkt. So gesehen ist selbst der Einsatz des Schmiermaxen nicht problemfrei und ob ABP die Werbebanner entfernen darf... ? :???:
Korinthenkackermodus off.

Du kannst übrigens mal ausprobieren, was passiert, wenn Du 20 Bookmarks anlegst und dann einfach mal `Open all in new Tabs` gehst...

Gruß
ColleIsarco
 

friederix

Geoguru
ardane schrieb:
Ich behaupte nur, dass die Bedingungen selbst ein Problem darstellen, weil die Grauzone enorm ist.
Genau so sehe ich das auch. Im Prinzip mache ich mit c:geo nix anderes, was ich nicht auch mit einem normalen Browser mache, nur mit weniger Tipperei.
Das gleiche gilt übrigens für GeOrg mit Connector, das ich übrigens c:geo vorziehe.
Das einzige, was ich mit dem Connector mache, ist, dass ich mir gelegentlich Caches in der Nähe anzeigen lasse, weil einer aus irgendeinem Grund nicht in meinen PQs ist, und bei Interesse zur Datenbank hinzufüge um den zu suchen.

Das gleiche könnte ich ebensogut online mit dem Browser machen und mir dann das gpx des Caches herunter laden.
Ist nur etwas umständlich.

Achja, und die fieldnotes lade ich am Ende des Cachetages damit hoch. Auch dass könnte ich über die GC-Seite machen, ist aber noch umständlicher.

Also würde ich ohne diese Tool ganz sicher mehr traffic bei gc.com erzeugen als mit.
Also kann es folgerichtig nur einen Grund dafür geben, dass gc c:geo als "banned app" deklariert: Man will das eigene Tool verkaufen. Verständlich.

Also habe ich mir die GC-app gekauft (die 7 Euronen bringen mich nicht um), benutzte GeOrg und der Rest soll mir egal sein.
GC hat sein Geld und ich meine Ruhe.

Geschätzt dürfte mein traffic, den ich zuhause am Rechner beim Loglesen und -schreiben erzeuge, dem von meinen Telefon um den Faktor 1.000.000 überschreiten.

Aber die Diskussion gibt es im blauen Forum schon, und führte auch dort zu nix.

Gruß friederix
 

friederix

Geoguru
Achso: Noch 'was vergessen.
Schon die Tatsache, dass die normale mobile Internet-Flat ab 200 bis 500 MB vom Anbieter gedrosselt wird, führt das Argument des übermäßigen traffics ad absurdum.

Jeder normale Mensch wird schon aus dem Grund so vernünftig sein, seine mobilen Zugriffe auf GC auf das Nötigste zu beschränken.
 

radioscout

Geoking
ardane schrieb:
Du sagt ja selbst, dass es in Ordnung sei, wenn ich zunächst die 20 Caches besuche (also: die Seiten abrufe), jeweils einen Bookmark anlege, und dann die Seiten über die Bookmarks nochmal abrufe. Das bedeutet, dass ich zur weiteren automatischen Bearbeitung jede Seite doppelt so oft abrufe, als ein Spider machen würde.
Und das ist nur meine Meinung.
Und wahrscheinlich ist Groundspeak das auch egal weil Du manuell niemals soviel Traffic erzeugen kannst wie ein "Spider", der ohne daß ihm die Finger schmerzen oder er müde wird Tagelang ununterbrochen Listings abrufen kann.

ardane schrieb:
Mal theoretisch und etwas extrem:
a) ich lege mir (automatisch mit einem Script) Bookmarks an für die Caches GC20000 bis GC21000.
b) ich rufe alle Bookmarks ab; jetzt habe ich den Quellcode aller Seiten lokal auf meinem Rechner
c) ich erstelle mir (automatisch per Script) lokal auf dem Rechner eine GPX-Datei aus diesen Quellcodes - das wird GC egal sein, denn es passiert ja auf meinem PC, offline.

Wäre das OK?
Sicherlich nicht denn das fällt, wie ColleIsarco schon erwähnte, unter "any other automated means".


Was ich nicht verstehe: wenn es mal wieder langsam geht, rufen alle nach mehr Hamstern.
Aber es wird alles dafür getan, daß es langsam geht. Und wer "spidert" statt PM zu werden, trägt nicht mal dazu bei, die erforderlichen zusätzlichen Hamster zu finanzieren.
 

radioscout

Geoking
friederix schrieb:
Achso: Noch 'was vergessen.
Schon die Tatsache, dass die normale mobile Internet-Flat ab 200 bis 500 MB vom Anbieter gedrosselt wird, führt das Argument des übermäßigen traffics ad absurdum.

Jeder normale Mensch wird schon aus dem Grund so vernünftig sein, seine mobilen Zugriffe auf GC auf das Nötigste zu beschränken.
Ist es nicht so, daß die Datenbanken zu Hause über WLAN gefüllt werden?
 

friederix

Geoguru
radioscout schrieb:
Ist es nicht so, daß die Datenbanken zu Hause über WLAN gefüllt werden?
Ja, aber nur die Pocket Queries. Das ist ja der Sinn der PQs. Dafür sind sie da., und es sollte gc leidlich gleichgültig sein, in welchem Programm ich die einspiele und wie ich damit suchen gehe
Ich rede hier allerdings von PMs.
Wie sich die "Ich-will-alles-aber-umsonst-Fraktion" ihre Daten besorgt, müssen die mit ihrem Gewissen ausmachen.
Geiz-ist-geil ist eben geil.
Meine Welt ist das überhaupt nicht.
Ich will Geld für meine Arbeit und andere sollen das auch für ihre bekommen. So funktioniert die Welt eben.
Die Probleme der Welt enstehen immer nur, weil einige für sich selbst beanspruchen, was sie anderen nicht zugestehen

GC selbst bietet ja nicht mal ein Programm für den PC an. Da müssen dann schon wieder andere die Arbeit machen.
Ganz ehrlich: So ein Tool wie GSAK hätte eigentlich von GC kommen müssen.
Natülich auch gegen Bezahlung.

Würden sie selbst ein offline-Tool bereit stellen, wäre das die beste Methode, die Serverlast zu verringen.

Als online noch teuer war, gab es für alles mögliche Offline-Reader, und die waren sehr effizient.

Gruß friederix
 

ardane

Geocacher
ColleIsarco schrieb:
Moin moin,
ardane schrieb:
Mal theoretisch und etwas extrem:
a) ich lege mir (automatisch mit einem Script) Bookmarks an für die Caches GC20000 bis GC21000.
b) ich rufe alle Bookmarks ab; jetzt habe ich den Quellcode aller Seiten lokal auf meinem Rechner
c) ich erstelle mir (automatisch per Script) lokal auf dem Rechner eine GPX-Datei aus diesen Quellcodes - das wird GC egal sein, denn es passiert ja auf meinem PC, offline.

Wäre das OK?
Korinthenkackermodus on:
Nein, nicht OK.
Fall c) bezeichnet man auch als Scrapen, also nach TOU verboten.
Du meinst wirklich, dass ich laut ToU keine Dateien, die sich bereits auf meinem PC befinden, off-line (ganz ohne Netzwerk- und Internetverbindung) parsen und interpretieren darf?

Fall a) sind `any other automated means`. Auch nicht wirklich gut.
Moment. Ich lege auf meinem Rechner Bookmarks an. Ich darf doch bitteschön wohl Bookmarks für http://coord.info/GCxxxxx anlegen, oder? Und auch wohl 100 oder 1000 Stück? Das geht ganz ohne Netzwerk- und Internetverbindung.

Fall b) könnte durch das Verbot, unnötige Last zu erzeugen (steht direkt der Sache mit dem Spidern) tangiert sein.
Nix unnötige Last. Wenn man Caches als Bookmark vorhält, und dann diese Bookmarks abruft, macht man das nicht aus Lust und Laune, sondern weil man die Caches lesen möchte. Das ist weder 'Last' noch 'unnötig'.

Du kannst übrigens mal ausprobieren, was passiert, wenn Du 20 Bookmarks anlegst und dann einfach mal `Open all in new Tabs` gehst...
Habe ich soeben mal gemacht (obwohl Du meintest, es sei nicht legal). Was hätte passieren sollen, oder was ist mir nicht aufgefallen?
 

ColleIsarco

Geowizard
Moin moin,

Du kannst übrigens mal ausprobieren, was passiert, wenn Du 20 Bookmarks anlegst und dann einfach mal `Open all in new Tabs` gehst...
Habe ich soeben mal gemacht (obwohl Du meintest, es sei nicht legal). Was hätte passieren sollen, oder was ist mir nicht aufgefallen?[/quote]
Ich habe nicht behauptet, dass das in irgendeiner Form illegal sei. Aber wenn Du gefragt worden wärst, ob Du überhaupt ein Mensch seist und aufgefordert worden wärst einen Captcha-Code einzugeben, dann hätte mich das nicht gewundert.
Mir ist das schon passiert, nachdem ich in einer Ergebnisliste vier oder fünf Caches in unterschiedlichen Tabs geöffnet hatte...

Gruß
ColleIsarco
 

ColleIsarco

Geowizard
Moin moin,
ardane schrieb:
Du meinst wirklich, dass ich laut ToU keine Dateien, die sich bereits auf meinem PC befinden, off-line (ganz ohne Netzwerk- und Internetverbindung) parsen und interpretieren darf?
Im Korinthenkacker-Modus ganz klar ja. Diesen Modus aktiviere ich normalerweise nicht, aber bei den TOU handelt es sich um einen juristischen Text und da sind solche Spitzfindigkeiten keine Seltenheit.

Gruß
ColleIsarco
 

radioscout

Geoking
ardane schrieb:
Du meinst wirklich, dass ich laut ToU keine Dateien, die sich bereits auf meinem PC befinden, off-line (ganz ohne Netzwerk- und Internetverbindung) parsen und interpretieren darf?
Natürlich darfst Du das. Aber die Dateien müssen ohne ToU-Verstoß erzeugt worden sein.

Seiten manuell abrufen und Browsercache "auswerten": IMHO ok.
Seiten automatisch, z.B. mit einem Script, das den Browser steuert, abrufen und den Cache "auswerten": nicht ok.
 

ardane

Geocacher
radioscout schrieb:
Seiten manuell abrufen und Browsercache "auswerten": IMHO ok.
Seiten automatisch, z.B. mit einem Script, das den Browser steuert, abrufen und den Cache "auswerten": nicht ok.
Ich kann mir wirklich nicht vorstellen, dass ein solcher Unterschied zu handhaben ist.

Beispiel:
1. ich rufe coord.info/GC12345 ab, speichere als html-Datei, und erstelle morgen offline aus dieser Datei eine GPX-Datei.
2. ich erstelle, ohne die Seite zuvor abzurufen, einen Bookmark für coord.info/GC12345. Morgen rufe ich die Seite per Bookmark ab, und erstelle aus dem Quellcode offline eine GPX-Datei.
3. ich erstelle übermorgen, ohne die Seite zuvor abzurufen, einen Bookmark für coord.info/GC12346 und GC12347. Am Tage danach rufe ich die Seiten per Bookmark ab, und erstelle aus den Quellcodes offline eine GPX-Datei.
4. Wie (3), nur nicht für zwei, sondern für fünf Seiten. Und nächste Woche für zehn.

Wo liegt, laut ToU, die Grenze? Und wo spricht man hier von einem "Script, das den Browser steuert"?
 

radioscout

Geoking
ardane schrieb:
Wo liegt, laut ToU, die Grenze? Und wo spricht man hier von einem "Script, das den Browser steuert"?
Beim automatischen Abrufen.
Logischerweise kann nicht jede Methode einzeln aufgeführt werden. Deshalb steht da auch "any other automated means".

Wenn Du absolute Klarheit haben willst, musst Du Groundspeak fragen.
 

ColleIsarco

Geowizard
Moin moin
radioscout schrieb:
Natürlich darfst Du das. Aber die Dateien müssen ohne ToU-Verstoß erzeugt worden sein.
Vielleicht habe ich jetzt eine falsche Definition von Scrapen im Hinterkopf, aber ob das extrahieren von Informationen aus eine Seite On- oder offline erfolgt ist dabei relativ egal.

Ansonsten habe ich im Hinterkopf noch irgendwas mit Klägern,Richtern und zwei Negationen...

Gruß
ColleIsarco
 
Oben