ewe.util.zip.ZipException: Zip format error: Missing End of Central Directory
at ewe.util.zip.ZipFile.<init>(ZipFile.java)
at ewe.util.zip.ZipFile.<init>(ZipFile.java)
at CacheWolf.GPXImporter.doIt(GPXImporter.java:114)
at CacheWolf.MainMenu.onEvent(MainMenu.java:299)
at ewe.ui.Control.postEvent(Control.java)
at ewe.ui.MenuState.onEvent(MenuState.java)
at ewe.ui.Control.sendToListeners(Control.java)
at ewe.ui.Control.postEvent(Control.java)
at ewe.ui.Menu.postEvent(Menu.java)
at ewe.ui.Menu.onEvent(Menu.java)
at ewe.ui.Control.sendToListeners(Control.java)
at ewe.ui.Control.postEvent(Control.java)
at ewe.ui.Menu.postEvent(Menu.java)
at ewe.ui.Control.notifyAction(Control.java)
at ewe.ui.Menu.penReleased(Menu.java)
at ewe.ui.Control.penClicked(Control.java)
at ewe.ui.Control.onPenEvent(Control.java)
at ewe.ui.Menu.onPenEvent(Menu.java)
at ewe.ui.Control.onEvent(Control.java)
at ewe.ui.Menu.onEvent(Menu.java)
at ewe.ui.Control.postEvent(Control.java)
at ewe.ui.Menu.postEvent(Menu.java)
at ewe.ui.Window.doPostEvent(Window.java)
at ewe.ui.Window$windowThread.run(Window.java)
at ewe.sys.mThread.run(mThread.java)
at ewe.sys.Coroutine.run(Coroutine.java)
Cannot start Browser!
ewe.io.IOException: Cannot run program ""/usr/bin/firefox"": java.io.IOException:
error=2, No suchfile or directory
There are two possible reasons: bla falscher Pfad, bla Bug in ewe
Leider trifft da zweiteres zu. Das ist ein Bug in EWE, wegen dem wir keine externen Programme aufrufen können.lagrange schrieb:Weiterhin kann ich auf meinem Linux-System die Caches nicht "Im Browser online/offline öffnen". Habe als Befehlszeile angegeben "/usr/bin/firefox" (OHNE die Anführungsstriche) was auch korrekt ist.
Folgender Fehler wird ausgespuckt:
Code:Cannot start Browser! ewe.io.IOException: Cannot run program ""/usr/bin/firefox"": java.io.IOException: error=2, No suchfile or directory There are two possible reasons: bla falscher Pfad, bla Bug in ewe
Das wäre einer Überlegung wert. Aber nur, wenn EWE dafür schon etwas zur Verfügung stellt, um in tar oder unkomprimierten zip zu arbeiten.lagrange schrieb:Einen kleinen Verbesserungsvorschlag habe ich dann aber doch noch, auch wenn ich mir vorstelle, dass dies sicher kaum zu machen ist.
Und zwar kopiere ich meinen Profilordner ca. 1x die Woche von der Speicherkarte, die ich am Computer und im PPC nutze, auf die Festplatte und eine andere Speicherkarte. Da sich mittlerweile über 6000 Dateien im Profil befinden, kam mir die Idee ob man das ganze nicht einfach in einen TAR-Ball schieben könnte und darin live arbeitet? Das würde die Backups und Kopieraktionen wesentlich beschleunigen.
Hört sich sinnvoll an. Werde ich mir mal anschauen.Kappler schrieb:Beim Aktualisieren mehrerer Caches wäre es schön, wenn über den Fortschritt informiert würde:
Entweder über einen Fortschrittsbalken oder über eine Textdarstellung der Form:
1.Zeile: Loading gc... (wie bisher)
2.Zeile: 12/125
Ist jetzt in r988 drin.MiK schrieb:Hört sich sinnvoll an. Werde ich mir mal anschauen.Kappler schrieb:Beim Aktualisieren mehrerer Caches wäre es schön, wenn über den Fortschritt informiert würde:
Entweder über einen Fortschrittsbalken oder über eine Textdarstellung der Form:
1.Zeile: Loading gc... (wie bisher)
2.Zeile: 12/125
Super...MiK schrieb:Ist jetzt in r988 drin.
Also bei einem Test blieben bei mir gerade die Bilder erhalten. Liegt vielleicht am Cache. Bei welchem ist es bei Dir aufgetreten?UUS schrieb:- Beim Spidern werden alle Bilder wie gewünscht geladen, wenn der gleiche Cache aktualisiert wird, sind die Bilder weg. Nach dem Löschen und neu spidern sind die Bilder dann aber wieder da. Bei der 978 ging das Aktualisieren noch. Habe die Windows Version incl. neuer spider.def getestet.
Tja, da hast Du wahrscheinlich das gleiche Problem: Der Cache ist Premium Member only. Deswegen kann ich auch nicht testen, ob es damit noch weitere Probleme gibt.UUS schrieb:- Beim Spidern des Caches GCR5ZV Ruhrpott-Megacache I: Acht Kostbarkeiten hört das spidern nach der ersten von 8 Stage Beschreibungen auf.
MiK schrieb:Also bei einem Test blieben bei mir gerade die Bilder erhalten. Liegt vielleicht am Cache. Bei welchem ist es bei Dir aufgetreten?UUS schrieb:- Beim Spidern werden alle Bilder wie gewünscht geladen, wenn der gleiche Cache aktualisiert wird, sind die Bilder weg. Nach dem Löschen und neu spidern sind die Bilder dann aber wieder da. Bei der 978 ging das Aktualisieren noch. Habe die Windows Version incl. neuer spider.def getestet.
MiK schrieb:Tja, da hast Du wahrscheinlich das gleiche Problem: Der Cache ist Premium Member only. Deswegen kann ich auch nicht testen, ob es damit noch weitere Probleme gibt.UUS schrieb:- Beim Spidern des Caches GCR5ZV Ruhrpott-Megacache I: Acht Kostbarkeiten hört das spidern nach der ersten von 8 Stage Beschreibungen auf.
Ich habe es gerade mal mit GC16FR3 getestet. Die beiden Bilder bleiben bei mir erhalten.UUS schrieb:Das die Bilder verloren gehen, passiert eigentlich bei jedem Cache, der welche enthält, exemplarisch wären z.B. GC16FR3 und GC15BZM. Wenn ich dann wieder die 978er-EXE Dattei nehme und neu aktualisiere, sind die Bilder wieder da.
Da hattest Du einen Fehler im Waypoint. Du meinst also GCP5ZV. Zuerst fällt mir dort auf, dass überhaupt keine Additional Waypoints angegeben sind. Aber Du hast recht: Die Cachebeschreibung wird nicht vollständig extrahiert. Das liegt daran, dass der Owner mitten in der Beschreibung schon "Additional Hints" gibt. Da müsste man mal schauen, warum die Regex an dieser Stelle nicht greedy ist.UUS schrieb:Ich glaube nicht, dass der Cache ein "Premium Member only" ist, denn ich kann mir die Beschreibung im Browser ohne Einschränkungen ansehen. Das Spidern hört einfach vor der Trennlinie zur 2-ten Stage auf.
Naja, wenn man es greedy machen würde, hätte man dann vielleicht ein ähnliches Problem, wenn sowas in den Logs auftauchen würde. Spidern ist eben keine exakte Wissenschaft.MiK schrieb:Aber Du hast recht: Die Cachebeschreibung wird nicht vollständig extrahiert. Das liegt daran, dass der Owner mitten in der Beschreibung schon "Additional Hints" gibt. Da müsste man mal schauen, warum die Regex an dieser Stelle nicht greedy ist.
longDescRex = <span\ id="LongDescription">((?s).*?)<strong>Additional\ Hints \\(</strong>
MiK schrieb:Ich habe es gerade mal mit GC16FR3 getestet. Die beiden Bilder bleiben bei mir erhalten.
MiK schrieb:Da hattest Du einen Fehler im Waypoint. Du meinst also GCP5ZV. Zuerst fällt mir dort auf, dass überhaupt keine Additional Waypoints angegeben sind. Aber Du hast recht: Die Cachebeschreibung wird nicht vollständig extrahiert. Das liegt daran, dass der Owner mitten in der Beschreibung schon "Additional Hints" gibt. Da müsste man mal schauen, warum die Regex an dieser Stelle nicht greedy ist.
MiK schrieb:Naja, wenn man es greedy machen würde, hätte man dann vielleicht ein ähnliches Problem, wenn sowas in den Logs auftauchen würde. Spidern ist eben keine exakte Wissenschaft.MiK schrieb:Aber Du hast recht: Die Cachebeschreibung wird nicht vollständig extrahiert. Das liegt daran, dass der Owner mitten in der Beschreibung schon "Additional Hints" gibt. Da müsste man mal schauen, warum die Regex an dieser Stelle nicht greedy ist.
MiK schrieb:Aber für diesen Cache ist Dir erstmal geholfen, wenn Du diese Zeile in der spider.def entsprechend erweiterst:
Code:longDescRex = <span\ id="LongDescription">((?s).*?)<strong>Additional\ Hints \\(</strong>
MiK schrieb:Also eigentlich sollte seit 981 das "Always login" beim Aktualisieren wieder ignoriert werden. Es sollte eigentlich beim Aktualisieren keinen Unterschied machen, ob der Haken gesetzt ist oder nicht.
Es sollte dann eigentlich nur beim ersten Cache ein login erfolgen und später in dieser Session nicht mehr.
Vielleicht kann ich mir das heute Abend mal genauer anschauen. Im Moment fällt mir dazu nichts mehr ein.
wallace&gromit schrieb:Kann man das mit Win-Bordmitteln auspacken oder braucht man dazu noch ne Software? Hab wenig Lust extra was zu installieren!![]()