geotramper
Geonewbie
Hallo Leute 
Ich habe ein Programm geschrieben, welches über Bluetooth vom GPS die Daten bekommt.
Ich rechne dies dann um, und habe folgende Formatierung:
Lat: DD°ddddd....
Lon: DDD°ddddd....
Nun möchte ich folgendes machen:
Ich will die Entfernung zwischen zwei Punkten bemessen:
Punkt 1: bin ich selbst, also der GPS Reciever
Punkt 2: eine bestimmte Koordinate
Die Schulzeit lässt grüßen, habe ich mir es so ausgemalt, das es mit dem Pythagoras berechenbar sein muss.
Meine Formel dafür lautet also:
Entfernung = WURZEL((x2-x1)² + (y2-y1)²)
x2 und y2 bin dann ich, x1 und y1 ist ein bestimmter Punkt.
Sollten Minuszahlen dabei heraus kommen, so ist das egal, da ich diese ggf. umwandel (Vorzeichen entferne ^^)
Das Resultat funktioniert vorerst:
Während ich hier programmiere, habe ich mir einen Wert für Entfernung ausgerechnet, welcher bei 5,8 liegt.
Diesen Wert habe ich bestimmt durch meinen Standtort und einem Punkt 20m weiter weg.
Diese 5,8 vergleicht das Programm nun mit den Ergebnissen aller anderen Punkte.
Wenn nun ein anderer Punkt ebenfalls 20m weit weg ist, oder näher dran, dann sollte bei Entfernung maximal 5,8 bzw. weniger herauskommen.
Soweit die Theorie...
In der Praxis funktioniert es auch.
Ich habe 5 Punkte, von denen 2 weiter weg sind als 20m.
Wenn ich nun mit meinem Laptop durch die Straßen fahre, werden mir plötzlich alle Angezeigt, obwohl ich definitiv weiter weg bin als 20m.
Hat jemand eine idee ?
Wo könnte mein Fehler liegen ?!
Ich habe ein Programm geschrieben, welches über Bluetooth vom GPS die Daten bekommt.
Ich rechne dies dann um, und habe folgende Formatierung:
Lat: DD°ddddd....
Lon: DDD°ddddd....
Nun möchte ich folgendes machen:
Ich will die Entfernung zwischen zwei Punkten bemessen:
Punkt 1: bin ich selbst, also der GPS Reciever
Punkt 2: eine bestimmte Koordinate
Die Schulzeit lässt grüßen, habe ich mir es so ausgemalt, das es mit dem Pythagoras berechenbar sein muss.
Meine Formel dafür lautet also:
Entfernung = WURZEL((x2-x1)² + (y2-y1)²)
x2 und y2 bin dann ich, x1 und y1 ist ein bestimmter Punkt.
Sollten Minuszahlen dabei heraus kommen, so ist das egal, da ich diese ggf. umwandel (Vorzeichen entferne ^^)
Das Resultat funktioniert vorerst:
Während ich hier programmiere, habe ich mir einen Wert für Entfernung ausgerechnet, welcher bei 5,8 liegt.
Diesen Wert habe ich bestimmt durch meinen Standtort und einem Punkt 20m weiter weg.
Diese 5,8 vergleicht das Programm nun mit den Ergebnissen aller anderen Punkte.
Wenn nun ein anderer Punkt ebenfalls 20m weit weg ist, oder näher dran, dann sollte bei Entfernung maximal 5,8 bzw. weniger herauskommen.
Soweit die Theorie...
In der Praxis funktioniert es auch.
Ich habe 5 Punkte, von denen 2 weiter weg sind als 20m.
Wenn ich nun mit meinem Laptop durch die Straßen fahre, werden mir plötzlich alle Angezeigt, obwohl ich definitiv weiter weg bin als 20m.
Hat jemand eine idee ?
Wo könnte mein Fehler liegen ?!