benutzt du eigentlich Encodermotoren?
Druckbare Version
benutzt du eigentlich Encodermotoren?
Nein, ich habe nur normale Getriebemotoren. Ich habe schon überlegt beide Motoren mit Encodern auszustatten. Als Shield würde ich das hier benutzen: http://www.robogaia.com/3-axis-encod...no-shield.html
und als Encoder würde ich diese benutzen: http://usdigital.com/products/encode...al/modules/EM1
Oder würde es auch funktionieren mit dieser Gabellichtschranke: http://www.eibtron.com/epages/eibtro...FUeeGwodbW8PjQ ?
nun, mit Grid-Karten etc kenne ich mich nicht aus, aber was du ja wohl machen willst, ist ein map-and-explore-robot, oder SLAM-robot (Simultaneous Localization And Mapping ), oder täusche ich mich?
Dann musst du ja die augenblicke Position im Raum mit Sensoren irgendwie messen, bezogen auf was auch immer - entweder IR- oder Funk-Baken, Transponder, Referenz-Linien auf dem Boden, Farbmarkierungen an Wänden, oder Magnetkompass, GPS, oder eben auch interne Referenzen, wie. z.B. Odometriedaten. Letztere sind zwar manchmal, ohne Slip und ohne Drift, sehr aussagekräftig, manchmal, gerade bei Kettenfahrzeugen, aber auch sehr ungenau - immerhin, es sind verwertbare Daten (gleiches gilt in anderen Bereichen auch für Kompass und GPS).
Was genau ist dein Sensormodell aus verschiedenen Sensoren, die (nach Fusion) deine Position berechnen sollen?
Ich dachte bisher, dass diese Aufgabe von der Kinect Kamera übernommen wird, da diese sich aus dem Aktuellen Bild Referenspunkte heraussucht und wenn diese sich bewegen die Bewegung registriert. Wenn er sich also einmal um die eigene Achse dreht, müsste er schon eine ziemlich exakte Position haben. Außerdem hat die Kinect eine Genauigkeit bei 2m Abstand von 3mm.
ok, da muss ich passen
- ich habe bisher nur mit Odometrie (per Encodermotoren), Kompass, Gyroskop und Accelerometer gearbeitet. In diesen Fällen war Odometrie (mit Encodermotoren) sehr hilfreich, und andere Sensoren wurden mit Kalman- und anderen statistischen und stochastischen Filtern fusioniert, das machte Sinn.
http://www.mindstormsforum.de/viewtopic.php?f=70&t=6746
Wäre es möglich statt Encodern auch einen Optical Flow Sensor(z.B. https://www.amazon.de/gp/product/B014BJLCU2 ) zu benutzen, da dieser etwas günstiger ist ? Ist es mit dem Leichter oder Schwerer zu realisieren als mit Encodern ?
Sind das Maussensoren mit Optik?
Die müssten dann ja nach unten gerichtet werden.
Gefunden hier:
Known issues
•The sensor only works in well lit environments
•A fixed-focus lens is used meaning it cannot focus on objects closer than 30cm (1 foot).
•Rotating the sensor will confuse the sensor
Ist das das, was Du suchst?