Hallo Zusammen!

Mir stellt sich im Moment die Frage wie der Tiefensensor am optimalsten für die Bewegung/Hinderniserkennung des Bot genutzt werden kann. Es geht mir jetzt nicht um die Trackingvarianten des Sensors,… die sind nutzungstechnisch eindeutig.

Kurz vorweg, wie ich es im Augenblick eingebunden habe…
Aktuell benutze ich den Sensor mit der Xbox Firmware und somit einer realen Tiefenauflösung von 0,8 bis 4,1 m. Ein Bild darzustellen und den Farben passende Tiefenwerte zuzuordnen geht ja recht fix. Dies sieht schön aus hilft in der Form aber noch nicht weiter. Deshalb berechne ich aktuell für jeden Bildpunkt/Tiefenwert die genauen Raumkoordinaten und schaue ob diese bei gradliniger Bewegung des Bot innerhalb seines Korridors liegen würden. Die naheliegendsten Punkte welche dies erfüllen sind nun meine Werte für die maximale Entfernung ohne Kollision mit einem Objekt. Dies funktioniert sehr gut, lässt sich schnell und unkompliziert berechnen und ist auch zentimetergenau wiederholbar.

Nun würde mich aber interessieren ob es diesbezüglich noch andere Ansätze gibt?
Eine Erstellung der Umgebung ist zwar auch möglich, allerdings müsste aus dieser auch wieder die max. Hindernisentfernung abgeleitet werden und vorab wäre auch noch ein Positionsabgleich notwendig.


Gruß André