Es braucht vielleicht eine menge Wissenschaft von Matrixrechnen. Aber SLAM sollte das Problem von Fahren in einer unsichere Umgebung lösen können: (Simultan Lokalisieren und Mappen)
http://de.wikipedia.org/wiki/Simulta...on_and_Mapping
Druckbare Version
Es braucht vielleicht eine menge Wissenschaft von Matrixrechnen. Aber SLAM sollte das Problem von Fahren in einer unsichere Umgebung lösen können: (Simultan Lokalisieren und Mappen)
http://de.wikipedia.org/wiki/Simulta...on_and_Mapping
Hallo zusammen,
jetzt mische ich mich auch wieder ein :-)
Also die IR-Baken Lösung ist relativ praktikabel und funktioniert auch recht schön... man sollte sich aber im Klaren sein, dass dazu der Roboter erst mehrer zufällige Positionen anfahren muss bis er die Bake sieht.
Die Roomba Staubsauger machen das recht effektiv und sicher. Ich habe dieses System nachprogrammiert und als Baken die günstigen Saugroboter Baken von Pearls Versand verwendet (nur die Mechanik und Optik).
Bei heutigen Robotern ist es auch kein Problem einen PC, Netbook oder ein Notebook zu verwenden, da man mit einen Rechner sehr viele Probleme (z.B. Sprach Ein-/ Ausgabe, Computer Vision, WLAN usw.) wesentlich kostengünstiger und Flexibler lösen kann. Meine Versuche in den letzten Jahren haben jedoch gezeigt, dass Rad-Odometrie und die Baken-Navigation nicht unbedingt das gelbe vom Ei sind. Deshalb habe ich diese Variante bereits über Board geworfen. SLAM an sich funktioniert sehr gut, vorausgesetzt gute Sensoren bzw. einen Laserscanner siehe (ROS), mittels Sensorfusion kommt man hier auf sehr gute Werte. Auch das North-Star System oder Stargazer funktionieren sehr gut, aber unbezahlbar (Außer im Rovio) :-) Momentan stütze ich mich auf Visuelle Landmarken (Glyphen) und Optical Flow (Optische Odometrie) nach Dr. Messner. Das ganze wird jetzt noch mit einer Szenenerkennung über SURF verstrickt. Das Modul programmiere ich gerade für eine Robotersoftware von der ich hoffe, dass Ihr noch mehr davon hört :-) Ziel ist es mit einen Netbook (min. Atom CPU erste Generation) und einer Webcam und ein paar weniger Referenzmarken eine brauchbare Indoor-Navigation zu realisieren. Mit der Software selber kann so ziemlich jedes Hobby-Robotic Projekt in wenigen Stunden quasi Intelligent gemacht werden *lach*. Ich verwundert es nur, dass es in Richtung kostengünstige Navigation nichts auf den Markt gibt was universell eingesetzt werden kann.
Die Software selber geht mehr in die Richtung:
http://www.youtube.com/watch?v=iZ6936-ppCA
Aber nicht so kompliziert wie ROS, sonder man kann das ganze aus einzelnen Graphischen Modulen zusammenbauen und die Automatisierung mittels der Scriptsprache realisieren.
PS: Suche noch jemanden der in Sachen Website, Shopsystem auf aktuellen Stand ist und mir später hier ein wenig Arbeit abnehmen kann.
-> Auch werden später noch Tester gesucht...
Okay jetzt bin ich etwas abgeschweift und dazu auch demnächst mehr in einen anderen Thread...
Grüße Ulli
Hallo Leute,
ich greife das Thema wieder auf, denn ich baue gerade einen Saugroboter und suche noch nach Navigationsmöglichkeiten.
Der Roboter soll sich strukturiert durch Räume arbeiten und auch ungeplante Hindernisse umfahren.
Als Chip bekommt er einen Arduino Mega 2560 (das Board hab ich schon).
Ich habe mir schon 5 Abstandssensoren besorgt (hc_sr04), vier für vorne, hinten, rechts und links und einen für unten (Stufenerkennung).
Nun meine Fragen:
1. Wie baut man sich so einen "Bake", bzw. was ist das genau?
2. Ist eine genaue Lokalisierung mit mehreren von denen möglich (kann man den Abstand von Roboter zu Bake messen) ?
3. Wie kann man so eine Raumkarte (Grundriss) digital mit einem Mikrocontroller erstellen (bzw. am PC und sie dann einbinden) ?
4. Habe ein Video gesehen http://www.youtube.com/watch?v=IMI63k5W3sU wo jemand einen Lasersensor selber gebaut hat. Kann man sowas besser und ohne Legotechnikteile realisieren?
5. Wie siehts aus Ulli, gibt es Fortschritte bei dem Projekt und ist so was z.B. mit einem Raspberry Pi realisierbar?
Allgemein hatte ich daran gedacht, in mein Projekt einen Raspberry einzubauen, denn der Arduino hat ja schon eine etwas begrenzte Rechenleistung!
Ich hoffe, dass wenigstens ein paar meiner Fragen zu beantworten sind ;)
Viele Grüße,
Vinni
1. Eine Bake ist in der Robotik in der Regel ein Turm mit mehreren IR_LEDs, die ihr Licht in alle Richtungen abgeben. Das IR Licht wird für jede Barke moduliert (unterschiedliche Frequenzen, eine bitfolge, ...) um jede eindeutig identifizieren zu können.
2. Man kann die Winkel zwischen den einzelnen Baken messen. Kennt man die genaue Position der Baken im Raum lässt sich der Winkel mittels einfacher Trigonometrie berechnen. Man braucht Sichtkontakt mit mind. 2 Baken für eine Positionsbestimmung, besser wären 3. Der Roboter müsste dann aber auch in der Lage sein den Winkel sehr genau zu messen. zB. mit einem IR-Phototransistor/Empfänger der mit einem Schrittmotor um 360° gedreht werden kann.
3. Ich würde das wohl als Array soeichern, 0= frei und 1= Hindernis, hab sowas aber noch nicht gemacht.
4. Das ist nur ein Laserpointer und ein Phototransistor oder Photodiode. Das ganze geht aber nur bei Reflektierenden Oberflächen. Die Berechnung ist dann wie oben mit den Baken auch über einen Winkel gemacht. Finde die Lösung aber ungünstig, da die Baken hier nicht identifiziert werden können. Man weiß nur, dass da etwas reflektiert wird.
5. Bin nicht ulli :D
Hoffe das hilft dir.
1234567890
Ich hatte das hier
https://www.roboternetz.de/community...sitionsscanner
beschrieben.
@Willi: das ist ein tolles Projekt, aber ich bin Schüler und für mich ist das ne Stufe zu kompliziert und*auch zu teuer!
Das mit den Bake(s??) kann ich mir gut vorstellen, habe gelesen, dass man den Ne555 als Taktgeber verwenden kann. Aber wie sieht das dann genau aus? Lötet man da dann direkt ein paar IR Dioden an und bestückt das ganze mit einer kleinen Batterie?
Stimmt - fast. Es müssen drei Baken sein, die auf zwei sich kreuzenden Geraden liegen (also nicht auf einer einzigen Sichtlinie). Die genaue (geographische) Lage der Baken muss bekannt sein, d.h. ihr Abstand voneinander und die Winkel zwischen mindestens zwei Verbindungslinien. Die Situation hatte ich mal hier (klick) vorgestellt. Lösungsweg und wiederholte Fragen und Antworten sind im nachfolgenden Thread.Zitat:
Für eine eindeutige Positionsbestimmung mit Barken müssen immer 3 Baken zu sehen sein ...
Hmmmm, meinste? Das sehe ich nicht so - denn die Angaben reichen. Immer.Zitat:
... Entlang der Linien die jeweils durch 2 Baken gehen, sind sogar 4 Baken notwendig ...
Über Indoor navigation habe ich auch gedanken gemacht und ich denke mit eine Kamera wäre das ganze einfacher wobei einfache symbole ausgewertet werden müssten die dann informationen geben wohin. Meinetwegen ein pluss zeichen würde bedeuten 90 grad rechts , 1 meter geradeaus. So nach dem motto es ist egal wo ich bin hauptsache ich weiss wohin. Zumindest für eine grobe navigation würde das reichen. Ist nur eine nicht ausgereifte Gedanke. Wenn man eine gute Kamera besorgt wie die cmucam4 oder den pixi , http://www.kickstarter.com/projects/...-vision-sensor wäre sehr viel möglich. Man könnte die Räume anhand von Farben oder bestimmten Bildern die man platziert zuordnen, und ein bild oder Symbol würde die Richtung vorgeben.
@Croal: sehr interessant!! Wie würdest du dann die Daten auswerten? Welches Board würdest du benutzen und welches Programm (oder selbst eins schreiben?) ?