Besteht die Möglichkeit Kinect unter Visual Studio einzubinden ?
Gerne.
Kann ich verstehen.![]()
www.robotiklabor.de - Der Podcast rund um Robotikthemen
www.direcs.de - Meine Robotik-Seite mit Videos, Fotos, Screenshots, Source-Codes und mehr.
Besteht die Möglichkeit Kinect unter Visual Studio einzubinden ?
Schau mal hier:
mit OpenNI_Treiber:
http://www.studentguru.gr/blogs/vang...ng-openni.aspx
http://www.studentguru.gr/blogs/vang...ng-openni.aspx
oder hier mit OpenKinect-Treiber:
http://www.switchonthecode.com/tutor...al-hacking-101
Irgenwann im Frühjahr soll es auch ein SDK von Microsoft geben:
http://www.heise.de/newsticker/meldu...n-1194466.html
Gruß, Günter
Ein beeindruckendes Beispiel was mit KINECT und geeigneter Software möglich ist, kann man auf der Website von Nicolas Burrus finden:
http://nicolas.burrus.name/index.php...inectRgbDemoV5
Mit einem handgeführten KINECT-Sensor erstellt er eine Punktwolke,die nicht nur die Entfernungsdaten, sondern auch die auf die Punkte gemappten RGB-Daten darstellt.
Es entsteht eine farbige 3D-Abbildung des umgebenden Raumes. Viel mehr kann man von einem 150€ Sensor für einen Roboter nicht verlangen.
Nicolas stellt seine Software diesmal auch mit Windows-Binaries zur Verfügung, so dass man nicht mehr nur mit Linux damit arbeiten kann. Ich hab's noch nicht ausprobiert, freue mich aber schon aufs Wochenende.
Gruß, Günter
Jetzt hab ich die Windows-Demo von Nicolas mal ausprobiert. Die nötigen Treiber (OpenNI, Kinect und Nite) liefert er gleich mit. Die Installation in der von ihm angebenen Reihenfolge hat auf Anhieb funktioniert - wenn man mal davon absieht, dass ich erst nach einer halben Stunde gemerkt habe, dass ich trotz blinkender KINECT-LED vergessen hatte zusätzlich die 12V Spannungsversorgung für die KINECT einzuschalten.
Die Punktwolke für die Beispielbilder ist in diesem ersten Versuch durch Drehen der KINECT mit festem Neigungswinkel um ca. 40° auf einem Stativ zustande gekommen.
Die Demosoftware kann die entstandene Punktwolke im .ply-Format speichern, d.h. sie kann mit der Opensource 3D-Software Meshlab dargestellt und bearbeitet werden.
http://meshlab.sourceforge.net/ (gibt's auch für Windows). Die verschiedenen Kameraperspektiven der Beispielbilder sind durch Drehen der Ansicht in Meshlab entstanden. Meshlab kann auch in der 3D-Punktwolke messen. Dafür hatte ich einen 50cm Stahlmaß auf dem Tisch liegen. Das Messergebnis ist erstaunlich genau.
Gruß, Günter
MIT Quadrotor mit KINECT-Sensor erstellt 3D-Karte im Überflug:
http://groups.csail.mit.edu/rrg/inde...S-DeniedFlight
Gruß, Günter
Habe gerade im heise-newsticker gesehen, dass Microsoft endlich das KINECT-SDK für Windows-PC ins Netz gestellt hat:
http://www.heise.de/newsticker/meldu...t-1262087.html
Wer ohne Umweg über heise zu den SDK-links möchte:
http://research.microsoft.com/en-us/...cts/kinectsdk/
http://channel9.msdn.com/coding4fun/kinect/
Gruß, Günter
Ich hoffe nicht, dass der Roboternetz-Bot, der auch golem.de auswertet, schon darüber berichtet hat. Ist zwar schon 10 Tage her, aber wer es wie ich damals verpasst hat, wird sich das Video vielleicht doch gern ansehen:
http://www.golem.de/1108/85683.html
Für Roboter mit PC oder Verbindung zu einem PC ist Kinect mit entsprechender Software der ultimative Sensor. Für 150€ gibt es sonst nichts, das eine 3D-Karte der Umgebung mit Farb/Texture Information darstellen könnte. Für fahrende Roboter sicherlich interessant, dass die 3D-Rekonstruktion auch mit „verwackelten“ Eingangsdaten funktioniert, wie es in dem Video gezeigt wird.
Weitere Videos zu Kinect Fusion von Microsoft Research findet man hier:
http://www.engadget.com/2011/08/09/m...al-time-3d-re/
Ein Aspekt des Kinect Sensors, der bisher wenig beachtet wurde, ist das eingebaute Mikrophon-Array. Auf einem Roboter kann das Array zur Spracherkennung/-Steuerung eingesetzt werden. Im Microsoft Kinect-SDK findet man Beispiele dazu.
Über das Mikrophon-Array lässt sich auch die Position (besser: Richtung) eines Sprechers lokalisieren:
http://channel9.msdn.com/coding4fun/...io-Positioning
Gruß, Günter
Lesezeichen