Moin,
richtig aktuell ist dies Projekt zwar nicht mehr, aber ich habe gerade die Bilder davon wiedergefunden. Vielleicht ist es ja interessant, weil hier immer mal wieder Kameraprojekte auftauchen.

2004 haben ein Kumpel und ich einen Roboter mit Raumtiefenwahrnehmung gebaut. Dabei haben wir uns des Lichtschnittvefahrens bedient, umgesetzt mit einer Gameboy-Camera und einem auf einen Servo verstellbar montierten Linienlasers. Die einzelnen Linienbilder fuer verschiedene Winkeleinstellungen des Lasers wurden ueberlagert und dann daraus ein Distanzbild berechnet. Das ganze lief auf einem ATmega8515 mit 32kB externem RAM, der komplette Code war in Assembler (Dass wir das auf einer solchen Platform und in Maschinensprache umsetzen konnten liegt weniger an unserem grossen Geschick mit Assembler als vielmehr an der Einfachheit des Verfahrens.)
Fuer die Navigation auf Grundlage der Entfernungsbilder blieb dann leider wenig Zeit, weshalb wir einfach einen Schwellwert fuer die minimale Hindernisentfernungen festgesetzt haben.

Bild hier  
Der Roboter mit exponiert montiertem Linienlaser

Bild hier  
Ein Graustufenbild einer Beispielszenerie

Bild hier  
Das Linienbild der Szenerie

Bild hier  
Und das errechnete Entfernungsprofil