Positionserkennung mit neuronalen Netzen
Hallo !
Im Rahmen eines Studienprojektes soll die Position eines Roboters auf einem weißen Tisch erkannt werden. Der Roboter besitzt die Form eines Rechtecks und vorne und hinten farbige Markierungen(z.B. vorne mitte grünes Quadrat , hinten mitte rotes Quadrat). Der Tisch wird von einer USB-Kamera aufgenommen(Auflösung 640x480, Bild leicht verrauscht) und das Bild an einen PC übermittelt.
Zur Bilderkennung sollen aber nicht die klassischen Verfahren eingesetzt werden, sondern ein Modell vergleichbar zum dem des menschlichen Gehirns entwickelt werden. Dort werden z.B. verschieden gerasterte Versionen des Originalbildes zur Positionsbestimmung eingesetzt bzw. vom Gehirn verarbeitet(bei der ersten Version könnte z.B. ein Pixel des gespeicherten Bildes 4 Pixeln des Originalbildes entsprechen. Bei der zweiten Version z.B. 8 Pixel etc.).
Meine Idee ist nun die verschiedenen Verarbeitungseinheiten durch neuronale Netze nachzubilden, wobei die Eingabe die entsprechend aufbereiteten Versionen des Originalbildes und die Ausgabe eine Zahl ist, welche ein Pixel eindeutig identifiziert z.B. 0-307199. Allerdings weiß ich nicht, welche NN-Architektur dafür geeignet ist und ob die Geschwindigkeit heutiger Rechner bei der Bildgröße überhaupt dafür ausreicht(Netz sollte in max. 24h trainierbar sein) Wäre dankbar für Links oder Kommentare zu diesem Thema.
Grüße
Stefan
Re: Positionserkennung mit neuronalen Netzen
Hallo,
ich habe nur einen Kommentar für dich.
Um solch ein System mit den heutigen Rechenleistungen arbeiten zu lassen, müsstest du die Bilder klassisch sehr weit aufbereiten.
Sodas du dann am Ende kein Neuronales Netz mehr für die Positionsbestimmung benötigen wirst.
Mit einem PC wohl nicht ohne weiteres zu schaffen.
Viel Glück!
Hast Du schon nach Software für NN recherchiert oder weist Du schon was du nehmen wirst?