Für eine gewisse Autonomie und zur Selbsterhaltung ist ein eigener Wille (Eigeninitiative) nützlich. Innerhalb bestimmter Normen und Grenzen (vergleiche Erziehung, Ausbildung, Gesetze, Gebote, Sitten und Gebräuche) sollte der Roboter selbst die optimalen Entscheidungen treffen können, da es oft nicht möglich oder zu langwierig ist, von ausserhalb Entscheidungen anzufordern.
Der eigene Wille eines Computers oder Roboters lässt sich sicher effektiver eingrenzen als der eigene Wille eines Menschen.
Ausserdem ist die Meinung vieler Menschen meiner Ansicht nach falsch und überheblich, dass beim Menschen alles anders und besser funktioniert als bei einem Computer oder Roboter.
Bei der Fragestellung geht es zunächst nur darum, ob es möglich ist, einem Roboter aufgrund bestimmter Kritererien eine eigene Entscheidungskompetenz (eigener Wille) zu programmieren, z.B.:
Batterie bald leer: Roboter steuert Ladestation an
Ladestation belegt: Roboter sucht nächste Ladestation
usw. usw. - so wie jeder Mensch jeden Tag zahllose Entscheidungen zu treffen hat.
Lesezeichen