- 3D-Druck Einstieg und Tipps         
Seite 9 von 11 ErsteErste ... 7891011 LetzteLetzte
Ergebnis 81 bis 90 von 104

Thema: Glaubt ihr, dass einmal eine KI von uns erschaffen wird?

  1. #81
    Erfahrener Benutzer Roboter Experte
    Registriert seit
    14.04.2007
    Ort
    Einhausen
    Alter
    69
    Beiträge
    700
    Anzeige

    LiFePo4 Akku selber bauen - Video
    Tja Mensch, bloß die Initialzündung fehlt, stimmts?
    Ich denke, dass der wesentliche Punkt die sprachliche Kommunikation ist. Um mit jemand sprechen zu können, muss man eine gewisse Intelligenz besitzen, egal ob als Roboter oder als Mensch. Viele Worte sind mehrdeutig und daher nur im Zusammenhang zu verstehen (Beispiel: Ball). Hier würde ich persönlich den "Zünder" für die Zukunft anlegen. Neben der Erkennung der Bedeutung von Worten (egal ob gesprochen oder geschrieben) gibt es auch noch die visuelle Seite, also die sogenannte Bilderkennung.

    Richtig schwierig wird dann die emotionale Seite, z.B. wenn jemand sagt: "Mir ist langweilig" oder "Ich habe eine Sinnkrise".

  2. #82
    Neuer Benutzer Öfters hier
    Registriert seit
    07.05.2007
    Beiträge
    21
    Dem Punkt der Komunikation stimme ich zu. Für die Entwicklung dessen, worunter sich die meisten Menschen Intelligenz vorstellen, scheint mir eine Interaktion mit anderen Individuen Vorraussetzung zu sein. Manchmal frage ich mich deswegen, ob diese Intelligenz einfach ein synergetischer Effekt ist, der bei Entwicklung von konkurrierenden Gruppen auftritt.

    Worauf ich aber eigentlich hinaus wollte, war eine einfachere Form von Intelligenz, so nenne ich es mal, ohne gleich im Definitionsstreit zu enden. Ich frage mich einfach, ob Du nicht aktiv nach den Grundprinzipien suchst, die Kommunikation erst ermöglichen. Irgendwelche Methoden, Strukturen oder dergleichen. Ich meine du hast ein Asuro, RP6 und was weiß ich, verschiedenste Datenrepräsentationen sind Dir bekannt (davon gehe ich bei c++ aus), sicherlich ANN-Sachen, Evolutionsstrategien, genetische Algorithmen, Klassifkiationsmethoden, bestimmt die ganze Palette. Da muss man doch einfach auf Ideen kommen. Man muss nicht am MIT arbeiten um Ideen zu haben.

  3. #83
    Erfahrener Benutzer Roboter Experte
    Registriert seit
    14.04.2007
    Ort
    Einhausen
    Alter
    69
    Beiträge
    700
    Ein Ansatzpunkt ist das "Schwarmverhalten", das z.B. hier in Bezug auf Kommunikation beschrieben wird (Uni Lausanne u. EPFL): http://www.nzz.ch/2007/04/18/ft/articleF3JD5.html "Kommunikation zwischen sozialen Lebewesen und die Frage, wie verschiedene Kommunikationsstrategien im Lauf der Evolution entstehen"

  4. #84
    Neuer Benutzer Öfters hier
    Registriert seit
    24.02.2008
    Beiträge
    6
    Hallo,

    ich Suche Gruppen/Leute, die ernsthaft versuchen, Grundlagen für die "starke KI" zu finden. Ich selbst habe es mir gewissermaßend zur Lebensaufgabe gemacht, wenn auch (erstmal?) "nur" hobbymäßig (allerdings auf Basis meines Informatik-Diploms (1993) mit Schwerpunktsbereich KI).

    Meine Ausgangsthese: Starke KI ("sKI") ist möglich. Ich verstehe darunter, dass es keinen prinzipiellen Unterschied zwischen menschlicher und sKI gibt, also dass es keine theoretischen Grenzen für sKI gibt. Das heißt aber nicht, dass sKI zwangsweise identisch oder zumindest sehr ähnlich zum Menschen sein muss (ob das nun gewünscht ist oder nicht).

    Zu euren Beiträgen, hier erstmal zum Ausgangsbeitrag:
    Ob dies nun durch künstliche neuronale Netze("knN") oder anders geschehen kann, ist mir persönlich eigentlich egal bzw. ich erwarte, dass die Gebiete der symbolischen und der subsymblischen KI (knN) mehr verschmelzen werden. Persönlich bin ich aber mehr für die symbolische KI.

    Entscheidend ist m.E. aber viel mehr, dass eine sKI von Grund auf Lernen können muss. Die Frage ist dann die der Ausgangsbasis, des fundamentalen "Wissens" u.ä.
    Außerdem muss eine sKI eine "Urmotivation" haben, also von sich aus aktiv agieren (wollen).
    Daneben ist ein Körper wie die eines Roboters sehr hilfreich.
    (Details ggf. ein anderes Mal.)

    Um eine KI zu schaffen, die so wie das Hirn des Menschen arbeitet, müsste man verstehen, wie genau das Hirn arbeitet.
    Eine (s)KI muss ja zum Glück nicht genauso arbeiten.

    @xunwichtig:
    Wie du das genauer siehst, interessiert mich, da du auch schon viele Jahre dabei bist.
    Sicher ist Rechenleistung ein Problem, aber vielmehr ist die "Strategie" (wie du es nennst) entscheidend. Wie dies auf biochemischem Weg erreicht werden kann, ist mir nicht klar, allerdings auch nicht mehr Weg als Informatiker.

    Künstlich ist auch deshalb unangebracht, da man sich als Gott hin stellt. Eine Intelligenz ist nicht etwas, das man (wir / du / ich) schaffen kann, sondern etwas, das sich mit der zeit selbst bildet. Daher ist KI eine fehlannahme in bezug zur "schaffung" von Intelligenten Systemen.
    Ich stimme dir voll zu, dass KI sich mit der Zeit "selbst bildet", nämlich auf Basis (fast) ständigen Lernens. Ob man es nun aber "KI"/"künstlich" nennt, ist ziemlich egal; man wird dadurch nicht zum Gott, sondern nur zum Erschaffer im Sinne eines Ingenieurs o.ä. (vor allem, wenn man es nicht biochemisch/biologisch angeht).

    Ihr solltet euch erstmal darüber klar werden, WAS für eine Intelligente Software Ihr überhaupt meint.
    Das ist sicherlich nie verkehrt

    ...müssen wir ja erstmal selbst herausfinden, ob wir Intelligent sind, udn was das geanu bedeuten mag. Schliesslich wenden wir hier nur ein Verfahren an, das anhand unseres Massstabs definiert, das "dieses" Intellignet ist, oder nicht.
    Bei Intelligenz werden wir Menschen uns selbst meist als Ausgangspunkt nehmen. Für mich ist Intelligenz die (Güte der) Fähigkeit, seine eigenen Ziele/Bedürfnisse/Wünsche zu erreichen/befriedigen zu können.

    @Sternthaler:
    p_mork hat folgendes geschrieben::
    Wahrscheinlich sogar noch besser, denn der Mensch ist alles andere als vollkommen.
    Ist aber das nicht genau das Problem? Denn wie sage ich einem Programm, dass es nicht vollkommen das tun soll, was im Programm steht?
    Ganz einfach: In dem man bei dem Prgramm nur fundamentale Grundlagen festlegt, den Rest lernt es.

    Damit ist dann ja schon mal ein sich selbst änderndes Programm geschaffen.
    Das ist zwar grundsätzlich möglich, halte ich aber nicht für zielführend und nötig. Es reicht, wenn das Programm einen kleinen, festen Kern hat und ein immer weiter wachsende "Hülle" durch sein ständig Gelerntes (technisch eine immer weiter wachsende Datenbank u.ä.)
    Sollte es wirklich einen grundlegenden Fehler im Kern geben, wäre es sinnvoller, ein neues Programm zu schaffen. Verglichen auf uns Menschen ist das Evolution: Ein einzelner Mensch ändert seine Genstruktur nicht, aber seine Kinder, Enkel usw. habe eine (etwas) andere.

    Was verstehen wir überhaupt unter dem Begriff Inteligenz. Der Turing-Test ist ja schon mal ein Ansatz.
    Ersteres ist sicher ein wichtiger Punkt, der hier m.A.n. zu weit führt (und eher was für www.philosophie-raum.de ist). Den Turing-Test sehe ich auch als guten Ansatz an - einen besseren gibt es m.A.n. (bisher??) nicht.

    @lpw:
    Da steckt ein Problem drin, denn wenn wissen macht ist, dann sind Computer in vielen Bereichen intelligenter als Menschen (wenn sie zusammenarbeiten), wenn sie dann noch lernen wie man lernt werden Menschen nicht mehr lange die dominanten "Lebewesen" sein....
    Richtig, das Lernen kann den Computer leicht zum "wissens-intelligenteren" Wesen machen. Allerdings muss er dadurch nicht dominant sein: Das ist eine Frage seiner Grundprogrammierung, ob wir ihm einen entsprechenden (Bedürfnis zum) Egoismus zugestehen.

    Da ich fürchte, dass mein Beitrag zu lang wird, beende ich diesen hier.

    Gruß
    Burkart

  5. #85
    Erfahrener Benutzer Roboter-Spezialist
    Registriert seit
    28.12.2007
    Ort
    Hamburg
    Alter
    57
    Beiträge
    254
    Zitat Zitat von xunwichtig
    Ein weiterer Wichtiger Punkt ist die Rechenleistung. Ich habe massive Probleme mit der mir zur verfügung stehenden Kapazität.
    Hi xunwichtig. Welche Rechenleistung brauchst Du?
    Schon mal über einen Linux-PS3-Grid nachgedacht?
    Mittlerweile gibt es schon einige, die man auch mal über Internet vernetzen könnte. Schließlich wurde so nur durch deutsche PS3-Anwender mal eben die Petaflop-Marke überschritten. Der größte Supercomputer Cluster (Blue Gene) schaft lange nicht die Leistung.

    Ich arbeite gerade an meinem Grid.
    Im Moment hat Er die ca. 68 fache Rechenleistung eines 4GHz Dual-Core-Spiele-PCs. Ende dieses Jahres will ich auf ca. 200x kommen.
    Der Preis eines solchen Grids ist nicht so hoch, wie man denkt.

  6. #86
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    27.09.2007
    Beiträge
    162
    Die "Futurologen" sind natürlich nicht Ende der 70er Jahre ausgestorben, sondern weiterhin unter uns. Einer ist Ray Kurzweil, insbesondere mit seinem unterhaltsamen Buch HOMO S@PIENS
    http://www.amazon.de/sapiens-Leben-J...3861617&sr=8-2

    Alle PROGNOSEN erfordern ein Extrapolation der technischen Entwicklung und beruhen auf dem "Moor'schen Gesetz", für das es aber keine Begründung gibt. Jede größere Umwelt- , Kulturelle oder Technische Katastrophe wird dieses Gesetz außer Kraft setzen.

    Aber das ist nur die notwendige Basis... Ob ein Exa-FLOPS Rechner für $1000 ausreichen wird (wir haben im Moment Peta-FLOPS Rechner für 100 Mio $) ist noch etwas unklar Darum geht ja auch diese Diskussion.

    Übrigens hat man inzwischen die Vorsilben Zetta und Yotta genormt, damit man auch in zehn Jahren noch darüber reden kann

  7. #87
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    27.09.2007
    Beiträge
    162
    Apropos "Grid".. Hier was Nettes und Instruktives zu einem PS3 Verbund (englisch natürlich)...
    http://www.netlib.org/utk/people/Jac...PERS/scop3.pdf

  8. #88
    Erfahrener Benutzer Roboter-Spezialist
    Registriert seit
    28.12.2007
    Ort
    Hamburg
    Alter
    57
    Beiträge
    254
    Mir reicht der hier schon völlig aus. :P
    Bild hier  
    Im Moment sollte er so aussehen:
    Bild hier  

  9. #89
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    27.09.2007
    Beiträge
    162
    Ray Kurzweil - wenn ich mich noch recht erinnere, habe das Buch vor 5 Jahren gelesen - hat zwei Szenarien:
    (1) Den Computer im Haus, im besten Sinne ein PDA, der einem soweit wie möglich alles abnimmt. Hier gibt es Kosten- und Volumen-Begrenzungen.
    Zeitskala: in etwa 10 bis 20 Jahre

    (2) Der "Gott"-Computer, z.B. im ausgehöhlten Mond oder so untergebracht, der - so nebenbei - die gesamte Strukturinformation eines Menschen bzw. menschlichen Gehirns speichert und entsprechend extrapoliert.
    Zeitskala: etwa 100 Jahre

    Die hierfür notwendige Rechenkraft (mal ganz abgesehen von einigen noch zu lösenden simplen technischen Problemen) ist nicht ganz klar. Der Trick bei solchen Überlegungen besteht darin, dass man von Quantencomputern ausgeht, deren Leistungsfähigkeit auch nicht mehr ganz einfach zu berechnen ist (sie wird etwa in der Größenordnung "unendlich" liegen...)

  10. #90
    Erfahrener Benutzer Roboter-Spezialist
    Registriert seit
    28.12.2007
    Ort
    Hamburg
    Alter
    57
    Beiträge
    254
    Ich sehe die zukunft eher in vernetzten Clustern statt in Einzelcomputern.
    Rechenleistung ist auch nicht alles. Intelligente Programmierung ist das Zauberwort. Bestes Beispiel hierfür sind Spiele. Manche Spiele kitzeln aus der Hardware beachtliche Leistungen herraus, was Grafik, KI, Physik, Freiheit, ... betrifft. Manche kriegen es trotz min. Umfeld (1 Raum) und fehlender Physik nicht einmal hin, eine anständige KI zu simulieren.

    Hier möchte Ich auch mal uneffiziente Betriebssysteme und Antivirenprogramme nennen, die selbst High-End-Rechner trotz mangelhafter Ergebnisse in die Knie zwingen. Scheinbar wird heute gedacht, wenn das eigene Programm schlecht ist, es liege an der Hardware und Sie müsse nur etwas leistungsfähiger sein, damit es funktioniert.
    Nein es liegt am Programm. Andere zeigen schließlich, daß es es funzt.

    D.h. eine hohe Leistungssteigerung wird nur erreicht, wenn Hardwareleistung und Softwareleistung sich gleichzeitig erhöhen.

    Im Zusammenhang mit der Hardwareerhöhung finde Ich immer wieder die Politik der kleinen Schritte problematisch. Jedes Jahr oder erhöht sich die leistung um das Doppelte und die Nutzer kaufen immer wieder fröhlich neu, damit die neuesten Programme (z.B. Spiele die auch wieder nur etwas besser sind) drauf laufen. Nächstes Jahr ist dann wieder ein neuer Rechner fällig. Dann gerne noch mit neuem Bussystem, damit man auch ja nicht alte Komponenten wiederverwenden kann. Diese Politik ist unprofessionell aber sehr lukrativ da dadurch Geräte schell veralten und man natürlich dann etwas neues benötigt.

    Damals gab es sehr viel flexiblere Aufrüstsysteme, wo man z.B. bei Bedarf eben 1-16 Prozessoren mehr reinstecken konnte. Selbst bei meinem uralten C64 hatte Ich zum Schluß mehrere Floppys dran, weil in jeder Floppy eine C64-CPU drinsteckte. So konnte Ich schon damals die Leistung meines kleinen Brotkastens vervielfachen. Das waren noch Zeiten.

Seite 9 von 11 ErsteErste ... 7891011 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

Solar Speicher und Akkus Tests