- 3D-Druck Einstieg und Tipps         
Seite 10 von 11 ErsteErste ... 891011 LetzteLetzte
Ergebnis 91 bis 100 von 104

Thema: Glaubt ihr, dass einmal eine KI von uns erschaffen wird?

  1. #91
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    27.09.2007
    Beiträge
    162
    Anzeige

    LiFePo4 Akku selber bauen - Video
    Ich kann eigentlich nur in die gleiche (etwas OT) Kerbe hauen. Eine Nummer größer war ich Ende der 80er voll zufrieden mit meinem Macintosh II (2 MB RAM, 16 MHz 68030, FloatingPoint Coprozessor, 80 MB Festplatte, 640x480 Pixeln zu 256 Farben).

    Ich habe keine Aufgaben heute, die nicht mit dieser Konfiguration zu bearbeiten wären...

    Nach fast 20 Jahren sind PCs nun 1000x so leistungsfähig geworden (o.k sie laufen nominell nicht mit 16 GHz, aber Riesencache, Doppelkern und SSE machen dies Leistungsmäßig aus)

    Der Faktor 1000 erfüllt das Moore'sche Gesetz recht genau: Es hat etwa 12 Verdopplungszeiten zu 1,5 Jahren gegeben. Die Differenz ist dem Preisverfall geschuldet.

    Diese 1000 mal höhere Leistung trifft natürlich auch die Größrechner.

    Wir sollten deshalb auch heute AUF EINEM PC nicht mehr erwarten als "damals" auf einer Cray! Und was macht Blue Gene.. NumberCrunching!

    Die Rechenkraft der PC-Server-Farmen wird heute durch interpretierte Sprachen wie PHP abgefangen. Jeder noch so einfache echte Basic Compiler (z.B. "Pure Baisc") zeigt, dass unsere 600 Euro Notebooks völlig überkandidelt "motorisiert" sind.. 5% würde reichen...

    Zum Thema: Extrapoliert heißt das, dass wir in 20 Jahren - "best case" - auch wieder so eine formelle (!) Leistungssteigerung erwarten können... Wird uns dass aber zu einem Durchbruch verhelfen (Quantität -> Qualität) ?

  2. #92
    Neuer Benutzer Öfters hier
    Registriert seit
    24.02.2008
    Beiträge
    6
    Weitere Anmerkungen zu früheren Beiträgen...

    Zu xunwichtig:
    Aber das "wissen" auch nicht viele Menschen, sondern nur Menschen, die dies "erlernt haben" zu erkennen. Von intuition würde ich da nicht ausgehen.

    Allerdings ist Intuition auch ein schönes Gebiet in der KI-Thematik.
    Ist Intuition nicht immer (zumindest auch) ein "Erlernt haben"? Ansonsten ist die Frage, inwieweit "Intuition" eine KI- oder nicht vielmehr eine Philosophie- oder Psychologie Thematik ist, solange der Begriff nicht für die techniknähere KI relativ genau definiert/beschrieben ist.

    Ich glaube sogar daran, das wir uns heutzutage nichtmal vorstellen können, das wir nur am ansatz verstehen, udn begreifen, in WIE WEIT sich die von uns geschaffene Intelligenz einmal entwicklen wird.
    Ein interessanter Punkt. Dafür spricht für mich auf jeden Fall, dass wir überhaupt eine entsprechende Intelligenz schaffen können. Ob sie für uns allerdings völlig unbegreifbar, weil absolut weit weg entwickeln wird, lässt sich schwer sagen (bzw. ist relativ/subjektiv). Die Frage ist auch, ob wir als Entwickler dieser Intelligenz es überhaupt zulassen werden/wollen.

    Solch eine "künstliche" Intelligent (ob Elektronisch oder Biolchemisch), wird durch die verknüpfung von uns bekannter Technik, und der Leistung von noch kommenden Computertechnologien so drastisch und extrem anwachsen, das Informationen derer nicht mehr "erlernt" werden müssen (im klassischen sinne), sondern einfach nur noch Kopiert und weitergegeben werden können.
    Das einfache Kopieren geht m.A.n. nur bedingt: Ein Klonen, also 1:1-Kopieren von Wissen, mag gehen, sofern die Grundprogammierung der KI identisch ist. Aber partielles Kopieren?
    Wissen ist ja nicht einfach in völlig unabhängige Teile zerlegbar, die nichts miteinander zu tun haben. Insofern denke ich, dass das Lernen niemals überflüssig sein wird, m.A.n. sogar das wichtigste für Intelligenz überhaupt.

    Die neue Generation , welche ich seit 2 Jahren verfolge bassiert auf dem Konzept des eigenständigen Lernens. Es wird nicht mehr vorgegeben, wie sie zu lernen hat, oder was,sondern nur noch die Möglichen Quellen, und den aufbau des Networks. Das system muss quasi erstmal lernen zu lernen. Ei ngrosser nachteil bei diesem verfahren ist die Lange trainingszeit. Es werden wohl mehrere Monate Training, oder mehr von nöten siein, nur um ihr erstmal ein kleines verständniss von den Grundlagen zu geben. Wie sie mit Ihren Schnitstellen umgehen muss, welche Funktion für was zuständig ist, usw.
    Wie du das genauer realisiert hast, interessiert mich. Basiert dein Lernen auf neuronalen Netzen?

    Zu Felix G.:
    Wir können neues Wissen quasi "aus dem Nichts" erschaffen.
    Ach wäre das schön, dann hätten wir die wahre KI sicher schon

    Stellt man ein Tier vor ein Problem das ihm unbekannt ist, dann wird es wohl durch ausprobieren irgendwann zu einer Lösung kommen. Wir hingegen können das Problem analysieren und verstehen, und dadurch auf kreative Art aus unserem vorhandenen Wissen eine Lösung für dieses spezielle Problem zusammensetzen.
    Unterschätze mal andere Tiere wie z.B. Schimpansen nicht... Sicher dürften wir analyse-erfahrener sein, aber einen prinzipiellen Unterschied sehe ich nicht.

  3. #93
    Erfahrener Benutzer Roboter-Spezialist
    Registriert seit
    28.12.2007
    Ort
    Hamburg
    Alter
    57
    Beiträge
    254
    Zitat Zitat von Burkart
    Unterschätze mal andere Tiere wie z.B. Schimpansen nicht... Sicher dürften wir analyse-erfahrener sein, aber einen prinzipiellen Unterschied sehe ich nicht.
    Das gilt schon für Spatzen und andere Tiere wie Versuche gezeigt haben.

  4. #94
    Neuer Benutzer Öfters hier
    Registriert seit
    24.02.2008
    Beiträge
    6
    Was ich noch loswerden möchte...

    Witze und Emotionen sind wirklich ein schwieriges KI-Gebiet, zumal Witzigkeit ja sehr subjektiv ist.

    Wie gesagt .. ich erachte >wissen< als Intelligenz,
    xunwichtig: Was für Wissen meinst du bzw. was verstehst du hier unter "Wissen"? Ich sehe es grundsätzlich auch so, dass Intelligenz ohne (recht viel) Wissen nicht funktioniert, allerdings ist Wissen alleine noch nicht ausreichend für Intelligenz.

    Zu panicrobot:
    Meine Definition Intelligenz=
    -Motivation
    -Problem(e) erkennen
    -Probleme zuordnen und gewichten
    -Lösungstrategie entwerfen
    -Lösungstrategie anwenden
    -Lösungstrategie bewerten und bei Notwendigkeit anpassen (Erfolg-Misserfolg Lernphase)
    An der Definition gefällt mir schon mal die "Motivation" (was ich als selbständigen Willen zum Denken (und ggf. Handenn) interpretiere) und die Problem- und Lösungsorientierung. Allerdings ist kommt mir das Lernen zu kurz, jedenfalls für weitergehende Intelligenz.

    Habe da nur so meine Probleme dem Computer da eine Motivation zuzuordnen.
    Inwiefern? Gefühlsmäßig für dich - oder aber technisch/algorithmisch?
    Zu letzterem: Heutige Computer warten die meiste Zeit, bis sie etwas Sinnvolles zu tun haben. Eine Intelligenz vielmehr wird (fast) immer was tun, ob nun Datenaufnahme, deren Verarbeitung, vor allem aber Abgleich des Ganzen mit den grundlegenden und darauf aufbauenden Zielen/"Bedürfnissen"/"Wünschen" der KI.

    Eine komplexe Intelligenz wird meines Erachtens erreicht wenn eine Abstraktionsfähigkeit hinzukommt. Also letztendlich Lösungstrategien so ausgewertet werden das sie auch für andere Problemfelder einen Lösungsansatz bieten können.
    Genau, Abstraktion ist absolut notwendig. Das ergibt sich alleine schon durch die in der Welt nie ganz gleiche ("Lebens-)Situationen. Die eben angerissenen Ziele stellen insofern eine Hilfe dar, als dass für sie ihre (ggf. partielle) Erreichung im Vordergrund steht, nicht aber das präzise Wie.

    Ab dann kann ein Computer Probleme angehen die für den Programmierer nicht vorhersehbar waren bzw sich durch die Lösung von Problemen erst ergeben. Der Computer müsste also in der Lage sein sich Problemfelder selbst zu erschließen.
    Genau dafür ist das Lernen sehr wichtig. Dadurch wird eine KI unabhängig von seiner Grundprogrammierung und kann sich (auch) anderen Gebieten widmen.

    Wäre ein Intelligenter Computer nun auch noch Menschlich wäre das wieder ein Zeichen von Dummheit.
    Da sollte man relativieren, weil Menschlichkeit ja auch gute Seiten hat.

    Die stärkste sicherlich den Drang zu Überleben. Für einen Computer schon deshalb irrelevant da er nunmal nicht Lebt.
    Moooment: Der Computer existiert aber und hat sicher ein Interesse an seinem Weiterbestehen. Allerdings muss (und sollte wohl auch?) es nicht so stark wie beim Menschen sein.

    Intelligenz immer am Menschen zu messen ist ein bisschen eine Krankheit der Wissenschaft. Eine Intelligenz entwickelt sich immer an Problemfeldern und die sind schon bei jedem Lebewesen anders. Ein Computer wird genausowenig Menschlich sein wie ein Tier
    Du unterschätzt hier die Ähnlichkeit der Intelligenz zwischen Mensch und KI. Richtig ist, dass die Problemfelder wichtig sind, aber warum sollen diese bei einer KI so ganz anders als beim Menschen sein, zumal wir die KI ja nicht "irgendwie" entwerfen, sondern irgendwie für uns!? Und dass Mensch und Tier auch nicht soo verschieden sind, ist auch schon öfters diskutiert worden.

    Zu ehenkes:
    Es freut mich, dass du die sprachliche Kommunikation erwähnt. Diese ist sicher sehr wichtig für Intelligenz.
    Da m.A.n. eine KI vor allem auf Lernen beruht, ist Kommunikation für sie sehr wichtig, schon alleine um vom menschlichen Lehrer lernen zu können, ob nun einfach durch positiven oder negativen Feedback ("gut/schlecht gemacht") oder durch Wissensvermittlung.

    Zu regalbilly:
    Ich frage mich einfach, ob Du nicht aktiv nach den Grundprinzipien suchst, die Kommunikation erst ermöglichen. Irgendwelche Methoden, Strukturen oder dergleichen.
    An was für Methoden u.ä. denkst du dabei? Meinst du wirklich nur technische oder vergleichst du auch mit menschlicher Kommunikation?

  5. #95
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    27.09.2007
    Beiträge
    162
    Bei solchen interessanten Diskussionen ist es immer, dass man 1000 Anmerkungen hat, die man gar nicht unterbringen kann

    Ich möchte hier mal den "Aspekt" Zeitskale ins Spiel bringen:
    - "Lernen" im Zuge der Biologischen Evolution (100k Jahre)
    - gerichtet (Züchtung) (1k Jahre)
    - Lernen durch "trial-and-error" ( 10 Jahre/Aspekt)
    - gerichtete ("Erziehen") ( 10 Jahre/ca 1000 Aspekte)
    - Lernen durch interne Modellbildung ("Denken") (einige Tage/Aspekt)
    - gerichtet ("Erklärung") (einige Stunden/Aspekt)


    Das sind sozusagen unsere "Grenzen". Wir als Menschen haben hier keine "parallele Reserven", d.h. wir können nicht zwei Aspekte GLEICHZEITIG lernen, oder nur in ganz seltenen Fällen, wenn verschiedenen der o.g. Ebenen beteiligt sind.

    Eine KI könnte aber ev. "parallel" lernen (wobei sich da die Frage stellt, inwieweit "integrative Vorgänge" nicht notwendigerweise sequenziell sind...)

    Wenn wir die o. Zeitskala jetzt weiterdenken, dann könnte eine KI in wenigen Sekunden den gesamten Lebenslauf eines Menschen analysieren und daraus Schlüsse und Bewertungen ziehen.. Oder alle jemals gemachten chemische Experimente..... Oder genauer: Diese beides innerhalb einer halben Stunde....
    Ein Genie hoch 10..... Aber was wäre das???

  6. #96
    Neuer Benutzer Öfters hier
    Registriert seit
    24.02.2008
    Beiträge
    6
    Bei solchen interessanten Diskussionen ist es immer, dass man 1000 Anmerkungen hat, die man gar nicht unterbringen kann
    Wohl wahr, aber man kann's immerhin halbwegs versuchen

    Ich möchte hier mal den "Aspekt" Zeitskale ins Spiel bringen:
    - "Lernen" im Zuge der Biologischen Evolution (100k Jahre)
    - gerichtet (Züchtung) (1k Jahre)
    - Lernen durch "trial-and-error" ( 10 Jahre/Aspekt)
    - gerichtete ("Erziehen") ( 10 Jahre/ca 1000 Aspekte)
    - Lernen durch interne Modellbildung ("Denken") (einige Tage/Aspekt)
    - gerichtet ("Erklärung") (einige Stunden/Aspekt)

    Das sind sozusagen unsere "Grenzen".
    Hm, Grenzen? Wohl mehr grober Erfahrungswerte, soweit sie denn hinkommen. Z.B. wird ein Kleinkind durch trial-and-error sicher einiges lernen.

    Wir als Menschen haben hier keine "parallele Reserven", d.h. wir können nicht zwei Aspekte GLEICHZEITIG lernen, oder nur in ganz seltenen Fällen, wenn verschiedenen der o.g. Ebenen beteiligt sind.
    Macht ja nicht unbedingt was... (Immerhin sind wir ja ein paar Milliarden Menschen.)

    Eine KI könnte aber ev. "parallel" lernen (wobei sich da die Frage stellt, inwieweit "integrative Vorgänge" nicht notwendigerweise sequenziell sind...)
    Stimmt, es ist die Frage, inwiefern KIs wirklich viel besser parallel lernen, wegen integrativer Vorgänge, aber auch, weil wir ja Aspekte zu unterschiedlichen Lerneinheiten zwischenspeichern und diese quasi parallel ("Zeitscheiben-mäßig") verarbeiten können. Komplexes Lernen geht ja oft nicht einfach von jetzt auf gleich.

    Wenn wir die o. Zeitskala jetzt weiterdenken, dann könnte eine KI in wenigen Sekunden den gesamten Lebenslauf eines Menschen analysieren und daraus Schlüsse und Bewertungen ziehen..
    Das müsste zumindest der ganze Lebenslauf schon (stark komprimiert im Vergleich zu einem echten Leben) digital vorliegen. Klar, bei solchen Dateien kann ein Programm sicher schnell analysieren, aber das spiegelt die eigentliche Realität (eines Lebens) kaum wider.

    Oder alle jemals gemachten chemische Experimente..... Oder genauer: Diese beides innerhalb einer halben Stunde....
    Ein Genie hoch 10..... Aber was wäre das???
    Tja, was wäre das... So können ja höchstens die digitalisierten Ergebnisse der Experimente so schnell verarbeitet werden, nicht die Experimente selbst. Damit fehlt der Realbezug. Auch die Hintergründe und das Warum der Experimente dürfte oft verloren gehen.

    Entscheidend ist, dass dadurch vielleicht ein gutes Expertensystem entstehen kann, aber keine KI, die wirklich intelligent ist (also selbst gelernt auf der Welt gelernt hat u.ä.)

  7. #97
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    27.09.2007
    Beiträge
    162
    Zitat Zitat von Burkart
    Entscheidend ist, dass dadurch vielleicht ein gutes Expertensystem entstehen kann, aber keine KI, die wirklich intelligent ist (also selbst gelernt auf der Welt gelernt hat u.ä.)
    Ja und Nein...
    (1) Ich wollte in meiner Argumentation in erster Linie auf die Frage eingehen: Was kommt nach dem Menschen? In Bezug auf Geschwindigkeit des "Lernen".. Sicher gibt es hier einige wie mich, die noch ohne Internet Daten beschaffen mussten, indem sie stunden- oder tagelang in Bibliotheken saßen oder auf die "Fernleihe" warteten

    (2) Da wir nur sehr unklare Vorstellungen davon haben wann "Bewusstsein" oder (analytische) "Intelligenz" entsteht, könnte es sein, dass dies einfach schon durch so einen Masseneffekt geschieht.. oder wenigstens erleichtert wird... Insbesondere "trial- and -error" (auch wenn dies ein extrem uneffektives Verfahren ist) ist perfekt zu parallelisieren...

  8. #98
    Erfahrener Benutzer Fleißiges Mitglied
    Registriert seit
    27.09.2007
    Beiträge
    162
    Es werden sich natürlich hochinteressante Unterschiede ergeben, wie bei der Frage: "Woher weißt Du das?"

    In der Menschheitsgeschichte waren "richtige" Antworten;
    - Das hat mir mein Vater (Lehrer) gesagt!
    - Das habe ich selbst schon erlebt
    - Das habe ich in einem mir zuverlässig erscheinendem Buch gelesen
    - Das wird in der ganzen Welt so regelmäßig ohne größeren Widerspruch veröffentlicht
    - Das erscheint mir konsistent zu meinem Weltbild

    Eine KI könnte z.B. sagen: "Das ist das Ergebnis von 2 Millionen von mir durchgeführten Simulationen unter Abänderung meines internen Weltmodells an 36 fragwürdigen Parametern im Rahmen der mir bekannten Plausibiltätsüberlegungen, die in den letzten 200 Jahren publiziert wurden..."

  9. #99
    Neuer Benutzer Öfters hier
    Registriert seit
    24.02.2008
    Beiträge
    6
    Zitat Zitat von deSilva
    Zitat Zitat von Burkart
    Entscheidend ist, dass dadurch vielleicht ein gutes Expertensystem entstehen kann, aber keine KI, die wirklich intelligent ist (also selbst gelernt auf der Welt gelernt hat u.ä.)
    Ja und Nein...
    (1) Ich wollte in meiner Argumentation in erster Linie auf die Frage eingehen: Was kommt nach dem Menschen? In Bezug auf Geschwindigkeit des "Lernen".. Sicher gibt es hier einige wie mich, die noch ohne Internet Daten beschaffen mussten, indem sie stunden- oder tagelang in Bibliotheken saßen oder auf die "Fernleihe" warteten
    Ok, die Lerngeschwindigkeit wird KIs sicher eine andere bzw. KI-spezifische(re) sein. Ob nun immer schneller, sei dahingestellt. Klar, wenn sie sich Infos digital holt, mag sie wesentlich schneller sein. Wenn sie allerdings auf die Umwelt angewiesen ist... ist halt eine Frage ihrer Programmierung, ihrer "Sinne" und deren Eingabeverarbeitung usw.

    (2) Da wir nur sehr unklare Vorstellungen davon haben wann "Bewusstsein" oder (analytische) "Intelligenz" entsteht, könnte es sein, dass dies einfach schon durch so einen Masseneffekt geschieht.. oder wenigstens erleichtert wird... Insbesondere "trial- and -error" (auch wenn dies ein extrem uneffektives Verfahren ist) ist perfekt zu parallelisieren...
    Ich denke, es ist entscheidener, was wir für Bewusstsein u.ä. halten bzw. akzeptieren. Bei "Intelligenz" ist unsere Akzeptanz ja eher rückläufig: Waren z.B. Suchverfahren früher noch KI, sind sie heute "normale" Algorithmen - und insofern auch Schach immer weniger intelligent, je genauer man die Algorithmen kennt.
    Sicher ist "trial- and -error" für Wissensgewinnung hilfreich, aber ich sehe nicht, wie daraus durch Zauberei (Masseneffekt) Bewusstsein und so was wird.

  10. #100
    Neuer Benutzer Öfters hier
    Registriert seit
    24.02.2008
    Beiträge
    6
    Zitat Zitat von deSilva
    Es werden sich natürlich hochinteressante Unterschiede ergeben, wie bei der Frage: "Woher weißt Du das?"

    In der Menschheitsgeschichte waren "richtige" Antworten;
    - Das hat mir mein Vater (Lehrer) gesagt!
    - Das habe ich selbst schon erlebt
    - Das habe ich in einem mir zuverlässig erscheinendem Buch gelesen
    - Das wird in der ganzen Welt so regelmäßig ohne größeren Widerspruch veröffentlicht
    - Das erscheint mir konsistent zu meinem Weltbild

    Eine KI könnte z.B. sagen: "Das ist das Ergebnis von 2 Millionen von mir durchgeführten Simulationen unter Abänderung meines internen Weltmodells an 36 fragwürdigen Parametern im Rahmen der mir bekannten Plausibiltätsüberlegungen, die in den letzten 200 Jahren publiziert wurden..."
    Tja, ein guter Punkt: Woher weiß der Mensch oder eine KI etwas?
    Ich denke, dass eine KI auch sinnvollerweise einen Lehrer braucht so wie Kindern ihre Eltern, Lehrer, aber auch andere Menschen dazu haben.

    Wem man (ob nun Mensch oder KI) am meisten glaubt, ist auch so 'ne Sache. Kinder glauben sicher den ihnen am besten vertrauten (älteren) Menschen (i.a. Eltern) am meisten. Insofern würde ich einer KI auch am besten einem (oder wenigen) Menschen am meisten vertrauen lassen wollen. Später kann man (Mensch oder KI) durch eigene Erfahrung (also entsprechend Gelerntem!) und/oder Abgleich mehrerer Informationsquellen prüfen, welche Infos wohl am vertrauenswürdigsten sind.

    Dass du die KI unzählige Simulationen durchführen lassen willst, erinnert mich daran, dass sie sicher eine "natürliche(re)" Schnittstelle zur digitalen Welt haben kann als wir Menschen. Andererseits ist Simulation nur eine Berechnung innerhalb eines Modells, also nur bedingt übertragbar auf die reale Welt. Somit kommt man mit ihr nur bedingt zu praktischen Ergebnissen.

Seite 10 von 11 ErsteErste ... 891011 LetzteLetzte

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  

12V Akku bauen