Discussion:
Ist die Komplexität des Menschen das Problem der (starken) KI?
(zu alt für eine Antwort)
Burkart Venzke
2017-08-06 06:56:27 UTC
Permalink
Hallo Newsgroup,

die Idee ist mir gerade ein- bzw. aufgefallen. Nicht die KI als solche
zu erreichen ist unbedingt das Problem, sondern der Anspruch an sie so
komplex zu sein wie wir Menschen selbst.

Man könnte auch sagen: Wir unterschätzen nicht primär das Problem der
KI, sondern die Komplexität des Menschen, so dass starke KI, an seinem
Spiegelbild gemessen, große Probleme bereiten muss.

Mein Ausweg wäre deshalb, dass man erst einmal etwas wie "einfachere
starke KI" als Ziel hat, also dass man sich nicht gleich an allen
menschlichen Aspekte versucht, sondern an wenigen oder gar nur einem,
der aber natürlich in die richtige Richtung geht.

Mein Aspekt wäre das "Verstehen", dass ich der KI beibringen möchte.

Was sind eure Gedanken zu diesen Punkten?

Viele Grüße
Burkart
Wolfgang Lorenz
2017-08-06 10:44:55 UTC
Permalink
Post by Burkart Venzke
Mein Aspekt wäre das "Verstehen", dass ich der KI beibringen möchte.
Wie wird das gemessen?

Die KI versteht dich, wenn sie dich simulieren kann. Das kann sie aber im Moment nicht, weil du zu komplex bist.

Also baust du der KI eine Spielzeugwelt, vielleicht sogar mit einem Spielzeugburkart drin, denn das ist einfacher zu modellieren. Und irgendwann ist die Komplexität erreicht, so dass das Label „Verstehen“ passt und die Mehrheit des Publikums das so akzeptiert.

Oder wie willst du sonst „Verstehen“ messen?
Burkart Venzke
2017-08-07 18:41:59 UTC
Permalink
Post by Wolfgang Lorenz
Post by Burkart Venzke
Mein Aspekt wäre das "Verstehen", dass ich der KI beibringen möchte.
Wie wird das gemessen?
In dem z.B. der KI einen kleinen Befehl gibt oder eine Frage stellt und
sie, ob sie ihn ausführen oder sie sinnvoll beantworten kann.
Post by Wolfgang Lorenz
Die KI versteht dich, wenn sie dich simulieren kann. Das kann sie aber im Moment nicht, weil du zu komplex bist.
Richtig.
Post by Wolfgang Lorenz
Also baust du der KI eine Spielzeugwelt, vielleicht sogar mit einem Spielzeugburkart drin, denn das ist einfacher zu modellieren. Und irgendwann ist die Komplexität erreicht, so dass das Label „Verstehen“ passt und die Mehrheit des Publikums das so akzeptiert.
Das wäre dann ein richtiger Ansatz, auf dem aufgebaut werden kann.
Irgendwo/ie muss man ja ansetzen.

Gruß, Burkart
Hermann Riemann
2017-08-08 02:54:31 UTC
Permalink
Post by Burkart Venzke
Post by Wolfgang Lorenz
Post by Burkart Venzke
Mein Aspekt wäre das "Verstehen", dass ich der KI beibringen möchte.
Wie wird das gemessen?
In dem z.B. der KI einen kleinen Befehl gibt oder eine Frage stellt und
sie, ob sie ihn ausführen oder sie sinnvoll beantworten kann.
Ist dann eine Waschmaschinen software intelligent?
Sie reagiert auf einfache Befehle.
Post by Burkart Venzke
Post by Wolfgang Lorenz
Die KI versteht dich, wenn sie dich simulieren kann. >> Das kann sie aber im Moment nicht, weil du zu komplex bist.
Richtig.
Da ich andere Menschen oft nicht (das Gesagte) verstehe,
bin ich nicht inetlligent?
Post by Burkart Venzke
Post by Wolfgang Lorenz
Also baust du der KI eine Spielzeugwelt, vielleicht sogar mit einem
Spielzeugburkart drin, denn das ist einfacher zu modellieren. Und
irgendwann ist die Komplexität erreicht, so dass das Label „Verstehen“
passt und die Mehrheit des Publikums das so akzeptiert.
Das wäre dann ein richtiger Ansatz, auf dem aufgebaut werden kann.
Irgendwo/ie muss man ja ansetzen.
Ich finde, Irrgarten ist als abgeschlossene Welt zu "einfach".
( brute force)
Da halte die offene Welt ( kombinatorische Explosion)
der Formelmanipulation( und deren Anwendungsmöglichkeiten)
für interessanter.

Aber natürlich sind auch Modellwelten wie bei computerspiele
interessant.

Statt den Objekten zu sagen "gehe da hin", "produziere" ..
wären bedingte Anweisungen "fliehe, wenn Verletzung schlimm ist"
oder gar Verhaltensprogramme oder Anweisungen
zum Verhaltenslernen
( bzw. Verhalten bekannter Personen imitieren)
schon für mich interessanter.

Und deren Verhaltensprogramme aber eine IO mit Dir zum "verstehen" haben,
wenn sie selber Möglichkeiten zum Kombinieren haben.

Hermann
der bei Spielzeug Welten eher an Roboter denkt.
--
http://www.hermann-riemann.de
Wolfgang Lorenz
2017-08-08 03:36:20 UTC
Permalink
Post by Hermann Riemann
Ist dann eine Waschmaschinen software intelligent?
Sie reagiert auf einfache Befehle.
Die Marketing Abteilung des Herstellers sagt ja ;)

Sie hat diese Reaktionen aber nicht ohne menschliche Programmierer von selber erlernt. Und sie könnte das auch gar nicht, weil ihr die nötigen Sensoren für Belohnung fehlen. Wasser-, Strom-, Waschmittel- und Zeitverbrauch sowie Lautstärke und Vibrationen kann sie zwar theoretisch messen, Sauberkeit, Geruch und Knitterfreiheit der fertigen Wäsche aber nicht. Feuchtigkeitsgehalt der Wäsche nach dem Schleudern sollte auch noch messbar sein. Trotzdem wird sie immer menschliche Programmierer brauchen, und wenn die Experten für Supervision eh da sind, lohnen sich intelligente Lernverfahren wie zum Beispiel modellbasiertes RL nicht.
Post by Hermann Riemann
Da ich andere Menschen oft nicht (das Gesagte) verstehe,
bin ich nicht inetlligent?
Ich verstehe auch einige deiner Kommentare nicht, das meiste hake ich als „Unwichtig“ ab. Hat also was mit Attention zu tun, es gibt eben andere Sachen, die wichtiger für mich sind. Attention ist wie die Reihenfolge auf der Todo Liste, zum Beispiel indem man t und e vertauscht und inetlligent schreibt anstatt intelligent ;)
Burkart Venzke
2017-08-09 03:38:43 UTC
Permalink
Post by Hermann Riemann
Post by Burkart Venzke
Post by Wolfgang Lorenz
Post by Burkart Venzke
Mein Aspekt wäre das "Verstehen", dass ich der KI beibringen möchte.
Wie wird das gemessen?
In dem z.B. der KI einen kleinen Befehl gibt oder eine Frage stellt
und sie, ob sie ihn ausführen oder sie sinnvoll beantworten kann.
Ist dann eine Waschmaschinen software intelligent?
Sie reagiert auf einfache Befehle.
Eine Frage beantworten zu können ist ja nur ein Aspekt.
Auch ist immer die Frage, wie bzw. auf welcher Basis die Frage
beantwortet werden kann: Ist die Antwort fest implementiert?
So wird die Waschmaschine sicher nur feste Werte (bzw. Bereiche) zu
festen Antworten umsetzen können; lernfähig oder sich irgendwie auf den
Benutzer einstellen kann sie sicher nicht.
Post by Hermann Riemann
Post by Burkart Venzke
Post by Wolfgang Lorenz
Die KI versteht dich, wenn sie dich simulieren kann. >> Das kann sie
aber im Moment nicht, weil du zu komplex bist.
Richtig.
Da ich andere Menschen oft nicht (das Gesagte) verstehe,
bin ich nicht inetlligent?
Warum so schwarz-weiß? "Intelligenz" ist ein derart komplexer Begriff;
eine Antwort auf deine Frage kann oft nur "kommt drauf an" bzw. "muss
ich genauer untersuchen" lauten. Bei Menschen wird man natürlich immer
"ja" sagen ;)
Post by Hermann Riemann
Post by Burkart Venzke
Post by Wolfgang Lorenz
Also baust du der KI eine Spielzeugwelt, vielleicht sogar mit einem
Spielzeugburkart drin, denn das ist einfacher zu modellieren. Und
irgendwann ist die Komplexität erreicht, so dass das Label
„Verstehen“ passt und die Mehrheit des Publikums das so akzeptiert.
Das wäre dann ein richtiger Ansatz, auf dem aufgebaut werden kann.
Irgendwo/ie muss man ja ansetzen.
Ich finde, Irrgarten ist als abgeschlossene Welt zu "einfach".
( brute force)
Es ist halt die Frage, wie man den Irrgarten lösen will.
Natürlich kann man brute force daran gehen, aber das ist eben nicht
meine Intension, sondern es soll nur einfachere Grundlagen geben, auf
der lernend zum Ziel gekommen werden soll.

Bei der Schachprogrammierung früher hat mich immer etwas gewurmt, dass
die Programme fest implementiert und nur dadurch so gut waren. Viel
interessanter hätte ich ein Programm gefunden, dass anfangs kaum gut
Schach spielen kann, aber dafür es im Laufe immer besser lernt.
Post by Hermann Riemann
Da halte die offene Welt ( kombinatorische Explosion)
der Formelmanipulation( und deren Anwendungsmöglichkeiten)
für interessanter.
Es ist Geschmackssache, ob man sie eher für eher Speziallösungen
innerhalb einer komplexen Welt interessiert, oder aber für den Versuch
einer grundlegenden, eher umfassenderen Lösung in einer einfacheren Welt.
Für beides auf einmal ist die KI einfach viel zu weit entfernt.
Post by Hermann Riemann
Aber natürlich sind auch Modellwelten wie bei computerspiele
interessant.
Genau.
Post by Hermann Riemann
Statt den Objekten zu sagen "gehe da hin", "produziere" ..
wären bedingte Anweisungen "fliehe, wenn Verletzung schlimm ist"
oder gar Verhaltensprogramme oder Anweisungen
zum Verhaltenslernen
( bzw. Verhalten bekannter Personen imitieren)
schon für mich interessanter.
Richtig, solche Bedingungen sind ein weiterer Schritt. Ich würde sie
(also die einzelnen) gerne irgendwie lernen lassen. Die Basis dazu wären
frühere "erlebnisse" der KI, in der sie z.B. durch Nicht-Flucht "einen
auf den Deckel bekommen hat", also sie erfahren musste, falsch reagiert
zu haben.
Post by Hermann Riemann
Und deren Verhaltensprogramme aber eine IO mit Dir zum "verstehen" haben,
wenn sie selber Möglichkeiten zum Kombinieren haben.
Genau.
Post by Hermann Riemann
Hermann
der bei Spielzeug Welten eher an Roboter denkt.
Sie sind sicher netter und publikumsnäher, aber eben auch aufwändiger.
RoboCup ist ja in so etwas wie eine Spielzeugwelt, auch wenn sie
"Fußball" heißt.

Gruß, Burkart
Hermann Riemann
2017-08-09 17:59:06 UTC
Permalink
Post by Burkart Venzke
So wird die Waschmaschine sicher nur feste Werte (bzw. Bereiche) zu
festen Antworten umsetzen können; lernfähig oder sich irgendwie auf den
Benutzer einstellen kann sie sicher nicht.
Eine Frage der software.
Beispiel Lernfähigkeit:
Waschmenge (Gewicht), Verschmutzung ( chemisch, Photo), Uhr
Außentemperatur, Temperatur in der Waschtrommel
Aktoren: Wasserzufuhr Waschmittelzufuhr, Heizung.

Damit könnte sie experimentieren
um die Wasserzufuhr, Strom und Zeit abzugleichen.

Ebenso wie eine Ampelsteuerung sich auch nach Verkehrsdichte
und Uhrzeiten (+ Wetter ..)
und Absprache mit anderen Ampeln ( Steuerung der Verkehrsdichte)
optimieren könnte.

(kNN)
Post by Burkart Venzke
Warum so schwarz-weiß? "Intelligenz" ist ein derart komplexer Begriff;
Ein mögliche Definition von Intelligenz ist etwa:
selbständige ausreichend schnelle Aufstellung brauchbarer Regeln
Post by Burkart Venzke
Bei Menschen wird man natürlich immer "ja" sagen ;)
Bei grundlegende Fähigkeit, fast immer,
bei Verwendung eher selten (individuell verschieden).
Post by Burkart Venzke
Bei der Schachprogrammierung früher hat mich immer etwas gewurmt, dass
die Programme fest implementiert und nur dadurch so gut waren. Viel
interessanter hätte ich ein Programm gefunden, dass anfangs kaum gut
Schach spielen kann, aber dafür es im Laufe immer besser lernt.
Gedanklich selber Programmieren.
Man spielt gegen sich selber.
Und versuchen, die Überlegungen dabei
in einer Programmiersprache (oder pseudocode) zu formulieren.
Vielleicht kommen da ein paar Erkenntnisse heraus.
Post by Burkart Venzke
Post by Hermann Riemann
Da halte die offene Welt ( kombinatorische Explosion)
der Formelmanipulation( und deren Anwendungsmöglichkeiten)
für interessanter.
Es ist Geschmackssache, ob man sie eher für eher Speziallösungen
innerhalb einer komplexen Welt interessiert, oder aber für den Versuch
einer grundlegenden, eher umfassenderen Lösung in einer einfacheren Welt.
Das 2+3 Berechnen mit den Formelvorgaben halte ich für geeignet
um Grundlegendes zu lernen.
Wie z.B. das Zusammenspiel von Konstanten und Variablen.
Das Geschehen ist klein genug um alles zu verstehen,
aber so groß, um den Umgang mit wesentlichen KI Probleme zu lernen.

Es geht nicht darum einen Weg zur Lösung zu finden,
sondern Wege so zu gestalten, dass sie auch für
kompliziertere Aufgaben geeignet sind.
Wie z.B. Zwischenergebnisse nicht wiederholen
( Bei Menschen: nicht das Gleiche denken)
Kleinere Zwischenergebnisse zuerst weiter analysieren
..

Das nächst größere Problem wäre 17+25 symbolisch zu berechnen,
weil der 10-er Übertrag
Bedingungen und deren symbolische Behandlung erfordert.
Post by Burkart Venzke
Für beides auf einmal ist die KI einfach viel zu weit entfernt.
Wenn das Einfache fehlt, gibt es beim Komplizierten
vermutlich nur Chaos.
Post by Burkart Venzke
Post by Hermann Riemann
Aber natürlich sind auch Modellwelten wie bei computerspiele
interessant.
Genau.
Post by Hermann Riemann
Statt den Objekten zu sagen "gehe da hin", "produziere" ..
wären bedingte Anweisungen "fliehe, wenn Verletzung schlimm ist"
oder gar Verhaltensprogramme oder Anweisungen
zum Verhaltenslernen
( bzw. Verhalten bekannter Personen imitieren)
schon für mich interessanter.
Richtig, solche Bedingungen sind ein weiterer Schritt.
Ich würde sie (also die einzelnen) gerne irgendwie lernen lassen.
So Anweisungen wie "gehe da hin", "fliehe, wenn Verletzung schlimm ist"
sind so etwas wie Programmschnipsel die als Bauteile
zusammengesetzt werden können.
Nach Regeln, die teilweise aus Erfahrung oder
bei Intelligenz aus Kombinationssuche zusammengesetzt werden.
Post by Burkart Venzke
Die Basis dazu wären frühere "Erlebnisse" der KI,
in der sie z.B. durch Nicht-Flucht "einen auf den Deckel bekommen hat",
also sie erfahren musste, falsch reagiert zu haben.
Also Evolutionsvariante
Verschiedene Mutationen, was überlebt (die "Feiglinge") gewinnt.
( Die Gemeinschaft verliert. )
Post by Burkart Venzke
Post by Hermann Riemann
Hermann
der bei Spielzeug Welten eher an Roboter denkt.
Sie sind sicher netter und publikumsnäher, aber eben auch aufwändiger.
RoboCup ist ja in so etwas wie eine Spielzeugwelt, auch wenn sie
"Fußball" heißt.
Bei Roboter denke ich eher an Roboter,
die andere Roboter herstellen und Probleme wie Orientierung
passende Kraft etc auch mit Überlegungen lösen,
wenn das Angelernte nicht ausreicht (Alternativensuche).

Hermann
der vermutet, das Mathematik, computerspiele und Robotik
gleichartige Systemkerne (unterste Schicht) haben,
dies aber bei einfacher Mathematik am einfachsten zu erforschen ist,
wobei der das Kernprogramm auch Regeln etc. selber finden sollte.
--
http://www.hermann-riemann.de
Burkart Venzke
2017-08-13 08:02:12 UTC
Permalink
Post by Hermann Riemann
Post by Burkart Venzke
So wird die Waschmaschine sicher nur feste Werte (bzw. Bereiche) zu
festen Antworten umsetzen können; lernfähig oder sich irgendwie auf
den Benutzer einstellen kann sie sicher nicht.
Eine Frage der software.
Waschmenge (Gewicht), Verschmutzung ( chemisch, Photo), Uhr
Außentemperatur, Temperatur in der Waschtrommel
Aktoren: Wasserzufuhr Waschmittelzufuhr, Heizung.
Damit könnte sie experimentieren
um die Wasserzufuhr, Strom und Zeit abzugleichen.
Ebenso wie eine Ampelsteuerung sich auch nach Verkehrsdichte
und Uhrzeiten (+ Wetter ..)
und Absprache mit anderen Ampeln ( Steuerung der Verkehrsdichte)
optimieren könnte.
Klar, man könnte die Software lernfähig machen, ich kenne aber für
Waschmaschinen und Ampelsteuerung so etwas nicht.
Was Ampelsteuerung betrifft, wäre es ja alleine schon ein großer
Schritt, wenn an allen Ampelkreuzungen Sensoren/Kameras o.ä.
existierten, die nur etwas "schlau" wären, also z.B. eine Richtung (z.B.
mitten in der Nacht) sofort auf grüne schalten, wenn aus den anderen
Richtungen gar kein Auto kommt.
Post by Hermann Riemann
(kNN)
Och, das ginge auch ohne kNN.
Post by Hermann Riemann
Post by Burkart Venzke
Warum so schwarz-weiß? "Intelligenz" ist ein derart komplexer Begriff;
selbständige ausreichend schnelle Aufstellung brauchbarer Regeln
Mit "komplex" meine ich nicht unbedingt seine grundlegende Definition,
sondern wie er gehandhabt wird. Z.B. ist ein IQ-Test für ihn relevant?
Wann gibt etwas als intelligent, wann nicht? Usw.
Post by Hermann Riemann
Post by Burkart Venzke
Bei Menschen wird man natürlich immer "ja" sagen ;)
Bei grundlegende Fähigkeit, fast immer,
bei Verwendung eher selten (individuell verschieden).
Post by Burkart Venzke
Bei der Schachprogrammierung früher hat mich immer etwas gewurmt, dass
die Programme fest implementiert und nur dadurch so gut waren. Viel
interessanter hätte ich ein Programm gefunden, dass anfangs kaum gut
Schach spielen kann, aber dafür es im Laufe immer besser lernt.
Gedanklich selber Programmieren.
Man spielt gegen sich selber.
Und versuchen, die Überlegungen dabei
in einer Programmiersprache (oder pseudocode) zu formulieren.
Vielleicht kommen da ein paar Erkenntnisse heraus.
So könnte man es versuchen, wäre aber nicht mein Weg. Ich meinte auch
eher, dass ich mich gefreut hätte, wenn Andere schon solche Programme
geschrieben hätten und man/ich sie hätten ausprobieren können.
Für mich selbst ist die Schachdomäne für die starke KI nicht spannend
genug, da sie mir zu speziell ist, mal abgesehen davon, dass feste
Programmierung ja effizient genug ist für gute Resultate.
Post by Hermann Riemann
Post by Burkart Venzke
Post by Hermann Riemann
Da halte die offene Welt ( kombinatorische Explosion)
der Formelmanipulation( und deren Anwendungsmöglichkeiten)
für interessanter.
Es ist Geschmackssache, ob man sie eher für eher Speziallösungen
innerhalb einer komplexen Welt interessiert, oder aber für den Versuch
einer grundlegenden, eher umfassenderen Lösung in einer einfacheren Welt.
Das 2+3 Berechnen mit den Formelvorgaben halte ich für geeignet
um Grundlegendes zu lernen.
Ach so, darum geht es.
Post by Hermann Riemann
Wie z.B. das Zusammenspiel von Konstanten und Variablen.
Das Geschehen ist klein genug um alles zu verstehen,
aber so groß, um den Umgang mit wesentlichen KI Probleme zu lernen.
Was wäre dann deine Grundage zum Lernen von 2+3?
Hättest du die allgemeine Addition gesagt, hätte ich es mir vorstellen
können.
Willst du irgendwie bei einer Stichliste anfangen?
Ach, oder meinst du es per kNN? Abgesehen davon, dass das nicht mein Weg
wäre: Bei so klaren Zuordnungen wie 2+3 zur 5 ist Symbolik doch gerade
perfekt.
Post by Hermann Riemann
Es geht nicht darum einen Weg zur Lösung zu finden,
sondern Wege so zu gestalten, dass sie auch für
kompliziertere Aufgaben geeignet sind.
Wie z.B. Zwischenergebnisse nicht wiederholen
( Bei Menschen: nicht das Gleiche denken)
Kleinere Zwischenergebnisse zuerst weiter analysieren
..
Sicher gute Wege.
Post by Hermann Riemann
Das nächst größere Problem wäre 17+25 symbolisch zu berechnen,
weil der 10-er Übertrag
Bedingungen und deren symbolische Behandlung erfordert.
Wenn ich an den Menschen denke, erscheint mir nach Auswendiglernen des
"kleinen 1+1" das die erste mathematik relevante Hürde zu sein.
Post by Hermann Riemann
Post by Burkart Venzke
Für beides auf einmal ist die KI einfach viel zu weit entfernt.
Wenn das Einfache fehlt, gibt es beim Komplizierten
vermutlich nur Chaos.
Klar.
Post by Hermann Riemann
Post by Burkart Venzke
Post by Hermann Riemann
Aber natürlich sind auch Modellwelten wie bei computerspiele
interessant.
Genau.
Post by Hermann Riemann
Statt den Objekten zu sagen "gehe da hin", "produziere" ..
wären bedingte Anweisungen "fliehe, wenn Verletzung schlimm ist"
oder gar Verhaltensprogramme oder Anweisungen
zum Verhaltenslernen
( bzw. Verhalten bekannter Personen imitieren)
schon für mich interessanter.
Richtig, solche Bedingungen sind ein weiterer Schritt.
Ich würde sie (also die einzelnen) gerne irgendwie lernen lassen.
So Anweisungen wie "gehe da hin", "fliehe, wenn Verletzung schlimm ist"
sind so etwas wie Programmschnipsel die als Bauteile
zusammengesetzt werden können.
Nach Regeln, die teilweise aus Erfahrung oder
bei Intelligenz aus Kombinationssuche zusammengesetzt werden.
...und die gut zum Lernen dienen können.
Post by Hermann Riemann
Post by Burkart Venzke
Die Basis dazu wären frühere "Erlebnisse" der KI,
in der sie z.B. durch Nicht-Flucht "einen auf den Deckel bekommen hat",
also sie erfahren musste, falsch reagiert zu haben.
Also Evolutionsvariante
Verschiedene Mutationen, was überlebt (die "Feiglinge") gewinnt.
( Die Gemeinschaft verliert. )
Halt diese Variante im Gegensatz zu dem Typus einer einzelnen KI (mein
Ansatz).
Post by Hermann Riemann
Post by Burkart Venzke
Post by Hermann Riemann
Hermann
der bei Spielzeug Welten eher an Roboter denkt.
Sie sind sicher netter und publikumsnäher, aber eben auch aufwändiger.
RoboCup ist ja in so etwas wie eine Spielzeugwelt, auch wenn sie
"Fußball" heißt.
Bei Roboter denke ich eher an Roboter,
die andere Roboter herstellen und Probleme wie Orientierung
passende Kraft etc auch mit Überlegungen lösen,
wenn das Angelernte nicht ausreicht (Alternativensuche).
Tja, jeder hat halt seine eigenen Vorstellungen z.B. von Robotern.
Nach dem großen KI-Projekt der KI ohne Körper, also reine Software wie
bei Schachprogrogrammierung, ist die KI mit Körper halt der nächsten
Schritt, eben populär vertreten durch RoboCup.
Deine Robotervorstellung erinnert mich mehr an die klassischen Roboter
der schwachen KI.
Post by Hermann Riemann
Hermann
der vermutet, das Mathematik, computerspiele und Robotik
gleichartige Systemkerne (unterste Schicht) haben,
dies aber bei einfacher Mathematik am einfachsten zu erforschen ist,
wobei der das Kernprogramm auch Regeln etc. selber finden sollte.
Hm, also das sind doch schon ein paar Unterschiede.
Robotik ist zwangsweise in der realen Welt (lassen wir Simulationen mal
weg), Mathematik ist nur Theorie. Und weil Mathematik auch nur Theorie
ist, beruht sie auf einem Kern, der nur von Menschen festgelegt ist,
während Roboter auch in/aus der Welt lernen könn(t)en, eben z.B. mit
Sensoren, die in der Mathematik gar keinen Sinn machen; ein Begreifen
der mathematischer Zusammenhänge ist etwas anderes als elementare
Umweltdaten aufzufassen, die u.U. direkte Konsequenzen haben können.
-> Mathematik ist letztlich "nur" ein Hilfsmittel.

Ich würde sogar gegenteilig sagen, dass das Verstehen von Mathematik
schwieriger grundlegend ist, als ELemente von Computerspielen oder
Robotik, da letztere quasi recht direktes Feedback liefern (können).
Dagegen alleine das Lernen der Idee der Zahl und später der Variablen
oder gar Funktionen (von Funktionen) erfordert einen gutes Verständnis.
Anschaulich haben ja nicht wenige Menschen gerade mit der Mathematik
ihre Schwierigkeiten, spielen oder sich in der Welt zu bewegen ist für
Menschen leichter.

Gruß, Burkart
Hans-Peter Diettrich
2017-08-13 17:28:19 UTC
Permalink
Post by Burkart Venzke
Post by Hermann Riemann
Ebenso wie eine Ampelsteuerung sich auch nach Verkehrsdichte
und Uhrzeiten (+ Wetter ..)
und Absprache mit anderen Ampeln ( Steuerung der Verkehrsdichte)
optimieren könnte.
Klar, man könnte die Software lernfähig machen, ich kenne aber für
Waschmaschinen und Ampelsteuerung so etwas nicht.
Mit Lernfähigkeit hat das auch nur am Rande zu tun. Irgendjemand muß ja
der Steuerung beibringen, was ihre Ein- und Ausgangssignale bedeuten,
und was das Optimierungskriterium ist. So ein Programm habe ich schon
1971 in Simula67 geschrieben, den Optimierungsteil müßte man noch
hinzufügen.
Post by Burkart Venzke
Was Ampelsteuerung betrifft, wäre es ja alleine schon ein großer
Schritt, wenn an allen Ampelkreuzungen Sensoren/Kameras o.ä.
existierten, die nur etwas "schlau" wären, also z.B. eine Richtung (z.B.
mitten in der Nacht) sofort auf grüne schalten, wenn aus den anderen
Richtungen gar kein Auto kommt.
In diesem Fall könnte man die Ampel nachts auch ganz abschalten ;-)

Im realen Leben stellt sich Verkehrslenkung i.d.R. als unproduktiv
heraus, d.h. Ampeln erzeugen erst die Staus, die sie eigentlich
vermeiden helfen sollten. Wenn hier jemand den Verkehrsplanern mit einer
KI unter die Arme greifen könnte, wäre das ein großer Schritt vorwärts :-]

DoDi
Burkart Venzke
2017-08-13 21:50:46 UTC
Permalink
Post by Hans-Peter Diettrich
Post by Burkart Venzke
Post by Hermann Riemann
Ebenso wie eine Ampelsteuerung sich auch nach Verkehrsdichte
und Uhrzeiten (+ Wetter ..)
und Absprache mit anderen Ampeln ( Steuerung der Verkehrsdichte)
optimieren könnte.
Klar, man könnte die Software lernfähig machen, ich kenne aber für
Waschmaschinen und Ampelsteuerung so etwas nicht.
Mit Lernfähigkeit hat das auch nur am Rande zu tun. Irgendjemand muß ja
der Steuerung beibringen, was ihre Ein- und Ausgangssignale bedeuten,
und was das Optimierungskriterium ist. So ein Programm habe ich schon
1971 in Simula67 geschrieben, den Optimierungsteil müßte man noch
hinzufügen.
Du sagst ja quasi selbst, dass so ein Programm nichts Neues bzw. sehr
Kompliziertes ist, also sollte die es einfach mal machen :)

Simula... lange nicht mehr gehört/gelesen diesen Begriff.
Post by Hans-Peter Diettrich
Post by Burkart Venzke
Was Ampelsteuerung betrifft, wäre es ja alleine schon ein großer
Schritt, wenn an allen Ampelkreuzungen Sensoren/Kameras o.ä.
existierten, die nur etwas "schlau" wären, also z.B. eine Richtung (z.B.
mitten in der Nacht) sofort auf grüne schalten, wenn aus den anderen
Richtungen gar kein Auto kommt.
In diesem Fall könnte man die Ampel nachts auch ganz abschalten ;-)
Ds geht sicher oft auch, aber wo nicht, wäre das andere eben auch eine
Lösung.
Post by Hans-Peter Diettrich
Im realen Leben stellt sich Verkehrslenkung i.d.R. als unproduktiv
heraus, d.h. Ampeln erzeugen erst die Staus, die sie eigentlich
vermeiden helfen sollten. Wenn hier jemand den Verkehrsplanern mit einer
KI unter die Arme greifen könnte, wäre das ein großer Schritt vorwärts :-]
Von mir aus gerne... aber das muss dann ja jemand bezahlen, oh je, dann
wird das wohl doch nichts...

Gruß, Burkart
Hermann Riemann
2017-08-25 05:31:57 UTC
Permalink
Post by Burkart Venzke
Mit "komplex" meine ich nicht unbedingt seine grundlegende Definition,
sondern wie er gehandhabt wird. Z.B. ist ein IQ-Test für ihn relevant?
IQ-Test misst nur einen Intelligenz Teil
Post by Burkart Venzke
Wann gibt etwas als intelligent, wann nicht? Usw.
Individuell verschieden.
Menschen können u.a. nach Äußerlichkeiten beurteilen.
Wie z.B. der Geist im Baum.

Es gibt verschiedene Intelligenzverfahren.
Z.B. die natürliche Evolution, die u.a. den Menschen gebastelt hat.
Sie unterscheidet sich nach meiner Einschätzung von
künstlicher Evolution, in der Verwendung weiterer Regelsysteme.
Beispiel Größenwachstum in einer oder wenigen Generationen.
Post by Burkart Venzke
Post by Hermann Riemann
Gedanklich selber Programmieren.
Man spielt gegen sich selber.
Und versuchen, die Überlegungen dabei
in einer Programmiersprache (oder pseudocode) zu formulieren.
Vielleicht kommen da ein paar Erkenntnisse heraus.
So könnte man es versuchen, wäre aber nicht mein Weg. Ich meinte auch
eher, dass ich mich gefreut hätte, wenn Andere schon solche Programme
geschrieben hätten und man/ich sie hätten ausprobieren können.
Für mich selbst ist die Schachdomäne für die starke KI nicht spannend
genug, da sie mir zu speziell ist, mal abgesehen davon, dass feste
Programmierung ja effizient genug ist für gute Resultate.
Es gibt IMHO ein KI-Kern mit fester Programmierung
Beim Menschen gehört dazu z.B. das er nicht in einer Schliefe festhängt.
Auf diesem Kern ist ein Variabler teil aufgebaut
mit individuell verschiedenen Zwischenstufen.

Bei Schach sehe ich die Gefahr, dass man sich in Spezialfälle
verliert.
Post by Burkart Venzke
Post by Hermann Riemann
Wie z.B. das Zusammenspiel von Konstanten und Variablen.
Das Geschehen ist klein genug um alles zu verstehen,
aber so groß, um den Umgang mit wesentlichen KI Probleme zu lernen.
Was wäre dann deine Grundlage zum Lernen von 2+3?
Hättest du die allgemeine Addition gesagt, hätte ich es mir vorstellen
können.
Ich wollte zuerst 17+25, aber das war zu kompliziert.
Allein schon der Übertrag ist ein erheblicher Aufwand.
Post by Burkart Venzke
Willst du irgendwie bei einer Stichliste anfangen?
Den gleichen code möchte ich z.B. verwenden,
um mir eine Formelsammlung zu erstellen,
die ich mit eigenen Programmen weiterverwenden kann.
Post by Burkart Venzke
Ach, oder meinst du es per kNN?
kNN ist eine Seitenzweig für viele Fälle
sei es unscharfe Muster, vielfach Adressierung bei Befehlsfolgen:

Bei einem CPU cache wird eine Adresse auf den Bus gelegt,
und durch paralleler Vergleich meldet sich eventuell der Speicherbereich.
Bei NN hat man viele mehr oder weniger zusammenhängende Adressen
und es werden Muster geliefert,
die nacheinander abgearbeitet werden könn(t)en. ..
Post by Burkart Venzke
Bei so klaren Zuordnungen wie 2+3 zur 5
ist Symbolik doch gerade perfekt.
Das ist nicht so einfach wie es angedacht ist.
Das konstruieren aus Formeln ist eine Basisfunktion von Intelligenz.
Beispiel intelligentes Begreifen:
Vergleich von Muster mit konstruierte Muster.
Die Verwendung von implizitem Wissen,
was wegen der Kombinationsvelfalt explodieren kann.
Post by Burkart Venzke
Wenn ich an den Menschen denke, erscheint mir nach Auswendiglernen des
"kleinen 1+1" das die erste mathematik relevante Hürde zu sein.
Eigentlich nicht.
Das Auswendiglernen ist KI mäßig primitiv.
Einfacher assoziativer Zugriff.
Interessante Intelligenz fängt IMHO erst da an,
wo man den Weg zum Ergebnis erst konstruieren muß.
Post by Burkart Venzke
Post by Hermann Riemann
Post by Burkart Venzke
Die Basis dazu wären frühere "Erlebnisse" der KI,
in der sie z.B. durch Nicht-Flucht "einen auf den Deckel bekommen hat",
also sie erfahren musste, falsch reagiert zu haben.
Also Evolutionsvariante
Verschiedene Mutationen, was überlebt (die "Feiglinge") gewinnt.
( Die Gemeinschaft verliert. )
Halt diese Variante im Gegensatz zu dem Typus einer einzelnen KI (mein
Ansatz).
Probleme bei der Evolution ist die Vielfalt der Ergebnisse,
wenn da keine weitere Regelsysteme vorhanden sind.
Und vielleicht deren Sozialverhalten.
Ohne Evolutionsanteil geht IMHO keine echte bessere ki.
Post by Burkart Venzke
Nach dem großen KI-Projekt der KI ohne Körper, also reine Software wie
bei Schachprogrogrammierung, ist die KI mit Körper halt der nächsten
Schritt, eben populär vertreten durch RoboCup.
Ich bin mir nicht sicher ob Robocup nicht zu speziell ist.
Bei Roboter denke ich eher an welche, die etwas bauen sollen,
mit ungenauen Anweisungen und unvorhergesehene Randbedingungen.
Post by Burkart Venzke
Post by Hermann Riemann
Hermann
der vermutet, das Mathematik, computerspiele und Robotik
gleichartige Systemkerne (unterste Schicht) haben,
dies aber bei einfacher Mathematik am einfachsten zu erforschen ist,
wobei der das Kernprogramm auch Regeln etc. selber finden sollte.
Hm, also das sind doch schon ein paar Unterschiede.
Robotik ist zwangsweise in der realen Welt (lassen wir Simulationen mal
weg), Mathematik ist nur Theorie. Und weil Mathematik auch nur Theorie
ist, beruht sie auf einem Kern, der nur von Menschen festgelegt ist,
Mathematik ist nicht von Menschen festgelegt.
Mache mal 2+2=5 für ganze Zahlen.
Inhaltlich liegt Mathematik fest,
im Gegensatz zur Beschreibung der Mathematik.
Für Robotik ist Mathematik, Physik und Technik erforderlich,
für die Steuerung auch noch Informatik.
Post by Burkart Venzke
während Roboter auch in/aus der Welt lernen könn(t)en, eben z.B. mit
Sensoren, die in der Mathematik gar keinen Sinn machen;
Die Auswertung von Sensoren kann mit Mathematik vereinfacht werden.
Post by Burkart Venzke
ein Begreifen der mathematischer Zusammenhänge
ist etwas anderes als elementare Umweltdaten aufzufassen,
Dahinter stecken in beiden Fällen das editieren
von Daten nach Regeln bzw. Regelsysteme.
Post by Burkart Venzke
die u.U. direkte Konsequenzen haben können.
-> Mathematik ist letztlich "nur" ein Hilfsmittel.
Besteht nicht echte Intelligenz aus vielen Hilfsmittel?
Post by Burkart Venzke
Ich würde sogar gegenteilig sagen,
dass das Verstehen von Mathematik schwieriger grundlegend ist,
Nach meiner Erfahrung ist das Verstehen wollen von Mathematik
ein grundlegender Fehler,
weil man da nach Muster statt nach Abläufen sucht.
Das herumspielen mit Mathematik bringt da mehr.
Schon die Formelauswahl kann ist ähnlich wie bei
einer Grafik, wo man rätselt, was könnte das sein.
Post by Burkart Venzke
als Elemente von Computerspielen oder Robotik,
da letztere quasi recht direktes Feedback liefern (können).
In Mathematik kann man sich Zwischenergebnisse anzeigen lassen.
Und über deren Wege Überlegungen anstellen.
Post by Burkart Venzke
Dagegen alleine das Lernen der Idee der Zahl und später der Variablen
oder gar Funktionen (von Funktionen) erfordert einen gutes Verständnis.
Das lernt man am ehesten, wenn man damit rumspielt.
Sowie ein Haus aus Bausteinen besteht,
so besteht Intelligenz aus den Verfahren,
wie sie auch in der Mathematik vorkommen.

Zugegeben, die Schönwettermathematik in der Lehre,
kann schon realitätsfern sein.
Post by Burkart Venzke
Anschaulich haben ja nicht wenige Menschen gerade mit der Mathematik
ihre Schwierigkeiten, spielen oder sich in der Welt zu bewegen ist für
Menschen leichter.
Mathematik ist von der Denkart her gesehen,
eigentlich auch nur eine Spielerei.
Statt mit Bauklötzchen spielt man mit Formeln und Abläufe.
Informatik auch.
Wenn man allerdings gleich große Ergebnisse haben will,
funktioniert das nicht, und es gibt Nebenwirkungen.

Hermann
der meint, dass man mit intelligente "computerspiele"
besser zusammenspielen kann, als mit Menschen,
sofern die zugehörigen Programme selbst gebastelt sind.
--
http://www.hermann-riemann.de
Wolfgang Lorenz
2017-08-26 02:02:21 UTC
Permalink
Post by Hermann Riemann
Ich bin mir nicht sicher ob Robocup nicht zu speziell ist.
Bei Roboter denke ich eher an welche, die etwas bauen sollen,
mit ungenauen Anweisungen und unvorhergesehene Randbedingungen.
Die Fähigkeiten beim Fußball sind meiner Meinung nach zu sehr eingeschränkt. Bei den Tieren ist die Nahrungsaufnahme sehr wichtig, und da braucht man teilweise Hände, z.B. um eine Banane zu schälen oder eine Frucht vom Baum zu pflücken. Der Nestbau bei Vögeln zählt auch dazu. Und dann beim Menschen natürlich explodiert das mit all den Werkzeugen, die er erfunden hat, um seine Umgebung überlebensfreundlich zu gestalten. Beim Robocup muss man ja nur einen Ball irgendwo hin kicken bzw. verhindern, dass die gegnerische Mannschaft das tut. Diese direkte Konfrontation gibt es beim Bauen normalerweise nicht, und sie ist auch nicht sinnvoll, weil sich Roboter nicht auf Teufel komm raus vermehren und so den Konkurrenzdruck erhöhen. Also einerseits schon die Natur kopieren, andererseits aber doch wieder was anderes machen.
Jens Kallup
2017-08-26 09:53:33 UTC
Permalink
Post by Wolfgang Lorenz
nicht, und sie ist auch nicht sinnvoll, weil sich Roboter nicht auf Teufel komm raus vermehren und so den Konkurrenzdruck erhöhen. Also einerseits schon die Natur kopieren, andererseits aber doch wieder was anderes machen.
letzend Ends ist es aber so, dass Alles von der Natur abgeschaut wurde.
Der Baum mit seinen Blühten, die von Bienen weiter getragen werden.
Oder der Baum/Pflanze, die in Richtung Sonne wachsen.
Zum Beispiel Apfelbäume, die roten Äpfel, die wie lieber essen als die
grünen.

Gruß
Jens
Wolfgang Lorenz
2017-08-27 02:23:53 UTC
Permalink
Post by Jens Kallup
letzend Ends ist es aber so, dass Alles von der Natur abgeschaut wurde.
Beim Menschen ist das so. Da bauen die Gene den Körper, und die Intelligenz ist ihnen untergeordnet.

Bei intelligenten Maschinen steht dagegen das Universum an oberster Stelle, das heißt die Milliarden Jahre langen Altlasten fallen weg. Die Intelligenz hat also bei Maschinen einen größeren Handlungsspielraum, ist damit freier. Der größte Unterschied ist die Möglichkeit zur 1:1 Kopie, und damit verliert auch der Tod des Körpers seinen Schrecken.
Post by Jens Kallup
Der Baum mit seinen Blühten, die von Bienen weiter getragen werden.
Das Weitertragen ist der Zwang zum Sex, und das ist eine Anforderung der Gene. Für Intelligenz ist das nicht nötig. Man kann es optional machen und sich zusammenschalten und parallel rechnen, um damit den Vorsprung der eigenen Gruppe zu erhöhen. Das setzt aber voraus, dass es eine Konkurrenzgruppe gibt, sonst ist das sinnlos. Warum Vollgas fahren, wenn es kein Ziel gibt?

BTW, heuer sind bei uns im Garten alle Blüten nach der Bestäubung abgefroren, es gibt also kein eigenes Obst, nur welches aus dem Supermarkt.
Hermann Riemann
2017-08-27 04:47:00 UTC
Permalink
Post by Jens Kallup
Post by Wolfgang Lorenz
nicht, und sie ist auch nicht sinnvoll, weil sich Roboter nicht auf
Teufel komm raus vermehren und so den Konkurrenzdruck erhöhen. Also
einerseits schon die Natur kopieren, andererseits aber doch wieder was
anderes machen.
letzend Ends ist es aber so, dass Alles von der Natur abgeschaut wurde.
Das Rad, der Raumanzug, Gruppentheorie in der Mathematik, Skat, ..
Die Umgebung liefert Vorlagen,
aber z.B. mittels Fraktal Technik und weitere Regelsysteme
kann man auch anderes erzeugen.

Hermann
der vermutet, dass
Loading Image...
in der Natur nicht vorkommt.
--
http://www.hermann-riemann.de
Wolfgang Lorenz
2017-08-28 01:19:09 UTC
Permalink
Post by Hermann Riemann
der vermutet, dass
http://www.hermann-riemann.de/pic/mein_esstisch.jpg
in der Natur nicht vorkommt.
So ein Chaos! Ich habe fast meine gesamten Elektronik-Bastelsachen von früher auf den Müll geschmissen, auch die Bücher. Basteln und auch Programmieren hat irgendwie keinen Sinn mehr, und nur so als Selbstzweck weil es früher mal Spaß gemacht hat, das funktioniert bei mir nicht. Momentan ziehe ich mir Captain Future von Youtube über jDownloader auf einem Raspi, das ist so ein instabiles Gefrickel, da käme ich mit manuellem Download über Firefox vermutlich einfacher und schneller ans Ziel.

In deiner Bastelecke, was ist denn da in dem weißen Ordner mit dem https://de.wikipedia.org/wiki/Mäander_(Ornamentik) Muster? Ich kenne das aus der ZDF Disco, da war so ein Muster an der Wand.
Hermann Riemann
2017-08-28 05:05:03 UTC
Permalink
Post by Wolfgang Lorenz
Post by Hermann Riemann
der vermutet, dass
http://www.hermann-riemann.de/pic/mein_esstisch.jpg
in der Natur nicht vorkommt.
Ich habe fast meine gesamten Elektronik-Bastelsachen von früher auf den Müll geschmissen,
In der Zeitschrift c't make 4/2017 Seite 103 kommen Bauteile
wie 1N4148, und BC546 74LS04 vor, die ich mir ca 1975 zugelegt habe,
und für Robotik Basteleien, wo nicht Vorlage imitiert wird,
interessant ist.
Post by Wolfgang Lorenz
auch die Bücher.
Manchmal behalte ich Bücher, weil da IMHO relevante Sachen drinstehen,
die bei Neuauflagen nicht mehr für aktuell gehalten werden.
Post by Wolfgang Lorenz
Basteln und auch Programmieren hat irgendwie keinen Sinn mehr,
Für mich schon.
Mein Bastelziel nützliche Roboter habe ich nicht aufgegeben.
Und wenn ich software, wie ich sie haben möchte,
nicht akzeptabel bekomme, programmiere ich halt selber.

Und da es u.a. nach meiner Einschätzung keine für mich
zugreifbare nützliche echte ki gibt,
versuche ich zeitweise so etwas selber zu basteln.
Post by Wolfgang Lorenz
und nur so als Selbstzweck weil es früher mal Spaß gemacht hat,
das funktioniert bei mir nicht.
Als Nebenzweck schon noch.
Wenn so etwas dann allerfings in Arbeit ausartet ..

Momentan ziehe ich mir Captain Future ..

Comics sind für IMHO ki interessant,
weil man mit deren Bilder vermutlich einfacher
Mustererkennung und Grundlagenforschung machen kann,
als mit Photos.
Post by Wolfgang Lorenz
In deiner Bastelecke, was ist denn da in dem weißen Ordner > mit dem https://de.wikipedia.org/wiki/Mäander_(Ornamentik) Muster?
Steht sichtbar drauf: IC.
Also Datenblätter von integrierten Schaltkreisen wie z.B. Z8001.

Hermann
der meint, echte KI müsse sich in teilweise chaotischer
Umgebung zurechtfinden,
ins besondere dann, wenn Vorgaben fehlen.
--
http://www.hermann-riemann.de
Hermann Riemann
2017-08-27 04:39:21 UTC
Permalink
Post by Wolfgang Lorenz
Post by Hermann Riemann
Ich bin mir nicht sicher ob Robocup nicht zu speziell ist.
Bei Roboter denke ich eher an welche, die etwas bauen sollen,
mit ungenauen Anweisungen und unvorhergesehene Randbedingungen.
Bei den Tieren ist die Nahrungsaufnahme sehr wichtig, und da braucht man teilweise Hände,
http://www.stern.de/panorama/wissen/natur/raben--verblueffend-intelligente-tiere-6553836.html
Post by Wolfgang Lorenz
weil sich Roboter nicht auf Teufel komm raus vermehren
"Beinchen hoch, der Kaiser braucht Soldaten".
Da Soldaten ( bzw. Kunden ) heutzutage mehr maschinell werden ..

Hermann
der meint nicht jede Eigenschaft starker ki wie z.B. Evolution
durch Masse sollte unüberlegt übernommen werden.
--
http://www.hermann-riemann.de
Jens Kallup
2017-08-06 14:51:36 UTC
Permalink
Post by Burkart Venzke
Hallo Newsgroup,
die Idee ist mir gerade ein- bzw. aufgefallen. Nicht die KI als solche
zu erreichen ist unbedingt das Problem, sondern der Anspruch an sie so
komplex zu sein wie wir Menschen selbst.
Was sind eure Gedanken zu diesen Punkten?
hast Du mal den Quellcode der Community Testumgebung angeschaut?
Dort gibt es einen Punkt, bei dem ich angefangen habe, menschliche
Sprache in Form von Texten zu verstehen.

Sprich, da muss noch eine Logik rein, die dann auf Grammatik prüft
und mit Dir sprechen kann.

Und Du hast recht!

Für das verstehen von Sprache, ist vorerst kein Speech-Recognition
System notwendig im dem Sinne. Vielmehr kann man sich auf Texte
beschränken, die dann auf Richtigkeit und Satzzusammenbau stimmen.

Erst dann kann man ja sich daran machen, inwiefern der Computer
verstehen kann ...

Zum Beispiel:
Gehe in den Garten am Zaun entlang.

Gruß
Jens

BTW: Die Community IDE ist nun so erweitert worden von mir, das
man Lisp artige Klammerconstructe im Editor eingeben kann,
und ausführen kann.
Dabei wird geprüft, ob Klammern fehlen.
Das ganze ist rekursiv, also läuft von innen nach außen.
So könnte man also dieses nested Klammerdings dazu nutzen,
um modular Aufbauend in Art von Zwiebelringen neue Eigenschaften
hinzu zufügen.
Desweiteren besitzt die IDE anfänge eines Formular-Designers.

Wie immer auf Kommentare erfreut.
Burkart Venzke
2017-08-07 18:46:24 UTC
Permalink
Post by Jens Kallup
Post by Burkart Venzke
Hallo Newsgroup,
die Idee ist mir gerade ein- bzw. aufgefallen. Nicht die KI als solche
zu erreichen ist unbedingt das Problem, sondern der Anspruch an sie so
komplex zu sein wie wir Menschen selbst.
Was sind eure Gedanken zu diesen Punkten?
hast Du mal den Quellcode der Community Testumgebung angeschaut?
Nein, ich würde mir hier lieber gerne Gedanken machen und diese austauschen.
Post by Jens Kallup
Dort gibt es einen Punkt, bei dem ich angefangen habe, menschliche
Sprache in Form von Texten zu verstehen.
Sprich, da muss noch eine Logik rein, die dann auf Grammatik prüft
und mit Dir sprechen kann.
Nicht gerade trivial ;)
Post by Jens Kallup
Und Du hast recht!
Für das verstehen von Sprache, ist vorerst kein Speech-Recognition
System notwendig im dem Sinne. Vielmehr kann man sich auf Texte
beschränken, die dann auf Richtigkeit und Satzzusammenbau stimmen.
Erst dann kann man ja sich daran machen, inwiefern der Computer
verstehen kann ...
Gehe in den Garten am Zaun entlang.
Genau.

Gruß, Burkart
Hermann Riemann
2017-08-06 18:24:19 UTC
Permalink
Post by Burkart Venzke
Hallo Newsgroup,
die Idee ist mir gerade ein- bzw. aufgefallen. Nicht die KI als solche
zu erreichen ist unbedingt das Problem, sondern der Anspruch an sie so
komplex zu sein wie wir Menschen selbst.
Wenn ich mir die Ergebnisse der Evolution anschaue,
sind die sehr komplex.
Die Intelligenz des Evolutionsverfahrens ist zwar vorhanden,
aber sie ist in einiger Hinsicht nicht effektiv.
Post by Burkart Venzke
Man könnte auch sagen: Wir unterschätzen nicht primär das Problem der
KI, sondern die Komplexität des Menschen, so dass starke KI, an seinem
Spiegelbild gemessen, große Probleme bereiten muss.
Was ist mit große Probleme gemeint?
Eine 100x100 Matrix invertieren?
( ich schaffe das nicht mit Bleistift und Papier. )
Post by Burkart Venzke
Mein Ausweg wäre deshalb, dass man erst einmal etwas wie "einfachere
starke KI" als Ziel hat, also dass man sich nicht gleich an allen
menschlichen Aspekte versucht,
Menschen sind untereinander sehr verschieden.
Und sie verwenden "eigene" Intelligenz nach meiner Vermutung nur
beim Überlegen. ( genetische Intelligenz bei Instinktlösungen ..)
Post by Burkart Venzke
sondern an wenigen oder gar nur einem,
der aber natürlich in die richtige Richtung geht.
Mit der richtigen Richtung ist das so eine Sache.
Meiner Vermutung nach braucht man sowohl Symbolverarbeitung als auch NN,
was zusammenarbeitet. Und ein Regelsystem.
Post by Burkart Venzke
Mein Aspekt wäre das "Verstehen", dass ich der KI beibringen möchte.
Suche nach Übereinstimmung zwischen Beobachtung und Modellvorstellung?
( Beobachtung NN, Modell aus Anwendung von Formeln (Symbolverarbeitung)
wobei letztere auch teilweise NN verwenden kann,
etwa bei unsicherem Wissen.)
Post by Burkart Venzke
Was sind eure Gedanken zu diesen Punkten?
Hermann
der meint, komplizierte große Anwendungen
bringt viel Aufwand aber wenig Erkenntnis.
--
http://www.hermann-riemann.de
Burkart Venzke
2017-08-07 18:57:18 UTC
Permalink
Post by Hermann Riemann
Post by Burkart Venzke
Hallo Newsgroup,
die Idee ist mir gerade ein- bzw. aufgefallen. Nicht die KI als solche
zu erreichen ist unbedingt das Problem, sondern der Anspruch an sie so
komplex zu sein wie wir Menschen selbst.
Wenn ich mir die Ergebnisse der Evolution anschaue,
sind die sehr komplex.
Yep.
Post by Hermann Riemann
Die Intelligenz des Evolutionsverfahrens ist zwar vorhanden,
aber sie ist in einiger Hinsicht nicht effektiv.
Tja, was immer "effektiv" heißt.
Wir Menschen z.B. mögen ja technisch schnell fortschreiten, aber was
Egoismus betrifft (z.B. gegenüber Umweltschutz oder von allem Menschen),
na ja... (Trump, Erdogan etc.)
Post by Hermann Riemann
Post by Burkart Venzke
Man könnte auch sagen: Wir unterschätzen nicht primär das Problem der
KI, sondern die Komplexität des Menschen, so dass starke KI, an seinem
Spiegelbild gemessen, große Probleme bereiten muss.
Was ist mit große Probleme gemeint?
Eine 100x100 Matrix invertieren?
( ich schaffe das nicht mit Bleistift und Papier. )
Die starke KI hat doch den Menschen als Zielpunkt. Der Mensch ist aber
sehr komplex, so dass sein KI-Nachbau auch sehr komplex sein muss, das
ist das große Problem.
Post by Hermann Riemann
Post by Burkart Venzke
Mein Ausweg wäre deshalb, dass man erst einmal etwas wie "einfachere
starke KI" als Ziel hat, also dass man sich nicht gleich an allen
menschlichen Aspekte versucht,
Menschen sind untereinander sehr verschieden.
Und sie verwenden "eigene" Intelligenz nach meiner Vermutung nur
beim Überlegen. ( genetische Intelligenz bei Instinktlösungen ..)
Den Zusammenhang verstehe ich nicht.
Post by Hermann Riemann
Post by Burkart Venzke
sondern an wenigen oder gar nur einem, der aber natürlich in die
richtige Richtung geht.
Mit der richtigen Richtung ist das so eine Sache.
Meiner Vermutung nach braucht man sowohl Symbolverarbeitung als auch NN,
was zusammenarbeitet. Und ein Regelsystem.
Sicher. Wenn man aber bei einem Teil schon mal vorankommt, ist man dem
letztlichen Ziel ja auch näher gekommen.
Post by Hermann Riemann
Post by Burkart Venzke
Mein Aspekt wäre das "Verstehen", dass ich der KI beibringen möchte.
Suche nach Übereinstimmung zwischen Beobachtung und Modellvorstellung?
( Beobachtung NN, Modell aus Anwendung von Formeln (Symbolverarbeitung)
wobei letztere auch teilweise NN verwenden kann,
etwa bei unsicherem Wissen.)
So ungefähr.
Post by Hermann Riemann
Post by Burkart Venzke
Was sind eure Gedanken zu diesen Punkten?
Hermann
der meint, komplizierte große Anwendungen
bringt viel Aufwand aber wenig Erkenntnis.
Eine kleine, "geniale" Anwendung kann Erkenntnis bringen; sie muss nur
das richtige zeigen.

Gruß, Burkart
Jens Kallup
2017-08-07 19:52:10 UTC
Permalink
Post by Hermann Riemann
Wenn ich mir die Ergebnisse der Evolution anschaue,
sind die sehr komplex.
Yep.
das mag richtig sein.
Irgendwie habe ich das Gefühl, das wir Menschen als solches
viel zu Hoch Denken, Handeln, Fühlen, ...

Das merkt man am krassesten in der Progammierwelt von C++ ,
Oder anderen Hochsprachen,
Dort wird bis aufs letzte Detail genau hingearbeitet, daß
der Datentyp stimmt - stimmt er nicht, wird ein einfacher
Fehler erzeut, der das ganze System zum Abbruch bringt.

Es gab und gibt noch neue und ältere Sprachen, die bei einen
Fehler nicht gleich das System in die Knie gehen lassen.
Schaut Euch mal Python an, mit dieser neueren Sprache ist es
möglich, schwammigen Code zu schreiben, der auch kommischer
weise auch noch funktioniert.
Wie, das ist erstmal eine andere Sache, aber es ist möglich.

Und genau aus diesem Grund plane ich eine Sprache, die Lisp
ähnlich ist, dabei aber auch so schwach ist, um einfache
Dinge zu prüfen.

Wie war das mit der Evolution?
War da am Anfang nicht der Einzeller oder das Pantoffel-
tierchen?

Jens
Hermann Riemann
2017-08-08 02:30:41 UTC
Permalink
Post by Jens Kallup
Irgendwie habe ich das Gefühl, das wir Menschen als solches
viel zu Hoch Denken, Handeln, Fühlen, ...
Menschliches Denken ist an die Lebensbedingungen der
Gegenwart und Vergangenheit gebunden.
Da z.B. Plastik nicht so schnell verrottet
wie die biologischen Abfälle der Steinzeit,
wird das standardmäßig ignoriert.

Und Grundlagen, an die man sich gewöhnt hat,
sind nicht so von Interesse.
Post by Jens Kallup
Das merkt man am krassesten in der Progammierwelt von C++ ,
Oder anderen Hochsprachen,
Dort wird bis aufs letzte Detail genau hingearbeitet, daß
der Datentyp stimmt - stimmt er nicht, wird ein einfacher
Fehler erzeugt, der das ganze System zum Abbruch bringt.
Oder Konvertiert. z.B. zwischen char und int
was Python so nicht direkt mag.
Post by Jens Kallup
Es gab und gibt noch neue und ältere Sprachen, die bei einen
Fehler nicht gleich das System in die Knie gehen lassen.
Schaut Euch mal Python an, mit dieser neueren Sprache ist es
möglich, schwammigen Code zu schreiben, der auch komischer
weise auch noch funktioniert.
Wie, das ist erstmal eine andere Sache, aber es ist möglich.
Beim Datentyp ist es einfach.
Zu jeder Variable gehört intern ein struct
welcher Wert, Adresse und Datentyp enthält.
Damit kann dann bei Bedarf konvertiert werden.
Kostet bei Ausführung Rechenzeit und wird beim kompilieren wegoptimiert.
Post by Jens Kallup
Und genau aus diesem Grund plane ich eine Sprache, > die Lisp ähnlich ist, dabei aber auch so schwach ist,
um einfache Dinge zu prüfen.
Ich habe auch schon überlegt interpreter zu bauen.
( Ganz Primitives baue ich beim Lesen und Schreiben meiner Daten.)
Aus Lisp ist das eval und quote meine Vorgabe.
So ein ( quote if) um Programme zusammenzubasteln,
die mit eval dann ausgeführt werden ..
Mit Python scheint das nicht direkt zu gehen,
weil dort eval nur auf eine Zeile geht.

Indirekt müsste man Programme schreiben (bzw. generieren),
die beim Ausführen mit anderen Programmen die Daten austauschen
und so ersetzt bzw.. ergänzt werden können.
Was auch mit C etc. geht.

Also Syntaxbaum basteln und daraus wieder Programme generieren.
Post by Jens Kallup
Wie war das mit der Evolution?
War da am Anfang nicht der Einzeller
oder das Pantoffeltierchen?
Nein, bei Biologie waren nach meiner Vermutung
am Anfang "Experimente" mit RNA
mit denen dann Proteine gebastelt wurden.

Wenn ich so etwas mit Programmschnipsel wiederholen
würde wäre ein rm -r * bzw. FORMAT C: vergleichbar
wahrscheinlich wie print("Hello world")
( menschliche Intelligenz: cd Erde;rm -r Lebewesen,
bzw FORMAT Erde)

Hermann
der bei seinen 2+3 Problem bisher die logischen Typen
Variable, Konstante, Operator und Expression verwendet
--
http://www.hermann-riemann.de
Burkart Venzke
2017-08-09 03:47:00 UTC
Permalink
Post by Jens Kallup
Post by Hermann Riemann
Wenn ich mir die Ergebnisse der Evolution anschaue,
sind die sehr komplex.
Yep.
das mag richtig sein.
Irgendwie habe ich das Gefühl, das wir Menschen als solches
viel zu Hoch Denken, Handeln, Fühlen, ...
Du meinst "zu hoch... müssen", richtig? Dass sie mal "dürfen" oder
"können", ist sinnvoll, oder?
Post by Jens Kallup
Das merkt man am krassesten in der Progammierwelt von C++ ,
Oder anderen Hochsprachen,
Dort wird bis aufs letzte Detail genau hingearbeitet, daß
der Datentyp stimmt - stimmt er nicht, wird ein einfacher
Fehler erzeut, der das ganze System zum Abbruch bringt.
Der Sinn ist einfach, höhere Fehler gleich abzufangen, da diese i.a.
schwerer zu finden sind. Welcher Programmierer hat nicht schon mal mit
einer Variablen gekämpft, die ausversehen "null" war... wenn man dies
technisch gleich abfängt, hat man dieses Problem zumindest nicht.
Post by Jens Kallup
Es gab und gibt noch neue und ältere Sprachen, die bei einen
Fehler nicht gleich das System in die Knie gehen lassen.
Was meinst du mit "in die Knie gehen lassen"? Wenn man nur auf einem
kleinen Basic-Interpreter ohne Befehle auf das Betriebssystem
programmiert, kann das völlig sicher sein; man kann dann eben auch ggf.
nicht alles machen, eben Einfluss auf das Betriebssystem nehmen ;)
Post by Jens Kallup
Schaut Euch mal Python an, mit dieser neueren Sprache ist es
möglich, schwammigen Code zu schreiben, der auch kommischer
weise auch noch funktioniert.
Wie, das ist erstmal eine andere Sache, aber es ist möglich.
Und genau aus diesem Grund plane ich eine Sprache, die Lisp
ähnlich ist, dabei aber auch so schwach ist, um einfache
Dinge zu prüfen.
Dann überleg dir, was die Sprache genau können soll und was nicht;
andere Sprachen als Vorlagen hast du ja.
Post by Jens Kallup
Wie war das mit der Evolution?
War da am Anfang nicht der Einzeller oder das Pantoffel-
tierchen?
Ja... und was willst du damit sagen?
Willst du vielleicht Assembler oder gar Maschinencode implementieren als
Anfang?

Gruß, Burkart
Jens Kallup
2017-08-10 10:53:56 UTC
Permalink
Post by Burkart Venzke
Post by Jens Kallup
Post by Hermann Riemann
Wenn ich mir die Ergebnisse der Evolution anschaue,
sind die sehr komplex.
Yep.
das mag richtig sein.
Irgendwie habe ich das Gefühl, das wir Menschen als solches
viel zu Hoch Denken, Handeln, Fühlen, ...
Du meinst "zu hoch... müssen", richtig? Dass sie mal "dürfen" oder
"können", ist sinnvoll, oder?
ich meine vielmehr, tja, wie soll ichs beschreiben? - hoch halt wie
hohe Mathematik oder Sprache.
Einen Kleinkind bringt man doch auch erstmal bei, wie (sinnvoll) es
mit seinen 8 Fingern + 2 Daumen rechnen kann und immer mehr aufbauend
Rechenübungen im Kopf anfängt, weil das Kleinkind sich die Finger im
Kopf vorstellen kann.

Also entwickelt ein Baby+ erstmal eine durch Tutorials Vorstellung.
Zum Beispiel Klötzchen bau: Kreis, Quader, Dreieck...
Hat es diese Figuren erstmal gelernt, in welcher Vorlage sie passen,
wird es automatisch oder vom Unterbewusstsein handeln und nicht mehr
nachdenken?

Der Prozess Lernen fängt ja eigentlich schon im Mutterleib statt,
abhängig der Domain und DNS - schneller oder weniger schneller.
Da merkt man eigentlich schon, das der Mensch als solches schon
sehr früh zu hoch ist, um ein komplexes Gebilde ist, anstatt mehrere
kleine Einheiten zu modellieren.

Aber nicht nur von obigen Voraussetzungen ist die Entwicklung
abhängig, sondern auch durch die äüßere Umletbedingungen.
Sie Tschernobil, was dort an Cancer Fälle es gegeben/gibt hat...
Post by Burkart Venzke
Der Sinn ist einfach, höhere Fehler gleich abzufangen, da diese i.a.
schwerer zu finden sind. Welcher Programmierer hat nicht schon mal mit
einer Variablen gekämpft, die ausversehen "null" war... wenn man dies
technisch gleich abfängt, hat man dieses Problem zumindest nicht.
das ist richtig!
Aber wie ist das mit den Kind, das in einen Raum voller Süßigkeiten
sitzt, und von außerhalb beobachtet wird, ob es den Zettel auf dem
Tisch ließt: "Nimm Bitte keine Süßigkeiten".
Und trotzdem die Versuchung so groß ist, nicht mal hinzulangen.

Ein weiteres Experiment wäre, Süßigkeiten und Spielzeug...
wo wird das Kind dauerhaft sitzen bleiben?
Post by Burkart Venzke
Post by Jens Kallup
Es gab und gibt noch neue und ältere Sprachen, die bei einen
Fehler nicht gleich das System in die Knie gehen lassen.
Was meinst du mit "in die Knie gehen lassen"? Wenn man nur auf einem
kleinen Basic-Interpreter ohne Befehle auf das Betriebssystem
programmiert, kann das völlig sicher sein; man kann dann eben auch ggf.
nicht alles machen, eben Einfluss auf das Betriebssystem nehmen ;)
tja, was ging mir da durch den Kopf?
hmm, mit System habe ich vielleicht daran gedacht, das KI System
an für sich.
Nehmen wir mal an, die KI Sensoren melden: "Einheit schwitzt,
Bitte nicht ins kühle Wasse springen."

Zum einen haben wir dann den Zustand "schwitzt" - Einheit ist evtl.
überlastet - kaltes Wasser ist vorhanden, um den Zustand nach unten
zu verlagern - aber der Befehl/Bitte nicht ins Wasser zu springen,
da die Einheit zu schnell abkühlt und die Sensoren so weit und
schnell sich nach unten bewegen, das mechanische Teile heraus springen
oder wie bei Menschen, die Kontraktion der Muskel das Herz abdrücken...
Post by Burkart Venzke
Post by Jens Kallup
Wie war das mit der Evolution?
War da am Anfang nicht der Einzeller oder das Pantoffel-
tierchen?
Ja... und was willst du damit sagen?
Willst du vielleicht Assembler oder gar Maschinencode implementieren als
Anfang?
das die Evolution durch Einzeller erstmal vorangetrieben wurde.
Oder sehe ich das jetzt falsch?
Ich denke mal mit Assembler wird Heute kaum noch einer in Berührung
kommen - evlt. Treiber entwickler, aner für Desktop eher weniger.
Post by Burkart Venzke
Gruß, Burkart
Jens
Wolfgang Lorenz
2017-08-07 02:38:19 UTC
Permalink
Post by Burkart Venzke
Mein Ausweg wäre deshalb, dass man erst einmal etwas wie "einfachere
starke KI" als Ziel hat, also dass man sich nicht gleich an allen
menschlichen Aspekte versucht, sondern an wenigen oder gar nur einem
„Verstehen” kann man zum Beispiel messen, indem man dem Agenten in Worte gefasste Aufgaben gibt und nachsieht, ob er sie erledigen kann. Wenn das vereinfacht werden soll, dann bedeutet das in einer simulierte 2D Welt. Aber was kann man da machen? Der Agent kann irgendwo hin gehen. Er kann Gegenstände aufnehmen, mit sich herumtragen, und wieder ablegen. Das war's auch schon. Und das willst du dem Publikum vorführen als Beweis, dass dein Agent verstehen kann? Da gähnt das Publikum und sagt: Langweilig!

Und selbst so einfache Sachen wie: „Heute gibt es Pfannkuchen. Hol mir bitte ein Glas mit Äpfeln aus dem Vorratsraum im Keller!” gehen in 2D nur eingeschränkt. In der echten Welt muss man Schritte machen, in 2D rollt der Agent einfach nur herum (kontinuierliche Koordinaten angenommen, Gridworlds sind ja noch langweiliger). Die Wohnungstür ist normalerweise geschlossen, der Agent muss sie hinter sich zumachen. Aber in 2D gibt es keine einschnappenden Türen mit Klinken. Die Treppe hat Stufen, und setzt er einen Schritt dazwischen, fällt er hin. Aber in 2D gibt es keine Treppen, nur Simulationen mit Teleportern in angrenzende Levels. Genausowenig wie es in 2D echte Stockwerke mit Höhenunterschieden gibt.

Und wenn etwa das Wohnzimmer tapeziert werden soll? „Räum die Schränke aus und stell die Sachen irgendwo hin, wo sie nicht stören!“ Das versteht kein künstlicher Agent der Welt. Das Sofa kann man nur zu zweit transportieren, und der schwere Eichenschrank muss vorher zerlegt werden. Beides geht in 2D nicht.

Also statt eingeschränkter Symbolwelt besser gleich eine ordentliche 3D Physiksimulation. MuJoCo wäre zwar ganz gut, kostet aber Geld. Für OpenAI Universe gibt es eine offizielle Alternative mit Bullet, und ein Benutzerprojekt mit Dart. Aber diese Physiksimulationen haben Probleme mit nachgiebigen Kontakten, wie sie bei Händen auftreten.
Post by Burkart Venzke
der aber natürlich in die richtige Richtung geht.
Die richtige Richtung für „natürlich“ ist aber eine Holzkiste zwei Meter unter der Erdoberfläche. Klar, das ist ein Ausweg, da hast du recht.

Zeitreisen wären eine andere Möglichkeit, die gehen aber nur in die Zukunft. Sich einfrieren lassen und nach 300 Jahren wieder auftauen, da sollte das mit der KI gelöst sein. Aber man muss beim Auftauen darauf achten, dass die spitzen Eiskristalle nicht die Zellwände kaputt machen, und es ist auch nicht klar, wie das mit der Strahlung ist, ob die Zellen trotz Gefrierzustand altern, weil sie mit Radioaktivität bombadiert werden. Und teuer ist das auch. Da hat man erst neulich einen Haufen Leute aufgetaut, weil das Geld ausgegangen ist, nur der Begründer blieb eingefroren.
Burkart Venzke
2017-08-07 19:25:44 UTC
Permalink
Post by Wolfgang Lorenz
Post by Burkart Venzke
Mein Ausweg wäre deshalb, dass man erst einmal etwas wie "einfachere
starke KI" als Ziel hat, also dass man sich nicht gleich an allen
menschlichen Aspekte versucht, sondern an wenigen oder gar nur einem
„Verstehen” kann man zum Beispiel messen, indem man dem Agenten in Worte gefasste Aufgaben gibt und nachsieht, ob er sie erledigen kann. Wenn das vereinfacht werden soll, dann bedeutet das in einer simulierte 2D Welt. Aber was kann man da machen? Der Agent kann irgendwo hin gehen. Er kann Gegenstände aufnehmen, mit sich herumtragen, und wieder ablegen. Das war's auch schon. Und das willst du dem Publikum vorführen als Beweis, dass dein Agent verstehen kann? Da gähnt das Publikum und sagt: Langweilig!
Und selbst so einfache Sachen wie: „Heute gibt es Pfannkuchen. Hol mir bitte ein Glas mit Äpfeln aus dem Vorratsraum im Keller!” gehen in 2D nur eingeschränkt. In der echten Welt muss man Schritte machen, in 2D rollt der Agent einfach nur herum (kontinuierliche Koordinaten angenommen, Gridworlds sind ja noch langweiliger). Die Wohnungstür ist normalerweise geschlossen, der Agent muss sie hinter sich zumachen. Aber in 2D gibt es keine einschnappenden Türen mit Klinken. Die Treppe hat Stufen, und setzt er einen Schritt dazwischen, fällt er hin. Aber in 2D gibt es keine Treppen, nur Simulationen mit Teleportern in angrenzende Levels. Genausowenig wie es in 2D echte Stockwerke mit Höhenunterschieden gibt.
Und wenn etwa das Wohnzimmer tapeziert werden soll? „Räum die Schränke aus und stell die Sachen irgendwo hin, wo sie nicht stören!“ Das versteht kein künstlicher Agent der Welt. Das Sofa kann man nur zu zweit transportieren, und der schwere Eichenschrank muss vorher zerlegt werden. Beides geht in 2D nicht.
Also statt eingeschränkter Symbolwelt besser gleich eine ordentliche 3D Physiksimulation. MuJoCo wäre zwar ganz gut, kostet aber Geld. Für OpenAI Universe gibt es eine offizielle Alternative mit Bullet, und ein Benutzerprojekt mit Dart. Aber diese Physiksimulationen haben Probleme mit nachgiebigen Kontakten, wie sie bei Händen auftreten.
Sicher, als 3D wäre es netter, aber es ist eben auch komplexer. Mir geht
es nicht um Applaus, sondern um Erkenntnis. Dazu reicht mir die 2D-Welt
noch völlig.

Schon eine KI lernen zu lassen, wie sie ein Labyrinth erfolgreich
durchquert, kann schon interessant sein, wenn man ihr kaum etwas
zugrunde legt.

Spätestens, wenn sie komplexer planen muss, z.B. wie beim alten Spiel
Sokoban (https://de.wikipedia.org/wiki/Sokoban), kann schon einige
Intelligenz zur Lösung benötigt werden.

Auch kann man einfachee Domänen durch nicht triviale Features erweitern,
z.B. in dem die KI "nebenbei" erklären können soll, warum sie etwas
gerade tut oder plant.
Post by Wolfgang Lorenz
Post by Burkart Venzke
der aber natürlich in die richtige Richtung geht.
Die richtige Richtung für „natürlich“ ist aber eine Holzkiste zwei Meter unter der Erdoberfläche. Klar, das ist ein Ausweg, da hast du recht.
Zeitreisen wären eine andere Möglichkeit, die gehen aber nur in die Zukunft. Sich einfrieren lassen und nach 300 Jahren wieder auftauen, da sollte das mit der KI gelöst sein. Aber man muss beim Auftauen darauf achten, dass die spitzen Eiskristalle nicht die Zellwände kaputt machen, und es ist auch nicht klar, wie das mit der Strahlung ist, ob die Zellen trotz Gefrierzustand altern, weil sie mit Radioaktivität bombadiert werden. Und teuer ist das auch. Da hat man erst neulich einen Haufen Leute aufgetaut, weil das Geld ausgegangen ist, nur der Begründer blieb eingefroren.
Tja, da ich fürchte, dass uns diese Alternative verwehrt bleibt, gehen
wir halt einen anderen Weg.

Gruß, Burkart
Wolfgang Lorenz
2017-08-08 03:00:56 UTC
Permalink
Post by Burkart Venzke
Spätestens, wenn sie komplexer planen muss, z.B. wie beim alten Spiel
Sokoban (https://de.wikipedia.org/wiki/Sokoban), kann schon einige
Intelligenz zur Lösung benötigt werden.
Also das Deepmind Paper über Imagination bei https://techxplore.com/pdf420302284.pdf

Na, sage ich doch die ganze Zeit: Verstehen heißt Modellieren und Simulieren!

Das Problem ist also nicht das Verständnis, sondern die Frage, wo bekommt man einen Simulator her, der aus Beobachtungen ein Modell seiner Umwelt erlernen kann und dieses dann einsetzt, um eine für sich optimierte Version der Zukunft zu planen, um diesen Plan dann real auszuführen? Wie bekommt man das mit heutigen Computern gebacken, die vorwiegend mit Symbolen arbeiten, so wie das Bewusstsein, und nicht mit Wahrscheinlichkeiten, wie das Unterbewusstsein?

Und damit ist „Verstehen“ ein technisches Problem und kein philosophisches mehr.
Wolfgang Lorenz
2017-08-08 05:13:14 UTC
Permalink
Da ist noch ein besserer Link mit Video, wo man sieht, wie er sich die einzelnen Zukünfte vorstellt und dann eine davon auswählt: https://thenextweb.com/artificial-intelligence/2017/07/24/googles-deepmind-made-ai-can-imagine-future/

Das mit „Wahrscheinlichkeiten“ war vielleicht ein bisschen blöd ausgedrückt von mir. Gemeint ist nicht nur, dass man die Wahrscheinlichkeit berechnet, dass Ereignis A in 1 bis 2 Sekunden eintreten wird, das wäre herkömmliche Mathematik. Sondern die Wahrscheinlichkeit, dass es überhaupt ein Ereignis A gibt, das wichtig ist, so dass man ein Symbol oder eine Speicherzelle dafür reservieren muss. Das erledigt normalerweise der Mathematiker, der sagt, da gibt es ein Ereignis A. Die intelligente Maschine muss also den Vorgang im Kopf des Mathematikers nachbilden, wie der zu seinem A gekommen ist, und dieser beginnt eben in dessen Unterbewusstsein.
Burkart Venzke
2017-08-09 03:54:41 UTC
Permalink
Post by Wolfgang Lorenz
Post by Burkart Venzke
Spätestens, wenn sie komplexer planen muss, z.B. wie beim alten Spiel
Sokoban (https://de.wikipedia.org/wiki/Sokoban), kann schon einige
Intelligenz zur Lösung benötigt werden.
Also das Deepmind Paper über Imagination bei https://techxplore.com/pdf420302284.pdf
Jetzt wäre noch z.B. interessant, wie gut dort Sokoban gespielt wurde,
was das System konnte und wo seine Grenzen waren.
Post by Wolfgang Lorenz
Na, sage ich doch die ganze Zeit: Verstehen heißt Modellieren und Simulieren!
Unter anderem. Man kann z.B. auch noch "in Teile zerlegen", "nach
Gemeinsamkeiten schauend" oder "Ziele" oder "Pläne" als Stichworte nennen.
Post by Wolfgang Lorenz
Das Problem ist also nicht das Verständnis, sondern die Frage, wo bekommt man einen Simulator her, der aus Beobachtungen ein Modell seiner Umwelt erlernen kann und dieses dann einsetzt, um eine für sich optimierte Version der Zukunft zu planen, um diesen Plan dann real auszuführen? Wie bekommt man das mit heutigen Computern gebacken, die vorwiegend mit Symbolen arbeiten, so wie das Bewusstsein, und nicht mit Wahrscheinlichkeiten, wie das Unterbewusstsein?
Und damit ist „Verstehen“ ein technisches Problem und kein philosophisches mehr.
Verlagerst du vielleicht einfach das Problem es Verstehen auf das des
Simulators? Wie kann z.B. ieine KI verstehen, was Liebe ist? Willst du
dafür ganze Menschen simulieren?

Gruß, Burkart
Wolfgang Lorenz
2017-08-10 08:04:03 UTC
Permalink
Post by Burkart Venzke
Jetzt wäre noch z.B. interessant, wie gut dort Sokoban gespielt wurde,
was das System konnte und wo seine Grenzen waren.
Ich hab meine Information zur Spielweise nur aus dem Beispielbild und die Details zur Funktionsweise nicht durchgelesen. Der kann 4 Züge in die Zukunft schauen, und eine Bewegung zählt als ein Zug. Ökonomischer wäre, nur Push-Anfänge und -Enden der Kisten zu betrachten. Er ist also nicht besonders intelligent und verbaut er sich öfter mal die Lösung. In dem Beispielbild bei https://deepmind.com/blog/agents-imagine-and-plan/ wählt er die zweite Möglichkeit aus, die mit einem weißen Rand markiert ist, aber die linke Spalte ist tabu. Dieses Spiel wird er also verlieren. Er kann nicht weit genug sehen.
Post by Burkart Venzke
Verlagerst du vielleicht einfach das Problem es Verstehen auf das des
Simulators? Wie kann z.B. ieine KI verstehen, was Liebe ist? Willst du
dafür ganze Menschen simulieren?
So ein Simulator enthält natürlich auch andere Agenten, die KI ist ja nicht alleine auf der Welt, so wie bei Sokoban. Und dann simulieren die sich gegenseitig und arbeiten teilweise zusammen, teilweise gegeneinander, und können auch Pläne mittels Sprache austauschen oder ihren Gegnern Lügen in den Kopf kopieren. Dann ist „Liebe“ einfach das, wenn zwei Agenten sich gut kennen, ihre Modelle voneinander also wenig Unsicherheit aufweisen, und die gemeinsame Ziele verfolgen. Agenten die sich hassen kennen einander auch gut, nur arbeiten die halt gegeneinander.

Ganze Menschen zu simulieren wäre zwar schön, geht zur Zeit aber noch nicht.
Wolfgang Lorenz
2017-08-11 01:52:54 UTC
Permalink
Post by Burkart Venzke
Wie kann z.B. ieine KI verstehen, was Liebe ist? Willst du
dafür ganze Menschen simulieren?
Hoppla, ich habe Freundschaft beschrieben, aber Liebe ist beim Menschen ja hardcodiert. Das ist zum einen sehr schwer zu re-engineeren, wie die Gene das über Jahrmillionen in Hardware gegossen haben, und ausserdem für Maschinen ziemlich nutzlos, da sie nicht auf Familien angewiesen sind.

Das kann man der KI mit Worten erklären, aber nachempfinden kann sie es nicht. Wer Liebe verstehen will, muss eben selber schon verliebt gewesen sein. Und die Liebe von hilflosen Kindern zu ihren Eltern, ob die ebenfalls hardcodiert ist? Sobald die Gene das Pubertätsprogramm starten, verkehrt sich das ins Gegenteil. Ist auch sinnvoll, Inzest macht Krüppel.

Also Liebe werden die KIs vermutlich nicht wirklich verstehen. Sie können halt die Menschen beobachten und nachschauen, wie sich deren Verhalten ändert, wenn sie verliebt sind.
Manuel Rodriguez
2017-08-10 08:20:55 UTC
Permalink
Post by Burkart Venzke
Mein Ausweg wäre deshalb, dass man erst einmal etwas wie "einfachere
starke KI" als Ziel hat, also dass man sich nicht gleich an allen
menschlichen Aspekte versucht, sondern an wenigen oder gar nur einem,
der aber natürlich in die richtige Richtung geht.
Die Basis um Künstliche Intelligenz zu erforschen sind
Turing-Machinen. Also jenen fiktiven und echten Computer
welche seit den 1930'er Jahren gebaut werden und auf denen man
Software laufen lassen kann. Geneuer gesagt, ist ein Computer
eine Maschine die Busybeaver ähnliche Programme abarbeiten kann. Auf
https://de.wikipedia.org/wiki/Flei%C3%9Figer_Biber#Flei.C3.9Figer_Biber_mit_3_Zust.C3.A4nden
gibt es solche Beispielprogramme. Die dort abgedruckte Tabelle ist der
komplette Computer: also Microcode und Software in einem. Weitere Bauteile
gibt es nicht. Will man verstehen was Computer sind, muss man sich diese
Tabelle zur Gemüte führen.

Und jetzt den Schwenk zur Künstlichen Intelligenz. Will man KI realisieren
(egal welche Form) kann man nur auf jenes Turing-mächtige Rechenmodell
zurückgreifen, was sich in einer simplen Tabelle und einigen wenigen
Zuständen definieren lässt. Ein anderes Computermodell gibt es
derzeit nicht. Jede KI, egal ob funktionsfähig oder nicht, muss in
dieses Rechemodell hineinpassen. Damit sind die MÖglichkeiten zur
konkreten Realisierung sehr begrenzt. Man kann entweder die orginale
Busy-Beaver Syntax nutzen, oder sich Hochsprachen wie Fortran oder Python
überlegen. Letztlich muss alles jedoch wieder auf ein turing-mächtiges
System zurückübersetzt werden. Klar, rein technisch kann man den
Computer komplexer machen, man kann ihn schneller rechnen lassen und ihm
mehr speicher geben, aber es bleibt eine Turing-mächtige Machine.

Auch wenn du mit dem obigen Ansatz vielleicht die Künstliche Intelligenz
und die Informatik nochmal von Grund auf neu erfinden willst, wird
dir das nicht gelingen. Es spielt keine Rolle, was die Philosophie
über Künstliche Intelligenz glaubt zu wissen, am Ende ist es eine
technische Sache. Es stellen sich zwei wesentliche Frage: wie baut man
die Hardware, wie programmiert man die Software. beides sind Probleme
die von der Informatik und nicht von den Geisteswissenschaften diskutiert
werden. Ich glaube, man muss generell unterscheiden zwischen Künstlicher
Intelligenz wie sie bei Isaac Asimov beschrieben wurde, und richtiger
Künstlicher Intelligenz wie sie auf turing-Maschinen stattfindet. Bei
Asimov funktionieren Computer anders, sehr viel magischer als im real
life. Vom erzählerischen Ansatz sind die Robotergeschichten rund um die
Psychologin Dr. Susan Calvin einem Märchen nachempfunden, genauer gesagt
dem Roman "Der Zauberer von Oz". Dort ist die Vogelscheche ebenfalls auf der
Suche nach Verstand. Sowas ist spannend wenn man eine Geschichte erzählen
möchte, aber es ist leider der falsche Ansatz wenn man echte Roboter und
echte Künstliche Intelligenz untersuchen will. Der Unterschied ist, dass
beim Zauberer von Oz unklar war, wiso die Vogelscheuche sprechen konnte,
aber dafür wurde im Detail erläutert was sich daraus ergibt, während
in der Realität ziemlich gut verstanden wurde, was Sprachsynthese ist,
aber es unklar ist was sich daraus ergibt.
Hans-Peter Diettrich
2017-08-10 10:30:31 UTC
Permalink
Post by Manuel Rodriguez
Die Basis um Künstliche Intelligenz zu erforschen sind
Turing-Machinen.
Das ist ziemlich sicher der ungeeignetste Ansatz. Eine Turing-Maschine
reagiert auf kleinste Änderungen im Programm oder Daten chaotisch, was
einer Evolution mit sukzessiver Verbesserung im Wege steht. Das kann
jeder selbst feststellen, wenn er versucht, das optimale Busy-Beaver
Programm von einer KI finden zu lassen.
Post by Manuel Rodriguez
[...] Die dort abgedruckte Tabelle ist der
komplette Computer: also Microcode und Software in einem. Weitere Bauteile
gibt es nicht. Will man verstehen was Computer sind, muss man sich diese
Tabelle zur Gemüte führen.
Es bringt überhaupt keinen Erkenntnisgewinn, wenn man sich
Turing-Programme zu Gemüte führt. Außer dem, daß zwischen Programm und
Ergebnis kein analytisch erkennbarer Zusammenhang besteht.

DoDi
Jens Kallup
2017-08-10 11:05:35 UTC
Permalink
Post by Manuel Rodriguez
Und jetzt den Schwenk zur Künstlichen Intelligenz. Will man KI realisieren
(egal welche Form) kann man nur auf jenes Turing-mächtige Rechenmodell
zurückgreifen, was sich in einer simplen Tabelle und einigen wenigen
Zuständen definieren lässt. Ein anderes Computermodell gibt es
derzeit nicht.
das neueste Problem was wir haben, sind die Computer der dritten
und vierten Einheit.
Sprich mit den klassichen Computer haben wir nur 2 States zur
Verfügung: sprich 0 ind 1 - strom an oder aus.
Daher können wir nur 2^n States Abbilden mit einen CPU Takt.

Und nun kommen noch die Quantencomputer hinzu, die dann mir
5 States arbeiten können, alos 5^n.
Das Problem derzeit ist aber vielmehr, das diese 5 States
unterschiedliche Energiezustande haben können und noch sehr
aufwendig auf einen Punkt gelenkt werden können, an dennen
der Energiezustand gemessen werden kann.

Ich weiss jetzt nicht die Details, aber es müsste dann ein
Bereich sein von 0.0 .. 5.0, wobei klassische PC einen Bereich
von 0 .. 1 haben

Gruß
Jens
Wolfgang Lorenz
2017-08-11 02:10:40 UTC
Permalink
Post by Jens Kallup
Und nun kommen noch die Quantencomputer hinzu, die dann mir
5 States arbeiten können, alos 5^n.
Bist du sicher, dass das 5 Zustände sind und nicht 4? Ich versuche gerade, https://de.wikipedia.org/wiki/Quantenschl%C3%BCsselaustausch zu verstehen, und da gibt es nur die 4 Zustände – horizontal, | vertikal, \ rechtsdiagonal und / linksdiagonal.

Was ich an der Tabelle nicht verstehe: Wie wissen beide, ob die Basis gleich war oder nicht? Was geht da als zusätzliche Information über den zweiten, ungesicherten Kanal?
Wolfgang Lorenz
2017-08-11 02:27:55 UTC
Permalink
Ich glaube, jetzt habe ich es verstanden: Alice und Bob senden ihre jeweils verwendete Basis erst *HINTERHER*, nachdem das Photon bereits über die Leitung gegangen ist. Eve müsste eine der beiden Basen aber *VORHER* kennen, um in der richtigen Basis messen zu können und entweder eine gleich ausgerichtete Kopie oder ein Müllteilchen auf den Weg zu schicken.
Wolfgang Lorenz
2017-08-12 00:48:09 UTC
Permalink
Post by Jens Kallup
Und nun kommen noch die Quantencomputer hinzu
Naja, Quantencomputer sind da sehr aufwendig und empfindlich, und ein wirklich universeller Quantenrechner wurde noch nicht gebaut. Das D-Wave Teil kann nur ein paar Algorithmen beschleunigen.

Interessanter finde ich da Rechnen mit Licht (https://phys.org/news/2017-06-optical-deep.html). Wenn man eine Linse hat, wo ein komplettes VGG16 Netzwerk eingebrannt ist, dann bekommt der Bildsensor keine Pixel mehr, sondern gleich die Wahrscheinlichkeiten für die einzelnen Objektklassen. Das spart eine Menge Rechenleistung.

Aber das geht nur für Feedforward Netzwerke. Schleifen für RNNs sind schwierig, Speicher geht gar nicht. Gerade für LSTMs wäre das sinnvoll, die verbraten viel Rechenleistung. Verstärkung geht vermutlich auch nicht, jeder Layer wirkt also abschwächend, das begrenzt die Anzahl der Layer. Und Matrixmultiplikationen mit Licht gab es schon 1987 (https://www.ncbi.nlm.nih.gov/pubmed/20454243), vermutlich ist man da auf Probleme gestoßen, die sich nicht so einfach lösen lassen, deshalb hat sich das noch nicht durchgesetzt.
Jens Kallup
2017-08-12 11:10:14 UTC
Permalink
Post by Wolfgang Lorenz
verbraten viel Rechenleistung. Verstärkung geht vermutlich auch nicht, jeder Layer wirkt also abschwächend, das begrenzt die Anzahl der Layer. Und Matrixmultiplikationen mit Licht gab es schon 1987 (https://www.ncbi.nlm.nih.gov/pubmed/20454243), vermutlich ist man da auf Probleme gestoßen, die sich nicht so einfach lösen lassen, deshalb hat sich das noch nicht durchgesetzt.
nun, 1970 oder 1980 war ja von Minitursierung und Gravitation noch
sehr unbekannt.
Und Heute wird wohl das Problem sein, das, wie wir wissen, helles
Licht durchaus im Stande ist, dunkleres Licht zu übertönen.
Kenn wir ja auch aus der Astronomie, bei der Sterne die im Hinter-
grund sind, garnicht so erfaßt werden können.

Und bei der klassichen Elektronik kennt man auch nur 0-Flanke(n)
und 1-Flanke(n), wobei bei Licht die Farben rot, blau/violet, und
weiß vorkommen.
Ok, RGB, aber bei der Mischung der Grundfarben können auch nur sehr
wenige Frequenzen erzeugt/dargestellt werden.
Ich könnte mir mit heutiger Technik, die Farben rot, grün, blau,
sowie die 2 Nichtfarben schwarz, und weiß - also 5 States
vorstellen.

Jens
Hermann Riemann
2017-08-12 05:07:55 UTC
Permalink
Post by Jens Kallup
Post by Manuel Rodriguez
Und jetzt den Schwenk zur Künstlichen Intelligenz. Will man KI realisieren
(egal welche Form) kann man nur auf jenes Turing-mächtige Rechenmodell
zurückgreifen, was sich in einer simplen Tabelle und einigen wenigen
Zuständen definieren lässt. Ein anderes Computermodell gibt es
derzeit nicht.
das neueste Problem was wir haben, sind die Computer der dritten
und vierten Einheit.
Sprich mit den klassichen Computer haben wir nur 2 States zur
Verfügung: sprich 0 ind 1 - strom an oder aus.
Daher können wir nur 2^n States Abbilden mit einen CPU Takt.
Und wenn man 2 bits zusammenfasst sind 2 4^(n/2) Zustände.
Und mit einem CPU Takt können heute 64 bit*Anzahl
der CPU Kerne bei (Grafikprozessoren weniger bits mit mehr Kerne)
Verarbeitet werden.
Und logisch wird mit qubits nibbles etc nicht mehr erreicht.

Und für Prinzipien der Intelligenz wird dadurch nichts gewonnen.
Weil die exakt aufeinander abbildbar sind.
Post by Jens Kallup
Und nun kommen noch die Quantencomputer hinzu,
In Spezialfällen mag das gut sein.
Aber die Hoffnung ist wie mit Holographie mehr Daten zu
speichern.
Eine Illusion, denn die Bitdichte beim Speichern wird dadurch
nicht erhöht. Nur die Orte der Speicherung ändern sich.
Post by Jens Kallup
Das Problem derzeit ist aber vielmehr, das diese 5 States
unterschiedliche Energiezustande haben können und noch sehr
aufwendig auf einen Punkt gelenkt werden können, an dennen
der Energiezustand gemessen werden kann.
Ich weiss jetzt nicht die Details, aber es müsste dann ein
Bereich sein von 0.0 .. 5.0, wobei klassische PC einen Bereich
von 0 .. 1 haben
Jetzt landest Du bei analogen Speicher.
Die haben allerdings Nachteile bei Stabilität.
Wenn Du 5.73 speicherst und 5.94 ausliest,
weil Thermik oder Quantenmechanik Atome verschoben haben ..

Hermann
der ich da keine Wunder erhofft.
--
http://www.hermann-riemann.de
Joachim Pimiskern
2017-09-04 18:54:38 UTC
Permalink
Post by Burkart Venzke
Man könnte auch sagen: Wir unterschätzen nicht primär das Problem
der KI, sondern die Komplexität des Menschen, so dass starke KI,
an seinem Spiegelbild gemessen, große Probleme bereiten muss.
Gibt's dazu nicht eine Schach-Anekdote? Ein Meister wurde
gefragt, wieviele Züge er vorausdenken würde, und er sagte
daraufhin, nur einen, den richtigen. Quelle weiß ich nicht mehr.
Man muß nicht nur die richtigen Axiome und Regeln haben,
sondern die kombinatorische Explosion auch vermeiden.
Manchmal kommt es mir so vor, als diene das Gehirn vor
allem dem Zweck, Standard-Datenverarbeitung zu betreiben
und das Überleben zu sichern, nur gelegentlich dürften
wir unser eigenes Gehirn ein bißchen 'mitnutzen',
für eigene Gedanken ausleihen.
Post by Burkart Venzke
Mein Ausweg wäre deshalb, dass man erst einmal
etwas wie "einfachere starke KI" als Ziel hat,
also dass man sich nicht gleich an allen menschlichen
Aspekte versucht, sondern an wenigen oder gar nur einem,
der aber natürlich in die richtige Richtung geht.
Anstelle von Sinnesorganen würde es genügen, wenn
man Symbole in eine Art Arbeitsgedächtnis einstreut,
zusätzlich zu dem, was da schon vorhanden ist.

Grüße,
Joachim
Burkart Venzke
2017-09-05 23:35:02 UTC
Permalink
Post by Joachim Pimiskern
Post by Burkart Venzke
Man könnte auch sagen: Wir unterschätzen nicht primär das Problem
der KI, sondern die Komplexität des Menschen, so dass starke KI,
an seinem Spiegelbild gemessen, große Probleme bereiten muss.
Gibt's dazu nicht eine Schach-Anekdote? Ein Meister wurde
gefragt, wieviele Züge er vorausdenken würde, und er sagte
daraufhin, nur einen, den richtigen. Quelle weiß ich nicht mehr.
Ja, eine beliebte Anekdote, ein passender Vergleich.
Post by Joachim Pimiskern
Man muß nicht nur die richtigen Axiome und Regeln haben,
sondern die kombinatorische Explosion auch vermeiden.
Manchmal kommt es mir so vor, als diene das Gehirn vor
allem dem Zweck, Standard-Datenverarbeitung zu betreiben
und das Überleben zu sichern, nur gelegentlich dürften
wir unser eigenes Gehirn ein bißchen 'mitnutzen',
für eigene Gedanken ausleihen.
Tja, das meiste wird halt unbewusst ausgeführt. Ähnlich müsste eine KI
auch viel so lernen, dass sie quasi automatisch denken kann, bedingt
durch viel Lernen z.B. der klaren Gemeinsamkeiten vorher, die zu
Tpischem führen.
Post by Joachim Pimiskern
Post by Burkart Venzke
Mein Ausweg wäre deshalb, dass man erst einmal
etwas wie "einfachere starke KI" als Ziel hat,
also dass man sich nicht gleich an allen menschlichen
Aspekte versucht, sondern an wenigen oder gar nur einem,
der aber natürlich in die richtige Richtung geht.
Anstelle von Sinnesorganen würde es genügen, wenn
man Symbole in eine Art Arbeitsgedächtnis einstreut,
zusätzlich zu dem, was da schon vorhanden ist.
Hm, wie meinst du das genauer?
Beliebige Symbole müssen ja irgendwie verknüpft werden, und das sollte
schon irgendwie sinnvoll sein, also irgendeinen Zusammenhang/Kontext
haben, denke ich.

Gruß, Burkart

Lesen Sie weiter auf narkive:
Loading...