@CeKaVau
Schach ist z.B. ein Spiel, welches von Anfang an als Abstraktion einer echten Tätigkeit (Krieg, Kampf) entwickelt wurde. Der entscheidende Punkt ist aber nicht der (von mir aus falsch gewählte) Begriff, sondern dass Schach völlig ohne Informationsverlust in eine für eine KI verständliche Form gebracht werden kann und deren Ausgabe auch wieder ohne Verlust in in einen Schachzug umgewandelt werden kann. Das ist möglich, weil Schach eben schon eine Abstraktion mit begrenzten, klar definierten Möglichkeiten ist.Was ist eigentlich für Dich abstrakt?
Boxen muss erst modelliert werden, wobei zwangsweise Informationen verloren gehen. Es muss in eine diskrete Abfolge von "Zuständen" gebracht werden, wobei die Zwischenzeiten wegfallen. Außerdem muss man sehen welche Informationen überhaupt wichtig sind. Und hier schreibst Du:
Das ist doch mein Reden! Das sind einfach deutlich mehr, als man fürs Schach braucht. Mehr möchte ich eigentlich nicht zum Ausdruck bringen.So kann sicher Boxen auf wenige Parameter (ich meine nicht fünf, ich meine wenige hundert) Parameter eingegrenzt werden.
Ja, eben. Das fängt aber nicht erst mit dem Boxtraining an, sondern spätestens mit der Geburt. Von da an wird unser Gehirn trainiert. Und das darf man nicht vergessen, wenn man über die Komplexität von Boxen redet. Man muss laufen lernen, mit der Schwerkraft umgehen, die Umgebung deuten. Das ist alles "Rechenpower" unseres Gehirns, welche wir nicht bewusst nutzen, die aber gebraucht wird. Die bewusste Denkleistung eines Menschen ist beim Boxen natürlich deutlich geringer als beim Schach (normalerweise). Das nutzt aber einer KI nichts.Die Mustererkennung Deines Stammhirn macht nichts anderes - wenn Du genug Erfahrungen im Boxen gesammelt hast.
Mit Bot meine ich immer ein virtuelles "Geschöpf" (ist auch üblich so), also hier das Modell eines Roboters.Das Modell des Roboters muss einem Menschen hinreichend ähneln.
Ja dann eben nicht. Es ist halt mit höherem Simulationsaufwand verbunden, als manch einer sich das vorstellt.Ich weiß nicht, wie ich das noch näher erklären soll. Aber die Modellierung menschlichen Verhaltens, zumal auf einem so eng begrenzten Gebiet, ist echt kein Hexenwerk mehr.
Das ist davon völlig unberührt.Tut mir Leid, wenn das Dein Selbstwertgefühl verletzt.
Darum geht es mir nicht. Ich sage doch, dass eine KI besser werden kann als ein Mensch. Die Frage ist aber, ob man von der KI lernen kann. Beim Schach ist ein Zug eben ein Zug - den kann ich weiter analysieren und versuchen, selbst anwenden zu können. Eine bestimmte Verhaltensweise, die sich eine KI beim simulierten Boxen antrainiert, kann aber für einen Menschen suboptimal sein bzw. sogar schädlich oder unmöglich sein, wenn das Modell an wichtigen Stellen zu ungenau ist.Dann treten zwei Boxermodelle gegeneinander an. Bis das Nash Equilibrium erreichst ist. Das Problem "Boxen" ist gelöst. Auf jede Aktion des Gegners hat der bot eine Reihe optimaler Antworten, die er mit verschiedener Wahrscheinlichkeit ausführt. Die einzige Möglichkeit, so ein Teil zu besiegen, ist, den Parameterraum nachträglich zu ändern: Komm mit einer Knarre zum Boxkampf.
Also frisch noch einmal: Es geht mir darum, ob ich als Mensch von der KI lernen kann. Ein Tiger wird mich auch im Zweikampf besiegen, doch halte ich hier den Lehrwert (außer sich besser nicht mit Tigern anzulegen) für nicht vorhanden. Das ist natürlich ein übertriebenes Beispiel, aber verdeutlicht vllt. meinen Punkt.
Ein Modell muss eben hinreichend genau sein, um von ihm lernen zu können. Und das heißt nicht genau genug, um besser als ein Mensch zu sein.






Mit Zitat antworten