"Neuronale Netze" vs "Selber denken"

Programmiersprachen, APIs, Bibliotheken, Open Source Engines, Debugging, Quellcode Fehler und alles was mit praktischer Programmierung zu tun hat.

Re: "Neuronale Netze" vs "Selber denken"

Beitragvon Chromanoid » 06.11.2017, 23:49

Ich habe früher mal ein Neocognitron in Delphi entwickelt, um Nullen und Einsen zu erkennen. Den Ansatz vom Neocognitron fand ich wesentlich spannender als die zumindest damals üblichen KNN mit Backpropagation. Man trainiert das Neocognitron in seiner Form mit Lehrer auch sehr kontrolliert und nachvollziehbar. Ich kann nur empfehlen mal reinzuschauen: http://www.kiv.zcu.cz/studies/predmety/ ... index.html
Soweit ich weiß ist das Neocognitron auch einer der Ursprünge der heutigen DNN.

Ich kann mir kaum vorstellen wie aus KNN künstliche Intelligenz entstehen soll. Ich glaube uns fehlt noch eine geheime Zutat. Ich finde es, trotz der Kritik Unerklärliches mit Unerklärlichem zu erklären, spannend diese Zutat in der Welt der Quantenmechanik zu suchen. Das würde auch erklären warum es so verdammt schwer ist, selbst sehr kleine neuronale Netze lebensecht zu simulieren. Jedenfalls habe ich noch von keinen Durchbrüchen bei C. elegans (siehe https://en.m.wikipedia.org/wiki/OpenWorm) o.Ä. gelesen.
Benutzeravatar
Chromanoid
Christian Kulenkampff
Moderator
 
Beiträge: 3610
Registriert: 16.10.2002, 19:39
Wohnort: Lüneburg
Alter Benutzername: atr_23

Re: "Neuronale Netze" vs "Selber denken"

Beitragvon gdsWizard » 07.11.2017, 07:26

Künstliche Neuronale Netze können auch halluzinieren. Dabei gilt als Halluzination, wenn ein Muster als gelernt erkannt wird, obwohl das nicht der Fall ist/war.
gdsWizard
Thomas Mittelsdorf
 
Beiträge: 206
Registriert: 04.02.2005, 10:12
Wohnort: Meiningen
Benutzertext: www.gamedevstudio.com

Re: "Neuronale Netze" vs "Selber denken"

Beitragvon Alexander Kornrumpf » 07.11.2017, 12:13

Zudomon hat geschrieben:
Krishty hat geschrieben:Ich denke, dass Zudo genau diese Angst hat und durch den Thread fragen will: „Wird das wirklich passieren? Macht mein Netz am Ende so etwas Triviales, obwohl ich so viel Rechenleistung reinpumpe?“

Meine Angst ist eigentlich, ob es sich noch lohnt z.B. Schrifterkennung, Gesichtserkennung, Spracherkennung usw. noch auf konventionelle Wege zu lösen oder nur noch NN's/DNN's dafür genutzt werden. Also auch in Zukunft.

Ich glaube, Gesichts- und Spracherkennung funktionieren heute deswegen so gut, weil eben so viele Trainingsdaten zur Verfügung stehen...


Das sind Probleme die schon immer durch Machine Learning im weitesten Sinne gelöst wurden und jetzt durch besseres Machine Learning besser gelöst werden. Eine "konventionelle", d. h. nicht statistische, Lösung für diese Probleme ist meines Wissens nicht bekannt. Die Frage stellt ob es sich "noch" lohnt das konventionell zu lösen stellt sich also gar nicht, weil es noch nie eine konventionelle Lösung gab. Allenfalls könnte man fragen ob es sich lohnt weiter an einer konventionellen Lösung zu forschen, die Frage ob Forschung sich lohnt ist aber im Vorhinein sowieso nicht richtig zu beantworten.

Die Frage ist für mich, kommt man vielleicht doch noch weiter, wenn man sowas nicht über Neuronale Netzte löst, weil man es anders und per Hand macht, statt "faul" zu sein.
Wie ja erwähnt benötigt das ganze ja auch viel Feintuning.


Unstreitig ist sicherlich, dass man, wenn man bereits ein brauchbares Modell hat, dieses tunlichst verwenden sollte. Das ist im Wesentlichen Krishtys Argument. Unstreitig ist, meinetwegen am Beispiel Go, hoffentlich auch, dass es Probleme gibt, für die top-down kein Modell bekannt ist oder war, aber Machine Learning bottom-up ein brauchbares Modell konstruieren kann. Diese beiden Erkenntnisse sind widerspruchsfrei. Weder ist die erste Erkenntnis der Todesstoß für die Idee Machine Learning noch ist Machine Learning der Todesstoß für händische Modellierung.

Was ein Modell vis-a-vis menschliche Wahrnehmung eigentlich ist und was es in obigem Sinne "brauchbar" macht, ist eine Frage über die man an einem regnerischen Nachmittag mal ausgiebig sinnieren kann, so noch nicht geschehen. Ich denke das fördert das Verständnis von Machine Learning mehr als das Studium konkreter Algorithmen.

Der fundamentale Unterschied zwischen Machine Learning und händischer Modellierung ist diesbezüglich jedenfalls, dass der Modellierer sein eigenes Modell hoffentlich ohne weiteres Zutun versteht während das maschinell konstruierte Modell erst im Nachhinein verstanden werden muss. Es wird gerne mal so getan als sei dies nicht möglich, oder als bestünde kein Interesse daran. Das ist meiner Einschätzung nach ein bisschen hysterisch. Wie smurfer schon sagte, ist es im Gegenteil geradezu Mode sich genau das anzuschauen.

Für das Ziel "durch einen Menschen verstanden zu werden" kann der Mensch ("per Hand") natürlich nie überflüssig werden. Ob das ein geeignetes Ziel ist, ist eine philosophische, keine technische Frage.

Oder anders gesagt, werden wir hier später auch weg rationalisiert? Braucht es in ein paar Jahren kein ZFX mehr, weil alles eh von NN's erstellt, geregelt und gesteuert wird? Hobbyspieleentwicklung mit eingeschlossen...


Ein Hobby betreibst du ja in der Regel zu deinem eigenen Vergnügen und es ist sehr schwer vorstellbar, dass sich ein Neuronales Netz an deiner statt vergnügen wird. WIe oben gesagt scheint dein Problem eher philosophischer als technischer Natur zu sein.
Alexander Kornrumpf
Moderator
 
Beiträge: 1610
Registriert: 25.02.2009, 14:37

Vorherige

Zurück zu Programmiersprachen, Quelltext und Bibliotheken

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 3 Gäste