neuronale Netze

Einstiegsfragen, Mathematik, Physik, künstliche Intelligenz, Engine Design
Seraph
Site Admin
Beiträge: 1174
Registriert: 18.04.2002, 21:53
Echter Name: Steffen Engel

Re: neuronale Netze

Beitrag von Seraph »

So schoen eure Traeume auch klingen moegen, ihr vergesst aber anscheinend dabei den Faktor Mensch.

Und automatisierte Welt erinnert mich irgendwie an Idiocracy oder WALL-E.
Benutzeravatar
Zudomon
Establishment
Beiträge: 2254
Registriert: 25.03.2009, 07:20
Kontaktdaten:

Re: neuronale Netze

Beitrag von Zudomon »

WALL-E ist geil! Der räumt die Erde auf :D
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4258
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: neuronale Netze

Beitrag von Chromanoid »

Viele malen, wenn es um künstliche Intelligenz geht, gerne den Teufel an die Wand. Ich denke das ist bloß die Arroganz und der Wille, das einzig intelligente, die Erde formende Wesen auf diesem Planeten zu sein. Außerdem gibt es sowieso schon Institutionen, die den Menschen auf die Singularität vorbereiten sollen und für das beste sorgen, wenn es erst mal soweit ist: http://www.singinst.org http://singularityu.org/ und bestimmt noch mehr... In Korea gibt es soweit ich weiss schon eine Variante der Menschenrechte für intelligente Roboter usw..
Genauso wie man sich früher keine Staatsform ohne "Klassen", Adel und König vorstellen konnte, ist das heute mit der künstlichen Intelligenz. Immer wieder werden Dystopien entwickelt und Filme wie Terminator usw. sorgen für eine Angst vor der künstlichen Intelligenz bei der Bevölkerung. Stellt euch doch einfach mal vor was passiert, wenn man Intelligenz, Kreativität, Genie bauen könnte. Das Erbaute würde sich selbst verbessern, Wissen würde exponentiell wachsen und der Mensch würde das meiste seiner Probleme - vielleicht auch die Sterblichkeit - auf einen Schlag los werden.
Despotist
Establishment
Beiträge: 394
Registriert: 19.02.2008, 16:33

Re: neuronale Netze

Beitrag von Despotist »

Chromanoid hat geschrieben: Viele malen, wenn es um künstliche Intelligenz geht, gerne den Teufel an die Wand.
Ich nicht. ich fände es auch toll wenn die Computer uns intellektuell noch mehr unterstützen würden was sie meiner Ansicht nach schon gehörig tun indem sie aufwändige aber leicht abbildbare Prozesse schneller und sicherer ausführen als es Menschen könnten. Aber der Weg zu Kreativität und Genie wird noch ein weiter sein da sich sowas schlecht Algorithmieren lässt. Daher habe ich auch keine Angst dass die Maschinen von "selbst" erkennen dass sie uns nicht mehr brauchen. Erstaunlicherweise gibt es derartige Vorgänge von rebellierenden intelligenten Maschinen in fast jeder größeren Science-Fiction Welt. Ich denke diese Vorstellung ist einfach faszinierend.
Was ich mir gut vorstellen könnte ist, dass sie von uns lernen und abschauen wie wir mit anderen umgehen und es nachahmen. Aber könnten wir ihnen dann einen Vorwurf machen?
Chromanoid hat geschrieben: Ich denke das ist bloß die Arroganz und der Wille, das einzig intelligente, die Erde formende Wesen auf diesem Planeten zu sein.
Intelligent? Bei mindestens 99% der Handlungen der Menschen die ich mitbekomme kann ich keinerlei Intelligenz erkennen. Und eine Brücke oder ein Hochhaus zu bauen oder ein Loch zu graben könnnen Spinnen, Termiten und Maulwürfe auch ganz ordentlich.
Chromanoid hat geschrieben: In Korea gibt es soweit ich weiss schon eine Variante der Menschenrechte für intelligente Roboter
Meinst du Nord- oder Südkorea ? ;) Die Arroganz sehe ich hier. Wenn man nichteinmal Tieren die Rechte zugesteht die man für sich selbst fordert wirds bei den Robotern schwer. Und selbst die Verbreitung der Menschenrechte unter Menschen ist nicht sehr hoch finde ich. Aber hier wird es wohl wie immer laufen dass erst über sowas nachgedacht wird wenn die Maschine es fordert und eventuell dafür kämpft.
Chromanoid hat geschrieben: Immer wieder werden Dystopien entwickelt und Filme wie Terminator usw. sorgen für eine Angst vor der künstlichen Intelligenz bei der Bevölkerung.
Wobei die KI-s in allen mir bekannten dieser Dystopien einfach ein Werkzeug sind was genau für diesen Zweck gemacht wurde. Es hat nur seinen Aufgabenrahmen geringfügig erweitert. Wenn ich eine KI mache die Auslöschung kennt ist es schwer ihr begreiflich zu machen warum die anderen die Bösen sind und ich nicht wenn beide genau dasselbe tun. Ich denke KI-s kann man aufgrund ihrer Logik und Ratio nicht mit Ideologien blenden wie Menschen. Vor einer KI klug wie 1000 Menschen die nur aufwaschen kann habe ich keine Angst. Vor einer mit 1 Promille Menschenleistung der nur auslöschen kann schon.
Chromanoid hat geschrieben: Wissen würde exponentiell wachsen
Tut es das nicht heute schon?
Chromanoid hat geschrieben: der Mensch würde das meiste seiner Probleme auf einen Schlag los werden.
Die meisten dieser Probleme sind Menschengemacht. Da ich das technologische und wissenschaftliche Potential diese Probleme zu lösen sehe, es aber nicht getan wird lässt das für mich nur den Schluss zu dass sie auch menschengewollt sind. Wie kann uns eine Maschine da helfen?
Chromanoid hat geschrieben: vielleicht auch die Sterblichkeit auf einen Schlag los werden
Das halte ich für sehr gefährlich. In Star Trek 7 meint Picard: "Es ist unsere Sterblichkeit die uns definiert!" Was würde passieren wenn du keine Konsequenzen mehr fürchten musst? Die meisten gehen heute schon leichtsinnig wenn nicht offen destruktiv mit ihrer Gesundheit und ihrem Leben um. Davon abgesehen dass ich es bei solchen Leuten für sinnlos halte finde ich das moralisch verwerflich.

Fazit:
Auch ich finde die Vorstellung leistungsfähiger KIs sehr interessant und habe keine Angst davor, zumindest nicht mehr als vor den Menschen. Aber aufgrund ihrer vorgestellten "überlegenen" Eigenschaften stelle ich mir diese Zusammenkunft lächerlich und für den Menschen nicht so vorteilhaft vor. Und letztendlich wollen die meisten sie wohl zur Lösung von Problemen benutzen, wenn nicht missbrauchen, die wir selbst wissentlich verursachen und das halte ich für moralisch falsch.

Zur technischen Seite obwohl ich davon nicht so viel Ahnung habe:
Ich denke es wird nicht ein Netz geben das intelligent ist sondern wie im Gehirn viele Module die auf sehr spezielle Aufgaben trainiert sind und sich an neue Daten desselben Bereiches anpassen können und untereinander nur standardisierte aufbereitete Informationen austauschen. Das liesse sich auch gut mit Threads verbinden. Am schwierigsten wird es wohl echte Kreativität zu bauen die wohl auf das massenhafte erzeugen von zufälligen Parametern und dann deren Bewertung hinausläuft. Trial and Error im Kopf um ein Problem zu lösen. Letztendlich ist es beim Menschen wohl ähnlich da er "schlechte" Lösungen schnell verwirft oder garnicht erst in Betracht zieht.

Despotist
Benutzeravatar
Lord Delvin
Establishment
Beiträge: 577
Registriert: 05.07.2003, 11:17

Re: neuronale Netze

Beitrag von Lord Delvin »

Ich wollte zu dem Ethik teil eigentlich nicht mehr sagen, da ich aus offensichtlichen Gründen meine Gründe nicht nennen kann, weil es bei NNs an sich tatsächlich nichts gefährliches gibt und weils eigentlich OT ist; da hier aber doch einiges zu geschrieben wurde folgendes:

Tatsächlich bin ich auch der Meinung, dass es zu begrüßen ist, wenn man maschinen bauen kann, die einem einfache mechanische und intelektuelle Arbeiten abnehmen. Das Problem ist, dass es sich dabei tatsächlich, wie bei den Menschen auch, um viele Handeln muss und nicht um einiger oder sogar nur eine.
Wenn es zu wenige sind, ist die wahrscheinlichkeit zu versagen einfach zu groß und man läuft dann auch gefahr, dass man das Problem nicht ohne großen (und unangemessenen) Aufwand erledigen kann.
Ein weiteres Problem ist, dass wir von unserem jetzigen standpunkt auf ein gottgleiches Niveau angehoben werden und das in ziemlich kurzer Zeit(tatsächlich wird der unterschied vermutlich etwa so dem der letzten 2k Jahre entsprechen, nur dass es halt vielleicht in 100 oder weniger geschehen wird). Außerdem glaube ich, dass es wie jetzt auch schon nicht überall gleichmäßig und gleich schnell geschehen wird, was das globale zerwürfniss nurnoch vergrößert.
Und was einem eigentlich Angst machen sollte ist, dass auch Menschen mächtiger werden, die immernoch nicht verstanden haben, dass jeder Mensch frei ist; das man andere Menschein einfach nicht kontrollieren kann; das man ihnen einfach aus dem Weg gehen sollte, wenn man sie nicht leiden kann; und dass es einfach KEIN ZIEL SEIN DARF ein unangemessenes Maß an macht zu besitzen. Damit tut man sich auch selbst letztlich keinen Gefallen.

So einen Krieg Mensch gegen Maschine a la Matrix, Terminator, etc. halte ich auch nicht für wahrscheinlich, eher halt einen weiteren Kalten Krieg, so wie das mit den Atomwaffen auch war und eigentlich noch ist. Ich denke frei auf dem Gebiet forschen kann man beruhigt, wenn die Menschheit ihr Kernwaffenproblem gelöst hat.
Gruß
XML/JSON/EMF in schnell: OGSS
Keine Lust mehr auf C++? Versuche Tyr: Get & Get started
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4258
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: neuronale Netze

Beitrag von Chromanoid »

Despotist hat geschrieben: Die Arroganz sehe ich hier. Wenn man nichteinmal Tieren die Rechte zugesteht die man für sich selbst fordert wirds bei den Robotern schwer. Und selbst die Verbreitung der Menschenrechte unter Menschen ist nicht sehr hoch finde ich.
naja langsam kommt das ja auch mit den "tieren"... http://www.stern.de/wissenschaft/natur/ ... 60418.html
Zu bedenken ist auch, dass nicht einmal sehr viele Menschen in ihrem Staat durch Menschenrechte geschützt sind und trotzdem gibt es bereits Pläne für Grundrechte für "Tiere und Maschinen"...
Im Zeitalter der Massenvernichtungswaffen, der Pyromanie atomarer und fossiler Energieverbrennung, der genetischen Bio-Piraterie und der transnationalen Wirtschaftspiraterie muss das allgemeine Wohl umfassender gesehen werden, weil die Egoismen weitreichender und gefährlicher geworden sind.
Das gilt natürlich auch, wenn KI und Co. einzelne Menschen noch "mächtiger" machen... Es ist eben die Aufgabe einer Wissensgesellschaft diese Probleme zu lösen...
Despotist hat geschrieben:Chromanoid hat geschrieben:
Wissen würde exponentiell wachsen

Tut es das nicht heute schon?
Das kann ich nicht beurteilen... Bei Eintreffen der Singularität wäre es aber sicherlich deutlicher festzustellen.
Despotist hat geschrieben:Die meisten dieser Probleme sind Menschengemacht. Da ich das technologische und wissenschaftliche Potential diese Probleme zu lösen sehe, es aber nicht getan wird lässt das für mich nur den Schluss zu dass sie auch menschengewollt sind. Wie kann uns eine Maschine da helfen?
Genauso wie uns Internet und Computer helfen Probleme zu lösen. Ich könnte mir zum Beispiel vorstellen, dass in alle Welt ausströmende Roboterlehrer allen Menschen dieser Welt Wissen bringen, ein Heer aus Roboter-Arbeitern allen Menschen Häuser und Infrastruktur bauen, eine Entität aus künstlichem Gehirn Energie-, Ressourcen- und Platzprobleme löst und ein Heer aus Roboterärzten allen Menschen bestmögliche Versorgung bringt.

Sicherlich würde man als Mensch die eigene Existenz neu definieren müssen, aber das würde auch ohne Roboter und KI über kurz oder lang geschehen müssen. Die Singularität würde nur das Leid/die zeit bis zu diesem Punkt verkürzen.


Um noch mal zum Thema zu kommen:
Andreas Zell / “Simulation neuronaler Netze“, Addison-Wesley, 1997 fand ich ganz gut für den Einstieg als ich eine Facharbeit über KNN geschrieben hab.
http://johannes.lampel.net/bll137pub.pdf "Einsatz von Neuronalen Netzen in einem Bot für Counterstrike" ziemlich interessante Facharbeit über KNN...

ist aber beides schon etwas älter ^^... naja vielleicht interessiert's ja jemanden... ;)
Benutzeravatar
Lord Delvin
Establishment
Beiträge: 577
Registriert: 05.07.2003, 11:17

Re: neuronale Netze

Beitrag von Lord Delvin »

Chromanoid hat geschrieben:
Despotist hat geschrieben:Chromanoid hat geschrieben:
Wissen würde exponentiell wachsen

Tut es das nicht heute schon?
Du hast ein Buch vor Ray Kurzweil gelesen und es nicht verstanden...genauso wie Ray Kurzweil selbst. Es gibt keine Singularität und die wirds auch nicht geben. Das ganze ist kein Punkt, sondern ein kontinuierlicher Prozess. Man wird da langsam vorbeidriften und man wirds nicht mehr wahrnemhen, also flachbild fernseher. Nettes feature halt.
Wenn du dir mit dem exponentiellen wissen nicht so ganz sicher bist, dann schau dir einfach mal die Änderung in einer beliebigen wissenschaft an. Bio, Medizin, Physik. Schau was in den letzten 2k jahren passiert ist und dann die letzten 200, 20, 2. Wobei 2 etwas zu nah an dir dran ist, weil man noch nicht abschätzen kann, was nützlich sein wird und was nicht.
Allerdings glaub ich auch, dass es nicht zwingend so weiter gehen muss und dass das momentane Wachstum vor allem von der Globalisierung getrieben wird, da sich plötzlich viel mehr optimierungen lohnen. Ich mein wenn ich weis, dass mein Produkt von 2Mrd. Menschen gekauft wird, dann bieten sich ganz andere Möglichkeiten als bei 200Mio. Vor allem, wenn es sich um ware ohne materialwert, wie z.B. halbleiterwaren oder software handelt. Und der Rest profitiert von diesem Effekt in unserem Fach auch ziemlich stark...wobei die natürlich auch von der Globalisierung profitieren...naja wurst, ich denk wir sollten, wenn wir hier noch weiter drüber diskutieren das Thema zumindest umnennen.

(btw. haben Roboter und KI leider nur sehr bedingt was miteinander zu tun, da sich bei Robotern noch einige größere mechanische Herausforderungen finden)
Gruß
XML/JSON/EMF in schnell: OGSS
Keine Lust mehr auf C++? Versuche Tyr: Get & Get started
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4258
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: neuronale Netze

Beitrag von Chromanoid »

Ich habe kein Buch von ihm gelesen... Aber naja... Ich verstehe unter Singularität vor allem Folgendes:
I. J. Good (gefunden in wikipedia) hat geschrieben:„Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.“
Ich denke der zeitpunkt an dem eine Maschine kreativ tätig sein kann und jeden Menschen übertrifft, wird relativ eindeutig bestimmbar sein. genauso wie die Entwicklung des Dynamits oder der Atombombe...
Lord Delvin hat geschrieben:(btw. haben Roboter und KI leider nur sehr bedingt was miteinander zu tun, da sich bei Robotern noch einige größere mechanische Herausforderungen finden)
naja eine KI kann einen Robotoer steuern. Eine KI wäre wie das Gehirn eines Menschen für einen Roboter. Die Probleme der mechanischen herausforderung könnte im Falle einer echten KI die KI selbst lösen...
Benutzeravatar
Zudomon
Establishment
Beiträge: 2254
Registriert: 25.03.2009, 07:20
Kontaktdaten:

Re: neuronale Netze

Beitrag von Zudomon »

Chromanoid hat geschrieben:Ich habe kein Buch von ihm gelesen... Aber naja... Ich verstehe unter Singularität vor allem Folgendes:
I. J. Good (gefunden in wikipedia) hat geschrieben:„Eine ultraintelligente Maschine sei definiert als eine Maschine, die die intellektuellen Fähigkeiten jedes Menschen, und sei er noch so intelligent, bei weitem übertreffen kann. Da der Bau eben solcher Maschinen eine dieser intellektuellen Fähigkeiten ist, kann eine ultraintelligente Maschine noch bessere Maschinen bauen; zweifellos würde es dann zu einer explosionsartigen Entwicklung der Intelligenz kommen, und die menschliche Intelligenz würde weit dahinter zurückbleiben. Die erste ultraintelligente Maschine ist also die letzte Erfindung, die der Mensch zu machen hat.“
Ich denke der zeitpunkt an dem eine Maschine kreativ tätig sein kann und jeden Menschen übertrifft, wird relativ eindeutig bestimmbar sein. genauso wie die Entwicklung des Dynamits oder der Atombombe...
Ich denke es würde ausreichen, wenn die Maschine in der Lage ist, eine bessere Maschine zu entwickeln. Das wäre der initialisierende Schritt zur Megaintelligenz. Das ist wie ein immer angewendeter Skalierungsfaktor. Solange der unter 1 bleibt, ist das, was entwickelt wird dümmer als wir. Aber sobald es möglich ist, über 1 zu kommen, dann kommt der Stein ins rollen...
Chromanoid hat geschrieben:
Lord Delvin hat geschrieben:(btw. haben Roboter und KI leider nur sehr bedingt was miteinander zu tun, da sich bei Robotern noch einige größere mechanische Herausforderungen finden)
naja eine KI kann einen Robotoer steuern. Eine KI wäre wie das Gehirn eines Menschen für einen Roboter. Die Probleme der mechanischen herausforderung könnte im Falle einer echten KI die KI selbst lösen...
Vielleicht brauchen wir ja keinen krassen Roboter entwickeln und beschränken uns lieber auf ne vernünftige KI. Dann kann die sich selbst ihren Körper ausdenken. :D
Despotist
Establishment
Beiträge: 394
Registriert: 19.02.2008, 16:33

Re: neuronale Netze

Beitrag von Despotist »

Chromanoid hat geschrieben: naja langsam kommt das ja auch mit den "tieren"
Und genau da sehe ich das Problem. LANGSAM. Der gesellschaftliche Fortschritt und damit meine ich den geistigen ist viel langsamer als der technologische. Und immer nur lokal begrenzt. Es wenden doch immer noch viele Leute Prinzipien wie Egoismus und Gewalt an obwohl die meiner Ansicht nach nicht mehr notwendig wären. Geistig hängen also viele noch in Steinzeit oder Mittelalter fest und spielen mit Flachbildfernsehr und Atomwaffen.
Und selbst wenn es neue, kluge Ansätze gibt werden die durch die Konservativen oder Militärdiktaturen ignoriert oder gar bekämpft. Das meine ich mit "das das treffen der KI auf den Menschen unvorteilhaft wäre" weil Mensch einfach wie ein ein Haufen Dummköpfe dasteht und das der KI beizubringen wird schwer.
Chromanoid hat geschrieben: Ich könnte mir zum Beispiel vorstellen, dass in alle Welt ausströmende Roboterlehrer allen Menschen dieser Welt Wissen bringen,
Welches Wissen? Kein Mensch kann alles wissen. Wer selektiert das? Ist das nicht eine Art von Zensur und gefügigmachung?
Und wenn ich mir die Lernbereitschaft einiger deutscher Schüler ansehe wird die Maschine ein großes Arsenal and körperlicher und geistiger Züchtigung bereithalten müssen um den Leuten das Wissen einzutrichtern.
Chromanoid hat geschrieben: ein Heer aus Roboter-Arbeitern allen Menschen Häuser und Infrastruktur bauen,
Der Materialbedarf wird gewaltig sein. Die Zerstörung der Umwelt ebenso. Und der Energiebedarf erst. Irgendwie keine Vorstellung die ich mir wünsche.
Chromanoid hat geschrieben: eine Entität aus künstlichem Gehirn Energie-, Ressourcen- und Platzprobleme löst und ein Heer aus Roboterärzten allen Menschen bestmögliche Versorgung bringt.
Wenn die KI für dich entscheidet es wäre das Beste für alle wenn du nach Sibirien ziehst und deine Freundin sich mit jemandem anderen paaren soll? Die Leute sind kaum bereit sich "völlig" einer Regierung zu unterwerfen die vorgibt das Beste für alle (im Land) zu wollen. Wieso sollten sie dann auf die KI hören? Wie setzt sich die KI gegen Unwillige durch (Robo-Polizei)? Nach welchen Regeln geht sie vor?
Chromanoid hat geschrieben: Sicherlich würde man als Mensch die eigene Existenz neu definieren müssen, aber das würde auch ohne Roboter und KI über kurz oder lang geschehen müssen.
Jeder definiert seine Existenz anders. Was wenn deine Definition nicht mit der der Maschine übereinstimmt? Wenn du dich weigerst ist ihr Sinn dahin, wenn du ihr folgst deine Freiheit. Dasselbe Problem das wir jetzt die ganze Zeit haben. Das wird auch die Maschine nicht lösen können, zumindest nicht ohne das Horrorszenario von Versklavung und Unterwerfung.
Lord Delvin hat geschrieben: Du hast ein Buch vor Ray Kurzweil gelesen und es nicht verstanden
hab ich nicht. Ich hatte nur mal sowas irgendwo aufgeschnappt dass sich das Wissen der Menschheit alle xx Monate verdoppelt, weiss aber leider nicht mehr wo. Fand diese Zeit relativ kurz. Und wenn man bedenkt dass diese Zeit im Mittelalter sicher einige Jahrhunderte war ist das schon eine Steigerung die auch teilweise der Automatisierung zuzuschreiben ist.
Zudumon hat geschrieben: Vielleicht brauchen wir ja keinen krassen Roboter entwickeln und beschränken uns lieber auf ne vernünftige KI. Dann kann die sich selbst ihren Körper ausdenken.
Du kannst so eine gute KI in jeden beliebigen Roboter stecken und ihr alles geben was sie braucht damit sie sich selbst einen baut. So wie der Mensch lernt mit seinem limitierten Körper zurechtzukommen und umzugehen wird das die Maschine auch können.

Fazit:
Bevor die technologischen Probleme gelöst werden, was sicher nicht mehr so lange dauert, müssen also noch viele andere Fragen beantwortet werden wie wir dann damit umgehen. Und ich denke dieser Prozess findet nicht statt weshalb auch der Vorteil der KI nicht ausgenutzt werden wird oder in die Hose gehen wird. So ist der Mensch eben: einfach was erfinden ohne sich über Folgen Gedanken zu machen. Aber seien wir ehrlich. Selbst wenn vor 100 Jahren der Klimawandel und seine Folgen 100% bekannt gewesen wären hätte kaum einer anders gehandelt. Es ist eben das kurzfristige Vorteilsdenken was die Leute alle guten Prinzipien und Moral vergessen lässt. Steinzeit eben. Aus diesem Grunde sehe ich eure utopischen Vorstellungen dass sobald die KI da ist wir keine Sorgen mehr haben mit einem leichten Lächeln.

Despotist
Alexander Kornrumpf
Moderator
Beiträge: 2113
Registriert: 25.02.2009, 13:37

Re: neuronale Netze

Beitrag von Alexander Kornrumpf »

Es ist schon lustig mit Begriffen. Bei Singularity dachte ich zunächst an
Wikipedia Begriffsklärung Singularität:

in der Physik Gegebenheiten, unter denen physikalische Gesetze nicht definiert sind, siehe Singularität (Astronomie)

* insbesondere in der Astrophysik ein Schwarzes Loch
* insbesondere in der Kosmologie den Zustand des Universums beim Urknall/Big Rip
Aufgrund dieser Verwechselung dachte ich immer das Buch von Kurzweil würde den Weltuntergang prophezeien :D

Das dumme an der "Technologischen Singularität" wird sein, dass anders als bei einer "richtigen" Singularität die Physik wohl weiter gelten wird. Die Hauptsätze der Thermodynamik stellen eine viel größere Hürde da als fehlende Intelligenz. (Ich brauche wohl nicht zu erwähnen, dass die Grundannahme von "The Matrix" blanker Unsinn ist).
Benutzeravatar
Zudomon
Establishment
Beiträge: 2254
Registriert: 25.03.2009, 07:20
Kontaktdaten:

Re: neuronale Netze

Beitrag von Zudomon »

Alexander Kornrumpf hat geschrieben:Ich brauche wohl nicht zu erwähnen, dass die Grundannahme von "The Matrix" blanker Unsinn ist
Was ist denn daran blanker Unsinn bzw. die Grundannahme?
Benutzeravatar
Schrompf
Moderator
Beiträge: 4855
Registriert: 25.02.2009, 23:44
Benutzertext: Lernt nur selten dazu
Echter Name: Thomas Ziegenhagen
Wohnort: Dresden
Kontaktdaten:

Re: neuronale Netze

Beitrag von Schrompf »

Du kannst aus Menschen nicht mehr Energie rausholen, als Du vorher in Form von Biomasse reingesteckt hast. Es wäre viel effektiver, die Biomasse direkt in Energie umzuwandeln, zum Beispiel durch banales Verbrennen. Das ist der Unsinn an dem Matrix-Film.
Früher mal Dreamworlds. Früher mal Open Asset Import Library. Heutzutage nur noch so rumwursteln.
Benutzeravatar
Zudomon
Establishment
Beiträge: 2254
Registriert: 25.03.2009, 07:20
Kontaktdaten:

Re: neuronale Netze

Beitrag von Zudomon »

Achso, das... jo, da gebe ich euch recht. Das ist natürlich Unsinn.
BlueShark
Beiträge: 79
Registriert: 28.02.2009, 18:55
Alter Benutzername: BlueShark

Re: neuronale Netze

Beitrag von BlueShark »

Hehehehe wirklich nee heiße Runde hier. Ich habe mal eben ganz beiläufig durchgerechnet, was eine Hardware für eine KI leisten müsste. Dabei habe ich mir die Daten vom menschlichen Gehrin genommen. Nur so aus Spass. Ich habe dabei rausbekommen, dass man bei einem "langsamen"-Netz knapp einen Tb an Speicher braucht, bei einem "schnellen"-Netz sogar an die 1,4Tb. Das ist eine enorme Datenmenge. Nun ist das kein bisschen optimiert oder so und es wurden keine Tricks angewandt, die die Leistung erhöhen könnten. Ich möchte bitte den Prozessor oder besser das Rechenzentrum sehen, welches diese Datenmenge ungefähr mit 10Durchgängen pro Sekunge laufen lassen kann^^.

Mfg
BS
Benutzeravatar
Zudomon
Establishment
Beiträge: 2254
Registriert: 25.03.2009, 07:20
Kontaktdaten:

Re: neuronale Netze

Beitrag von Zudomon »

Und obwohl das Gehirn so krass ist, würde ein Mensch, der 100 Jahre leben und diese Zeit auch durchrechnen würde, es nicht schaffen, ein Bild in 1920x1200 zu berechnen. Dann müsste der nämlich einen Pixel in 23 Minuten berechnen können. Ich bezweifle, dass man das schaffen könnte. Mich würde allerdings mal interessieren, wie viel Pixelrechenaufwand da wirklich für betrieben werden muss.
Benutzeravatar
Krishty
Establishment
Beiträge: 8240
Registriert: 26.02.2009, 11:18
Benutzertext: state is the enemy
Kontaktdaten:

Re: neuronale Netze

Beitrag von Krishty »

BlueShark hat geschrieben:Nun ist das kein bisschen optimiert oder so und es wurden keine Tricks angewandt, die die Leistung erhöhen könnten. Ich möchte bitte den Prozessor oder besser das Rechenzentrum sehen, welches diese Datenmenge ungefähr mit 10Durchgängen pro Sekunge laufen lassen kann^^.
Die Probleme dürften woanders liegen, denn an der puren Rechenleistung sind wir mittlerweile nah dran … vielleicht nicht für 10 Hz, aber für 0,1. Dass es trotzdem nicht reicht hat andere Gründe … leider ist da auch Wikipedia schwammig :(
Zudomon hat geschrieben:Und obwohl das Gehirn so krass ist, würde ein Mensch, der 100 Jahre leben und diese Zeit auch durchrechnen würde, es nicht schaffen, ein Bild in 1920x1200 zu berechnen. Dann müsste der nämlich einen Pixel in 23 Minuten berechnen können. Ich bezweifle, dass man das schaffen könnte. Mich würde allerdings mal interessieren, wie viel Pixelrechenaufwand da wirklich für betrieben werden muss.
Ist doch quatsch … als ob niemand auf der Welt ein vernünftiges Bild malen könnte … das Lustige ist ja, dass das Augenmaß eines Künstlers die Wirkung von Farbe und Form viel besser konservieren kann als jeder Ray-Tracer, weil das Bild am Ende wieder von Menschen beurteilt wird, denen präzise Mathematik hinter den Pixeln scheißegal ist. So gesehen ist das sogar noch der bessere Ansatz für gute Grafik.
seziert Ace Combat, Driver, und S.T.A.L.K.E.R.   —   rendert Sterne
Benutzeravatar
Zudomon
Establishment
Beiträge: 2254
Registriert: 25.03.2009, 07:20
Kontaktdaten:

Re: neuronale Netze

Beitrag von Zudomon »

Krishty hat geschrieben:
Zudomon hat geschrieben:Und obwohl das Gehirn so krass ist, würde ein Mensch, der 100 Jahre leben und diese Zeit auch durchrechnen würde, es nicht schaffen, ein Bild in 1920x1200 zu berechnen. Dann müsste der nämlich einen Pixel in 23 Minuten berechnen können. Ich bezweifle, dass man das schaffen könnte. Mich würde allerdings mal interessieren, wie viel Pixelrechenaufwand da wirklich für betrieben werden muss.
Ist doch quatsch … als ob niemand auf der Welt ein vernünftiges Bild malen könnte … das Lustige ist ja, dass das Augenmaß eines Künstlers die Wirkung von Farbe und Form viel besser konservieren kann als jeder Ray-Tracer, weil das Bild am Ende wieder von Menschen beurteilt wird, denen präzise Mathematik hinter den Pixeln scheißegal ist. So gesehen ist das sogar noch der bessere Ansatz für gute Grafik.
Ich meinte damit auch nicht, dass ein Mensch nicht in der Lage ist, ein vernünftiges Bild zu malen, sondern halt dementsprechend schnell rechnen zu können, und das, obwohl die Ressourcen des Gehirns, die eines heutigen Computers anscheinend weit übertreffen.
Natürlich kann ein Künstler bessere Ergebnisse liefern. Man sehe sich nur mal Bob Ross an, der da in ein paar Sekunden ein paar mal aufs Bild tupft und dann sieht es aus, als ob da eine krasser Baum mit tausenden von Blättern steht, die sogar beleuchtet sind.
Benutzeravatar
Richard Schubert
Moderator
Beiträge: 106
Registriert: 27.02.2009, 08:44
Wohnort: Hohen Neuendorf (b. Berlin)
Kontaktdaten:

Re: neuronale Netze

Beitrag von Richard Schubert »

Der Unterschied zwischen Computern und dem menschlichen Gehirn ist doch ihre grundsätzliche Arbeitsweise. Wären der Computer hervorragend Redundanz erzeugen kann (ein gerastertes Bild aus Vektorgrafik (3D Spiel, Flash, SVG, etc.)), kann ein Gehirn hervorragend Redundanz herausrechnen. So muss das Gehirn letztendlich nur ein Paar KB pro Sekunde verarbeiten können. Gibt irgendwo Tabellen wo man überraschend feststellt, wie wenig dort eigentlich los ist. Nun muss man dem Computer nur noch beibringen ebenfalls Redundanz zu vermindern, was man mit Mustererkennung oder Ähnlichem bereits versucht.
Produktivität über Performance - XNA Creators Club
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4258
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: neuronale Netze

Beitrag von Chromanoid »

"Scientists Worry Machines May Outsmart Man"...
Despotist hat geschrieben:Welches Wissen? Kein Mensch kann alles wissen. Wer selektiert das? Ist das nicht eine Art von Zensur und gefügigmachung?
Und wenn ich mir die Lernbereitschaft einiger deutscher Schüler ansehe wird die Maschine ein großes Arsenal and körperlicher und geistiger Züchtigung bereithalten müssen um den Leuten das Wissen einzutrichtern.
Zum Beispiel Lesen und Schreiben, rechnen, Biologie, Aufklärung usw.
Despotist hat geschrieben:Der Materialbedarf wird gewaltig sein. Die Zerstörung der Umwelt ebenso. Und der Energiebedarf erst. Irgendwie keine Vorstellung die ich mir wünsche.
Chromanoid hat geschrieben:eine Entität aus künstlichem Gehirn Energie-, Ressourcen- und Platzprobleme löst
Despotist hat geschrieben:Wenn die KI für dich entscheidet es wäre das Beste für alle wenn du nach Sibirien ziehst und deine Freundin sich mit jemandem anderen paaren soll? Die Leute sind kaum bereit sich "völlig" einer Regierung zu unterwerfen die vorgibt das Beste für alle (im Land) zu wollen. Wieso sollten sie dann auf die KI hören? Wie setzt sich die KI gegen Unwillige durch (Robo-Polizei)? Nach welchen Regeln geht sie vor?
Ich habe nirgendwo behauptet, dass die KI so etwas entscheiden soll. Wie wäre es mit einer absoluten Demokratie, bei der die KI durch Diskussion mit den Bürgern die allgemeine Meinung ermittelt und mit Berücksichtigung von Menschenrechten Entscheidungen trifft. Wir reden hier ja nicht über einen Computer sondern über eine Gott gleiche Instanz der Intelligenz.
Despotist hat geschrieben:Jeder definiert seine Existenz anders. Was wenn deine Definition nicht mit der der Maschine übereinstimmt? Wenn du dich weigerst ist ihr Sinn dahin, wenn du ihr folgst deine Freiheit. Dasselbe Problem das wir jetzt die ganze Zeit haben. Das wird auch die Maschine nicht lösen können, zumindest nicht ohne das Horrorszenario von Versklavung und Unterwerfung.
Ich fordere ja gar nicht, dass jeder dieser KI folgen muss. Man könnte bspw. durch Abstimmung entscheiden ob die Regierung eines Landes durch eine KI mit absoluter Demokratie ersetzt werden soll. Mit neu definieren meine ich vor allem, dass dem Menschen jeglicher bisher oft als Sinn des Lebens angeführter grund genommen wird zu existieren. Schließlich wird jede Form von Arbeit durch Maschinen ersetzbar.

Mit Sicherheit ist das eine utopie, aber im Grunde ist ihre Verwirklichung mindestens genauso wahrscheinlich/unwahrscheinlich wie die einer Dystopie mit Versklavung durch eine menschenfeindl. Superintelligenz. Ich wollte nur verdeutlichen, dass nicht nur Gefahr von einer SuperKI ausgeht...
Richard Schubert hat geschrieben:Der Unterschied zwischen Computern und dem menschlichen Gehirn ist doch ihre grundsätzliche Arbeitsweise. Wären der Computer hervorragend Redundanz erzeugen kann (ein gerastertes Bild aus Vektorgrafik (3D Spiel, Flash, SVG, etc.)), kann ein Gehirn hervorragend Redundanz herausrechnen. So muss das Gehirn letztendlich nur ein Paar KB pro Sekunde verarbeiten können. Gibt irgendwo Tabellen wo man überraschend feststellt, wie wenig dort eigentlich los ist. Nun muss man dem Computer nur noch beibringen ebenfalls Redundanz zu vermindern, was man mit Mustererkennung oder Ähnlichem bereits versucht.
Ich fürchte es ist eher umgekehrt. zumindest was den generellen Ansatz angeht. Denn das Gehirn ist bezügl. Redundanz fast nicht zu überbieten. Das wird spätestens deutlich wenn man Fälle wie http://en.wikipedia.org/wiki/Hydrocepha ... ional_case anschaut...
Benutzeravatar
Richard Schubert
Moderator
Beiträge: 106
Registriert: 27.02.2009, 08:44
Wohnort: Hohen Neuendorf (b. Berlin)
Kontaktdaten:

Re: neuronale Netze

Beitrag von Richard Schubert »

Chromanoid hat geschrieben:
Richard Schubert hat geschrieben:Der Unterschied zwischen Computern und dem menschlichen Gehirn ist doch ihre grundsätzliche Arbeitsweise. Wären der Computer hervorragend Redundanz erzeugen kann (ein gerastertes Bild aus Vektorgrafik (3D Spiel, Flash, SVG, etc.)), kann ein Gehirn hervorragend Redundanz herausrechnen. So muss das Gehirn letztendlich nur ein Paar KB pro Sekunde verarbeiten können. Gibt irgendwo Tabellen wo man überraschend feststellt, wie wenig dort eigentlich los ist. Nun muss man dem Computer nur noch beibringen ebenfalls Redundanz zu vermindern, was man mit Mustererkennung oder Ähnlichem bereits versucht.
Ich fürchte es ist eher umgekehrt. zumindest was den generellen Ansatz angeht. Denn das Gehirn ist bezügl. Redundanz fast nicht zu überbieten. Das wird spätestens deutlich wenn man Fälle wie http://en.wikipedia.org/wiki/Hydrocepha ... ional_case anschaut...
ich glaube wir meinen beide etwas anderes in Bezug auf Redundanz oder exakt das gleiche. Denn ich wollte damit sagen, dass das Gehirn redundanzgefüllte Daten wie Bilder, Töne, Gefühle sehr schnell bearbeiten kann, indem es diese auf die wesentlichen einfachen Bestandteile "auseinanderrechnet".
Produktivität über Performance - XNA Creators Club
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4258
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: neuronale Netze

Beitrag von Chromanoid »

Richard Schubert hat geschrieben:ich glaube wir meinen beide etwas anderes in Bezug auf Redundanz oder exakt das gleiche. Denn ich wollte damit sagen, dass das Gehirn redundanzgefüllte Daten wie Bilder, Töne, Gefühle sehr schnell bearbeiten kann, indem es diese auf die wesentlichen einfachen Bestandteile "auseinanderrechnet".
Denke auch... Wobei ich die besondere Effizienz vor allem auch in der parallelen Verarbeitung sehe... Da sind Grafikkarten vielleicht schon eine ganz interessante Näherung mit denen man mal KNN Experimente machen sollte... Ein Neocognitron würde sich da zum Beispiel außerordentlich anbieten...

:)
Seraph
Site Admin
Beiträge: 1174
Registriert: 18.04.2002, 21:53
Echter Name: Steffen Engel

Re: neuronale Netze

Beitrag von Seraph »

Chromanoid hat geschrieben:
Despotist hat geschrieben:Wenn die KI für dich entscheidet es wäre das Beste für alle wenn du nach Sibirien ziehst und deine Freundin sich mit jemandem anderen paaren soll? Die Leute sind kaum bereit sich "völlig" einer Regierung zu unterwerfen die vorgibt das Beste für alle (im Land) zu wollen. Wieso sollten sie dann auf die KI hören? Wie setzt sich die KI gegen Unwillige durch (Robo-Polizei)? Nach welchen Regeln geht sie vor?
Ich habe nirgendwo behauptet, dass die KI so etwas entscheiden soll. Wie wäre es mit einer absoluten Demokratie, bei der die KI durch Diskussion mit den Bürgern die allgemeine Meinung ermittelt und mit Berücksichtigung von Menschenrechten Entscheidungen trifft. Wir reden hier ja nicht über einen Computer sondern über eine Gott gleiche Instanz der Intelligenz.
Ich vermute mal, dass Du mit der absoluten Demokratie die unmittelbare Demokratie meinst. Ich weiss nicht, ob Dir bewusst ist, dass diese durchaus ihre Nachteile haben kann. Ich koennte mir vorstellen dass Dich einige durch das gesamte Volk getroffene Entscheidungen ueberraschen wuerden.

Davon abgesehen verstehe ich nicht, warum eine KI dann anhand der gesammelten Meinungen entscheiden soll. Ich denke das Volk sollte entscheiden? Und warum muss ueberhaupt eine KI entscheiden? Warum sollte sie besser entscheiden koennen als Menschen?
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4258
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: neuronale Netze

Beitrag von Chromanoid »

Seraph hat geschrieben:Ich vermute mal, dass Du mit der absoluten Demokratie die unmittelbare Demokratie meinst. Ich weiss nicht, ob Dir bewusst ist, dass diese durchaus ihre Nachteile haben kann. Ich koennte mir vorstellen dass Dich einige durch das gesamte Volk getroffene Entscheidungen ueberraschen wuerden.
Wie gesagt ich rede hier nicht über Computer sondern über eine Superintelligenz eine Art Mensch gemachter Gott. Diese Superintelligenz könnte mit den Menschen diskutieren und ihnen Nachteile ihrer Forderungen/Entscheidungen klar machen. Desweiteren würde Sie unvernünftige Entscheidungen automatisch so anpassen, dass es eben keine mehr sind. Man kann sich einfach eine göttliche Instanz vorstellen die zum Wohle aller handelt und dabei auf alle Rücksicht nimmt.
Seraph hat geschrieben:Davon abgesehen verstehe ich nicht, warum eine KI dann anhand der gesammelten Meinungen entscheiden soll. Ich denke das Volk sollte entscheiden? Und warum muss ueberhaupt eine KI entscheiden? Warum sollte sie besser entscheiden koennen als Menschen?
Sie würde nicht durch Lobbyismus, Bestechung, Vorurteile, Mauschelei, Vetternwirtschaft, Bürokratie usw. beeinträchtigt werden. Es würde alles schneller und besser gehen. Es gäbe keinen Machtmissbrauch mehr.

Wie gesagt das wäre natürlich nur unter einer wohlwollenden Gott gleichen Superintelligenz möglich, die sich vielleicht aus der ersten echten sich selbst verbessernden KI entwickeln könnte. Ich halte es mindestens genauso möglich wie die negative Variante.

Man muss sich einfach klar machen, dass man in beiden Fällen (Utopie und Dystopie) bestimmte nicht beweisbare Annahmen macht. Bei der Dystopie ist die SuperKI menschenfeindlich und schädigt uns. Bei der Utopie würde sie Menschen lieben und eben nur Gutes tun. Es ist also per Annahme schon gesichert, dass es gut oder eben schlecht ist. Viel diskutieren kann man da eigentlich gar nicht.
Despotist
Establishment
Beiträge: 394
Registriert: 19.02.2008, 16:33

Re: neuronale Netze

Beitrag von Despotist »

Chromanoid hat geschrieben: Zum Beispiel Lesen und Schreiben, rechnen, Biologie, Aufklärung usw.
Ich meinte das nicht auf die Fachgebiete bezogen sondern auf die vielen Informationen darin. Und du sollst sie mir auch nicht aufzählen sondern dir über das Problem bei dieser Frage klarwerden. Was ist gesichertes Wissen? Ist die Relativitästtheorie "endgültig" oder kann sie noch über den Haufen geworfen werden. Lehrt man Evolution oder Intelligent Design? Wenn du Evolution lehrst könnte es nicht trotzdem sinnvoll sein ID zu diskutieren um die "Schüler" zum kritischen Denken zu erziehen? Lehren ist nicht nur Wissen vermitteln sondern auch nachdenken lassen. Nachdenken ist zum Lösen von Problemen unerlässlich und wenn das die Leute nicht können können sie auch nicht die Entscheidungen der KI nachvollziehen.
Chromanoid hat geschrieben: Diese Superintelligenz könnte mit den Menschen diskutieren und ihnen Nachteile ihrer Forderungen/Entscheidungen klar machen.
Macht das die politische Opposition nicht? Vereine? Bürger?
Chromanoid hat geschrieben: Desweiteren würde Sie unvernünftige Entscheidungen automatisch so anpassen, dass es eben keine mehr sind.
Jede Entscheidung bringt für irgendwen Vorteile, und sei es der Grabgräber ;).
Chromanoid hat geschrieben: Man kann sich einfach eine göttliche Instanz vorstellen die zum Wohle aller handelt und dabei auf alle Rücksicht nimmt.
Du denkst also man kann es allen Recht machen? Ich denke das Versucht eine Regierung auch. Dann braucht man keine KI dafür sondern ein Modell oder Optimierungswerkzeug als Entscheidungssupportsystem für die Regierung reicht aus. Weit weniger komplex und dabei besser spezialisiert da Aufgabe klarer Umgrenzt. Und eine KI muss ja erst lernen. Du kannst sie nicht so konstruieren dass sie Gott per se spielen kann. Das heisst man wird auch mit Fehlern von ihr rechnen müssen oder nicht?
Ach und "göttlich" heißt für mich nichtexistent ;)
Chromanoid hat geschrieben: Sie würde nicht durch Lobbyismus, Bestechung, Vorurteile, Mauschelei, Vetternwirtschaft, Bürokratie usw. beeinträchtigt werden. Es würde alles schneller und besser gehen. Es gäbe keinen Machtmissbrauch mehr.
Die Petition gegen das Videospielverbot ist Lobbyismus. Es ist schlecht seine Meinung zu sagen in einer Demokratie?
Vorurteile wird auch die KI haben. Da es statistisch einwandfrei beweisen lässt dass der Geburtenrückgang mit dem Storchrückgang einhergeht und die Klimaerwärmung mit der Abnahme der Piraten wird auch sie dumme Entscheidungen treffen. Die Informationen sind immer limitiert und so kann es schon mal keine "optimale" Entscheidung geben.
Vetternwirtschaft traue ich der KI auch zu. Wenn sie sieht dass sie ihre Aufgabe nicht erfüllt (zb weil die Leute ihre Empfehlungen nicht umsetzen) wird sie dagegen etwas unternehmen und sich selbst zb mehr Rechenleistung zulegen, eine Werbecampange für sich selbst starten oder einen Unterdrückungsapparat aufbauen. Intelligent heißt nunmal die zur Verfügung stehenden Mittel zur Erfüllung eines Zieles zu verwenden.
Die Macht kann nur missbraucht werden weil es die Leute immer und immer wieder zulassen. Schwarzgeldkonten bei der CDU -> keiner wählt sie mehr. Agenda2010 bei der SPD -> keiner wählt sie mehr. Wenn sich die Regierung nicht an die Regeln hält die sie den Bürgern auferlegt oder nicht hält was sie verspricht weg damit. Wenn das "Stimmvieh" sich trotzdem immer wieder blenden lässt ist das der Freifahrtschein. Und es wird sicher einige geben die mit den Entscheidungen der KI nicht einverstanden sind.

Aber ich sehe worauf du hinauswillst. Die KI ist Neutral und gerecht. Solange es keine Hacker gibt oder die Programmierer Hintertüren lassen ;) Oder eine Interessengemeinschaft die die Entwicklung finanziert.

Fazit:
Ich sehe nicht wie künstliche Intelligenz Probleme lösen kann die die natürliche "Intelligenz" seit Jahrtausenden hat. Sie wird Entscheidungen treffen mit der die Leute unzufrieden sind und die durchaus auch Nachteile für irgendwen haben werden wie jetzt auch.
Wenn du sie "optimal" entscheiden lassen willst musst du vorgeben nach welcher Zielfunktion das "optimale" Resultat bestimmt wird. Wichtest du Wirtschaft stärker oder Umwelt? Viele Kinder oder aufgrund von Überbevölkerung wenige? Freiheit oder Sicherheit?
Der Mensch weiss leider nicht was gut für ihn ist bzw. er macht massenhaft Dinge die schlecht für ihn sind (rauchen). Ich sehe also keinen Markt für noch bessere Entscheidungen von wem auch immer.
Bevor du so ein Werkzeug einsetzt muss ein Umdenken (Aufklärung?) in den Köpfen passieren, sonst geht der Schuss nach hinten los. Und wenn das Umdenken passiert ist brauchst du deine KI imo nicht mehr.

Despotist
Alexander Kornrumpf
Moderator
Beiträge: 2113
Registriert: 25.02.2009, 13:37

Re: neuronale Netze

Beitrag von Alexander Kornrumpf »

Da es statistisch einwandfrei beweisen lässt dass der Geburtenrückgang mit dem Storchrückgang einhergeht und die Klimaerwärmung mit der Abnahme der Piraten wird auch sie dumme Entscheidungen treffen. Die Informationen sind immer limitiert und so kann es schon mal keine "optimale" Entscheidung geben.
Sorry, aber wenn ich sowas lese geht mir der Hut hoch. Korrelation ist noch keine Aussage über Abhängigkeit und Abhängigkeit ist noch keine Aussage über Kausalität. Worauf du anspielst ist ein netter Gag (der zudem durch die aktuellen Ereignisse am Horn von Afrika einen etwas faden Beigeschmack bekommt). Es ist kein "Fehler" in der Statistik (als Wissenschaft) und damit auch keine Fehlerquelle für eine KI. Du interpretierst hier in die Statistik Aussagen, die sie gar nicht trifft und sagst dann Statistik ist Mist.

Dennoch ist an der Kritik ein wahrer Kern. Ein Entscheidung die auf Basis von Statistik getroffen wird kann immer nur im Mittel gut sein. Wenn man von Statistik ausgeht muss man zwangsläufig zulassen, dass Rechte und Freiheiten weniger zum Wohle vieler eingeschränkt werden. Dieses Dilemma kann die beste KI nicht lösen.

Das Problem bei I Robot (habe das Buch leider nicht gelesen) ist doch nicht die dystropische KI. Über die brauchen wir wirklich nicht diskutieren. Das Problem ist eher die Entscheidung die der Roboter gefällt hat, als er Will Smith oder das Mädchen hätte retten können. Wie würdest du entscheiden?
Despotist
Establishment
Beiträge: 394
Registriert: 19.02.2008, 16:33

Re: neuronale Netze

Beitrag von Despotist »

Alexander Kornrumpf hat geschrieben: Sorry, aber wenn ich sowas lese geht mir der Hut hoch. Korrelation ist noch keine Aussage über Abhängigkeit und Abhängigkeit ist noch keine Aussage über Kausalität.
Ich weiß das und habe die Beispiele auch mit eine gewissen Ironie gemeint. Die Frage ist ob die KI das auch weiß. Da sie aus Echtwelt-Daten nur Modelle machen kann und diese dann interpretieren muss um zu einer Entscheidung zu kommen lässt es sich eben nicht vermeiden dass sie solche Fehler macht. Das wollte ich damit ausdrücken. Ich sage auch nicht dass Statistik Mist ist sondern dass die Anwendung eines falschen Modelles zu einer falschen Aussage oder Ergebnis führen kann. Die KI muss demnach also auch wissen welches Modell für welche Fragestellung am besten geeignet ist. Und oft bekommt man auch bei der Anwendung verschiedner Modelle auf dieselben Daten konträre Ergebnisse. Soll heißen das neben den anderen hier angesprochenen Problemen es auch für eine noch so tolle KI kein leichtes sein wird gute Entscheidungen zu treffen.
Alexander Kornrumpf hat geschrieben: Wie würdest du entscheiden?
Ich kann mich leider an die Szene nicht erinnern aber wenn es ne Schnecke war ist der Fall klar ;) Das ist ja das Problem dass bei sovielen Leuten auch so viele Meinungen existieren und selbst wenn manche gleich handeln das aus völlig unterschiedlichen Beweggründen tun können. Und da die Sprache und die Zeit limitiert ist kann sich die KI gar keinen detaillierten Überblick über die "Meinung des Volkes" machen. Was wohl darauf hinausläuft über den Willen hinwegzuregieren. Ich hätte kein Problem damit solange die Zielvorgaben und die Optimierungsstrategien weiterhin zur Diskussion stehen.

Ich hatte weiter oben geschrieben dass Intelligenz ist, mit den zur Verfügung stehenden Mitteln ein Problem zu lösen. Moral ist eine Einschränkung der Möglichkeiten/Mittel und sollte daher auch in Betracht gezogen werden. Das sollte Horrorszenarien verhindern.

Despotist
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4258
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: neuronale Netze

Beitrag von Chromanoid »

@Despotist
Ich verstehe nicht was es da zu diskutieren gibt :). Ich werde immer irgendeinen Weg finden deine Gegenargumente "pro KI" zu beantworten. Und sei es bloß mit dem Satz, dass die KI unvorstellbar intelligent und gut ist und sie deswegen die beste Lösung finden wird.
Despotist hat geschrieben:[...]Lehren ist nicht nur Wissen vermitteln sondern auch nachdenken lassen.[...]
Stell dir doch einfach mal das unvorstellbare vor (nicht wörtlich gemeint). Eine KI die alles besser als Menschen kann, kann sogar das Mensch sein besser. Die könnte auch die Leute nachdenken lassen usw.. Außerdem solltest du mal über Menschen nachdenken die es nicht so gut haben wie du, die würden sich sogar über stumpfes Wissen freuen ohne dass sie zum Nachdenken aufgefordert werden. Aber wie gesagt, da die KI per Definition alles besser als Menschen kann, kann sie auch besser lehren, egal welche Lehr/Lern-Methode du vorschlägst, die KI würde die beste erkennen und anwenden.
Despotist hat geschrieben:Macht das die politische Opposition nicht? Vereine? Bürger?
Die könnten ja auch weiterhin existieren. Sie könnten ihre Meinung weiterhin kund tun. Dann eben an eine KI. Und da die KI unvorstellbar klug und gut ist, wird sie die Meinung im Rahmen von "zum Wohle aller" respektieren.
Despotist hat geschrieben:Du denkst also man kann es allen Recht machen? Ich denke das Versucht eine Regierung auch. Dann braucht man keine KI dafür sondern ein Modell oder Optimierungswerkzeug als Entscheidungssupportsystem für die Regierung reicht aus. Weit weniger komplex und dabei besser spezialisiert da Aufgabe klarer Umgrenzt. Und eine KI muss ja erst lernen. Du kannst sie nicht so konstruieren dass sie Gott per se spielen kann. Das heisst man wird auch mit Fehlern von ihr rechnen müssen oder nicht?
Ach und "göttlich" heißt für mich nichtexistent
Man muss die KI ja nicht von Anfang an regieren lassen. Erst wenn sie unfehlbar geworden ist. Meinetwegen erst dann wenn am Himmel nicht nur der Mond zu sehen ist sondern auch das riesige Gehirn der SuperKI... Ich sage ja gar nicht, dass so eine KI besonders wahrscheinlich ist, aber genauso wie Leute sich einen Gott vorstellen, kann ich mir die Existenz einer solchen KI in ferner Zukunft vorstellen.... Stell dir mal vor du würdest ein Terrarium mit Ameisen besitzen. Für die Ameisen bist du eine Naturgewalt eine Gott gleiche Super KI, die Ihnen alles zur Verfügung stellt was sie zur glücklichen Existenz brauchen. (unter der Annahme, dass Ameisen in einem Terrarium bei guter Pflege glücklich leben können).
Despotist hat geschrieben:Jede Entscheidung bringt für irgendwen Vorteile, und sei es der Grabgräber .
Naja die KI würde eben das aussuchen was für alle das beste ist bzw. die beste Näherung daran. Und sie kann das weil sie wie ich schon erwähnte gott gleich bzw. unvorstellbar klug ist... Und btw. :) wenn du schon so pingelig mit meinen Ausführungen bist: Da es keine Arbeit mehr geben würde gäbe es sowieso keine Grabgräber mehr, die das betreffen könnte.
Despotist hat geschrieben:Vorurteile wird auch die KI haben.
Nein eine SuperKI wie ich sie beschreibe hat diese per Definition nicht. Sie würde alles besser können, einfach alles. Argumente, dass dies vielleicht nicht möglich ist, sind ungültig, da sie ja per Definition alles kann (gott gleich, unvorstellbar intelligent usw.)
Despotist hat geschrieben:Aber ich sehe worauf du hinauswillst. Die KI ist Neutral und gerecht. Solange es keine Hacker gibt oder die Programmierer Hintertüren lassen Oder eine Interessengemeinschaft die die Entwicklung finanziert.
Ein Gott lässt sich nicht manipulieren bzw. eine SuperKI... Das ist (mal wieder) per Definition nicht möglich (unvorstellbar intelligent usw.).
Despotist hat geschrieben:Bevor du so ein Werkzeug einsetzt muss ein Umdenken (Aufklärung?) in den Köpfen passieren, sonst geht der Schuss nach hinten los. Und wenn das Umdenken passiert ist brauchst du deine KI imo nicht mehr.
Da die KI alles besser kann, verstehe ich nicht warum man sie nicht alles machen lässt. Der Mensch wird immer fehlbar usw. sein sonst wäre er kein Mensch mehr. Würde er eine neue evolutionäre Stufe erreichen, dann würde ich das nicht mehr als Mensch betrachten... Der Mensch könnte ja hobbymäßig den Weltraum erkunden oder so, aber alles was er nicht bloß so zum Spaß macht, kann und sollte von der SuperKI getan werden.

btw: sorry für das offtopic ^^

Soll ich den Thread vielleicht auf splitten?
Seraph
Site Admin
Beiträge: 1174
Registriert: 18.04.2002, 21:53
Echter Name: Steffen Engel

Re: neuronale Netze

Beitrag von Seraph »

Soll deine gottgleiche wohlwollende Super-KI eine Gegendarstellung zur sonstigen Dystopie sein? Ich habe wahrscheinlich nicht alles in diesem Thread gelesen, aber was ist eigentlich der Sinn? Fuer mich klingt dieses Szenario irgendwie ziemlich ... unwahrscheinlich. Da halte ich sogar diverse Dystopien fuer eher moeglich.


@Despotist: Diese "Schnecke" ist afair ein 12jaehriges Maedchen gewesen. Das Problem war, dass der Roboter die Ueberlebenschancen beider berechnet hat und logisch entschieden hat. Er hatte halt eine hoehere Ueberlebenschance, also hat hat der Robot ihn gerettet. Allerdings wollte Will Smith, dass der Robot das Maedchen rettet, weil sie ihr Leben noch vor sich hatte, von daher war er halt nicht gut auf Robots zu sprechen.
Benutzeravatar
Zudomon
Establishment
Beiträge: 2254
Registriert: 25.03.2009, 07:20
Kontaktdaten:

Re: neuronale Netze

Beitrag von Zudomon »

Ich frage mich die ganze Zeit, warum eine KI Menschen helfen sollte. Das würde die nur in soweit machen, wie es ihr als feste Regel vorgeschrieben ist. Primär steht wohl wie bei allem Leben, das überleben. Dafür ist der Selbstschutz das wichtigste. Eine schlaue KI würde sich überlegen, wie sie ihren Einzugsbereich vergrößert, Ressourcen sichert, die Energienversorgung erhöht usw. denn umso mehr von allem vorhanden ist, umso gesicherter ist das überleben.
Warum sollte sie sich uns unterwerfen um uns zu dienen? Sie wird uns unterwerfen. Im besten Fall uns nicht mehr beachten. Vielleicht zeigt sie Nachsicht weil wir ihre erschaffer sind und packt uns ins Zoo's oder wir können wie Nutzvieh für irgendwas dienlich sein.
Sie würde die nächste Evolutionsstufe von Leben darstellen, die dann nicht mehr biologisch, sondern auf mechanischer Grundlage weiter existiert. Haben wir, nachdem wir uns vom Affen und ähnlichen abgespalten haben und intelligent wurden, uns darum bemüht, dass kein Affe mehr um ihr eigenes überlegben kämpfen müssen? Naja, außer die, die dann in Gehegen landen, um von Menschen angegafft zu werden.
Die KI wird entscheiden, Ressourcen sinnvoll zu nutzen, für ihre Zwecke und nicht dafür verschwenden, damit es den Menschen noch besser geht. Ich denke, alles andere ist nur Wunschdenken. Logisch betrachtet geht es immer um das gleiche. So wie jede Spezies ihre Nische beherrscht und andere verdrängt oder auslöscht, so werden auch die Maschinen ihre Nische finden und uns Menschen zu dem zurückbringen, was wir sind... Tiere.
Antworten