Linkdump

Hier kann über allgemeine Themen diskutiert werden, die sonst in kein Forum passen.
Insbesondere über Szene, Games, Kultur, Weltgeschehen, Persönliches, Recht, Hard- und Software.
Benutzeravatar
xq
Establishment
Beiträge: 1487
Registriert: 07.10.2012, 14:56
Alter Benutzername: MasterQ32
Echter Name: Felix Queißner
Wohnort: Stuttgart & Region
Kontaktdaten:

Re: Linkdump

Beitrag von xq »

UDP-NAT-Punching ohne vorherige Kenntnis des anderen Peers, es reicht, dass eine Seite die IP kennt
https://github.com/samyk/pwnat
War mal MasterQ32, findet den Namen aber mittlerweile ziemlich albern…

Wer checkt diese Shaderprogrammierung denn?
JCL: Kein Mensch zwingt Sie jedoch, mit Shadern oder ueberhaupt mit Gamestudio zu arbeiten. Es gibt schliesslich auch andere schoene Hobbies, wie zum Beispiel das Sammeln von Bierdeckeln – JCL quotes
NytroX
Establishment
Beiträge: 214
Registriert: 03.10.2003, 12:47

Re: Linkdump

Beitrag von NytroX »

Cool. Zwar schon etwas älter, aber immer noch interessant/relevant.
Das mit den doppelten NATs war mir neu, aber zum Rest: Skype macht das so... O_O
Benutzeravatar
Jonathan
Establishment
Beiträge: 1639
Registriert: 04.08.2004, 20:06
Kontaktdaten:

Re: Linkdump

Beitrag von Jonathan »

Ok, letztendlich bedeutet das aber doch, dass Portfreigabe mehr oder weniger endgültig ausgehebelt ist, oder? Sprich, jetzt hat der kleine Entwickler den Mehraufwand, weil er jetzt solche komplizierteren Techniken implementieren muss, während die ganzen großen Entwickler das einfach nebenher mit machen, oder?

Ist das denn ansonsten eine echte Sicherheitsbedrohung die man raus-patchen wird oder zumindest sollte, oder bleibt das jetzt einfach für immer so?
Lieber dumm fragen, als dumm bleiben!
Benutzeravatar
Schrompf
Moderator
Beiträge: 4280
Registriert: 26.02.2009, 00:44
Benutzertext: Lernt nur selten dazu
Echter Name: Thomas Ziegenhagen
Wohnort: Dresden
Kontaktdaten:

Re: Linkdump

Beitrag von Schrompf »

Hä? NAT-Punchthrough braucht immer eine Gegenseite, die zum gleichen Zeitpunkt mitarbeitet. Da gibt's keine Anlaufstelle, zu der zu irgendnem Zeitpunkt jemand ein Portforwarding einrichten könnte
Häuptling von Dreamworlds. Baut an was Neuem. Hilft nebenbei nur höchst selten an der Open Asset Import Library mit.
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4060
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: Linkdump

Beitrag von Chromanoid »

Ziemlich spannende Infos aus dem Epic / Apple Krieg schön zusammengefasst:
https://newsletter.gamediscover.co/p/th ... -takeaways

Fortnite
Bild

Free Games
Bild
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4060
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: Linkdump

Beitrag von Chromanoid »

https://intel-isl.github.io/PhotorealismEnhancement/ Neuronales Verbessern von Renderings. Ich bin gespannt, was da noch draus wird. Das kommt mir sehr erfolgsversprechend vor - gerade für niedrige LOD-Stufen verbessern (Gras und so).
Benutzeravatar
Krishty
Establishment
Beiträge: 7502
Registriert: 26.02.2009, 12:18
Benutzertext: state is the enemy
Kontaktdaten:

Re: Linkdump

Beitrag von Krishty »

> Video über die fortgeschrittenste Rendering-Technik bisher
> 720p mit 20fps

Das ist hoffentlich bloß Zufall.
seziert Ace Combat, Driver, und S.T.A.L.K.E.R.   —   rendert Sterne
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4060
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: Linkdump

Beitrag von Chromanoid »

Ja das fand ich auch ziemlich schade. Ich kann mir kaum vorstellen, dass das kein Zufall ist...

edit: huch ich hab da die doppelte Verneinung nicht richtig hinbekommen m(.
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4060
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: Linkdump

Beitrag von Chromanoid »

Ich glaube, dass da Absicht hinter steckt. Alles andere macht für mich keinen Sinn. Die Präsentation ist ja sonst ziemlich gepolished. Auch das Erklärvideo haben sie in 4k 60p hinbekommen. Warum nicht die bloßen Aufnahmen? Der Präsentator macht jetzt auch nicht den Eindruck, als wenn er vor solchen Tricks zurückschreckt :)... Dauert halt noch ein bisschen bis so Zeug ausgereift ist. Vielleicht sollte man sich das allg. auch mal auch ohne neuronale Netze anschauen. Keine Ahnung, ob das gemacht wird. Ich meine SSAO o.Ä. erreichen ja auch schon nette Effekte. Neuronale Netze sind da sicher spannend, weil sie unspezifischer arbeiten können. Aber wenn man sich anschaut, dass die im vorgestellten Paper nach Content separieren, könnte ich mir gut vorstellen, dass herkömmliche Algorithmen auf der Ebene auch ebenfalls gute und viel gezieltere Ergebnisse liefern können.
Benutzeravatar
Jonathan
Establishment
Beiträge: 1639
Registriert: 04.08.2004, 20:06
Kontaktdaten:

Re: Linkdump

Beitrag von Jonathan »

Ziemlich beeindruckend. Vor allen Dingen die temporale Konsistenz fand ich schon ziemlich cool.
Allerdings weiß ich nicht, ob ich das als Rendering-Paper beschreiben würde und ob ich es glaubwürdig finde, dass man damit in Zukunft Spiele macht. Das Netzwerk ist halt auf vorhandenen Datensätzen trainiert und funktioniert daher im Wesentlichen für Straßenszenen. Damit ist die Technik fundamental anders, als Dinge wie DLSS, was man ja prinzipiell für jedes Spiel trainieren kann. Für den Datensatz hier wurden aber halt nicht nur zehntausende Bilder aufgenommen, sondern auch per Hand segmentiert (Und zwar von anderen Forschergruppen, für ein einzelnes Paper wäre der Aufwand dafür viel zu hoch). Und vergleichbare Datensätze gibt es nur für ganz wenige und schon gar nicht für jede Art von Spielszene, die man gerade brauche. Und im Gegensatz zu Einschränkungen wie "es läuft mit 2 FPS auf der schnellsten verfügbaren Grafikkarte" (laut Paper), ist das wirklich ein Problem was man nicht so einfach lösen kann.

Spannender wäre da IMO eine Art "Super-High-Detail"-Mode für Spiele zu erzeugen. Dank Techniken wie Photogrametrie und Raytracing kriegt man das ja prinzipiell hin. Auf jeden Fall dürfte es wesentlich weniger Arbeit sein, Objekte einfach einzuscannen, als einen riesigen Datensatz von Bildern zu erzeugen und zu labeln, mit denen man einen solchen Transfer dann KI getrieben machen kann. Und mehr (künstlerische) Kontrolle hat man sowieso. Und dann könnte man halt versuchen ein Netzwerk zu trainieren, dass normale Renderings auf solche Super-HD Renderings transferiert.

Ich will das Paper nicht schlecht reden, das sieht nach guter Arbeit aus und die Ergebnisse sind toll. Aber es macht halt nicht das, was man vielleicht zunächst denkt. Schon gar nicht, wenn es im Kontext von Spieleprogrammierung gezeigt wird und nicht auf einer Computer-Vision Konferenz.
Lieber dumm fragen, als dumm bleiben!
Benutzeravatar
Chromanoid
Moderator
Beiträge: 4060
Registriert: 16.10.2002, 19:39
Echter Name: Christian Kulenkampff
Wohnort: Lüneburg

Re: Linkdump

Beitrag von Chromanoid »

Ich bin ja immer am rätseln, ob diese Art von neuronalen Netzen im Grunde eine "hübsche Sackgasse" sind. Ich finde es vor allem schade, dass immer so riesige Datasets genutzt werden. Ich frage mich, ob das wirklich sein muss, gerade wenn man 3D-Daten zusätzlich als Eingabe nutzen kann. Ich glaube KNN sind sehr geeignet dazu für das menschliche Auge hinreichende Näherungen hinzupatschen, die dann eben nicht so viel Rechenkapazität benötigen wie traditionelle Algorithmen (mal ein Beispiel, was ich meine: http://www.theorangeduck.com/media/uplo ... f/nnao.pdf).
Benutzeravatar
Jonathan
Establishment
Beiträge: 1639
Registriert: 04.08.2004, 20:06
Kontaktdaten:

Re: Linkdump

Beitrag von Jonathan »

Ich glaube, dass man diese riesigen Datenmengen prinzipbedingt immer brauchen wird. Du willst ja bei solchen Ansätzen anhand von Beispielen lernen, wie die Realität funktioniert und die Realität ist nunmal sehr kompliziert, also brauchst du extrem viele Beispiele, um das irgendwie abzudecken. Das scheint mir erstmal unumgänglich. Ein paar Dinge die man aber machen kann:

- besser augmentieren (Beispiel für Fotos): Standardmäßig wird das ja eigentlich immer gemacht und gerade für photorealistische Szenen ist das glaube ich schwer. Man kann sehr gut Kameraparameter (Belichtung, Kontrast, Ausschnitt usw.) gut anpassen, aber die Szenen selber eher nicht.
- Unsupervised Learning (Beispiele). Ich bin mir der genauen Fachbegriffe gerade unsicher, aber die Idee ist, dass z.b. Netzwerke selber Korrespondenzen zwischen Bildern lernen. Man gibt dem Netzwerk zwar einen riesigen Berg Fotos, aber die müssen vorher nicht von einem Menschen manuell segmentiert / annotiert werden. D.h. man kann alles, was man z.B. auf Flickr oder so findet direkt benutzen. Typische Egoshooterszenen in Alien Raumschiffen wirst du damit aber auch nicht gelernt bekommen.
- Man kann synthetische Daten benutzen. Das ist total super bei allem was man berechnen kann. Für Super Sampling oder Ambient Occlusion kann man mit ziemlich wenig Aufwand (Änderung der Algorithmen) ziemlich leicht beliebig viele Daten erzeugen und damit sein Netzwerk trainieren. D.h. man braucht genau so viele Daten wie für andere Aufgaben, aber kann halt sehr einfach an diese Daten rankommen. Was ich oben meinte (von Super-HD Mode lernen) geht in die selbe Richtung, nur das man sich eben Mühe gibt, mehr Daten zu erzeugen, dafür dann aber auch mehr Aufgaben lösen kann.

Interessant fand ich ein Kommentar der Entwickler aus dem Black-Mesa Mod für Half-Life. Die Erdlevels in hoher Qualität nachzubauen war halbwegs einfach, die meisten alten Objekte sahen zwar schlecht aus, aber man wusste halt, dass sie ein Stuhl oder eine Tastatur oder sowas sein sollten. Für die Alienwelt Xen galt das nicht, es gab komische Alienstrukturen mit wenig Polygonen und wenig Pixeln und die Entwickler mussten lange überlegen, wie sowas denn jetzt in echt aussehen soll. Prinzipiell ist das also genau das selbe Problem (zu wenig Daten) und es scheint mir ein recht fundamentales zu sein.

Was ich momentan glaube ich mit am spannensten finde ist die Frage, inwieweit man allgemeine Approximationen für Funktionen lernen kann. Soweit ich weiß, muss ja z.B. DLSS für jedes Spiel einzeln trainiert werden, ich schlimmsten Falle sogar für jedes einzelne Level, da nur bei recht ähnlichen Eingabebildern die Qualität maximal wird. Aber wenn man jetzt z.B. den gesamten globalen Lichttransport approximieren könnte (was ja z.B. ein guter Künstler auch tut wenn er ein Bild malt), dann könnte man schon richtig viel Rechenzeit sparen. Und das wäre ja vielleicht auch gerade so ein Effekt, wo unser Auge selbst nicht so genau weiß, was richtig ist und sich von ähnlichen, aber plausiblen Bildern vielleicht ganz gut täuschen lassen könnte.
Lieber dumm fragen, als dumm bleiben!
Benutzeravatar
Krishty
Establishment
Beiträge: 7502
Registriert: 26.02.2009, 12:18
Benutzertext: state is the enemy
Kontaktdaten:

Re: Linkdump

Beitrag von Krishty »

Jemand hat sich Nanite (das mit den Milliarden Dreiecken) in RenderDoc angeschaut: http://www.elopezr.com/a-macro-view-of-nanite/

Enthält lustige Tricks, wie dass der Compute Shader Quads erzeugt, die dann wiederum auf den Viewport gerendert werden.
seziert Ace Combat, Driver, und S.T.A.L.K.E.R.   —   rendert Sterne
Benutzeravatar
xq
Establishment
Beiträge: 1487
Registriert: 07.10.2012, 14:56
Alter Benutzername: MasterQ32
Echter Name: Felix Queißner
Wohnort: Stuttgart & Region
Kontaktdaten:

Re: Linkdump

Beitrag von xq »

https://twitter.com/emollick/status/140 ... 20/photo/1

Visualisierung der Straßenrichtung diverser Städte
Bild
War mal MasterQ32, findet den Namen aber mittlerweile ziemlich albern…

Wer checkt diese Shaderprogrammierung denn?
JCL: Kein Mensch zwingt Sie jedoch, mit Shadern oder ueberhaupt mit Gamestudio zu arbeiten. Es gibt schliesslich auch andere schoene Hobbies, wie zum Beispiel das Sammeln von Bierdeckeln – JCL quotes
Benutzeravatar
Krishty
Establishment
Beiträge: 7502
Registriert: 26.02.2009, 12:18
Benutzertext: state is the enemy
Kontaktdaten:

Re: Linkdump

Beitrag von Krishty »

Das BeamNG-Team hat einen Artikel über die Probleme, ihr Deformationsmodell auf Reifen anzuwenden: https://beamng.com/game/news/blog/tire-physics-changes/

Ähnliche Artikel vom iRacing-Team 2010: https://www.iracing.com/the-sticking-po ... ing-tires/ und https://www.iracing.com/physics-modelin ... info-plus/

Reifen sind und bleiben die härteste Nuss in Rennspielen.
seziert Ace Combat, Driver, und S.T.A.L.K.E.R.   —   rendert Sterne
Antworten