Des graphismes à couper le souffle...

 

Publié le Lundi 6 janvier 2014 à 11:20:00 par Cedric Gasperini

 

Des graphismes à couper le souffle...

L'avenir du jeu vidéo ?

Better Reality est une société polonaise spécialisée dans les effets spéciaux et qui travaille non seulement dans le domaine de la publicité, mais aussi pour Hollywood sur certains films. 

Ils ont développé pour la 20th Century Fox une nouvelle technologie capable de filmer les environnements en 3D et les retranscrire fidèlement sur ordinateur en images de synthèses. Cette technologie, baptisée Thorskan, n'est pas restreinte au monde du cinéma et sera utilisée dans le jeu vidéo.

Get Even, un jeu pour PC, Xbox One et PS4, développé par The Farm 51, un autre studio polonais, sera le premier à l'utiliser. Et peut-être pas le dernier, vu le rendu totalement bluffant de cette technologie.

Une vidéo montrant le résultat de Thorskan a été publiée. Notez qu'il ne s'agit pas d'une vidéo réelle, mais d'images de synthèse faites à partir d'un vrai environnement filmé.

 

 
image

 

 

 

 

Home

 

 

Commentaires

Ecrit par youri_1er le 06/01/2014 à 11:25

 

1

avatar

Inscrit le 04/12/2009

Voir le profil

J'imagine même pas le poid des textures!

Ce qui est très intéressant c'est la modélisation à partir de vidéo, pour avoir cherché à faire des truc dans ce genre à partir d'application existante c'est une vrais galère et souvent il faut passer de longues heures pour avoir un rendu simpliste!

3612 Commentaires de news

Ecrit par Mikis le 06/01/2014 à 11:26

 

2

avatar

Inscrit le 21/12/2011

Voir le profil

Pas sûr que ce soit l'avenir (enfin le seul avenir du jeu vidéo)

1444 Commentaires de news

Ecrit par ErGo_404 le 06/01/2014 à 11:44

 

3

avatar

Inscrit le 09/03/2010

Voir le profil

Reste plus qu'à filmer des vrais monstres à intégrer dedans, pour éviter d'avoir un décors sublime et des personnages et objets tout moches.

En tous cas c'est bluffant. J'aimerais bien avoir une idée de la machine nécessaire pour faire tourner tout ça.

735 Commentaires de news

Ecrit par kasasensei le 06/01/2014 à 12:36

 

4

avatar

Inscrit le 05/12/2010

Voir le profil

Ah ben voilà un truc qui impressionne un tant soit peu!

10693 Commentaires de news

Ecrit par Ploppi le 06/01/2014 à 15:21

 

5

avatar

Inscrit le 24/06/2009

Voir le profil

ok d'accord mais c'est vraiment transposable pour des jeux vidéos ? du moins pour le moment ?

ça veut dire qu'il n'y a pas une seule texture similaire et qu'il va falloir les charger par gros paquets.... si on rajoute à ça la qualité du bordel .... aie

J'ose même pas imaginer sur un environnement beaucoup plus grand :s

388 Commentaires de news

Ecrit par freyvane le 06/01/2014 à 15:25

 

6

avatar

Inscrit le 25/08/2013

Voir le profil

" L'avenir du jeu vidéo ? "

Catégoriquement, NON.

Parc contre une nouvelle manière de procéder qui va s'ajouter à d'autres déjà existantes, oui.


Déjà ces des textures uniques et m'est d'avis que l'éclairage est "baké" sur les textures au moment de la prise.
Parce qu'avoir un éclairage photo réalistes directement implanté sur les textures pour gagner en temps de calcule sur le rendu ... c'est un des premiers truc qu'on apprenait en 3D quand ont voulait utiliser la radiosité sur une séquence.

Ensuite j'aimerai bien voir la vu WireFrame, car je suis sur que l'objet doit avoir énormément de ressources qui sont du gaspillage de polygones.

Je doute également que cette façon de faire puisse générer les couches de textures les plus utiliser dans le rendu 3D temps réel des jeux vidéo.
La diffuse map, spécular map, normal map, l'alpha etc.


Bref, un outils qui a l'air exceptionnel dans un cas bien précis, mais qui ne sera jamais le but de l'évolution de la 3D; aussi bien au niveau artistique (le but la 3D n'est pas de faire que du photo réalisme) que technique ( capturer et rendre un décor en 3D veut dire que ce décors doit exister préalablement avec son éclairage; modélisation gaspillant énormément de polygones consommant ainsi beaucoup de ressources inutilement).

1536 Commentaires de news

Ecrit par Abaker le 06/01/2014 à 15:56

 

7

avatar

Inscrit le 05/11/2009

Voir le profil

Ecrit par freyvane

" L'avenir du jeu vidéo ? "

Catégoriquement, NON.

Parc contre une nouvelle manière de procéder qui va s'ajouter à d'autres déjà existantes, oui.


Déjà ces des textures uniques et m'est d'avis que l'éclairage est "baké" sur les textures au moment de la prise.
Parce qu'avoir un éclairage photo réalistes directement implanté sur les textures pour gagner en temps de calcule sur le rendu ... c'est un des premiers truc qu'on apprenait en 3D quand ont voulait utiliser la radiosité sur une séquence.

Ensuite j'aimerai bien voir la vu WireFrame, car je suis sur que l'objet doit avoir énormément de ressources qui sont du gaspillage de polygones.

Je doute également que cette façon de faire puisse générer les couches de textures les plus utiliser dans le rendu 3D temps réel des jeux vidéo.
La diffuse map, spécular map, normal map, l'alpha etc.


Bref, un outils qui a l'air exceptionnel dans un cas bien précis, mais qui ne sera jamais le but de l'évolution de la 3D; aussi bien au niveau artistique (le but la 3D n'est pas de faire que du photo réalisme) que technique ( capturer et rendre un décor en 3D veut dire que ce décors doit exister préalablement avec son éclairage; modélisation gaspillant énormément de polygones consommant ainsi beaucoup de ressources inutilement).

Oui et non. Car si un moteur fonctionnant sur le même principe commercial que unity s'y mettait ça pourrait permettre de créer des modèles originaux.
Pour cela il faudrait fragmenter les prises de vues et générer des modèles. Qui pourront être agglomérés ensuite.

C'est pas pour tout de suite mais c'est largement faisable. De plus cette méthode marche aussi pour les modèles humains ou montres. La difficulté devenant l'animation et le squelette.

Par contre je te rejoins sur l'éclairage. Si on suit le même principe qu'au dessus, le poids en mémoire serait énorme, donc pas jouable. Ou alors certains modèles de référence sur lequel tu rajouterai un éclairage dynamique. Qui pour le coup deviendrait moins gourmand en ressource.

Après j'ai aussi un doute sur le moteur physique. La déformation surtout. Il faudra que l'aggloméra de textures soit particulièrement fin pour reproduire un effet réaliste je pense. Mais là je ne suis pas sûr.

Bref à voir c'est super intéressant, et selon son exploitation cette technologie peut avoir un très belle avenir. Qui à la mélanger avec une modélisation traditionnelle.

1323 Commentaires de news

Ecrit par freyvane le 06/01/2014 à 16:17

 

8

avatar

Inscrit le 25/08/2013

Voir le profil

Ecrit par Abaker

Oui et non. Car si un moteur fonctionnant sur le même principe commercial que unity s'y mettait ça pourrait permettre de créer des modèles originaux.
Pour cela il faudrait fragmenter les prises de vues et générer des modèles. Qui pourront être agglomérés ensuite.

C'est pas pour tout de suite mais c'est largement faisable. De plus cette méthode marche aussi pour les modèles humains ou montres. La difficulté devenant l'animation et le squelette.

Par contre je te rejoins sur l'éclairage. Si on suit le même principe qu'au dessus, le poids en mémoire serait énorme, donc pas jouable. Ou alors certains modèles de référence sur lequel tu rajouterai un éclairage dynamique. Qui pour le coup deviendrait moins gourmand en ressource.

Après j'ai aussi un doute sur le moteur physique. La déformation surtout. Il faudra que l'aggloméra de textures soit particulièrement fin pour reproduire un effet réaliste je pense. Mais là je ne suis pas sûr.

Bref à voir c'est super intéressant, et selon son exploitation cette technologie peut avoir un très belle avenir. Qui à la mélanger avec une modélisation traditionnelle.

De toute façon, à partir du moment ou tu peux reprendre le mesh pour le retravailler et le rendre plus propre, je me fait pas de soucis la dessus; par contre à voir comment l'UV est généré pour la texture; de même qu'une personne qui génère un UV sous Z-Brush se retrouve avec une texture quasiment impossible à éditer sous photoshop.

Ce qui est le point fort de la 3D, c'est justement de créer des décors non existant, qu'on peut rendre photo réaliste, c'est pas le problème.

Donc pour moi ce procédé est ultra performant uniquement si c'est un décors bien précis de la réalité que l'on veut transposer en virtuel, ce qui permet un gain de temps niveau prod énorme avec comme contrainte une édition quasi figé.

Pour les objets uniques, c'est un vieux procédé, il y a des scanners 3D depuis plus d'un décennie. Mais le soucis c'est que le mesh est non optimisé aussi bien pour le nombre de polygone généré inutilement, que pour la topologie du modèle.

1536 Commentaires de news

Ecrit par psycow le 06/01/2014 à 20:39

 

9

avatar

Inscrit le 01/05/2009

Voir le profil

ca me fait penser à ce que je m'amusais à faire il y a quelques mois à 123D Catch
je dirais que c'est le principe de Photogrammétrie qui est utilisé ici. A voir surtout la quantité d'intervention humaine pour affiner les points de concordances.

83 Commentaires de news

Ecrit par Abaker le 07/01/2014 à 05:23

 

10

avatar

Inscrit le 05/11/2009

Voir le profil

Ecrit par freyvane

De toute façon, à partir du moment ou tu peux reprendre le mesh pour le retravailler et le rendre plus propre, je me fait pas de soucis la dessus; par contre à voir comment l'UV est généré pour la texture; de même qu'une personne qui génère un UV sous Z-Brush se retrouve avec une texture quasiment impossible à éditer sous photoshop.

Ce qui est le point fort de la 3D, c'est justement de créer des décors non existant, qu'on peut rendre photo réaliste, c'est pas le problème.

Donc pour moi ce procédé est ultra performant uniquement si c'est un décors bien précis de la réalité que l'on veut transposer en virtuel, ce qui permet un gain de temps niveau prod énorme avec comme contrainte une édition quasi figé.

Pour les objets uniques, c'est un vieux procédé, il y a des scanners 3D depuis plus d'un décennie. Mais le soucis c'est que le mesh est non optimisé aussi bien pour le nombre de polygone généré inutilement, que pour la topologie du modèle.

Ok :p

Alors je connais les avancées techno et ce qu'elles apportent mais ce n'est pas du tout mon métier. Donc la théorie je peux en parler mais les termes techniques, non. ^^

Tu pourrais me la refaire en un peu moins techno stp. ;)

1323 Commentaires de news

Ecrit par youri_1er le 07/01/2014 à 09:21

 

11

avatar

Inscrit le 04/12/2009

Voir le profil

Ecrit par Abaker

Ok :p

Alors je connais les avancées techno et ce qu'elles apportent mais ce n'est pas du tout mon métier. Donc la théorie je peux en parler mais les termes techniques, non. ^^

Tu pourrais me la refaire en un peu moins techno stp. ;)
En ros, c'est beau à voir mais salement crade à utiliser (et vraiment trop énergivore).

Pour moi ça à bien plus d'intérêt dans le domaine pro que pour le JV, car en JV l'on ne souhaite pas rendre du réel (ou rarement).

3612 Commentaires de news

Ecrit par freyvane le 07/01/2014 à 11:25

 

12

avatar

Inscrit le 25/08/2013

Voir le profil

Ecrit par youri_1er

En ros, c'est beau à voir mais salement crade à utiliser (et vraiment trop énergivore).

Pour moi ça à bien plus d'intérêt dans le domaine pro que pour le JV, car en JV l'on ne souhaite pas rendre du réel (ou rarement).

@Abaker

Voila, Youri à résumé ce que je voulais dire : )

Le mesh désigne l'objet constitué de polygone.

En 3D pour appliquer une texture il y a plusieurs procédés. Cela peut être une simple projection (concept identique à la projection cinématographique d'une image sur une surface plane comme l'écran de cinéma), ou cela peut être plus complexe et on utilise un espace UV.

L'UV d'un objet ca correspond à déplié entièrement le mesh pour ensuite lui attribuer des textures. Cela permet "d'enrober" le mesh de "sa" texture qui lui sera "cloué" dessus.
Contrairement à une projection où l'objet reçoit une texture mais comme un projecteur, si tu cibles pas correctement l'écran, l'image ne sera pas bien centré (euh, je vais pas parler des 3 types de coordonnées utilisé en 3D "local" "monde et "parent" pour pas embrouiller).

En générale, on utilise l'UV pour les objets d'un décors qui ont une texture unique non répétables; mais pas pour les murs ou le sol par exemple, c'est des généralement des "pans" répétitifs de texture pour couvrir une grande surface.
Hors là (salut Guy... comprendra qui pourra), c'est une texture unique qui est capturé par leur procédé, donc à voir comment l'UV est généré lors de la capture.

Car même si on peut retoucher le mesh dans un logiciel 3D pour supprimer les polygones inutiles, quid de la transformation de l'UV automatiques derrière sur l'UV ?

Voila un lien que j'ai trouvé rapidos qui montre la différence entre un UV déplié "à la main" de l'objet, ou l'on distingue les parties de la "bête" distinctement, ce qui permet de retoucher facilement sous photoshop si besoin.
Et un UV généré automatiquement où on a plus que des carrés, ce qui rend une édition très trés limité sous photoshop.
http://www.artstorm.net/journal/2007/08/destrachan-made-a-decent-uv-map/

Voila, après je suis infographiste 3D mais je ne suis pas ingénieur sur ces technologies et leur développement.
Peut être qu'ils ont justement répondu à ces contraintes pour permettre aux infographistes de l'intégrer facilement dans divers appli et support sans gaspiller trop de ressource.

1536 Commentaires de news

Ecrit par youri_1er le 07/01/2014 à 13:45

 

13

avatar

Inscrit le 04/12/2009

Voir le profil

Ecrit par freyvane

@Abaker

Voila, Youri à résumé ce que je voulais dire : )

Le mesh désigne l'objet constitué de polygone.

En 3D pour appliquer une texture il y a plusieurs procédés. Cela peut être une simple projection (concept identique à la projection cinématographique d'une image sur une surface plane comme l'écran de cinéma), ou cela peut être plus complexe et on utilise un espace UV.

L'UV d'un objet ca correspond à déplié entièrement le mesh pour ensuite lui attribuer des textures. Cela permet "d'enrober" le mesh de "sa" texture qui lui sera "cloué" dessus.
Contrairement à une projection où l'objet reçoit une texture mais comme un projecteur, si tu cibles pas correctement l'écran, l'image ne sera pas bien centré (euh, je vais pas parler des 3 types de coordonnées utilisé en 3D "local" "monde et "parent" pour pas embrouiller).

En générale, on utilise l'UV pour les objets d'un décors qui ont une texture unique non répétables; mais pas pour les murs ou le sol par exemple, c'est des généralement des "pans" répétitifs de texture pour couvrir une grande surface.
Hors là (salut Guy... comprendra qui pourra), c'est une texture unique qui est capturé par leur procédé, donc à voir comment l'UV est généré lors de la capture.

Car même si on peut retoucher le mesh dans un logiciel 3D pour supprimer les polygones inutiles, quid de la transformation de l'UV automatiques derrière sur l'UV ?

Voila un lien que j'ai trouvé rapidos qui montre la différence entre un UV déplié "à la main" de l'objet, ou l'on distingue les parties de la "bête" distinctement, ce qui permet de retoucher facilement sous photoshop si besoin.
Et un UV généré automatiquement où on a plus que des carrés, ce qui rend une édition très trés limité sous photoshop.
http://www.artstorm.net/journal/2007/08/destrachan-made-a-decent-uv-map/

Voila, après je suis infographiste 3D mais je ne suis pas ingénieur sur ces technologies et leur développement.
Peut être qu'ils ont justement répondu à ces contraintes pour permettre aux infographistes de l'intégrer facilement dans divers appli et support sans gaspiller trop de ressource.
Très honnêtement je pense que la scéne est immuable, donc pas de jeu sur les UV!
De plus je pense qu'au niveau des mesh c'est du point (radar 3D) qui est simplifié via un algo de choix de point max par zone.

ça se fait bien quand tu fait des MNT 3D sous AutoCAD par exemple, il faut faire quelques choix pertinents pour obtenir moins de points sur certaines zones tout en conservant un max de point quand c'est nécessaire.

Pour moi la scène est petite et en intérieur ce qui montre les limites de l'outil et même si c'est impressionnant par rapport aux outils dont on dispose actuellement, il dépend surtout du temps de travail sur la scène pour bien s'en rendre compte.

3612 Commentaires de news


Ajouter un commentaire

Vous devez être inscrit sur le site pour poster un commentaire

Derniers Commentaires

19175-thorskan-3d-film-images-jeu-video-graphisme