PLAYSTAR

Jeux vidéo et technologies
 
AccueilAccueil  FAQFAQ  RechercherRechercher  S'enregistrerS'enregistrer  MembresMembres  GroupesGroupes  Connexion  

Partagez | 
 

 PC (2)

Voir le sujet précédent Voir le sujet suivant Aller en bas 
Aller à la page : Précédent  1 ... 10 ... 17, 18, 19 ... 21 ... 25  Suivant
AuteurMessage
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Mar 1 Aoû 2017 - 18:14

À la fin sebbbi ne s'occupait pas que de Trials d'ailleurs il avait des responsabilités techniques accrus chez UBI cote console. Parce qu'il est bon mais aussi parce que ce n'est pas un dev PC et que c'était une autre branche de code bien différentes....


Dernière édition par chris1515 le Mar 1 Aoû 2017 - 23:29, édité 1 fois
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Mar 1 Aoû 2017 - 18:18

À part ID software qui utilise Vulkan il ne doit pas y avoir des masses de studios à avoir une base de code qui est en majorité commune entre PC et consoles. Ils utilisent aussi les shaders intrinsics, et maintenant les FP16 et même le dual rate fp16, compute et Asynch compute.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
fdroopy
Xbox One
Xbox One
avatar

Nombre de messages : 9141
Age : 42
Localisation : Québec, Québec, Canada
Pseudo PSN : fdroopy
Consoles : PC, PSP, Vita, PS4
Date d'inscription : 12/06/2006

MessageSujet: Re: PC (2)   Mar 1 Aoû 2017 - 18:42

Chris, le probleme est que bcp de dev sont multi plateformes.. donc PC.. donc les dev vont pas se la fouler.. my 2 cents
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Mar 1 Aoû 2017 - 18:47

fdroopy a écrit:
Chris, le probleme est que bcp de dev sont multi plateformes.. donc PC.. donc les dev vont pas se la fouler.. my 2 cents

Pas forcément quand tu lis les présentations ID Software, ou de Activision autour de Call of duty, le code console est optimisé pour Xbone. Cela ne veut pas dire que le code PC est le même que le code console...

Sebbbi sur son titre il se fait chier à coder pour DX11 PC, DX 12 PC, GPU AMD, GPU Nvidia, XB1 et FP16(XBX)... Son dev est plutôt orienté Xbox sur console mais vu que les GPUs sont relativement proches si la PS4/PS4 Pro n'est pas poussée ça reste correct... Après ça ne veut pas dire que c'est exactement le même code sur PC et console. Il passe plus de temps à optimiser son code sur consoles...

Chaque versions du code GPU est une branche différente dans son code...


Dernière édition par chris1515 le Mar 1 Aoû 2017 - 19:16, édité 2 fois
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Mar 1 Aoû 2017 - 18:49

Sur les AAA les équipes ont l'air d'avoir les moyens d'avoir deux branches de code entre le PC et les consoles...

Pareil pour DiCE ils font l'effort... En tout cas c'est optimisé Xbox One donc ça tourne un peu mieux sur PS4 sans la pousser dans ses derniers retranchements...


Dernière édition par chris1515 le Mar 1 Aoû 2017 - 19:24, édité 3 fois
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Mar 1 Aoû 2017 - 18:50

Un truc marrant optimiser un titre Xbone réduit fortement son potentiel sur Xbone X.

Avoir des titres optimisés pour l'architecture mémoire PS4 cela doit mieux tourner qu'un titre qui prend pour base la Xbone..
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
TS_JBG
Xbox
Xbox
avatar

Nombre de messages : 2881
Age : 32
Localisation : Vincennes, Val de Marne
Pseudo PSN : TS_JBG
Consoles : Playstation2, Playstation3, PSP, PS Vita, Playstation 4
Date d'inscription : 17/01/2008

MessageSujet: Re: PC (2)   Mar 1 Aoû 2017 - 22:54

Art, Intel/Nvidia n'ont aucun intérêt à s'occuper du marché console, d'une part parce qu'aucun ne peut fournir d'APU qui seront à nouveau de manière évidente la base des prochaines consoles, d'autre part parce que ce marché à faible bénéfice ne les intéresse pas.
Ensuite parce que MS et Sony peuvent se brosser pour avoir un design adapté (et nintendo d'ailleurs aussi)
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Jeu 3 Aoû 2017 - 13:53

http://diit.cz/clanek/architektura-radeon-rx-vega

LEs slides de la présentation SIGGRAPH de Vega

Anoter que d'après sebbbi l'archi Ryzen est top mais qu'Intel a un avantage car ils peuvent monter plus haut en fréquence car le process de fabrication est meilleur que celui des CPUs Ryzen:

Citation :
According to many sources GF 14nm is clearly behind Intel's new 14nm+ (introduced in Kaby Lake).

Quote: Looking at the node specifications, we can see that the Intel 14nm process remains superior to the GLOBALFOUNDRIES 14nm process. In fact, looking at the CPP, Fin Pitch and Metal Pitch we can see that the node is around 11% – 18% better than the one used by GLOBALFOUNDRIES. This means that not only can the Intel die space house more transistors inside, but that Intel has a larger die space to begin with.

Link: http://wccftech.com/ryzen-smaller-die-intel-zen-architecture-not-good-hpc/

Intel got +200 MHz base clock increase and +300 MHz (1c) turbo increase when they moved from their original 14nm process to their refined 14nm+ process. And both 6700K and 7700K are running at identical 91W TDP. Intel has always been ahead of process technology compared to others, because of their finances and because they can design the chip and their own process hand in hand. Now other's are closer than ever, but Intel still has a lead. Imagine how good Ryzen would have been if GF process was as good as Intel's 14nm+.

Without digging any facts, we can do the following mind game: Assume similar potential GF process gains as Intel Skylake 14nm -> Kaby 14nm+. We would get Ryzen 1800X running at 3800 Mhz base and 4300 Mhz turbo. That's 5.5% multi-threaded and 7.5% single threaded clock boost. This would have resulted Ryzen being practically better across the board, instead of beating Intel in highly multi-threaded tasks and losing in single threaded tasks. Process still matters a lot.

Obviously the situation with GPUs is completely different. There's no Intel around with their node advantage over others. So we can't assume that Nvidia's advantage is process based, unless someone with more knowledge posts process comparison including hard numbers.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
Kaiser_Gun
Xbox
Xbox
avatar

Nombre de messages : 2920
Age : 33
Localisation : Madagascar
Date d'inscription : 08/07/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 1:51

Ar† a écrit:
Faut arrêter le délire avec les drivers, ...

Personnellement je trouve que les drivers ont une certaine importante.
J'ai eu une HD6850 de sa sortie jusqu'à aujourd'hui. Et j'ai bien vu l'évolution des performances de driver en driver durant ces 6 dernières années. Du moins les années où ça a été soutenu sur Windows.

Sur Linux, on voit bien l'impact des drivers.
Toujours avec la HD6850 je suis passé de 45fps pas plus sur Dota en Avril 2014 à plus de 70fps en Janvier de l'année suivante.

Autre chose aussi c'est que pour estimer les performances dans un jeu vidéo, je fais rarement confiance aux benches synthétiques. Déjà parce que si ça avait été le cas, on aurait les mêmes performances sur Windows et Linux. Ce qui n'est pas le cas.

Je vais prendre le cas de Deus Ex sur Linux. Mais j'aurai pu prendre le cas de n'importe quel jeu.

Alors il faut savoir que sur Linux il y a 2 types de criver:
- Open-source
- Propriétaire

L'avantage avec les cartes AMD c'est que les 2 drivers peuvent être exploités. Ce qui n'est pas le cas pour Nvidia où c'est le propriétaire sinon rien, mais leur performance n'évolue pas tant que ça. Ils essayent juste d'éviter les régressions d'un driver à un autre.

Deux Ex Mankind Divided sort en Novembre 2016. Voici les premiers benchs:



Comme on peut le voir c'est bien de la merde AMD mais en même temps il n'y a pas de support officiel pour ces cartes là. On ne parlera même pas du driver open-source qui ne sert à rien ici.

En Janvier 2017, Marek (le type le plus connu je pense en ce moment parmi les développeurs du driver open-source) décide de patcher le driver open-source :



Ca a tout de suite plus de gueule mais on est encore loin des Nvidia. On pourra tout de même noter que la Fury retrouve la place qui lui convient.

Février 2017 sort le patch qui amène les optimisations pour DirectX. La version Linux en profite un peu aussi mais pas tant que ça.

Le travail continue et on a des nouveaux drivers en Avril 2017 cette fois-ci :



Là j'ai envie de dire oui. Si on met les différents graphs en relation, la Fury fait maintenant jeu égale avec la 1070.

Mais il y a un nouveau driver à venir et le bench a été fait ce 30 Juillet 2017:



Et bien que dire... Je vais prendre la Fury en référence.
1/ On peut voir que les drivers propriétaires ont régressé pour passer de 46 à 37 fps (je le découvre en même temps que vous, je suis plié).
2/ Les drivers open source ont progressé de 16 à 84fps. Ce qui met la Fury devant la GTX1070.

Alors maintenant ce que je pense des drivers AMD... C'est certes beaucoup mieux en DirectX, là où ils concentrent tous leurs efforts. Mais même là bas ils ne se sont pas fait la meilleure des réputations. Et franchement il n'y a pas de fumée sans feu.


Dernière édition par Kaiser_Gun le Ven 4 Aoû 2017 - 3:09, édité 1 fois
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.nyandry.com
makunouchi_ippo
Playstation 3
Playstation 3
avatar

Nombre de messages : 6987
Age : 34
Localisation : idf
Consoles : ps2 , psp, pc , xbox 360 , ps3 , ps4 (next )
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 2:17

ma 970 gtx sort toujours très bien zik
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
Kaiser_Gun
Xbox
Xbox
avatar

Nombre de messages : 2920
Age : 33
Localisation : Madagascar
Date d'inscription : 08/07/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 2:41

Est-ce que quelqu'un a essayé ce genre de custom UI sous Windows ? (ça fonctionne à partir du 7)

Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.nyandry.com
Ar†
Wii U
Wii U
avatar

Nombre de messages : 8699
Age : 37
Localisation : Mougins
Pseudo PSN : VoletsBleus
Consoles : PS4, PC, Vita
Date d'inscription : 15/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 11:20

Tout ca c'est des cas particuliers en plus sur Linux, et biensur il y a une évolution lente mais de tout l'environement même sur Windows, les DX, les patchs, les maj ca et là, oui, mais moi je parle pas de ca.

La Vega FE se situe entre une 1070 et une 1080 sur la quasi totalité des jeux testés, c'est constant c'est pas les drivers là, ou alors ils sont si pourris AMD peut se reconvertir à la pétanque au lieu du silicone, ca sert à rien d'investir des milliards dans le semi conducteur si tu peux avoir les mêmes perfs avec le gpu de la gen précedente simplement avec des drivers. Penser qu'ils sont incapables de driver l'architecture qu'ils ont crée eux même, qui en plus est largement une simple évolution de GCN c'est ridicule, mais c'est pas ca le problème.

j'avais une 290x jusqu'ici, ce que j'appelle driver pourri c'est leur interface à la noix, leur VSR et les profils qui marchent à moitié, ca c'est la drivers au sens propre. Tu peux avoir un ou deux jeux ponctuellement qui fonctionnent mal, pas optimisé surtout à la sortie, la plupart du temps ils refont simplement un profil par défaut (je t'active/désactive le triple buffering, optimisation trilinéaire etc...) mais sur la totalité des jeux non, inclu les quasi demo technique AMD genre Doom (Vulkan) ou Tomb raider (c'est sur ca marche un peu mieux)
Par exemple GTAV surlequel j'ai vraiment exploré toutes les options graphiques depuis sa sortie pour comprendre (et essayer d'avoir un bon framerate) j'ai pas vu de différence de perfs au fil des années, j'ai jamais lancé un jeu avec un nouveau driver en me disant tiens je fais x2 maintenant (car c'est quasi ca la diff entre ce qu'est la Vega et ce qu'elle devrait être vu le nb de transistors et le tdp) . Par contre avec une Ti, j'ai en gros le même framerate qu'en 1080p high d'avant mais en 4K Ultra, je doute que ce soit que les drivers fantastiques d'Nvidia, heureusement.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur En ligne
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 11:32

Ar† a écrit:
Tout ca c'est des cas particuliers en plus sur Linux, et biensur il y a une évolution lente mais de tout l'environement même sur Windows, les DX, les patchs, les maj ca et là, oui, mais moi je parle pas de ca.

La Vega FE se situe entre une 1070 et une 1080 sur la quasi totalité des jeux testés, c'est constant c'est pas les drivers là, ou alors ils sont si pourris AMD peut se reconvertir à la pétanque au lieu du silicone, ca sert à rien d'investir des milliards dans le semi conducteur si tu peux avoir les mêmes perfs avec le gpu de la gen précedente simplement avec des drivers. Penser qu'ils sont incapables de driver l'architecture qu'ils ont crée eux même, qui en plus est largement une simple évolution de GCN c'est ridicule, mais c'est pas ca le problème.

j'avais une 290x jusqu'ici, ce que j'appelle driver pourri c'est leur interface à la noix, leur VSR et les profils qui marchent à moitié, ca c'est la drivers au sens propre. Tu peux avoir un ou deux jeux ponctuellement qui fonctionnent mal, pas optimisé surtout à la sortie, la plupart du temps ils refont simplement un profil par défaut (je t'active/désactive le triple buffering, optimisation trilinéaire etc...) mais sur la totalité des jeux non, inclu les quasi demo technique AMD genre Doom (Vulkan) ou Tomb raider (c'est sur ca marche un peu mieux)
Par exemple GTAV surlequel j'ai vraiment exploré toutes les options graphiques depuis sa sortie pour comprendre (et essayer d'avoir un bon framerate) j'ai pas vu de différence de perfs au fil des années, j'ai jamais lancé un jeu avec un nouveau driver en me disant tiens je fais x2 maintenant (car c'est quasi ca la diff entre ce qu'est la Vega et ce qu'elle devrait être vu le nb de transistors et le tdp) . Par contre avec une Ti, j'ai en gros le même framerate qu'en 1080p high d'avant mais en 4K Ultra, je doute que ce soit que les drivers fantastiques d'Nvidia, heureusement.

Ce n'est pas moi qui le dit mais sur Vega FE, AMD a précisé avoir sorti un driver qui ne tient pas compte du draw bining rasterizer qui permet un meilleur culling et c'est une feature ultra importante. Quand au reste, c'est normal partout où il y a Nvidia the way it mean to be played le jeu est optimisé Nvidia. Il y a des optimisations dand le drivers et dans l'utilisation de la librairie gameworks...

Sur DX11 de nombreuses choses qui sont à la charge des développeurs sur consoles sont fait par le driver. Avant DX12 faire un driver c'est compliqué et il faut quasiment optimiser chaque jeu et la dessus AMD n'a pas les mêmes moyens. Faire un driver DX11, ça demande beaucoup de moyens...

Sur DX12, les drivers sont neutres et ne font que ce que font les drivers. Imaginons que Sony doivent refaire ses drivers pour chaque jeu sur PS4... crazy Si faire un driver PC DX11 c'était comme faire un driver DX12 c'est évident qu'AMD y arriverait...


Dernière édition par chris1515 le Ven 4 Aoû 2017 - 12:05, édité 1 fois
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 11:38

Après sur les primary shader il y a des fonctionnalités qui sont probablement plus orientés console et qui ne serviront pas tant que cela ne sera pas intégré dans Direct X avant un bout de temps si c'est intégré un jour.

L'intégration des features dans Direct X c'est en partie politique. Intel avait son mot à dire et Nvidia aussi...


Dernière édition par chris1515 le Ven 4 Aoû 2017 - 11:49, édité 1 fois
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 11:44

Pour Direct X11 avec des drivers trop lourd c'est un peu ce dont on parle depuis le début de la génération et même sur la précédente génération avec les problèmes de Draw Call sur PC sur Playstar et aussi B3D...
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 11:52

A priori quand le Vega Rx sera sorti toutes les fonctionnalités seront là mais il faudra ensuite optimisé pour chaque jeu sur DX 11 et cela prendra du temps...
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
makunouchi_ippo
Playstation 3
Playstation 3
avatar

Nombre de messages : 6987
Age : 34
Localisation : idf
Consoles : ps2 , psp, pc , xbox 360 , ps3 , ps4 (next )
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 14:35

donc en gros le GPU de la ps5 serait une version plus moderne du vega 64 en 7nm soit ~12Tflop/s(~120 à 150 watt). avec 16 go de GDDR6 et un CPU qui tient la route, ça fait quand même une belle machine par apport à la ps4 de base.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 14:45

makunouchi_ippo a écrit:
donc en gros le GPU de la ps5 serait une version plus moderne du vega 64 en 7nm soit ~12Tflop/s(~120 à 150 watt). avec 16 go de GDDR6 et un CPU qui tient la route, ça fait quand même une belle machine par apport à la ps4 de base.

C'est cela que je vois après 12TflopSs fp32/24 Tflop/s fp16 cela sera 16 ou 32 Gb grand max de mémoire GDDR6 ou la futur HBM low cost et un CPu qui tient la route. Il y aura aussi toujours la modification Sony avec le ID Buffer...
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
Kaiser_Gun
Xbox
Xbox
avatar

Nombre de messages : 2920
Age : 33
Localisation : Madagascar
Date d'inscription : 08/07/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 15:56

chris1515 a écrit:


Ce n'est pas moi qui le dit mais sur Vega FE, AMD a précisé avoir sorti un driver qui ne tient pas compte du draw bining rasterizer qui permet un meilleur culling et c'est une feature ultra importante. Quand au reste, c'est normal partout où il y a Nvidia the way it mean to be played le jeu est optimisé Nvidia. Il y a des optimisations dand le drivers et dans l'utilisation de la librairie gameworks...

Sur DX11 de nombreuses choses qui sont à la charge des développeurs sur consoles sont fait par le driver. Avant DX12 faire un driver c'est compliqué et il faut quasiment optimiser chaque jeu et la dessus AMD n'a pas les mêmes moyens. Faire un driver DX11, ça demande beaucoup de moyens...

Sur DX12, les drivers sont neutres et ne font que ce que font les drivers. Imaginons que Sony doivent refaire ses drivers pour chaque jeu sur PS4... crazy Si faire un driver PC DX11 c'était comme faire un driver DX12 c'est évident qu'AMD y arriverait...

J'aimerai en plus rajouter en prenant un autre exemple qui n'est pas forcément du jeu vidéo. Autant les drivers OpenGL de Nvidia sont bien au-dessus de ceux de AMD, autant en OpenCL Nvidia se fait bouffer tout cru. Après c'est normal il préfère se concentrer sur CUDA.

Un driver ce n'est pas l'interface UI qui permet aux joueurs de configurer des profils. Ca c'est le petit bonus pour faire plaisir aux clients mais concrètement les développeurs s'en tapent un rein.

Ce qui est valable pour les drivers est tout aussi valable pour les API (du moins jusqu'à DX11). OpenGL c'est peut être sympa mais son développement (et donc son évolution) n'est pas fait en relation avec des studios de jeu contrairement à DX11 par exemple. On pourra me dire qu'on peut obtenir la même chose avec OpenGL 4.5 et DX11. Ok, mais alors en standard ça n'est pas exécuté à vitesse égale. Faut forcément creuser un peu plus, et ça à part ID Software, il y en a pas légion qui le font.

Chaque moteur de jeu est un cas particulier à lui seul. Et deux jeux faits avec le même moteur peuvent être des cas particuliers différents. Sinon entre deux épisodes d'une même licence on aurait pas besoin d'autant de temps ni encore d'avoir deux équipes différentes pour faire des sortis annuelles.
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.nyandry.com
Boowie
Playstation 1
Playstation 1


Nombre de messages : 669
Age : 32
Localisation : 75
Date d'inscription : 10/02/2012

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 18:10

Définition : 2560 x 1440 pixels

Radeon RX Vega 56
GeForce GTX 1070

Battlefield 1 (Ultra)
95,4
72,2

Civilization VI (Ultra, MSAA 4x)
85,1
72,2

DOOM (Ultra, TSAA 8x)
101,2
84,6

Call of Duty : Infinite Warfare (High)
99,9
92,1

http://www.tomshardware.fr/articles/benchmark-vega-56-gtx-1070,1-64975.html


Pour un début, c'est pas aussi mauvais finalement, par contre le TDP de Vega couik
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
eyadoo7
Dreamcast
Dreamcast
avatar

Nombre de messages : 1130
Age : 31
Localisation : Bruxelles (Belgique)
Pseudo PSN : eyadoo7
Consoles : PC - PS3 - PS2 - GC - PS1 - N64 + ...
Date d'inscription : 23/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 19:52

Les cartes RX VEGA vont se vendre comme des petits pains:

https://www.digitaltrends.com/computing/amd-vega-cryptocurrency-mining/
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
Kaiser_Gun
Xbox
Xbox
avatar

Nombre de messages : 2920
Age : 33
Localisation : Madagascar
Date d'inscription : 08/07/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 21:01

eyadoo7 a écrit:
Les cartes RX VEGA vont se vendre comme des petits pains:

https://www.digitaltrends.com/computing/amd-vega-cryptocurrency-mining/

Ils font chier ces mecs sérieusement...
Revenir en haut Aller en bas
Voir le profil de l'utilisateur http://www.nyandry.com
fdroopy
Xbox One
Xbox One
avatar

Nombre de messages : 9141
Age : 42
Localisation : Québec, Québec, Canada
Pseudo PSN : fdroopy
Consoles : PC, PSP, Vita, PS4
Date d'inscription : 12/06/2006

MessageSujet: Re: PC (2)   Ven 4 Aoû 2017 - 21:08

Kaiser_Gun a écrit:
Est-ce que quelqu'un a essayé ce genre de custom UI sous Windows ? (ça fonctionne à partir du 7)


j'Ai un peu peur pourles perfs
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Dim 6 Aoû 2017 - 19:55

Revenir en haut Aller en bas
Voir le profil de l'utilisateur
chris1515
Playstation 4
Playstation 4
avatar

Nombre de messages : 46962
Age : 41
Localisation : Lausanne Suisse
Pseudo PSN : chrismc1515
Consoles : PS4
Date d'inscription : 11/06/2006

MessageSujet: Re: PC (2)   Lun 14 Aoû 2017 - 15:16

http://www.anandtech.com/show/11717/the-amd-radeon-rx-vega-64-and-56-review

PAs lu la review mais dégagement de chaleur trop fort et performance pas


Citation :
Bringing this review to a close, if it feels like Vega has been a long time coming, it’s not just your imagination. AMD first unveiled the Vega name 17 months ago, and it was 7 months ago when we got our first peak into the Vega architecture. So today’s launch has in fact been a long time coming, especially by GPU standards. Ultimately what it means is that AMD has had plenty of time to make noise and build up demand for the Radeon RX Vega lineup, and today they get to show their cards, both figuratively and literally.

Vega comes at an interesting (if not critical) time for AMD. They’ve been absent from the enthusiast and high-end video card markets for this entire generation of cards thus far, and while this has allowed them to recapture some of their market share in the mid-range market, it has hurt their visibility to some extent. Furthermore the recent spike in demand for GPUs from cryptocurrency miners has completely turned the video card market on its head, obliterating supplies of AMD’s thus-far leading video cards, the Radeon RX 580 and RX 570.

So for AMD, the RX Vega launch is a chance to re-enter a market they’ve been gone from for far too long. It’s a chance to re-establish a regular supply of video cards to at least some portion of the market. And it’s an opportunity to push their GPU architecture and performance forward, closing the performance and efficiency gaps with NVIDIA. In short, the Vega launch has the potential to be AMD’s brightest day.

So how does AMD fare? The answer to that is ultimately going to hinge on your option on power efficiency. But before we get too far, let’s start with the Radeon RX Vega 64, AMD’s flagship card. Previously we’ve been told that it would trade blows with NVIDIA’s GeForce GTX 1080, and indeed it does just that. At 3840x2160, the Vega 64 is on average neck-and-neck with the GeForce GTX 1080 in gaming performance, with the two cards routinely trading the lead, and AMD holding it more often. Of course the “anything but identical” principle applies here, as while the cards are equal on average, they can sometimes be quite far apart on individual games.

Unfortunately for AMD, their GTX 1080-like performance doesn’t come cheap from a power perspective. The Vega 64 has a board power rating of 295W, and it lives up to that rating. Relative to the GeForce GTX 1080, we’ve seen power measurements at the wall anywhere between 110W and 150W higher than the GeForce GTX 1080, all for the same performance. Thankfully for AMD, buyers are focused on price and performance first and foremost (and in that order), so if all you’re looking for is a fast AMD card at a reasonable price, the Vega 64 delivers where it needs to: it is a solid AMD counterpart to the GeForce GTX 1080. However if you care about the power consumption and the heat generated by your GPU, the Vega 64 is in a very rough spot.

On the other hand, the Radeon RX Vega 56 looks better for AMD, so it’s easy to see why in recent days they have shifted their promotional efforts to the cheaper member of the RX Vega family. Though a step down from the RX Vega 64, the Vega 56 delivers around 90% of Vega 64’s performance for 80% of the price. Furthermore, when compared head-to-head with the GeForce GTX 1070, its closest competition, the Vega 56 enjoys a small but none the less significant 8% performance advantage over its NVIDIA counterpart. Whereas the Vega 64 could only draw to a tie, the Vega 56 can win in its market segment.

Vega 56’s power consumption also looks better than Vega 64’s, thanks to binning and its lower clockspeeds. Its power consumption is still notably worse than the GTX 1070’s by anywhere between 45W and 75W at the wall, but on both a relative basis and an absolute basis, it’s at least closer. Consequently, just how well the Vega 56 fares depends on your views on power consumption. It’s faster than the GTX 1070, and even if retail prices are just similar to the GTX 1070 rather than cheaper, then for some buyers looking to maximize performance for their dollar, that will be enough. But it’s certainly not a very well rounded card if power consumption and noise are factored in.

The one wildcard here with the RX Vega 56 is going to be where retail prices actually end up. AMD’s $399 MSRP is rather aggressive, especially when GTX 1070 cards are retailing for closer to $449 due to cryptocurrency miner demand. If they can sustain that price, then Vega 56 is going to be real hot stuff, besting GTX 1070 in price and performance. Otherwise at GTX 1070-like prices it still has the performance advantage, but not the initiative on pricing. At any rate, this is a question we can’t answer today; the Vega 56 won’t be launching for another two weeks.

Closing things on a broader architectural note, Vega has been a rather conflicting launch. A maxim we embrace here at AnandTech is that “there’s no such thing as a bad card, only bad prices”, reflecting the fact that how good or bad a product is depends heavily on how it’s priced. A fantastic product can be priced so high as to be unaffordably expensive, and a mediocre product can be priced so low as to be a bargain for the masses. And AMD seems to embrace this as well, having priced the RX Vega cards aggressively enough that at least on a price/performance basis, they’re competitive with NVIDIA if not enjoying a small lead.

The catch for AMD is that what they need to price RX Vega at to be competitive and what it should be able to do are at odds with each other. The Vega 10 is a large, power-hungry GPU. Much larger and much more power hungry than NVIDIA’s competing GP102 GPU. And while this isn’t an immediate consumer concern – we pay what the market will bear, not what it costs AMD to make a chip with a nice gross margin on the side – from a technology and architectural perspective it indicates that AMD has moved farther away from NVIDIA in the last couple of years. Whereas the Radeon R9 Fury X was almost a win that AMD didn’t get, the RX Vega 64 doesn’t appear to be fighting in the weight class it was even designed for. Instead the power efficiency gap between AMD and NVIDIA has grown since 2015, and apparently by quite a bit.

The good news for AMD is that this doesn’t come anywhere close to dooming the RX Vega line or the company. RX Vega still has a place in the market – albeit as the bargain option – and AMD can still sell every Polaris 10 GPU they can make. All the while AMD is still ramping up their Radeon Instinct lineup and general assault into deep learning servers, where Vega’s compute-heavy design should fare better.

In the meantime, from an architectural perspective there’s a lot I like about Vega. I’m interested in seeing where fast FP16 performance goes in the gaming market, and the primitive shader looks like it could really upend how geometry is processed at the GPU level given sufficient developer buy-in. Meanwhile the high-bandwidth cache controller concept is a very forward looking one, and one that in time may prove a major evolutionary step for stand-alone GPUs. However I can’t help but wish that these advancements came with a more competitive video card stack. As great as Vega is architecturally, it’s clear that performance and power consumption aren’t where they need to be for AMD to take on a surging NVIDIA.

So here’s to hoping for a better fight in the next round of the GPU wars.

RX 56 est pas mal même si la consommation est trop importante, le RX64 est un gros raté
Revenir en haut Aller en bas
Voir le profil de l'utilisateur
Contenu sponsorisé




MessageSujet: Re: PC (2)   

Revenir en haut Aller en bas
 
PC (2)
Voir le sujet précédent Voir le sujet suivant Revenir en haut 
Page 18 sur 25Aller à la page : Précédent  1 ... 10 ... 17, 18, 19 ... 21 ... 25  Suivant

Permission de ce forum:Vous ne pouvez pas répondre aux sujets dans ce forum
PLAYSTAR :: Jeux video et technologies associées-
Sauter vers: