LE DLSS 3.5 : NVIDIA AVAIT RAISON !

  Рет қаралды 37,926

Ryan TM

Ryan TM

4 ай бұрын

Informations sur le DLSS 3.5
www.nvidia.com/en-us/geforce/...
Informations sur le DLSS 3.0
www.nvidia.com/fr-fr/geforce/...
Informations sur le DLSS 2.0
www.nvidia.com/fr-fr/geforce/...
Twitter httpstwitter.comRyanTmYt
Twitch httpswww.twitch.tvryantmyt
Instagram httpswww.instagram.comryaniskadahl=fr
discord httpsdiscord.ggEkd5vUpAc8

Пікірлер: 304
@Alexandre-ov1sn
@Alexandre-ov1sn 4 ай бұрын
Je comprend pas, il fait une sponso AMD personne dit rien, il fait une sponso corsair personne dit rien, il fait une sponso msi personne dit rien, il fait une sponso intel personne dit rien, il fait une sponso nvidia pour vois c'est la FIN DU MONDE
@ferruckt
@ferruckt 4 ай бұрын
Bah en même temps quand tu dit que le constructeur fait des mauvais produits tu vas pas faire une sponso de ce dit constructeur c du bon sens
@Alexandre-ov1sn
@Alexandre-ov1sn 4 ай бұрын
@@ferruckt en l'occurrence il a été honnête dès le départ en disant dans une vidéo sponso que le DLSS 1 est moche, qu'il aime pas le DLSS 2 et qu'il aimait pas le rtx. Je vois pas le soucis
@ivarlothbrok8414
@ivarlothbrok8414 4 ай бұрын
2 choses en quoi j'ai une confiance aveugle, mon barbier et l'honnêteté de Ryan. Sponso pas sponso il hésite pas à dire ce qu'il pense c'est cool
@Flev_
@Flev_ 4 ай бұрын
​@@ivarlothbrok8414tu connais pas le boug seulement ses vidéos
@MAXIMUSPRIME139
@MAXIMUSPRIME139 4 ай бұрын
Sincèrement je comprends et c'est de sa faute. Il a plébiscité AMD pendant 3 ans et c'était littéralement LE mec qui a fait connaître AMD en France. Personne d'autre. Il a même insulté tout le monde dès le départ pour ça. Mais vu qu'il fait une vidéo pour dire "eh nvidia c'est pas mal en vrai" ça revient au pdg de Apple qui utilise du Huawei ou du Samsung.
@The_Algerian_Dude
@The_Algerian_Dude 4 ай бұрын
Le retournement de veste légendaire mdr 😂😂
@RyanTm
@RyanTm 4 ай бұрын
Sincèrement ouais je retourne ma veste. J'ai trop ouvert ma bouche à insulter nvidia, ce qui fait que lorsque qu'ils sortent une technologie que j'aime, je passe pour un traître.
@Alexandre-ov1sn
@Alexandre-ov1sn 4 ай бұрын
@@RyanTm t'es pas un traître. T'es objectif et tu avoues t'es erreurs. On t'apprécie pour ça
@sushigamesonline8422
@sushigamesonline8422 4 ай бұрын
@@RyanTm Y'a du bon des deux coté mais le prix nvidia est abusé si il avait le meme prix pour leurs gpu que ce d'AMD il ne réalisent pas a quel point tout le monde foncerait chez eux pour l'instant pour les gens en général AMD triomphe de loin et je reste d'accord sur ce point.
@epik456
@epik456 4 ай бұрын
@@viandox5428en fait tu peux pas partir du concept que nvidia fait forcement de la m et amd du bon ,meme si tu detestes certainement nvidia il faut reconnaitre quand quelque chose est bien , hors la selon lui le dlss3.5 est bien , et je trouve que il a quand meme une liberte de contenu malgre la sponso , ilavance de vrais arguments et il crache meme sur le dlss1 et 2 ce qui prouve donc sa liberte de contenu,et enfin arrete de faire ton conaisseur stp,on sait tres bien que comme tout le monde tu tires tes infos de videos yt , et que tu ne fais pas partie du systeme interne qui controle toute cette communication (certainement ), bref que ca te plaise ou non je trouve son avis honnete , si un joue amd commence a faire de la m ,faudra bien critiquer la marque …tu ne peux pas partir d’une vision predefinie crée par 1generation ,faut rester ouvert et savoir changer sa vision des choses.
@epik456
@epik456 4 ай бұрын
@@viandox5428 le nombre de fois qu’il a critiqué nvidia ,mais il peut bien etre fortement décu d’amd , et nvidia peut bein etre bonifié si ils font de bons trucs , je pense surtout que l’effet de deception a ete accentué par son avis sur les 6000,il en attendait vraiment bcp apres cette gen qu’il a adoré ,donc forcement cette gen de 7000 l’as fortement décu et le decalage entre ses esperances et la realité a créé cette deception, mais apres de ton point de vue,lorsque on a vu comment ryan adoraitles6000 et mtn que on voit son avis sur les 7000, que par l’écart de son avis ,tu pense donc que sonavis est trop accentué et biaisé ,mais faut le comprendre aussi ,meme si je suis pro nvidia je respecte et reconnait la gen 6000de amd qui etait bien , mais ses esperences etaient trop hautes et mtn il montre sa deception…
@griffon0206
@griffon0206 4 ай бұрын
intéressant le changement d'avis, bienvenu du côté obscure
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
8:00 un détail important quand même sur le calcul d'ajout d'images d'un film, c'est que la TV, ou le matériel qui va le faire, peut bufferiser les images avant et après afin de calculer une image entre les deux qui va être bien meilleure qu'avec un FrameGen de jeu, d'une part, et que d'autre part si le GPU devait attendre l'image suivante avant de calculer l'image intermédiaire, cela générerait une latence très conséquente en supplément que celle que FrameGen génère déjà. Ce serait inacceptable. Merci pour cette vidéo de mise au point, c'était bien nécessaire. PS j'ai reçu ma 4070 Ti Super. Ben c'est juste une tuerie.
@boba45_
@boba45_ 4 ай бұрын
C'était super intéressant merci à toi pour tout le temps que tu as passé pour tes recherches et merci aussi à ton invité d'honneur pour ses explications
@LemsTV_
@LemsTV_ 4 ай бұрын
Vidéo intéressante mais si l’avenir du jeu vidéo ce joue maintenant sur des détails aussi insignifiants que de meilleurs ombres et de meilleur reflet a l’écran je ne suis pas sur qu’il sera très radieux, surtout avec les nouvelles technologies de DLSS qui a la base sont la cerise sur le gâteau pour pouvoir profiter d’un jeu avec une meilleure qualité graphique et avec un contre coup moindre en performance qui sont aujourd’hui utilisés comme "outils" d’optimisation par les devs sur les jeu qui sortent car il n’y a plus de temps alloué dans une vraie optimisation du jeu video , résultat on se retrouve avec 2023 qui fut la pire année de gaming sur PC en terme de jeux optimisé, bref de mon opinion je préférais toujours la rapidité / Fluidité des images à l’amélioration graphique d’ombre et de lumière qui au final vont t’émerveiller pendant 20 minutes max car au final ce sont des détails , dans Cyberpunk préfère passer mon temps à exploser des Cranes a coup de Burya plutot que de le gaspiller à admirer des reflet de lumières sur la surface d’une flaque d’eau.. je comprends totalement que pour une application artistique (capture d’écran , Edition photo/vidéo) cela puisse être utile mais on parle de jeux vidéo ici dont le but premier est d’être jouer
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
De meilleures lumières et ombres apportent énormément à l'immersion, surtout dans un jeu comme cyberpunk où les scènes sont incroyablement riches de détails, d'objets, d'effets de toutes sortes. Le premier problème de ton avis, c'est que ce n'est que ton avis, et son second problème est que tu le présentes comme une vérité (détails insignifiants). Quant-à exploser des cranes, je le fais avec une 4070 ti-Super, en 1080p, avec DLSS qualité, FrameGen et tous le reste au max, ça tourne vers les 140 fps pour réduire l'input-lag sans trop abuser, et franchement dès que je retire que ce soit PathTracing, RayReconstruction, voire RT, le jeu devient fade, palot, j'ai l'impression de juste me retrouver dans un "beau" jeu de 2015. Sauf qu'on n'est plus en 2015 et que ma carte n'est plus une GTX970. l'avenir du jeu vidéo n'a jamais changé : se rapprocher de plus en plus du photoréalisme, RT est une évidence absolue quand on parle de ça, et RT étant ce qu'il est, la puissance de calcul nécessaire est de plus en plus grande à mesure que les résolutions augmentent, de même que le nombre d'objets en scène, etc.
@LemsTV_
@LemsTV_ 4 ай бұрын
@@fabricejaouen378 alors toi tu viens de te faire une config du coup on ne peut plus respirer….. moi ça fait environ 1 ans que je suis sous 4080 i7 13700k donc j’ai passé ce stade de "je viens d’acheter une config chère donc je vais tout mettre au max" d’une part parceque comme je l’ai dit personnellement et j’insiste sur le mot "PERSONNELLEMENT" car vu ta réponse tu ne lit clairement pas les commentaires des gens… je préfère la vitesse des images à des detail "insignifiant" (oui) tel que les rayon de lumière et les ombres, surtout dans Cyberpunk ou de toute façon mon immersion est constamment brisée a cause de PNJ avec un QI d’huitre , Une ville ou a peine 20% des bâtiments sont explorable , les PNJ qui nous attendent pour déclencher leur scrpit ect… donc oui de toute façon Cyberpunk n’est pas réaliste "l’immersion" restera dans tous les cas médiocre même en 32 K alors je préfère largement jouer avec avec le jeu en mode "palot" comme tu dit et des graphismes de 2015 mais a presque 200 fps voila vive la 1080p la meilleure résolution ever. 🫡 EDIT : je tenais à rajouter aussi que de toute façon si je veux voir du vrais path tracing / ray tracing en plus de 8k je joue a un jeu qui s’appelle "sortir de chez sois" , c’est le jeu le plus réaliste auquel tu pourras jouer dans ta vie 🤷‍♂️
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@LemsTV_ N'importe quoi ....... tout ce que je dis c'est deux choses : 1/ si ce que j'ai me permet de dépasser 120fps avec les réglages au max, je vois pas pourquoi je m'en priverais. 2/ nouvelle config mon cul. 3060ti en 2021, 4070 en 2023, aujourd'hui 4070 ti super. Je n'ai qu'une seule optique: avoir plus de 120 fps quels que soient les réglages, il se trouve seulement que la 4070 ti super le permet sous Cyberpunk. Quant-à comparer cyberpunk à l'IRL c'est d'un stupide............
@LemsTV_
@LemsTV_ 4 ай бұрын
Mais du coup 120 fps sur cyberpunk en full ultra avec une 4070 ti super c’est évidemment sans RT….donc au final ton commentaire c’est du vent 🤣🤣🤣 il fait directement echo a ce que j’ai écrit initialement… 🤦‍♂️🤦‍♂️🤦‍♂️
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@LemsTV_ Avec RT et en 1080p. Tu me cherches ? tu troll ? c'est quoi le projet là ?
@VccCccf-kc2no
@VccCccf-kc2no 6 күн бұрын
Super vidéo continue comme ça 👍
@Gamma-burst
@Gamma-burst 4 ай бұрын
Super vidéo, merci pour ces explications sur ces nouvelles techno!
@redadaouni4178
@redadaouni4178 4 ай бұрын
Bien sûr que Nvidia avait raison De toute façon Je l’ai compris dès la sorti des Fameuses RTX 4000 que J’adore beaucoup vue que J’en ai un dans mon nouveau PC gaming mais bref en tout cas tout sa pour dire que c’est logique que NVIDIA décide de sortir une techno qui est compatible qu’avec les nouvelles Architectures sinon quel intérêt d’acheter la nouvelle génération de carte graphique sa fait un peu longtemps qu’on t’as pas vue Ryan sa me fait plaisir de voir que tu vas bien superbe vidéo au passage
@forcustin3362
@forcustin3362 4 ай бұрын
je ne sais pas depuis combien de temps, mais le DLSS 3.5 est aussi disponible sur les RTX 3000, je possède une RTX 3080 Laptop, et le DLSS 3.5 est bien activé
@RyanTm
@RyanTm 4 ай бұрын
Le DLSS 3.5 est dispo sur toutes les rtx :)
@yasyas1454
@yasyas1454 4 ай бұрын
dans cette gen les meilleurs cartes nvidia sont la carte 4090 et la carte rtx 4070 super et nvidia pronnent pour l avancement en termes de IA et on verra de moins au moins une grosse différence en terme de puissance brute (shadders ) , bref il y une grosse différence entre la 7900 xt et la 4090 sur alan wake et cyberpunk en utlisant le pathtracing et le dlss 3.5 un vraie gap générationnel mais la question qui se pose est ce que les autres studios feront le même pas ????
@lespepitesvladou1463
@lespepitesvladou1463 4 ай бұрын
Cela aurais été bien de noté qu'on peut profité du DLSS avec le Frame Generation d'AMD via quelques bidouilles sur les RTX 2000 et 3000 aussi! Mais oui super techno, le DLAA (la partie Anti Aliasing du DLSS) est super également! D'ailleurs bon à noté que le DLSS 3.5 comprend en réalité 3 technologie distincte: DLSS/DLAA : nvngx_dlss.dll (upscale / AA) DLSSG : nvngx_dlssg.dll (Frame Generation, ce qui est exclu à série 4000 donc) DLSSD : nvngx_dlssd.dll (Ray Reconstruction) Ah et aussi: 22.40 c'est AC Valhalla pas Skyrim ;)
@Flev_
@Flev_ 4 ай бұрын
C'est sponso il peut pas
@Johan-gx3fs
@Johan-gx3fs 4 ай бұрын
Excellente vidéo ! Merci Ryan tout est plus clair !
@sebastospo5021
@sebastospo5021 4 ай бұрын
bravo a toi pour cette vidéo ! Tu démontres que tu sais te remettre en question...
@Johan-gx3fs
@Johan-gx3fs 4 ай бұрын
Très très très content de ta prise de maturité et de ton ouverture. Sincèrement ça fait plaisir ! 0:58 ouais ça fait bizarre ! Mais ça fait plaisir la vidéo était nickel ! Je te confirme, Alan Wake 2 sur 4070 ti c'est juste insane.
@algeriono5828
@algeriono5828 4 ай бұрын
Enfin ! T'avais tease Ça depuis!
@ivarlothbrok8414
@ivarlothbrok8414 4 ай бұрын
Vidéo plus que complete! Carrément un invité qualifié sur le sujet et c'est cool ! Le DLSS 3.0 pour te dire j'avais mal compris donc merci pour les précisions Merci pour ton taf
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Honnêtement c'est bien d'avoir un intervenant nVidia qui apporte une réponse claire à un sujet précis, mais le fameux Stéphane, je le trouve à la fois un peu trop laconique et vulgarisateur (alors qu'nVidia gagnerait beaucoup à avoir un véritable discours technique et précis) et trop enclin à sortir des éléments de langage. Par contre et là c'est pour Ryan directement, c'est désagréable d'avoir de telles différences au niveau du volume sonore. Disons que sur ta vidéo principale ta voix tape est clairement audible et au bon niveau, alors que dans l'enregistrement de l"interview le son de ta voix et déjà beaucoup moins fort et celui de Stéphane est encore beaucoup plus bas, c'est très inconfortable.
@RyanTm
@RyanTm 4 ай бұрын
@fabricejaouen378 désolé 🙏 on parlait pas fort, en général c'est moi qui parle fort dans mes vidéos mais vu que là on était sur discord c'était plus chill et aussi j'ai enregistré le son assez bas par peut que ça sature ! Mais oui désolé je ferais mieux la prochaine fois, merci pour ta remarqué pertinente !
@redadaouni4178
@redadaouni4178 4 ай бұрын
Bah c’est vrai que la Path Tracing quand J’ai jouer à Cyberpunk Phantom Liberty Je dois avouer avec la luminosité de mon écran bah c’était pas agréable surtout quand les personnages bouger leurs tête etc Je voyais des traces de Rayons sur les côtés pile ou face des perso en plus J’avais rajouté le DLSS FG en Ultra performances c’était assez dégradant si Je peux l’interpréter comme sa même en qualité parfois il y’avait quelques soucis avec le Path Tracing bizarrement
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Garde le DLSS en qualité, réduis d'autres paramètres. de rien.
@juwcotbaaytv6740
@juwcotbaaytv6740 4 ай бұрын
Bravo à toi pour cette vidéo ! Je suis sur pc depuis pas très longtemps, environ 2 ans cette annéee. J'ai commecé avec une RTX 3080 et maintenant une RTX 4080 et j'ai toujours activé ces technologies et comme tu l'as dit, avec le Path Tracing et le Ray Reconstruction c'est devenu encore plus incroyable. Et la plupart du temps quand les youtubeurs pc en parlent, c'est de manière négative donc ça me fait plaisir de voir quelqu'un aime ces technologies également ! D'autant plus que plus le temps passe et plus ces technologies se stabilisent et s'améliorent.
@RyanTm
@RyanTm 4 ай бұрын
Insulter nvidia ça fait des vues. Je le sais bien je l'ai fait pendant 3 ans 😭 mais lui le DLSS 3.5 c'est une folie ! Merci à toi !
@Romu_Meninge
@Romu_Meninge 4 ай бұрын
Autant sur les vieux jeux modé la diff est flagrante autant sur les récent... Moi perso je vois pas tellement de différence... Le dlss est la seule amélioration notable mais le ray tracing et le path tracing bof... Chacun son point de vue et sa sensibilité après mais bon... Avoir une "lumière, des reflets et de l'eau rendu plus naturel et plus réel" c'est des filtres infimes... Tant dis que sur de vieux jeux comme par exemple tomb raider remaster vs le premier en RT c'est une renaissance... Mais bon on verrra dans l'futur, moi je vois le dlss comme un bon gain pour les jeux en 4k plus tard surtout sur les grand écrans en télé connecté sans avoir besoin de pc physique et juste un service geforce now à mon avis...
@juwcotbaaytv6740
@juwcotbaaytv6740 4 ай бұрын
@@Romu_Meninge c'est sur que c'est plus marquant sur les vieux jeux et oui, le Ray Tracing en soit ne révolutionne pas les jeux, pour moi je vois une réelle différence surtout avec le Patch Tracing. Après c'est très gourmand, le Ray Tracing encore ça va. Lorsque le Ray Tracing est trop problématique comme dans Star Wars Jedi Survivor, je le désactive. Après a mon avis, les jeux n'utilisent pas encore a fond la technologie, parfois c'est trop subtil, que que certains éléments.. Quant a l'apport du DLSS, Frame génération, pour moi, c'est une petite révolution quand même. En 4k sur certains jeux tout en Ultra + Raytracing extrême, je dépasse les 100 fps
@Romu_Meninge
@Romu_Meninge 4 ай бұрын
@@juwcotbaaytv6740 Avec quelle carte en 4k? Voilà, il est là l'problème c'est subtil comme je disais avant et non révolutionnaire... Moi je pense que l'avenir se tourne plutôt sur les télé connecté. Je me vois bien plus tard prendre un abo xcloud et un abo avec le nvdiashield. Je pense que ça reviendra moins cher plus tard et d'autant plus que je joue de moins en moins voir quasi plus parfois...
@chrls.1093
@chrls.1093 4 ай бұрын
​@@Romu_MeningeÇa dépend des jeux, la plupart du temps le Ray Tracing n'est que par petites touches, sur les ombres, les reflets et basta. Du coup visuellement ça change pas grand chose. Par contre sur Cyberpunk 2077, le Path Tracing change vraiment la donne, bon il faut une sacrée config, mais quand tu peux jouer avec la Path Tracing activé sur ce jeu,. franchement c'est quelque chose. (Perso je peux pas, je prend simplement mes photos en Path Tracing, et ça fait vraiment la différence, tout paraît plus réel)
@abdelkaderdr7251
@abdelkaderdr7251 4 ай бұрын
La vidéo elle est parfaite rien à redire ! Bon retour !
@antoine5321
@antoine5321 4 ай бұрын
Et pour l’input lag dans un jeu comme warzone? Tu en penses quoi ?
@RyanTm
@RyanTm 4 ай бұрын
Le DLSS 3.0 c'est vachement cool ! Mais pour les jeux compétitifs c'est pas le meilleur truc pour le moment. Le frame generation ça rajoute de l'imput lag c'est totalement vrai, après y'a nvidia Reflex qui va aider c'est surtout ça le truc. Mais en natif + nvidia Reflex tu serais toujours mieux que Frame GEN + Nvidia reflex. L'ajout d'images par intelligence artificielle rajoute un imput lag léger mais notable et assez pour que certains joueurs le remarque. C'est le point un peu dommage de la technologie à mon sens.
@sebastien478
@sebastien478 3 ай бұрын
Elle tombe bien ta video je vient tout juste de commander un 4080 super oc v2 😉 pour remplacer ma magnifique 3080ti . Je vais pouvoir tester ce dlss 🎉
@Seilah_vr
@Seilah_vr 2 ай бұрын
Alors c'est comment
@sebastien478
@sebastien478 2 ай бұрын
@@Seilah_vr la 4080 super et un super compromis sa ne chauffe pas sa consommation et inférieure a 300w Et moi qui joue en 1440 part 3440 sa tourne fort warzonne ultra 200 FPS ark 1.5 110 FPS en ultra c'est des exemples.... Après les réglages dlss et tout ....je suis pas au top premier test avec un 5700x et la j ai installer un 5800x3d
@Seilah_vr
@Seilah_vr 2 ай бұрын
@@sebastien478 et le combot 7 5700x et 4070 super, tu penses qu'il est bien (1440p)
@sebastien478
@sebastien478 2 ай бұрын
@@Seilah_vr oui fonce
@sebastien478
@sebastien478 2 ай бұрын
Prend un bon ventirad style deepcool ak 500 ou 620 mieux qu'un watercololing.... Ta le mien sur le boncoin lol 😉
@karil6195
@karil6195 4 ай бұрын
Bonjour Ryan, aucun soucis que tu fasses des vidéo avec Nvidia car on apprend des choses mais lorsuque ton interlocuteur dit : que les RTX 4000 et surtout les plus petites cartes genre : 4060 sont futurproof grâce à leurs technos, tu aurais du lui parler des 8Go de VRam sur la 4060. Est elle futurproof avec 8 Go.. Je ne pense pas. Déjà celles avec 12Go ne le seront pas très longtemps. Sinon sympa l interview.
@MAXGraphicsPC
@MAXGraphicsPC 4 ай бұрын
1080p 8go de vram aucun soucié même dans 5 ans :)
@karil6195
@karil6195 4 ай бұрын
Bonjour@@MAXGraphicsPC puisque Ryan n a pas répondu. Mais quand tu sais que de plus en plus de jeux vont être développés avec Unreal Engine 5 qui est assez gourmand, je ne pense pas que dans 5 ans un 4060 fera l affaire a moins que tu mettes quasiment tout en low et quelques curseurs sur moyen et encore pour les triples A ca m étonnerait. En tout cas Merci d avoir donné ton point de vu. A bientôt et bon jeu a toi.👍
@MAXGraphicsPC
@MAXGraphicsPC 4 ай бұрын
@@karil6195 la 4060 a le dlss 3 et peut le 4 a venir c'est sa l'avantage qui la fera durer très longtemps en 1080p
@karil6195
@karil6195 4 ай бұрын
Salut@@MAXGraphicsPCas tu entendu dire que le DLSS 4 allait être implémenté sur les 4000 de Nvidia ? Je n ai aucune source à ce sujet et ça m'étonnerait franchement qu'Nvidia le fasse.
@fabienlouvel5536
@fabienlouvel5536 4 ай бұрын
"tu achetes un carte nvidia pour supporter les jeux qui vont utiliser les technologies nvidia..." très hypothétique en réalité. Un peu comme quand les télé ont offert des technologies 3d mais personne n'en a fait...
@redadaouni4178
@redadaouni4178 4 ай бұрын
La vidéo sur le NVIDIA DLSS que j’attendais tellement en vrai 🤩
@Baronnade
@Baronnade 4 ай бұрын
Ryangirouette XD Désolé mais quand on pose les bases d'une chaîne en tirant sur Nvidia et leurs prix trop cher, arrivé en disant que c'est pas si mal c'est cocasse :') Mais sinon bonne explication c'est du bon taff derrière
@RyanTm
@RyanTm 4 ай бұрын
Après ça serait aussi cool de pas m'insulter. J'ai changé d'avis par rapport au Ray tracing. J'ai pas parlé des prix des cartes.
@Baronnade
@Baronnade 4 ай бұрын
@@RyanTm Parce qu'il y a une insulte là ? C'est une simple critique (ou constatation) de la part d'une personne qui regarde tes vidéos depuis la création de ta chaîne, si par contre la vérité te gêne sur comment tu gères tes prises de position au fil des années sur ta chaîne KZfaq c'est pas mon problème, tu es juste susceptible.
@RyanTm
@RyanTm 4 ай бұрын
@@Baronnade m'appeler Girouette c'est pas une critique. Une critique c'est "je constate que t'as changé d'avis". Girouette c'est une insulte. C'est pas de ma susceptibilité. La vérité ne me dérange pas, regarde les commentaires ou certains me parlent de retournement de veste, j'ai accepté sans problème et j'ai expliqué. Toi tu me donne directement une appellation à connotation très négative. Et être un ancien sur ma chaîne ne fait pas en sorte que mon seuil de tolérance soit plus large tu comprend ? Ça reste un manque de respect et j'aimerais si ça ne te gêne pas qu'on garde un respect mutuel. En te remerciant.
@iniestacricri1418
@iniestacricri1418 4 ай бұрын
toujours du bon coté
@aliouri6998
@aliouri6998 4 ай бұрын
Les actions de Nvidia ont explosé en 3 ans je vous laisse regarder , le prix a augmenté de plus 500% c’est plus que le bitcoin 😂
@mozydiaz8296
@mozydiaz8296 4 ай бұрын
Bon, après toutes ces années je pense qu'il est temps d'enfin changer l'intro, à la place tu devrais écrire "j'ai TOUJOURS pas d'intro" pour un peu de renouveau 😁
@RyanTm
@RyanTm 4 ай бұрын
Tsais que j'y pense des fois
@redadaouni4178
@redadaouni4178 4 ай бұрын
Par exemple J’ai jouer récemment à wolfeinsten youngblood en safe mode du coup le Ray Tracing était activé directement avec le DLSS 2 en performances il me semble bah Je voyais des contours sur le personnage bah c’était pas très agréable mais fort heureusement que l’IA gère derrière même si je préfère jouer en 4K Ultra brute à plus de 375FPS mais le jeux ne les supporte pas bizarrement du coup c’est pas un problème mais voilà co même
@scromz95
@scromz95 2 ай бұрын
Ce matin, je suis allez consulté mon compte bancaire. La raison : Je mange des pattes à l'eau depuis que j'ai obtenue ma 4090. Et grâce à elle, au lieu de voir comme à l'habitude 10 euro sur le compte, le DLSS ma généré des 0 , et les reflet du RayTracing sur le distributeur , c'était de toutes beauté !
@tonii0951
@tonii0951 4 ай бұрын
ray tracing où comment mettre de l'éclairage et des reflets partout ... sur cyberpunk perso c'est trop flou (à part en DLAA mais la faut une config de la Nasa non disponible sur le marché xD) , il y a que l'eau qui vaut le coup avec le raytracing sur CB2077. Dans la vie j'ai pas un éclairage comme ça c'est trop marketing
@scromz95
@scromz95 2 ай бұрын
La vrai question, c'est pourquoi le fabricant ajoute ce genre de techno, alors que les studios pourrait le faire? ... intriguant
@STORMJOHANNXD
@STORMJOHANNXD 4 ай бұрын
Je me pose toujours la question entre 4070 ti super ou bien 4080 super... Vous avez des conseils ou avis ?
@Sharps_YTB
@Sharps_YTB 4 ай бұрын
18% de perf qui les séparent, mais la 4080 super est plus chère de 27%
@RyanTm
@RyanTm 4 ай бұрын
20% 880 et 1100 euros en msrp Donc 18% de perf en plus pour 20% de plus
@jeofthevirtuoussand
@jeofthevirtuoussand 4 ай бұрын
Gt 1030 ❤
@STORMJOHANNXD
@STORMJOHANNXD 4 ай бұрын
@@jeofthevirtuoussand je suis avec une gt 1070 🤣
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Je suis ravi de ma 4070 ti super (je ne joue qu'en 1080p mes yeux vieillissant ne profitent même pas du 1440p, mais je fais beaucoup d'IA et de montage). Mais honnêtement ça va vraiment dépendre si tu joues en 1440p ou en 4k. La 4080 est beaucoup plus à l'aise en 4k alors que la 4070 ti super est résolument orientée 1440p
@fusfusylt9731
@fusfusylt9731 4 ай бұрын
Je ne regarde pas souvent tes vidéos, mais la pour le coup c'est validé, très intéressant 👌
@Saetill
@Saetill 4 ай бұрын
Le seul souci que j'ai avec le dlss (et les tech des concurrents) c'est l'impression de paresse que je ressens de la part des développeurs de jeux... : "optimisation ? Pourquoi faire... Y a le dlss !" Et on se retrouve avec des images upscaler ( donc la résolution qu'on a choisi n'est pas la vraie) alors qu'on nous a vendu une carte :" 4k 120fps" alors qu'elle tourne en 1080... J'exagère volontairement les chiffres 😅 mais je me retrouve avec une impression de pub mensongère. Attention je ne dénigre pas les tech qui sont dingues... Mais plutôt le marketing et l'utilisation de ces dernières. Après... Mon avis... 😐😑😐😑😐🤫😬
@RyanTm
@RyanTm 4 ай бұрын
Ça c'est faux, quand tu vois un spiderman qui a le DLSS et qui tourne à 200 fps facile sans cette techno, resident evil 8, the witcher 3, et pas mal d'autres jeux, on voit que les dev font un taf excellent ! T'as une poignée de jeux connus qui tournent très mal à cause d'un soucis de budgets et de moteurs. Tout est de l'upscale depuis des années. On est que du jeu vidéo, ça reste des fausse frames. C'est la raison pour laquelle je n'aime pas le DLSS 2, j'ai l'impression (fausse) de me faire avoir, alors que le DLSS 3 c'est directement une intelligence artificielle qui vient faire ton image. Donc véritable frame et véritable definition. Même la ps5 est dessus www.tomsguide.fr/la-ps5-pro-vise-les-120-fps-et-le-4k-grace-a-lupscaling-par-ia/
@K-R-O-L
@K-R-O-L 4 ай бұрын
honteux, obligé d'avoir un mod d'ATI pour avoir le framegeneration sur ma 3080...
@KamiKazeD
@KamiKazeD 4 ай бұрын
NukemDlss c'est gratuit et sa marche pour toutes les RTX
@K-R-O-L
@K-R-O-L 4 ай бұрын
@@KamiKazeDoui c'est ce que je dois utiliser pour avoir un Flightsim potable :/
@kooperpantheon7673
@kooperpantheon7673 4 ай бұрын
Jsp que ça n'a pas de lien avec le faite que nvidia t'a envoyé une carte à test. Car le 180 est suspect. Même si de faite les cartes nvidia sont d' excellente mais trop cher.
@RyanTm
@RyanTm 4 ай бұрын
Aucun 180! Je pense toujours la même chose sur la 4070ti, sur le DLSS 1 et 2.0. Seule chose qui est que le DLSS 3.5 et une excellente techno, et que je me rend compte que (même si ça me dérange un peu de l'admettre) à force de jouer h24 sur du amd et du intel, je ne profitais pas assez des techs nvidia pour bien les juger. C'est une erreur de ma part et je m'en excuse.
@PatriceSavoie
@PatriceSavoie 4 ай бұрын
En fait le NVIDIA DLSS 3.5 n'est pas un upgrade du NVIDIA DLSS 3, ou 3.1... Le DLSS 2 et 3.5 sont des techniques de suréchantillonnage, et le 3.5 integre des accélérations pour le raytracing. C'est 100% compatible avec les rtx 2000 et 3000. Contrairement au dlss 3 et 3.1 qui sont réservés aux cartes rtx 4000. Ou comment embrouiller les gens en utilisant le terme marketing DLSS à tout vas pour plusieurs technologies complètement différentes.. Ca a créé la confusion, car beaucoup pensaient que le Frame génération était disponible aussi sur les rtx 2000 et 3000 ! La solution AMD de frame génération sans hardware dédié est pas mal. Mais pas au niveau encore de NVIDIA. Intel vas probablement proposer une alternative compatible toutes marques. Perso j'aime bien la dernière version du XeSS. Sur Ratchet en automatique ou qualité c'est parfois plus fluide et réactif je trouve. Le DLSS 1 c'était quand-même bien pourri !
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Intel poussera à l'IA sur ses CPU avec des tensors, chose que ne peut pas faire nVidia car ils ne produisent pas de processeurs. S'ils ne réagissent pas très, très, très vite, AMD va se faire tuer en deux ans d'un côté par intel, de l'autre par nVidia. c'est pas pour rien qu'on voit depuis une semaine ou deux des vidéos tonitruantes à propos des ryzen 9000 et des radon 8000, toutes plus putaclic que les autres et promettant des gains de performances absolument impossibles.
@PatriceSavoie
@PatriceSavoie 4 ай бұрын
C'est clairement dangereux pour AMD..
@mwilfried-_-3856
@mwilfried-_-3856 4 ай бұрын
vive FSR3.0 !!!
@bubblegum8870
@bubblegum8870 4 ай бұрын
il ne faut plus acheter AMD du coup ?
@riry2428
@riry2428 4 ай бұрын
faut avoir un esprit critique hein
@RyanTm
@RyanTm 4 ай бұрын
Amd c'est excellent aussi ! Ça dépend de ce que tu cherches, tout n'est pas noir ou blanche, il y a des nuances de gris !
@loffredokevin1417
@loffredokevin1417 4 ай бұрын
Belle vidéo .Ceci dit il est bien possible de faire fonctionner la dernière version du DLSS 3.0 sur de plus vielles cartes NVidia...
@SALTINBANK
@SALTINBANK 4 ай бұрын
avec des mod tu peux activer le FG frame generation ou les mods FSR 3.0 AMD va voir sur Nexxus Mods
@rehabsadek2142
@rehabsadek2142 4 ай бұрын
Merci pour ton travail ❤❤❤
@LanderfGaming
@LanderfGaming 4 ай бұрын
Wow stéphane quentin il a bien changé de physique entre la vidéo de pax et maintenant.. pareil timbre de voix différent.. et porte des lunettes.. mais bonne vidéo sinon..
@Diamond77002
@Diamond77002 4 ай бұрын
Et les rtx 4000 ne pourront pas supporter le dlls 4.0 car ne disposant pas du hardware nécessaire... tu as claqué 1300 euros et ta carte n'est pas foutu de durer 7 ans...
@karatekid5676
@karatekid5676 4 ай бұрын
Je t'avoue que ça m'intéressait pas vue que j'aime jouer en RAW mais tu m'as donné envie de tester! Je mettrais à jour mon commentaire
@jeofthevirtuoussand
@jeofthevirtuoussand 4 ай бұрын
sans parler du neural texture compression [ NTC ] en gros , en 2023 on devait avoir les premiers jeux supportant sampler feedback streaming [ SFS ] chose qui ne s'est pas produite , merci la cross-gen et le 3/4 des joueurs pc n'ayant pas au minimum une rtx 2060 ou une rx 6600 ( SFS requière des gpus supportant dx12 ultimate ) aujourd'hui on se plaint des gpus n'ayant pas + de 8gb en 128 bit , le truc, avec SFS , 8gb auraient été suffisant pour jouer en 4k (texture ultra qualité) sans bottleneck au niveau de la vram, le principe derrière SFS // SFS c'est un système de gestion de levels of details [ LOD ] mais pour des textures " des mip maps" ( les mip maps sont des résolutions de textures ) SFS va demander au gpu ( à chaque image calculée) a ) Dans toute la scène calculé , quelles sont les parties occluses du champs de vision ? b) A quelle distance se trouvent ces "meshes" de la caméra avec ces données , SFS va communiquer avec le stockage et streamer dans la bande passante , des morceaux de textures , à la bonne résolution " mip map" en fonction de la distance de la caméra dans la scène et qui sont [[[ absolument nécéssaire ]]] Ce qui a pour effet réduire la quantité d'espace dans la bande passante que prennet généralement les textures, donc la capacité de la bande passante s'en vois significativement élargie par un fcteur de 2.5 voir 3 exemple , la XBOX SERIES S a 8GB 128bit ( 224GB/S ) Native, avec SFS la bande passante passe en moyenne de [[[[ 224GBS/S >>>>> 560GB/S ~ 672GB/S ]]]] bien evidemment ,la bande passante ne peux pas s'élargir physiquement , mais cela donne une bonne estimation du niveau de l'optimisation mémoire qu'offre SFS cela revient a dire, ce qui prenait 128 bit par cycle de transfère , avec sfs agissant sur les assets graphiques , n'en prend que [[ ~ 1/3 ( 42 bits ) ]] donc ,des les 86 bits libres il y'a moyen de permettre à + de textures , de données de raytracing et de données de frame gen d' utiliser la bande passante . Ce qui me ramène a NTC NTC , c'est le dlss des textures et aura un effet similaire a SFS au niveau de la bande passante sauf que le NTC ne se prend pas la tête a streamer des bouts de textures d'ailleur , SFS ressemble beaucoup au mesh shading dans sa logique fonctionement car mesh shading doit aussi demander au gpu, a chaque image, de fournir des données sur les meshes dans la scène , que ce soit leur occlusion ou leur posistion dans l'espace relative à la camera, mais mesh shading contrairement au SFS , s'occupe des LODs pour les " meshes" donc il va demander au gpu generer les vertex necessaire et va même effectuer du "culling" donc dire au gpu de ne pas calculer les parties de meshes qui sont occluses
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
A voir pour NTC , mais de ce que j'en ai compris cette techno sera principalement optimisée pour la gestion des textures de très haute résolution avec pour objectif de ne pas prendre plus de bande passante que les textures de résolution moindre. Si c'est le cas il est très possible que "qui peut le plus peut le moins" ne soit pas vrai car, aussi bon qu'il soit, ntc s'appuie sur une compression via IA avec perte, perte qui peut être très visible lorsqu'on n'est pas à la résolution la plus haute. Possible aussi que les développeurs aient accès à des options permettant une meilleure qualité mais avec une compression moindre, juste de quoi jouer en 4k sans saturer la BP. Mais il reste une inconnue : à quel point NTC va utiliser les Tensors (et donc entrer en concurrence avec des technos IA qui fonctionnent en simultané), et, donc, quelle en sera la limitation selon la génération, en fonction de la capacité de calcul intrinsèque de la carte. Beaucoup d'inconnues, et très certainement beaucoup de sel va couler, mais NTC sera sûrement une très grosse avancée, pourvu qu'il ne soit pas uniquement réservé aux textures de résolution les plus hautes, et pourvu aussi que ce soit une option prévue dans les pilotes (à l'instar par exemple de AA forçable) et non pas implémentée au bon vouloir des studios, comme le DLSS.
@jeofthevirtuoussand
@jeofthevirtuoussand 4 ай бұрын
​@@fabricejaouen378 oui , il fort probable que le ntc va bouffer des tnsor cores malheureusement, mais si c'est pour éviter les bottleneck sur des gpu ayant moins de 12 gb de vram , ça pourrait être l affaire du siècle. Mais je ne te cache pas que la solution de Microsoft ( dx 12 ultimate) me plaît beaucoup, pas besoin de bouffer des ressources et surtout pas besoin de dégrader la qualité des textures
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@jeofthevirtuoussand J'y crois pas trop, à DX12 ultimate. De ce que j'en sais, il s'agit principalement de streamer les textures depuis un SSD vers le GPU. Sur un NVME cette limite est actuellement de 7Go/seconde, et encore, avec un NVME PCIE4.0, sinon c'est 3.5. Alors qu'un streaming direct depuis la RAM systeme (ce que font déjà les pilotes nVidia d'ailleurs), cette BP est de 24Go/s, en tout cas sur ma bécane perso en DDR4 3200, disons 30 sur une machine en DDR5 avec un cpu très récent. On est quand même largement au dessus de ce que peut faire un NVME.
@jeofthevirtuoussand
@jeofthevirtuoussand 4 ай бұрын
​@@fabricejaouen378 j aimerais bien voir le premier jeu codé avec sfs ,on pourra enfin se faire une idée sa viabilité
@wiz956
@wiz956 2 ай бұрын
Votre discussion est super intéressante mais j’ai du mal à tout comprendre étant pas trop calé techniquement je vais allez me renseigner sur le SFS merci
@sakaz6637
@sakaz6637 4 ай бұрын
Puis le dlls 4.0 ne sera pas valable sur les series 5000 ou 6000 car la technologies ne le peremtrai pas ! C est du vent et rend les ancienne carte obsolète!
@tutoreplay
@tutoreplay 4 ай бұрын
Serieursement avec un discour comme ça effectivement t'as pas fini de pleurer, car oui on part sur des technos IA, et on débute seulement sur les circuits neuronaux, donc t'étonne pas si tu vois qu'effectivement tout les deux ans il faudra changer de carte ou de CPU pour en profiter. Tous les VRAI passionné de tech savent qu'il est impossible de faire tourner logicielement une acceleration sans que le hardware s'y prète. Et ça sera comme ça pour l'IA. on le savais des la sortie de la serie 4000, deux hacker qui on réussi a faire tourner du dlss 3.0 sur les serie 3000, mais pas de bol ça marchais mal avec des artéfact et des lenteurs. comme quoi c'est juste pas cablé pareil. et puis c'est pas nouveau chaque nouvele techno a nécéssité de nouveau circuit (par exemple la compression de l'AC1 necessite un circuit spécialisé sans quoi il faut faire bosser un CPU pendant 10 fois plus de temps et avec une occupation processeur de 100%)
@maximusprime1278
@maximusprime1278 4 ай бұрын
en même temps si la même technologie peut-être utilisé sur les générations précédentes, on se demande à quoi sert la nouvelle génération
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Source?
@Diamond77002
@Diamond77002 4 ай бұрын
​@@maximusprime1278 et ceux qui claquent 1300 euros dans un GPU ? Tu crois que c'est respecter la clientèle
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@Diamond77002 Hors sujet. Personne n'oblige personne à ne pas faire évoluer les technologies "par respect pour l'ancien matériel".
@pascalkissling4568
@pascalkissling4568 4 ай бұрын
J etais pourtant sure que les 3080 ti supportait le dlss 3.0 voir le 3.5 j ai tout faux ? Un peu perdu du coup. Les 3080ti sont compatible dlss quoi finalement ? Merci pour ta vidéo 😅
@RyanTm
@RyanTm 4 ай бұрын
Le 3.5 oui mais pas le 3.0
@pascalkissling4568
@pascalkissling4568 4 ай бұрын
@@RyanTm ok merci bien pour la précision
@redadaouni4178
@redadaouni4178 4 ай бұрын
Perso quand Je l’active sur un de mes jeux préféré qui est Cyberpunk 2077 Je vais pas vous mentir j’adore énormément a part en Ultra perfs là c’est clair que c’est dégeulasse pas comme le AMD FSR mais co même sur Dying light 2 c’est magnifique en qualité même en balancer pareil pour hogwart legacy du coup c’est génial pourtant Je suis pas trop upscal dans l’âme que cela soit AMD ou NVIDIA perso Je préfère jouer en native mais j’avoue que parfois sa peut servir en vrai
@moraisbino9284
@moraisbino9284 4 ай бұрын
C’est ce qui s’appelle un sacré retournement de veste 😂
@cedricmaury972
@cedricmaury972 4 ай бұрын
Le DLSS 4 sera t-il disponible uniquement sur les RTX 5000 ?
@RyanTm
@RyanTm 4 ай бұрын
Si y'a un DLSS 4.0 déjà, vue que le 3.0 c'est de l'IA pure et dure ! Mais à mon avis non vue qu'ils ont prévu le coup pour les génération à venir (comme le DLSS 2.0 sur les rtx 2000). Après, rien n'est impossible. On espère
@redadaouni4178
@redadaouni4178 4 ай бұрын
Tout comme le dlss 4 ne sera pas disponible sur les RTX 4000 enfin Je crois
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
t'en sais strictement rien. ni personne, pas même nVidia même si ça a certainement été discuté, mais non décidé, en interne. Faut pas oublier que l'apport d'une nouvelle tech a besoin de plusieurs paramètres : peut-on créer le besoin ? peut-on l'implémenter avec un vrai gain en qualité pour justifier l'exclusivité à la dernière Gen ? quel sera l'accueil du public ? quel sera le coût de production d'une puce gérant ça ? Quels studio pouvons nous payer pour mettre cette gen en avant? C'est pas si simple, et, en tout cas, ça se décide pas comme ta phrase l'annonce, en 15 mots....
@redadaouni4178
@redadaouni4178 4 ай бұрын
@@fabricejaouen378 bien sûr le seul qui sait ici c'est la française madame fabricette jouean espèce de sale demeuré crois tu que NVIDIA n'ont pas déjà décidé avant la sortie des RTX 5000 que les techno seront compatible avec les autres cartes graphiques mais tu es trop conne madame une entreprise comme NVIDIA enfin bref va regarder jigfio et ferme ta ton claque merde si c'est pour raconter des salades
@redadaouni4178
@redadaouni4178 4 ай бұрын
@@fabricejaouen378 Ahh salut la française écoute raconte pas t'a vie bien sûr celle qui sait ici c'est toi ouais tu sais mieux qu'une grosse entreprise comme NVIDIA écoute va manifester avec les gros débile d'agriculteurs parce que pour l'instant c'est pas NVIDIA que tu devais parler clochard d'où une entreprise comme sa tu crois qu'il on pas tout prévu en plus bizarrement tu parles d'nvidia comme si c'était ta génitrice en plus Je m'en balance royal de ce tu dis J'écouterai jamais quelqu'un comme toi du coup tu gaspille t'a salive pour rien Je m'en fou de ce que tu penses
@redadaouni4178
@redadaouni4178 4 ай бұрын
@@fabricejaouen378 sa sert a rien de créer un débat avec Moi J'en ai rien à carré de t'a vie mec
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@redadaouni4178Dans ce cas ce que tu penses n'a pas d'utilité non plus, tu serais bien avisé de, juste, te taire.
@redadaouni4178
@redadaouni4178 4 ай бұрын
Sponsorisé par NVIDIA en personne c’est un miracle Mdr
@shirokuma3216
@shirokuma3216 4 ай бұрын
Le risque, c’est que les éditeurs n’optimisent plus rien, et qu’au final, il faille ces techniques pour obtenir juste 50fps.
@MrFgruat
@MrFgruat 4 ай бұрын
Je me rappelle d'une époque où NVIDIA se moquait de 3dfx car il ne calculait pas les images comme elles était voulue par les développeurs, maintenant c'est NVIDIA qui dit comment les images doivent être rendue
@redadaouni4178
@redadaouni4178 4 ай бұрын
Les ombres dans shadow of tombe raider bah sa devrais passer vue que cette un jeux d’explorations il y’a des grottes des grosses flac d’eau du coup c’est génial après c’est pas un Marvel’s Spiderman Je le conçois mais c’est pas trop mal même si Je ne l’ai pas encore jouer donc à voir encore une fois
@yekol9072
@yekol9072 4 ай бұрын
Comment ça mon reuf ?
@yekol9072
@yekol9072 4 ай бұрын
@@viandox5428 et j'en suis content ! Une remise en question très intéressante de sa part !
@epik456
@epik456 4 ай бұрын
Si nvidia baisserai les prix , ce serait une tuerie leurs cartes (après je dis ça mais g une série 40 mais tkt )
@retrofizz727
@retrofizz727 4 ай бұрын
Tout pareil
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Elles sont déjà une tuerie, il suffit de savoir faire la différence entre une Clio et une BMW qui feraient toutes les deux 200 chevaux.
@epik456
@epik456 4 ай бұрын
@@fabricejaouen378 yes c’est juste assez cher
@MAXGraphicsPC
@MAXGraphicsPC 4 ай бұрын
@@epik456c'est chère mais la qualité et la aucun soucie avec nvidia
@epik456
@epik456 4 ай бұрын
@@MAXGraphicsPC yes je confirme
@brucelee-qm2oq
@brucelee-qm2oq 4 ай бұрын
une bonne technologie mes pas au prix de tous le monde
@RyanTm
@RyanTm 4 ай бұрын
On est d'accord ! D'où justement l'ajustement entre les 3060 et 4060 par exemple. C'est une technologie géniale mais qui coûte le prix de ton envie de l'avoir.
@redadaouni4178
@redadaouni4178 4 ай бұрын
Le surtionnage par apprentissage Je suis désolé de l’écrire comme Je l’entend mais ce mot est difficile à trouver sur Google quand on sait pas comment l’écrire merci a celui qui réussira à me le corriger
@samoutou8360
@samoutou8360 4 ай бұрын
Bonjour, je voudrai me faire un PC GAMER évolutif avec le temps. Je songe à acheter les composants étapes par étapes. Je ne sais pas vraiment car je ne connais pas le monde du PC GAMING. Quels devraient être les premiers éléments que je devrais acheter sachant que les prix montent et descendent au cours de l’année. Je ne veux pas me tromper sur les boîtiers et les autres composants.
@ZoRoTuS
@ZoRoTuS 4 ай бұрын
Jolie ..
@Archomir
@Archomir 4 ай бұрын
Cool la sponso mais où sera le regard critique ?
@RyanTm
@RyanTm 4 ай бұрын
Si t’as regardé la vidéo, tu peux voir que je suis totalement neutre. Si j’avais caché le terme sponsorisé, personne n’aurait rien dit
@PredatorG-zz7mr
@PredatorG-zz7mr 4 ай бұрын
Vendu !!! Non je trouve que c'est cool de s'intéresser aux technos des 2 acteurs du marché, même si c'est sponso.
@shivers974
@shivers974 4 ай бұрын
Bonne video mais : DLLS + rt = on Monnaie = off
@ferruckt
@ferruckt 4 ай бұрын
?
@LudovicEv
@LudovicEv 4 ай бұрын
Un KZfaqr qui change d'avis et qui l'admet ça montre juste qu'il est humain et honnête... Si on compte parler d'un sujet et qu'on peut avoir une sponso avec pourquoi se priver? Et dans tous les cas tous les humains ont des biais c'est pour ça que vous devez diversifier vos sources pour vous renseigner sur un sujet ;-) En tout cas sujet, très intéressant...
@Karrera80
@Karrera80 4 ай бұрын
lol ca fait un bail que j'avais pas vu une vidéo de Ryan, j'ai cru m'étouffer en voyant la video 🤣, pendant des années ca a craché sur nvidia et ses technos mais en mode sale, et maintenant Nvidia (accompagné de qql dollars) c hyper bien, ce monde est génial. Comme quoi hein il faut savoir s'adapter, ca m'a fait la journée 🤣 j'ai l'mpression que c une IA qui parle, c un deepfake non? 😁 Maintenant que tu es copain avec nvidia, il faudrait leur demander d'arreter les cartes à 4 slots plus gros q'une PS5 et revenir à de sobriété de design genre 2 slots hein...et moins de 500W. Merci
@brasiliafc2138
@brasiliafc2138 4 ай бұрын
J'aime bien nvidia mais ils sont beaucoup trop cher. Il y'a des rumeurs qui annoncent la 5090 à 2200 euros .
@MrCenttaurus
@MrCenttaurus 4 ай бұрын
Oui un poil moins chère que la 4090 mais 600 watts minimum, la facture va être salée 😂
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Tu sais pas ce qu'on est sensé en faire, des rumeurs ? Il y avait des rumeurs plaçant la 4090 à 900 watts, relayées par jigfio. On attend encore l'erratum.
@riclardennais2150
@riclardennais2150 4 ай бұрын
Possesseur d'une rtx 3070 j'ai apprécié tes explications car le passage de la série 4000 en dlss 3.0 ... Merci pour ta vidéo, j'ai appris quelque chose
@psour33
@psour33 3 ай бұрын
Ah ben les AMD fan boys pourront raconter ce qu'ils veulent, mais dès qu'il s'agit de gestion de la lumière, des ombres, des perspectives, des détails (et j'en passe) dans les jeux qui supportent la technologie DLSS 3.5+ , AMD ou Intel n'existent même pas. Alors oui ils ont quelques FPS de plus, la belle affaire.
@Fazersofti
@Fazersofti 4 ай бұрын
immonde je pense que tu abuse quand meme ! le mod FSR3 frame generation fonctionne trés bien sur pas mal de jeu !
@RyanTm
@RyanTm 4 ай бұрын
Le DLSS 1 ? Il était absolument immonde. Vidéo sponso ou pas je le dis quand-même, c'était un naufrage mais le 2.0 était pas mal. Le DLSS 3.0 lui est une tuerie absolue !
@MrTiguil
@MrTiguil 4 ай бұрын
meme travaillé pour Nvidia sont pas capable dacheter un micro qui a du bon sens ! jcomprend pas ce quil dit en plus de souffler dans son micro ...
@RyanTm
@RyanTm 4 ай бұрын
Dis moi que t’es jaloux de ma belle voix ça sera plus honnête de ta part
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@RyanTmIl parle de Stéphane je pense, et effectivement, le Stéphane a vraiment fait peu d'efforts sur ce coup là
@redadaouni4178
@redadaouni4178 4 ай бұрын
Du coup c’est du à un problème technique voilà pourquoi Nvidia ne pouvait pas sortir le DLFG sur les RTX 3000 c’est bon à savoir
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Ce n'est pas un "problème" technique, c'est une insuffisance en terme de puissance de calcul de la génération 3000 par rapport à la qualité qu'ils ont décidé d'obtenir. Doublé, évidemment, d'une volonté de mettre en avant les 4000 grace à cette tech. Le principal problème à vouloir qu'une tech passe partout est l'obligation de réduire les perfs de cette tech pour, justement, passer partout.
@bigrox22
@bigrox22 4 ай бұрын
Très bonne vidéo explicative. D'autres youtuber hardware français aiment vivre dans le passé et n'accepter pas la technologie qui nous pousse vers le futur.
@jhsurf743
@jhsurf743 4 ай бұрын
Vive le modding frame gen pour les rtx 3000 et 2000 !
@Kiki_Guitare
@Kiki_Guitare 4 ай бұрын
j'ai acheté une rtx 4070 super pour remplacer une rx 7800 xt que j'ai gardé 2 semaines ... niveau raytracing y'a vraiment pas photo ... j'ai bien l'impression que le DLSS fonctionne mieux que le FSR ... enfin sur cyberpunk c'est vraiment flagrant :)
@pattier65
@pattier65 4 ай бұрын
Normal on parle du DLSS3 et du FSR2. Attend que le FSR3 soit implémenté dans le jeu
@Kiki_Guitare
@Kiki_Guitare 4 ай бұрын
@@pattier65 j'avais installé un mod pour remplacer le dlss par le FSR3 mais c'était pas probant ... Limite ça fonctionnait mieux avec ma 1080ti ... Bref. Jsuis très content de la 4070 super
@pattier65
@pattier65 4 ай бұрын
@@Kiki_Guitare c’est un mod pas le logiciel officiel donc il ce peut que ce mod fonctionne mal. Perso j’ai une 7900xtx et cyberpunk en 1440p avec FSR2 en équilibré +AFMF je dépasse les 200fps en graphisme haut avec RT la version de base pas avec tous ce qu’il y a de psycho ect et avec RT psycho je tourne a 150fps
@Kiki_Guitare
@Kiki_Guitare 4 ай бұрын
@@pattier65 ah oui ok ...
@Diamond77002
@Diamond77002 4 ай бұрын
​@@Kiki_Guitaretu m'as pas l'air très fut fut toi .
@julienping
@julienping 4 ай бұрын
j'ai une 3080 et j'active tout DLSS + RT ou même PT
@RyanTm
@RyanTm 4 ай бұрын
Sur Cyberpunk et Alan Wake go direct path tracing avec le Ray reconstruction , mais j'espère que le DLSS suivra !
@julienping
@julienping 4 ай бұрын
@@RyanTm oui je préfère descendre un peu les preset graphiques et en profiter
@ferruckt
@ferruckt 4 ай бұрын
sponso nvidia serieux?
@RyanTm
@RyanTm 4 ай бұрын
Yup!
@redadaouni4178
@redadaouni4178 4 ай бұрын
Perso la RTX 4070 Je l’ai conseillé à 2 de mes potes ils sont heureux depuis pour la 4070SUPER Je l’ai conseillé à mon petit frère qui a envie de se faire un bon PC j’espère qu’il sortiront sur PC portable sa risque d’être une dinguerie en vrai
@Akktimel
@Akktimel 4 ай бұрын
Cool la vidéo, c'est bien que tu reviennes sur ton avis, tout ca de manière très documenté !
@MAXGraphicsPC
@MAXGraphicsPC 4 ай бұрын
nvidia c'est l'avenir les personne qui prenne du amd se tire une balle
@mcb9644
@mcb9644 4 ай бұрын
Pourtant NVIDIA avait annoncé la disponibilité de dlss 3 sur toute les cg
@RyanTm
@RyanTm 4 ай бұрын
3.5 seulement
@mcb9644
@mcb9644 4 ай бұрын
@@RyanTm ah oui en version 3.5 c’est bien ce que j’avais lu ça signifie que le 4 sera aussi rétro compatible ?
@RyanTm
@RyanTm 4 ай бұрын
@mcb9644 pas de soucis ! Alors non, le DLSS 3.0 n'est pas dispo sur les rtx 2000 et 3000, seulement sur la gen 4000. Ce qui est indisponible plus précisément est le frame génération, autrement dit la génération d'image via intelligence artificielle. C'est ce qui permet de faire des x2 jusqu'à x4 en terme de performance. Cette partie là du DLSS 3 n'est dispo que sur les RTX 4000 Le Ray reconstruction quant à lui est disponible sur toutes les RTX. Comme précisé dans la vidéo, le 0.5 du 3.5 est dispo partout, le 3 lui ne l'est pas.
@mcb9644
@mcb9644 4 ай бұрын
@@RyanTm je comprend merci je vais changer ma cg pour une 4070ti super j’hésite encore avec la 4070 super y’a quand même un gap de prix et je ne joue que en 1440
@PeypaMikko-1842
@PeypaMikko-1842 4 ай бұрын
Bravo pour cet avis nuancé, et bravo pour la sponso (ça fait toujours plaisir). "Politiquement", je suis du côté d'AMD à cause de l'attitude tarifaire de nVidia, mais je suis obligé de reconnaître la supériorité technologique actuelle des verts. Qu'on le veuille ou non, le DLSS et les technologies associées sont l'avenir des GPU.
@abdoulayesaidou3699
@abdoulayesaidou3699 Ай бұрын
Tou le monde a di qu'il ne vont pas acheté les rtx série 40 finalement tou le monde l'aime est reve de l'avoir
@vapecat1982
@vapecat1982 4 ай бұрын
"Achetez pas la 7800XT"
@RyanTm
@RyanTm 4 ай бұрын
Tu t'es trompé de vidéo beau gosse
@hidalgolara
@hidalgolara 4 ай бұрын
La resterisation = l'ancien monde?!! Non le gain de puissance ou de mémoire vidéo est necessaire à chaque nouvelle gen genre faire une 4070 avec 16 go de vram pour voir plus loin. Mais non Nvidia compte nous faire racheter une carte tous les 3 ans. La techno est une excuse pour nous vendre des cartes plus cheres chaques années pour peu de puissance. Vivement un troisieme gros calibre dans le monde des gpu pour assainir psk le coup de dlss 3 seulement pour les 4000 c'est très limite pour le gars qui a acheté une 3070 super ou une 3080 voir 3090. Si on achete votre 4070 super mtnt qui nous dis que dans un an vous nous couperez pas l'acces à une nouvelle techno ia de la série 5000 pour nous refaire passer a la caisse alors que la mise à jour est juste logicielle et fonctionnerai au poil sur la generation precedente qu'on a du payer deja une BLINDE
@RyanTm
@RyanTm 4 ай бұрын
Prend la RTX 2080ti avec 11go de VRAM et la 3060 avec 12go de VRAM. Tu verras que la mémoire vidéo on s'en fiche pas mal dans beaucoup de cas. Un exemple encore plus simple sur la gen 6000 chez AMD (qui est juste parfaite) avec 16go de VRAM sur la 6800, 6800xt et 6900xt (6950xt aussi). Pourtant la 6800 est moins puissante qu'une 3080 ayant 10go de VRAM. Aussi moins puissante qu'une 4070 avec 12go de VRAM. Le DLSS 3.0 est à mon sens inutile pour les personnes ayant une RTX 3000. Un bon coup de dlss 2.1 et ça passe très bien. Le but de la gen 4000 c'est d'attirer les détenteur de GTX 1000 et RTX 2000. Les RTX 3000 sont toujours viables, et si t'es allé à la fin de la vidéo, tu verras qu'on parle justement du faible gain entre les rtx 4060 et 3060, c'est juste un choix donné aux joueurs d'acheter une 3060 un peu moins chère pour jouer en raster, soit payer un peu plus cher pour le DLSS 3.0 Après bon si on a pas envie d'acheter une gen, on l'achète pas. Personne n'est obligé. J'ai pas vu grand monde critiquer l'industrie du smartphone de sortir des téléphones tous les ans et avec des améliorations, comme je n'ai vu personne crier en disant "dommage j'ai pris iphone 14 pro max, j'aurai du attendre le 15 pour l'usb c". On aime pas, on achète pas.
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@RyanTmJe crois que tu devrais tester la conso VRAM en face à face nVidia/AMD afin de remettre un petit peu les pendules à l'heure. J'en ai franchement marre de cet argument AMD "on a plus de VRAM". Tu verras que les pilotes AMD consomment plus de VRAM que les pilotes nVidia, ce qui explique en grande partie qu'à niveau tarifaire égal, les nVidia embarquent moins de mémoire. En tout cas c'est une idée de vidéo dont le résultat pourrait être très intéressant.
@hidalgolara
@hidalgolara 4 ай бұрын
@@fabricejaouen378 je crois qu'il n'est pas inexact de dire que les tarifs Nvidia sont prohibitifs? Pour l'argument de la Vram je veux bien mais franchement ça ira jusqu'où l'augmentation des tarifs? On peut leur demander leur marge net comparé aux intel arc ou amd rx? Je suis peut être complètement ignare et il y a une explication autre qui explique ces tarifs. Mais en temps que consommateur et client Nvidia je sens comme un manque de considération. Grand bien vous fasse si la pilule passe toute seule de votre côté
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@hidalgolara Un tarif n'est prohibitif que pour celui qui ne veut pas y mettre les moyens, ça c'est à l'appréciation de chacun. Personnellement j'ai donné un coup de collier cette année pour accéder à une 4070 ti super dont je suis totalement satisfait. Je sais qu'elle durera, au moins, jusqu'à la gen 6000 même si je prévois très fortement une 5080 si (et seulement si) elle embarque 24Go. Pour l''entrainement IA, pas pour le jeu. Mais pour en revenir aux tarifs et oublier ma petite personne, n'oublie pas que les super ont largement comblé le gap perf/prix de leurs concurrentes directes AMD, exemple la 4070 ti super est, à l'euro près, au même prix que la 7900XT (chez LDLC en tout cas) et en raster, elles ont exactement les mêmes perfs, quant-au Raytracing l'AMD se fait juste trucider, sans surprise. Tout ça pour dire que si on critique Nvidia sur leurs tarifs, alors on devrait avoir l'honnêteté de faire exactement la même chose pour AMD, à prix égal les perfs sont maintenant égales, la période pré 4000 et pré 4000 super fait partie du passé tu sais. Et j'oserais même dire qu'aujourd'hui, AMD est bien plus à blâmer sur ses tarifs qu'nvidia, car le gap en raster à prix égal étant nul, nvidia a de notoriété publique l'avantage sur tout le reste, il serait donc normal en fait qu'AMD soit bien moins cher sans que ça ne deviennent un argument marketing pour kevins en manque d'arguments estampillés AMDFan.
@hidalgolara
@hidalgolara 4 ай бұрын
@@fabricejaouen378 la gtx 1080 founders édition sortait à 699 dollars si je me souviens bien et la rtx 2080 était à 849 euros chez nous à la sortie. Je veux bien qu'il y ait l'inflation mais à ce point avec l'actuelle 4080 x) en tout cas si vous avez les moyens de subventionner et soutenir les pratiques de Nvidia j'en suis ravi mais le commun des mortels ne le pourra plus c'est tout c'est une question de prix. Quand intel viendra avec ses futurs battlemage peut être qu'il y aura une prise de conscience globale des deux leaders et en particulier de Nvidia. Amd j'ai jamais acheté donc je suis pas pro AMD du tout. Pour être transparent j'attends de voir intel en fin d'année avec ses nouvelles arc. La concurrence c'est top et intel va surement faire mal dans les années à venir aux gourmands mastodontes des gpu
@chrys6983
@chrys6983 4 ай бұрын
han la carte titan star wars
@MHMDNOFAL97
@MHMDNOFAL97 4 ай бұрын
Merci pour ton taff, je vais te parler de mon ressenti : Le DLSS 1 moi je l'avais apprécié !! Même si c'était moins performant que aujourd'hui c'était le début donc c'est NORMAL mais oui par rapport à aujourd'hui il n'est pas si fou Le DLSS 2.0 je vois pas ce que tu as a dire dessus, il éteint formidable sur énormément de jeux. Le Ray tracing j'ai jamais réellement été client. Mais le DLSS je joue tout le temps avec. Le 3.0 j'avais des à priori vue qu'on parle d'ia h24 en ce moment et j'avoue que c'est le pied, j'aime beaucoup la tech et le x4 en performance me plaît sur certains jeux. Après bon le RR C'est une technologie a activer uniquement pour le RT, donc c'est une "petite" avancée pour les gens qui jouent au jeux RTX. Par contre bon move de prouver image à l'appuie que le RR rajoute des performance en plus de la beauté. Bref j'ai trop écrit bonne vidéo !
@chrys6983
@chrys6983 4 ай бұрын
JIgfio Pete un plomb haha
@69wilon22
@69wilon22 4 ай бұрын
Moi jai le dlss 3 avec le mode Dlssg-to-fsr3 sur ma rtx 3090
@omegastar2264
@omegastar2264 4 ай бұрын
ça marche bien ?
@Fazersofti
@Fazersofti 4 ай бұрын
@@omegastar2264 trés bien quelque petit default mais rien de méchant ! transformer ma 3080 10gb en 4080 avec ce mod cest juste magique !
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@FazersoftiComment tu as fait pour passer ta 3080 à 16Go ? j'aimerais beaucoup savoir
@Fazersofti
@Fazersofti 4 ай бұрын
@@fabricejaouen378 J'ai toujours mes 10 Go ! c'est juste l' IA qui fait le taf !
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@FazersoftiDonc tu n'as pas transformé ta 3080 en 4080, faut stop se mentir.
@patrickfagioli1111
@patrickfagioli1111 4 ай бұрын
Perso mes jeux sont en natif toutes ces pseudo technologies je les laisse de coter.
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Elles ne sont pas pseudo, ces technologies, ce n'est que ton ressenti qui te fait les voir pseudo-utiles. apprends à parler, ou à écrire en l’occurrence.
@patrickfagioli1111
@patrickfagioli1111 4 ай бұрын
@@fabricejaouen378 oui tu as raison c'est mon ressenti comme tu dis. Après niveau écriture je suis pas là pour m'appliquer ni besoin de commentaires inutiles comme le tiens garçon.
@FIF0UTRE
@FIF0UTRE 4 ай бұрын
Personnellement ce qui ma vraiment freiner cest le prix et le manque de vram mais je pense que si cote prix les 5000 sont interessantes et quils sont bien en vram/bus je sauterai directement dessus
@MrCenttaurus
@MrCenttaurus 4 ай бұрын
Je viens d’acheter une rtx 4090 et je ne vais pas attendre une 5090 sûrement moins chère un poil mais minimum 600 watts pour commencer… EDF va frotter les mains…
@FIF0UTRE
@FIF0UTRE 4 ай бұрын
@@MrCenttaurus ouais mais le prix c'est pas tout le monde qui peut s'offrir ça puis on a toujours 0 info offic sur les prochaines cartes que ça soit consommation vram tech etc
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Il n'y a pas de "manque" de VRAM, il y a des pilotes nVidia qui consomment surtout 20% de moins en VRAM que les pilotes AMD. Quand un jeu consomme 16Go sur une AMD, il n'en consomme que 13 sur une nVidia, énormément de vidéos de benchmark "face à face" le prouvent et une vidéo de Daniel Owen le met en lumière très précisément. Si tu te renseignais un minimum, tu comprendrais que s'il y a de la ram et de la bande passante pci-express disponibles, il est extrêmement utile de décharger la VRAM pour mettre le moins utile en RAM systeme, quitte à devoir le rappeler rapidement, or, dans un jeu, la bp pci-express n'est quasiment pas utilisée, ou de façon très ponctuelle, nVidia l'utilise beaucoup plus qu'AMD ce qui a plusieurs bénéfices, l'économie de VRAM déjà, mais aussi une diminution substantielle des micro freeze (que beaucoup appellent à tort du lag), freezes qui pourrissent les low 1% et 0.1%, entre autres choses. Surtout qu'aujourd'hui la RAM ne coute quasiment plus rien, 64Go de DDR4 c'est 160€, en DDR5 c'est 290€. Dans tous les cas 64Go coutent moins qu'un cpu milieu de gamme ou un gpu d'entrée de gamme.
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@@MrCenttaurusTu te rappelle pas que jigfio annonçait 900 watts pour la 4090 ? on attend toujours l'erratum .... les 600 watts d'une 5090 j'y crois pas une microseconde. les leaks, c'est comme voici ou gala, c'est juste bon à faire jaser.
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
@RELes supers viennent de sortir .. tu crois pas que ça serait complètement débile commercialement de, déjà, annoncer les specs et tarifs des 5000 ? et pourquoi pas des 6000 tant que t'y es ? sérieux...... la 5090 est annoncée à 32Go et deux ou trois chiffres sont sortis, c'est cohérent, nVidia va vouloir aligner la 5080 sur les 7900XTX et la 4090, elle sera donc sans aucun doute à 24Go, du coup la 5090 sera vraisemblablement à 32Go. Mais avec une gravure à 3nm et, surtout, leur volonté affichée de maitriser la conso et la future absence d'AMD sur le très haut de gamme, il n'y a aucune chance qu'elles dépassent 450/500, et encore je suis très large, je parierai personnellement sur 400 pour les FE.
@drplaylist1550
@drplaylist1550 4 ай бұрын
merci
@C.Vitalizio
@C.Vitalizio 4 ай бұрын
Video interessante. Pour tes prochaines vidéos se serait bien d'éviter d'avoir le reflet de ton écran sur tes lunettes.
@RyanTm
@RyanTm 4 ай бұрын
Salut ! Merci ! C’est pas mon écran mais les lumières ! L’éclairage est à 50cm de mes yeux 🫡 Mais je ferais attention, merci du rappel
@redadaouni4178
@redadaouni4178 4 ай бұрын
Attends le paramètre c’est pas DLSS Rayconstruction un truc du même genre
@abderr4547
@abderr4547 4 ай бұрын
ENFIN UNE KFA2 ça fait du bien
@RyanTm
@RyanTm 4 ай бұрын
Vidéo kfa2 semaine pro !
@redadaouni4178
@redadaouni4178 4 ай бұрын
Alan wake justement quand Je terminerais le premier qui n’as aucune techno logique me direz-vous bah Je compte me prendre Alan wake 2 s’il baisse de prix pourquoi histoire d’utiliser le Ray Tracing ou le Path Tracing en 4K ultra histoire de voir de mes propres yeux 👀 se que le jeux vos avec c’est techno activer
@sethmiankouikila4164
@sethmiankouikila4164 4 ай бұрын
top
@nicotch600
@nicotch600 4 ай бұрын
👍
@0Clavix0
@0Clavix0 4 ай бұрын
💰💰💰💰 Apres moi je suis nvidia a mort , le peu de jeux ou une xtx a 5pauvre fps de + qu une 4080 mais a coter deca met entre 3 et 5 FOIS plus de temps a creer image ,video etc Dsl mais je prend nvidia ,je t ajoute meme 15fps cadeau si tu veux ,tu le verra pas avec ton full hd ou quadhd, en 4k tu as 4 fps ,ouaaaaw. Mais elle coute 100 euro de moins alors ca vaut grave lz coup!!! ( d ailleur ,tout les mec qui test sur youtube crache sur nvidia ,mais ils ont nvidia dans leur pc😅
@0Clavix0
@0Clavix0 4 ай бұрын
A j oublié " la puissance brut !!!!! 😂😂😂 M en fou ,si ma.voiture consome 10l.et si j appuis sur bouton 2l ,j appuie ,rien à faire que la voiture concurente qui a pas le bouton consome 6l😅
@jojostalino1377
@jojostalino1377 4 ай бұрын
Perso je trouve ça ouf ces technologies. Les gens ne se rendent pas compte de la folie que c'est le path tracing en temps réel. L'autre folie c'est que le cpu ne sert plus à rien en vrai. J'ai un vieux xeon 2660v3 et ça suffit à faire tourner Alan wake 2 tout au max avec le DLSS FG en 1440p à 80fps. Je pense par contre que le dlss brille le plus en 4k.
@victorblh2fknji
@victorblh2fknji 4 ай бұрын
Putain j'suis deg le chargement d'envoi de mon com' tourne dans le vide. Ca a planté. J'avais bien formulé mes phrases en plus, fait chier. Bon bref. Déjà sacré sponsor que t'as là. Je vais tacher de la faire aussi brève que possible. En gros j'ai une question : Sais-tu, si par exemple j'achète une 4070 Ti Super ou une 4080, aura-t-elle des chances de rester à jour au fil des années? N'aura-t-elle pas, au même titre que cette foutue 3070 que je me suis acheté sans jamais me douter que l'évolution de son DLSS ne pourrait pas se faire dans le temps (ils auraient pu prévenir aussi...) n'atteindra-t-elle pas sa date de 'péremption' cette fois encore, si nVidia n'a pas prévu de garder les drivers des softwares à jour au sein des 40xx une fois que la norme passera au-delà du DLSS 3.5? La prochaine génération de GPU va-t-elle nous faire repasser par la même case que la précédente, et les systèmes hardwares ne seront-ils plus suffisamment qualitatifs afin de permettre l'intégration des prochaines technologies? Tout au moins concernant le DLSS quoi. Pour faire simple: ai-je une chance de pouvoir garder et profiter d'un GPU de la génération actuelle pour encore, disons, une petite dizaine d'années par exemple? Sans me retrouver complètement largué sur le bord de la route par les nouvelles technos. Je me demandais si tu avais des infos sur l'après 3.5? et si nVidia prévoit une période de repos si j'ose dire. Y'a forcément un moment où on pourra se calmer quelques années. Peut-être faut-il la génération suivante, ou celle d'encore après, afin d'être certain d'avoir quelque chose de vraiment intéressant. Comme ça va être enfin le cas à partir de cette années concernant les dalles et écrans. Les technologies intéressantes commencent à être suffisamment établies, et utilisées, et comprises, les prix vont devenir attractif et les stats vont eux devenir plus qu'intéressants. Les RTX 40xx valent-elles finalement réellement le coup? /autant que le coût. Merci à toi. Personnellement j'e sais très bien que ce genre de situations va arriver de plus en plus souvent (soucis hardwares - softwares). Sachant que les technologies évoluent toujours plus rapidement, et que cela va continuer encore, et encore, de manière exponentielle. Toujours plus vite. Toujours plus loin. Effet boule de neige inarrêtable. Mais je ne veux pas et ne peux pas vivre avec le besoin de changer mon GPU tous les 2 ans pour rester quali. Ce n'est pas faisable. Je vois bien la série RTX 60xx commencées à proposer des systèmes capables de suffisamment durer parmi les vraies technologies next-gen. Tandis que là, à l'heure actuelle, j'ai un peu plus de mal à y croire. Et malgré tout j'ai grave besoin d'une foutue carte graphique qui fasse l'affaire quoi... Et qui dure. Et sans y foutre le prix d'un permis - ni payer des facture élec' équivalentes à l'utilisation de rigs de minages crypto juste parce que j'ai geeké une semaine sur mon PC. Bon bref. Navré pour le pâté de lettres que je viens de poser. J'avais seulement l'intention de poser ma question.
@riry2428
@riry2428 4 ай бұрын
tu débites chef
@victorblh2fknji
@victorblh2fknji 4 ай бұрын
@@riry2428 Je débite, je débite. Non mais plus sérieusement, si jamais quelqu'un d'autre a la réponse ou a une idée sur le sujet, qu'il n'hésite pas non plus à donner son avis. A part ça (pour Ryan) juste je précise au cas où il y aurait quiproquo : Lorsque j'ai dit "Sacré sponsor que t'as là." c'était pas ironique ou avec arrière-pensées. Au passage je respecte l'honnêteté chez une personne. Tout le monde peut changer d'avis si les raisons sont concrètes et véridiques, c'est parfaitement normal, et heureusement. Les autres se voilent la face si ils ne sont pas capables d'avouer leurs vérités et de rester sincères face à leurs principes - potentiellement jusqu'à dire qu'on s'est trompé, par exemple. Le changement régit toute chose, tout ce qui est. Le mouvement est constant. Donc nos idéaux aussi lorsqu'on est en accord avec soi-même.
@riry2428
@riry2428 4 ай бұрын
Bah tu peux attendre à l'infini si tu continues comme ça donc prends un truc bien en fonction des prix et c bon
@fabricejaouen378
@fabricejaouen378 4 ай бұрын
Une petite dizaine d'année ? non ça ne s'est jamais vu et ça ne se verra jamais, à moins de te cantonner au 1080p et de progressivement réduire de plus en plus la qualité graphique des jeux si tu joues aux AAA. Pour mon histoire perso et parce que voilà, j'ai été de 2016 à 2021 sur une GTX970, imagine quand même que sur les séries 70 et en seulement 6 ans, on est passé de 4 à 8Go de VRAM, puis en 2023 à 12, et maintenant à 16 avec la 4070ti Super. donc non, 3/4 ans ça reste acceptable, mais une petite dizaine d'années , quel que soit le modèle, c'est farfelu, d'autant qu'il me parait évident que de plus en plus de techs feront appel à l'IA et que cette IA s'appuiera nécessairement sur l'accélération matérielle. Personnellement et depuis 2021 j'ai fait un choix : tous les deux ans , à chaque changement de gen en gros, je vends ma carte d'occaze car à moins de deux ans ça se vend bien en prix, et assez facilement car non agée, et j'allonge la diff pour la nouvelle carte, le tout avec 3 critères sur lesquels je ne transigerai jamais : la diff (achat neuf)-(vente occaze) doit être inférieure à 500€, les fps doivent au moins être 30% supérieurs, la VRAM doit être au moins 20% plus grande à moins que la carte d'occaze ait déjà 24Go. Là je viens de vendre ma 4070 pour 500, et je viens de recevoir ma 4070 ti Super achetée 980. 480 de diff, +30% de VRAM, +35% de FPS en 4k. Bref t'as compris le principe, ce n'est pas un conseil ni une recommandation, je dis juste que si je m'y retrouve dans ce mode de fonctionnement tu peux aussi t'y retrouver dans quelque chose de ressemblant. Sur la question du rapport entre le coût et les perfs, je pense très honnêtement que c'est un argument totalement démago, et totalement débile. Déjà , quand on achète une carte gaming, on prévoit pas de gagner d'argent avec les fps qu'on génère, et dans ce cas, pourquoi calculer un ratio entre ce qu'elle coûte et la performance qu'elle produit ? Cet argument est un argument AMD pour chatouiller l'égo de ses clients, c'est rien d'autre. C'est comme une caisse, compare une Clio de 200 chevaux à 25000€, et une BMW de la même performance à 35000€, tout le monde sait pourquoi la BMW coute beaucoup plus cher, sécurité, tenue de route, options, durée de vie, service au client, et j'en passe, et personne ne chiale devant le ratio perf/prix. ben nVidia c'est comme BMW, beaucoup plus de technologies, bien plus abouties que sur AMD, des pilotes d'équerre dès le premier jour, une panoplie de logiciels d'accompagnement extrêmement efficace (nVidia broadcast par exemple, ou encore la suite CUDA, incontournable dans énormément de domaines). Par contre on se demande bien pourquoi AMD ne communique pas sur l'efficacité énergétique hein, alors que là c'est carrément judicieux, un seul chiffre, enfin deux : en passant de la 3060ti à la 4070, je suis descendu de 150 à 60 watts de conso en fps bloqué avec les mêmes réglages.. c'est pourquoi je prefere profiter de chaque nouvelle gen plutôt qu'essayer de faire durer, on profite des améliorations de chaque gen sans trop y dépenser.
@victorblh2fknji
@victorblh2fknji 4 ай бұрын
@@fabricejaouen378 Oui ça se tient tout à fait et c'est entièrement acceptable selon mes critères. C'est certainement sur un tel mode de fonctionnement que j'aurais fini par partir malgré moi, c'est-à-dire sans même chercher à le vouloir ou non, c'est un système qui se serait installé naturellement dans mon fonctionnement. (La 3070 étant mon tout 1er achat - d'ailleurs de manière générale c'est mon tout 1er PC enfait. Mais je me suis retenu sur chaque aspect, me disant que mieux allait arriver. Mais oui, mieux arrivera toujours. Après par exemple, niveau moniteur je suis content de m'être retenu jusqu'à maintenant; là je vais réellement pouvoir me faire plaisir avec une pièce de choix, et qui durera suffisamment selon moi. Je pense d'ici la fin de l'année ou début d'année prochaine je me prends une magnifique machinerie, sans faille.) Mais concernant le PC en soi, je vais commencer à me faire plaisir, tout en restant tout de même raisonnable mais faut bien que je commence à un moment. Et t'façon y aura toujours mieux. C'est comme ça. J'ai pas de cheat-code illimité quel que soit le sujet. Oui, non non on est d'accord j'ai forcé sur la dizaine d'année, mais dans l'idéal bah...environ 10 ans resterait un idéal quoi, évidemment. Mais oui, en restant conscient et rationnel, 3 à 4 ans est plus sensé. Puis comme je disais, l'évolution s'accélérant de façon exponentielle, + oui cette entrée en puissance dans l'ère de l'IA, nouvelle ère de l'humanité si tu veux mon avis, il y avait un avant & désormais il y aura la suite... Et finalement, ce sera peut-être plus quelque chose de l'ordre du changement de GPU tous les 2 voir 3 ans entre chaque achat / vente. Ca ne fait aucun doute aussi, en effet, plus les avancées vont se faire, plus les mises au points seront eh bien au points, les technologies qui étaient auparavant nouvelles seront toujours mieux connues et abouties avec le temps, et donc plus efficaces de par tous les aspects (dont la consommation énergétique donc.) Jusqu'à la découverte majeure de futures technos qui, elles, redemanderont de vastes prix pour leurs débuts. Et ainsi de suite. Juste pour finir, on s'en branle un peu mais j'aurais plutôt tendance à comparer nVidia à Koenigsegg qu'à BMW. Ou, enfin remarque, non, tu as raison dans le sens où on pourrait dire que leurs GPU à destination du milieu gaming sont bel et bien à l'équivalence de BMW - même BMW dans son haut de gamme - tandis qu'en parallèle ils proposent aussi du Koenigsegg à destination des domaines professionnels spécifiques les plus sophistiqués, sans frontière à l'espace du globe. (Enfin peut-être un peu de frontières quand même... sachant que la Chine a réussi à proposer son propre ordinateur quantique composé dans son entièreté de pièces chinoises, par exemple. Mais je me suis compris lol.) Merci pour ton retour.
ОСКАР vs БАДАБУМЧИК БОЙ!  УВЕЗЛИ на СКОРОЙ!
13:45
Бадабумчик
Рет қаралды 6 МЛН
Survival skills: A great idea with duct tape #survival #lifehacks #camping
00:27
THEY WANTED TO TAKE ALL HIS GOODIES 🍫🥤🍟😂
00:17
OKUNJATA
Рет қаралды 24 МЛН
Qu'est ce que NVIDIA DLSS 3.5?
5:42
Tech_Sama
Рет қаралды 13 М.
No One ACTUALLY Cares about Graphics... Here's Why
11:21
carte graphique : comparatif et bons plans 2024  s6
8:03
TechnoloGeex
Рет қаралды 4,6 М.
LE RAY TRACING : TOUJOURS INUTILE APRÈS 5 ANS ?
37:07
Ryan TM
Рет қаралды 47 М.
👑NVIDIA en passe de Dominer le Monde (Faut-il investir ?)
16:43
Test RTX 4080 Super - Juste une Super Réduction?
17:43
Tech_Sama
Рет қаралды 17 М.
50 МЕГАЯЩИКТЕН НЕ ТҮСЕДІ ЕКЕН?!
18:41
Асхат Gaming
Рет қаралды 49 М.