#20
Akasut
Guru |
14-05-2020 10:11
"Der ikke er plads til udvikling" fordi AMD vælger at konkurrere mod Intel. Det argument giver ingen mening fra din ven. Baseret fra det standpunkt, så hvis Ryzen ikke eksisterede så havde vi udvikling? Haha, så hed de næste år quadcores med SMT som i7 stadig fra Intel. Konkurrence driver netop udvikling, det firma der leverer det bedste produkt vil drive kunderne til sig. De vil så få flere penge til R&D og lave endnu bedre produkter. Det handler hele tiden om at overgå konkurrencen, der hvor man kan se stagnering er f.eks. cartel-aftaler og price-fixing.
CPU udvikling har været langsom i sidste årti, men det er fordi FX series var noget lort, og Intel har siddet på deres numse og skovlet penge ind på samme suppe kogning, som du selv præsenterer i første afsnit. Ryzen i 2017 fik Intel op af stolen, og nu har vi hexacore, octacores på affordable consumer level fra begge firmaer.
Mindre fremstillingsprocess er også blevet sværere, der tales om at Moores Law er død. Det ses også at vi mere eller mindre har ramt en mur på clockhastigheder for begge teams, så nye generationer handler om at være mere energieffektive, så der kan hentes IPC forbedringer. At gå rigtig bredt med flere kerner dur heller ikke grundet software kodning som largely stadig er sekventiel og ikke parallelt.
Lige nu arbejder de med designe CPUer på en ny måde, gennem on-die løsninger for fx memory, 3D stacking, chiplets, små og store kerner på samme package. En hel ny måde at tænke på, fordi det er nødvendigt i fremtiden grundet disse "mure" man mere eller mindre er løbet ind, og det vil koste for meget at 'bruteforce' gennem det. Så man prøver at få tingene fysisk tættere på hinanden for at få mere performance, for hardware generelt handler om hvor langt og hurtigt data skal/kan rejse rundt i maskinen.
Samme problemstilling ser man for GPUer. Textures bliver compressed og decompressed med acceleration for at de kan spare på VRAM omkostninger. Prøv at forestille at der var intet af dette, og et midrange 300 USD kort skulle efter gamle standarder have 16GB VRAM på sig. Sidst jeg så kostede den nyeste hastighed GDDR6 12 USD for en GB, gang det med 16 og så har man 200 USD udgifter på 300 USD kort. Det hænger ikke sammen, og prisen måtte forøges til det punkt at kunderne ikke ville være i stand til at købe produktet - folk køber baseret på evner end of the day. Så her skal man også tænke outside the box, og det er den retning vi ser NVIDIA gå.
Så nej, hvis noget omfattes at gå for hurtigt/langsomt, så er det mere sandsynlig at det er tekniske udfordringer indenfor industrien og ikke at et firma lige pludselig laver en 180 på tankelinjen "vi har ikke længere lyst til at tjene penge". Husk på at vi som hardware enthusiast / DIY community er en loud minority, vi er ikke dem der sørger for at AMD og Intel skovler penge ind. Der er andre brancher som er i konstant udvikling som står for større bider af deres indtjening, hvorfor AMD og Intel er nødt til hele tiden at oppe sig og levere til disse.