Da, Pascal este oficial lansat si o sa fie disponibil in foarte scurt timp. E un moment foarte important atat pentru Nvidia, cat si pentru gamerii care strang de ceva vreme bani pentru noua generatie. Este acel moment in care multi vor decide daca vor cheltui banii sau vor mai acorda inca o sansa celor de la AMD si vor astepta aparitia Polaris sau Vega.

Au tot fost leak-uri care ne-au aratat o parte din caracteristicile pe care Nvidia le implementeaza in noua generatie. Frecventele vehiculate recent sunt cele reale. Nvidia Ansel face un pic mai mult decat ce aflasem din informatiile „scurse” pe internet, iar SLI-ul este doar 2-way. Sunt doar o particica din caracteristicile noi pe care Nvidia le aduce odata cu Pascal.

Vom discuta despre fiecare in parte si intr-un final vom ajunge la o concluzie daca merita investit in Pascal din ziua 0.

Nvidia GeForce GTX 1080

Preturile au fost anuntate dinainte si toti romanii pasionati sunt cuprinsi de teama ca distribuitorii isi vor face de cap iar cu noile placi si le vor vinde la cel putin 4000 Lei. Aceasta teama este perfect de inteles. Oricum, celor carora le va face cu ochiul aceasta placa o vor putea intotdeauna comanda de afara.

Ca de obicei, vom arunca un ochi pe specificatiile tehnice si apoi vom continua calatoria in lumea caracteristicilor.

Cifrele pe care Nvidia le-a anuntat in prezentare sunt mind blowing si va inteleg entuziasmul pentru ca si eu sunt la fel de entuziasmat.

Bine, eu sunt super curios de implementarile producatorilor de renume ca MSI, Gigabyte, EVGA, Asus etc. Dar va trebui sa asteptam ceva mai mult pana atunci.

 

Specificatii

Vom compara 1080 direct cu 980 deoarece este succesorul acestuia. Nu are rost comparatia cu GTX 980 Ti deoarece sunt segmente diferite si, pana la urma, va aparea si 1080 Ti. Bineinteles, in teste am folosit si 980 TI, dar este o cu totul alta discutie.

Revenind la 1080, puteti sa vedeti in tabelul de mai jos cam ce s-a schimbat comparativ cu 980.

Cele mai importante specificatii sunt numarul de sharede si frecventa de lucru. Ele dicteaza schimbarile majore de performanta si, dupa cum se poate observa din tabel, GTX 1080 le are mai mari cu destul de mult. Evident, numarul de transistori a crescut. E logic, sunt mai multe shadere. Totusi, suprafata totala a cipului grafic a scazut si asta se datoreaza trecerii la un proces de fabricatie pe 16nm.

De asemenea, si memoria este schimbata. Daca pe GTX 980 aveam gDDR5, pe GTX 1080 avem gDDR5X care functioneaza la o frecventa mult mai mare. Astfel si latimea de banda este mult mai mare. Este interesant faptul ca Nvidia nu au mai trecut prin comunicarile lor pe cati biti este magistrala.

Cu siguranta au ales sa omita acest detaliu deoarece multi au crezut ca acei 128biti de pe GTX 960 ofera o latime de banda prea mica. Oricat am batut eu apa in piua despre faptul ca Nvidia foloseste lossless compression si echivaleaza cu o magistrala pe 192 biti, nimeni nu a inteles. Toti au ramas fixati pe faptul ca are magistrala la jumatate fata de ceea ce oferea AMD la acelasi pret, adica magistrala pe 256 biti.

In cazul lui GTX 1080 este pe 256 biti, dar nu au mai inclus aceasta informatie in tabelul cu specificatii..

Stiu ca pare insuficient. Este o cifra mai mica decat 384 biti sau 512 biti cat au avut in general modelele high-end. Dar credeti-ma ca aceasta magistrala este suficienta din doua motive: gDDR5X si un nou mod de compresie.

Atat Titan X cat si GTX 980 Ti au magistrala pe 384 biti si latimea de banda in cazul lor este de 336 GB/s. Iar GTX 1080 are cu magistrala pe 256 biti o magistrala de 320 GB/s. Eu zic ca sta foarte bine.

 

Arhitectura

In cazul in care aveti curiozitati despre arhitectura si vreti sa vedeti mai bine ce reprezinta GTX 980 pentru un cip intreg, puteti vizualiza diagrama lui Titan X aici. Spre diferenta de Titan X, GTX 980 are doar 4 GPC-uri, adica clustere cu shadere Cu alte cuvinte, in GTX 980 erau prezente doua treimi din cipul intreg. Si GTX 1080 are tot 4 GPC-uri, insa, diferenta o face numarul de shadere din fiecare GPC, precum si componentele din fiecare GPC. Adica, Maxwell are 8 Stream Multiprocessors per GPC, iar Pascal are 10 SM-uri (Stream Multiprocessors).

Putem sa extrapolam si sa ne imaginam cum o sa arate GTX 1080TI. GTX 980 Ti era un cip de Titan X, dar care avea lipsa o jumatate de GPC. Daca urmatorul Titan si 1080 Ti vor respecta acelasi traseu in sensul ca 1080 Ti vor fi cipuri de Titan (Pascal) defecte, inseamna ca Titan cu Pascal ar trebui sa aiba 3840 de shadere (6 GPC-uri), iar 1080 Ti ar trebui sa aiba 3840 shadere minus o jumatate de GPC (320 shadere), adica 3520.

Pare un numar foarte mare, insa si Titan X avea cu 30% mai multe shadere decat GTX 980.

Ramane de vazut daca se vor adeveri previziunile mele. Poate va apucati si voi sa va uitati la ce inseamna GTX 960 pentru GTX 980 in ceea ce priveste numarul de shadere GPC-uri si SM-uri si faceti si voi o previziune. Astept ideile voastre in comentarii.

Diagrama GTX 1080

 

Diagrama  GTX 980

Se vede din diagrama ca GTX 1080 are 8 controller-e de memorie. Fiecare este pe 32 biti si intr-un final avem acei 256 biti despre care vorbeam mai devreme.

Configuratia pentru viitoarele cipuri pe care le vor lansa Nvidia nu prea pot sa o inteleg. Probabil vor folosi tot 4 controller-e pe 64 biti ca in cazul lui GTX 980 si astfel o sa fie o magistrala tot pe 256 biti, dar cu latime de banda mai mica. E destul de evident ca vor folosi gDDR5, nu gDDR5X. Ma refer la modelele inferioare lui GTX 1080.

Ca sa intelegeti logica din spatele previziunilor de mai sus, aruncati o privire pe diagrama cipului Pascal intreg folosit pentru Tesla P100:

 

Constructie

GTX 1080 nu este fundamental diferita de GTX 980. Include acelasi cooler, dar veti vedea la temperaturi ca ceva este schimbat. Si include si un backplate. La fel ca in cazul lui GTX 980, backplate-ul este format din doua bucati, doar ca la GTX 1080 avem doua bucati mari cat jumatate din PCB. Iar la GTX 980 este una foarte mare si un mica in zona alimentarii.

 

Hai sa vedeti cum arata si sub carapace si cum se scoate backplate-ul.

Singurul motiv pentru care ai nevoie sa scoti doar o parte din PCB este acela de a optimiza airflow-ul intr-o configuratie SLI. Evident, este aplicabil pentru acele configuratii in care placile sunt lipite una de alta.

 

Si acum si partea frontala:

Stiu ca pare ca puteau sa inghesuie mai bine toate componentele, insa cu siguranta pe celelalte straturi sunt circuite care nu puteau fi scurtate. Cred ca ar fi fost interesant daca ar fi pozitionat alimentarea in dreptul acelui conector de 8 pini lipsa.

 

Caracteristici noi

Bineinteles, Pascal aduce foarte multe caracteristici noi, insa, noi vom discuta doar despre cele ce ne intereseaza cel mai mult. Le aveti insirate mai jos pe cele mai importante impreuna cu explicatii mai pe intelesul tuturor.

Fast Sync

Personal, aceasta caracteristica ma intereseaza extrem de mult. Le-am studiat tehnologia GSYNC si am vazut unde nu e ok, dar si unde se descurca bine. Are si avantaje, dar si dezavantaje. In esenta, Fast Sync a fost dezvoltat in jurul latentei reduse si reprezinta o alternativa la traditionalul VSync, eliminand tearing-ul, dar mentinand si o latenta scazuta. Puteti consulta efectul VSync asupra timpului de raspuns din acest articol. Urmariti dunga albastra si cea rosie in grafic.

Problema cu VSync este ca pune presiune pe engine-ul jocului pentru a se incetini astfel incat sa se sincronizeze cu monitorul si cu cele doua buffer-e (Front buffer si Back buffer). Practic, engine-ul asteapta ca monitorul sa zica: „hai Gogule, trimite frame-uri”. Daca Vsync este oprit, presiunea dispare si engine-ul este capabil sa redea liber si la 500fps. Evident, un monitor de 144 Hz va afisa doar 144 de cadre si restul se vor pierde, insa engine-ul jocului nu va fi incetinit pentru a se sincroniza cu monitorul. Rezultatul este un timp de raspuns cat mai mic posibil, insa numarul mare de cadre face ca bufferele de afisare sa se desincronizeze si cadrele sa se rupa (apare tearing).

Explicatia tehnica este prea complexa si ma voi rezuma la cateva propozitii pe intelesul tuturor. In mod normal GPU-ul „scuipa” cadrele catre Back buffer, in vreme ce Front buffer-ul „scuipa” catre monitor. In tot acest proces bufferele asteapta unul dupa altul si mai ales, asteapta semnalul de la monitor ca a terminat de scanat toate cadrele. Din acest motiv si apar latente incredibil de mari cand este folosit VSync.

Fast Sync este o abordare cu totul noua. Practic, partea de randare este decuplata de cea care se ocupa de afisare. Nu mai exista „nimic” care sa spuna ca trebuie asteptat semnalul monitorului si incetinit la 60 Hz, sau 144 Hz sau ce refresh are monitorul.

Bine, asta se intampla daca este folosit modul de afisare Fast Sync. Altfel, Pascal este perfect capabil sa induca tearing si sa produca timpi de raspuns mari, la fel ca orice placa video incetinita de VSync la un framerate mare.

Au reusit sa faca asta inserand un al treilea buffer. Nu are nicio legatura cu metoda de afisare triple buffering care presupune inserarea unui al doilea Back buffer. Nvidia de fapt a introdus un al treilea buffer numit Last Rendered buffer care va mentine intotdeauna informatia trimisa din Back buffer. Seamana cu un chinez mic care ia de acolo si pune acolo. Insa, pentru a eficientiza procesul si a nu copia data fara rost dintr-un buffer in altul, Nvidia redenumeste bufferele constant si astfel monitorul crede ca ia mereu cadre din acelasi buffer.

Procesul arata cam asa:

  1. Scanare din FB
  2. Randare catre BB
  3. Cand randarea a luat sfarsit:
    1. BB devine LRB
    2. LRB devine BB si randarea continua
  4. Cand randarea a luat sfarsit:
    1. BB devine LRB
    2. LRB devine BB si randarea continua
  5. Cand randarea a luat sfarsit:
    1. BB devine LRB
    2. LRB devine BB si randarea continua
  6. Cand scanarea a luat sfarsit:
    1. LRB devine FB
  7. Incepe scanarea din noul FB

Masuratorile de mai jos sunt realizate de catre Nvidia si arata clar o imbunatatire a timpului de raspuns. Daca e sa ma iau strict dupa rezultatele obtinute cu VSync On, as spune ca au folosit un monitor FHD cu panou de 5ms. Din pacate nu au specificat aceste detalii.

Si desi pare o tehnologie misto, reduce doar o parte din problema, pentru ca cea mai mare problema o reprezinta procesoarele de semnal ale monitoarelor. Voi publica un material pe tema asta in scurt timp.

 

Ansel

Caracteristica asta este super misto pentru creatorii de continut. E misto atat pentru reviewer-ii de jocuri cat si pentru Youtuber-i si pasionatii de screenshot-uri si MOD-uri in Skyrim si alte astfel de jocuri. Hai sa va explic si de ce.

In primul rand aduce posibilitatea de a realiza screenshot-uri la 360° ce pot fi randate in browser folosind player-ul Unity.

In al doilea rand aduce Super Resolution Pictures care iti va permite sa capturezi imagini gigant in care vei putea face zoom ca in filme:). Suna stupid, dar cand dai actual size pe o astfel de imagine poti vedea cele mai interesante detalii fara sa fie nevoie sa faci tu cate un screenshot intr-o scena pentru fiecare punct de interes.

In al treilea rand va permite inregistrarea de screenshot-uri RAW sau EXR si asta inseamna ca vei putea modifica parametrii la fel cum faci si cu RAW-urile capturate cu aparatele foto.

Si nu in ultimul rand ofera si Post Process Shader care iti va permite sa modifici imaginea in diferite feluri folosind color aberation, film grain, distorsiune etc.

 

 

Enhanced Memory Compression

La fel cum au folosit si in trecut si la Pascal folosesc o tehnologie ce are rolul eficientizarii utilizarii latimii de banda a memoriei. Mai precis, este vorba de a 4-a generatie de Delta color compression si are un factor de compresie de 8:1, unde la Maxwell era vorba de 4:1.

Dupa compresie rezulta o imagine pe care noi nu o putem intelege, insa GPU-ul stie foarte bine ce a fost compresat si cum ca d-aia avem pe monitor pixeli colorati.

 

High Bandiwidth SLI

Dupa ani si ani s-au gandit ca ar fi cazul sa umble putin si la SLI. Acest mod nou de SLI presupune folosirea unui bridge rigid ce utilizeaza ambii conectori de pe fiecare placa video Nvidia implicata. Cu ocazia asta Nvidia au anuntat si ca nu mai recomanda 3&4 way SLI. Si in caz ca cineva vrea un astfel de setup va trebui sa aplice la un program special pentru entuziasti.

Cert este ca noul SLI reduce sttutering-ul si arata si mult mai bine decat bridge-urile vechi.

 

Galerie foto

 

Platforma de test si metodologie

Pentru testarea noii placi video am folosit urmatoarele componente:

  • Placa de baza: Asus Z170 Deluxe
  • Procesor: Intel Core i7 6700K @4,5 GHz
  • Cooler: Noctua NH-D15
  • RAM: 4x4GB Corsair Vengance @ 3200 MHz
  • Stocare: mSATA 240 GB Kingston + Kingston HyperX Savage 480 GB
  • Sursa: Enermax Platimax 1500W
  • Carcasa: InWin 707

 

Jocurile folosite pentru testele placilor video sunt:

  • Bioshock Infinite
  • Thief
  • Dragon Age Inquisition
  • DiRT Rally
  • GTA V
  • Middle-Earth: Shadow of Mordor
  • Rainbow 6 Siege
  • FarCry Primal
  • The Division
  • Ashes of the Singularity
  • HITMAN 2016
  • Rise of the Tomb Raider

Bineinteles, pentru fiecare dintre jocuri am ales o serie de setari care vor ramane batute in cuie de acum incolo. In unele cazuri am avut in vedere si posibilitatea ca acele jocuri sa ramana in procedura noastra de test peste cativa ani si din acest motiv am ales sa rulam si folosind AntiAliasing la rezolutii mari precum 4K. Rezultatele pe care le veti vedea pot parea stupide. Sunt foarte mici. Dar, odata cu progresul tehnologic veti vedea si scalare a acestora.

Singurul test sintetic pe care il rulam este 3D Mark in modul Firestrike Extrem, dar si Ultra. Acest mod din urma l-am rulat doar pe cele mai noi placi, insa in Extreme avem o colectie frumoasa de rezultate obtinute de-a lungul timpului. Mai exact de cand am schimbat platforma de test, adica la lansarea lui Skylake.

Acelasi lucru este valabil si pentru temperatura si consum. Fiind aceeasi platforma de test, ne permitem sa va servim mult mai multe rezultate decat subiectii principali ai acestui articol

La capitolul jocuri ne vom rezuma la a testa doar urmatoarele placi video:

  • AMD Fury Nano @ default clocks
  • AMD Fury X @ default Clocks & Overclocked
  • Nvidia GeForce GTX 980 reference design @ default clocks
  • Gigabyte GeForce GTX 980 Gaming G1 Overclocked
  • Nvidia GeForce GTX 980 Ti reference design @ default clocks
  • EVGA GeForce GTX 980 Ti Classified Gaming ACX 2.0+ Overclocked
  • Nvidia GeForce GTX 1080 @ default clocks & Overclocked

Pentru placile video Nvidia am folosid driverul 368.16, iar pentru placile AMD versiunea 16.5.2.

Sistemul de operare este Windows 10 deoarece o serie dintre jocuri sunt compatibile DirectX 12 si acest API este disponibil doar pentru Windows 10.

 

Temperaturi si consum

Temperaturi

Evident, temperatura atinsa este cea setata de limita. Pentru a mentine aceasta temperatura, turatia ventilatorului este crescuta in mod automat. Turatia lui GTX 1080 ajunge la aproximativ 2100 rpm, la fel ca si in cazul lui GTX 980 de referinta. In cazul lui Titan X, turatia ventilatorului ajunge la aproximativ 2300, iar la GTX 980 Ti de referinta atinge 2500 rpm.

 

Atunci cand ventilatorul functioneaza la putere maxima, temperatura GPU-ului scade la 65°C. Nu este o scadere foarte mare pentru cat de zgomotos e, dar macar ofera niste headroom pentru overclocking crescand voltajul.

Ca sa va faceti o idee despre ventilatoarele folosite de Nvidia pe modelele lor de referinta aveti mai jos o lista cu turatia maxima a celor mai noi modele. Tineti minte ca ventilatoarele au acelasi calibru si turatia crescuta are intotdeauna un efect benefic in sporitul racirii.

  • GTX 980 – 4200 rpm
  • GTX 980 Ti – 4800 rpm
  • Titan X – 4800 rpm
  • GTX 1080 – 4000 rpm

Consum

 

Imagini termoviziune

 

Temperaturi din imaginile cu termoviziune

 

 

Nicio temperatura nu este mai mare de 67°C. Se putea si mai bine, dar ar fi fost prea zgomotoasa placa. In mod clar se putea si mai rau. Am vazut asta la 980 Ti care este mult mai fierbinte.

Ce nu imi place este incalzirea cooler-ului procesorului. Se poate vedea asta in prima imagine. Temepratura cooler-ului fiind de fapt mic, insa acea latura indreptata spre GPU captase din caldura.

In cazul in care ai un PC compact efectul este negativ pentru ca CPU-ul se incalzeste artificial din exterior. In cazul nostru nu a avut nicio importanta.

 

Overclocking

La capitolul overclocking au aparut niste schimbari majore datorita GPU Boost 3.0. Bine, intr-un final overclocking-ul se poate face in modul standard, dar si folosind o curba in functie de voltaj. Practic, voltajul poate fi crescut in functie de frecventa. E o chestie misto pentru ca in cazul in care GPU-ul functioneaza la o frecventa mai mica decat cea maxima, voltajul va fi mai mic si implicit si temperatura va fi mai mica.

Am incercat sa overclockez GTX 1080 folosind aceasta noua tehnica, insa mai sus de 2025 MHz instabil nu am reusit sa ajung.

Totusi, folosind metoda clasica: ventilator la maxim, voltaj crescut, crestere in pasi a frecventei pana la punctul maxim, am reusit sa ajung la 2050 MHz perfect stabil cu cresteri din cand in cand la 2075 MHz. Creste si frecventa memoriei pana pe la 5559 MHz, de la 5000 MHz. Din pacate screenshot-ul de mai jos este realizat fara aceasta crestere. Mai sus de aceasta frecventa au inceput sa apara artefacte.

 

Teste de performanta – detaliat

3D Mark Firestrike

 

Teste FHD – 1080P

 

Teste QHD – 1440P

 

Teste UHD – 2160P

 

Teste de performanta – simplificat

Stiu foarte bine cat de greu este sa urmaresti absolut toate testele. Au fost rulate cel putin 540 teste in total. Oricum, tendinta se mentine pe parcursul tuturor testelor.

GTX 1080 ->GTX 980 Ti-> GTX 980 OC/Fury X-> GTX 980 Default/Fury Nano. In graficul de mai jos apare GTX 980 OC cu o medie mai slaba decat a lui Fury X OC. E normal. GTX 980 overclocked este mai slaba in 4K fara Antialiasing.

Anyway, din media de mai jos ne vom apuca sa il spargem in mai multe medii interesante care au ajutat la acest prim grafic. Vom imparti in primul rand pe rezolutii pentru ca majoritatea oamenilor au ecrane Full HD si cativa QHD si poate s-a trezit cineva intre timp sa isi ia si un 4K. Evident, vom sparge mediile si in teste fara AntiAliasing. Eu unul nu folosesc niciodata AntiAliasing si majoritatea gamerilor care prefera un numar mare de cadre pe secunda stiu despre ce vorbesc si despre impactul asupra performantei pe care il are.

Overall Average

Cel mai important lucru de retinut din graficul de mai sus este ca GTX 980 Ti overclocked la 1539 MHz se apropie foarte mult de GTX 1080.

 

Media pe rezolutii cu tot cu AntiAliasing

 

Media pe rezolutii fara AntiAliasing

 

Concluzii

Pentru prima oara in viata mea voi include doua grafice in concluzii. Mie mi se pare ciudat, insa aici isi au rost graficele cu procentaje pentru ca intr-un final cu ele tragem cel mai usor concluzii.

Ce este GTX 1080 in momentul actual?! Este un avion. Si nu orice fel de avion, ci unul care mai si consuma super putin. E foarte tare progresul tehnologic facut asa, nu ca AMD. Insa exista intotdeauna si o parte cam imputita a lucrurilor.

Nvidia si-au asigurat o pozitie de lider pe piata GPU-urilor. E destul de clar asta. Si tocmai aceasta pozitie de lider este nociva pentru cumparatori. Nu este prima oara cand si-au repozitionat produsele pe piata. Aduceti-va aminte de GTX 680 care a fost in zona de pret in care trebuia, apoi a venit GTX 780 care si el a fost unde trebuia, dar a venit si 780 Ti care a stricat toate calculele pentru ca 80-urile simple nu mai erau varfuri de gama. Si noul varf de gama era mult mai scump. La fel s-a intamplat si cu 980 Ti. A fost scump si clientii s-au obisnuit cu ideea. Iar acum Nvidia aduce acest 80 simplu, adica 1080, la pretul unui Ti. MSRP-ul pentru GTX 1080 Founders Edition este 3499 Lei. Si cea mai mare problema este ca o sa apara si 1080 Ti care va avea cu siguranta un pret socant.

Imi dau seama ca multi nu inteleg de ce ii spun „the king of rip off”. Primul argument il reprezinta pretul pentru un 80. La 3499 Lei se puteau cumpara 80Ti-uri. Si GTX 980 Ti a avut lansare un MSRP tot de 3499 Lei.

Al doilea punct pentru care l-am poreclit asa il reprezinta pozitionarea unei placi de referinta. Ok, se numeste Founders Editions. Dar in esenta este tot o placa de referinta. Punctul de plecare. Cel mai slab design cu cele mai mici frecvente. Acest Founders Edition are un MSRP de 699$, iar placile custom ale partenerilor vor avea un punct de pornire de 599$. In prezentarea lor, Nvidia spuneau ca e o placa premium cu racire premium, bla bla bla. Poate ca asa e. Poate ca are componente scumpe. Dar cea mai scumpa componenta din aceasta placa Founders Edition este marketingul. Intotdeauna placile de referinta au fost mai praf decat cele ale partenerilor. Nici acum nu va fi diferit. Pe scurt, vei cumpara o placa Strix, de exemplu, cu un cooler DirectCU cu 100$ mai putin si cu aceleasi frecvente. Bine, Asus e cel mai prost exemplu deoarece placile lor au fost mereu mai scumpe decat ale celorlalti producatori.

Chiar am ras cand am vazut sesiunea Q&A de la prezentare. Argumentau ca 1080 Founders Edition e premium pentru ca are vapor chamber si backplate. Serios? Adica si GTX 980 de referinta ar fi trebuit sa fie mai scumpa decat GTX 980 Ti de referinta doar pentru ca are backplate?! Nu reusesc sa inteleg. Oare ei inteleg?

Daca ne uitam in trecut la cum si-au menajat clientii de Ti-uri, in sensul ca aceste placi au rezistat doua generatii mereu, e oarecum logica miscarea. Punandu-ma in pielea lor cred ca as fi facut la fel. E ciudat sa lansezi o placa video care nu e varf de gama si matura pe jos cu generatia precedenta si sa o pozitionezi la un pret mai mic decat fostul varf de gama.

Eu unul am fost revoltat cand Vodafone a inceput sa dea mai mult net la abonamentele de 19€ decat la cel de 35€ pe care abia il foloseam de 2 luni. Cred ca aceeasi frustrare ar fi simtit-o si clientii actuali de Ti-uri daca 1080 ar fi fost mai ieftin.

Oricum, e o placa video cool. E de doua ori mai buna ca un GTX 980 si consuma cam la fel. Ce poti sa vrei mai mult? A, da. Un pret rezonabil.

Poftim si procentele despre care vorbeam:

Acum cred ca e clar cam pe unde sunt pozitionate si celelalte placi in functie de GTX 1080 sau in functie de GTX 1080 Overclocked.

Bun, tot ce mai trebuie sa facem acum este sa asteptam implementarile producatorilor seriosi. Acolo se va vedea adevaratul potential in overclocking. Deocamdata eu am avut impresia ca sunt limitat de VRM si de o singura alimentare cu 8 pini. La fel ca in cazul lui Fury Nano.

Era sa uit. Nu fiti tristi ca am intarziat cu review-ul. Macar am avut timp sa pregatim unul de care sa fim mandri si din care sa puteti sa intelegeti ceva. Altceva decat ca 1080 e un rege.

Similar Articles

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.