shakal84 3 Zgłoś post Napisano Sierpień 20, 2015 (edytowany) OK dziekuje za opinie czyli biorę R9 380 z 4 GB VRAM Prosiłbym jeszcze o jakieś konkretne modele które wg Waszej opini są godne uwagi, chodzi mi szczególnie o dobre chodzenie w końcu to będzie Radeon a jak wiadomo te grzeją mocno Edytowano Sierpień 20, 2015 przez shakal84 Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Sierpień 20, 2015 (edytowany) Z R9 380 nie jest aż tak najgorzej z temperaturami, a i wszystkie modele dostępne na polskim rynku mają przyzwoite chłodzenia. Osobiście brałbym MSI, Gigabyte lub ASUSa ze względu na długość gwarancji.[edit]Tak na boku - są pierwsze testy GTXa 950 i przynajmniej według części z nich karta wygląda nawet apetycznie. Edytowano Sierpień 20, 2015 przez Sevard Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
iSoyer 105 Zgłoś post Napisano Sierpień 22, 2015 @up ale cena już apetyczna nie jest Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Sierpień 22, 2015 Gdyby była apetyczna, to GTX 960 straciłby jakikolwiek sens. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
makemebad 6 Zgłoś post Napisano Sierpień 23, 2015 Ja sam szczerze nie wiem czy nie sprzedać GTX 960 na rzecz 780... co o tym sądzicie? Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Sierpień 23, 2015 Nie warto. Przy obecnych sterownikach nVIDII GTX 780 naprawdę mocno cierpi na wydajności. Jak GTX 960 ma swoje problemy (często niemałe), tak posiadaczy Keplerów nVIDIA zupełnie olała. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Sierpień 27, 2015 Dwa dni temu na HARDOCP pojawił się dosyć ciekawy test kart graficznych w Wiedźminie 3. W sumie z jednej strony niczego nowego nie wniósł, bo wyniki zgadzają się z tymi na innych portalach i w innych grach (po uśrednieniu), ale z drugiej - to jest gra sponsorowana przez nVIDIĘ, a jednak karty AMD są mniej więcej w tym miejscu, w którym być powinny w DX11 (DX12 to inna bajka). Czyli gra jest naprawdę dobrze napisana jeśli chodzi o optymalizację pod różne plarformy.Link do testu.W skrócie:W najwyższym segmencie - pierwszy jest Titan X, który jest o ~5% szybszy do GTX 980Ti, a ten jest o ~10% szybszy od R9 Fury X. Zwycięzcą w moim odczuciu jest jednak GTX 980Ti, bo Titan X ma chorą cenę.W segmencie kart do ~2500 zł - pierwsze jest R9 Fury, potem około 8% za nim GTX 980 i następnie tuż za nim R9 390X. Przy różnicy w cenie między tymi kartami R9 390X jest jednak zwycięzcą - R9 Fury oraz GTX 980 są za drogie w stosunku do możliwości.R9 390 vs GTX 970 - remis.R9 380 vs GTX 960 - GTX został zmiażdżony (10% różnicy).Dodatkową ciekawostką jest to, że HairWorks wszędzie działa jednakowo źle (wszystkie karty ostro obrywają po FPSach po jego włączeniu). Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Sierpień 30, 2015 Właśnie padłem. Jeden z deweloperów z Oxide wypowiedział się na forum overclock.net na temat kontrowersji związanych z benchmarkiem DX12 w Ashes of Singularity. Jest tam napisane sporo o tym jak wygląda współpraca Oxide z dostawcami sprzętu (AMD, nVIDIĄ i Intelem) oraz jak nie wygląda współpraca z MS. Poza tym jest tam również wyjaśnione dlaczego karty nVIDII jako jedyne nie zyskują na nowym API w AoS:Personally, I think one could just as easily make the claim that we were biased toward Nvidia as the only 'vendor' specific code is for Nvidia where we had to shutdown async compute. By vendor specific, I mean a case where we look at the Vendor ID and make changes to our rendering path. Curiously, their driver reported this feature was functional but attempting to use it was an unmitigated disaster in terms of performance and conformance so we shut it down on their hardware. As far as I know, Maxwell doesn't really have Async Compute so I don't know why their driver was trying to expose that. The only other thing that is different between them is that Nvidia does fall into Tier 2 class binding hardware instead of Tier 3 like AMD which requires a little bit more CPU overhead in D3D12, but I don't think it ended up being very significant. This isn't a vendor specific path, as it's responding to capabilities the driver reports.From our perspective, one of the surprising things about the results is just how good Nvidia's DX11 perf is. But that's a very recent development, with huge CPU perf improvements over the last month. Still, DX12 CPU overhead is still far far better on Nvidia, and we haven't even tuned it as much as DX11. The other surprise is that of the min frame times having the 290X beat out the 980 Ti (as reported on Ars Techinica). Unlike DX11, minimum frame times are mostly an application controlled feature so I was expecting it to be close to identical. This would appear to be GPU side variance, rather then software variance. We'll have to dig into this one.I suspect that one thing that is helping AMD on GPU performance is D3D12 exposes Async Compute, which D3D11 did not. Ashes uses a modest amount of it, which gave us a noticeable perf improvement. It was mostly opportunistic where we just took a few compute tasks we were already doing and made them asynchronous, Ashes really isn't a poster-child for advanced GCN features.Our use of Async Compute, however, pales with comparisons to some of the things which the console guys are starting to do. Most of those haven't made their way to the PC yet, but I've heard of developers getting 30% GPU performance by using Async Compute. Too early to tell, of course, but it could end being pretty disruptive in a year or so as these GCN built and optimized engines start coming to the PC. I don't think Unreal titles will show this very much though, so likely we'll have to wait to see. Has anyone profiled Ark yet?Najciekawszy fragment pogrubiłem. Jeśli to się potwierdzi, to znaczyłoby to, że nVIDIA bardzo mocno rozmija się z prawdą twierdząc, że Maxwelle są jedynymi kartami w pełni zgodnymi z DX12. AsyncShadery są wymagane dla feature level 12.0, więc jeśli kart nVIDII rzeczywiście nie wspierają AsyncShaderów, to znaczy, że te karty mają feature level 11.1, a nie (jak twierdzi nVIDIA) 12.1. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
RoZy 231 Zgłoś post Napisano Sierpień 31, 2015 Huh... ale z Ciebie hejer nV Wszystkie szczegóły techniczne z punktu widzenia finalnego użytkownika są mało znaczące, bo większość ludzi i tak "nie ma pojęcia o wyobrażeniu". Może w kolejnej wersji sterów będą miały... ważniejsze jest czy, jak i które funkcje będą używane przez programistów. Do dziś się z siebie śmieję jak kupiłem kartę z obsługą bump mappingu (Maxwel któryś - chyba 400) i zanim pojawiły się gry ją używające to już kartę musiałem zmienić... ale na tech demach wyglądało obłędnie Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Sierpień 31, 2015 (edytowany) Z punktu widzenia użytkownika ważna jest wydajność w przewidywalnej przyszłości. Jeśli ktoś chwali się, że coś wspiera, a potem okazuje się, że jednak nie do końca (bo AWS nie działa asynchronicznie), a sami twórcy gier przyznają, że to coś daje boosta na poziomie przynajmniej 30% (taki zysk odnotowali twórcy gier na PS4), to jednak moim zdaniem coś jest mocno nie tak.Nie będę ukrywał, że nie podoba mi się to, co nVIDIA ostatnio odwala z Maxwellami, bo niestety po tym, co już wiadomo widać jak bardzo przyszłościowa ta architektura nie jest, a nVIDIA próbuje wmówić wszystkim, że to Święty Graal kart graficznych. nVIDIA w Maxwellach zmniejszyła pobór prądu, ale odbyło się to pewnym (dosyć sporym) kosztem. Edytowano Sierpień 31, 2015 przez Sevard Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
RoZy 231 Zgłoś post Napisano Wrzesień 1, 2015 Ja to postrzegam inaczej.... AMD postawiło na inną filozofię rozwoju promując bardzo nowatorskie rozwiązania które jednak potrzebowały czasu, miały problemy z implementacją czy co tam jeszcze (vide przykład z bump mappingiem). Teraz okazuje się że te rozwiązania nie do końca są jeszcze w stanie konkurować z rozwiązaniami nV. Przejście na DX12 może trochę przedłużyć ich cykl życia, a już na pewno ożywić rywalizację na poziomie emocjonalnym. AMD musi tak to rozgrywać - słuchajcie nasze karty nie są co prawda szybsze ale będą w "przewidywalnej przyszłości" Sprzedają obietnicę, a ja bym wolał kupować fakty.Już teraz wszystkie portale o tym piszą tak jakby nagle Maxwele nie nadawały się do użytku, albo przynajmniej nie miały szans na rywalizację w DX12 z kartami AMD. Wszystko na podstawie jednego techdema i wypowiedzi osób którzy bezstronni w ocenie nie są.Ja bym raczej poczekał na pierwsze gry ze wsparciem dla DX12 i wtedy zobaczymy, Nie jest bowiem istotne jakimi środkami cel zostanie osiągnięty. Ścianę można rozebrać rękami cegła po cegle odzyskując je, ale można też użyć buldożera Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 1, 2015 (edytowany) Ja to postrzegam inaczej.... AMD postawiło na inną filozofię rozwoju promując bardzo nowatorskie rozwiązania które jednak potrzebowały czasu, miały problemy z implementacją czy co tam jeszcze (vide przykład z bump mappingiem). Teraz okazuje się że te rozwiązania nie do końca są jeszcze w stanie konkurować z rozwiązaniami nV.To nie są nowatorskie rozwiązania. To są rozwiązania, które powinny wejść już dawno temu, a które nie weszły tylko i wyłącznie dlatego, że nVIDIA nie miała jaj i nie chciała się sprzeciwić Intelowi. Tu w ogóle stała się ciekawa rzecz, bo AMD poszło w jedną stronę, a nVIDIA w przeciwną. pod względem złożoności i możliwości samego sprzętu GCN dosyć mocno przypomina architekturę Fermi, a Maxwell wczesne VLIV4.Przejście na DX12 może trochę przedłużyć ich cykl życia, a już na pewno ożywić rywalizację na poziomie emocjonalnym. AMD musi tak to rozgrywać - słuchajcie nasze karty nie są co prawda szybsze ale będą w "przewidywalnej przyszłości" Sprzedają obietnicę, a ja bym wolał kupować fakty.Tylko, że karty AMD są szybsze. nVIDIA wygrywa nie mocą kart, ale optymalizacją sterowników pod konkretne gry i platformy. Ta przewaga (jeśli w ogóle) jest widoczna tylko w grach AAA oraz na najnowszych kartach, w innych grach już to tak ciekawie nie wygląda, na starszych architekturach nVIDII również. Maxwelle architektonicznie są strasznymi kastratami i potrzebują optymalizacji na poziomie sterowników. Bez niej stanie się z nimi to, co dzieje się obecnie z Keplerami (które też były kastratami, ale nie aż w takim stopniu), które mocy mają dostatecznie dużo, ale jakby im ktoś skrzydła obciął. GTX 780Ti pod względem mocy obliczeniowej jest sporo mocniejszą kartą niż GTX 970, a w obecnych grach często wypada na poziomie GTXa 960 lub nawet gorzej. W tym samym czasie R9 280X - czyli karta teoretycznie słabsza nadal jest w tym miejscu, w którym być powinna, więc to nie są zmiany w grach, a braki w architekturze. nVIDIA wygrywa energooszczędnością, ale dzieje się to pewnym kosztem - karty są kastrowane z funkcji, które nie są używane w obecnych grach, a w razie czego podmienia się shadery w sterownikach. Obecne karty nVIDII to zbiór ALU, które wymagają wcześniejszej obróbki na poziomie sterowników.I tu jest główny problem nVIDII z niskopoziomowymi API - shaderów nie da się podmienić. Nie da się na poziomie sterowników emulować funkcji, których karta nie ma. Jeśli twórca czegoś użyta, to to pozostanie użyte. Nie będzie sytuacji, które często miały miejsce w DX11 i wcześniejszych, czyli zmieniania ścieżek renderingu w sterownikach.Już teraz wszystkie portale o tym piszą tak jakby nagle Maxwele nie nadawały się do użytku, albo przynajmniej nie miały szans na rywalizację w DX12 z kartami AMD.Ja tam uważam, że Maxwelle nie nadają się do użytku od dosyć dawna (patrz wywód wyżej). To, co wyszło teraz, tylko mnie w tym przekonaniu utwierdziło.Wszystko na podstawie jednego techdema i wypowiedzi osób którzy bezstronni w ocenie nie są.Co do tylko jednego techdema - to nie tylko. Sporo twórców gier na PS4 przyznało, że dzięki Async Shaderom można naprawdę dużo zyskać. I ten benchmark nie jest do końca techdemem. To jest benchmark z rzeczywiście rozwijanej gry, która już nawet całkiem sprawnie działa, a jej premiera jest zapowiedziana na przełom tego i następnego roku.Na boku co do stronniczości, to akurat Oxide współpracowało i współpracuje zarówno z AMD, jaki i z nVIDIĄ i kilka ich tytułów wyszło dzięki wsparciu finansowemu nVIDII, więc zarzucanie im stronniczości jest cokolwiek dziwne. Ciekawe jest jednak to, że w tym samym momencie o wyższości nVIDII w DX11 świadczą benchmarki z gier, z których większość była robiona we współpracy z nVIDIą. I sumie to nie przypominam sobie w tym momencie żadnego tytułu sponsorowanego przez AMD, który miałby problemy ze sprzętem któregoś konkretnego producenta. Natomiast mogę Ci wymienić kilka tytułów, które mają logo nVIDII, a które mają lub miały bardzo widoczne problemy na sprzęcie AMD. Ale kto pod kim dołki kopie, ten sam w nie wpada i w końcu wyszedł ostatni Batman. Ja bym raczej poczekał na pierwsze gry ze wsparciem dla DX12 i wtedy zobaczymy, Nie jest bowiem istotne jakimi środkami cel zostanie osiągnięty.W AotS chwilę grałem i ta gra działa lepiej niż niejedna gra zaraz po swojej premierze. No ale ok, czas pokaże. Pierwsza gra AAA "DX12 only" wychodzi już za półtora miesiąca.Ścianę można rozebrać rękami cegła po cegle odzyskując je, ale można też użyć buldożera I odpowiedz sobie na pytanie, które rozwiązanie jest charakterystyczne dla kogo. Edytowano Wrzesień 1, 2015 przez Sevard Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 4, 2015 Najciekawszy fragment pogrubiłem. Jeśli to się potwierdzi, to znaczyłoby to, że nVIDIA bardzo mocno rozmija się z prawdą twierdząc, że Maxwelle są jedynymi kartami w pełni zgodnymi z DX12.No i mamy potwierdzenie (klik)Cytuję większą część, bo jest tam też trochę innych ważnych rzeczy:Regarding CPU load balancing on D3D12, that's entirely the applications responsibility. So if you see a case where it?s not load balancing, it?s probably the application not the driver/API. We?ve done some additional tunes to the engine even in the last month and can clearly see usage cases where we can load 8 cores at maybe 90-95% load. Getting to 90% on an 8 core machine makes us really happy. Keeping our application tuned to scale like this definitely on ongoing effort.Additionally, hitches and stalls are largely the applications responsibility under D3D12. In D3D12, essentially everything that could cause a stall has been removed from the API. For example, the pipeline objects are designed such that the dreaded shader recompiles won?t ever have to happen. We also have precise control over how long a graphics command is queued up. This is pretty important for VR applications.Also keep in mind that the memory model for D3d12 is completely different the D3D11, at an OS level. I?m not sure if you can honestly compare things like memory load against each other. In D3D12 we have more control over residency and we may, for example, intentionally keep something unused resident so that there is no chance of a micro-stutter if that resource is needed. There is no reliable way to do this in D3D11. Thus, comparing memory residency between the two APIS may not be meaningful, at least not until everyone's had a chance to really tune things for the new paradigm.Potwierdzenie, że w DX12 za optymalizację, load balancing zarządzanie pamięcią odpowiada aplikacja, nie sterownik. Jeśli gra będzie słabo napisana pod daną architekturę, to na nic zda się magia w sterownikach.Regarding SLI and cross fire situations, yes support is coming. However, those options in the ini file probablly do not do what you think they do, just FYI. Some posters here have been remarkably perceptive on different multi-GPU modes that are coming, and let me just say that we are looking beyond just the standard Crossfire and SLI configurations of today. We think that Multi-GPU situations are an area where D3D12 will really shine. (once we get all the kinks ironed out, of course). I can't promise when this support will be unvieled, but we are commited to doing it right.Jak dla mnie jest to zapowiedź Cross-SLI. Choć przede wszystkim na początku spodziewałbym się posiłków dla karty graficznej ze strony karty zintegrowanej.Regarding Async compute, a couple of points on this. FIrst, though we are the first D3D12 title, I wouldn't hold us up as the prime example of this feature. There are probably better demonstrations of it. This is a pretty complex topic and to fully understand it will require significant understanding of the particular GPU in question that only an IHV can provide. I certainly wouldn't hold Ashes up as the premier example of this feature.We actually just chatted with Nvidia about Async Compute, indeed the driver hasn't fully implemented it yet, but it appeared like it was. We are working closely with them as they fully implement Async Compute. We'll keep everyone posted as we learn more.Czyli w skrócie - w przypadku nVIDII async computing jest robiony na poziomie sterowników, nie sprzętu. Zobaczymy jak to będzie wyglądało, jak funkcjonalność będzie zaimplementowana, ale pewien overhead na pewno się pojawi.Also, we are pleased that D3D12 support on Ashes should be functional on Intel hardware relatively soon, (actually, it's functional now it's just a matter of getting the right driver out to the public).Czyżby zapowiedź potężnego boosta dla zintegrowanych kart Intela w nadchodzących sterownikach? Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
RoZy 231 Zgłoś post Napisano Wrzesień 5, 2015 To nie są nowatorskie rozwiązania. To są rozwiązania, które powinny wejść już dawno temu, a które nie weszły tylko i wyłącznie dlatego, że nVIDIA nie miała jaj i nie chciała się sprzeciwić Intelowi. No tak... złe i chciwe korporacje blokują rozwój i postęp. No a dlaczego Intel nie chciał a nV nie nie sprzeciwiała jak piszesz?Dopóki zarabiają (czyt. stare rozwiązania wystarczają) to nie będą promować nowych bo wdrożenie kosztuje więcej niż rozwój starych.Tylko, że karty AMD są szybsze. nVIDIA wygrywa nie mocą kart, ale optymalizacją sterowników pod konkretne gry i platformy. Ale co to obchodzi mnie jako konsumenta jak jest zrobione, że gra wygląda dobrze i chodzi płynnie? Co mi po tym "że są szybsze" jak tego nie widać w użyciu? Co mi po obsłudze zaawansowanych funkcji skoro nie są używane.- vide przykład z bump mappingiem.Przypomnij sobie procka z PS3 - Cell. Podobno genialny ale tak trudny do programowania, że nie wielu się na tym znało i chciało robić dobrzeJa tam uważam, że Maxwelle nie nadają się do użytku od dosyć dawna (patrz wywód wyżej). To, co wyszło teraz, tylko mnie w tym przekonaniu utwierdziło.Luzik... każdy ma w życiu jakieś skrzywienie Co do tylko jednego techdema - to nie tylko. Sporo twórców gier na PS4 przyznało, że dzięki Async Shaderom można naprawdę dużo zyskać. I ten benchmark nie jest do końca techdemem. To jest benchmark z rzeczywiście rozwijanej gry, która już nawet całkiem sprawnie działa, a jej premiera jest zapowiedziana na przełom tego i następnego roku.Zapewne tak - AMD zostało pewnie nie bez przyczyny wybrane przez SONY i Microsoft jako serce do nowej generacji konsol.Poza tym tak mówią zawsze jak wchodzi jakaś nowa funkcja... w końcu jakoś trzeba ludzi przekonać do zmiany sprzętu Tylko co będzie jak się okaże, że nie dają wystarczająco dużo? Obecna generacja GPU i tak nie wykorzysta DX12 w pełni, więc przerzucanie się nV i AMD kto jest bardziej zgodny to tylko marketingowa wojna wizerunkowa. Żywię nadzieję, że zdajesz sobie z tego sprawę.Natomiast mogę Ci wymienić kilka tytułów, które mają logo nVIDII,a które mają lub miały bardzo widoczne problemy na sprzęcie AMD. A nie jest przypadkiem tak, że to AMD ma problemy ze pisaniem stabilnych sterowników?I odpowiedz sobie na pytanie, które rozwiązanie jest charakterystyczne dla kogo.No i co z tego skoro na nV gry działają lepiej? Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 5, 2015 No tak... złe i chciwe korporacje blokują rozwój i postęp. No a dlaczego Intel nie chciał a nV nie nie sprzeciwiała jak piszesz?No to nauka historii w pigułce.Intel nie chciał i ja na miejscu Intela również bym nie chciał. Jeśli plan nVIDII by wypalił, to procki byłyby zmarginalizowane i ludzie nie mieliby motywacji, by tak często wymieniać CPU.nVIDIA nie chciała z dwóch powodów:- znaleźli sobie niszę - bankowość. W tak zwanym międzyczasie okazało się, że karty graficzne można wykorzystać w profesjonalnych obliczeniach np. w instytucjach finansowych, gdzie przebitka na jednej karcie była dużo większa. Nic więc dziwnego, że użytkownicy zaczęli brać do takich obliczeń zwykłe karty graficzne, które były wielokrotnie tańsze, a które niczym nie różniły się od tych profesjonalnych za wyjątkiem stosowania pamięci ECC. nVIDIA zaczęła więc kastrować zwykłe karty graficzne z możliwości obliczeniowych. Ktoś mógłby powiedzieć, że chodzi o oszczędności, ale nie - te karty niczym się nie różnią. Kastracja jest przeprowadzana laserem poprzez przecięcie odpowiednich ścieżek.- musieliby iść na współpracę z ATI i nieco później AMD, co im się nie uśmiechało. PhysX i CUDA nie przyjęły się jakoś szerzej w grach nie dlatego, że to były bardzo złe technologie, ale dlatego, że były zamknięte i ograniczone tylko do jednej platformy.Dopóki zarabiają (czyt. stare rozwiązania wystarczają) to nie będą promować nowych bo wdrożenie kosztuje więcej niż rozwój starych.Nie w kartach graficznych. Tu wypuszcza się jedną linię kart graficznych, a kolejna jest na wysokim stopniu zaawansowania, jeszcze kolejna jest już na deskach kreślarskich. W przypadku GPU za dużo można stracić, by móc sobie pozwolić na radykalne obcięcie kosztów. I nie chodzi o zwykłych użytkowników - w ich przypadku wystarczy wypuścić nową linię kart i ograniczyć wsparcie dla starych linii w sterownikach, a głupi lud to łyknie (tak nVIDIA robi od lat i za każdym razem im się to udaje), ale o użytkowników profesjonalnych.Ale co to obchodzi mnie jako konsumenta jak jest zrobione, że gra wygląda dobrze i chodzi płynnie? Co mi po tym "że są szybsze" jak tego nie widać w użyciu? Co mi po obsłudze zaawansowanych funkcji skoro nie są używane.- vide przykład z bump mappingiem.Tylko, że widać to z perspektywy konsumenta, ale nie w perspektywie miesięca, czy dwóch, ale w perspektywie np. roku. Zobacz sobie na Radeona HD 7970 GHz/R9 280X - to jest karta, która ma ponad trzy lata, a nadal radzi sobie w grach lepiej niż przyzwoicie. Następnie zobacz jak sobie radzą karty, które były konkurencją dla tych kart.Bump mapping trudno nazwać zaawansowaną techniką. To jest rozwiązanie, które pamięta lata siedemdziesiąte zeszłego wieku, a pierwszą kartą ze wsparciem sprzętowym dla tej technologii był GeForce 2. I właściwie rozwiązanie jest wykorzystywane nawet dosyć często.Przypomnij sobie procka z PS3 - Cell. Podobno genialny ale tak trudny do programowania, że nie wielu się na tym znało i chciało robić dobrzeKulą w płot. Podobno jest bardzo dobrym określeniem. Cell nie był trudny do programowania, tylko Sony ukróciło "proceder" stosowania PS3 do obliczeń poprzez zablokowanie możliwości instalowania Linuksa - Sony zarabiało na grach, nie na samej konsoli, więc nie było im na rękę, że ludzie kupowali konsolę do obliczeń właśnie. Na dłuższą metę okazało się, że to jednak procek z X360 był dużo potężniejszy, tylko trudno z niego było wycisnąć całą moc.Luzik... każdy ma w życiu jakieś skrzywienie To nie skrzywienie. To po prostu przeświadczenie, że te karty nie wytrzymają próby czasu. Takie samo przeświadczenie miałem za czasów Keplerów (właśnie dlatego mam R9 280X, a nie jakiegoś GTXa) i z perspektywy czasu widzę, że się nie pomyliłem. I najgorsze jest to, że nie dlatego, że Keplery straciły moc, tylko dlatego, że straciły zainteresowanie ze strony nVIDII, a bez tego te karty radzą sobie średnio. Tak stało się z Teslami, potem z Fermi, następnie z Keplerami i pewnie to samo będzie z Maxwellami, gdy wyjdą Pascale.Tam mówią zawsze jak wchodzi jakaś nowa funkcja... w końcu jakoś trzeba ludzi przekonać do zmiany sprzętu Tylko co będzie jak się okaże, że nie dają wystarczająco dużo? Obecna generacja GPU i tak nie wykorzysta DX12 w pełni, więc przerzucanie się nV i AMD kto jest bardziej zgodny to tylko marketingowa wojna wizerunkowa. Żywię nadzieję, że zdajesz sobie z tego sprawę.OK, w takim razie spróbujmy z innej mańki - obejrzyj ten wywiad na TechReport. Tego pana o stronniczość, brak znajomości tematu itp. oskarżyć raczej nie możesz. I technologia raczej się przyjmie, bo bez niej VR nie istnieje, a kilka firm (z nVIDIĄ włącznie) za dużo kasy w tym utopiło, by się teraz wycofać.A nie jest przypadkiem tak, że to AMD ma problemy ze pisaniem stabilnych sterowników?Nie i to od bardzo dawna. Ostatnie sterowniki AMD, z którymi miałem większe problemy, wyszły jakieś 2-3 lata temu i problemy występowały tylko na karcie mobilnej (które w tamtych czasach AMD olewało) i tak patrząc po internecie również nie widać jakichś istotniejszych problemów ze sterownikami AMD. Jeśli jednak chodzi o problemy ze stabilnością, to największy fail jaki pamiętam, miał miejsce w 2013 roku - nVIDIA przyćmiła wszystkich i wydała sterowniki 320.18.A i jeśli ktoś w tej chwili ma problem z pisaniem stabilnych sterowników, to nVIDIA - patrz saga ze sterownikami nVIDII dla Windowsa 10. Sterowniki AMD nie wydobywają z kart maximum mocy i to jest ich jedyny problem na tę chwilę. W sumie dopóki mocy wystarcza, to jest to mały problem.A wracając do problemów z grami:- Wiedźmin 3 - po włączeniu HairWorks w grze FPSy potrafiły spaść do bardzo niskiego poziomu. Rozwiązanie dla kart AMD - wystarczyło zmniejszyć poziom tessellacji w sterowniku, bo nie wiedzieć czemu nVIDIA stwierdziła, że danie tessellacji x32 to dobry pomysł. Okazało się, że po zmniejszeniu szczegółowości do x4 wszystko wygląda tak samo, a działa dużo szybciej. Rozwiązania na ten sam problem w Keplerach oraz słabszych Maxwellach brak - nVIDIA od paru miesięcy wydaje sterownik, który ma to naprawić.- Project Cars - po patchu w samej grze (nie w sterownikach) problemy z wydajnością się zmniejszyły. Za same problemy odpowiada jednak PhysX, którego w grze jest pełno i AMD nie ma tu pola do manewru, bo PhysX jest napisany jak jest. Tylko, ze ponownie - w tej grze problemy mają nie tylko karty AMD, ale również starsze karty nVIDII.- Batman: Arkham Knight - tu się nawet nie będę próbował rozwodzić. Konsole 0 problemów, PCty, w których głównym usprawnieniem jest dodanie GameWorks - cóż...I odpowiedz sobie na pytanie, które rozwiązanie jest charakterystyczne dla kogo.No i co z tego skoro na nV gry działają lepiej?No właśnie żeby działały lepiej.GTX 960 vs R9 380 - Radeon wygrywa.GTX 970 vs R9 390 - remis.GTX 980 vs R9 390X - GTX nieznacznie wygrywa, ale kosztuje zauważalnie więcej.GTX 980Ti vs R9 Fury X - generalnie wygrywa GTX, ale jeśli kupuje się taką kartę, to powinna ona wytrzymać te kilka lat, a mam spore obawy co do tego, czy z tą kartą nie będzie tak samo jak z GTXem 780Ti - niby jest OK, ale jednak ta karta w tytułach nVIDII przegrywa z GTXem 960, ba - stary Titan w tych tytułach wyraźnie przegrywa z GTXem 960. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
RoZy 231 Zgłoś post Napisano Wrzesień 9, 2015 No to nauka historii w pigułce.Na ale jakie się są wnioski z tej pigułki? Każda z firm dba o własne interesy?Nie w kartach graficznych. Tu wypuszcza się jedną linię kart graficznych, a kolejna jest na wysokim stopniu zaawansowania, jeszcze kolejna jest już na deskach kreślarskich. Ergo dopóki stara wystarcza i się sprzedaje nie ma sensu wprowadzać nowej. Najlepszy przykład masz właśnie z AMD, które tą samą konstrukcję sprzedaje już chyba ze 3 lata Na marginesie zieloni jeszcze dość mocno w GPU mobilne (Tegrę) zainwestowaliTylko, że widać to z perspektywy konsumenta, ale nie w perspektywie miesięca, czy dwóch, ale w perspektywie np. roku. Zobacz sobie na Radeona HD 7970 GHz/R9 280X - to jest karta, która ma ponad trzy lata, a nadal radzi sobie w grach lepiej niż przyzwoicie. Następnie zobacz jak sobie radzą karty, które były konkurencją dla tych kart.Być może przez to właśnie AMD gorzej sobie radzi niż nV... producenci samochodów i AGD już dawno odkryli że produkowanie zbyt solidnych rzeczy nie popłaca Bump mapping trudno nazwać zaawansowaną techniką. To jest rozwiązanie, które pamięta lata siedemdziesiąte zeszłego wieku, a pierwszą kartą ze wsparciem sprzętowym dla tej technologii był GeForce 2. I właściwie rozwiązanie jest wykorzystywane nawet dosyć często.https://en.wikipedia...iki/Matrox_G400Taką miałem... jeszcze zanim GF2 wyszedł Nie chodzi o stopień komplikacji technologi czy od kiedy jest znana ale kiedy faktycznie staje się przydatna. Pewnie sporo z dotychczasowych metod obróbki obrazu jest znane od dawna, ale od niedawna dostępna jest moc obliczeniowa w segmencie konsumenckim umożliwiająca ich zastosowanie. Spieranie się teraz o obsługę AC jest IMHO bezsensowne. Za rok dwa będziemy mieli karty "które teraz testują/są na deskach kreślarskich". Do tego czasuKulą w płot. Podobno jest bardzo dobrym określeniem. Cell nie był trudny do programowania, tylko Sony ukróciło "proceder" stosowania PS3 do obliczeń poprzez zablokowanie możliwości instalowania Linuksa - Sony zarabiało na grach, nie na samej konsoli, więc nie było im na rękę, że ludzie kupowali konsolę do obliczeń właśnie. Na dłuższą metę okazało się, że to jednak procek z X360 był dużo potężniejszy, tylko trudno z niego było wycisnąć całą moc.Cell był trudny do programowania w grach (przez co większość portów z PC wyglądała marnie, ale za to jak już ktoś się nauczył to postawały perełki takie jak Uncharted 2&3, GoW III) a jednocześnie miał bardzo wydajną konstrukcją do obliczeń. Ruch Sony był głupi, bo jak ludzie nie mogli się dalej bawić Linuxem na PS3 legalnie to złamali zabezpieczenia i dale mogli się bawić.Trudno się zgodzić z twierdzeniem, że programistę trudno było ogarnąć tak znane architektury jak PowerPC czy Radeona z X360, niż zupełnie innego Cell'a.To nie skrzywienie. To po prostu przeświadczenie, że te karty nie wytrzymają próby czasu. Takie samo przeświadczenie miałem za czasów Keplerów (właśnie dlatego mam R9 280X, a nie jakiegoś GTXa) i z perspektywy czasu widzę, że się nie pomyliłem. I najgorsze jest to, że nie dlatego, że Keplery straciły moc, tylko dlatego, że straciły zainteresowanie ze strony nVIDII, a bez tego te karty radzą sobie średnio. Tak stało się z Teslami, potem z Fermi, następnie z Keplerami i pewnie to samo będzie z Maxwellami, gdy wyjdą Pascale.No i OK.. dzięki takim jak Ty nV nie zdominowała rynku całkowicie Ja mam GTX 275 jeszcze i też nie uważam że to dobty wybór. Mało tego nie uważam, że Twój jest zły!OK, w takim razie spróbujmy z innej mańki - obejrzyj ten wywiad na TechReport. Tego pana o stronniczość, brak znajomości tematu itp. oskarżyć raczej nie możesz. I technologia raczej się przyjmie, bo bez niej VR nie istnieje, a kilka firm (z nVIDIĄ włącznie) za dużo kasy w tym utopiło, by się teraz wycofać.Ależ oczywiście!!! Tyle, że obecna generacja kart do tego nie wystarczy bez względu na to w jaki sposób bedzie AC wspierać. Zieloni pewnie poprawią sterowniki i wydajność nie będzie już cierpieć tak mocno jak teraz. Fury przez to może bedzie trochę szybsze w nowych DXach, ale czy to coś zmieni w ich użytkowaniu? Ile osób grających w AoS bedzie się zastanawiać jak to co widzą na ekranie powstaje, póki wygląd i wdajność bedzie zadowalająca? Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 9, 2015 Ergo dopóki stara wystarcza i się sprzedaje nie ma sensu wprowadzać nowej. Najlepszy przykład masz właśnie z AMD, które tą samą konstrukcję sprzedaje już chyba ze 3 lata To nie zupełnie jest ta sama konstrukcja. Wbrew pozorom różnice między GCN 1.0, a 1.1 i 1.2 są spore. Fury to już w ogóle dziwny "potworek". Gdyby tych różnic nie było, to kupno R9 380 oraz GTXa 960 nie miałoby sensu, bo w większości obecnych gier od obu wydajniejszy jest R9 280.Na marginesie zieloni jeszcze dość mocno w GPU mobilne (Tegrę) zainwestowaliTak, zainwestowali i niewiele z tego mają, bo bez wsparcia innych firm, to sobie mogą. A na wsparcie nie mają co liczyć przy swoim podejściu. To jest to samo, co AMD zrobiło z Mantle - technologia dużo lepsza od DX11, a się nie przyjęła, bo brakło wsparcia innych firm. Ostatecznie AMD musiało porzucić Mantle i jest ono podstawą Vulkan API oraz jego fragmenty są w DX12.Być może przez to właśnie AMD gorzej sobie radzi niż nV... producenci samochodów i AGD już dawno odkryli że produkowanie zbyt solidnych rzeczy nie popłaca Ja jestem klientem, nie producentem. I jako klient chcę, by produkt, który kupuję wytrzymał jak najdłużej. nVIDIA w tej chwili mi tego nie zapewnia.Bump mapping trudno nazwać zaawansowaną techniką. To jest rozwiązanie, które pamięta lata siedemdziesiąte zeszłego wieku, a pierwszą kartą ze wsparciem sprzętowym dla tej technologii był GeForce 2. I właściwie rozwiązanie jest wykorzystywane nawet dosyć często.https://en.wikipedia...iki/Matrox_G400Taką miałem... jeszcze zanim GF2 wyszedł Hm, możliwe. Tak czy owak nawet wtedy Bump Mapping był wykorzystywany, tylko był robiony software'owo. G400 i GeForce 2 obsługiwały go sprzętowo.Nie chodzi o stopień komplikacji technologi czy od kiedy jest znana ale kiedy faktycznie staje się przydatna. Pewnie sporo z dotychczasowych metod obróbki obrazu jest znane od dawna, ale od niedawna dostępna jest moc obliczeniowa w segmencie konsumenckim umożliwiająca ich zastosowanie. Spieranie się teraz o obsługę AC jest IMHO bezsensowne. Za rok dwa będziemy mieli karty "które teraz testują/są na deskach kreślarskich". Do tego czasuSpieranie się o AC jest sensowne, bo technologia jest już dosyć mocno wykorzystywana w grach na PS4 i tak naprawdę jest to główna przewaga PS4 nad Xbone. Co więcej technologia ma być wykorzystywana w kilku grach, które pojawią się już niebawem na PC. W kilku większych silnikach (CryEngine, Unreal Engine 4.0, Frostbite) już dodano lub przynajmniej planowane jest wsparcie dla DX12 oraz AC.Cell był trudny do programowania w grach (przez co większość portów z PC wyglądała marnie, ale za to jak już ktoś się nauczył to postawały perełki takie jak Uncharted 2&3, GoW III) a jednocześnie miał bardzo wydajną konstrukcją do obliczeń. Ruch Sony był głupi, bo jak ludzie nie mogli się dalej bawić Linuxem na PS3 legalnie to złamali zabezpieczenia i dale mogli się bawić.Trudno się zgodzić z twierdzeniem, że programistę trudno było ogarnąć tak znane architektury jak PowerPC czy Radeona z X360, niż zupełnie innego Cell'a.Cell nie był trudny. Był inny, ale nie trudny. Portowanie gier było trudne, bo Cell bardzo mocno różnił się od tego, co oferuje platforma x86 - np. w Cell współbieżność była normą, w DX11 i wcześniejszych osiągnięcie współbieżności było wyzwaniem. Jeśli ktoś od początku wiedział, że chce napisać coś na tę platformę, to nie stanowiło to problem, gorzej jeśli chciał coś napisać pod wiele platform. W sumie Cell dosyć mocno przypomina to, co AMD zrobiło przy okazji Async Shaderów.Ależ oczywiście!!! Tyle, że obecna generacja kart do tego nie wystarczy bez względu na to w jaki sposób bedzie AC wspierać. Zieloni pewnie poprawią sterowniki i wydajność nie będzie już cierpieć tak mocno jak teraz. Fury przez to może bedzie trochę szybsze w nowych DXach, ale czy to coś zmieni w ich użytkowaniu? Ile osób grających w AoS bedzie się zastanawiać jak to co widzą na ekranie powstaje, póki wygląd i wdajność bedzie zadowalająca?Moim zdaniem obecna generacja kart wystarczy. Obecne karty mają jeszcze sporo ukrytej mocy, którą wystarczyłoby uwolnić, tylko nie było jak. I tu wchodzą Async Shadery.AotS raczej mało. W FPSach sieciowych już pewnie sporo więcej (niskopoziomowe API to również mniejszy input lag, a ten jest istotny).A i jeszcze jedno:No i OK.. dzięki takim jak Ty nV nie zdominowała rynku całkowicie Rynek jest już zdominowany od jakiegoś czasu - na rynku dedykowanych GPU mamy już tak naprawdę monopol. Najlepszy dowód to to, co nVIDIA wyczynia z GameWorks. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość Zgłoś post Napisano Wrzesień 12, 2015 Wreszcie jest test i specyfikacja R9 Nanohttp://www.benchmark...erowy-test.html Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 12, 2015 (edytowany) Specyfikacja to jest już od dawna, tylko testów brakowało, bo 1000MHz to maksymalny zegar, a nikt nie wiedział jaki jest rzeczywisty. I w sumie nadal brakuje, bo spora część testów niestety była robiona w normalnych obudowach, co mija się z celem. Mało mnie obchodzi to, że w normalnej obudowie karta nie ma problemów z throttlingiem, skoro ta karta nie jest przeznaczona do normalnych obudów, tylko do SFF.Ze względu na cenę to jest bardziej ciekawostka, choć dobrze wiedzieć, że da się upakować coś tak potężnego na tak małej powierzchni. Jest szansa, że za rok, czy półtora rzeczywiście da się złożyć "kompa do salonu", który będzie w stanie coś pokazać.[edit]Tak patrząc po recenzjach Nano ma spore problemy z piszczącymi cewkami, więc dopóki to nie zostanie naprawione, to o ciszy i wrzuceniu tej karty do jakiegoś małego i cichego zestawu można zapomnieć. Edytowano Wrzesień 13, 2015 przez Sevard Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 15, 2015 Pogłoski o tym, że Tonga XT ma pojawić się w wersji dla PCtów (na razie istnieje tylko w wersji dla iMACów jako R9 M295X) pojawiają się od dawna, ale na razie konretów brak. Tym razem jednak w sieci zaczynają się pojawiać zdjęcia kart, które miałyby być Radeonami R9 380X, co by oznaczało, że w końcu będziemy mieli coś między R9 380, a GTX970/R9 390.losowe źródło (większość poważniejszych stron to odnotowała i dlatego losowe) Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Graf 1 Zgłoś post Napisano Wrzesień 18, 2015 Witajcie, otóż kilka dni temu kupiłem GTX 960 windforce, od momentu odpalenie nie było z nią problemów poza wzrostem temperatury, od odpaleniu cisza, spokój i te ~30 stopni, ale po godzinie pracy, kiedy siedziałem na necie i pulpicie(nie odpalając żadnych gier) temperatury z pupy nagle skacze do 50 stopni. Żeby temu przeciwdziałać pobrałem program Thunder Master i tam zwiększam pracę wentylatorów na 70%(stantardowo to tylko 33) lecz temperatura spada do 43-44 stopni i na tym poziomie się zatrzymuje. Czy karta rzeczywiście się przegrzewa ? Gdy odpalam poważniejsze tytuły(np. MGS V) temperatura wzrasta o te 2-3 stopnie ale utrzymuje stały poziom. Nie wiem czy to mam złudzenia, czy rzeczywiście 50 stopni to jest już poziom przegrzewania się. Chętnie posłuchałbym porad od bardziej obeznanych z tematem. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
yojc 17327 Zgłoś post Napisano Wrzesień 18, 2015 Oczywiście, że 50C to bardzo daleko do przegrzewania się. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 24, 2015 (edytowany) I mamy kolejne benchmarki z DX12 w roli głównej. Tym razem z Fable:Legends. Benchmark wypluwa dużo szczegółowych informacji i można zobaczyć w czym konkretne karty są dobre, a gdzie tracą.ExtremeTech AnandTech PCPer[edit]A właśnie - gdzieś już wspominałem, że coraz głośniej o R9 380X, czyli pełnej Tondze. Ostatnie plotki z Chin mówią o premierze w połowie listopada. Karta ma mieć zegar na poziomie 1000-1100 MHz i odblokowane wszystkie 2048 procesorów strumieniowych. Patrząc na to jak skaluje się GCN 1.2 zastanawiam się, czy ta karta nie będzie lepsza od R9 390. Edytowano Wrzesień 24, 2015 przez Sevard Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Gość Zgłoś post Napisano Wrzesień 25, 2015 Wiadomo mniej wiecej jak wyceniona bedzię karta? Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach
Sevard 1241 Zgłoś post Napisano Wrzesień 25, 2015 Niestety nie. Różne plotki różnie podają. Na pewno gdzieś między R9 380, a R9 390. ;p Większość portali celuje w przedział 1100-1200 zł, ale dopiero jak (i jeśli) karta wyjdzie, to się tego dowiemy.Przy okazji odżyły plotki o GTX 960Ti. W sumie nVIDIA kartę ma, tylko musiałaby ją przenieść z notebooków na desktopy. Cytuj Udostępnij ten post Link to postu Udostępnij na innych stronach