Skocz do zawartości

Zarchiwizowany

Ten temat jest archiwizowany i nie można dodawać nowych odpowiedzi.

Polecane posty

Wbrew pozorom i3 sobie spokojnie poradzi z tym Radeonem. Tylko w niektórych grach będzie trzeba się pobawić w przerzucanie gry na inny rdzeń, co i tak warto zrobić, niezależnie od tego, czy wybierze się AMD, czy nVIDIę.

W teorii Windows radzi sobie z rozrzucaniem wątków między rdzeniami, w praktyce niekiedy mu to nie wychodzi.

Link do komentarza
Udostępnij na innych stronach

@27swater Ja niestety tak na szybko nie znalazłem żadnego testu GTX 960 vs R9 285 na procku i3 drugiej generacji, ale skoro Dirian pisze, że widział test tych kart z i3, to zakładam, że wie co pisze. GTX 960 wydaje mi się w takim przypadku pewniejszym rozwiązaniem i na pewno będzie wymagało mniej kombinowania.

@Dirian To są problemy, które były rozwiązane jeszcze za czasów, gdy ATITools było rozwijane. Niestety AMD nigdy nie wrzuciło tego rozwiązania do Catalystów, choć w sumie trochę ich rozumiem - to samo rozwiązanie na jednych kombinacjach CPU - karta poprawiało wydajność, a na innych ją psuło. Inna sprawa, że nVIDIA "cierpi" na ten sam problem - czasem bawiąc się koligacją lub ilością rdzeni, które są wykorzystywane przez sterownik, można zyskać kilka klatek.

Problemem PCtów zawsze była różnorodność i to, co lepiej sprawdzało się na jednej konfiguracji sprzętowej, było problemem na innej. AMD i nVIDIA zawsze musiały iść w swoich sterownikach na pewien kompromis.

Link do komentarza
Udostępnij na innych stronach

Ja niestety tak na szybko nie znalazłem żadnego testu GTX 960 vs R9 285 na procku i3 drugiej generacji, ale skoro Dirian pisze, że widział test tych kart z i3, to zakładam, że wie co pisze.

Widziałem testy na Haswellu, o czym wspominałem wcześniej. Podejrzewam jednak, że dla Sandy Bridge sytuacja będzie podobna - chodzi w końcu o obciążenie CPU przez sterowniki. Niemniej to trochę gdybanie, no ale bezpieczniej IMHO wziąć GTX 960.

Link do komentarza
Udostępnij na innych stronach

Do niedawna sterowniki nVIDII miały jeszcze spore problemy na prockach dwurdzeniowych starszych generacji i dlatego porównywanie na trzeciej i czwartej generacji, gdzie HT zostało dosyć mocno przeorane nie ma najmniejszego sensu. Choć w sumie w najgorszym przypadku będzie trzeba kombinować ze sterownikami (co przy okazji poprawi jakość wyświetlanego obrazu :P).

Link do komentarza
Udostępnij na innych stronach

TO co robić.... r9 380 jest bardziej wydajny...

Aha i jak mam toą starą kartę to idzie mi tak.

Minimalne- 20 klatek/s

średnie - 17 klatek/s

a wysokie 5 klatek

A chcę zagrać na wysokich... i podobno lepiej kupić r9 380 bo podobno 960 ma śmieszną szyne pamięci.

Link do komentarza
Udostępnij na innych stronach

R9 380 jest trochę wydajniejszy, ale niekoniecznie musi być wydajniejszy z twoim procesorem z uwagi na być moze bardziej obciążające CPU sterowniki. Niestety nikt nie robi testów tych kart na i3 drugiej generacji, więc ciężko stwierdzić. Moim zdaniem bezpieczniej wciąż GTX 960, no ale już to pisalem. Ostateczna decyzja należy do ciebie.

Link do komentarza
Udostępnij na innych stronach

J achcę se pograć już w wiedźmina w te wakacje, ale kurde naprawdę nie wiem.

Jak r9 380 (jak patrzę na testy) jest wydajniejszy , no to jak kupię jego to w najgorszym wypadku powinien chodzić jak gtx 960 chyba.A stery też jakieś mają pod wieśka.A co z efektami... hmmmm...

Aha i podobno jak widziałem na innych forach piszą że zresztą amd lepiej współpracuje z intelami.

Link do komentarza
Udostępnij na innych stronach

Ale r9 280 jest lepszy...

Niezupełnie. Diabeł tkwi w szczegółach. Może lepiej trochę się rozpiszę, żebym potem miał do czego ludzi odsyłać. tongue_prosty.gif

Jedną z ciekawszych nowinek w DX12 są asynchroniczne shadery. Tak w skrócie pozwoli to na równoczesne wykonywanie przez kartę zadań związanych z obróbką grafiki oraz dodatkowo pewnych obliczeń (np. związanych z postprocessingiem, obliczeniami fizyki itp.). Do tego potrzebne są jednak pewne rozwiązania na poziomie architektury oraz odpowiednio duża ilość zasobów. Przedstawia się to mniej więcej tak:

ybyyZFA.jpg

Przy czym Anandtech popełnił pewien błąd w przypadku kart AMD. Policzył ACE (Asynchronous Compute Engine), czyli same silniki, ale każdy z tych silników może mieć kilka kolejek.

I tak - w przypadku R9 280/280X każde ACE obsługuje dwie kolejki, co oznacza, że cała karta ma 4 kolejki na dodatkowe obliczenia, czyli w tym samym momencie może pracować nad pięcioma różnymi zadaniami.

W przypadku kart R9 285/380 mamy 8 ACE, z czego każde ma 8 kolejek, czyli w sumie mamy 64 kolejki na obliczenia dodatkowe. Czyli jak łatwo policzyć karta może pracować nad 65 różnymi taskami w tej samej chwili.

Maxwelle drugiej generacji (seria 9xx) mogą na raz pracować nad 32 zadaniami (co powinno być wartością bardziej niż wystarczającą przez parę następnych lat), a starsze karty nVIDII jeśli pracują nad obliczeniami graficznymi, to nie mogą w ogóle być wykorzystywane w innych obliczeniach.

I teraz ktoś spyta dlaczego to jest tak istotne? Z bardzo prostego powodu - przy implementacji znanej z DX11 karta graficzna ma jedną kolejkę i może pracować nad jednym zdaniem na raz. To sprawia, że kolejka może się zapychać (i w mocniejszych kartach się zapycha), co ogranicza wydajność kart. Nawet jeśli dane były przygotowywane przez parę rdzeni procesora, to i tak ostatecznie trafiały do jednej kolejki. Obecne karty nie wyrabiają nie dlatego, że nie dają rady, tylko dlatego, że przez jedną kolejkę nie da się przepchnąć dostatecznie dużej ilości danych i spora część ich potencjału nie może być wykorzystana. W teorii można by mieć wątpliwości co do tego, czy to podejście się szybko przyjmie, ale spora część tytułów na PCty występuje w wersjach na PS4 oraz Xbone, a te konsole póki co szału nie robią i właśnie asynchroniczne shadery mogą być drogą do odblokowania ich potencjału. Dodatkowo Sony i MS widzą w tym rozwiązaniu potencjał i starują się go promować wśród twórców gier.

Problem z R9 280X jest taki, że ma tych kolejek za mało jak na potrzeby PCtów (w samym postprocessingu na PCtach dzieje się dużo więcej niż na konsolach, a biblioteki takie jak Havok tylko czekają na to, żeby zacząć ich używać na GPU). Innymi słowy - na chwilę obecną R9 280X wydaje się być lepszy, ale bardziej perspektywistyczne są niedoceniany GTX 960 oraz do niedawna niedoceniany R9 285.

Link do komentarza
Udostępnij na innych stronach

Popatrz na to http://pclab.pl/art61530-22.html .

Tutaj jasno wynika że r9 280x przewyższa gtx 960.A nawet r9 380

Oj sorry to jest do wieśka 2 , ale i tak przewyższa

A tutaj macie jeszczę to: http://gpuboss.com/gpus/Radeon-R9-380-vs-Radeon-R9-280X

Co z tymi testami? patrzę na stronę gpuboss i we wszystkim r9 280x przewyższa gtx 960 a w wieśku 3 na testach jest gorszy...

Nie wiem co robić, może to dlatego że nie siedzący w temacie ja naoglądałem się testów.

Podobno że tylko w wieśku 3 jest lepszy gtx 960 a tak to przewyższa r9 280x całego gtx 960.

Link do komentarza
Udostępnij na innych stronach

Gość
Temat jest zablokowany i nie można w nim pisać.


  • Kto przegląda   0 użytkowników

    • Brak zalogowanych użytkowników przeglądających tę stronę.

×
×
  • Utwórz nowe...