MarK Napisano Styczeń 17, 2010 Zgłoś Share Napisano Styczeń 17, 2010 Nie wiedziałem w sumie gdzie to dać, ale chyba tutaj jest najlepsze miejsce. Otóż ostatnio zainteresowało mnie czemu GPU, gdzie nasze grafy mają wydajności (średnio licząc sprzęty całej braci tutaj zgromadzonej) po 400 GFLOPÓW i więcej, a procesory po 2-3 (czy nawet przepotężny CELL z PS3, który ma 15), to czemu nikt nie zaprzęgł GPU do wykonywania obliczeń, które są obecnie na karku CPU? Coś gdzieś kiedyś o tym czytałem, ale teraz już nie pamiętam, a moja wiedza z tej dziedziny niestety nie wystarcza na logiczne wytłumaczenie sobie tej anomalii. Obstawiam, że to jakiś problem z językiem programowania tych sprzętów, no ale przecież takie CUDA działają więc się da. Byłbym wdzięczny jakby ktoś mnie oświecił w tym zakresie . (w opisie tematu oczywiście powinno być "mimo znacznie większej mocy") Link do komentarza Udostępnij na innych stronach More sharing options...
Gi3r3k Napisano Styczeń 17, 2010 Zgłoś Share Napisano Styczeń 17, 2010 Ten artykuł powinien Ci rozjaśnić temat: LINK A w skrócie - po prostu CPU jest uniwersalny, a GPU nie jest. GPU ma shadery, które są o wiele prostszymi konstrukcjami i pozwalają o wiele szybciej przekształcić ogromne ilości prostych algorytmów. Na końcu masz informacje o Larrabee, GPU od Intela, które już wiemy, że zostało przez tą firmę porzucone i nie będzie sprzedawane na rynku. Choć być może któraś konsola będzie je miała - gdzieś czytałem, że bodajże Nintendo rozważa użycie Larrabee w swojej następnej konsoli (chyba następcy Wii). Link do komentarza Udostępnij na innych stronach More sharing options...
MarK Napisano Styczeń 18, 2010 Autor Zgłoś Share Napisano Styczeń 18, 2010 Wielkie dzięki artykuł w 200% zaspokoił moją potrzebę wiedzy . Link do komentarza Udostępnij na innych stronach More sharing options...