Firma NVIDIA ujawniła kartę graficzną GeForce GTX 1080, która bazuje na architekturze Pascal. Model ten posiada rdzeń GP104, wykonany w technologii 16nm o oznaczeniu GP104-400-A1. Karta będzie dysponować 2560 procesorami CUDA o taktowaniu bazowym 1607 MHz, a w trybie Boost około 1733 MHz. Nie podano niestety ilości jednostek teksturujących oraz renderujących. Model ten otrzyma także 8GB pamięci GDDR5X o częstotliwości 10000 MHz na 256 bitowej magistrali, co powinno dać przepustowość 320 GB/s.

Model referencyjny wykorzystany przy prezentacji nie przekroczył temperatury 67 stopni w pełnym obciążeniu, a współczynnik TDP wynosił zaledwie 180 Watów. Do zasilanie najmocniejszej karty w ofercie nVidii wystarczy zaledwie pojedyncza wtyczka 8-pin.

Wszystkie karty Pascal otrzymają specjalny mostek SLI podwajający transfery. Oprócz wersji standardowej, powstanie jeszcze GeForce GTX 1080 Founders Edition, dedykowany największym fanom zmiany zegarów. Sugerowana cena nowego modelu została ustalona na 599 dolarów, natomiast wersja specjalna ma kosztować 699 dolarów. Obie karty graficzne mają trafić do sklepów pod koniec maja.


ŹRÓDŁOtomshardware.com
Poprzedni artykułElectronic Arts ujawnia trailer Battlefield 1
Następny artykułNVIDIA pokazuje światu kartę graficzną GeForce GTX 1070
Zawodowo zajmuję się pisaniem newsów i artykułów na portalach OSWorld.pl i PCMod.pl. Prócz tego składam i naprawiam komputery dla znajomych oraz klientów. Moja przygoda z komputerami, zaczęła się pod koniec liceum, czyli w roku 2005, kiedy to złożyłem swój pierwszy zestaw. Wciągnęło mnie to na tyle, że do dnia dzisiejszego nie ma dnia, abym nie dowiedział się czegoś nowego ze świata nowoczesnych technologii. Kiedy inni pasjonują się super samochodami, ja potrafię ucieszyć się z dobrze wyglądającego i wydajnego procesora, płyty głównej, karty graficznej, obudowy itp. Od przeszło 7 lat przygotowuję wirtualne konfiguracje i składam komputery. Jest to moja wielka pasja, którą staram się należycie pielęgnować, codziennie ucząc się czegoś nowego i utrwalając obecną wiedzę do perfekcji.
0 komentarzy
Inline Feedbacks
View all comments