Seite 1 von 1

Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: So 19. Apr 2009, 18:47
von Tekpoint
http://www.hardware-infos.com/news.php?news=2347

1TB/s Speicherbandbreite ist schon ne schlecht. gneauso wie 1Teratexel/s 20Teraflop Rechenleistung^^

Re: Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: Mo 20. Apr 2009, 10:27
von Tux390
interessante Prognose allerdings trauen die sich zu viel zu wie ich finde

Re: Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: Mo 20. Apr 2009, 10:29
von ayin
Die reinen Daten klingen zwar gut, aber wenn man es nicht nutzen kann hat das wenig Vorteile. Erst wenn es mit CUDA nützliche Applikationen gibt, dann wird das interessant, somit ist das für mich vorerst nur ein Proof of Concept.

Re: Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: Mo 20. Apr 2009, 12:02
von Tekpoint
http://www.pcgameshardware.de/aid,68088 ... ogie/News/

Hier mal zusammenfassung von PCGH was die der GT300 und der RV870 So leisten könnte. Und glaube in 4 jahren könnten wir vielleicht schon mehr bandbreitenspeicher und Teraflop Rechenleistung haben.

Re: Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: So 10. Mai 2009, 16:37
von Tekpoint
Glaube die 1000GB/s Bandbreite könnten wir schon eher knacken, wenn Nividia bzw. ATI ihre nächsten GPU Generation mit 512Bit Speicheranbindung ausstattet :D

"Der kleinste, erhältliche GDDR5-Speicher ist zurzeit 0,5 Nanosekunden schnell und damit bis 2000 MHz I/O-Takt spezifiziert. In Kombination mit einem 512 Bit breiten Speicherinterface würde dies satte 256 GB/s"

http://www.hardware-infos.com/news.php?news=2930

Taket man den GDDR5 noch bissel mehr (den 2000MHz schafft man ja bei ATI jetzt schon) dann wären man schon Richtung 300GB/s unterwegs :mrgreen: Also könnte man nächstes Jahr mit zu Weihnachten mit 500GB/s Grafikkarten bestimmt rechen und nimmt man dann X2 Karten so wäre man bei 1000GB/s :mrgreen:

Re: Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: So 10. Mai 2009, 21:02
von EnnoK
ayin hat geschrieben:Die reinen Daten klingen zwar gut, aber wenn man es nicht nutzen kann hat das wenig Vorteile. Erst wenn es mit CUDA nützliche Applikationen gibt, dann wird das interessant, somit ist das für mich vorerst nur ein Proof of Concept.
Wäre encodieren und decodieren von Filmen so eine nützliche Funktion? Wird bereits dran gearbeitet.
Z.Bsp. gibt es das in coreAVC und im CCCP (jeweils Beta, bzw. unstable)
Ebenso Kryptographieanwendungen. cRARk, ein Programm um verlorene RAR-Passwörter wiederzufinden, nutzt CUDA.
SETI und andere Forschungsprojekte rechnen auch mit Grafikprozessoren.
Im Prinzip könnte alles was weitgehend parallelisiert werden kann auch auf CUDA umgesetzt werden.
Nur für "normale" Anwendungen wie Schreibmaschine oder Informationssuche wäre das recht sinnlose Verschwendung von Kapazitäten. Da liegen die aktuellen CPUs schon die meiste Zeit still.
Wird kommen, dass CPU nur noch für Verteil- und Kontrollaufgaben im Rechner zuständig ist, und die (Grafik-)Koprozessoren die ganze Rechenarbeit machen. Frage ist nur ob AMD/ATI oder NVidia die Idee früher umsetzt; AMD muss eine Menge bei Parallelisierung zulegen, NVidia erstmal eine CPU bauen...

Re: Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: Mo 11. Mai 2009, 20:17
von Tekpoint
EnnoK hat geschrieben:
ayin hat geschrieben: Nur für "normale" Anwendungen wie Schreibmaschine oder Informationssuche wäre das recht sinnlose Verschwendung von Kapazitäten. Da liegen die aktuellen CPUs schon die meiste Zeit still.
Wird kommen, dass CPU nur noch für Verteil- und Kontrollaufgaben im Rechner zuständig ist, und die (Grafik-)Koprozessoren die ganze Rechenarbeit machen.
Jepp so denke ich mir das auch. Wenn Grafikleistung ist in den letzten Jahren mehr gefragt langsam als Prozessorleistung.

Re: Nvidia: 2013 mit 20 Teraflops, 1000 GB/s

Verfasst: Fr 19. Jun 2009, 08:27
von Tekpoint
GPUs ab 2015 erst mit 20 Teraflops? :shock: vielleicht meinen sie damit ja alle GPUs und somti auch kleine Karten :mrgreen:

http://www.hartware.de/news_47116.html

Zitat:
"Dally erwartet außerdem, dass kommende Grafikchips nicht nur für die Grafikberechnung zuständig sein werden, sondern die CPU auch bei anderen Anwendungen entlasten. Zu diesem Zweck sollen die Chips in Zukunft mehrere Aufgaben asynchron zugleich übernehmen können. Bereits Intels Larrabee soll zu dieser Art von Berechnungen in der Lage sein."