Autor |
Nachricht |
Neox
Dabei seit: 27.12.2003
Ort: Berlin
Alter: 42
Geschlecht:
|
Verfasst Do 24.05.2007 20:27
Titel
|
|
|
lumen hat geschrieben: | Netzwerkrendering dürfte auf lange Sicht günstiger sein als ne 8-Kern-Maschine hinzustellen. |
Tjo der Trend in den großen Filmstudios geht aber inzwischen Richtung Echtzeitrendering, da brauchste dann auch kein Netzwerk mehr, da bringt dir der 8 Core dann mehr
Wurde aber auch langsam Zeit, dass die Leute mal schnallenb, dass ein guter Fake, der optisch nahezu gleichwertig ist, am Ende deutlich billiger kommt als eine mathematisch korrekt berechnete Lösung
|
|
|
|
|
lumen
Dabei seit: 17.02.2007
Ort: HH
Alter: 41
Geschlecht:
|
Verfasst Do 24.05.2007 21:22
Titel
|
|
|
Gut zu wissen.
Krichste die Teile nich auch langsam mal komplett auf die Grafikkarte verlegt? Normal müsste ein SLI-Verband mehr Durchsatz erzeugen als 8 Kerne.
|
|
|
|
|
Anzeige
|
|
|
Neox
Dabei seit: 27.12.2003
Ort: Berlin
Alter: 42
Geschlecht:
|
Verfasst Do 24.05.2007 22:44
Titel
|
|
|
Sicher können die Grakas immer mehr, ich mein das neuste Video von Nvidia mit dem Kopp, wieviel mehr Qualität braucht man denn noch? Das ganze nist Echtzeit, ok ist nur ei nKopf, aber hey, dann rendert es am Ende in der Qualität ein Bild in 10 Sekunden und ist immernoch um ein zigfaches schneller als ein gewöhnlicher Renderer, man kann in Echtzeit an den Einstellungen arbeiten usw. da kommen schon gut Zeiten zusammen wenn man mal bedenk wie oft man rendern muss, bis es gut aussieht. Ich hoffe das Crysis SDK kommt bald, dann werd ich mal schaun was damit alles geht, aber was ich bei Crytek gesehn hab, war mehr als atemberaubend.
Ich bin einfach nicht mehr bereit 10 Minuten zu warten um zu sehen, dass es scheisse aussieht. Dafür ist mir die Zeit zu wertvoll. Ich hoffe die Hersteller der 3d Pakete werden sich nach den Filmfirmen auch mal langsam mit den großen Engineherstellern zusammensetzen.
Ich mein Crytek plant die Engine für Architekturvisualisierung einsetzbar zu machen, und was die Engine da in Echtzeit raushaut sieht teilweise um Welten besser aus, als so manche in etlichen Minuten/Stunden gerenderte Architektur Visualisierung.
|
|
|
|
|
s.hallow
Dabei seit: 25.02.2004
Ort: -
Alter: -
Geschlecht:
|
Verfasst Fr 25.05.2007 08:41
Titel
|
|
|
lumen hat geschrieben: | Bei den derzeitigen Speicherpreise würd ich vom Xeon die Finger lassen. |
Wie jetzt? Was hat der Xeon denn mit den Speicherpreisen zu tun? Der Xeon 3210 ist (noch) die günstigste Quad-Lösung für den Sockel 775 und man verwendet den gleichen Speicher wie bei jeder anderen E/X/Q/QX CPU.
|
|
|
|
|
lumen
Dabei seit: 17.02.2007
Ort: HH
Alter: 41
Geschlecht:
|
Verfasst Fr 25.05.2007 10:09
Titel
|
|
|
Boards für den Xeon dürften ECC-RAM fressen.
Bzw: Das bezieht sich auf 2-Sockel-Systeme, die dürften dann auch mal direkt FB-DIMM wünschen.
PPS: Zumindest bei Alternate kostet der Q6600 weniger als der Xeon 3220. Hat also nicht so Sinn die Sache mit Xeon auf 775.
Zuletzt bearbeitet von lumen am Fr 25.05.2007 10:19, insgesamt 2-mal bearbeitet
|
|
|
|
|
Ticalion
Dabei seit: 20.08.2003
Ort: DÜW
Alter: 40
Geschlecht:
|
|
|
|
|
s.hallow
Dabei seit: 25.02.2004
Ort: -
Alter: -
Geschlecht:
|
Verfasst Fr 25.05.2007 11:13
Titel
|
|
|
lumen hat geschrieben: | Boards für den Xeon dürften ECC-RAM fressen.
Bzw: Das bezieht sich auf 2-Sockel-Systeme, die dürften dann auch mal direkt FB-DIMM wünschen.
PPS: Zumindest bei Alternate kostet der Q6600 weniger als der Xeon 3220. Hat also nicht so Sinn die Sache mit Xeon auf 775. |
Der Q6600 kostet IMMER weniger als ein Xeon 3220... Der Xeon 3210 kostet aber auch immer weniger, als ein Q6600. Von daher ermöglicht der Xeon 3210 z.Zt. den günstigsten Einstieg in die Quad-Core Welt für 775.
|
|
|
|
|
rixxor
Dabei seit: 28.01.2004
Ort: Dortmund
Alter: 38
Geschlecht:
|
Verfasst Fr 25.05.2007 11:57
Titel
|
|
|
kauf 10 dinger vom noouch und bei dir ne renderfarm
|
|
|
|
|
|
|
|
Ähnliche Themen |
[Foto] Digitalkamera Preisklasse bis 300€
Nvidea Quadro FX 3000 und PCI-Grafikkarte
Pixma IP 3000 druckt kein Schwarz mehr
Canon Pixma ip 3000 – Randlos nur grau statt schwarz?
Cinema 4D -Wie Rendern beschleunigen?
Einzelbild auf 2 Rechnern rendern sinnvoll?
|
|