News NVIDIA nimmt AMD weitere Marktanteile im AIB-Grafikkarten-Markt ab

Ist Mediatek Nividia?
 
Ist Mediatek Nividia?
Ich wollte damit nur sagen man kann im stark zersplitterten ARM Markt erfolgreich sein ohne gleich an der Spitze mitzuspielen.

Anders sind wohl nicht die Ambitionen von AMD in dieser Richtung mit seinen künftigen Opterons der A-Serie zu erklären.
 
Keine Frage, man kann erfolgreich sein. Nur Nividia ist es am ARM Markt zumindest nicht mehr.
 
tegra 4i ist natürlich aufgrund der verspätungen fast schon obselet, obwohl jetzt doch einige hersteller produkte angekündigt haben. da dürfte nvidia ganz ordentlich bei den konditionen entgegengekommen zu sein.

aber tegra 4? letztes jahr haben alle über den tegra 4 und die verzögerungen gelästert und qualcomms snapdragon 800 schon zum "sieger" erklärt, da waren bereits erste tablets (erst toshiba & dann asus, später hp) mit tegra 4 hier im handel erhältlich. zu der zeit (und auch später) waren tablets mit snapdragon 600/800 absolute fehlanzeige. shield wurde zwar wohl nur in geringen stückzahlen produziert, erfreute sich aber offenbar einen gesunden nachfrage, ebenso wie tegra note (da wird das evga-tablets hoffentlich bald auch in deutschland erhältlich sein).

das problem an der stelle besteht aber darin, dass sich im tablet-bereich neben dem ipad alle anderen hersteller immer noch sehr schwer tun. einzig samsung, die übers jahr eine ganze armada an tablets in den markt drücken, erreicht ordentliche verkaufszahlen. dazu kommt, dass der trend bei android-geräten immer mehr in den low-cost-bereich geht, wo vor allem mediatek-chips dominieren.

Keine Frage, man kann erfolgreich sein. Nur Nividia ist es am ARM Markt zumindest nicht mehr.
wie gesagt, das muss man differenzieren. bei tablets siehts relativ gesehen gar nicht so schlecht aus. allerdings ist das marktsegment, wo sich tegra 4 tummelt, relativ klein, android-tablets haben immer noch einen relativ schweren stand und der einzige richtig erfolgreiche hersteller (samsung) setzt ausschließlich auf qualcomm- und die eigenen exynos-chips.

bei smartphones hingegen, wo der markt immer noch brummt und android mit riesigem abstand marktführer ist, ist nvidia komplett vor die wand gefahren. wenn man sich mal speziell die damalige verbreitung von tegra 2 anschaut, dann ist das aktuell eine absolute nullnummer. ist ja auch kein wunder, wenn aufgrund der tegra 4i verzögerungen nvidia bei neuen smartphones seit monaten komplett außen vor ist. einsteiger-geräte werden von mediatek dominiert, mittel- bis oberklasse fast ausschließlich von qualcomm. nvidia findet da derzeit nicht mehr statt.

es sind zwar jetzt mit dem lg g2 mini und dem wiko max erste tegra 4i smartphones angekündigt, aber die dinger kommen sehr spät, tegra 4i wirkt gegenüber aktuellen qualcomm chips inzwischen nicht mehr ganz taufrisch. und nen integriertes lte-modem bietet mediatek ab q3 auch an.

das ist und wird für nvidia wohl noch ne weile ein schwieriger markt bleiben.
 
Bei ARM sehe ich nur die Chance, wenn die SoC's Smartphone tauglich sind. Der Tabletmarkt ist eigentlich tot. Ein 5 Zoll Handy reicht zum spielen und man kann es überall hin mitnehmen. Und da sehe ich eine gute Chance für AMD, die ja schon einen "PC" in Smartphonegröße präsentiert haben. Mit ARM könnten die da noch etwas reißen. NVidias Probleme bei ARM hat Cruger ja schon beschrieben.
 
Bei wievielen Laptops die eine zusätzliche GPU besitzen wird die Prozessor interne GPU nicht einmal beim Desktop genutzt...?

Korrekte Antwort wäre, es werden abwechselnd beide GPUs verwendet. Bei AMD dürfte auch heute noch im Batteriebetrieb die interne GPU laufen, sobald das Teil an der Steckdose hängt, wird auf die externe Grafik umgeschaltet. Möglicherweise kann man es heute beeinflussen, das z.B im 2D/BR gucken die interne läuft und beim zocken die externe. Bei Intel weiß ich es nicht.
 
Wie sollte nVidia das schaffen, wenn Intel keine x86 Lizenzen mehr herausrückt? Dafür sind sie mit ARM erfolgreich.

VIA als Partner (mit späterer Übernahme ;) ) z.B.

---------- Beitrag hinzugefügt um 09:14 ---------- Vorheriger Beitrag um 09:10 ----------

Und die Cyrix Lizenzen schlummern im Stillen , so wie es aussieht...
 
Intel verkauft zu 99 % APU-Dreck, wie Du es nennst.

Richtig. Aber der Grafikteil wird dort auch verschenkt. Intel hat auch keine GPU Add-In Markt wo sie was verlieren könnten, also ist es ihnen egal. Ihr Angebot richtet sich an Office Komplett PCs und an Laptops sowie auf Grund der CPU Leistung auch an Gamer, wohl wissend, dass die dann eine Graka dazu kaufen werden. Das ist Intel aber völlig egal. Mit ihrem verschenkten Grafikkern erreichen Sie das was sie erreichen wollten. Sie verlieren bei PCs nicht an AMD und AMD selber wiederum versucht krampfhaft den GPU Teil der APUs aufzuwerten. Die CPU bleibt dabei auf der Strecke. Da sie selber AddIn GPUs anbieten konkurrieren sie gegen sich selber.

---------- Beitrag hinzugefügt um 10:30 ---------- Vorheriger Beitrag um 10:27 ----------

In wenigen Jahren wird es nur noch APUs geben. Dedizierte Grafikkarten werden komplett verschwinden.

Das ist sehr unwahrscheinlich, da die Fertigungsprozesse immer komplexier und schwieriger werden. Es wird somit immer problematischer eine gute CPU und gute GPU auf einmal zu bauen. Sieht man ja bei AMD. GPU ist ok aber CPU ist ehrlich gesagt alles andere als prickelnd. Sieht man ja bei den Notebooks. Wer kauft sich ein Notebook mit AMD CPU/APU. Höchstens derjenige der auf den aller letzten Cent schauen muss. Wer sich ein vernünftiges Notebook kauft, das man auch Notebook nennen kann, der hat in 99,9% der Fälle eine Intel CPU drinn.

---------- Beitrag hinzugefügt um 10:37 ---------- Vorheriger Beitrag um 10:30 ----------

Interessant. Ein Bericht über rückläufige Zahlen bei "Onboard-Grafik". Wobei es eigentlich nur noch NVIDIA ist, die nichts ordentliches als CPU/GPU Lösung auf x86 Basis hinbekommen.
Wenn Intel und AMD schon seit Jahren Systeme bauen, die nicht einmal eine Onboard-Grafik benötigen, ist es fraglich, warum die Zahlen so langsam zurück gehen. Nun, es gibt eben noch Leute, für die ist ein PC nur mit extra Grafikkarte ein kompletter PC, und, zugegeben, die "CPU-Grafik" ist noch nicht lange alltagstauglich. Der "AIB-Markt" besteht also eigentlich nur noch, weil NVIDIA nichts Anderes bieten kann und Intel, sowie AMD noch nicht flott genug bei der Sache sind.

Letzteres werden sie auch niemals sein. Wie sollen sie die gleiche Performance liefern, wenn sie zwei Dinge auf einem DIE unterbringen müssen und das bei stetig schwieriger werdenden Fertigungsprozessen. Die TDP Grenzen sind schlichtweg die Grenze für die APUs. Da geht nicht mehr. Es ist einfacher die gleiche Leistung mit verschiedenen DIEs zu erreichen bei akzeptabler Kühlung und Lautstärke. AMD ist doch bestes Beispiel dafür. Im gleichen Maße wie der GPU Teil in der APU zugelegt hat, ist der CPU Teil auf der Strecke geblieben. Besonders sparsam ist keins der Modelle im Vergleich zur erreichten Leistung. Es ist eben einfacher eine moderat zu kühlende CPU und GPU separat zu fertige und zu verbauen als eben alles auf einem DIE. Ich sehe nicht wieso sich das ändern sollte. Die Grenzen der Physik bleiben die gleichen. Wird der Fertigungsprozess kleiner, profitieren CPUs, APUs und GPUs alle davon. Der Abstand bleibt.

Die aktuelle Maxwell Generation beispielsweise hat im Bereich Effizienz schon wieder ordentlich zugelegt. Die Dinger werden sich bei Notebooks rasend verkaufen und die sind noch auf 28nm. Jetzt das Ganze nochmal auf 20nm geshrinkt und es gibt nochmal einen ordentlichen Boost. Da wird AMD doch noch sehr lange brauchen bis sie dahin mit einer APU kommen bei gleichzeitig guter CPU Leistung. Letztere ist einfach derzeit nicht gut und deswegen kommt AMD gegen Intel auch nicht weiter.

---------- Beitrag hinzugefügt um 10:44 ---------- Vorheriger Beitrag um 10:37 ----------

VIA als Partner (mit späterer Übernahme ;) ) z.B.

---------- Beitrag hinzugefügt um 09:14 ---------- Vorheriger Beitrag um 09:10 ----------

Und die Cyrix Lizenzen schlummern im Stillen , so wie es aussieht...

Nein kannst Du vergessen. Ich meine mich zu erinnern, dass bei einer Übernahme die Lizenzen nicht so einfach mitwandern dürfen. Außerdem sehe ich hier für Nvidia auch keinen Vorteil. Wieso in einem Segment mitmischen, wo Intel ohnehin alles kontrolliert? Die machen das einzig richtige und arbeiten mit vielen anderen Herstellern daran, dass x86 eben nicht mehr das zentrum allen IT Lebens ist. Der Markt wird sich richtig hübsch segmentieren in den nächsten 5 Jahren. Die Bedeutung von x86 nimmt immer mehr ab. Nvidia macht das einzig richtige an der Stelle und liefert weiter sehr gute GPUs und schaut ansonsten, dass sie Optionen auf anderen Märkten finden die nicht von Intel kontrolliert werden. Und da gibt es genügend Optionen über die nächsten 5 Jahre.
 
Bei ARM sehe ich nur die Chance, wenn die SoC's Smartphone tauglich sind. Der Tabletmarkt ist eigentlich tot. Ein 5 Zoll Handy reicht zum spielen und man kann es überall hin mitnehmen.

Ich bin immer erstaunt, wie schnell ein Markt für tot erklärt wird, während noch weiter fleißig Geräte verkauft werden...

Hier dieses Mal mit der "interessanten" Begründung "5Zoll reichen". Hieß es nicht mal:"640 kB ought to be enough for anybody." https://de.wikiquote.org/wiki/Bill_Gates


Soviel dazu...
 
Ich bin immer erstaunt, wie schnell ein Markt für tot erklärt wird, während noch weiter fleißig Geräte verkauft werden...

Hier dieses Mal mit der "interessanten" Begründung "5Zoll reichen". Hieß es nicht mal:"640 kB ought to be enough for anybody." https://de.wikiquote.org/wiki/Bill_Gates


Soviel dazu...

Und wo steckt man die 10 Zoll Tablets hin? Ein 5 Zoll Handy kann man gerade noch in die Hosentasche stecken und mitnehmen. Da geht man in der Bildschirmgröße einen Kompromiss ein. Aber wenn ich ein 10 Zoll Teil rumschleppen soll, dann kann ich auch was vernünftiges nehmen. Also 13,3 Zoll sollten es schon sein. Wundert mich sowieso, dass es die Tablets nicht etwas größer gibt.
 
Es soll tatsächlich Leute geben, die eine Tasche, die man umhängen kann, immer mit sich tragen.

Ansonsten soll es tatsächlich Leute geben, die fangen unter 10" gar nicht an, mit dem Gerät im Web zu surfen, wollen aber auch kein Notebook/Subnotebook haben. Mein Chef hat sein Notebook durch ein iPad mit Tastatur-Dock ersetzt, weil es einfach handlicher und damit praktischer ist. Wenn er dann auf 5" rumrödeln muss, weil das Pad zu Hause blieb, hör ich im Nabenraum teils noch das "Meckern". Dann ist er nur am rumwischen, weil er ewig scrollen muss.

In der Uni halte ich ein Tab mit Dock auch für sinnvoller im Vergleich zu einem Notebook, wenn man keine große Rechenpower benötigt. Da will man auch nicht auf 5" rumspielen. Habe ich im eigenen Studiengang selbst erleben dürfen. ^^

Das waren jetzt nur mal eben ausm Stehgreif 3 Beispiele, die deiner Aussage direkt widersprechen.
 
Zuletzt bearbeitet:
AMD ist doch bestes Beispiel dafür. Im gleichen Maße wie der GPU Teil in der APU zugelegt hat, ist der CPU Teil auf der Strecke geblieben. Besonders sparsam ist keins der Modelle im Vergleich zur erreichten Leistung. Es ist eben einfacher eine moderat zu kühlende CPU und GPU separat zu fertige und zu verbauen als eben alles auf einem DIE. Ich sehe nicht wieso sich das ändern sollte. Die Grenzen der Physik bleiben die gleichen. Wird der Fertigungsprozess kleiner, profitieren CPUs, APUs und GPUs alle davon. Der Abstand bleibt.
[...]

Die aktuelle Maxwell Generation beispielsweise hat im Bereich Effizienz schon wieder ordentlich zugelegt. Die Dinger werden sich bei Notebooks rasend verkaufen und die sind noch auf 28nm. Jetzt das Ganze nochmal auf 20nm geshrinkt und es gibt nochmal einen ordentlichen Boost. Da wird AMD doch noch sehr lange brauchen bis sie dahin mit einer APU kommen bei gleichzeitig guter CPU Leistung. Letztere ist einfach derzeit nicht gut und deswegen kommt AMD gegen Intel auch nicht weiter.

Klar, wird irgendwie alles gleichmäßig schneller. Was sich aber seit Langem nicht ändert, sind die Nutzungsbereiche und deren Systemvoraussetzungen.

Im Prinzip sind es doch nur noch "Hi End Gaming" und "Videoprocessing", die der Computerhardware einiges Mehr abverlangen. Wobei "Hi End Gaming" schon ein sehr weiter Bereich ist. Dem einen reicht schlichte Comic-Grafik, dafür muss das Spiel aber genial sein. Da reicht eine A4 1200 GPU bereits aus. Der andere benötigt für seine persönliche "Befriedigung" die höchste FPS ... Wieder ein Anderer benötigt 3 Bildschirme, am besten alle in 4K.
Um es anders auszudrücken: Der PC deckt bereits die Belange von 99,99(periode) (Geschätzt ;) ) der PC Nutzer ab. PC Spiele benötigen keine 300FPS und die benötigte Auflösung hängt davon ab, wie nahe und wie groß ein Bildschirm ist.

Dass die PC Verkaufszahlen stagnieren liegt einfach daran, dass die kompakten Geräte immer Leistungsfähiger werden und die Belange der Nutzer bereits abdecken.
Die Industrie müsste sich also einen neuen Nutzungsbereich einfallen lassen, damit irgendwann "One Die" die gewünschten Belange der Nutzer nicht abdecken kann.
Spätestens, wenn die Hardware "8K" Filme in voller Auflösung in 3D und mit 120 FPS berechnen kann, ist der Ofen aus ;)

Etwas Gutes hat die Verbreitung der "Kleingeräte" mit ARM Prozessoren schließlich an sich. Die Programmierer sind dazu übergegangen, die Hardware genauer zu programmieren. Lediglich Microsoft ist mit den Apps in die falsche Richtung gestolpert und benötigt hier mehr Ressourcen als die x86 Software selber. 64 Bit Programme so stiefmütterlich zu behandeln, wird MS vielleicht auch noch gute Anteile am Kommunikationsmarkt kosten...

Jedenfalls ist die "One Die" Lösung auf lange Sicht die Lösung, die sich am Verbrauchermarkt durchsetzt, weil sie günstige Produktionskosten bei höchstmöglicher Bedarfsabdeckung und niedrigstem Energieverbrauch ermöglicht.
 
Klar, wird irgendwie alles gleichmäßig schneller. Was sich aber seit Langem nicht ändert, sind die Nutzungsbereiche und deren Systemvoraussetzungen.

Im Prinzip sind es doch nur noch "Hi End Gaming" und "Videoprocessing", die der Computerhardware einiges Mehr abverlangen. Wobei "Hi End Gaming" schon ein sehr weiter Bereich ist. Dem einen reicht schlichte Comic-Grafik, dafür muss das Spiel aber genial sein. Da reicht eine A4 1200 GPU bereits aus. Der andere benötigt für seine persönliche "Befriedigung" die höchste FPS ... Wieder ein Anderer benötigt 3 Bildschirme, am besten alle in 4K.
Um es anders auszudrücken: Der PC deckt bereits die Belange von 99,99(periode) (Geschätzt ;) ) der PC Nutzer ab. PC Spiele benötigen keine 300FPS und die benötigte Auflösung hängt davon ab, wie nahe und wie groß ein Bildschirm ist.

Ich glaube nicht das es nur High End Gaming ist. Bereits im Mid Range und Performance Segment kommen die Unterschiede eklatant zum Tragen und das ist noch weit weg von High End. Heutige Spielegrafik ist zudem nach wie vor Meilenwert von echter Realitätsnähe entfernt. Kein FPS Shooter oder Flugsimulator oder sonst was Spiel das ich kenne, liefert echten Realismus im Vergleich zum Real Life ab. Da gehen noch locker 10 Jahre ins Land bis wir soweit sind von 100%igem Raumgefühl mit Helm oder ähnlichen Utensilien ganz zu Schweigen. Es ist also alles andere als ein Thema der Auflösung. Auflösung für sich alleine ist viel zu eindimensional gedacht. Eine höhere Auflösung erzeugt nicht mehr Realismus in der Spielegrafik. Die richtigen Hardwarebelastungen werden aus ganz anderen Ecken kommen. Und natürlich braucht man keine 300fps. 100 sind bei einem FPS Shooter aber schon wünschenswert.

Dass die PC Verkaufszahlen stagnieren liegt einfach daran, dass die kompakten Geräte immer Leistungsfähiger werden und die Belange der Nutzer bereits abdecken.
Die Industrie müsste sich also einen neuen Nutzungsbereich einfallen lassen, damit irgendwann "One Die" die gewünschten Belange der Nutzer nicht abdecken kann.
Spätestens, wenn die Hardware "8K" Filme in voller Auflösung in 3D und mit 120 FPS berechnen kann, ist der Ofen aus ;)

Bei Filmen und ähnlichem ja. Das ist richtig. Aber eben nicht in Bezug auf Spiele (siehe oben). Natürlich sind die Verkaufszahlen im unteren Bereich rückläufig. Das ist keine Frage. Im Bereich der PC Gamer sind sie aber nach wie vor konstant und hier sind wir wie oben angesprochen von echter Realitätsnähe noch so weit weg. Den trotzdem in Summe sinkenden Stückzahlen stehen daher höher Durchschnittspreise der Gamer gegenüber. Im Endeffekt müssen PC Spieler seit geraumer Zeit tiefer in die Tasche greifen. Das ist auch völlig logisch, da weder AMD noch Nvidia per sé Umsatz hergeben möchten. Also werden die Kosten auf die Zielgruppe umgelegt, die nach wie vor den PC Gamern zuzuordnet ist. Nvidia war hier allerdings erheblich erfolgreicher als AMD -> siehe Quartalszahlen bei PC GPUs (Desktop + Notebook) und auch Marktanteilsbericht von JPR.

Etwas Gutes hat die Verbreitung der "Kleingeräte" mit ARM Prozessoren schließlich an sich. Die Programmierer sind dazu übergegangen, die Hardware genauer zu programmieren. Lediglich Microsoft ist mit den Apps in die falsche Richtung gestolpert und benötigt hier mehr Ressourcen als die x86 Software selber. 64 Bit Programme so stiefmütterlich zu behandeln, wird MS vielleicht auch noch gute Anteile am Kommunikationsmarkt kosten...

Jedenfalls ist die "One Die" Lösung auf lange Sicht die Lösung, die sich am Verbrauchermarkt durchsetzt, weil sie günstige Produktionskosten bei höchstmöglicher Bedarfsabdeckung und niedrigstem Energieverbrauch ermöglicht.

Sie ist die Lösung für einen Teil des Marktes aber eben nicht für alle Teile (siehe oben). Und die One Die Lösung wird sich auch vermehrt im Bereich ARM abspielen. Es gibt nämlich genau bei den von Dir angesprochenen Zielgruppen keinen wirklichen Zwang x86 nutzen zu müssen. Alles was Filme, Office, Apps und einfachste Spiele angeht setzt kein überladenes, komplizierteres und teureres x86 System mehr vorraus. Deswegen wird genau der Markt auch der Bereich sein, der durch die ganzen Kleingeräte zerklüftet wird. Sprich AMD und vor allem Intel verlieren hier per sé schonmal an Einfluss und Microsoft hilft durch eigene Unfähigkeit kräftig dabei mit . Es erfolgt eine Verschiebung von x86 hin zu irgendwelchem ARM basierten Geräten in genau diesen preissensitiven Segmenten. Das liegt auch schlicht und ergreifend daran, dass die zentralen Anwendungen der Kundschaft in diesem Bereich WhatsApp, Facebook App und andere iOS und Andriod basierte Apps sind. Dafür braucht man keinen x86 PC mehr.
 
Zuletzt bearbeitet:
Bei Filmen und ähnlichem ja. Das ist richtig. Aber eben nicht in Bezug auf Spiele (siehe oben).

"Filme berechnen" ...

Sie ist die Lösung für einen Teil des Marktes aber eben nicht für alle Teile (siehe oben).

Aktuellste Spiele laufen bereits mit "One-Chip" Lösungen, und die Entwicklung geht weiter. Mich persönlich nervt, dass 64 Bit nicht richtig unterstützt wird. Dann würde es nochmal etwas anders aussehen. Je nach Programmierung kann so ein x86/x64 Prozessor doppelt so schnell sein. Reell sind 30-80%. Ein A4 1200 macht bei Cinebench 10 z.B. den Faktor 1,44 gegenüber 32 Bit. Und, wie Mantle zeigt, geht bei der Codeoptimierung auch noch einiges.

Und die One Die Lösung wird sich auch vermehrt im Bereich ARM abspielen. Es gibt nämlich genau bei den von Dir angesprochenen Zielgruppen keinen wirklichen Zwang x86 nutzen zu müssen. Alles was Filme, Office, Apps und einfachste Spiele angeht setzt kein überladenes, komplizierteres und teureres x86 System mehr vorraus. Deswegen wird genau der Markt auch der Bereich sein, der durch die ganzen Kleingeräte zerklüftet wird. Sprich AMD und vor allem Intel verlieren hier per sé schonmal an Einfluss und Microsoft hilft durch eigene Unfähigkeit kräftig dabei mit . Es erfolgt eine Verschiebung von x86 hin zu irgendwelchem ARM basierten Geräten in genau diesen preissensitiven Segmenten. Das liegt auch schlicht und ergreifend daran, dass die zentralen Anwendungen der Kundschaft in diesem Bereich WhatsApp, Facebook App und andere iOS und Andriod basierte Apps sind. Dafür braucht man keinen x86 PC mehr.

Wären Microsoft und die "x86" Hardware-Entwickler nicht so träge, bedürfte es Android nicht.
Vor allem solltest Du nicht übersehen, dass die Spiele (und deren mindere Qualität) auf den mobilen Geräten, den PC Spielen den Rang ablaufen, weil einfach nicht mehr gefragt ist. Die Leute wollen nicht unbedingt in realistisch wirkenden virtuellen Umgebungen herumrennen. Die das wollen, werden auch immer weniger.
 
"Filme berechnen" ...
Na dann viel Spaß in der Sauna, Dual oder Quad GPU ist da ein Witz! ;D



Es ist schon fast ironisch, wie viel Zeit hier vergeht für ein Bild ohne Motion (Bewegung).
Wie würde das mit unserem neuesten Sahne Stück aussehen, scannen kein Problem da reicht ein Atom mit Linux:

Focus3D X 330



Reichweite Focus3D X 330: 0.6 – 330m

Messrate: bis zu 976,000 Punkte/Sekunde

Systematischer Distanzfehler: ± 2mm

Integr. Farbkamera: Bis zu 70 Megapixel

Laserklasse: Laserklasse 1

Gewicht: 5,2kg

Multi-Sensor: GPS, Kompass, Höhensensor, Zweiachskompensator

Abmessungen: 240 x 200 x 100mm

Scanner Steuerung: Mittels Touchscreen und WLAN
http://www.faro.com/de-de/produkte/3d-vermessung/laserscanner-faro-focus-sup-3d-sup-/funktionen#main

648it ist auch so ein Thema! *suspect*
 
Na dann viel Spaß in der Sauna, Dual oder Quad GPU ist da ein Witz! ;D

Die Frage ist doch, wer so etwas wirklich braucht. Je mehr Details, je mehr auf spezielle Bereiche eingegangen wird, desto weniger potenzielle Kunden stehen dahinter.
Parallel dazu gilt: Je leistungsfähiger die Hardware, desto weniger Bedarf für Leistungssteigerungen ist vorhanden.

Andererseits hatte Intel mit dem Atom ja angedeutet, was sie bis ... eigentlich 2014 ... erreichen wollten. Wäre der Plan aufgegangen, hätten wir bereits 64 Kern- 64 Bit - Prozessoren mit 64 Watt TDP ... oder noch besser.
Full Raytracing Games sollten bis 2014 möglich sein. Da haben leider die Programmierer/Entwickler nicht mitgemacht.
 
Zuletzt bearbeitet:
@Richthofen
http://www.youtube.com/watch?v=joVqOafscWA
Eat this. hüstel
Was Spiele Grafik angeht, alles nur eine Frage wie man es macht.

Wenn man heutige PC Hardware so sieht, fragt man sich sowieso, warum Spielegrafik immer noch so künstlich wirkt. Scheinbar soll suggeriert werden, dass mit der nächsten Generation "alles" besser wird. Wenn wirklich fotorealistische Texturen benutzt würden, wäre der Bedarf für neue/bessere PC Hardware wahrscheinlich wirklich "abgeschlossen"...
 
Zurück
Oben Unten