Quadcores von Via?

Ganz ehrlich mir kommt eher ein Nano ins Netbook als ein Atom.....rein aus Überzeugung und langsamer ist der Nano gegen den ersten Atom keinesfalls. Hat sich nur später keiner mehr für interessiert.

Die Auswahl mit ganzen 4! VIA Netbooks ist miserabel, die Lieferbarkeit ebenso. miserabel ein Lieferant.
Von Akkulaufzeiten von 10h sollte man sich dann auch verabschieden.

Was hat dich daran überzeugt? Die Theoretisch besseres Rechenleistung eines faktisch nicht/kaum kauf baren Produktes?
 
Die Samsung Nano Modelle waren schon besser lieferbar, allerdings gefällt mir der IST Zustand auch nicht. Es gab auch noch ein paar andere Nano Anbierte, glaube LG war mit bei.

Ja die praktisch bessere Leistung hat mich überzeugt und ganz klar der Fakt das ich nicht wie jeder Depperl mit Atom rumrennen mag, genauso verfahre ich mit Apple Produkten ;)

Der C7 ist mal ganz aussen vor....der Nano jedoch war zur Veröffentlichung auf Augenhöhe mit dem Atom und in einigen Gebieten ihm gar vorraus.
 
http://www.computerbase.de/news/har...ickelt-quad-core-cpu-und-directx-11-chipsatz/

Wobei Ende 2011 gut zur Roadmap Bulk-28nm von TSMC paßt.
Bis da aber viele Chips überhaupt herstellbar werden ist eher schon Mitte 2012.

Intel und teils AMD per LIano haben ja 2*2=4 bzw. 4 echte Cores schon im low budget Bereich etabliert bzw. stehen kurz davor.

Wobei 'VIA entwickelt' etwas merkwürdig und unwirtschaftlich erscheint. Ich tippe eher mal dass nvidia hier Zweitverwertung per VIA verkauft. Schließlich wird IPG per nvidia bald nicht mehr benötigt für Intel und AMD Designs.
 
NV verkauft da rein gar nichts über VIA. Deren Mama hat xmal mehr Money als die grünen Goblins, nur VIA wird blöd behandelt.
 
NV verkauft da rein gar nichts über VIA. Deren Mama hat xmal mehr Money als die grünen Goblins, nur VIA wird blöd behandelt.
Das ist aktuell so.

Für nvidia UND VIA wäre es finanziell lukrativ bei diesen Designs zu kooperieren.
nvidia will nicht in den x86_64 Markt während VIA bei ARM noch an der Peripeherie aktiv ist: http://www.heise.de/newsticker/meld...-ARM-Prozessor-fuer-Billigrechner-206608.html

Sobald nvidia seinen 3D Technologie nicht mehr per Chipsätze für Intel /AMD unter bekommt ist es wirtschaftlich sinnvoll es über andere Kanäle zu vermarkten - wie ggf. in einem VIA-Quad.
Und die ARM-Designs benötigen deutlich einfacherer und sparsamere Designs vs. txp. DirectX11 Grafik.
Ich tippe schon dass VIA etwas ähnlich wie den Liano aber in Bulk-28nm vorstellt.Und die GPU-Performnace etwa zwischen AMD RV810 und RV830 ansiedeln möchte.
 
NVidia hat eigene High-Performance ARM Designs: Tegra. Wieso sollten die ausgerechnet mit VIA zusammen arbeiten? Der Nischenmarkt den VIA besetzt hatte ist klein und selbst dort schrumpft VIAs Marktanteil zusammen? Was ist da bitte für NV wirtschaftlich sinnvoll?

NVidia hat mehrmals gesagt, dass sie kein Interesse an x86 Prozessoren haben. Die wollen eingebettete Grafikkerne im großen Mobilbereich verkaufen und dicke Eisen im Profiworkstation Markt. Die Gamer Karten sind auch nur ein notwendiges Nebenprodukt, was die Entwicklung der Chips für den Profimarkt mitfinanziert.
 
Tegra ist leider kein x86... Wenn NV langfristig überleben will, braucht NV aber x86.

Mal davon abgesehen wird VIA gleich zum 40nm-Prozess springen. Da VIA keine wirklichen Finanzsorgen hat und bei Formosa anscheinend Narrenfreiheit besitzt hat man eben den DualCore verschoben, bis der 40nm-Prozess reif dafür ist. Ein QuadCore ist ja auch relativ leicht erstellt, je nachdem wie man das macht. Das würde in jedem Falle Sinn machen, mit 40nm-CPUs auf den Markt zu kommen, damit kann man sicher mehr reißen ggü. der 32nm-Konkurrenz als mit einem schon wieder veralteten 45nm-Prozess.
VIA holt auch nur langsam auf, wie es ja auch nicht anders zu erwarten ist, wenn man auf einen Fertiger wie TSMC angewiesen ist. Vllt fertigt VIA irgendwann mal bei GF, das könnte schneller gehen. In Gefahr ist VIA sicherlich nicht und die x86-Lizenz wird sicherlich auch nicht brach liegen gelassen, egal von wem.
 
Zuletzt bearbeitet:
Und wofür brauche ich x86, wenn ich wie VIA im normalen x86 Markt sowieso nicht mithalten kann (für Desktop zu wenig Leistung, für Mobil gegenüber den aktuellen AMD und Intel Generationen zu Stromfressend) und x86 im Millionenmarkt Smartphones/-books sowieso nichts zu sagen hat?
 
Und wofür brauche ich x86, wenn ich wie VIA im normalen x86 Markt sowieso nicht mithalten kann (für Desktop zu wenig Leistung, für Mobil gegenüber den aktuellen AMD und Intel Generationen zu Stromfressend) und x86 im Millionenmarkt Smartphones/-books sowieso nichts zu sagen hat?
Auf dem x86-Markt gibt es einen big-Player, der alles blockiert, aber der Smartphonemarkt ist total übersättigt ... Zudem spielt die Zeit dank neuer Fertigungsprozesse eher für x86 und gegen Arm. Es ist abzusehen, dass NV irgendwann ausgesperrt wird aus dem PC-Markt, spätestens dann, wenn Intel eine brauchbare eigene Grafiklösung entwickelt. Und die stecken da 100e Millionen rein...
 
Zuletzt bearbeitet:
Intel hat inzwischen mehrfach bewiesen, dass Geld nicht alles ist, was man braucht um ordentliche Grafikcores zu entwickeln. Ich sehe dort immer noch einen rießigen Erfahrungsvorsprung für AMD/NVidia.

Wer wirklich Grafikleistung braucht wird auch weiterhin zu diskreten Karten dieser Hersteller greifen, besonders wenn es in Richtung GPGPU geht. Dort hat Intel zur Zeit noch gar nichts zu bieten.

NVidia hat zwar derzeit eine Schlappe, ich halte die Fermi Architektur aber für sehr zukunftsweisend. Nur halt nicht auf dem aktuellen Prozessnode. Ähnlich ist es ja dem R600 in den Anfangstagen ergangen. Die HD2xxx Serie war zu langsam, zu stromfressend, insgesamt ineffektiv. Das Bild hat sich aber mit neueren Generationen der selben Architektur um 180° gedreht. Ich sehe nicht, warum NV aus dem PC Markt fliegen sollte.
 
Und wofür brauche ich x86, wenn ich wie VIA im normalen x86 Markt sowieso nicht mithalten kann (für Desktop zu wenig Leistung, für Mobil gegenüber den aktuellen AMD und Intel Generationen zu Stromfressend)..
Der Nano ist noch in 65nm gefertigt, ich denke schon daß man mit der Nano-Architektur in kleinerer Strukturgröße und den VX-Chipsätzen auf dem Notebookmarkt mitmischen könnte. Außerdem hat VIA auch noch S3-Graphics.
Da müßte schon was gehen im "Low-End" Notebook- und Desktop-Markt.
Aber es soll wohl aus verschiedenen Gründen nicht sein
 
Intel hat inzwischen mehrfach bewiesen, dass Geld nicht alles ist, was man braucht um ordentliche Grafikcores zu entwickeln. Ich sehe dort immer noch einen rießigen Erfahrungsvorsprung für AMD/NVidia.
Genau das ist das Problem, Intel braucht dafür Zeit und hat die Mittel. Die können sich Fehlschläge leisten, aber sie bleiben dran. Mit quasi unbegrenzten Mitteln in diese Richtig wird es irgendwann einfach reichen.
Wer wirklich Grafikleistung braucht wird auch weiterhin zu diskreten Karten dieser Hersteller greifen, besonders wenn es in Richtung GPGPU geht. Dort hat Intel zur Zeit noch gar nichts zu bieten.
Seit der Übernahme von ATI und den eigenen Anstrengungen Intels war völlig klar: Die beiden wollen den Markt für sich. Und sie werden das auch durchziehen. Der Zeitpunkt, ab der beide Hersteller den Markt dichtmachen, weil sie einfach keinen Standard für eine gemeinsam verwendbare dedizierte Grafik mehr zulassen werden, kommt mit riesen Schritten. Irgendwann wird es heißen, die dedizierte Grafik ist nurnoch als Erweiterung zur schon vorhandenen internen Grafik per Spezialslot nachzurüsten, dann ist NV endgültig draußen und kann nichts dagegen unternehmen, weil es eben beide Hersteller dichtmachen werden und nicht nur Intel. AMD hat ein starkes Interesse daran, Intel in Sachen Grafik zu dominieren, solange sie das Zeug dazu haben und dass Intel NV aus dem Markt haben will ist ein offenes Geheimnis. Noch braucht Intel dedizierte Grafik, aber nicht mehr lange... schon 2013 könnte schluss sein damit. NV ist in höchster Not.
Hinzu kommt, dass für NV der OEM-Markt quasi gestorben ist. Man hat keine Chipsätze mehr am Start, mit Vision und Intels Integration wird NV in Zukunft kaum noch kleine OEM-Karten absetzen können. Das bringt für NV den Gesamtmarkt stark in Gefahr, jetzt schon. Mit Llano und dem grafisch überraschend starken Sandy gibts für NV fast nichts mehr zu holen. Auch die Chipsätze sind so gut wie tot, trotz offener Standards. Anscheinend versucht NV ja jetzt einen neuen Anlauf, aber dass das nix wird, lässt sich absehen. Für fast alle wird Sandy-Bridge Grafik reichen und wers besser haben möchten, kauft Llano...
NVidia hat zwar derzeit eine Schlappe, ich halte die Fermi Architektur aber für sehr zukunftsweisend. Nur halt nicht auf dem aktuellen Prozessnode. Ähnlich ist es ja dem R600 in den Anfangstagen ergangen. Die HD2xxx Serie war zu langsam, zu stromfressend, insgesamt ineffektiv. Das Bild hat sich aber mit neueren Generationen der selben Architektur um 180° gedreht. Ich sehe nicht, warum NV aus dem PC Markt fliegen sollte.
Fermi ist irrelevant. Ob der gut ist oder nicht ist für NV zweitrangig. Wichtig für NV ist, dass zukünftige Produkte besser sind als das, was Intel zaubern wird. Sollte NV jetzt dauerhaft ins Hintertreffen geraten und irgendwann Intel eine eigene Lösung präsentieren ist NV draußen, so einfach ist das. Für NV gehts ums überleben, denn die haben keinen Riesenkonzern wie Formosa im Falle VIA im Rücken.
Leider sehe ich schwarz für NV, solange sie das mit den Skalarprozessoren versuchen. Denn solange AMD mit Brute-Force-Vector-Rechnern ankommt und diese auchnoch verbessert, ist das die zukunftssicherere Technologie, weil einfach mehr Rohpower da ist bei erheblich kleineren Dies. Übrigens: Ich hab schon seit 2 Generationen NV im Rechner, das soll kein Kreuzzug gegen NV werden, aber die Realität ist nunmal sehr brenzlich für NV...
An der HD5000er Serie sieht man übrigens sehr gut, wie wegweisend und bahnbrechend der R600 wirklich war. Alle Architekturen bis einschließlich der 5000er Serie basieren auf dem R600, es ist dessen Technik, die AMD soviel Erfolg beschert hat, während NV mit seinen seit dem G80 eingeführten Skalarprozessoren immer weiter ins Hintertreffen gerät - so kann man sich langfristig irren, was die Bewertung einer neuen Architektur angeht... die jetzt bevorstehenden NI-Chips werden seit dem R600 endlich eine neue Architektur einführen, wir werden sehen, in welche Richtung das geht. Ich würde mal stark darauf tippen, dass es noch mehr in Richtung Rohpower gehen wird.
Übrigens gibts da noch einen eher problematschen Bereich für NV: GPGPUs, weil da die Rohpower wirklich ne Rolle spielt. NV hat sich auf Double-Precision spezialisiert mit Fermi, AMD bringt das einfach mit der Rohpower mit. Ist zwar nur 1/4 der Gesamtleistung in SP, reicht aber trotzdem... NI wird da sicherlich ebenfalls mehr Augenmerk darauf legen. NV hat Software, CUDA usw. Das ist aber nicht offen und damit nichts dauerhaftes, zumal es offene Standards gibt.

Im Gegensatz dazu ist VIA auf dem aufsteigenenden Ast. Sie sind nicht profitabel, weil die Entwicklungskosten sehr hoch sind für neue CPU-Architekturen und sie aktuell einfach kein Produkt am Markt haben. Solange aber absehbar ist, dass man irgendwann auch einen "Fusion"-Prozessor im x86-Markt hinbekommen kann und weiter an der schon sehr vielversprechenden Architektur feilt, hat man durchaus Chancen konkurrenzfähig zu werden. Auch die Grafikarchitektur ist vielversprechend, da geht noch erheblich mehr als jetzt. Sie haben ja auch die Auswahl der Fertiger, die mittlerweile alle recht nah an Intel dran sind (1-2 Jahre Rückstand). Das war mal anders, die Fertigungsallianz um IBM bringt langsam Früchte hervor.

Man kann es drehen und wenden wir man will: NV braucht einen x86er... Vielleicht helfen die Kartellbehörden ja nach, sowas kann evtl. passieren. Solange sie keine Lizenz haben, entwickelt NV eben ARM-CPUs und sammelt damit Know-How - gut so. Nur so wirds gehen. VIA braucht Zeit und Geld - Knowhow ist durchaus vorhanden sowohl für Grafik als auch für x86er. Es besteht also die Chance, dass im PC-Bereich in Zukunft 4 echte Player teilnehmen könnten, das wäre der Optimalfall und das würde ich mir auf wünschen, weil dann offene Hardware-Standards für die Hersteller wieder interessanter werden.
 
Zuletzt bearbeitet:
Leider sehe ich schwarz für NV, solange sie das mit den Skalarprozessoren versuchen. Denn solange AMD mit Brute-Force-Vector-Rechnern ankommt und diese auchnoch verbessert, ist das die zukunftssicherere Technologie, weil einfach mehr Rohpower da ist bei erheblich kleineren Dies.
[...]
Übrigens gibts da noch einen eher problematschen Bereich für NV: GPGPUs, weil da die Rohpower wirklich ne Rolle spielt. NV hat sich auf Double-Precision spezialisiert mit Fermi, AMD bringt das einfach mit der Rohpower mit. Ist zwar nur 1/4 der Gesamtleistung in SP, reicht aber trotzdem... NI wird da sicherlich ebenfalls mehr Augenmerk darauf legen. NV hat Software, CUDA usw. Das ist aber nicht offen und damit nichts dauerhaftes, zumal es offene Standards gibt.

Man sollte dabei zwei Dinge nicht vergessen, welche NV jetzt immer noch helfen:

1. Sie bringen durch die skalare Architektur erheblich mehr von der (geringeren) Rohleistung auf die Straße, als die Radeons, vor allem bei nicht extrem optimierten Programmen.

2. NVidia hat CUDA und OpenCL. Sie bieten zur Zeit die einzige brauchbare OpenCL Implementierung an, wobei sich AMD in diesem Bereich mal wieder nicht mit Ruhm bekleckert und nichts verwendbares bietet. Intel hat noch gar nichts anzubieten. Was glaubst du auf welche Architektur nun die zur Zeit in Entwicklung befindlichen Programme optimiert werden.
 
Zurück
Oben Unten