Radeon 9500 und 9700 beschleuigen DivX-Codec

Nero24

Administrator
Teammitglied
Mitglied seit
01.07.2000
Beiträge
24.066
Renomée
10.446
  • BOINC Pentathlon 2019
  • BOINC Pentathlon 2020
  • BOINC Pentathlon 2018
  • BOINC Pentathlon 2021
Laut <a href="http://www.chip.de/news_stories/news_stories_9524982.html" TARGET="b">Chip.de</a> bieten die aktuellen Radeon-Chips der 9500 und 9700 Serie für DivX-Fans ein ganz besonderes Schmankerl. Bei bisherigen Grafikkarte hatte der Prozessor die ganze Arbeit beim Dekodieren eines DivX-Videostreams zu bewältigen. Besonders bei hohen Auflösungen, hoher Dekodierqualität und gleichzeitiger Änderung der Aspect-Ratio mit dem DivX-Player gegenüber dem Originalstream kommen auch schon mal Gigahertz-Prozessoren in Verlegenheit. Die Folge können neben hoher CPU-Last auch ruckelnde Bilder und von der Synchronität abweichende Video-/Audiostreams sein.

Die Radeon 9500 und 9700 Chips können der CPU nun dank der erweiterten Pixel-Shader-Architektur einen Teil der Arbeit abnehmen. Bis zu 50% soll sich die CPU-Last dabei verringern. Chip.de:<ul><i>Die Architektur erlaubt es, diese Einheiten, die normalerweise für aufwändige Schattier-Effekte bei 3D-Spielen zuständig sind, auch für Video- und Bildbearbeitung zu verwenden. Dabei wird der DivX-Codec in die Pixel Shader (Funktionsweise ähnlich einer "Black Box") hineingeladen und von diesen beschleunigt.</i></ul>Dies sind die ersten Früchte einer geplanten Zusammenarbeit zwischen ATI und DivXNetworks...
THX Mighty für den Hinweis :)
 
Dabei wird der DivX-Codec in die Pixel Shader (Funktionsweise ähnlich einer "Black Box") hineingeladen

Na das is ja ein heisses Statement. Ich glaube das meiste funktioniert wie eine Black Box (Daten rein -> In der Black Box passieren unbekannte Prozesse -> Daten raus)
Oder versteh ich da was falsch?*noahnung*

Egal, das feature an sich gefällt mir gut, auch wenns wie ne BlackBox funktioniert ;D
 
Hat Nvidia nicht die besseren Shader?

Das heisst demnach also, wenn die sich mal Mühe geben (und vielleicht auch mal mit Divx Networks zusammenarbeiten) müsste es auch auf den GF klappen?!?

Ansonsten: goil! GEschemkte Leistung ist immer gut, so kann man neben dem DivX Video mehr Seti Paketchen dekodieren :p

cura

P.S.
Hat nvidia nicht extra ne Hochsprache für die Shaderprogrammierung entwickelt? Dann sollte dies doch wohl kein Prob darstellen!
 
Mit DirectX 9 hat MS soweit ich weiss HLSL (High Level Shader Language) eingeführt, damit sollte Shaderprogrammierung auch auf anderen Dx9-Chips kein Problem darstellen.
Und was Seti angeht: Ich hab mal gehört, dass man nen Seticlient auch für die Shader schreiben könnte, das wär dann die ultimative Beschleunigung, schliesslich machen die den lieben langen Tag nix, ausser vor sich hin zu heizen.
 
Die Zweckentfremdung moderner GPUs ist eine ziemlich interessante Sache finde ich... Mal sehen, was sich da in Zukunft so anstellen lässt.
 
Kann nicht mal einer den Seti-Client entsprechend umschreiben??? Meine Geforce 3 langweilt sich eh, weil ich kaum zocke. Da könnte man ja dann 2 Pakete gleichzeitig rechnen.

Da wäre eine Geforce FX wenigstens mal ausgelastet *lol* Aber mal im Ernst: Das ist doch die Idee, oder? Nicht nur auf Seti beschränkt, theoretisch könnte ja so ziemlich jede Anwendung die Graka mitnutzen. Und Rechenleistung haben die ja genug. Wenn man noch die Speicherbandbreite einer Graka bedenkt... *phantasier*
 
Zuletzt bearbeitet:
Hm, ob die neuen GPU's auch mit 80bit precision Floating Point arbeiten (die nutzt der Client) ?

Falls dem tatsaechlich (oder in absehbarer Zeit) so waere, dann koennte die High Level Language wirklich eine interessante Idee werden. Genug lokaler Video RAM stuende ja ausreichend zur Verfuegung, und bei Transfers in, oder/zurueck in das lokale RAM koennte AGP 4x/8X vielleicht sogar einmal was nuetzliches bringen ;)
 
So weit ich informiert bin kann z.B. die Radeon 9700 Floats mit 96 Bit Genauigkeit berechnen, bei Texturoperationen sogar mit 128 Bit. Das Problem dabei dürfte eher sein, daß der Shader nur Platz bietet für 96 Operationen (OpenGL 160 Operationen). Ob sich damit so komplexe Programme wie etwa ein SETI-Client realisieren lassen, möchte ich mal nicht spekulieren :)
 
hm. Ich muss einfach nur ne CD encoden und der Shader greift unterstützend ein? ohne irgendwas noch zu installieren oder einzustellen? klingt gut :)
 
Original geschrieben von Friedrich II
hm. Ich muss einfach nur ne CD encoden und der Shader greift unterstützend ein?
Also vom ENcoden habe ich nichts in der Meldung gefunden.

Nachtrag:

Pressrelease:

"Thanks to hardware and software optimizations performed by ATI and DivXNetworks, RADEON 9500 & 9700-based products significantly increases video performance (up to 50% using post-processing) and reduce CPU usage when decoding DivX video."

http://mirror.ati.com/companyinfo/press/2003/4599.html
 
naja die shaderprogramiersprache von Nvidia Cg wurde ja nicht so akzeptiert... es wird zu der von Microsoft gegriffent die mit dx9 integriert wurde HS irrgentwas.
 
Also ab einem PII 450 läuft's bei mir ruckelfrei mit DivX,
und einem anstöndigen Player (BSPlayer/Zoomplayer)

Also profitieren jetzt alle davon die einen PII 266 und eine
Radeon 9700 drin haben, davon gibt's bestimmt viele (grins)

Spass beiseite..

Ist doch'ne goile Sache, wenn man die teuren DSP's auf den
heutigen Grafikkarten, die man ja auch bezahlen muss,
wenn man mit Spielen gar nix am Hut hat, endlich mal für
was Vernünftiges nutzen könnte, z.B. die Musiker ihre VST Instrumente drauf rechnen oder so, goil !

Alllerdings sind diese DSP natürlich stark spezialisiert
hat hier irgendeiner Plan ob man die tatsächlich zweckemtfremden
kann ?
 
Es stimmt schon dass heutige Rechner DivX weitgehend ruckelfrei abspielen sollten, aber wenn ich dieses Fullstreamfeature richtig kapiert habe, dann sollten damit vor allem stark komprimierte Dateien mit vielen Artefakten gefiltert werden, so dass die Klötzchen minimiert werden.
 
Neee glaube ich nicht, was dezeit bei maximalen Qualitätseinstellungen (inkl. Film Effects) beim
Abspielen noch da ist, kriegen die doch auch nicht
weg, wenn sie's woanders rechnen lassen, oder ?

Von NEUEM Code war nicht die Rede...
 
Zitat von http://www.ati.com:80/vortal/mobilityradeon9000/educational.htmlFULLSTREAM™
During playback, De-blocking applies an intelligent filter along teh blocky edges of the image to provide smoother transitionand improved image quality.
full.jpg

Das aktuelle Fullstream, was soweit ich weiss nur für Realvideo geht, filtert die Blockartefakte, der Videocodec selber wird nciht verändert. Ich bin jetzt einfach mal davon ausgegangen, dass ATI das gleiche mit DivX vor hat. Ich lass mich aber geern belehren. :)
 
Zurück
Oben Unten