Ergebnis 1 bis 1 von 1
  1. Beitrag #1
    Themenstarter
    Redaktion
    Redaktion
    Avatar von soulpain

    Registriert seit
    19.02.2008
    Ort
    Disneyland
    Beiträge
    2.485
    Danke
    36
    Gedankt 1.955 Mal für 261 Themen
    Blog-Einträge
    18

    Grundlagen des PC-Schaltnetzteils - Aktualisierte Fassung



    Auf Planet 3DNow! gehören Netzteiltests schon seit vielen Jahren zu unserem Artikel-Programm. Zur Beurteilung der Muster ziehen wir primär die Ergebnisse aus dem Messprotokoll heran. In der Regel ist aber auch ein Blick auf die Elektronik hilfreich, um Indizien zu sammeln und mögliche Fehlerfälle zu erkennen. Passend dazu präsentieren wir nun einen Artikel, der auf die Materie der ATX-Netzteile eingeht und beim Kauf eines solchen Produktes helfen soll. Dieser Bericht wird allerdings auch dazu dienen, häufig verwendete Begriffe aus unseren Netzteiltests zu erklären. Zusätzlich haben wir noch eine kurze Analyse der Marktsituation hinzugefügt. Auf den folgenden Seiten erläutern wir den Aufbau des Schaltnetzteils anhand einiger Beispiele und greifen dabei aktuelle Schaltregler wie den Resonanzwandler auf. Filter, Regelkreise und EMV (Elektromagnetische Verträglichkeit) werden ebenfalls thematisiert. Dabei verwenden wir keinerlei Formeln, sondern erklären die wesentlichen Punkte anhand von Fließtexten. Es handelt sich um einen Bericht für Einsteiger und Fortgeschrittene, nicht jedoch Profis. Wie immer wünschen wir viel Spaß beim Lesen!

    [break=Grundsatzfragen]


    Beim Kauf eines PC-Netzteils hat man oft die Qual der Wahl. Muss es wirklich das teure Markenprodukt sein oder wäre nicht bereits das einfache Massenfabrikat ausreichend? Diese Frage lässt sich nur mit einigen Hintergrundinformationen beantworten. Es kommt zunächst auf das Einsatzgebiet an. Bei einfachen Bürorechnern muss vor allem der Preis stimmen, während es bei Servern vor allem auf Zuverlässigkeit ankommt. In Privatrechnern wird eher auf die Lautstärke geachtet. Prinzipiell sollte die Qualität des Netzteils den Anforderungen des PCs entsprechen. Je teurer der Computer und je wichtiger die darauf gespeicherten Daten sind, desto hochwertiger sollte die Stromversorgung (und eventuelle Absicherung vor Netzausfällen) sein. Dabei ist der Preis durchaus ein Indikator für Qualität, auch wenn die Hersteller verschiedene Preispolitiken anwenden. Beispielsweise wird die Leistung gerne als Möglichkeit zur Preissteigerung gesehen, auch wenn die Kosten etwa bei einem 700-W-Netzteil und kaum höher sind, als bei einem 500-W-Netzteil mit dem gleichen Serien-Layout. Die variablen Kosten (Bauelemente) steigen kaum, die Fixkosten (Basiskosten für die Fabrik oder Angestellte) bleiben logischerweise gleich. Hinzu kommen Marketingkosten und ein Image, das der Hersteller mit dem Preis vermitteln möchte. Die aktuelle Marktsituation (Preiskämpfe) ist ebenfalls ein entscheidender Faktor. Ein teures Gerät muss demnach nicht besser sein als ein günstiges, da viele Gegebenheiten in die Preisbildung einfließen. Wenn ein Gerät allerdings deutlich günstiger als die konkurrierenden Modelle ist, kann das durchaus auf billigere Komponenten hinweisen. Zumindest, wenn es sich dabei nicht um Sonderangebote handelt, beispielsweise EOL-Ware. Heute wird besonders die Art der Leistungsfaktorkorrektur (passiv oder aktiv) und die Leistung der +12-V-Schiene als Kriterium herangezogen. Damit lassen sich die Angebote bereits grob filtern.

    Wenn man tiefer in die Details eindringen möchte, genügt es nicht mehr, nur Äußerlichkeiten und Spezifikationen des Herstellers zu betrachten. Bei einem PC-Netzteil handelt es sich laut Definition um ein „primärgetaktetes Schaltnetzteil“, wobei wir uns in diesem Artikel auf den ATX-Standard beschränken. Diesem entsprechen nämlich die meisten von uns getesteten Netzteile. Der "ATX-Design-Guide" kann in qualitativer Hinsicht als roter Faden betrachtet werden, primär dient er jedoch zur Herstellung der Kompatibilität zu anderen Teilelementen des PCs (Steckerbelegung, Abmessungen, Position). Um das Gerät zu verstehen, muss die Bezeichnung „primärgetaktetes Schaltnetzteil“ zunächst in seine Bestandteile zerlegt werden. Das Gerät verdankt seinen Namen einem komplexen Schaltregler. Ein IC generiert einen Takt, mit dem Leistungstransistoren als Bestandteil eines Wandlertyps (richtiger: Konverter) angesteuert werden. Und eben diese Leistungstransistoren befinden sich in einem Teilbereich des Netzteils, der sich Primärschaltkreis nennt. Ein PC-Netzteil ist also ein Gerät mit einem oder mehreren im Primärschaltkreis getakteten Transistoren. Der Begriff Netzteil lässt sich davon ableiten, dass das Gerät zwischen Netz und Verbraucher geschaltet wird, um die Netzspannung in eine für das System adäquate Spannung umzuwandeln. Das Netzteil selbst erzeugt also keinen Strom und ist damit vom Netz und Netzanschluss abhängig. Der Netzanschluss wird über ein Kaltgerätekabel hergestellt, das an den jeweiligen Enden zu den Steckerbuchsen am Gerät und Netz kompatibel ist. Hierbei muss die Strombelastbarkeit, Erdung und Schirmung berücksichtigt werden. Leistungsstarke benötigen ein 16-A-Kaltgerätekabel, während die meisten Netzteile mit einem 10-A-Modell auskommen.

    Im PC als solchen werden verschiedene Gleichspannungen benötigt. Dabei handelt es sich um eine Spannung, die ihren Wert nicht über Zeit verändert, wie es bei der Netz- bzw. Wechselspannung der Fall ist. Was sich zunächst simpel anhört und durch einen einfachen Transformator mit mehreren Sekundärwicklungen und dementsprechendem Übersetzungsverhältnis gelöst werden kann, ist in der Praxis sehr kompliziert. Die Generatoren in den Kraftwerken generieren als Spannungsquelle eine Wechselspannung, die sinusförmig verläuft und nach jeder Periode (nach jeder Drehung) von neuem beginnt. Ein Strom wird auf einer bestimmten Frequenz (Häufigkeit einer Schwingung pro Zeiteinheit; genauer: 1 Hz entspricht einer Schwingung pro Sekunde) in das Netz eingespeist und später für die Hauseinführung auf 230 VAC heruntertransformiert. Die Leistung in Watt ergibt sich übrigens aus dem Produkt von Spannung und Stromstärke. Da die Netzspannung sehr hoch ist, kann der Strom niedrig gehalten werden, um eine bestimmte Leistung zu erreichen. Der Leitungsquerschnitt kann so gerade bei Hochspannungsleitungen (110 kV) minimiert werden. Dieser ist abhängig von der Stärke des Stromes. Als Faustformel wird mit 10 A/mm² bei kurzzeitigen Belastungen und mit 5 A/mm² bei dauerhaften Belastungen gearbeitet. Die Leitungsdicke entscheidet auch über den Eigenwiderstand und damit den Spannungsabfall. Das lässt recht einfach mit einer zweispurigen Straße veranschaulichen, auf der viele Autos dicht gedrängt fahren. Fährt dieselbe Anzahl an Autos über eine dreispurige Autobahn, kommen sie auch schneller vorwärts.

    Die Problematik


    Der Anschluss an das Netz führt damit zu folgenden Aufgaben oder Problemen, um das PC-System zu betreiben, weshalb wir einige Ziele bei der Umsetzung des Schaltnetzteils definiert haben:
    • Ein Netzteil emittiert elektromagnetische Störungen, kann aber auch extern durch solche in seiner Funktionalität beeinträchtigt werden. Das hängt vor allem von der Frequenz ab, auf der andere elektronische Geräte in der Nähe arbeiten. Selbst innerhalb des Netzteils existieren Störeinkopplungen aus einer internen Störquelle. Spannungen werden in einem Magnetfeld induziert. Benachbarte Leiterbahnen in Reichweite können davon beeinflusst werden. Parasitäre Kapazitäten wirken zwischen zwei Leiterbahnen. Brummschleifen entstehen durch Design-Fehler (gemeinsame, hochohmige Masseverbindung). Störungen auf bestimmten Frequenzen dürfen auch nicht über Leitungen in das PC-System eingekoppelt werden. Als viertes Zeil lässt sich festhalten, dass die EMV gewährleistet werden muss.

    • Grundlage für einen funktionierenden Stromkreis ist, dass dieser geschlossen ist. Neben einem einen Phasenleiter für den Input gibt es auch den Neutralleiter (auch Rückleiter). Zwischen Phase- und Neutralleiter treibt die Potenzialdifferenz 230 V den Strom durch die Schaltung und zurück in das Netz. Hier ergibt sich die Problematik, dass die Sinuswellen mittlerweile so durch die Netzteil-Komponenten verzerrt wurden, dass eine Phasenverschiebung zwischen Spannung und Strom stattfindet und die Spannung stark mit Oberschwingungen behaftet ist. Das zweite Ziel lautet einen möglichst hohen Leistungsfaktor (bzw. geringe Phasenverschiebung) zu erreichen.

    • Unser Rechner benötigt Kleinschutzspannungen im Bereich von +12 V, -12 V, +5 V sowie +3,3 V (Vergleich 230V Netzspannung) bei wesentlich höheren Strömen als dem Netzstrom. Wie erwähnt, muss eine Gleichspannung anliegen (der Wert der Gleichspannung entspricht dem Effektivwert einer Wechselspannung). Diese kann nur näherungsweise über Gleichrichter angepasst werden und wird von Wechselspannungsanteilen überlagert. Sie muss nachträglich geglättet werden. Eine perfekte Gleichspannung ist nicht möglich. Damit haben wir bereits das erste Ziel erkannt: Eine möglichst ideale Gleichspannung und auf den Betriebsstrom ausgelegte Leiterbahnen sind sicherzustellen.

    • Zu guter Letzt sind Körperströme bereits im mA-Bereich gesundheitsschädlich. Die Spannung im Primärkreis liegt außerdem noch über der Netzspannung. Mensch und Maschine müssen geschützt werden. Zu hohe Spannungen können Bauteile beschädigen. Das dritte Ziel ist folglich ausreichende Schutzmaßnahmen bereitzustellen. Eine niederohmige Erdung zur Ableitung von Fehlerströmen (der Strom fließt über Erde ab statt über den Körper), ein Berührungsschutz, eine ausreichende Trennung zwischen mehreren Schaltkreisen und die Abschaltung des Gerätes im Fehlerfall sind notwendig.


    Anmerkung: Sollten auf den folgenden Seiten Begriffe verwendet werden, die nicht unmittelbar im Fließtext erklärt werden, so können diese im Anhang (auf der letzten Seite) nachgeschlagen werden.

    [break=Der Aufbau im Detail]


    Exemplarisch haben wir ein aktuelles PC-Netzteil ausgewählt, um die Elektronik zu zeigen. Auch wenn die meisten Netzteile dieser Art nach wie vor mit einem Flusswandler betrieben werden und keinen Tiefsetzsteller für die kleineren Ausgangsspannungen verwenden, handelt es sich um ein gutes Beispiel. Wir können das Netzteil nun grob in seine Bestandteile zerlegen, ohne uns von Details irritieren zu lassen. Nachfolgend verwenden wir verschiedene Farbmarkierungen zur Gliederung.



    Der große, gelbe Trafo in der Mitte besteht im Wesentlichen aus mehreren Wicklungen, die sich einen gemeinsamen magnetischen Kern teilen. Mindestens zwei Wicklungen unterteilen das Netzteil in den Primärschaltkreis (hier wirkt der Trafo wie ein Verbraucher) und den Sekundärschaltkreis (hier ist der Trafo die Spannungsquelle). Die beiden Bereiche lassen sich deshalb gut einteilen, weil die Schaltkreise keine Verbindung im galvanischen Sinne haben. Es existiert also kein direkter elektrischer Kontakt über ein elektrisch leitfähiges Material. Die Verbindung wird ausschließlich über den Transformator und seinen magnetischen Eigenschaften hergestellt (die Optokoppler im Regelkreis vernachlässigen wir an dieser Stelle). Fließt ein Strom durch die Primärwicklung des Trafos, wird Spannung induziert. Abgesehen von den Streuinduktivitäten findet vor allem im Kern ein elektromagnetischer Fluss statt, der auch die Sekundärwicklung(en) durchsetzt. Je nach Übersetzungsverhältnis wird die Spannung heraufgesetzt, herabgesetzt oder bleibt gleich. Da der Spannungswandler hier +12 V (davon abgeleitet -12 V) und +5 V erzeugen soll, haben die beiden Sekundärwicklungen eine geringere Windungszahl. Der Ausgangsstrom wird größer, die Ausgangsspannung kleiner.



    Wenn wir das Netzteil in weitere Teilbereiche gliedern, wird es schon etwas komplizierter. Den Abwärtswandler werden wir später noch thematisieren. In diesem Fall kann man ihn sich einfach wegdenken. Wie bereits erwähnt ist der Transformator letzten Endes die Komponente, welche die Spannung auf ein anderes Niveau übersetzt und damit die jeweiligen Ausgangsspannungen erzeugt. Dieser arbeitet jedoch nicht alleine. Mittels Leistungstransistoren, die über einen PWM-Generator gesteuert werden, wird der Transformator mit einem Wechselstrom im KHz-Bereich versorgt. Der große Elko in der Mitte des Leistungsfaktor-Vorreglers versorgt den Trafo konstant mit Strom (also auch während der Nulldurchgänge in der Wechselspannung). Da dieser nur mit Gleichstrom betrieben werden kann, muss die Netzspannung von einem Brückengleichrichter gleichgerichtet werden. Aus der Netzspannung werden positive Halbschwingungen (die negativen werden einfach "umgedreht", sodass eine Gleichspannung mit einem hohen Ripple-Anteil entsteht). Wenn der oder die Transistoren ausgeschaltet sind, kommutiert (siehe Begriffssammlung) der Stromfluss auf eine der Gleichrichterdioden im Sekundärschaltkreis (bei Synchrongleichrichtung ebenfalls Transistoren). Der türkise Bereich ist gewissermaßen das Zentrum des Netzteils. Die verbleibenden Komponenten und Bereiche haben mit der Spannungsübersetzung per se nichts zu tun. Es handelt sich um verschiedene Vorstufen oder Filter, die externe Störungen minimieren, Spannungen glätten oder die EMV-Probleme interner Komponenten ausgleichen. Sie sind für die Funktion an sich nicht unbedingt notwendig.

    EMI-Filterung



    1. Eine Weichmetallfolie (hier aus Kupfer) wird zur Abschirmung gegen elektromagnetische Interferenzen verwendet. Das Metall ist mit Masse verbunden und wirkt wie ein Schwamm, der Störungen aufnimmt und ableitet. Auf eng bestückten Platinen erhalten Tochterplatinen mit empfindlichen Reglern und SMDs (Surface Mounted Devices), aber auch der Netzeingang, oft eine Schirmung gegen äußere Einflüsse. Einbaufilter mit Steckerbuchse haben sogar ein komplettes Gehäuse.
    2. Die Längsdrossel, welche an einem der Leiter angeschlossen ist, dient zur Funkentstörung von Gegentaktstörungen. Letztere werden vor allem induktiv eingekoppelt, aber auch über Verbindungen im galvanischen Sinn sind sie ein Problem.
    3. Der MOV (Metall-Oxid-Varistor) in Scheibenform ist ein variabler Widerstand. Steigt die Spannung aus dem Netz an, sinkt der Widerstand dieses Bauteils. Die Spannung wird abgeleitet, ohne dass die dahinter geschalteten Bauelemente beschädigt werden. Der MOV sollte so gewählt werden, dass die Schwellspannung unter der Spannungsfestigkeit der zu schützenden Bauteile liegt. Ein MOV ist mit einer Diode vergleichbar. Mehrere Sperrschichten liegen zwischen den Berührungspunkten der (heute verwendeten) Zinkoxidkörner. Durch anlegen einer hohen Spannung werden die Übergänge schließlich leitend.
    4. Der X-Kondensator wird zwischen Phasen- und Neutralleiter geschaltet und dient zur Unterdrückung von hochfrequenten Gleichtaktstörungen. Er schließt sie kurz. Diese Folienkondensatoren nutzen einen Kunststoff mit einer dünnen Metallisierung als Dielektrikum. Sie arbeiten (innerhalb des spezifizierten Temperaturbereiches) nahezu unabhängig von der Temperatur und sind mit hohen Störimpulsen belastbar, was sie für einen Netzfilter prädestiniert.
    5. Die Gleichtakt- oder stromkompensierte Drossel ähnelt einem Transformator. Zwei Wicklungen werden auf einen gemeinsamen magnetischen Kern aufgebracht. Der eine Anschluss ist mit dem Phasenleiter, der andere mit dem Neutralleiter verbunden. Beide haben eine identische Windungszahl (wie bei Trenntransformatoren). Die Wicklungen sind zwar aus Kupferlackdraht, werden aber auch mit Kabelbindern und Klebstoff voneinander getrennt. Sie kompensieren Gleichtaktstörungen.
    6. Y-Kondensatoren sind ebenfalls ein Mittel, um Gleichtaktstörungen zu kompensieren. Der Y-Kondensator wird gegen Masse geschaltet und leitet die Störung ab. Sie lassen sich wegen der Leckströme über Masse/Erde nicht unbegrenzt einsetzen und haben nur eine kleine Kapazität. In diesem Zusammenhang werden Drosseln und Y-Kondensatoren oft miteinander kombiniert.
    7. In Netzteilen werden Phase- und Neutralleiter oft um einen Ferritkern gewickelt oder verdrillt. Auch hier werden besonders hochfrequente Störungen unterdrückt. Bei verdrillten Leitungen heben sich die Magnetfelder in den beiden Leitern (ein Leiter entspricht einer Drossel mit nur einer Windung) gegenseitig auf.




    EMI beschreibt die elektromagnetische Interferenz. Wie bereits angesprochen werden von magnetischen Feldern Wellen ausgesendet, was den Vorgang der Emission beschreibt und das Zusammentreffen solcher Wellen zur Folge hat. Dieses Zusammentreffen mit der jeweiligen Störwirkung beschreibt die Interferenz. Doch nicht nur über eine Luftstrecke, sondern auch über Leitungen, besonders bei Verbindungen zum Stromnetz, werden elektromagnetische Störungen über eine Störquelle eingekoppelt. Ein Leiter ist wegen der direkten elektrischen Verbindung der offensichtlichste Kopplungspfad. Zur Einhaltung der EMV muss sowohl die Emission begrenzt als auch die Störimmunität bei Immission gewährleistet sein.

    Auf den Leitern breiten sich prinzipiell zwei Arten von Störungen aus. Gleichtaktströme fließen in gleicher Richtung auf den Leitern. Sie entstehen bei Potenzialunterschieden im Bezugspotenzial oder durch kapazitive Einkopplung. Letzteres haben wir bereits auf Seite 2 besprochen. Ersteres hebt den definierten Nullpunkt 0 V an, auf die sich eine Spannung bezieht. Damit kommt es zu einer Überspannung, die einen Gleichtaktstrom vor sich her treibt. Den Kondensator werden wir später noch behandeln. Im Grunde handelt es sich dabei um zwei leitfähige Elektroden mit einem nichtleitenden Dielektrikum dazwischen. Das entspricht zwei Leitern, zwischen denen sich eine kurze Luftstrecke oder ein anderes nichtleitendes Material befindet. Daher kommt es hier zu parasitären, weil ungewollten, Kapazitäten. Bei Schaltungen, die eine gemeinsame Masseverbindung verwenden, kann es zu Brummschleifen kommen. Dort findet wegen Potenzialdifferenzen ein Spannungsabfall an der Quellimpedanz statt und führt zu einem Störstrom, der in die Schaltung eingekoppelt wird. Plötzlich haben wir einem Wechselstrom durch eine Komponente, die eigentlich nur Gleichstrom verträgt. Gegentaktströme fließen in gleicher Richtung wie der Nutzstrom, also auf dem Phasenleiter hin und auf dem Neutralleiter zurück. Daher sind sie kaum messbar und nur schwer zu beheben. Ihre Ursache liegt in magnetischer Kopplung. Abhilfe schafft hier oft schon ein großzügiger Abstand von möglichen Störquellen zu benachbarten Leitern.


    Rote Pfeile: Gleichtaktstrom


    Spulen bzw. Drosseln induzieren eine Spannung in ein elektromagnetisches Feld. Das passiert immer, wenn sich der Strom ändert, weshalb sich die Spulen in Gleichstrom- oder Wechselstromkreisen unterschiedlich verhalten. Spulen im Wechselstromkreis haben nicht nur beim Ein- und Ausschalten des Netzteils einen hohen Widerstand. Das obere Bild zeigt eine Gleichtaktdrossel. An diesem Bild möchten wir veranschaulichen, wie die Gleichtaktdrossel Gleichtaktstörungen kompensieren kann. Wie bereits erwähnt folgen Gleichtaktströme auf den beiden Leitern der gleichen Richtung. Damit findet eine Stromänderung statt, was wiederum zur Induktion führt. Bei Gegentaktstörungen findet keine Induktion statt, da sich die Ströme im Kern ausgleichen. Es fließt auf der einen Leiterbahn exakt so viel Strom hin wie auf der anderen zurück.


    Quelle: Wikipedia


    Wir fassen zusammen, dass zur Einhaltung der EMV mit Filtern, einer niederohmigen Erdung und einer umfassenden Schirmung gearbeitet wird. Viele Filter setzen sich aus mehreren Einzelkomponenten zusammen. Als Beispiel sei das RC-Siebglied genannt. Auf einen Widerstand folgt ein Kondensator. Die Schaltung lässt nur Spannungen durch, die auf eine Frequenz unter der Grenzfrequenz gelegt sind. Danach nimmt der Pegel stark ab, bis ab einer bestimmten Frequenz nur noch etwa 0 V durchgelassen werden. Hierzu betrachten wir die obere Schaltung. VIn ist die Eingangsspannung, VC die Ausgangsspannung. Über den Widerstand R fließt ein Strom I, der zum Spannungsabfall VR führt. Ein Spannungsabfall ist nicht zu verwechseln mit einer Spannungssenkung. Ein Spannungsabfall entspricht einer Spannung am Widerstand. Bei Frequenzen über der Grenzfrequenz wird VR sehr hoch, weshalb VC niedriger wird. Die Spannung "erreicht" den Ausgang nicht. Bei niedrigen Frequenzen hingegen fällt die Spannung nahezu vollständig am Kondensator C (eigentlich CR) ab, weshalb VC am Ausgang VIn ohne wesentliche Verluste entsprechen kann.

    Leistungsfaktor-Vorregler




    Quelle: Wikipedia, Urheber der Grafik: Wdwd


    Der Leistungsfaktor-Vorregler wird mit Gleichspannung betrieben. Er ähnelt einem Aufwärtswandler, da die Ausgangsspannung UA höher als UE ist. Der Brückengleichrichter wandelt hierzu die Netzspannung um. Er besteht aus vier internen Dioden in einem Gehäuse, die jeweils mit dem Phase- oder Neutralleiter, + oder - verbunden sind. Das Resultat sind ausschließlich positive Halbwellen. Wir haben bereits über die Rückkopplung in das Stromnetz debattiert und darüber, dass der sinusförmige Verlauf durch die nicht linearen Halbleiter verzerrt wird. Beim steilen Schalten entstehen zusätzlich zur Grundschwingung Vielfache davon, die Oberschwingungen. Durch die impulsartige Stromaufnahme verlaufen Spannung und Strom ebenfalls phasenverschoben. Es gibt zwei Möglichkeiten der Leistungsfaktorkorrektur (PFC), damit die Spannung und der Strom im Zeigerdiagramm wieder nähern (eine vollständige Überschneidung wäre idealistisch). PFC ist bei Netzteilen in der EU ab 75 W verpflichtend.

    In der passiven Variante verbaut der Hersteller nur eine schwere, stromkompensierte Drossel. Sie erreicht beim angestrebten Leistungsfaktor 1 etwa 0.7-0.8. Die aktive Leistungsfaktorkorrektur wird mittlerweile bei den meisten Netzteilen verwendet, weshalb wir sie näher behandeln. Wie der Name bereits verrät, kommen aktive Komponenten zum Einsatz. Betrachten wir die obere Schaltung, wobei wir uns statt dem Schalter S den Transistor Q vorstellen. Dieser wird so geregelt, dass der aufgenommene Strom in der Speicherdrossel L in Sägezahnimpulsen an der sinusförmigen Spannung entlang läuft. Die Phasenverschiebung wurde minimiert, die Oberschwingungen ausgeglichen. Je größer die Speicherdrossel, desto niedriger der Ripple. Man sollte allerdings aufpassen und die Speicherdrossel nicht zu groß wählen, sonst kommt ihre natürliche Phasenverschiebung hinzu und der Strom wird zu träge, um der Spannung noch folgen zu können. Unabhängig davon, ob die Schaltung mit CRM, DCM oder CCM betrieben wird, verlaufen Spannung und Strom nah beieinander, betrachtet man die Effektivspannung,

    Abwärtswandler





    Ein Nachteil der meisten Schaltregler ist, dass oft nur eine Spannung geregelt wird. Hinzu kommt, das oft Widerstände mit einer Toleranz von 5 % verwendet werden. Der Abwärtswandler wird bei vielen aktuelleren Netzteilen dazu verwendet, um von der geregelten Spannung +12 V Strom für +3,3 V und +5 V abzuleiten. +3,3 V und +5 V werden dadurch ebenfalls recht gut geregelt, auch wenn die VRM (Voltage Regulator Modules) meist nur für geringe Stromstärken ausgelegt sind. Um sich die Funktion des Abwärtswandlers mit CCM vorzustellen, muss der Aufwärtswandler bzw. Vorregler, wie er oben beschrieben wurde, etwas umgebaut werden. Der Transistor Q liegt nun auf der Position der Speicherdrossel L. Die Diode übernimmt die Position des Transistors. Zwei Zustände sind in der Leistungselektronik relevant: Der Transistor ist entweder ein oder aus. Hier wird die Ausgangsspannung bei gleichbleibender Frequenz über das Tastverhältnis (Pulsdauer gegenüber der Periodendauer) geregelt. Ist der Transistor aus, übernimmt die Diode D den Stromfluss. Der Strom über die Spule L fließt daher konstant und speist den Ausgang. Beim Aufwärtswandler (oder Vorregler im Schaltnetzteil) wurde der Ausgang nur bei Qaus gespeist, da bei Qein zunächst nur die Speicherdrossel geladen wurde. Das entspricht faktisch einem Sperrwandler. Auf die Schaltreglern gehen wir auf der nächsten Seite noch näher ein.

    Sekundärschaltkreis





    Sekundärseitig werden Gleichrichterdioden oder Transistoren verwendet, um die Spannung final gleichzurichten. Allerdings pulsiert diese noch im positiven Bereich und entspricht daher noch nicht unserer Vorstellung einer Gleichspannung. Dazu tragen die Elkos bei, indem sie den Spannungsverlauf glätten. Durch ihren spezifischen Entladevorgang werden die Unterschwingungen überbrückt. Hierbei gilt, je höher die Kapazität und Frequenz, in der ein Kondensator geladen wird, desto niedriger ist die Brummspannung. Da die Höhe des Laststroms ebenfalls eine Rolle spielt und bei den meisten Schaltnetzteilen nur das Tastverhältnis, nicht aber die Frequenz moduliert wird, steigt die sogenannte Restwelligkeit oft mit zunehmender Last. Die Restwelligkeit beschreibt die verbleibenden Wechselspannungsanteile in der Ausgangsspannung. Hinzu kommt eine Rauschspannung durch die Schaltfrequenzen und eventuelle Fehlerfälle durch Störungen. Kleine Stabkerndrosseln, teilweise mit Luftkern, minimieren die Rauschspannung.

    Sowohl an +5 V, +5 VSB, +12 V als auch auf +3,3 V müssen in der Regel LC- oder Pi-Filter eingesetzt werden, also Kombinationen aus Kondensator und Drossel. Das führt oft zu Temperaturproblemen, da die Elkos aus Platzmangel gerne an Wärmequellen wie der Speicherdrossel (die bei allen Flusswandlern eingesetzt wird) platziert sind. Natürlich kostet eine Filterung für jede Spannung vor allem auch Geld, weshalb gerade die Ausgangsspannung bei billigen Produkten stark von Störungen behaftet ist. Wie bereits in der Einführung erwähnt, sind die meisten Filter, zumindest in dem wünschenswerten Umfang, nicht unbedingt für den Betrieb notwendig. Es bietet sich für die Hersteller an, dort zu sparen.

    Im Sekundärschaltkreis wird meist eine Tochterplatine mit der Lüftersteuerung installiert. Die meisten Lüfter werden Temperatur- und Lastabhängig über die Spannung geregelt. Dort befindet sich auch in der Regel ein IC zur Überwachung der Ausgangsspannungen gegen Überstrom, Überspannung, Überlast, Unterspannung, zu hohen Temperaturen oder Kurzschlüssen. Dieser Sicherheits-IC fehlt meistens in Billignetzteilen. Stellen wir uns also folgende Situation vor, die zwar fiktiv ist, so aber durchaus schon vorgekommen sein dürfte. Der Phasenleiter wird im Netzteil so verlegt, dass er sich nah an einer Wärmequelle im Sekundärschaltkreis befindet, weshalb deren Isolierung abschmilzt. Durch den Kontakt kommt es wegen der hohen Potenzialdifferenz (Spannung) zu einer Entladung. Da es an Sicherungsfunktionen mangelt, wird der Schaltkreis und ggf. auch die Komponenten im PC beschädigt. Ein anderer naheliegender Fehlerfall ist das Temperaturproblem in ineffizienten PC-Netzteilen. Angenommen ein mit 550 W spezifiziertes Billignetzteil, das allerdings nur 250 W dauerhaft leisten kann, wird optimistisch mit 300 W belastet. Am Eingang wird eine Leistungsaufnahme von 400 W ermittelt, was einem Wirkungsgrad von 75 % entspricht. Das Netzteil muss demnach 100 W abführen. Da das Netzteil ohnehin bereits ungewollt überlastet wird und die Kunden meist leise Lüfter wünschen, werden einige Komponenten außerhalb ihrer Spezifikation betrieben. Sie altern rasant und verlieren durch die steigende Temperatur weiter an Leistung. Es kommt zur Beschädigung durch Überstrom, da keine Überwachung stattfindet. Weil zwangsläufig irgendwo gespart werden musste, kommt es bei Billignetzteilen im Fehlerfall zu einem Teufelskreis wie hier beschrieben. Folgende Schutzmechanismen sollten die Netzteile daher haben, wobei angemerkt werden muss, dass sie auch korrekt ansprechen müssen. Reagiert die Regelstrecke zu träge oder wird beispielsweise der Grenzstrom zu hoch gesetzt, kann es dennoch zu Beschädigungen kommen. Üblicherweise sollte der Schutz in der Entwicklung ausgiebig geprüft werden.

    • OCP (Over Current Protection) / Überstromschutz:
      Bei zu hoher Strombelastung an den Schienen wird das Netzteil ausgeschaltet. Hier äußert sich die ältere ATX-Spezifikation folgendermaßen: Das Netzteil solle über einen Überstromschutz verfügen, die beiden +12-V-Schienen sollten mit maximal 20 A belastbar sein. Oft wird über einen Shunt-Widerstand der Spannungsabfall und damit indirekt auch der Stromanstieg gemessen.
    • OVP (Over Voltage Protection) / Überspannungsschutz:
      Hier gilt dasselbe wie bei zu hoher Strombelastung. Wenn Toleranzbereiche (die meistens übrigens weit über 5 % betragen) überschritten werden, schaltet sich das Netzteil aus
    • OPP (Over Power Protection) / Überlastungsschutz:
      Netzteile werden in ihrer Gesamtleistung z.B. durch Leiterbahnen, die Kapazität der Kondensatoren oder durch den maximal möglichen Ladungsfluss der Transistoren begrenzt. Um Komponenten nicht über die mögliche Leistung hinaus zu überfordern, setzt dieser Schutz bei zu starker Belastung ein. Üblicherweise haben gute Netzteile Leistungsreserven oberhalb der Nennleistung
    • OTP (Over Temperature Protection) / Überhitzungsschutz:
      Mit Sensoren wird die Temperatur an einem der Kühlkörper überprüft, um bei hohen Übertretungen das Netzteil auszuschalten. Zwar wird der Kühlkörper im Sekundärschaltkreis meist am wärmsten, doch ist die Messung an einem Punkt oft unzureichend. Viele Hersteller verzichten sogar generell auf einen Schutz vor zu hohen Temperaturen.
    • UVP (Under Voltage Protection) / Unterspannungsschutz:
      Befindet sich eine der Ausgangsspannung unterhalb der Toleranz, wird das Netzteil genau wie bei Überspannung oder Überstrom ausgeschaltet.
    • SCP (Short Circuit Protection) Schutz vor Kurzschlüssen:
      Schlechte Isolierungen oder zu geringe Sicherheitsabstände zwischen den galvanisch getrennten Schaltkreisen können dazu führen, dass es intern zum Kurzschluss kommt, weshalb dieser Schutzmechanismus am häufigsten eingesetzt wird.
    • NLO (No Load Operation) / Schutz vor lastlosen Operationen:
      Schaltnetzteile sollten möglichst nicht ohne Last betrieben werden, da der Regelkreis nicht darauf ausgelegt ist. Die Spannung fällt mangels Lastwiderstand kaum ab bzw. steigt sehr hoch an. Meist sollten auch alle Schienen mit einem Mindeststrom (z.B. 1 A) belastet werden.



    Quelle: Datenblatt der Silicon Touch Inc.


    Hier sehen wir einen Übersichtsschaltplan zum IC mit der Produktnummer PS232 für die Sicherungsmechanismen. Wie man sieht, machen die Hersteller Vorschläge zur Integration des IC in das Netzteil mit externen Komponenten. Im oberen Teil wird der Sekundärschaltkreis grob umrissen. Auf den Transformator folgen nach der Gleichrichtung der Spannung die einzelnen Schienen. Der IC unten prüft den Ist-Zustand der einzelnen Leitungen und vergleich ihn mit den festgelegten Sollwerten. ISXX (XX für die jeweilige Spannung) sind die Eingänge zur Überprüfungen des Überstromschutzes. An den Shuntwiderständen RS (RS5 bis RS12(2)) fällt eine Spannung ab, die auf einen Überstrom hindeuten kann. Über die Eingänge VSXX kann das Spannungsniveau überprüft werden. Intern wird hierzu die Eingangsspannung über einen Operationsverstärker mit einer Referenzspannung Cref verglichen. Die Eingänge werden mit einem Widerstand vor Überspannung geschützt. Bevor die Spannung ausgewertet wird, findet noch eine Entprellung statt, damit keine Rauschspannung das Ergebnis verfälscht. Anbei wird das Power-Good-Spannung über PGO ausgegeben. Die Power-Good-Spannung dient dazu, den PC-Start auf dem Mainboard einzuleiten, nachdem die einzelnen Ausgangspannungen nach einer gewissen Anstiegszeit stabilisiert sind. Im Standby-Betrieb wird das Mainboard über +5 VSB versorgt, um z.B. die Echtzeituhr und Teile der Steuerlogik zu betreiben. Dieser IC findet bei sehr vielen Netzteilen Verwendung.

    [break=Schaltregler/Spannungswandler]


    Wir widmen dem Schaltregler und dem Spannungswandler wegen seiner Komplexität eine eigene Seite. Den Abwärtswandler und Leistungsfaktor-Vorregler im speziellen haben wir bereits auf der vorherigen Seite angesprochen und ersparen uns eine erneute Auffrischung an dieser Stelle. Kernstück eines jeden Netzteils ist der Spannungswandler, wie wir ihn bereits am Anfang beschrieben haben. Bei Schaltnetzteilen wird zur Spannungsübersetzung oft eine Variation des Sperrwandlers (ältere Netzteile), des Flusswandlers (die Mehrheit der aktuellen Netzteile) oder auch des Resonanzwandlers (teure Netzteile) verwendet.


    Quelle: NPTEL


    Hier sehen wir den Prinzip-Aufbau des Sperrwandlers. Wird der MOSFET (hier allgemein durch den Schalter S repräsentiert) eingeschaltet, wird die Primärwicklung des Transformators mit einem Strom gespeist. Durch die Induktion bildet sich ein Magnetfeld und ein magnetischer Fluss durch den Kern (auch an dieser Stelle vernachlässigen wir die Streufluss, der nicht durch den magnetischen Kern geht), welcher automatisch auch die Windung(en) auf der Sekundärseite durchsetzt. Wird der Transistor ausgeschaltet, bricht das Magnetfeld zusammen... wäre da nicht die Diode D, die nun den Stromfluss übernimmt. Da der Strom also ausschließlich während der Sperrphase an den Sekundärschaltkreis ausgegeben wird, verdient die Schaltung den Namen Sperrwandler zurecht. Sobald der Transistor wieder eingeschaltet wird, sperrt die Diode, weshalb die Schaltung nicht sehr anfällig für Kurzschlüsse ist. Die eingezeichneten Elkos dienen ausschließlich zur Glättung, da die Gleichspannung aus dem Vorregler durch den Transistor in eine hochfrequente (mehrere KHz) Rechteckspannung umgewandelt wurde. Der Strom durch den Transistor ist hingegen dreiecksförmig. Der Trafo dient beim Sperrwandler übrigens auch als Zwischenspeicher während der Umschaltphase. Hierzu wird ein Luftspalt hinzugefügt, weshalb der Trafo genau genommen kein reiner Trafo mehr ist. Da sich der Transistor in dem Moment ausschaltet, wenn der Strom am höchsten ist, entstehen Schaltverluste, die den Sperrwandler mittlerweile sehr unbeliebt machen.

    Die meisten Netzteile, die wir von kurzem getestet haben, setzen auf einen Flusswandler. Der Strom wird hier in einem Durchfluss an den Sekundärschaltkreis übertragen und in eine separate Speicherdrossel geladen (ersetzt die Speicherfunktion des Trafos beim Sperrwandler). Wenn die beiden Transistoren gleich lange Ladezeiten haben, wird der Trafo symmetrisch ausgesteuert. Beim einfachen Eintaktflusswandler wäre hier noch die zusätzliche Entmagnetisierungswicklung mit einer weiteren Diode notwendig, die diese Aufgabe übernimmt und den Magnetisierungsstrom in der Sperrzeit abbaut. Ansonsten würde der Trafo nach kurzer Zeit in die Sättigung gehen. Wenn beide Transistoren sperren, leiten die Dioden im Sekundärschaltkreis den Strom. Beim Eintaktflusswandler mit einem Transistor lässt sich die Namensgebung aber am einfachsten nachvollziehen. Da die Sekundärspannung wegen des gleichen Wicklungssinns von Primär- und Sekundärwicklung positiv ist, übernimmt die Diode auf der Sekundärseite den Ladungsfluss, wenn sich der Transistor in der Leitendphase (Flussphase) befindet. Der Eintaktflusswandler benötigt in diesem Zusammenhang noch eine zweite Gleichrichterdiode im Sekundärschaltkreis. In der Sperrphase kommutiert der Strom auf diese, da er wie gesagt nicht im Trafo zwischengespeichert werden kann.

    Der Resonanzwandler wiederum nutzt einen Effekt, der an anderer Stelle im Sinne der EMV unerwünscht wäre. In einem schwingfähigen Schaltkreis pendelt die Energie zwischen zwei Energiespeichern, hier zwischen einem Kondensator und einer Spule, hin und her. Die beiden Komponenten verhalten sich gegensätzlich zueinander. Der Kondensator ist wie das Spiegelbild der Spule, da beim Ladevorgang zuerst ein Strom fließt und dann die Spannung auf den Scheitelwert ansteigt. Bei der Spule ist es genau andersrum. Die Spannung eilt voraus. Dieser Schwingkreis wird nun so zum Schwingen angeregt, dass das Verhältnis von der Erreger- zur Ausgangsamplitude (Resonanzfrequenz) gering ist. Angenommen der Hersteller schaltet vor diesen Resonanzkreis eine Halbbrücke. Wird der erste Transistor eingeschaltet, fließt ein Strom über die Spule und der Kondensator wird geladen. Wird der erste Transistor aus und der zweite eingeschaltet, fließt der Strom zurück in die Spule. Dazwischen wird die Primärwicklung des Trafos angeschlossen und bei jedem Umladen gespeist. Die Transistoren sind wie üblich getaktet, doch wird der Strom vom Schwingkreis beim Einstellen des Arbeitspunktes auf die obere Resonanzfrequenz nahezu sinusförmig aufgenommen. Hierzu müssen der Kondensator und die Spule eine passende Dämpfung besitzen, damit die Amplitude nicht zu steil ansteigt. Die geringere Flankensteilheit führt auch zu einer geringen Störabstrahlung. Die Folge des Aufbaus ist, dass der Strom leicht verzögert hinter der Spannung schwingt und beim Nulldurchgang der Spannung (ZVS) geschaltet wird. Die Spannung beträgt also 0 V, während sich der Strom zu diesem Zeitpunkt noch im negativen Bereich befindet. Die Schaltverluste an den Transistoren werden dadurch stark begrenzt. Idealerweise verfügen diese noch über einen geringen Einschaltwiderstand. Allerdings ist der Resonanzwandler auch nicht perfekt, da die Leitendverluste etwas höher sind als bei anderen Schaltungen. Außerdem benötigt der Resonanzwandler eine gut geregelte Eingangsspannung und wird normalerweise nur mit einer festen Frequenz (eben der Resonanzfrequenz) betrieben. Das allerdings ist ungünstig, da das Netzteil über einen wechselhaften und großen Lastbereich hin geregelt werden muss. Hierzu muss der Hersteller eine weitere Spule einsetzen, um den Transformator zu entlasten und die Frequenz bei verschiedenen Lasten anpassen zu können. Daher wird die Schaltung auch LLC-Resonanzwandler genannt. Passende ICs von Champion etwa regeln den Resonanzkreis teils über FM und teils über PWM. Da PWM zum Verstehen der Transistoransteuerung notwendig ist, beschreiben wir folgend den Schaltregler, bestehend aus dem PWM-Generator und einer Spannungsregulation.



    Bei PWM wird das Tastverhältnis, also die Pulsweite im Verhältnis zur Periodendauer, eingestellt. Das Tastverhältnis beträgt maximal 50 %. Ein Sägezahngenerator generiert eine Sägezahnspannung. Legt man eine Steuerspannung UST darüber, werden die Flanken des Impulses an die Punkte gelegt, wo sich UST und USZ überschneiden. Zwischen diesen beiden Punkten ist der Transistor ausgeschaltet. Möchte man im Schaltnetzteil die Ausgangsspannung +5 V regeln, wie es bei den meisten Geräten der Fall ist, genügt die Schaltung aus UST, USZ und dem Komparator, der sie zusammenführt, nicht mehr. In einem Subtrahierer wird die Ist-Spannung mit einem Referenzwert verglichen. Da +5 V lastbedingt nie ideal ist, stellt der Ausgang für den nachfolgenden Regelverstärker eine Regelabweichung dar. Der Verstärker hat nun die Eigenschaft, dass die Eingangsspannung verstärkt und damit die Regelabweichung behoben wird.

    [break=Kühlkonzepte]

    Horizontales Design





    In der wohl bekanntesten und ältesten Anordnung wird ein Lüfter mit 80 mm horizontal zur Platine ausgerichtet und saugt die Abwärme aus dem Netzteil. Dass anfangs 80 mm gewählt wurden, hängt in erster Linie mit der Bauhöhe von 86 mm bei ATX-Netzteilen zusammen. Vorne sind in der Regel einige Belüftungslöcher oder, wie hier, -schlitze angebracht, damit Frischluft in das Netzteil gelangt. Oft sind auch einige Schlitze an der Unterseite, sodass die Abwärme der CPU direkt aufgenommen wird. Gerade bei überlangen Konstrukten besteht die Hauptaufgabe vor allem darin, die Luft mit Unterdruck von hinten nach vorne zu führen. Dieses Konzept wurde später durch das Push-&-Pull-Prinzip erweitert, das genau dieses Problem angeht. Statt der Belüftung durch Öffnungen wird vorne ein weiterer 80-mm-Rotor platziert, der dem anderen die Abwärme schneller zuführt.

    In dem hier gezeigten Bild sehen wir die klassische Variante, bei der ein Großteil der Wärmeaufnahme zunächst nicht durch die Luft sondern durch die Kühblöcke erfolgt. An diesen sind in der Regel die Halbleiter mit Wärmeleitfolien und/oder Wärmeleitpaste angebracht. Diese Folien isolieren auch gleichzeitig den Transistor vom Kühlkörper, sollte zuletzt genannter aus EMV-Gründen auf Masse gelegt sein. Um eine größere Kühlfläche zu erhalten, spreizen sich die Kühlrippen beidseitig ab und werden nach oben hin immer breitflächiger. Zusätzlich werden manche perforiert oder erhalten wie hier eine unebene Form. Nach oben hin wird also fast ein geschlossener Raum gebildet, der die Form eines Lufttunnels annimmt. In diesem Tunnel bewegt sich letzten Endes die Luft und muss möglichst widerstandsfrei abgeführt werden.

    In diesem Fall stehen mehrere Komponenten des Primärschaltkreises im Weg, an den Rändern wird aber ausreichend Raum gelassen. Da der Primärkondensator kaum Verluste abzuführen hat, spielt es eine untergeordnete Rolle, dass er im Windschatten des Haupttransformators steht. In diesem Fall hat man noch etwas Platz zwischen Lüfter und Komponenten gelassen, um keine Verwirbelungen an den Komponenten zu verursachen, die zu zusätzlichen Störgeräuschen führen könnten.

    Die Luft an den äußeren Rändern muss dem erwähnten Tunnel aber erst zugeführt werden. Manche fragen sich, weshalb der Luftstrom dann ausgerechnet durch den Vorregler geht, wenn dort mehr Platz als im Sekundärschaltkreis ist. Das Problem wäre, dass wegen der vielen Filter, den zahlreichen Tochterplatinen und vor allem den Ausgangsleitungen kein ausreichender Luftstrom entstehen könnte. Ergo muss die hier entstandene Wärme vom Kühlkörper, der entsprechend dimensioniert ist, erstmal aufgenommen werden. Diese wird dann im Wirkbereich des Lüfters abgegeben.

    Je größer der Raum und die Belüftungslöcher sind, desto mehr warme Luft passt hindurch. Beim Arctic Cooling Fusion mit 550 Watt hat man beispielsweise trotz der mittlerweile gängigen Wabenstruktur sehr große, viereckige Löcher am Eingang verwendet. EMV mag dies, genau wie der außen stehende Lüfter, der aber vom Gehäuse entkoppelt wurde, nicht ganz optimal sein. Aber zurück zur Kühlung. Im Arctic-Netzteil wurde auch eine Luftleitfolie platziert. Vor allem als Bestandteil der vertikalen Kühlung wurde diese immer wieder kontraproduktiv eingesetzt, weil damit Teile des Lüfters abgedeckt wurden und tote Winkel entstanden sind. Hier jedoch kann die Kunststoffhaube teureres Aluminium ersetzen, da die beiden Kühlkörper zur Wärmeaufnahme bereits groß genug dimensioniert wurden. Hier dient die Folie also tatsächlich nur einem geordneten Ablauf des Luftstroms und bildet eine noch tunnelähnlichere Schneise als im vorherigen Beispiel.

    Zusammenfassend können wir sagen, dass das horizontale Konzept aufgrund der Bauhöhe bei ATX-Netzteilen nicht die gesamte PCB-Fläche abdecken kann. Wenn die Struktur einen guten Luftstrom ermöglicht, ist die Kühlung aber sehr effektiv. Das hat man vor allem der unterbrechungsfreien Zirkulation in der zentralen Laufbahn des Lüfters zu verdanken. Antec hat hierbei eine Lösung gefunden, die das Kühlsystem perfektioniert, indem der direkte Luftstrom einer horizontalen Anordnung mit einem großen Lüfter kombiniert wird. Das CP-850 hat dabei den Nachteil, dass das Netzteilgehäuse größer in der Bauhöhe ist und nur in dafür vorgesehene Antec Gehäuse passt. Zudem existiert aktuell keine Alternative im kleineren Leistungsbereich.

    Vertikales Design





    Zu diesem Bild muss man nicht viele Worte verlieren, um bereits einen Vorteil und einen Nachteil zu erkennen. Wie wir sehen, wird der Lüfter vertikal zur Platine positioniert. Durch die größere Fläche kann auch ein größerer Rotor verbaut werden. Grundsätzlich erreicht man so mehr Luftdurchsatz bei geringeren Umdrehungen. Durch das Anbringen im oberen Teil des Gehäuses mit dem Lüfter nach unten wird auch mehr Abluft aus dem PC-Gehäuse entnommen. Bei 80 mm ist es unwesentlich, wie man das Netzteil dreht. Es ist schwieriger, die Verlustleistungen von CPU und Mainboard aufzunehmen.

    Der Nachteil ist der 90°-Winkel, der beim Luftstrom besteht. Zunächst trifft die Luft aus dem Rechner auf das PCB und wird erst danach über die Entlüftungslöcher, die nun am Ende stehen, abgeführt. Untere Bereiche werden dann schlecht erreicht, wenn die Kühlkonstruktion oder der Aufbau zu dicht ist und gegen die herannahende Luft abschirmt. Im Gegensatz zu 80-mm-Konzepten ist es hier also elementar, genügend Zwischenräume zu lassen, gleichzeitig die Kühlkörper aber auch nicht zu klein zu halten oder zu dimensionieren und Kühlfläche zu schaffen.

    Wie wir am oberen Beispiel sehen, gehen vom - für die Leistung von 680 Watt breiten - Kühlblock aus viele Kühlrippen in die Breite. Manche Hersteller modifizierten den flachen Kühlkörper lediglich mit einigen Einfräsungen. Im Gegensatz zu dem 80-mm-Konzept steht der Primärkondensator physikalisch natürlich immer noch neben einer Komponente, von oben herab gekühlt aber nicht mehr in dessen Windschatten. Das gleiche gilt auch für die anderen Bereiche. So ist die generelle Erreichbarkeit großer Komponenten gegeben, wobei es je nach Luftdruck schwierig erscheint, Kleinstbauteile auf dem PCB erreichen zu können, an denen die Wärmekonvektion wirken kann. Bei den geringen Drehzahlen heutiger Netzteile kommt es auch hier auf die Platzverhältnisse an. Dicht besetzte PCBs sind kühltechnisch schwieriger zu realisieren. Vorhandene Bauteile müssen im größeren Abstand zueinander positioniert werden, was die PCB-Fläche (und damit Kosten) erhöht.



    Ein Negativbeispiel sehen wir nun, denn von oben herab gekühlt verhindert die dichte Verzahnung der zwei versetzten Reihen an Kühlrippen eine effektive Luftzirkulation. Ausgerechnet im Sekundärteil ist ein größerer Kühlkörper nötig, paradoxerweise führt er dazu, dass keine Erreichbarkeit der Komponenten statt findet und sich das Konstrukt aufheizt. Verstärkt wird dieser Eindruck dadurch, dass die großen Gleichtaktdrosseln rechts das Abtragen der Luft schwieriger machen. Ein generelles Problem, wenn man viele Filterbausteine vor die Entlüftung setzt. Das vorhin gezeigte Netzteil mit 80 mm hat das Problem so gelöst, dass sich ein Großteil der Filterung dort befindet, wo eigentlich bereits der Leistungsfaktor-Vorregler positioniert wird. Dafür ist der Primärkondensator in die Mitte gerückt.

    Insgesamt kann man mit vertikal positionierten 120-140-mm-Lüftern eine größere Fläche abdecken, muss dabei aber trotz breiter Kühlflächen auf dem Kühlkörper auch auf die Erreichbarkeit kleiner Komponenten achten und darauf, dass die Abluft möglichst ungestört nach außen gelangt. Hierzu verhindern Luftleitfolien, dass vor den Entlüftungslöchern Verwirbelungen entstehen. Dann wird man auch eine optimale Lautstärke wegen der geringeren Drehzahlen erreichen.

    Passives Design



    Bei den meisten passiv gekühlten Netzteilen dürfte vor allem das Mesh-Design auffallen. Statt geschlossener Seitenwände existiert eine feine Lochung. Durch die Perforation kann die warme Luft aus allen Öffnungen herausströmen. Weiterhin ist der Deckel tatsächlich Teil der passiven Kühlkonstruktion und wird mittels Wärmeleitfolien mit den Kühlkörpern verbunden. Hierbei wurde die Oberfläche stark bearbeitet. Teilweise haben diese auch eine Status-LED. Sie soll über die Temperatur Aufschluss geben und damit Sicherheit vermitteln. Sie ist also im Grunde nur eine Förderung des Vertrauens, um dem Benutzer die ausreichende Kühlung zu demonstrieren und ein gewisses Gefühl der Kontrolle zu vermitteln. Prinzipiell sind solche Netzteile natürlich mit OTP (Over Temperature Protection) abgesichert und das restliche PC-Gehäuse sollte im Falle leistungsstarker Komponenten entsprechend belüftet sein. Wenn das gegeben ist, sollte man keine Berührungsängste mit passiven Netzteilen haben, so viel sei bereits vorweg gesagt. Insbesondere, da es mittlerweile auch 80Plus-Platinum-Netzteile gibt.

    Massive Kühlkörper prägen das Innere eines solchen Netzteils. Diese sind sogar noch dicker als beim 80-mm-Konstrukt, da sie darauf ausgelegt sind, keine Unterstützung durch erzwungene Wärmekonvektion zu erhalten. Ggf. kann die Verlustleistung am Deckelstück von einem leisen Gehäuselüfter abgetragen werden. Trotz der Kühlkörper existieren quasi keine passiv gekühlten Netzteile über 500 W. In höheren Leistungsbereichen wäre die Kühlkonstruktion dann auch kaum unterzubringen und bei starken Grafikkarten ist ein funktionierender Luftstrom im Gehäuse elementar. GPU und Co. lassen sich aber natürlich auch an einen Wasserkreislauf anschließen. Dann muss sich das Netzteil nur selbst kühlen.

    Die Kühlrippen werden nach oben hin zum Deckelstück erheblich breiter. Primärseitig ist ein 105-°C-Kondensator sinnvoll. Meist werden auch mehrere Modelle mit geringerer Bauhöhe parallel geschaltet, damit der Kühlkörper ausladender gestaltet werden kann. Sekundärseitig kommen wie bei aktiv gekühlten Netzteilen die vielen Leitungen und Ausgangsfilter hinzu. In diesem Fall ist das kein Problem, da die Wärme in die obere Richtung und auch seitlich entweichen kann. Vor allem aber sollten an den stark belasteten Schaltungen nur hochwertige Kondensatoren verwendet werden.

    Im Gesamtüberblick richtet sich die passive Kühlung natürlich an die Silent-Fetischisten. Bei effizienten Netzteilen mit moderner Technik muss man in kleineren Rechnern keinen großen Kühlaufwand betreiben, um die fehlende aktive Kühlung kompensieren zu müssen. Hochwertige Bauteile und große Aluminium- oder Kupferkühlkörper machen diese Netzteile jedoch sehr teuer und der Absatzmarkt ist relativ überschaubar. Ein Mittelding wäre die semi-passive Kühlung, wie sie bei NesteQ, SuperFlower oder Seasonic eingesetzt wird, aber auch da sorgt die komplexe Steuerung für hohe Preise und die Schaltung muss fehlerfrei funktionieren.

    Temperaturabhängigkeit der Komponenten



    Die meisten Komponenten im Schaltnetzteil, mindestens aber deren Leistung, ist von der Temperatur abhängig. Wichtig ist dabei eine flammenresistente Epoxidharzplatine, die glasfaserverstärkt wird und bei fr5-Einstufung (fr = flame retardant) selbst bei über 140 °C keine Leiterbahnschäden aufweist. Die nächst günstigere Variante fr4 ist bis 140 °C flammenfest, wechselt man mit fr3 von Glasfaser und Epoxidharz zu Hartpapier und Epoxidharz, ist die maximale Betriebstemperatur bereits auf 90 °C beschränkt. Tauscht man bei fr2 dann auch noch das Epoxid- gegen Phenolharz, dürfen 70 °C nicht überschritten werden. Hinzu kommen natürlich die Kriechstromfestigkeit als wichtiger Faktor und die schwerere Bearbeitung der Epoxidharzplatinen. Bestimmte Harze und Glasfasermatten werden wegen ihrer hohen Materialdichte verwendet, die kaum Feuchtigkeit aufnimmt. Kein Wunder also, dass das Material damit teuer wird. So ist ein PCB mit fr4 schon 40 % teurer als fr3 und fr5 kostet 50 % mehr als fr4. Doch auch an der Oberfläche können Verunreinigungen zu Kriechströmen führen. Entsprechende Sicherheitsabstände von mindestens 5,5 mm zwischen dem Primär- und Sekundärschaltkreis müssen gewährleistet sein. Offene Drahtbrücken und Anschlüsse sollten mit Schrumpfschläuchen isoliert werden.



    Dieses Schaubild zu einer Gleichrichterbrücke zeigt, dass diese bei 100 °C bis zu 8 A gleichrichten kann, was für viele Netzteile ausreichend dimensioniert ist. Es handelt sich hierbei um ein Modell im aktuellen GBU-Gehäuse (GBU ist eine Gehäuseart, die mehrere Hersteller anbieten), wie es häufig verwendet wird. Wird die Gleichrichterbrücke an einem Kühlkörper befestigt, kommt es erst gar nicht zu einer kritischen Temperaturentwicklung und die Gleichrichterbrücke kann mehr leisten, wie das Schaubild zum Temperaturverhalten zeigt. Bei aktiver Kühlung und in kleinen Leistungsbereichen könnte man den Kühlkörper ggf. auch einsparen oder verkleinern.

    Ob nun ein 85-°C-Kondensator oder 105-°C-Modell gewählt wird, ist sehr von den anderen Spezifikationen, der Dimensionierung und vor allem der Ripplestrombelastung und Temperatur abhängig. Wird der Elektrolytkondensator (Elko) zyklisch durch einen hohen Strom ge- und entladen, verdampft das Elektrolyt schnell und der Raum reicht nicht mehr für das entstehende Gas aus. An Ventilationsöffnungen bläht sich der Korpus, da dies die schwächste Stelle ist, an der sich der Druck entladen kann. Dann kommt es zumindest nicht zur gefürchteten Explosion. Wie gut der Elko abgedichtet ist, entscheidet ebenso über die Qualität. Wie oben erwähnt macht ein 105-°C -Fabrikat in der passiven Umgebung Sinn, dabei darf die Temperatur aber nur in einen Zusammenhang mit der spezifizierten Lebenszeit gebracht werden. Dort geht man oft von mehreren Tausend Stunden bei 105 °C aus, die unter realen Temperaturbedingungen natürlich höher sind. Aber selbst nach Ablauf der Zeit geht das Bauteil nicht zwangsweise kaputt. Viel mehr beschränkt sich die Angabe auf den Verlust von Kapazität über einen bestimmten Zeitraum. Im normalen Betrieb vertrocknet das Elektrolyt langsam und dabei sinkt seine Leitfähigkeit. Dennoch ist ein Elektrolytkondensator streng genommen kein Verschleißteil, da dieses Kriterium immer von der angegebenen Lebenszeit oder MTBF abhängt. Ein schnelles Ende wird man dem Elko aber vor allem bereiten können, wenn man ihn falsch gepolt einlötet, da sich dann die Oxidschicht abbaut. Dann wird auch das Elektrolyt verdampfen und zu einer explosionsartigen Reaktion führen. Von guten Umgebungsbedingungen ausgehend sollten die meisten Kondensatoren aus Taiwan oder Japan gut genug sein, um bis zum nächsten PC-Kauf zu überleben. Selbst einfachste chinesische Modelle würden unter den richtigen Umständen und einer guten Kühlung effektiv arbeiten. Ein tatsächlicher Nutzen kann japanischen Modellen also nur beschränkt zugewiesen werden. Auch Feststoffkondensatoren sind nicht ideal. Sie werden wegen ihrer kompakten Ausmaße häufig als SMD (kompakte, auf der Rückseite eines PCBs installierte Bauteile) ausgelegt, können aber ebenfalls sterben, wenn ihr ESR, ein Widerstand, der die Verlustleistung repräsentiert, zu hoch wird.

    Breite Leiterbahnen und ausreichend dimensionierte Bauteile mit großem Abstand zueinander sind thermisch vorteilhaft, finanziell aber ein Problem, da mehr PCB-Fläche benötigt wird. Mit 16 cm Bautiefe ist z.B. das passiv gekühlte Nightjar 450 Watt bereits sehr großzügig ausgelegt, obwohl es kein PCB für Kabelmanagement beherbergt. Wuchtige Kühlkörper haben zudem eine große Abstrahlfläche, was bei der EMV berücksichtigt werden muss. Daher werden diese oft auf Masse gelegt und an den daran befestigten Halbleitern Isolatoren angebracht.
    Eine aktive Leistungsfaktorkorrektur, mit dem Effekt eines Aufwärtswandlers vergleichbar, ist auch ein wichtiger Faktor. Geringe Blindströme durch eine möglichst minimale Phasenverschiebung senken die Belastung. Ein niedrigerer Betriebsstrom (was auch der Grund für die höhere Effizienz bei 230 VAC ist) ist ebenfalls entscheidend. Vor allem im Modus mit kontinuierlichem Stromfluss (CCM) werden gegenüber Topologien mit CRM und DCM hohe Spitzenströme vermieden. Das entlastet den Primärkondensator zusätzlich und kann eine höhere Lebensdauer auch bei schwierigen Temperaturbedingungen bedeuten. Nicht zu vergessen sind aber die Recovery-Verluste der Dioden (Stichwort Sperrverzugszeit, die Zeit die eine Diode zum Schließen benötigt). In seiner Gesamtheit spielen für den Wirkungsgrad natürlich noch weitere Faktoren eine Rolle. Der Drain-Source-Widerstand und Schaltverluste beim Transistor, breite Leiterbahnen und viele parallel geschaltete Komponenten, Entstörmechanismen und Shunt-Widerstände (engl. shunt = parallel geschaltet(e Widerstände)) als zusätzlicher Widerstand und intelligente Topologien mit hoher Betriebsspannung sowie die Wahl der richtigen ICs.

    Im Zweifel limitiert das schwächste Glied im Schaltkreis. 50 °C unmittelbare Umgebungstemperatur sind in der Realität vorstellbar, die meisten Netzteile werden bei MTBF-Tests aber lediglich auf 25 °C oder 40 °C spezifiziert. Es lohnt sich also durchaus, in die Produktdaten zu sehen. Denn ein 500 Watt Gerät mit dem vollen Leistungsspektrum bis 50 °C hält folgerichtig mehr aus als ein 550-Watt-Gerät auf 25 °C spezifiziert. Außerdem planen die Hersteller unterschiedlich hohe Reserven ein.

    [break=Leistungsverteilung]


    Wenn man diese Tabelle genauer betrachtet, sieht man dort die einzelnen Leitungen +3,3 V, +5 V, +12 V, 5 VSB, -12 V (oder ggf. -5 V, die heute allerdings keine Rolle mehr spielt und lediglich bei älteren Modellen vertreten ist). Die 5-VSB-Leitung ist die Standbyspannung, die über einen eigenen Transformator übersetzt wird, womit wir im Grunde zwei Netzteile in einem Gerät haben. Da diese hier aber nun keine Rolle spielt, und -12V vernachlässigbar ist, betrachten wir nun die +12-V-Schiene. Dabei fällt auf, dass dieses Netzteil vier +12-V-Schienen zu haben scheint. Andere setzen auf zwei, drei oder sogar sechs Schienen. "Mein Netzteil hat mehr Schienen als Deines, also ist es besser" ist aber keine richtige Aussage. Das Ganze ist einfach eine Sache der Verteilung. Denn wenn man auf die Schienen schaut, merkt man, dass dort vermutlich eine Quell- oder Combinedleistung angegeben wird. Wenn das Netzteil mit +12 V1 bis +12 V4 zu jeweils 40 A belastbar ist und diese zusammen (=combined) 1032 W leisten, so können sie ebenso viel leisten, wie eine einzelne Schiene mit 1032 W. So viel steht fest.

    "Ergeben 4x 40 A aber nicht eigentlich 160 A (bzw. 1920 W)?" Nein, nicht unbedingt. Es geht darum, dass in der Mehrheit der Fälle beide bzw. alle weiteren +12V Leitungen aus einer einzigen Quelle gespeist werden und danach in "virtuelle" Schienen eingeteilt und mit entsprechenden Schutzmechanismen versehen werden. Höhere Werte bei Single-Rails lassen sich einfach gesagt schwieriger absichern. Und diese Quelle kann in diesem Beispiel eben 1032 W leisten. Die 40 A sind ausschließlich eine Bezeichnung dafür, wie viel von diesen 1032 W maximal auf eine Schiene verteilt werden darf, um sie nicht zu überlasten. D.h. man könnte je nach Verbraucher zwei Schienen voll auslasten, hätte für die anderen dann aber weniger Leistung zur Verfügung. So wird übrigens auch die Gesamtleistung des Netzteils festgelegt. +3,3 V, +5 V und +12 V können nicht einfach addiert werden, sondern leisten die Combinedleistung des Quelltransformators mit den jeweiligen Wicklungen. Die Herstellerempfehlungen für Grafikkarten beziehen sich übrigens immer auf diese zusammengefasste Leistung und die Leistungsaufnahme des gesamten Systems.

    Vor- und Nachteile



    Daraus lassen sich bereits einige Nachteile herleiten. Die Verwirrung und Unklarheiten beim Endkunden sind definitiv ein Problem der sogenannten "Multi-Rails", wenn auch kein technisches. Aus dieser Sicht gibt es nämlich ein anderes Problem. Was passiert, wenn es Verbraucher an einer Schiene gibt, die diese überlasten können? Meistens sind sie mit 20 A oder ähnlich angegeben, was einen speziellen Hintergrund hat. Dazu muss man klären, wer damals die 20 A festgelegt hat. Wer hatte also eigentlich die Idee dazu? Intel veröffentlichte im Februar 2003 den "ATX-Design-Guide" in der Version ATX12V v2.0, wo Pentium-4-Rechner noch gang und gäbe waren. +12 V wurde damals noch nicht so stark belastet wie es heute getan wird (weil sich +12 V als Transportmedium anbietet; der Strom ist niedriger). Der Halbleiterriese hat sich auf diese 20 A oder auch 240 VA (12 V x 20 A = 240 W Scheinleistung) festgelegt. Als Vorteil wurde die Netzteilsicherheit genannt, damit während Kurzschlüssen oder Überstrom weniger Strom durch die Leiterbahnen fließt. So lassen sich die Schienen einzeln absichern. Die Problematik dabei ist, dass man in diesen Tagen natürlich noch keine GTX 480 und Konsorten kannte. Vor allem bei Triple-SLI- oder Quad-Crossfire-Systemen mit Mehrkernprozessoren werden also schnell die Limits erreicht. Meist verkraftet ein gutes Netzteil auf einer Schiene aber noch mehr als 20 A. Wieder andere haben einen streng gesetzten Überlastschutz, der das Netzteil im Betrieb ausschaltet, wenn ein Lastzustand die Toleranz überschreitet. Im schlimmsten Fall ist die Überforderung so stark, dass es bei billigen Netzteilen zu Beschädigungen kommt. Dann werden eventuell auch die PC-Komponenten für eine bestimmte Zeit einem hohen Strom ausgesetzt. Derartige Fälle passieren in der Praxis aber nie bei einem guten Netzteil, zumal die Ingenieure alle Stecker natürlich gleichmäßig auf die Schienen verteilen. Jedenfalls wollte Intel mit ATX erreichen, dass die Prozessoren unabhängig von den anderen Gerätschaften versorgt werden, was ebenfalls ein Grund für zwei +12-V-Schienen war. In der Vorgabe werden der Übersichtlichkeit halber die gelben Leitungen mit weiteren Farbstreifen gekennzeichnet, um sie unterscheiden zu können.

    Methoden



    Mit den folgenden Schaubildern erläutern wir kurz, welche Methoden es gibt, die Leistung, und dabei insbesondere +12 V, aufzuteilen und auch, welche Aufteilung bei der Verwendung zweier Transformatoren angewandt wird. Anzumerken ist, dass hierbei nicht die DC-DC-Abwärtswandler berücksichtigt wurden, bei denen die Haupttransformatoren ausschließlich +12 V generieren, wovon +3,3 V bzw. +5 V abgeleitet werden.



    Früher waren es vor allem +5 V und +3,3 V, die stark belastet wurden und dementsprechend mit den größten Bauteilen und einer höheren Strombelastbarkeit versehen wurden. +12 V war zu dieser Zeit noch relativ uninteressant, aber dennoch eine Versorgungsspannung, die bereits eingesetzt wurde. Zur allgemeinen Aufklärung ist hinzuzufügen, dass +3,3 V heute in aller Regel von +5 V abgeleitet wird, weshalb die rote Markierung in den Bildern bis hin zur orangen Fläche übergeht.



    Nach dem sich die Leistungsträger wie CPU und Grafikkarte seit einiger Zeit schon Strom von +12 V genehmigen, schrumpften +5 V und +3,3 V etwas und sind vor allem noch für Peripheriegerätschaften und einige Logikschaltkreise wichtig, wobei diese verhältnismäßig wenig Leistung benötigen. Nun kam allerdings das Problem auf, dass +12 V derart verstärkt werden musste, dass man langsam an das Strom-Limit kam, das als sicher betrachtet wurde.



    Die Folge der Limitierung war, was Intel erstmals mit ATX 2.0 eingeführt hat, dass die +12 V Leitungen aufgeteilt werden. 20 A wurden als Obergrenze gesetzt, da sich diese im Falle eines Überstroms recht einfach absichern lassen. Allerdings hatte Intel damals nicht bedacht, dass 20 A irgendwann einmal zu wenig sein könnten. Leiterbahnen bis 20 A sind schließlich kein unbegrenztes Transportmedium.



    Um die mittlerweile relativ geringe Strombelastbarkeit einer Schiene auszugleichen, werden die Anschlüsse entsprechend auf mehrere verteilt. So ist eine +12-V-Leitung für die CPU gedacht, andere wiederum für die Peripherie oder für PCIe-Stecker zur Versorgung der Grafikkarte. Dementsprechend haben stärkere und teurere Netzteile meist mehrere dieser Schienen, was allerdings zum Trugschluss führt, dass mehr automatisch besser ist. Mehrere Schienen wurden schlicht und ergreifend notwendig - zumindest wenn man sich an das 20-A-Limit gehalten hat.



    Einige Hersteller umgingen die Limitierung und nutzen ein Layout mit mehreren Schienen, um sie anschließend im Nachinein wieder zu einer großen zusammenzuschließen. Das mag zunächst wirr und unüberlegt erscheinen. Einerseits greifen manche Anbieter auf vorhandene Netzteilkonstruktionen zurück, da sie nicht selbst produzieren, andererseits ist es rein elektronisch betrachtet auch so eine einzige Stromquelle, die im Nachhinein aufgeteilt wird. Je nach Ideologie war es relativ einfach, den Überstromschutz zu entfernen und die einzelnen Schienen wieder mit einer Drahtbrücke zu verbinden.



    Nun gibt es Netzteile, die auch über 1000 W und sogar 1500 W bereitstellen können. Demenstprechend sind mehr und größere Bauteile nötig. Auch bei den Haupttransformatoren wird heute sehr gerne ein zweiter verbaut, damit sich lokal eine geringe Verlustleistung ergibt und die elektronische Last adäquat aufgeteilt wird. Hier übernimmt der eine Trafo die Umwandlung in die kleinen Schienen, während der andere ausschließlich +12 V generiert. Anmerkung: Dieser Aufbau ist heute absolut unüblich. Oft werden beide Trafos für +12 V verwendet und anschließend via Abwärtswandler auf +3,3 V bzw. +5 V runtergeregelt.



    Eine andere Methode ist es, dass beide Transformatoren alle notwendigen Spannungen bereitstellen und die Leistung beider nachher zusammengefasst wird. Zumal es bei hoher +12-V-Belastung nicht unbedingt vorteilhaft ist, einen Trafo lediglich für +3,3 V und +5 V bereitzustellen. Welche Methode man auch immer anwendet, jede hat ihre Vor- und Nachteile.

    [break=Marktsituation]
    Leider ist es so, dass nicht jeder Leser sein Netzteil aufschrauben kann oder will und man sich beim Kauf oft an Äußerlichkeiten und seit einiger Zeit besonders an dem 80Plus-Zertifikat orientiert. Man kann es nicht anders formulieren, als das diese Vorgehensweise kaum dazu führen wird, ein einwandfreies Produkt zu erhalten. Denn ein Hochglanzgehäuse mit Leitungssträngen im Nylonmantel ist zwar ansehnlich, der ein oder andere Hersteller wird das allerdings sicherlich als Köder nutzen. Wenn man dann noch mit einem leisen Lüfter wirbt, fällt es manchmal schwer, dem scheinbar günstigen Angebot zu widerstehen. Vor allem bei Endkundenpreisen weit unter 50 EUR. Es wird nach der Maxime gehandelt "was der Kunde nicht sieht, kann er nicht bemängeln", weshalb die Produzenten interessanterweise gerade daran sparen, was dem Netzteil eigentlich seinen Namen gibt - der Elektronik. Dies findet scheinbar oft weniger Beachtung als die Hülle. Auch hier sei gesagt, dass natürlich nichts gegen ein gutes Aussehen oder eine modern geregelten Kühlung spricht und diese sogar erwünscht sind, aber ohne die nötige Sicherheit nützen einem diese Eigenschaften relativ wenig. Wer jetzt vermutet, dass man das Bankkonto plündern muss, um ein gutes Netzteil zu erhalten, den können wir beruhigen. Der Markt hat sich durch die Vielfalt an Geräten insofern positiv entwickelt, dass sich die diversen Anbieter gegenseitig mit Preisen unterbieten wollen und mittlerweile auch viele gute Produkte unterhalb von 500 W zu finden sind. Seit jeher stellen auch die OEM-Netzteile diverser Anbieter wie Fortron oder Seasonic recht günstige Alternativen zu preisnahen Noname-Fabrikaten dar. Und trotz des oben genannten Ratschlags kann man sich im untersten Budgetsegment durchaus an 80Plus-Zertifikaten orientieren. Mit dieser Auszeichnung werden mehr und mehr Billiganbieter in die Ecke gedrängt. Wer mit alten AT-Netzteilen wirbt oder gute Bauteile zurückhält, wird diese Auszeichnung gar nicht erst erhalten. Somit fallen sie als Kaufoption schlicht und ergreifend weg. 80Plus ist in dieser Hinsicht durchaus hilfreich.

    Weiterhin ist es notwendig, auf Kriterien wie eine aktive Leistungsfaktorkorrektur, realistisch wirkende Combinedleistungen und vertraute Marken zu achten. Hierzu eignen sich Preisvergleichsseiten. Wenn man beispielsweise ein 500-W-Modell für 25 EUR findet, wird man feststellen können, das konkurrierende Unternehmen vergleichbare Produkten zu weitaus höheren Preisen anbieten. In dem Fall kommen die Preisunterschiede meist durch bessere Kondensatoren, Halbleiter und Lüfter zu Stande. Natürlich gibt es aber auch Ausnahmen. Es gibt weiterhin Hersteller, die bewusst falsche Angaben in die Produktangaben setzen, um dem Kunden Fähigkeiten zu suggerieren, die gar nicht existieren. Insbesondere bei der Tabelle für die Leistungen sollte man daher auf die Combinedangaben achten. Wenn der Anbieter einfach die Strömstärken addiert hat, um zu seiner Gesamtleistung zu kommen, so ist diese Beschriftung falsch. Auch auf die spezifizierte Temperatur und MTBF sollte man achten. Einzelne Schienen zeigen lediglich die maximale Belastbarkeit unter Extrembedingungen (sog. Peakwerte), nicht aber die erbrachte Dauerleistungen. Die dann vom Käufer falsch eingeschätzte Realleistung führt im schlimmsten Fall zu einer Überlast und wenn dann die Sicherheitsvorkehrungen wie der Überlastschutz fehlen, brennen Bauelemente wie Dioden wegen des hohen Stroms durch. Der Fall mag zwar nicht allzu oft eintreten, jedoch besitzt auch ein Auto keinen Airbag in der Erwartung, dass der Fahrer bei jedem Ausflug gegen die Wand fährt, sondern um im Fall der Fälle die Sicherheit zu gewährleisten. Es ist jedenfalls beruhigend, wenn Sicherheitsmechanismen vorhanden sind. Hierzu empfehlen wir, zwei bis drei Netzteiltests zu lesen, bevor die Kaufentscheidung getroffen wird. Die Garantie sollte übrigens nicht als Kriterium herhalten. Große Zahlen sagen noch nichts über die Servicequalität in RMA-Fällen aus.

    Identifikation des Herstellers





    Hier sehen wir zwei (fast) identische Netzteile, obwohl das mit den orange lackierten Kühlkörpern von Xigmatek stammt, während das mit den schwarz eloxierten Kühlkörpern und anderen Kondensatoren von Corsair kommt. Der Grund für die Ähnlichkeit ist der, dass beide ODM-Kunden beim bekannten Hersteller CWT sind. Auch bei anderen Anbietern sieht es ähnlich aus. Obwohl viele meist mit unterschiedlichen Eigenschaften werben, sind spätestens nach dem Öffnen die Gemeinsamkeiten offensichtlich.

    Viele User wissen bereits, dass es diverse Anbieter, aber nur wenige echte Produzenten gibt. Identifizieren kann man se durch die so genannte UL-Zertifizierungsnummer, z.B. E123456, die auf dem seitlichen Aufdruck eines Netzteils zu finden ist und bei allen Netzteilen angegeben wird, die in den USA verkauft werden sollen. Manchmal ist diese aber etwas trügerisch, da manche Anbieter ihre eigenen Nummern zugeteilt bekommen. Dann muss man versuchen, durch das Lüftergitter hindurch die Elektronik zu identifizieren oder einfach das Gehäusedesign zu betrachten.

    Allgemein


    --> Herstelleridentifikation

    Hier könnt ihr die UL-Nummer eures Netzteils eintragen und findet so Informationen zum tatsächlichen Hersteller, ohne das Netzteil öffnen zu müssen. Allerdings sollte man beachten, dass die Angaben dort nicht immer korrekt sind. Manch einer wird sich auch etwas unter der Abkürzung OEM (Original Equipment Manufacturer) oder ODM (Original Design Manufacturer) vorstellen können und denkt dabei nicht zuletzt an Komplettsysteme von Dell oder Fujitsu Siemens. Diese bekommen von ihren festen Partnern aus aller Welt speziell auf ihre Systeme abgestimmte Hardware, die gewissen Qualitätsvorstellungen entsprechen müssen. So auch bei den Netzteilen, die meist von namenhaften Herstellern kommen, ohne das dabei Transparenz gewährt wird. Man kann bei Komplettsystemen davon ausgehen, dass die Netzteile bestimmten Mindestanforderungen genügend müssen und daher keinesfalls schlecht sind. Problematisch wird es jedoch, wenn derartige Kooperationen auch auf den Endkundenmarkt zutreffen. Ein Netz aus kleineren Händlern konfiguriert seine eigenen PCs, ohne großartige Qualitätstests durchzuführen. Zudem wissen viele Kunden sicherlich nicht, wer hinter dem Label auf seinem Netzteil steckt, da mitunter kein Name genannt wird.

    Für alle Leser, die nun neugierig geworden sind und einen kleinen Blick hinter die Kulissen werfen wollen, ist die folgende Abschweifung in die Welt der ODMs gedacht. Aus den Netzteiltests und dank der Herstellerkontakte sind uns die meisten ODMs hinter den Marken bekannt. Zunächst einmal sollte festgehalten werden, dass man die Marken in zwei wesentliche Gruppen unterteilen kann. Diejenigen, die selbst herstellen und jene, die es nicht tun.

    Zum einen gibt es die Hersteller, die von der Entwicklung des Designs bis hin zur Endkontrolle und Qualitätssicherung alles selbst durchführen und unter eigenem Namen oder bei Komplettsystemherstellern ihre Produkte mit enormer Reichweite verkaufen, aber mehr oder weniger auch andere an ihrer Technik teilhaben lassen. Hier sind folgende Firmen zu nennen: Seasonic, FSP, HEC, CWT und Enermax sowie Enhance oder HuntKey. Diese zählen auch zu den größeren Produzenten. Beispielsweise kann FSP monatlich ca. 1.500.000 Schaltnetzteile produzieren ( Stand 2009 ). OEMs wie Delta Electronics, AcBel und LiteOn sind noch gewaltiger in Sachen Massenanfertigung und produzieren alles vom einfachsten 10-USD-Netzteil ohne PFC bis hin zu 80Plus Gold zertifizierten Geräten. Jedoch sind speziell die letzten drei Hersteller kaum im consumer-Bereich vertreten, da sie dort mit ihren Kunden konkurrieren würden und es deutlich wichtigere Märkte gibt. Es gibt auch OEMs/ODMs, die deutlich kleiner als so manche Endkundenmarken sind. Hierzu zählt beispielsweise Win-Tact, die redundante Netzteile für Server oder Netzgeräte für Netzwerkkomponenten und Automaten bauen. Sie verdienen ihr Geld vor allem durch hohe Gewinne / Produkt.

    Nun kommen wir zu den Anbietern, die bei anderen herstellen lassen, also nicht mehr zu den OEMs zählen, aber komplett eigene Layouts entwickeln. Sie verfügen eben nicht über genügend Geldmittel für die Produktionsanlagen. PC Power & Cooling fällt z.B. in dieses Muster. Als dritte Gruppierung sind Anbieter zu nennen, die zwar bei anderen Unternehmen einkaufen und Produkte anfertigen lassen, aber zumindest eigene Vorstellungen einbringen. Von Steckern bis hin zu ganz konkreten Bauteilen bei der Elektronik. Dazu zählen Corsair oder auch Listan (be quiet!) und Antec. Zum vierten sind alle Quereinsteiger zu nennen, die Netzteile nur als einen von mehreren wichtigen Geschäftsfeldern sehen (SGF). Sie kaufen Standarddesigns und lassen alles extern bauen ohne selbst über größeres Fachwissen zu verfügen. Hier ist wirklich oft nur das Etikett ein neues. Dazu zählen beispielsweise ADATA oder Sharkoon. Viele Marken wie OCZ wechseln den Hersteller auch sehr oft, da sie vor allem nach dem günstigsten Angebot suchen. Wenn eine Marke einen günstigen Hersteller findet, folgen oft viele andere Anbieter. Der Vorteil ist, dass sie durch diese Flexibilität immer das günstigste Design auswählen können und der Hersteller die Preise weiter senkt, was nicht immer auf eine schlechtere Qualität zurückzuführen ist. Fassen wir abschließend die Eigenschaften zusammen, mit denen man beim Kauf schlecht Produkte grob identifizieren kann:

    Merkmale und oft vertretene Indikatoren eines Billignetzeils:

    • Unrealtistisch günstige Preise für die gebotenen Features sowie Marketingkraftausdrücke (Super Silent) bei Standardeigenschaften.
    • Passive statt aktiver Leistungsfaktorkorrektur als auch das fehlende oder gefälschte 80Plus-Logo
    • Starker Spannungsabfall unter Last, was sich mit einem günstigen Multimeter zumindest nach dem Kauf herausfinden lässt
    • Minderwertige Komponenten und Materialien mit hoher Temperaturabhängigkeit, wozu ein blick auf die Elektronik notwendig ist
    • Mäßige Verarbeitungsqualität wie scharfkantige Gehäuse
    • Sehr hohe Temperaturen der Abluft
    • Nicht der Realleistung entsprechende Nennleistung und fehlende Combinedwerte
    • Gefälschte Symbole wie das CE-Zeichen.
    • Sehr wenige Anschlüsse für den angegebenen Leistungsbereich (im Vergleich zur Konkurrenz).


    Das problematische an der Auswahl eines Stromversorgers ist insbesondere das übertriebene Marketing bezüglich einiger Produkteigenschaften. Beispielweise haben Netzteile ohne 80Plus-Auszeichnung kaum eine Chance am Markt, selbst wenn sie hochwertig sein sollten. Viele Kunden sehen nun mal gerne möglichst viele Awards und "unabhängige" Zertifikate. Doch auch Themen wie 80Plus sollten kritisch betrachtet werden, angesichts dessen, dass die Initiative bei 115 VAC / 60Hz ihre Messungen durchführt, was für unser Stromnetz keine Relevanz hat. Zudem ist die Belastung zwar an ATX 2.3 angelehnt, nicht aber zu 100 % identisch. Überdies führt EPRI (Electric Power Research Institute) im Grunde nur vier Messungen durch. Die Effizienz bei 20 %, 50 % und 100 % sowie den Leistungsfaktor bei 50 % Last, welcher bei 0,95 oder mehr liegen sollte. Das sind weitaus weniger Details, als die meisten Artikel im Internet aufzeigen, zumal man sich das Testverfahren gut bezahlen lässt. Es wird auch nicht überprüft, ob das verkaufte Modell tatsächlich dem Testmuster entspricht.

    Wir möchten das ganze Projekt keinesfalls schlecht reden, es aber aus einem anderen Blickwinkel betrachten. Im geringen Leistungsbereich ist 80Plus durchaus ein Qualitätsmerkmal, da die Netzteile voll belastet werden. Wäre da nicht der Nachteil, dass nahezu jeder Hersteller „golden samples“ (modifizierte Muster) einsendet mit kürzeren Leitungen, um den Leitungswiderstand zu verringern oder bessere Bauteile verwendet. Die Verkaufsversion muss also nicht zwangsläufig mit dem dort getesteten Modell übereinstimmen. Auch 80Plus Gold oder Platinum sollten nicht überschätzt werden. Natürlich ist eine hohe Energieeffizienz gut, die Frage ist nur, zu welchem Preis sie erkauft wird. Dabei gilt es zu beachten, dass die Netzteile für das 80Plus-Gold-Zertifikat stark modifiziert werden müssen. Beim ersten Netzteil dieser Art von Sirtec wurden die Schaltfrequenzen so angepasst, dass die Emission an elektromagnetischen Störungen nicht mehr innerhalb der geltenden EN-Norm lag. Dabei sind Normen anders als bei Richtlinien oder dem ATX-Design verpflichtend. Zudem ist der Unterschied zwischen 80Plus Silver und Gold gerade mal mit 2 Prozentpunkten angeben, womit niemand den Inhalt seines Geldbeutels, geschweigedenn die Umwelt retten kann. Da 80Plus Gold aber nun mal besser aussieht und die Hersteller auch mehr kostet, muss man teils mit exorbitanten Preisen rechnen. Während ein gängiges 500-W-Netzteil mit 80Plus vielleicht 30 USD in der Produktion kostet, liegen Bronze- und Silver-Produkte vielleicht nur 5 USD darüber - in höheren Leistungsbereichen möglicherweise auch 10 USD. Zwischen Silver- und Gold- Netzteilen ist der Preisabstand um einiges höher, zumal einige Platinum-Netzteile noch nicht voll ausgereift sind. Wir empfehlen, den Effizienz-Hype nüchtern zu betrachten und auch auf andere Kriterien zu achten.

    [break=Netzteilfertigung]



    Der wesentliche Teil der Netzteile wird im Raum Shenzhen in China produziert. Die Hauptgeschäftsstellen oder Entwicklungszentren sitzen meist in Taiwan oder den USA. SilverStone zeigt hier ein kurzes, aber interessantes Video zum Thema Netzteilherstellung in einer der moderneren Fabriken. Die Fertigung erfolgt bei dem dort gezeigten Modell automatisch am Laufband und primär durch Roboter. So wird etwa die Wärmeleitpaste bei den Halbleitern maschinell aufgetragen und auch die Anbringung und Verklebung erfolgt durch einen Roboterarm. Beim Lötvorgang wird ein eigenes Tauchbad eingesetzt, wobei die Dauer des Bades entscheidend ist. Wie wir bei unserem Besuch in Taiwan bei einigen Herstellern mitbekommen haben, gibt es allerdings immer noch viele Arbeitsvorgänge, die von Hand durchgeführt werden. Das betrifft vor allem die Qualitätskontrolle, bei denen die Lötstellen geprüft und Funktionalitätstests durchgeführt werden. In vielen Produktionsanlagen setzt man lieber noch auf den geübten Blick erfahrener Mitarbeiter. Oft sind auch die Ingenieure vor Ort, um die Mitarbeiter (die sehr oft ihren Arbeitsplatz wechseln) zu schulen.

    Allgemein


    Nach der Fertigung wird das Netzteil auf Beschädigungen untersucht und muss die Qualitätskontrolle durchlaufen. Hierbei kommen in aller Regel professionelle Geräte zur Belastung zum Einsatz. In der Entwicklung sind EMV-Räume und Wärmekammern notwendig. Einige Mitarbeiter beschäftigen sich damit, Netzteile einem Fall- oder Rütteltest zu unterziehen, um deren Robustheit regelmäßig zu überprüfen und um zu kontrollieren, ob die Komponenten fest genug angelötet wurden. Auf dem Bild sehen wir sehr deutlich, dass Hersteller wie Enermax zusätzliche Tests mit gängigen PC-Systemen durchführen. Gerade, wenn man High-End-Geräte auf die verschiedensten Rechnerkonfigurationen mit SLI -bzw. CrossFire-Plattformen abstimmen und die Kompatibilität zu aktuellen Hauptplatinen gewährleisten möchte, ist das erforderlich. Schließlich gibt es fast unbegrenzt viele Kombinationsmöglichkeiten bei der Hardware.

    Was wird die Zukunft des Schaltnetzteils sein?

    Trotz 80Plus Platinum lässt sich der Wirkungsgrad weiterhin steigern. Bei SuperFlower, die mit ihren regulären Produkten momentan am weitesten sind, spekuliert man über 80Plus Titanium. Mit einem Wirkungsgrad von über 95 % und aktuellen Schaltungen wird sich in Zukunft vor allem eines ändern: Die Bauteil- und Gehäusegröße. Bereits heute wird der Trafo durch die Auswahl eines geeigneten Ferritkerns bei sog. Phase-Shift-Convertern massiv verkleinert. Durch Nullstrom- (ZCS) oder Nullspannungsschaltung (ZVS) und aktuellsten Transistoren, die in letztere Zeit immer weniger Leitendverluste aufweisen, können die Kühlkörper verkleinert werden. Irgendwann werden Transistoren, die im Spannungswandler hohe Ströme leiten, im PWM-IC untergebracht. In Mikrocontrollern sind zwar bereits Transistoren verbaut, diese übernehmen jedoch eine andere Funktion als in Spannungswandlern. Dass diese Überlegung keinesfalls abwegig ist, zeigt heute bereits die Synchrongleichrichtung. Shottky-Dioden werden hier durch in Rückwärtsrichtung betriebene Transistoren ersetzt, die als SMD (auf der Rückseite montierte Bauteile mit einem kleineren Halbleitergehäuse) aufgebracht und mit nur kleinen Kühlkörpern bestückt werden. Die meisten passiven Bauteile lassen sich aber nicht unbegrenzt verkleinern, genauso, wie die Schaltfrequenz nicht einfach erhöht werden kann. Der Fortschritt kostet Zeit.

    Weitere Artikel
    -> Kommentare


    [break=Anhang: Begriffsammlung]
    Abnehmbare Anschlüsse:

    Diverse Netzteile verfügen heute über ein Kabelmanagementsystem, korrekterweise eigentlich Leitungsmanagement, da Kabel unter der Erde verlegt werden. In der Regel münden die Ausgangsleitungen auf einer separaten Platine wo die Energie an Steckersockel weitergegeben wird. Meistens werden dort weitere Pufferkondensatoren angebracht, Enermax hat bei seinen Revolution85+ sogar den kompletten Gleichstromwandler dort hin verlegt. Vorteil ist, dass man meiste abgesehen von den Hauptleitungen nur die Leitungsstränge anschließen muss, welche man tatsächlich benötigt. Das sorgt für mehr Sauberkeit im Gehäuse und verbessert mitunter den Luftstrom. Probleme gibt es, falls die Steckersockel nicht unterschiedlich kodiert wurden und man Anschlüsse falsch anbringt. Durch zu lockeres Anstecken können Übergangswiderstände entstehen. Wir haben bereits geklärt, dass der Leitungsquerschnitt mit dem Widerstand zusammenhängt. Wird die Leitung zu locker angeschlossen, besteht nur eine kleine Kontaktfläche, sodass der Querschnitt geringer wird. Ergo haben wir mehr Widerstand, ein wenig Spannung fällt ab und der Wirkungsgrad sinkt.



    Aktive Bauelemente:

    Aktive Komponenten sind steuerbar und haben eine Verstärkerwirkung. Hierzu zählt auch der auch integrierte Schaltkreis (IC für "Integrated Circuit"), der sich aus mehren Einzelfunktionen und Schaltungen auf einem einzigen Chip zusammensetzt. Der IC übernimmt verschiedene Funktionen gleichzeitig und wird extern mit einigen zusätzlichen Komponenten beschaltet (Z.B. RC-Filtern, siehe Seite 3). Im Schaltnetzteil steuert er die Transistoren, überwacht die Ausgangsspannung und generiert eine Power_Good-Spannung. Die zuletzt genannte wird an den PC weitergeleitet und vermittelt, dass sich die Betriebsspannung innerhalb der Toleranz befinden. Bei starken Abweichungen (nicht nur beim Anlaufen), also im Fehlerfall, schaltet sich das System aus. Passive Komponenten sind Kondensatoren, Drahtwiderstände und Spulen, die solche Funktionen nicht durchführen können.

    Amplitude:

    Wir haben die Effektivspannung der Wechselspannung als deren Wertigkeit beschrieben, die einer Gleichspannung entspricht. In der Realität verläuft die Wechselspannung sinusförmig und deren höchster Punkt äußert sich in einer Amplitude, also der maximalen Auslenkung (einfacher Schwingung) bis + oder -325 V.

    Elektrische Spannung:

    Die elektrische Spannung mit der Einheit Volt ist eine Größe, mit der die Potenzialdifferenz zwischen zwei Polen beschrieben wird. Das Potenzial wiederum sagt aus, wie viel Arbeit notwendig ist, um einen Ladungsträger (Elektronen) von Punkt A nach Punkt B über eine Strecke zu bewegen. Spannung ist die Voraussetzung für Strom.

    Elektrischer Strom:

    Der elektrische Strom mit der Einheit Ampere ist eine Größe, welche die gerichtete Bewegung von einer bestimmten Anzahl an Elektronen oder anderen Ladungsträger auf einer definierten Strecke beschreibt. Das Produkt aus Strom und Spannung ist die Leistung.

    Elektrischer Widerstand:

    Der elektrische Widerstand mit der Einheit Ohm ist eine Größe, die aussagt, wie viel Spannung nötig ist, um einen bestimmten Strom zu transportieren. Der Widerstand ist also ein Hemmnis für den Stromfluss, der vom Material und den Umgebungsbedingung abhängt. Im Leiter befinden sich frei bewegliche Ladungsträger, die gegen andere Atome stoßen und so den Stromfluss verhindern.

    EMV:

    Elektromagnetische Verträglichkeit. Elektronische Geräte emittieren elektromagnetische Störungen (Strahlung). Über einen Kopplungsweg (bei Strahlungen eine Luftstrecke) gelangen diese von der Störquelle (dem Verursacher) zur Störsenke (dem Betroffenen) und führen zur Beeinträchtigung der Funktionalität. Ein Gerät wie das Schaltnetzteil emittiert aber nicht nur Störungen, sondern ist auch eine Störsenke. Man spricht von Immission. Das Netzteil muss zur Sicherstellung der EMV eine möglichst hohe Störimmunität haben und darf auch nicht zu viel Strahlung emittieren. Andere Störungen sind die galvanische, magnetische oder kapazitive Kopplung. Die dabei entstehenden Gleich- und Gegentaktstörungen wurden auf Seite 3 besprochen (EMI-Filterung).

    Frequenz:

    Die Frequenz beschreibt die Anzahl von Schwingungen pro Sekunde. Dieser Begriff wurde bereits auf Seite 2 angesprochen.

    Impedanz:

    Mit der Impedanz wird der Wechselspannungswiderstand angegeben. Impedanzen können aber auch in Gleichstromkreisen relevant sein. So wird bei einigen passiven Bauelementen ein Scheinwiderstand angegeben, der zum Teil die Verlustleistung definiert. In unserem Zusammenhang wurde die Quellimpedanz genannt, also ein Widerstand, der mit dem Abfall einer Störspannung die Störquelle bildet.

    Kommutierung:

    Wenn ein Halbleiter den Stromfluss eines anderen Halbleiters "übernimmt", spricht man von Kommutierung. Bei den im Artikel erwähnten Schaltungen wird beispielsweise der Transistor im Sperrwandler ausgeschaltet und der Strom wird auf die Diode im Sekundärschaltkreis kommutiert.

    Komparator / Subtrahierer / Operationsverstärker:

    Der Komparator und der Subtrahierer sind Variationen des Operationsverstärkers. Der Operationsverstärker verstärkt Spannungen, auch wenn das eine sehr einfache Beschreibung für die Vorgänge ist. Die Basis bildet ein Differenzverstärker. An seinem positiven und negativen Eingang vergleicht er zwei Eingangsspannungen und multipliziert sie gemäß ihrer Vorzeichen mit dem Verstärkungsfaktor. An den Ausgang wird die Verstärkung der Differenz aus den beiden Eingangsspannungen gelegt. (Teils interne) Schutzschaltungen sind notwendig, um das Bauteil zu betreiben. Den Ausgang bildet ein Gegentaktverstärker.

    Kondensator:

    Der Kondensator speichert Energie im elektrischen Feld. Er besteht aus zwei Elektroden, die von einem nicht-leitfähigen Dielektrikum getrennt werden. Beim Ladevorgang steigt die Spannung auf den Scheitelwert, bis der Kondensator (fast) vollständig geladen ist und sperrt. Der Anfangs hohe Strom sinkt beim Ladevorgang ab.



    Leiterplatte / PCB:

    Fast alle elektronischen Komponenten werden auf einer Leiterplatte aufgebracht. Früher wurden die Komponenten einfach aneinandergelötet, was bei komplexen Schaltungen eher hinderlich ist. Diese Platine kann aus einem einfachen Hartpapier-Phenolharz-Gemisch bestehen. Diese Kombination bezeichnet nichts anderes als günstiges Pertinax. Eine EP-Platine aus gefestigtem Polyether läge darüber hinaus im Bereich des möglichen, angesichts der besseren Temperaturfestigkeit und zusätzlicher Kriechstromkompensation. Kriechströme können an der Oberfläche der Isolierstoffe entlang fließen, wo der Widerstand an sich geringer als im Materialinneren ist. Mit einer geringeren Feuchtigkeitsaufnahme ist Epoxidharz besser geeignet, zumal sich Hartpapier unter Wärmeeinwirkung zu einem Leiter zersetzen kann. Selbst wenn man die Fläche durch Imprägnierung schützt, ist dies nur die zweite Wahl. Erkennen kann man die Beschichtung übrigens an der glatten Oberfläche, während ungeschützte Materialien rauer sind. Wie viel Strom die Leiterbahnen führen können, hängt neben der Breite von der Dicke der Kupferschicht ab (üblicherweise 30 oder 70 µm) und wie viel Lot nachträglich aufgetragen wird.

    MOSFET:

    MOSFETs sind Transistoren, die in Schaltnetzteilen am häufigsten verwendet werden. Sie werden von ICs ein- und ausgeschaltet und sind ein aktives Bauteil. Um den Transistor zu verstehen, müssen wir zunächst den Begriff Dotierung klären. Ein Transistor besteht aus mehreren P(ositiv)- und N(egativ)-dotierten Schichten. Hier wird in das Siliziumgitter ein Stoff hinzugefügt, der entweder ein Elektron (negative Ladung) mehr oder ein Elektron weniger als Silizium hat. Sie sind damit geladen. Nun hat der Transistor einen Source- (Quelle) und einen Drainanschluss (Abflusselektrode). Beide seien N-dotiert und werden von einem P-dotierten Bereich umgeben. Er verfügt außerdem über einen Gate-Anschluss, bei dem eine Spannung (z.B. von der PWM-Steuerung, siehe Seite 4) angelegt wird. Der Gate-Anschluss wird mit einem Dielektrikum vom P-dotierten Bereich getrennt. Zusammen mit einem Bulk-Anschluss auf der anderen Seite des MOSFETs und dem Dielektrikum bildet der Gate-Anschluss einen Kondensator, der durch sein elektrisches Feld (FE = Feldeffekt) dazu führt, dass ein schmaler Bereich zwischen den beiden N-dotierten Source- und Drain-Anschlüssen ebenfalls N-dotiert wird und leitet. Damit wäre auch der Begriff Gate (Tor) geklärt.

    MOV:

    Den MOV (Metall-Oxid-Varistor) als passiven Überspannungsschutz haben wir auf Seite 3 behandelt. (EMI-Filterung)



    MTBF:

    Die Mean Time Between Failures wird (selbst bei Herstellern) oft mit der Lebensdauer verwechselt. Zur Feststellung der MTBF wird eine bestimmte Anzahl an Produkten unter definierten Bedingungen (Temperatur, Last) für eine bestimmte Zeit betrieben. Dabei wird festgestellt, wann und wie häufig es zu einem Ausfall kommt. Ironischerweise spezifizieren viele Hersteller ihre Netzteil ohne Überprüfung auf einen Wert von 100.000 Stunden bei 25 °C, da dies im ATX-Design-Guide so gefordert wird. Teilweise werden dann aber Lüfter mit einer MTBF von 50.000 Stunden verbaut.

    Normen und Richtlinien:

    Um ein Produkt in bestimmten Märkten verkaufen zu dürfen, sind verschiedene Sicherheitsmerkmale vorgeschrieben, die mit dem Aufbringen von bestimmten Prüfzeichen wie CE (Niederspannungsrichtlinie) garantiert werden. Das betrifft beispielsweise auch die EMV, bei der in Europa bestimmte Sollwerte in der EMV-Tafel vorgeschrieben sind. Es handelt sich um Normen, weshalb die einzelnen EU-Länder zur Umsetzung und Kontrolle verpflichtet sind. Richtlinien lassen sich hingegen eher als wünschenswerte Umsetzungen der einzelnen Länder und damit auch Hersteller beschreiben. Der ATX-Design-Guide muss nicht verpflichtend erfüllt werden. Ein PC-Netzteil, wie wir es testen, sollte aber als ATX-Netzteil ausgelegt sein, damit es zum PC kompatibel ist. Es existieren weitere Regelungen durch die Industrie (siehe TFX, SFX). Für genauere Auskünfte zu den EN-Normen empfehlen wir einen Blick auf VDE.com, wo die DIN-VDE-Normen näher definiert werden.

    OCP, OVP, UVP, OPP, OTP, SCP:
    • OCP: Over Current Protection
    • OVP und UVP: Over Voltage Protection, Under Voltage Protection
    • OPP: Over Power Protection
    • OTP: Over Temperature Protection
    • SCP: Short Circuit Protection


    Ripple:
    Von Ripple, Ripplestrom, oder besser Ripplespannung spricht man, wenn die Ausgangsspannung, die eigentlich eine Gleichspannung sein sollte, von Wechselspannungsanteilen überlagert wird. Eine ideale Gleichspannung ist nicht mit Netzspannung zu erreichen. Komponenten wie der Kondensator werden durch Ripplespannung stark erwärmt. Nur Überspannungen und Falschpolung sind noch schlimmer, da das Dielektrikum zerstört wird. Die Beeinträchtigung durch Ripplespannung ist oft ein schleichender Prozess.

    Spannungswandler:

    Der Spannungswandler wurde detailliert auf Seite 4 behandelt.

    Spule/Drossel:

    Die Spule besteht aus mehreren Wicklungen um einen magnetischen Kern. Ändert sich der Strom, wird eine Spannung induziert. Ein Magnetfeld entsteht, in dem elektrische Energie gespeichert wird. Sie wurde auf Seite 3 behandelt (EMI-Filterung).



    Transformator:

    Dabei handelt sich sich um zwei Spulen auf einem gemeinsamen Kern. Das Bauteil wurde am Anfang der Seite 3 angesprochen. Auch eine Definition der Begriffe Primär- und Sekundärschaltkreis befinden sich dort.

    Wärmekonvektion:

    Die Wärmekonvektion durch den Lüfter ist eine Methode zur Übertragung der Wärme von einem Ort an den anderen. Genauer gesagt werden dabei kleinste Teilchen, welche die thermische Energie tragen, durch den erzeugten Luftdruck in Bewegung versetzt. Die Wärme wird von den Bauteilen abtransportiert, um die Temperatur zu senken.

    Wirkungsgrad und Leistungsfaktor:

    Der Wirkungsgrad (auch Effizienz) gibt das Verhältnis der aufgenommenen zur abgegebenen Leistung an. Die Differenz muss als Verlustleistung abgeführt werden. Da der Strom und die Spannung in einigen Anwendungen phasenverschoben verlaufen, erscheint die Leistung höher, als tatsächlich an Leistung zur Verfügung steht. Man spricht von Scheinleistung. Sie setzt sich aus der Blindleistung und der tatsächlich nutzbaren Wirkleistung zusammen. Ihr Verhältnis wird mit dem Leistungsfaktor angegeben.

    X-und Y-Kondensator:

    Der X- und der Y-Kondensator wurden auf Seite 3 behandelt (EMI-Filterung). Sie dienen zur Entstörung.

  2. Die folgenden 39 Benutzer sagen Danke zu soulpain für diesen nützlichen Beitrag:

    Atlan78 (10.07.2011), Black-Byte (21.06.2013), chemiker494 (10.07.2011), cologne46 (12.07.2011), CrazyStrump (10.07.2011), Denniss (10.07.2011), deoroller (30.06.2013), der_Schmutzige (10.07.2011), Der_Ventilator (10.07.2011), Dierk (10.07.2011), Frosdedje (10.07.2011), hirschi-OC (28.04.2012), ICEMAN (10.07.2011), Kona (10.07.2011), Loader009 (10.07.2011), mapim (10.07.2011), Micky1980 (10.07.2011), Morrich (10.07.2011), MrBad (10.07.2011), Opteron (10.07.2011), orpheus2k (11.07.2011), Rabe (10.07.2011), radinger (10.07.2011), Ric (10.07.2011), Sagi T 754 (10.07.2011), schiggung (25.07.2011), Schwarzmetaller (10.07.2011), Sefegiru (10.07.2011), SemtexX_ (10.07.2011), skibice (10.07.2011), starbuck567 (10.07.2011), TAL9000 (10.07.2011), tex_ (10.07.2011), towatai (11.07.2011), unterstudienrat (10.07.2011), Ventus2cx (11.07.2011), wolle23 (10.07.2011), x545 (25.09.2011), zwergnase (11.07.2011)

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •  
Single Sign On provided by vBSSO