Klopfers Link- und Lichtbild-Deponie


Hier gibt's kurze Kommentare, Links und Bilder - nicht nur von Klopfer selbst.

Hier steht, wie du selbst etwas posten kannst. Bitte beachte dabei die Regeln.

Zurück zur Hauptseite der Deponie



Mandarine (Profil)
Kommentar melden Link zum Kommentar

Ist ja nun nichts wirklich neues, dass die rapide ansteigende Zahl an Geräten auch mehr Energieverbrauch mit sich bringt. Insbesondere weil auch immer mehr Geräte heutzutage nicht mal mehr einen echten Aus-Knopf mitbringen, und sich bestenfalls nur in den Standby-Modus schalten lassen.

Aber auch abseits davon bringt neue Technologie höheren Energiebedarf mit sich: War früher der Kabelverzweiger noch ein rein passives Element des Telefonnetzes, ist er heute ein Schrank voller Hochleistungshardware mit entsprechendem Energiebedarf. Und selbst im GPON-Glasfasernetz nimmt das nicht ab, auch wenn der Kabelverzweiger wieder durch den rein passiven optischen Splitter ersetzt wird. Stattdessen steigt der Energiebedarf im "Amt" (also im Hauptverteiler) wieder stark an, und macht die Vorteile des passiven Netzes wieder mehr als zunichte.
Aktuelle Mischsysteme (also ehemalige Vectoring-Gebiete, die jetzt mit FTTH ausgebaut werden) stehen sogar noch schlechter dar, weil sie eben keine echten GPON-Netzwerke mehr sind.

0
Geschrieben am
IdefixWindhund (Profil)
Kommentar melden Link zum Kommentar

Also so ... wenn ich an den Verbrauch eines Intel Pentium 4 Prescott denke, verbrauchen die Systeme heute Gesamt weniger, als damals nur alleine die CPU.

Ebenso Fernseher, von Röhre zu sparsamen LCD, zu noch sparsameren LED LCD.

Oder von Glühbirnen, über giftige Energiesparlampen, zu LED Birnen.

Dafür kamen nun 2 Kühlschränke, nicht 1 PC, sondern 5, Radio in jeden Raum, Router, Splitter, Switchs, NAS, ... im Dauerbetrieb, sonst funzt das Netzwerk Zeug gar nicht mehr, ... somit macht man +- 0 Kilowatt Einsparung.

0
Geschrieben am
Mandarine (Profil)
Kommentar melden Link zum Kommentar

Also so ... wenn ich an den Verbrauch eines Intel Pentium 4 Prescott denke, verbrauchen die Systeme heute Gesamt weniger, als damals nur alleine die CPU.


Der war bei Erscheinen eine High-End CPU. Und lag in der Realität deutlich unter aktuellen High-End CPUs. Was heutzutage besser funktioniert, sind Stromsparfunktionen (aktuelle CPUs reduzieren z.B. die Taktung des Busses und können infolge dessen die Kernspannung senken), sodass der durchschnittliche Verbrauch über lange Zeiträume geringer ist, aber der potentielle Höchstverbrauch liegt heutzutage deutlich höher (bei Halbleiterbauteilen lässt sich das ja immer sehr gut an der Hitzeentwicklung feststellen, weil die fast 100% der verbrauchten Energie in Wärme umsetzen).

Übrigens ist gerade Consumer-Netzwerkhardware deutlich energieeffizienter geworden, als noch vor zehn, zwanzig Jahren. Dort sind ja die technischen Entwicklungen deutlich langsamer als in der Industrie, sodass man wesentlich mehr von den gereiften Produkten profitiert.

1
Geschrieben am
IdefixWindhund (Profil)
Kommentar melden Link zum Kommentar

Der war bei Erscheinen eine High-End CPU. Und lag in der Realität deutlich unter aktuellen High-End CPUs.

Was war Anno 2004 den noch besser als ein Intel Pentium 4 570J Prescott? AMD hatte nichts zum entgegen setzen. Und Ernsthafte Konkurrenz kam maximal von Intel selbst, mit dem Intel Xeon Nocona Modellen.

Wenn du den Pentium 4 Prescott mit aktuellen Core i9, respektive Threadripper vergleichen willst, ist es so als ob ich nun sagen würde das die S-Klasse 1999 weniger Leistung hatte, als ein AMG GT heute. Das ist wie Äpfel mit Birnen vergleichen. Ist doch vollkommen logisch. In 20 Jahren steht nichts still.

(aktuelle CPUs reduzieren z.B. die Taktung des Busses und können infolge dessen die Kernspannung senken)
Dies konnten alte Intel CPUs seit Pentium III Coppermine (10.1999) mit Intel Speed Step schon. Respektive AMD CPUs mit AMD PowerNow! ab AMD K6-2+ (1999/2000) ebenfalls.

Ebenso wird beim herunter Takten nicht der FSB/ BCLK (Intel), bzw. Referenztakt (AMD) gesengt. Da dieser Takt auch RAM Geschwindigkeiten, PCI(e) Geschwindigkeiten teils negativ beeinträchtigen würde. Sondern der Multiplikator der CPU wird gesengt. Was alleine nur die CPU betrifft.

sodass der durchschnittliche Verbrauch über lange Zeiträume geringer ist, aber der potentielle Höchstverbrauch liegt heutzutage deutlich höher
Kann man so pauschal nicht sagen. Jeder nutzt seinen PC anders. Ein Büro PC wird sich sein leben lang eher im Stromsparbetrieb befinden, als ein Gaming System, Workstation, oder Server.

In Sachen Höchstverbrauch muss ich dir Recht geben. Der Intel Pentium 4 Prescott 2M 672 kam auf eine TDP von 115W. Der Intel Core i9 9990XE (nicht auf den freien Markt erhältlich/ Nur OEM Only) kommt auf eine TDP von 255W. Im Handel frei erhältlich, den Intel Core i9 9980XE, kommt auf 165W.

(bei Halbleiterbauteilen lässt sich das ja immer sehr gut an der Hitzeentwicklung feststellen, weil die fast 100% der verbrauchten Energie in Wärme umsetzen
Nehmen wir als Beispiel eine Glühbirne, da wird die Energie sehr schlecht umgesetzt, 90% Wärme, und 10% Nutzen (Licht). Selbst bei einer Induktionsherdplatte liegt der Wirkungsgrad bei 80 - 90% der Energie, die fürs Aufheizen genutzt wird. Und da ist es gewünscht die Wärme in Hitze umzuwandeln. Und selbst das schafft man nicht zu 100%. Prozessoren pendeln je nach Ausführung und Modell zwischen 75 - 40% was in Wärme umgesetzt wird. Auch hier keine 100%.

Übrigens ist gerade Consumer-Netzwerkhardware deutlich energieeffizienter geworden, als noch vor zehn, zwanzig Jahren. Dort sind ja die technischen Entwicklungen deutlich langsamer als in der Industrie, sodass man wesentlich mehr von den gereiften Produkten profitiert.

Na ja, früher gab es für den Otto normal Endverbraucher keine Switchs, NAS, Hubs, ... das kam alles erst viel später wo jedes Gerät nun (W)LAN hatte, und die Ports der einfachen Router nicht mehr ausreichten. Und auch immer mehr PCs in einem Haushalt kamen, und ein Zentraler Speicher (NAS) nützlich wurde.

Aber in einem gebe ich dir voll umfänglich recht. Wir als Otto normal Endverbraucher bekommen erst später, dass was sich in der Industrie (Server/ Workstation) etabliert hat. Sowohl auf Hardware, als auch Software Basis. Wobei Microsoft mittlerweile keine großartigen Unterschiede zwischen den Workstation/ und PC Versionen macht.

0
Geschrieben am
(Geändert am 11. Mai 2019 um 8:04 Uhr)
Mandarine (Profil)
Kommentar melden Link zum Kommentar

Was war Anno 2004 den noch besser als ein Intel Pentium 4 570J Prescott? AMD hatte nichts zum entgegen setzen. Und Ernsthafte Konkurrenz kam maximal von Intel selbst, mit dem Intel Xeon Nocona Modellen.

Wenn du den Pentium 4 Prescott mit aktuellen Core i9, respektive Threadripper vergleichen willst, ist es so als ob ich nun sagen würde das die S-Klasse 1999 weniger Leistung hatte, als ein AMG GT heute. Das ist wie Äpfel mit Birnen vergleichen. Ist doch vollkommen logisch. In 20 Jahren steht nichts still.


War ungünstig ausgedrückt, mir ging es um den Energiebedarf. Der lag halt deutlich unter modernen CPUs.

Ebenso wird beim herunter Takten nicht der FSB/ BCLK (Intel), bzw. Referenztakt (AMD) gesengt. Da dieser Takt auch RAM Geschwindigkeiten, PCI(e) Geschwindigkeiten teils negativ beeinträchtigen würde. Sondern der Multiplikator der CPU wird gesengt. Was alleine nur die CPU betrifft.


Es wird der Systembus zwischen CPU und "Cache" (also Registerspeicher) reduziert. Dadurch reduziert sich effektiv die Menge an Rechenzyklen pro Sekunde. Dieser Bus wird allgemein auch als Multiplikator bezeichnet.

Das erklärt auch, warum SpeedStepping und vergleichbare Techniken nicht linear mit der Menge an Kernen skalieren, weil die einzelnen Kerne nicht alle ihren eigenen Registerspeicher haben (Level 1 Cache wäre dafür viel zu teuer), und sich den Speicher teilweise teilen.

Kann man so pauschal nicht sagen. Jeder nutzt seinen PC anders. Ein Büro PC wird sich sein leben lang eher im Stromsparbetrieb befinden, als ein Gaming System, Workstation, oder Server.

In Sachen Höchstverbrauch muss ich dir Recht geben. Der Intel Pentium 4 Prescott 2M 672 kam auf eine TDP von 115W. Der Intel Core i9 9990XE (nicht auf den freien Markt erhältlich/ Nur OEM Only) kommt auf eine TDP von 255W. Im Handel frei erhältlich, den Intel Core i9 9980XE, kommt auf 165W.


Der Office-Rechner wird aber meist aus wesentlich schlechteren Komponenten erstellt sein, und dementsprechend selbst bei Office-Programmen viel schneller an seine Leistungsgrenzen kommen. Und somit dann die maximale Energiemenge benötigen. Zumal Office-Rechner auch oft wesentlich länger im Einsatz bleiben, als Privatsysteme.

Und das Problem mit aktuellen CPUs ist ja auch, dass diese alle nicht nur Energiesparmodi, sondern auch Hochleistungsmodi unterstützen - selbst ein i5 9600k kommt somit ganz leicht auf deutlich über 150W Spitzenlast.

Nehmen wir als Beispiel eine Glühbirne, da wird die Energie sehr schlecht umgesetzt, 90% Wärme, und 10% Nutzen (Licht). Selbst bei einer Induktionsherdplatte liegt der Wirkungsgrad bei 80 - 90% der Energie, die fürs Aufheizen genutzt wird. Und da ist es gewünscht die Wärme in Hitze umzuwandeln. Und selbst das schafft man nicht zu 100%. Prozessoren pendeln je nach Ausführung und Modell zwischen 75 - 40% was in Wärme umgesetzt wird. Auch hier keine


Es geht hier nicht um Energieeffizienz, sondern um "verbrauchte" Energie. Feldeffekttransistoren machen mit der Energie die sie "verbrauchen" nichts, außer Ladungen zu bewegen, und das erzeugt nichts anderes als Wärme. Die "verbrauchte" Energie wird zu 100% in Wärme umgesetzt, etwas anderes passiert damit nicht. Wenn ein Prozessor also 100W "verbraucht", dann hat er diese Energie zu 100% in Wärme umgewandelt. Der Wirkungsgrad liegt demzufolge aber bei praktisch 100%, weil das Bewegen von Ladungsträgern ja das gewünschte Ziel war, die Wärme ist also kein Abfallprodukt, sondern nur die logische Folge. Anders bei der Glühlampe, die Wärme dort ist ein ungewolltes Abfallprodukt, welches nicht dem Primärzweck der Lampe dient, es ist also ein Verbrauch, der den Wirkungsgrad senkt.

0
Geschrieben am
IdefixWindhund (Profil)
Kommentar melden Link zum Kommentar

War ungünstig ausgedrückt, mir ging es um den Energiebedarf. Der lag halt deutlich unter modernen CPUs.

Gebe ich dir Recht. Wie wenig mein Pentium 3 System verbraucht, wundert mich eigentlich immer, und immer wieder. Der Tower PC unterbietet sogar, so manches Laptop mit dem Energiehunger.

Es wird der Systembus zwischen CPU und "Cache" (also Registerspeicher) reduziert.
Ach so, ich dachte du meinst den Bus vom Frontsidebus.

Der Office-Rechner wird aber meist aus wesentlich schlechteren Komponenten erstellt sein, und dementsprechend selbst bei Office-Programmen viel schneller an seine Leistungsgrenzen kommen.
Du wirst dich Wundern wie viel Office PCs mit einem Intel Core i5 ausgestattet sind. Was ich total übertrieben finde, für das bisschen Excel und Internet wofür sie verwendet werden.

Und das Problem mit aktuellen CPUs ist ja auch, dass diese alle nicht nur Energiesparmodi, sondern auch Hochleistungsmodi unterstützen - selbst ein i5 9600k kommt somit ganz leicht auf deutlich über 150W Spitzenlast.
Gut, von 95W auf 150W finde ich jetzt etwas übertrieben. Aber laut Tests die ich mal auf Heise, oder PCGH gelesen habe, fahren viele CPUs 10 - 20W über den angegebenen TDP. Mein Motherboard, als Beispiel, wendet den maximalen Turbo Boost für einen Kern von Intel auf alle Kerne an. Ganz egal was Intel, und die TDP vorschreibt. Alle Kerne laufen je nach Bedarf mit dem maximalen Turbo der nur für Single Thread Berechnung vorgesehen ist. Da verabschiedet sich man schnell von den 95W :D

Leider habe ich im Internet nichts gefunden was mal die Effizients der CPUs misst. Aber ich verstehe nun was du meinst. Die Energie die in die CPU geht, wird im Idealfall auch voll ausgenutzt.

0
Geschrieben am

Nur registrierte Mitglieder können hier Einträge kommentieren.

Zurück zur Hauptseite der Deponie