Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?
Forum>Hardware>Artikel zur Messung des Energieverbrauchs von Prozessoren

Artikel zur Messung des Energieverbrauchs von Prozessoren

Assassin09.02.2317:54
Auf einer anderen Computerseite habe ich einen interessanten Artikel gelesen wo der Energieverbrauch moderner Prozessoren nicht in Watt, sondern in Joule (Wattsekunde) gemessen wird, wo also Prozessoren, die zwar mehr Watt verbrauchen aber dafür schneller sind gerechter bewertet werden.

Der M2 Prozessor hat dabei extrem gut abgeschnitten und braucht mit Abstand die wenigste Energie.

Schaut mal auf Golem rein:
+4

Kommentare

RichMcTcNs09.02.2323:57
Ich empfehle, sich mal den Unterschied zwischen Leistung und Energie resp. Arbeit klar zu machen. Sie sind ja nicht das Gleiche und haben deshalb auch unterschiedliche Einheiten. Eine Leistung kann man doch nicht mit einer Energiemessung kennzeichnen genau so, wie man eine Länge nicht in Pond angeben kann.
Und die Kennzeichnung eines Messverfahrens als „Fair“ find ich einfach nur schwurbelig. Was soll das sein?
0
piik
piik10.02.2300:19
Schließe mich RichMcTcNs weitgehend an, obwohl es Sinn macht, die Energieaufnahme in Energie- statt Leistungseinheiten, also in Wh oder Joule für eine definierte Aufgabe zu berechnen.
Ganz sauber ist das zwar nicht, da sich der Code für X86- und MX-CPUs auch bei an sich gleichen Benchmarks unterscheidet, aber der Vergleich "total" von Systemen ergibt sich durchaus realistisch.
0
ruphi
ruphi10.02.2301:55
RichMcTcNs
Ich empfehle, sich mal den Unterschied zwischen Leistung und Energie resp. Arbeit klar zu machen. Sie sind ja nicht das Gleiche und haben deshalb auch unterschiedliche Einheiten. Eine Leistung kann man doch nicht mit einer Energiemessung kennzeichnen genau so, wie man eine Länge nicht in Pond angeben kann.
Aber das ist doch gerade der Grund, wieso die von Assassin präsentierte Messung sinnvoll ist: Apple rühmt sich ja mit der besten "performance per Watt". Einheit von [Rechen-]Performance ist z.B. FLOPS=FLOP/s (floating point operations per second), also die Rechenrate. Einheit von physikalischer Leistung ist z.B. Watt, also Joule/s, also die Energieverbrauchs-Rate. Damit kürzen sich bei der abgeleiteten Einheit für "performance per watt" die Raten wieder raus und wir erhalten (FLOP/s)/(Joule/s) = FLOP/Joule.

Das ist genau was hier anhand einer gegebenen Rechenaufgabe im Durchschnitt ermittelt wurde: Energieverbrauch (d.h. phyikalische Arbeit) im Verhältnis zu einer geleisteten Anzahl Rechenoperationen.

RichMcTcNs
Und die Kennzeichnung eines Messverfahrens als „Fair“ find ich einfach nur schwurbelig. Was soll das sein?
Eine "faire" Metrik für den Energieverbrauch eines Prozessors misst die in Summe verbrauchte Energie (d.h. Arbeit) für eine gegebene Aufgabe. Das Problem ist die "repräsentative" Auswahl dieser Aufgabe – denn jeder macht ja etwas anderes mit seinem PC. Deswegen ergibt solch eine Metrik auch nur unter Angabe des zugrunde gelegten use case Sinn.

– Für eine übliche Büro-Tätigkeit mit ein paar Leistungsspitzen und ansonsten geringer Performanceanforderung ist es wichtig, dass der Prozessor sowohl kurzzeitig sehr performant sein kann (Leistungsaufnahme dann nicht so wichtig), als auch zum Betrieb mit sehr geringer Leistungsaufnahme fähig ist (Rechenleistung dann fast egal).

– Für die Energieeffizienz einer Workstation / eines Servers ist es eher wichtig, ein einziges Level mit hoher Performance/Watt zu haben.

All diese Ausdifferenzierungen lassen sich mit der Messung von verbrauchter Energie für ein gegebenes Rechenszenario perfekt abbilden – es ist der ultimativ "faire" Vergleich. Aber eben mit der Einschränkung, dass er nur für das gewählte Szenario gilt. Für eine Beschreibung des Gesamtverhaltens des Prozessors müsste man die Menge aller Energieverbräuche für alle unendlich vielen Szenarien angeben.
Mathematisch ist das präzise – Marketing-technisch natürlich untauglich.
+8
Assassin10.02.2306:12
Ist schon klar, daß das auch nur Teilaspekte abbilden kann.
Bei anderen Programmen kann das schon wieder ganz anders aussehen. Und für das echte Leben zählt noch viel mehr rein was schlecht vergleichbar ist.
Aber mal ein anderer Ansatz als „rechnet in Benchmark X schneller“ oder „erreicht in Benchmark Y mehr Punkte“
+1
ssb
ssb10.02.2309:27
Noch interessanter fände ich die Frage nach der Energieeffizienz. Also welcher Anteil der verbrauchten Energie wird für die Aufgabe benötigt und wie viel geht „verloren“. Energie geht nicht verloren, aber es entsteht viel Wärmeenergie, die abgeführt werden muss, was auch wieder Energie braucht.
Wenn ein LED-Leuchtmittel mit 11 W genau so hell leuchtet wie eine 80 W Glühbirne, dann ist diese mehr als 7 mal so effizient, weil die Glühbirne 69 W mehr Wärme abgibt als das LED Leuchtmittel.
Auf Computer angewendet würde dieses bedeuten: Man führt eine Reihe von Operationen aus (Wirkleistung) und dafür wird Energie benötigt. Wie lange dafür gebraucht wird ist da erst einmal egal. Die Frage wäre wie viel Energie wird in Wärme umgewandelt und wie viel wird genutzt, um die Operationen durchzuführen. Das effizienteste System wäre dann, welches die Aufgabe mit der geringsten Abwärme erfüllt. Die Zeit spielt dabei eine untergeordnete Rolle.
Vielleicht gäbe es da Überraschungen, zum Beispiel, dass eine Intel CPU gar nicht so schlecht wäre, wenn man sie niedrig genug taktet (was ich aber ehrlich gesagt nicht glaube). Aber aus den Erkenntnissen ließen sich eventuell Rechenzentren effizienter aufstellen, in dem man langsamere Rechner, aber dafür mehr benutzt. Dazu müssen die Aufgaben aber entsprechend skalierbar und verteilbar sein.

Allerdings will die Wirtschaft bislang keine effizienten sondern vor allem schnelle Werkzeuge. Da wird noch viel verbrannt, nicht nur Energieressourcen sondern auch „human resources“. Es geht da eher um Kosteneffizienz als um Energieeffizenz. Erst wenn Energie als Kostenfaktor zu groß wird, wird reagiert - reflexartig mit Forderungen nach Preisdeckeln.
+1
marm10.02.2309:42
ssb
Die Frage wäre wie viel Energie wird in Wärme umgewandelt und wie viel wird genutzt, um die Operationen durchzuführen.
Bei einem Prozessor wird sämtliche Energie in Wärme umgewandelt (Energieverbrauch entspricht Wärme und nicht Energie = Wärme + Operationen).
Es wäre also besser an einer Wärmesenke (z.B. Wohnung) einen Prozessor zu betreiben, der nebenbei Rechenaufgaben durchführt, statt an einem zentralen Ort so viele Rechner zu haben, dass sie gekühlt werden müssen.
Die Frage nach Wärmeverlusten hilft nicht bei der Ermittlung der Effizienz eines Computers.
+1
UWS10.02.2310:03
Bei dieser Methode (so wie sie auf Golem beschrieben ist), sehe ich aber ein grundlegendes Problem. Es mag ja sein, dass ein sehr leistungsstarker Rechner unterm Strich trotz höherem Stromverbrauch ein Rendering schneller und damit auch günstiger abliefern kann als ein vergleichsweise schwächerer Rechner mit weniger Stromverbrauch. Man mag das dann als effizienter bezeichnen...

Dummerweise ist das aber ein Sonderfall (es sei denn man macht den ganzen Tag nix anderes....). Die Frage ist doch, was macht der Rechner mit dem höheren Stromverbrauch denn sonst so? Wie viel braucht er bei Standardaufgaben? Wie viel im Leerlauf? Kann er seinen Energiebedarf dann entsprechend herunterregeln? Und wie sieht da die Gesamtrechnung übers Jahr aus?
„There is no cloud…it’s just someone else’s computer.“
+1
ssb
ssb10.02.2310:31
marm
Bei einem Prozessor wird sämtliche Energie in Wärme umgewandelt (Energieverbrauch entspricht Wärme und nicht Energie = Wärme + Operationen).
Das sehe ich anders. Was sind denn Daten, wie zum Beispiel ein gerendertes Bild? Das sind Daten mit einer gewissen Struktur, also einer Ordnung. Da werden Informationen umgeordnet oder neu angeordnet, dabei haben Informationen am Ende eine physikalische Repräsentation.
Nach den Lehrsätzen der Thermodynamik strebt aber ein System nach größt möglicher Unordnung, weil dieses die geringste Enthalpie besitzt. Das bekannteste Beispiel ist ein Tropfen Tinte in einem großen Wasserglas. Die Tinte wird sich mit der Zeit von alleine verteilen. Das System Wasser plus Tintentropfen strebt danach, dass die Tinte gleichmäßig im Wasser verteilt ist, es also möglichst ungeordnet ist. Will man die Tinte wieder aus dem Wasser entfernen, dann will man eine Ordnung herstellen wofür man Energie verbaucht und wobei auch Wärme entsteht.
So sind auf magnetischen Datenträgern anfangs auch alle magnetischen Zonen erst einmal ungeordnet. Wenn man dort Informationen speichert, wird eine Ordnung hergestellt, dafür muss man Energie aufwenden und es entsteht Wärme.

Wenn man also Daten berechnet oder transformiert, dann wird eine Ordnung geschaffen und man muss Energie aufwenden. Das Ergebnis von CPU-Operationen ist also eine geordnete Struktur von Informationen, die wir uns dann zum Beispiel als Bild anschauen können. Es wird in der CPU nicht Energie in Wärme umgewandelt, dann wäre das eine Heizung, sondern es wird aus einer Struktur eine meist komplexere Struktur geschaffen und die dafür notwendige Arbeit (die ja ebenfalls strukturiert ist) setzt auch Wärme frei. Am Ende wird geordnete Information mit geordneten Anweisungen umgewandelt und man erzeugt neu geordnete Informationen.

Je effizienter so ein System ist, desto weniger muss man an Energie reinstecken um die gewünschte Ordnung zu erreichen. Der Grad der Ordnung ist am Ende der gleiche, aber wie viel Energie man reinstecken muss und wie viel als Wärme abgegeben wird, das bestimmt die Effizienz eines Systems. Wärme ist dabei immer Unordnung - also geht es darum, wie viel Unordnung ein System erzeugt um etwas zu ordnen.
0
marm10.02.2310:38
ssb
Es wird in der CPU nicht Energie in Wärme umgewandelt, dann wäre das eine Heizung, sondern es wird aus einer Struktur eine meist komplexere Struktur geschaffen und die dafür notwendige Arbeit (die ja ebenfalls strukturiert ist) setzt auch Wärme frei.
Wenn ein Rechner also sehr effizient ist, dann wandelt dieser Energie in komplexe Struktur um? Die Welt löst sich auf und übrig bleibt komplexe Struktur ...
Mag sein, dass meine Theorie falsch ist (bin kein Physiker), aber deine geht auch nicht so recht auf. Nein, wenn Wärme der Maßstab ist, dann ist ein Rechner so effizient wie eine Elektroheizung. Du kannst die Effizienz eines Rechners nur mit Ergebnis zu eingesetzter Energie messen.
+1
Deichkind10.02.2311:04
Die Entropie der Informationstheorie hat nichts mit der Entropie der Thermodynamik zu tun. Das sind Größen von Parallelwelten. Außerdem neigt Information dazu zu veralten. In ein paar Jahren ist sie nur noch von historischem Interesse.
+4
piik
piik10.02.2312:30
Jetzt fehlen nur noch die Elementarteilchen in dieser Debatte🤪
+1
Assassin10.02.2312:53
UWS
Bei dieser Methode (so wie sie auf Golem beschrieben ist), sehe ich aber ein grundlegendes Problem. Es mag ja sein, dass ein sehr leistungsstarker Rechner unterm Strich trotz höherem Stromverbrauch ein Rendering schneller und damit auch günstiger abliefern kann als ein vergleichsweise schwächerer Rechner mit weniger Stromverbrauch. Man mag das dann als effizienter bezeichnen...

Dummerweise ist das aber ein Sonderfall (es sei denn man macht den ganzen Tag nix anderes....). Die Frage ist doch, was macht der Rechner mit dem höheren Stromverbrauch denn sonst so? Wie viel braucht er bei Standardaufgaben? Wie viel im Leerlauf? Kann er seinen Energiebedarf dann entsprechend herunterregeln? Und wie sieht da die Gesamtrechnung übers Jahr aus?

Dann müsste man eine Art Standard Parkour für Rechner nutzen. Damit messe ich aber ein Gesamtsystem und nicht nur einen Prozessor.

Also ein 4k Video konvertieren, 1h Excel, 1h Teams Meeting mit Video, 1h Standard Spiel mit immer gleichen Einstellungen und meinetwegen irgendwelche Dateioperationen (Dateien verschieben und zippen) u.s.w.
Dann misst man Zeit und Energie dafür und kann sowohl Geschwindigkeit und Energieverbrauch bestimmen.
+1
ssb
ssb10.02.2314:26
marm
Mag sein, dass meine Theorie falsch ist (bin kein Physiker), aber deine geht auch nicht so recht auf. Nein, wenn Wärme der Maßstab ist, dann ist ein Rechner so effizient wie eine Elektroheizung. Du kannst die Effizienz eines Rechners nur mit Ergebnis zu eingesetzter Energie messen.
Dann frage ich mich, warum du so viele Stunden damit verbringst dich vor eine Heizung zu setzen.
Ach, weil diese Heizung bunte Bildchen anzeigt, Texte von fernen Servern anzeigt. Kurz nicht nur rosa Rauschen (also zufällige Pixel) anzeigt sondern diese Pixel so strukturiert, dass du denen Informationen entnehmen kannst.
Informationen haben dabei ein Abbild in der stofflichen Welt und wenn es nur die Speicherung von Informationen in deinem Gehirn ist.
Informationen zu speichern erfolgt dabei durch Schaffung von temporären oder permanenten Strukturen im Gehirn, seien es Muster von Impulsen oder die Bildung neuer Synapsen. Wo Ordnung entsteht, wird Energie verbraucht und ein Teil der Energie endet als Abwärme. Je effizienter ein System ist, desto weniger Abwärme entsteht für die gleiche Aufgabe, also der Gewinn an Ordnung oder Struktur.

Thermodynamik wird da in ihrer Anwendung meist unterschätzt oder falsch interpretiert. Es geht eben am Ende um die Menge an Unordnung, die dann entsteht, wenn man Ordnung schafft. Dabei steigt die Enthalpie global immer, also die Unordnung wird insgesamt immer zunehmen, egal welche Ordnung man erzeugt. Je effizienter ein System ist, desto weniger Unordnung entsteht dabei.

Aber gut - das mag alles sehr abgehoben klingen und manche, die dem Gedankengang nicht folgen wollen (oder können), werden "Daumen Runter" verteilen. Es geht am Ende nur um die Aussage, dass Informationen ja keine stoffliche Existenz haben und daher erschafft ein Computer nichts und man kann die Effizienz eines Computers nicht danach bewerten, ob er für die Schaffung einer informellen Ordnung mehr oder weniger Energie braucht, weil der Computer ohnehin nur Wärme erzeugt, sonst nichts.

Und es geht eben genau darum, das ein energie-effizienter Computer eine Aufgabe mit möglichst wenig Energie erledigt. Dabei muss er nicht der schnellste sein - das ist nur bei kosten- und zeiteffizienten Ansprüchen wichtig.
-2
marm10.02.2314:47
ssb
Wo Ordnung entsteht, wird Energie verbraucht und ein Teil der Energie endet als Abwärme. Je effizienter ein System ist, desto weniger Abwärme entsteht für die gleiche Aufgabe, also der Gewinn an Ordnung oder Struktur.
Aha, also Energie = Abwärme + Ordnung?
ssb
Aber gut - das mag alles sehr abgehoben klingen und manche, die dem Gedankengang nicht folgen wollen (oder können), werden "Daumen Runter" verteilen. Es geht am Ende nur um die Aussage, dass Informationen ja keine stoffliche Existenz haben und daher erschafft ein Computer nichts und man kann die Effizienz eines Computers nicht danach bewerten, ob er für die Schaffung einer informellen Ordnung mehr oder weniger Energie braucht, weil der Computer ohnehin nur Wärme erzeugt, sonst nichts.
Natürlich kann ich einen Computer danach bewerten, ob er mehr oder weniger Energie verbraucht, wenn ich diesen für meine informelle Ordnung einsetze.
+1
ssb
ssb10.02.2315:01
Disclaimer: ich habe offenbar Enthalpie und Entropie vertauscht - was inhaltlich am Gedankengang aber nichts ändert.
0
ssb
ssb10.02.2315:20
marm
Aha, also Energie = Abwärme + Ordnung?
Nein. Ziel ist die Schaffung einer Ordnung aus etwas, was weniger geordnet oder ungeordnet ist. Dafür muss man Energie aufwenden. Also eher

Unordnung + Energie - > Ordnung + Abwärme

Wobei Abwärme wieder eine Form von Unordnung und Energie darstellt.
Da ist - > oft passender als ein =, weil nicht alle Vorgänge reversibel sind oder in der Natur und in einem abgeschlossenen System nur selten umgekehrt ablaufen.
0
ruphi
ruphi10.02.2319:57
ssb
Es ist sicher richtig, dass gewisse Zustände eines Speichermediums oder eines Chips eine leicht höheres physikalisches Energieniveau haben als andere – aber hier bewegen wir uns im extrem kleinen Bereich. Das meiste dürfte auf verbaute Kondensatoren entfallen. Insbesondere wird dieses Energieniveau je nach Rechenvorgang auch wieder gesenkt, schwankt also nur in einem vorgegebenen Korridor. Anteilig wird auf diese Weise nahezu gar nichts von der elektrischen Energie aus der Steckdose gespeichert.

Mehr noch – wenn alle getesteten Prozessoren dieselbe Rechenaufgabe abarbeiten, ist dieser Betrag auch über alle getesteten Geräte hinweg nahezu gleich. (Es sei denn, du verbaust in einem Gerät statt einer SSD einen Neandertaler-Speicher, wo pro Bit ein Wackerstein 1m in die Höhe gehoben oder abgesenkt wird).

=> Für die Betrachtung der Energieeffizienz eines Prozessors oder Computers ist das irrelevant.
+1
Krypton10.02.2322:34
ssb
Aber gut - das mag alles sehr abgehoben klingen und manche, die dem Gedankengang nicht folgen wollen (oder können), werden "Daumen Runter" verteilen. Es geht am Ende nur um die Aussage, dass Informationen ja keine stoffliche Existenz haben und daher erschafft ein Computer nichts und man kann die Effizienz eines Computers nicht danach bewerten, ob er für die Schaffung einer informellen Ordnung mehr oder weniger Energie braucht, weil der Computer ohnehin nur Wärme erzeugt, sonst nichts.

Und es geht eben genau darum, das ein energie-effizienter Computer eine Aufgabe mit möglichst wenig Energie erledigt. Dabei muss er nicht der schnellste sein - das ist nur bei kosten- und zeiteffizienten Ansprüchen wichtig.
Das sind im Prinzip interessante Gedanken und Sichtweisen, gehen aber aus mehrerlei Hinsicht am eigentlichen Thema vorbei und sind physikalisch in Teilen falsch. Deshalb habe ich etwa einen Daumen runter gegeben.

Wie Ruphi schon erwähnte, werden ja beide (oder mehrere) Computer mit der gleichen Aufgabe (Berechnung) gemessen, daher stellt keines der Systeme mehr oder weniger «Ordnung» her sondern eben genau die gleiche Menge davon. Da diese «Ordnung» also jedesmal exakt die selbe ist (sonst hätte ein System ja einen Fehler), kann man sie aus der Betrachtung raus nehmen und eben nur noch die zugeführte Energie betrachten. In sofern ist das Thema «Ordnung» bei der Suche des effizientesten Systems nicht relevant.

Dann ist da noch das Thema «Ordnung» ansich. Ich weiß nicht, wie detailliert du weißt, wie ein Computer funktioniert oder wie die verschiedenen Baugruppen aufgebaut sind. Daher ein Beispiel:

In einer mechanischen Festplatte etwa sind Alu-Scheiben (Platter) mit einer Magnetschicht drauf. Auf diese Magnetschicht können jetzt Daten gespeichert werden in dem ein winzig kleiner Teil der Magnetpartikel in die eine Richtung (sagen wir Nord, auch wenn das Ding mit 5400 oder 7200 Umdrehungen pro Minute rotiert) oder in die andere Richtung ausgerichtet werden. Diese Ausrichtungn kann dann als digitale 1 oder 0 gelesen werden. Die Einsen und Nullen können dann im Binärsystem (Dual- oder Zweier-System) in unser Dezimal-System umgerechnet werden Wiki . So ist die Nummernfolge (als Byte = 8 einzelne Bit bzw. Nummern):
0011 0000 etwa in dezimal eine 48
0100 0101 eine 69
0101 1001 eine 89

nimmt man diese 3 Zahlenpaare und gibt sie in die ASCII-Code Tabelle ein, welche jedem Buchstaben eine Nummer gibt, dann würden aus 48, 69 und 89 ein HEY.
Das Muster 001100000100010101011001 heißt also HEY, wenn man es denn via ASCII als Text interpretiert. Nimmt man das selbe Muster der Festplatte und interpretiert es nicht mit der ASCII-Tabelle sondern mit der ISO 8859-6 als arabisches Alphabet oder mit der MS-DOS Codepage 855 als Kyrillisch, dann kämen jeweils ganz andere Zeichen und Bedeutungen heraus.
Das selbe Muster könntest du auch als ein paar wenige Pixel einer Grafik interpretieren oder als Schnipsel einer Audio-Aufnahme oder als Messwert eines Solar-Wechselrichters, oder als Kontostand deiner Banking-Softare. Es könnte Programmcode, ein Strickmuster, ein Schaltplan, ein Atom-Entsperrcode oder die Kalorienangabe von Süßigkeiten sein.

Es hat für sich selbst und für das Universum erstmal keine Bedeutung. Die Bedeutung wird ihm nur durch unsere menschliche Interpretation gegeben.
Im Falle einer mechanischen HDD wird natürlich Energie aufgewendet, um die erstmals in wilder Unordnung vorhandene Magnetschicht Häppchenweise in eine magnetische Ausrichtung zu bringen. Aber der Energie-Aufwand für jedes andere Muster aus Nord und Süd-Magnetisierungen ist genau so hoch wie für das HEY. AUA, UHU oder HUI selbst lol, yay oder ÄçY brauchen genau die selbe Energie. Auch nur lauter leere Nullen zu schreiben, benötigt sie selbe Energie.
Das Level der von dir gedachten Ordnung lässt sich digital nicht festhalten. Die Reihe aus Nullen und Einsen, an oder aus, Strom oder nicht Strom brauchen praktisch immer sie selbe Energie, egal ob du ein schönes Bild, ein hässliches Bild, Elfengesang oder Foltergeschrei auf einer Festplatte fest hälst. Auch digitaler Müll, ein nicht interpretierbares Zufallsmuster braucht zur Erstellung die selbe Energie.
Die Folge der 10101101110011001 wird erst durch die Interpretation (was soll es sein, nach welcher Art wird es umgerechnet, wie soll es dargestellt oder ausgegeben werden) zu etwas für den Menschen brauchbares.

Das selbe passiert im Speicher (RAM) eines Rechners. Die Speicherzellen (bei D-RAM etwa kleine Kondensatoren, die etwas Ladung speicher (=1) oder völlig entladen sind (=0) haben beim Einschalten einen undefinierten Zustand. Um überhaupt etwas darin zu speichern, muss elektronisch der Kondensator entweder entladen werden oder aufgeladen werden. Beides kostet Energie. Und jeder weitere Wechsel von geladen zu entladen und wieder zu geladen kostet wieder Energie. Es wird auch hier immer eine bestimmte Menge Energie für das speicher benötigt. Ob du ein Megabyte mit den Einsen und Nullen eines Bildes der Mona-Lisa, die Zahlen für Kindergekritzel oder ein Bild mit wildem Rauschteppich lädst, hat auf den Energieverbrauch für den Ladungswechsel der Speicherzellen keinen Einfluss. Aus dem 1011000110101100110 ist auch nicht zu erkennen, ob du etwas als «hoche Ordnung» oder als «niedrige Ordnung» empfindest.

Es gibt daher auf Bit-Ebene kein zu erreichendes Ziel einer höheren oder besseren Ordnung, welche irgendwie erreichbar wäre oder sich im Zahlen- oder Elektronen-Ladungsmuster zu erkennen gäbe. Die wahrgenommene Ordnung entsteht rein in deinem Kopf. Ein sehr schöner Text von Rilke kann für dich das höchste der Gefühle sein, jemand aus Indien, der nur Malayalam spricht, kann mit der selben Ordnung nichts anfangen. Eine Kuh auf der Wiese ebensowenig. Ob du einen Song bei Spotify als göttlich oder als wüstes Geschrei empfindest, hängt ganz persönlich von deiner Interpretation und Wahrnehmung des Songs ab. Jemand anderes mag das genau gegenteilig sehen.

Rein physikalisch kann man das ja auch beobachten. Man weiß, wieviel Strom in einen Rechner fließt und man kann die entstandene Abwärme messen. Bei diesen Messungen stellt man eben fest, dass eben 100%* in Wärme umgewandelt werden, eben wie bei einer Heizung.
*Sternchen deshalb, weil heutige Prozessoren sehr hoch getaktet sind und bei diesen Hochfrequenzen wie bei einem Radiosender auch ein relativ kleiner Teil als Funksignal raus geschickt wird (das dann wieder vom abgeschirmten Gehäuse möglichst geblockt und dort auch wieder in Wärme versandet.

Bei mechanischen Teilen wie einer Festplatte wird noch Bewegungsenergie und eine Magnetisierung erzeugt. Ein Lüfter wandelt den Strom noch in Bewegung um, ein Bildschirm in Licht. Bei neueren Rechnern – und wenn man nur die CPU/GPU mit RAM und SSD betrachtet, ist alles nur noch Ladung. Die Energie, die vom Netzteil rein fließt, wird komplett in Wärme(Strahlung) umgewandelt. Die Ladungsänderungen im RAM und der SSD sind ein netter Nebeneffekt im Vergleich zur Heizung.
+1
ruphi
ruphi11.02.2306:13
Krypton
Sehr schöne Abhandlung

ssb
Ich möchte auch noch anfügen, dass ich bei deinem Post nur aufgrund der physikalischen Aussage einen Daumen runter gegeben habe – das hat nichts damit zu tun, dass ich deinen Gedankengang "zu exotisch" fand oder dergleichen.

Im Gegenteil: Was du beschreibst, ist ja die Entropie im Sinne der theoretischen Informatik/Informationstheorie. Die Physik kennt mit der Entropie im Sinne der Thermodynamik zwar ein sehr ähnliches Konzept – aber es ist nicht 1:1 dasselbe, sondern vielmehr ein Spezialfall des ersteren:
Quelle s. unten.

Der weitere Punkt, den Krypton bereits illustrierte, ist der, dass eine Folge von Nullen und Einsen nur im Kontext eines festgelegten Interpretationsschemas ("Sprache"/Kodierung/...) mehr oder weniger Information als eine andere Folge haben kann. Tatsächlich kann man also gar nicht von einem "allgemeingültigen Grad der Unordung" bei einem String von Bits sprechen. Hierzu nochmal aus derselben Quelle:


Ich kann das Lesen des kurzen Papers (6 Seiten) von Prof. Hägele, seines Zeichens Physiker, zum Zusammenhang der beiden Entropie-Begriffe sehr empfehlen.
+3
ssb
ssb11.02.2312:44
@ruphi:
Danke, das zeigt nur, dass mein Gedankengang durchaus gerechtfertigt ist. Da ich aber „nur“ Softwareentwickler mit abgebrochenem Physikstudium bin und kein Professor, habe ich mich nicht in dieser Tiefe hineindenken können und habe eine Differenzierung nicht so streng durchgeführt. Es ändert aber nichts daran, dass meine Gedanken berechtigt sind, wenn auch nicht zu 100% formal korrekt. Üblicherweise ist das der Beginn einer inhaltlichen Annäherung an die Thematik, bei deren Ausarbeitung andere eben schon viel weiter sind, während ich mit dem gedanklichen Impuls weit hinterherhinke.

@Krypton:
Danke für deine Ausführungen, aber mir ist das nicht neu. Ich beschäftgie mich schon mit Computern und deren Programmierung, als man Source Code in Assembler schrieb, mithilfe von Tabellen händisch in Hex-Codes übersetzen musste und diese dann mit einer Hex-Tastatur und einer 8-stelligen LED-7-Segment Anzeige eingegeben hat. Damals hatte man auch das Gefühl, man könne den Bits zusehen, wie sie durch die Leiterbahnen reisen. Das war damals ein Siemens ECB-85 Board. Ich habe auch an einem TRS-80 in Maschinensprache programmiert, weil mir BASIC unzureichend wurde.
Es gibt auch nur wenige, die die Struktur von Programmdateien so genau kennen. Ich zerlege diese regelmäßig und manipuliere diese auch, mit Blick darauf, dass sie danach weiterhin funktionieren. Ist meine berufliche Tätigkeit.

Ungeachtet dessen, werden Informationen stofflich gespeichert und dazu stoffliche Veränderungen vorgenommen. Dass diese im physikalischen Sinne aunerheblich sind, ist mir schon klar. Wenn man Daten auf einen HD-Platter schreibt, wird sich möglicherweise das System HDD als Ganzes gar nicht wirklich verändern. Zufällige Magnetisierungszonen (rosa Rauschen) werden nur in strukturierte Zonen verändert. Als ganzes dürfte sich aber statistisch die Anzahl der darin gespeicherten Nullen und Einsen gar nicht ändern, zumindest nicht massgeblich.

Also lass uns das herunter brechen auf eine Aussage, die sich von der stofflichen Seite löst. Angenommen, die Erzeugung einer Struktur entspricht einer Wertschöpfung. Dann könnte man die Effizienz damit umschreiben, wie viel man hineinstecken muss, um diese Wertschöpfung zu generieren. Geht es nur um die Energieffizienz, dann eben darum, wie viel Energie man einsetzen muss für die gleiche Wertschöpfung.
-1
piik
piik11.02.2313:23
Noch ein kleiner Hinweis, was bei einem Computer "Strom" bzw. Energie braucht:
Es sind neben den überall vorkommenden ohmschen Widerständen zunächst Verluste in magnetischen Bauteilen (Übertrager, Spulen) durch Ummagnetisierung (und ohmschem Anteil der Wicklungen) vor allem die Energie, die beim Ändern des digitalen Zustands von Speicherzellen und sonstigen Dingen (wie Gatter der digitalen Logik) benötigt wird. Mit Entropie etc. hat das nichts zu tun.
Digitale Elektronik enthält überall bei jedem Transistor kleine Kondensatoren, die beim Pegelwechsel umgeladen werden müssen. Dabei wird die Energie, die sich durch den Stromfluss an den ohmschen Anteilen der Halbleiter als Spannungsabfall bemerkbar macht als Produkt von Spannung und Strom über der Zeit als Verbrauch bzw. als Abwärme anfallen. Dieser Punkt macht den Löwenanteil am Energieverbrauch eines Computers aus. Eine CPU hat ja mittlerweile Milliarden Transistoren, die im GHz-Bereich schalten, sodass aus den vielen nWs irgendwann deutliche Wh werden. Bei den üblichen RAMs sind die kleinen Kondensatoren sogar erwünscht, denn sie speichern die Bits bzw. die Daten darin (und müssen alle x ms refreshed werden, was auch Energie kostet).
Aus diesem folgt, dass der Energieverbrauch einer CPU (und anderer Bauteile) mit der Taktfrequenz steigt, und zwar überproportional. Mit kleineren Strukturen werden die Kondensatoren kleiner und der Energieverbrauch sind mit der Größe der Strukturen - hier leider unterproportional.
Warum genau die M-CPUs von Apple so effizient sind? Komplett kann ich es nicht erklären, aber ein Faktor neben Aspekten wie die RISC-Eigenschaft ist, dass trotz der zig Milliarden Transistoren bei den üblichen Rechen- und Speichervorgängen möglichst wenig der vorhandenen Transistoren beteiligt sind. Der Zugriff auf den Speicher ist optimiert, und zwar auf RAM und die Speicherzellen der SSD-Chips. Es sind wenige Extrastrukturen an Bord wie etwa PCIe-Lanes etc. bei X86-CPUs und es ist möglichst viel direkt auf dem Chip integriert, was Leitungen kurz und kapazitätsarm gestaltet, was die Treiberleistungen für Leitungen klein hält.
+1

Kommentieren

Diese Diskussion ist bereits mehr als 3 Monate alt und kann daher nicht mehr kommentiert werden.