Push-Nachrichten von MacTechNews.de
Würden Sie gerne aktuelle Nachrichten aus der Apple-Welt direkt über Push-Nachrichten erhalten?

Apple verteilt neue Developer Preview von OS X 10.8.4 mit Gigabit-WiFi

Apple hat vom kommenden OS X 10.8.4 eine neue Developer Preview von OS X 10.8.4 an Entwickler verteilt. Sie trägt die Build-Nummer 12E30 und enthält Änderungen im Bereich Grafiktreiber, Safari und WiFi. In letzterem Fall hat Apple offenbar nicht nur einige Fehler behoben, sondern auch die Unterstützung der WiFi-Standards erweitert. So haben Entwickler im Code des WiFi-Frameworks von OS X einen Eintrag zum 802.11ac-Standard entdeckt, der in OS X 10.8.3 noch nicht enthalten ist. Momentan befindet sich der Standard noch in der letzten Entwurfsphase, wobei keine signifikanten Änderungen bis zur Verabschiedung Anfang 2014 zu erwarten sind. Der 802.11ac-Standard bietet pro Kanal eine Bandbreite von 500 Megabit pro Sekunde, womit durch Nutzung mehrerer Kanäle eine Bandbreite von mindestens 1 Gigabit pro Sekunde möglich ist. Damit liegt WiFi erstmals auf dem Geschwindigkeitsniveau von Gigabit-Ethernet, welches seit gut zehn Jahren in Macs verbaut wird. Zudem bietet 802.11ac auch eine höhere Reichweite. Gerüchten zufolge arbeitet Apple schon seit einigen Monaten gemeinsam mit Broadcom an der Integration von 802.11ac-WiFi in zukünftige Mac-Modelle. Die Entwicklung ist offenbar schon sehr weit fortgeschritten und könnte bereits in kommenden Macs die 802.11ac-Unterstützung erlauben.

Weiterführende Links:

Kommentare

MiiCha
MiiCha10.04.13 08:43
Das warten auf die neuen Geräte hat nun begonnen...

Nur wie testen die Betatester das Gigabit-WiFi, wenn es keine Apple Produkte mit der passenden Hardware dafür gibt? Hackintosh, known as Harz4 Mac?
0
Hannes Gnad
Hannes Gnad10.04.13 08:52
Schon mal daran gedacht, daß Apple auch ein eigenes Hardware-Labor haben könnte? Oder deren Zulieferer für Bauteile?
0
eiq
eiq10.04.13 08:59
Damit liegt WiFi erstmals auf dem Geschwindigkeitsniveau von Gigabit-Ethernet
Träumt weiter.
0
MYTHOSmovado
MYTHOSmovado10.04.13 09:05
Hannes Gnad
Schon mal daran gedacht, daß Apple auch ein eigenes Hardware-Labor haben könnte? Oder deren Zulieferer für Bauteile?
Das wäre ja mal etwas völlig Neues, wenn man nicht sich selbst als Mittelpunkt allen Seins sehen würde ("Alles, was ich nicht brauche, kenne, will,...braucht, kennt, will,...auch kein anderer!")
Nichts wird so heiß gegessen, wie es gekocht wurde °°° Tatsachen muss man kennen, bevor man sie verdrehen kann...
0
re:com10.04.13 09:11
Hannes Gnad
Schon mal daran gedacht, daß Apple auch ein eigenes Hardware-Labor haben könnte? Oder deren Zulieferer für Bauteile?

Es gab bei Apple ja sogar mal ein MBP mit UMTS
Im Macbook Air wäre das echt toll
0
Cyber Crash10.04.13 09:26
Sollten Sie das schaffen, ist dies der Auftakt zu einem weiterem Port verlust am Macbook.
Ich sehe schon den Werbeslogan: "Why would you use a cable?"
An artist is somebody who produces things that people don't need to have. - Andy Warhol
0
re:com10.04.13 09:31
Cyber Crash
Sollten Sie das schaffen, ist dies der Auftakt zu einem weiterem Port verlust am Macbook.
Ich sehe schon den Werbeslogan: "Why would you use a cable?"

Du hast schon mitbekommen, dass Macbook Air und Pro Retina schon keinen Ethernet-Anschluss mehr haben?
Die "normalen" Macbook Pros sind IMHO Auslaufmodelle.
0
nane
nane10.04.13 09:53
UMTS, 3G oder 4G in einem MacBook? Das habe ich längst aufgegeben. Man kann froh sein, dass Apple das überhaupt für iPads anbietet

Priorität bei Apple hat nicht die Nutzbarkeit für einzelne sondern meist das schlankste Design und zwar um jeden Preis. Schade
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
0
Hannes Gnad
Hannes Gnad10.04.13 10:02
Unterschätzt nicht den Aufwand für eingebautes 3G/4G, solange es x nationale Lösungen, y Provider und z Chipsets gibt. Mal schauen, was passiert, wenn es irgendwann wirklich eine "One World - one Chipset"-Lösung gibt, der Qualcomm RF360 verspricht ja was in dieser Richtung.
0
nane
nane10.04.13 10:24
Ja, schon klar, dass das technisch kein Spaziergang ist - aber hallo zahlen wir nicht alle gerne 2000,- für ein aussergewöhnliches Stück Technik?
Das Leben ist ein langer Traum, an dessen Ende kein Wecker klingelt.
0
3-plus-1
3-plus-110.04.13 10:26
Momentan gefällt mir die Apple-Produktpolitik nicht, eine Time Capsule würde mir aber noch gefallen. Allerdings warte ich da auf ein Update mit ac. So ein Gerät soll schon etwas länger in Betrieb sein.

Hoffen wir nur, dass Apple da nicht auch die übliche 200 EUR oder 30 % Verteuerung wählt, wie bei den meisten anderen Produkten für Europa. Die kleinste über 300 EUR wäre dann wirklich ein NoGo (für mich).
0
maclex
maclex10.04.13 10:55
wird mit dem gigabit-wifi-gedöns dann time capsule schneller?
oder das internet?
oder der ausgelastete firmenserver?

nee ja? nee!

und selbstverständlich müssen alle geräte im gigabitwifinetzwerk auch gigabitwifinetzwerkkompatibel sein,sonst werden sie ausgebremst .

gigabitwifikompatibel......ein neues wort ?
LampenImac,PMG5,iBook,MBP2007,MBP 2010,iPod2003,nano2007, iphone3,4,6+, 2APE, ipad2,ipadmini, AppleTV2,MagicMouse,AluTastatur
0
MYTHOSmovado
MYTHOSmovado10.04.13 11:34
@maclex
wird mit dem gigabit-wifi-gedöns dann time capsule schneller?
oder das internet?
Flo's Weblog schreibt dazu:
...In der Kommunikation über das Internet ist dies nur wenig zu spüren, da es keine Leitungen gibt, die diese Geschwindigkeiten ebenfalls anbieten, im heimischen Netzwerk können Geräte untereinander damit aber deutlich schneller kommunizieren...
Also, Ja - die Time Capsule wird wohl deutlich schneller werden können - im heimischen Netzwerk.

Für "Dein" Internet musst schon selber sorgen. Und was ausgelastete Firmenserver betrifft - da können noch mehr ein Lied von singen...
Nichts wird so heiß gegessen, wie es gekocht wurde °°° Tatsachen muss man kennen, bevor man sie verdrehen kann...
0
Mia
Mia10.04.13 12:14
Ja mit einer 100.000 I-net Leitung reizt man das Ding dann auch nicht aus! Aber für Time Machine Backups mit einet Time Capsule sicher ganz nett!
0
Mecki
Mecki10.04.13 16:00
Damit liegt WiFi erstmals auf dem Geschwindigkeitsniveau von Gigabit-Ethernet,

Ummm... nein. Nicht mal in der Nähe.

Bei den Bandbreitenangaben von Netzwerktechnologien, egal ob kabelgebunden oder kabellos, werden immer die Bruttobandbreiten angegeben, nicht die Nettobandbreiten. D.h. die Angabe Bits/s sagt hier lediglich aus, dass wenn man mit dem verwendeten Modulationsverfahren ohne Pause und ohne jegliches Protokoll einfach nur rohe Bitdaten senden würde, dann würde man diese Bandbreite erreichen.

Aber in der Praxis ist es nun einmal so, dass sehr wohl ein Protokoll genutzt wird. Dieses Protokoll erzwingt zum einen, dass ein Teil der Bandbreite für Protokolldaten genutzt wird (Protokollheader von Datenpakten, aber auch Protokollsteuerdaten für das Netzwerkmangament), zum anderen legt das Protokoll den zeitlichen Ablauf fest ("Timings") und dazu gehört eben auch, dass z.B. zu bestimmten Zeiten Sendepausen von einer bestimmten Länge zu erfolgen haben. Das alles reduziert natürlich die verfügbare Bandbreite für die tatsächlichen Nutzdaten, die man übertragen möchte.

Und hier ist WiFi gegenüber Kabelethernet gleich doppelt benachteiligt: Zum einen werden bei WiFi viel größere Protokolldatenmengen gesendet (größere Protokollheader, viel mehr Steuerdatent), und das dazu auch noch deutlich öfters, zum anderen existieren bei WiFi viel längere Sendepausen (zur sicheren Kollisionsvermeidung bzw. -erkennung), die dazu auch noch deutlich öfters statt finden müssen Alleine dadurch verliert WiFi schon große Mengen an Bandbreite zwischen brutto und netto, viel mehr als das bei Kabelethernet der Fall ist.

Dann haben sich Kabelethernet Nutzer mittlerweile auch an Switches gewöhnt, und Netzwerke mit Switches sind größtenteils kollisionsfrei. Das war früher mal anders, z.B. 10 MBit/s über Koaxialkabel oder 10/100 MBit/s über Hubs statt Switches. Bei WiFi hingegen funktioniert Ethernet nach wie vor so wie früher über Kabel: Kollisionen treten hier mehrfach die Sekunde auf. Und jede Kollision führt dazu, dass ein Datenpaket verloren geht und erneut gesendet werden muss. Dieses erneute senden von Datenpaketen frisst natürlich ein ganzes Stück vom Nettobandbreitenkuchen auf.

Und zu guter Letzt können Daten noch auf ihrem Weg vom Sender zum Empfänger korrumpiert werden, z.B. durch äußere Störeinflüsse (Signalübersprechen z.B.), oder bei Kabel kann es auch ein schlechtes Kabel oder ein kaputter Stecker sein kann. So etwas kommt "in den besten Familien vor". Allerdings kommt es bei Kabelethernet in der Praxis in deutlich unter 1% der Fälle vor. Wurde das Netzwerk fachmännisch installiert (die richtigen Kabel, die richtigen Stecker, gute Schirmung, korrekte Kabellängen, etc.), dann kommt es sogar in deutlich unter 0,1% aller Fälle vor. Bei WiFi hingegen, wo heute jedes Drecksgerät irgend etwas durch die Gegend funkt (gerade im 2,4 GHz Band, aber ich habe z.B. auch schon Funkmäuse im 5 GHz Band gesehene) passiert es deutlich öfters, dass Daten korrupt beim Empfänger ankommen. Je nachdem wie "funkgestört" eine Umgebung ist, kann es sein, dass die Fehlerrate bei 50% und mehr liegt!

Deswegen würde ich als "PI mal Daumen Regel" sagen: Bei Kabelethernet ist die Nettobandbreite ca. 90% der Bruttobandbreite unter Realbedingungen. Bei WiFi ist die Nettobandbreite 50% der Bruttobandbreite unter optimalen Bedingungen, unter realistischen Bedingungen deutlich weniger (20-30% oder so). Und somit bräuchte man mindestens 5 GBit/s Bruttobandbreite für WiFi um in die Nähe von GBit Ethernet zu kommen und selbst dass kann man vergessen, wenn jeder Nachbar um einem herum auch so ein Netz am laufen hat und auch aktiv benutzt (denn so viele Kanäle gibt auch das 5 GHz Band bei 802.11ac nicht her).
0
julesdiangelo
julesdiangelo10.04.13 16:11
@Mecki +1

Leider wird uns trotzdem weiter an allen Ecken und Enden irgendein Zahlensalat um die Ohren gehauen nur um sich ein "ich bin schneller/größer" auf die Packung zu schreiben.
Sollte sich irgendwer beschweren wird sich schon irgendeine Rechnung finden die halbwegs zum Endprodukt passt, irgendwas mit den Ursprungszahlen zu tun hat, damit man guten Gewissens sagen kann: "Wir haben nicht gelogen, wir haben nur nicht verraten wie wir gerechnet haben."

Ein ätzendes Verhalten, welches mich seit Jahren ankotzt. Spätestens seitdem man anfing populär mit 1000 statt 1024 zu rechnen.
bin paranoid, wer noch?
0
ApfelHandy410.04.13 16:51
Mecki
Damit liegt WiFi erstmals auf dem Geschwindigkeitsniveau von Gigabit-Ethernet,

Ummm... nein. Nicht mal in der Nähe.

Bei den Bandbreitenangaben von Netzwerktechnologien, egal ob kabelgebunden oder kabellos, werden immer die Bruttobandbreiten angegeben, nicht die Nettobandbreiten. D.h. die Angabe Bits/s sagt hier lediglich aus, dass wenn man mit dem verwendeten Modulationsverfahren ohne Pause und ohne jegliches Protokoll einfach nur rohe Bitdaten senden würde, dann würde man diese Bandbreite erreichen.

Aber in der Praxis ist es nun einmal so, dass sehr wohl ein Protokoll genutzt wird. Dieses Protokoll erzwingt zum einen, dass ein Teil der Bandbreite für Protokolldaten genutzt wird (Protokollheader von Datenpakten, aber auch Protokollsteuerdaten für das Netzwerkmangament), zum anderen legt das Protokoll den zeitlichen Ablauf fest ("Timings") und dazu gehört eben auch, dass z.B. zu bestimmten Zeiten Sendepausen von einer bestimmten Länge zu erfolgen haben. Das alles reduziert natürlich die verfügbare Bandbreite für die tatsächlichen Nutzdaten, die man übertragen möchte.

Und hier ist WiFi gegenüber Kabelethernet gleich doppelt benachteiligt: Zum einen werden bei WiFi viel größere Protokolldatenmengen gesendet (größere Protokollheader, viel mehr Steuerdatent), und das dazu auch noch deutlich öfters, zum anderen existieren bei WiFi viel längere Sendepausen (zur sicheren Kollisionsvermeidung bzw. -erkennung), die dazu auch noch deutlich öfters statt finden müssen Alleine dadurch verliert WiFi schon große Mengen an Bandbreite zwischen brutto und netto, viel mehr als das bei Kabelethernet der Fall ist.

Dann haben sich Kabelethernet Nutzer mittlerweile auch an Switches gewöhnt, und Netzwerke mit Switches sind größtenteils kollisionsfrei. Das war früher mal anders, z.B. 10 MBit/s über Koaxialkabel oder 10/100 MBit/s über Hubs statt Switches. Bei WiFi hingegen funktioniert Ethernet nach wie vor so wie früher über Kabel: Kollisionen treten hier mehrfach die Sekunde auf. Und jede Kollision führt dazu, dass ein Datenpaket verloren geht und erneut gesendet werden muss. Dieses erneute senden von Datenpaketen frisst natürlich ein ganzes Stück vom Nettobandbreitenkuchen auf.

Und zu guter Letzt können Daten noch auf ihrem Weg vom Sender zum Empfänger korrumpiert werden, z.B. durch äußere Störeinflüsse (Signalübersprechen z.B.), oder bei Kabel kann es auch ein schlechtes Kabel oder ein kaputter Stecker sein kann. So etwas kommt "in den besten Familien vor". Allerdings kommt es bei Kabelethernet in der Praxis in deutlich unter 1% der Fälle vor. Wurde das Netzwerk fachmännisch installiert (die richtigen Kabel, die richtigen Stecker, gute Schirmung, korrekte Kabellängen, etc.), dann kommt es sogar in deutlich unter 0,1% aller Fälle vor. Bei WiFi hingegen, wo heute jedes Drecksgerät irgend etwas durch die Gegend funkt (gerade im 2,4 GHz Band, aber ich habe z.B. auch schon Funkmäuse im 5 GHz Band gesehene) passiert es deutlich öfters, dass Daten korrupt beim Empfänger ankommen. Je nachdem wie "funkgestört" eine Umgebung ist, kann es sein, dass die Fehlerrate bei 50% und mehr liegt!

Deswegen würde ich als "PI mal Daumen Regel" sagen: Bei Kabelethernet ist die Nettobandbreite ca. 90% der Bruttobandbreite unter Realbedingungen. Bei WiFi ist die Nettobandbreite 50% der Bruttobandbreite unter optimalen Bedingungen, unter realistischen Bedingungen deutlich weniger (20-30% oder so). Und somit bräuchte man mindestens 5 GBit/s Bruttobandbreite für WiFi um in die Nähe von GBit Ethernet zu kommen und selbst dass kann man vergessen, wenn jeder Nachbar um einem herum auch so ein Netz am laufen hat und auch aktiv benutzt (denn so viele Kanäle gibt auch das 5 GHz Band bei 802.11ac nicht her).

Hör blos auf, sonst bestell ich mir gleich noch 50 dLan Stecker
0
BIC10.04.13 17:02
Mecki
Damit liegt WiFi erstmals auf dem Geschwindigkeitsniveau von Gigabit-Ethernet,

Ummm... nein. Nicht mal in der Nähe.

Bei den Bandbreitenangaben von Netzwerktechnologien, egal ob kabelgebunden oder kabellos, werden immer die Bruttobandbreiten angegeben, nicht die Nettobandbreiten. D.h. die Angabe Bits/s sagt hier lediglich aus, dass wenn man mit dem verwendeten Modulationsverfahren ohne Pause und ohne jegliches Protokoll einfach nur rohe Bitdaten senden würde, dann würde man diese Bandbreite erreichen.

Aber in der Praxis ist es nun einmal so, dass sehr wohl ein Protokoll genutzt wird. Dieses Protokoll erzwingt zum einen, dass ein Teil der Bandbreite für Protokolldaten genutzt wird (Protokollheader von Datenpakten, aber auch Protokollsteuerdaten für das Netzwerkmangament), zum anderen legt das Protokoll den zeitlichen Ablauf fest ("Timings") und dazu gehört eben auch, dass z.B. zu bestimmten Zeiten Sendepausen von einer bestimmten Länge zu erfolgen haben. Das alles reduziert natürlich die verfügbare Bandbreite für die tatsächlichen Nutzdaten, die man übertragen möchte.

Und hier ist WiFi gegenüber Kabelethernet gleich doppelt benachteiligt: Zum einen werden bei WiFi viel größere Protokolldatenmengen gesendet (größere Protokollheader, viel mehr Steuerdatent), und das dazu auch noch deutlich öfters, zum anderen existieren bei WiFi viel längere Sendepausen (zur sicheren Kollisionsvermeidung bzw. -erkennung), die dazu auch noch deutlich öfters statt finden müssen Alleine dadurch verliert WiFi schon große Mengen an Bandbreite zwischen brutto und netto, viel mehr als das bei Kabelethernet der Fall ist.

Dann haben sich Kabelethernet Nutzer mittlerweile auch an Switches gewöhnt, und Netzwerke mit Switches sind größtenteils kollisionsfrei. Das war früher mal anders, z.B. 10 MBit/s über Koaxialkabel oder 10/100 MBit/s über Hubs statt Switches. Bei WiFi hingegen funktioniert Ethernet nach wie vor so wie früher über Kabel: Kollisionen treten hier mehrfach die Sekunde auf. Und jede Kollision führt dazu, dass ein Datenpaket verloren geht und erneut gesendet werden muss. Dieses erneute senden von Datenpaketen frisst natürlich ein ganzes Stück vom Nettobandbreitenkuchen auf.

Und zu guter Letzt können Daten noch auf ihrem Weg vom Sender zum Empfänger korrumpiert werden, z.B. durch äußere Störeinflüsse (Signalübersprechen z.B.), oder bei Kabel kann es auch ein schlechtes Kabel oder ein kaputter Stecker sein kann. So etwas kommt "in den besten Familien vor". Allerdings kommt es bei Kabelethernet in der Praxis in deutlich unter 1% der Fälle vor. Wurde das Netzwerk fachmännisch installiert (die richtigen Kabel, die richtigen Stecker, gute Schirmung, korrekte Kabellängen, etc.), dann kommt es sogar in deutlich unter 0,1% aller Fälle vor. Bei WiFi hingegen, wo heute jedes Drecksgerät irgend etwas durch die Gegend funkt (gerade im 2,4 GHz Band, aber ich habe z.B. auch schon Funkmäuse im 5 GHz Band gesehene) passiert es deutlich öfters, dass Daten korrupt beim Empfänger ankommen. Je nachdem wie "funkgestört" eine Umgebung ist, kann es sein, dass die Fehlerrate bei 50% und mehr liegt!

Deswegen würde ich als "PI mal Daumen Regel" sagen: Bei Kabelethernet ist die Nettobandbreite ca. 90% der Bruttobandbreite unter Realbedingungen. Bei WiFi ist die Nettobandbreite 50% der Bruttobandbreite unter optimalen Bedingungen, unter realistischen Bedingungen deutlich weniger (20-30% oder so). Und somit bräuchte man mindestens 5 GBit/s Bruttobandbreite für WiFi um in die Nähe von GBit Ethernet zu kommen und selbst dass kann man vergessen, wenn jeder Nachbar um einem herum auch so ein Netz am laufen hat und auch aktiv benutzt (denn so viele Kanäle gibt auch das 5 GHz Band bei 802.11ac nicht her).

Die meisten Menschen verstehen nicht Mal Netto/Brutto beim Gehalt, aber wenn dann kann man es damit auch deutlich knapper und kürzer erläutern, oder sollte das hier ein Wiki werden?
0
Mr BeOS
Mr BeOS11.04.13 00:05
BIC bzgl Wiki bla bla:
Dann geh' doch mit gutem Beispiel voran und spar dir das Vollzitat.

Wenn Apple mit der Zeit geht und das anbietet, was andere schon tun, finde ich es jedenfalls nicht schlecht.
Da ich eh kabelgebundenes und WLAN nutze, weiß ich nicht, was es an der Entwicklung schlechtzureden gibt, .... außer man hat einen Mac, der um die Ethernetschittstelle "beschnitten" wurde und das nur kostenintensiv nachrüsten kann.
http://www.youtube.com/watch?v=ggCODBIfWKY ..... “Bier trinkt das Volk!“ - Macht Claus Nitzer alkoholfrei
0
Mecki
Mecki11.04.13 13:36
julesdiangelo
Die meisten Leute lassen sich eben leicht durch Zahlen blenden; deswegen habe ich so ein ausführliches Kommentar abgegeben, um hier mal ein paar Fakten richtig zu stellen. Ich meine, bereits heute wird ja WiFi teilweise mit 450 MBit/s beworben (802.11n, doppelte Kanalbandbreite, 3 Streams), was natürlich im Vergleich zu 100 MBit/s Ethernet nach sehr viel klingt, aber ganz ehrlich: Ich habe noch keine 802.11n Verbindung gesehen, auch nicht unter Laborbedingungen, die es in der Praxis mit einer 100 MBit/s Kabelverbindung aufnehmen kann, wenn man einfach nur eine Datei per FTP versendet (und FTP ist wirklich ein sehr primitives Protokoll zur Datenübertragung, mit praktisch keinem Overhead abgesehen vom TCP/IP Header selber). Kurzfristig kommt so ein Transfer vielleicht immer mal wieder bis an 100 MBit/s Niveau heran, aber die Gesamtzeit bei einer 1 GByte Datei liegt am Ende deutlich unter 100 MBit/s Niveau.
ApfelHandy4
Hör blos auf, sonst bestell ich mir gleich noch 50 dLan Stecker
Also mit den Dingern habe ich auch schon meine Erfahrungen gesammelt, und die waren eigentlich alle positiv. Die Performance lag immer deutlich über WiFi, auch wenn die Stecker eine "niedrigere Bruttobandbreite" ausgehandelt haben (abhängig von der Leitungsqualität), denn zum einen ist auch hier der brutto/netto Unterschied geringer als wie WiFi (wenn auch nicht so gut wie bei Eithernetkabel), zum anderen ist die Datenrate relativ stabil (schwankt nur ganz wenig), wenn man nicht ein Gerät mit Elektromotor in Betrieb nimmt (Mixer, Föhn, Staubsauger, Bohrmaschine, etc.). Geräte mit Elektromotor verursachen eine Menge "Line-Noise", was die Fehlerrate massiv erhöht, außer man schaltet einen Störfilter dazwischen, der verhindert dass dieser Noise zurück in das Netz geleitet wird (such nach EMI/RFI Filtern).
BIC
aber wenn dann kann man es damit auch deutlich knapper und kürzer erläutern
Weisst du, man kann auch deutlich knapper zitieren, bzw. sich Zitate ganz sparen, wenn man eh nicht auf den zitierten Text eingehen will.
Mr BeOS
weiß ich nicht, was es an der Entwicklung schlechtzureden gib
Die Entwicklung ist nicht schlecht, die völlig unrealistischen Bruttobandbreitenangaben, mit denen kein Mensch (außer ein Elektrotechniker vielleicht) irgend etwas brauchbares anfangen kann, sind der Punkt, den ich kritisiert habe.
0

Kommentieren

Sie müssen sich einloggen, um die News kommentieren zu können.