Diskussion:Binärpräfix

aus Wikipedia, der freien Enzyklopädie
Zur Navigation springen Zur Suche springen
Zum Archiv

Mega-Bit und Mebi-Byte[Quelltext bearbeiten]

Wo ist nun eigentlich der korrekte Unterschied zwischen Megabit und Mebibyte?

Ich war (wohl fälschlicherweise) bislang der Ansicht, dass MB für Megabyte und Mib für Megabit steht... oder ist das nach wie vor korrekt, weil Mib ja nicht MiB ist???

Gruß Shaky1976 (Diskussion) 21:32, 23. Feb. 2017 (CET)[Beantworten]

1 Megabit (Mb) = 10^6 Bits = 1.000.000 Bits
1 Mebibit (Mib) = 2^20 Bits = 1.048.576 Bits
1 Mebibyte (MiB) = 2^20 Bytes = 1.048.578 Bytes (= 1.048.576 * 8 Bits = 8.388.608 Bits)
--Ajv39 (Diskussion) 23:03, 23. Feb. 2017 (CET) (Typo MB => Mb korrigiert. --Ajv39 (Diskussion) 12:38, 24. Feb. 2017 (CET))[Beantworten]
@Ajv39, Shaky1976: Naja ich glaube so ganz war das nicht die Antwort, zumal MB schon richtig vermutet Megabyte sind. Die Einleitung sagt doch (im 2. Satz) "Sie werden vorwiegend mit Einheiten wie Bit (Symbol „bit“, selten „b“) oder Byte (Symbol „B“) verwendet" Daher dürfte klar sein, dass hier unterschiedliche Einheiten ganz unabhängig von den Präfixen vorliegen. Die Betonung in der Einleitung sollte wohl mehr auf den Unterschied zu den Dezimalpräfixen liegen (also hier M). Mehr ist es nicht. -- User: Perhelion 03:36, 24. Feb. 2017 (CET)[Beantworten]
Naja, etwas mehr ist an der Sache schon dran:
Wenn ein Hersteller seine Festplatte mit 1 TB bewirbt, dann sind 1 Terabyte = 10^12 Byte = 1.000.000.000.000 Byte.
Das Betriebssystem basiert aber auf dem Binärsystem und rechnet anders: 1 Tebibyte = 2^40 Byte = 1.099.511.627.776 Byte! Die obige Festplatte kommt damit nur noch auf 931,3 Gebibyte - allerdings behauptet das allseits unbeliebte Redmonter "Betriebssystem" wiederum, es seien 931,3 Gigabyte - kein Wunder, dass WP:OMA da irgendwann nicht mehr durchblickt! axpdeHallo! 10:01, 24. Feb. 2017 (CET)[Beantworten]
MB steht für Megabyte, also 106 Byte, also bei der üblichen Bytelänge 106×8 Bit, also 8 000 000 Bit. Das Einheitenzeichen für Megabit ist Mb. Hat Perhelion zwar auch schon geschrieben, aber mEn nicht so deutlich wie angemessen. --nenntmichruhigip (Diskussion) 10:16, 24. Feb. 2017 (CET)[Beantworten]
"Das Betriebssystem basiert aber auf dem Binärsystem und rechnet anders" - nur Microsoft Windows. Alle anderen verbreiteten Betriebssysteme verwenden ganz sauber und korrekt "MiB", "GiB", "TiB" sowie "MB", "GB", "TB" genau wie von BIPM und IEC empfohlen. Nur Microsoft hat's lange nicht richtig hinbekommen.
Der Rest ist etwas Umlernaufwand für den ewig gestrigen Holzkopf (zum Beispiel meinen) ;-)
--arilou (Diskussion) 15:47, 12. Sep. 2017 (CEST)[Beantworten]

„Die Sache“ ist ja noch viel „lustiger“! Denn: daß so ein Byte zu 8 Bit gehandelt wird, ist zwar üblich, aber nicht Definition! Es verhält sich ähnlich wie das (ich nenn’s mal so) große C-Verbrechen. Das dazu geführt hat, daß „heute“ jeder Compiler, der „C oder ähnlich spricht“, neben „char und int“ noch weitere Datentypen anbietet. Z. B. int8, UInt32, … (und aktuell „richtig moderne“ Sprachen mögen char so gut wie überhaupt nicht mehr; in Swift ist ein Buchstabe beispielsweise ein Set, man spricht Unicode).

Ja, K&R haben da mit fixen Relationen zwischen Bits und Bytes (etc.) angefangen. Das hat sich aber nur an der Architektur des DEC-Rechners orientiert. Später wurde dann wenigstens noch festgelegt, daß sizeof(long) ≥ sizeof(int) ≥ sizeof(char) sein sollte …

Und die alten acht Bit für ein Schriftzeichen? Na, man braucht „ungefähr“ 2*26+10+10+x davon. Über 64 allemal. Und da wäre die nächste nette Binärzahl 128. Aber: die guten alten TTY (die waren ja „schon da“, wieso also da vorher noch erst was anderes erfinden?) wollten ja auch noch gesteuert werden. Denn „irgendwelcher Kram“ lag ja immer auf der Leitung an. Also: einfach noch auf die sieben verlangten Bit noch eines für „Daten/keine Daten“ draufgeklebt … (nicht signierter Beitrag von 84.166.43.135 (Diskussion) 00:13, 24. Mär. 2024 (CET))[Beantworten]

Relevanz der BIPM-Empfehlung[Quelltext bearbeiten]

Ich frage mich, ob die BIPM-Empüfehlung überhaupt relevant genug ist um sie im Artikel zu erwähnen. Die BIPM ist nur für physikalische Einheiten zuständig, nicht für mathematisch-logische. Das ändert sich nicht dadurch, dass Informatiker "zufällig" die selben Buchstaben für ihre Präfixe verwenden. --MrBurns (Diskussion) 02:18, 17. Sep. 2017 (CEST)[Beantworten]

Oder anders ausgedrückt: das mit der Empfehlung des BIPM ist so, wie wenn das Verkehrsamt eine Empfehlung für mathematischen Kurven machen würde, nur weils ebenfalls "Kurve" heißt und meist eine Krümmung hat. --MrBurns (Diskussion) 02:50, 17. Sep. 2017 (CEST)[Beantworten]

Na ja, soooo viele "Informatik-Einheiten" (oder "mathematisch-logische) abseits von Bit und Byte fallen mir jetzt im Moment nicht ein; fast alles sind dann ja doch physikalische Einheiten.
Ich denke, einem bestehenden, internationalen Gremium, dass sich mit allen bisherigen/sonstigen Einheiten befasst, einfach auch die paar wenigen "mathematisch-logischen" Einheiten zusätzlich anzuvertrauen, ist nicht nur verständlich, sondern imo sogar sinnvoll.
--arilou (Diskussion) 10:01, 27. Sep. 2017 (CEST)[Beantworten]
PS: Natürlich darf jeder Mensch in Sprache, Schrift und Zeichenwahl machen, was er will. Solange er das nur für sich macht. Dem Arbeitnehmer wird i.A. vorgegeben, dass er neue dt. Rechtschreibung, Einheiten nach BIPM, ggf. "Hochdeutsch soweit als möglich" zu verwenden habe. Auch im Rechts- und Geschäftsverkehr wird man schnell (vor Gericht) scheitern, wenn man bei einer gekauften "1000-GB-Platte" auf ein Gerät mit 1000 GiB besteht, "weil das die Informatik-Definition von 'GB' ist".
Zum deinem PS: wenn ich in einer Publikation eine eigene wissenschaftliche Notation erfinden würde, dann wäre das ja eigentlich kein Problem, solange diese Notation auch erklärt wird. Sowas wird auch tatsächlich öfters gemacht, wenn die neue Notation praktischer ist und in der Informatik ist ja die 1024er-Notation praktischer wegen der auf Zweierpotenzen basierenden Adressierung (man kann sich z.B. leicht im Kopf ausrechnen, wie viel GB ich gemäß der 1024er-Notation mit 32 bit Adressieren kann, bei der 1000er-Notationbraucht man einen Taschenrechner, das gilt auch bei Festplatten wo man z.B. bei 28-bit-Adresserung je nach Notation entweder genau 128 GB adressieren kann oder 137,438953472 GB).
Abgesehen davon ist ja die 1024er-Notation weit verbreitet und war das auch schon lange bevor das BIPM irgendwelche Empfehlungen zu Bytes abgegeben hat.
Zum Thema Rechtsverkehr: in den USA gab es erfolgreiche Sammelklagen weil Festplattenhersteller die 1000er-Notation verwendet haben statt der vom Arbeitsspeicher und Betriebsystemen bekannten 1024er-Notation.[1][2] Seit ist auf jeder Festplatte und jeder Festplattenverpackung ein deutlich sichtbarer Hinweis darüber, welche Einheiten der Hersteller verwendet (oder es wird alternativ die genaue Kapazität in Bytes zusätzlich zur GB/TB-Angabe angegeben). Und sogar in der Webseite und bei sonstiger Werbung des Herstellers.--MrBurns (Diskussion) 06:13, 28. Sep. 2017 (CEST)[Beantworten]
Forschungsprojekte werden finanziert durch Unternehmen oder staatliche Einrichtungen, vulgo "Auftraggeber" oder "Arbeitgeber"; Bachelor-, Master- und ähnliche Arbeiten werden durch andere benotet, die SI-/BIPM-Konformität erwarten; eigene Einheiten oder Notationsweisen zu erfinden steht dem Forscher daher im Großteil der Fälle nicht frei.
Bzgl. Rechtssituation: Ich bin mir nicht sicher, aber soweit ich mich erinnere, gab's auch in der BRD ein entsprechendes (Präzedenz-)Gerichtsverfahren, das praktisch genau gegenteilig endete. Müsste ich aber erst recherchieren.
--arilou (Diskussion) 09:44, 28. Sep. 2017 (CEST)[Beantworten]
Zum ersten Punkt: für einige stimmt das, aber nicht für Professoren, weil die sind üblicherweise Beamte und in ihrer Forschung frei. Zum Spaß eine neue Notation einzuführen wird ihrem ruf aber wahrscheinlich nicht gut tun, außer es ist für ein Spaß-Paper, aber es gab schon einige sinnvolle neue Notationen, die sich dauerhaft durchgesetzt haben. Aber für diesen Fall ist das eigentlich alles irrelevant, weil die 1024er-Notation schon lange etabliert ist.
Zum zweiten Punkt: Die USA sind ein größerer Markt als die BRD. --MrBurns (Diskussion) 09:57, 28. Sep. 2017 (CEST)[Beantworten]
  1. Wenn ein Prof ein neues Messgerät braucht, Material für einen Prototyp oder einen Demonstrator bestellen will, Teile der Arbeit an andere in Auftrag geben will, dann braucht er Projektmittel, aus denen er das bezahlen kann. Frei forschen kann er mit dem Bleistift auf Papier - alles andere bedeutet ganz schnell "Ende von Forschungsfreiheit": Projekte beantragen, Drittmittel einwerben.
    Außerdem kommen auf 1 Prof viele Doktores, Wissenschaftler ohne 'Dr.', Hiwis usw., die oft über Projektmittel bezahlt sind. Viele Profs haben gar nicht die Zeit, noch in nennenswertem Umfang Forschungsarbeit selbst durchzuführen. Ein Großteil der Arbeit ist Personalführung, Verwaltungskram, bei Politik und Behörden für gute Stimmung sorgen ("netzwerken")/PR, in Gremien sitzen, Arbeiten der Untergebenen (mit) präsentieren, und selten auch mal Vorlesungen halten.
  2. Für deWP-Leser, z.B. Werbetreibende, Hardware-Verkäufer, -Käufer, ..., ist die Beschreibung eines US-Gerichtsurteils in der deWP ziemlich egal, Urteile aus dem dt. Sprachraum (v.a. D-A-CH) hingegen sehr relevant.
  3. In welchen Bereichen die 1024er-Notation wie stark etabliert sei, ist POV. Bei der Größenangabe von Festplatten oder SSDs in Werbeprospekten ist beispielsweise eindeutig die 1000er-Notation etabliert...
--arilou (Diskussion) 14:14, 6. Okt. 2017 (CEST)[Beantworten]