GB o GiB, La demostración clara de que en los inicios de la informática los entendidos se endiosaron un poco, todos hemos identificado ese viejo mito en algún momento, incluso en el cine.
Lo que ocurrió básicamente fue que al crecer el tamaño de los archivos los informáticos se hicieron cómodos y empezaron a expresar valores grandes como si fueran valores decimales redondeando con la escala métrica de base decimal.
Mas tarde al aumentar mucho el tamaño de los archivos y el consecuente factor de error, se sacaron de la manga el GiB con la única finalidad de no dar el brazo a torcer y seguir por el camino cómodo, haciendo que el GiB sea entonces el valor matemáticamente correcto, y el GB que originalmente era el valor correcto pase a ser un pitorreo.
Sin embargo el GiB ha estado mas bien oculto al público. El GB actualmente debido a su uso arbitrario se ha convertido en un valor ambiguo que lo mismo se calcula en base octal que decimal como te plazca, y el Gib casi ni se usa.
Si lo expresamos matemáticamente se acaban los malentendidos y las convenciones sociales ambiguas que no pintan nada en una disciplina puramente matemática como es la informática, es decir, un MiB es 1Byte elevado a 6, mientras que 1Byte x 1000000 es un calculo erróneo por mas que el mercado nos lo venda como 1 byte elevado a 6.
Lo mas gracioso es cuando después viene algún forero a decirte que como osas cuestionar a los ingenieros tú pobre mortal
PD: Actualmente para Google (y para la mayoría por lo visto) el iB (KiB, GiB etc) es ahora el matemáticamente correcto (1 KiB = a 1024 Bytes), y el B (KB, GB etc) es de uso comercial y vale x mil (1 KB = a 1000 B). Recordar también que el Byte se expresa con B mayúscula (kilobyte = kB), y el bit con b minúscula (kilobit = kb).
Salu2