Il s'agit de la différence entre la valeur décimale et la valeur préfixe binaire . Dans ce cas, il indique que vous utilisez 0 octet binaire.
Quelle est la différence ?
Si l'on prend l'exemple de "Giga", cela signifie 1000 3 de quelque chose (par exemple, Gigahertz).
En informatique, cela pose un problème intéressant :
Un gigaoctet, c'est 1000 3 des octets. Cependant, un octet est composé de 8 bits (binaires). Ce qui signifie qu'il s'agit techniquement de 1024 3 des octets. Pour en tenir compte, nous utilisons une notation différente :
- Giga est décimal (base 10)
- Gibi est binaire (base 2)
La sortie vous indique qu'elle utilise des unités binaires.
Si vous souhaitez obtenir la sortie en "notation décimale lisible par l'homme", utilisez un "H" majuscule :
$ df -H
/dev/disk2 1.1T 413G 706G 37% 100935848 172431606 37%
map auto_home 0B 0B 0B 100% 0 0 100% /home
Enfin, il ne s'agit pas d'une convention Apple, mais d'une convention BSD (c'est une commande BSD). Vous pouvez trouver plus d'informations sur la page de manuel ( man df
).