Je ne suis pas un utilisateur de Mac habituel. Je voulais obtenir un aperçu de l'utilisation du disque sur un Mac, donc ayant installé ncdu
via homebrew il y a longtemps, j'ai fait sudo ncdu -x /
. En réalisant que cela prendrait une éternité, j'ai installé duc
avec brew install duc
, je l'ai configuré en mode profil avec sudo duc index -xpH /
. (Drapeaux: -x
= ne pas traverser les limites du système de fichiers, -H
= compter les liens physiques une seule fois, -p
= progression). Ce matin, ce Mac de 120 Go avait réussi à scanner jusqu'à 2 To. J'ai arrêté le processus et déconnecté le WiFi, au cas où il aurait monté le lecteur réseau, et j'ai réessayé: même problème. J'ai abandonné et suis revenu à ncdu
: même problème. J'ai accepté la défaite et installé une application graphique qui semble faire le travail.
Question: d'où proviennent toutes ces données? Je suis familier avec le double comptage des liens physiques, mais à la fois duc
et ncdu
peuvent corriger cela. Je n'ai jamais vu un comportement comme celui-ci sur aucun système Linux; clairement, le modèle de système de fichiers Mac est très différent. Que se passe-t-il?
(Je me rends compte qu'une partie de ce qui se passe est que j'essaie naïvement d'utiliser des outils Linux sur un Mac. J'ai corrigé cela. Mais je veux savoir ce qui se passe au niveau du système de fichiers car je n'ai jamais vu ce genre de problème à cette échelle auparavant: si vous oubliez d'exclure des chemins spéciaux sous Linux, vous pourriez obtenir quelques Mo de données inutiles (même si la plupart échouent simplement); les liens physiques peuvent vous donner plus que ce que vous vouliez, mais pas dans cette ordre de grandeur. Clairement, macOS expose un modèle sous-jacent très différent.)