Lorsque l'option iCloud photo est activée, toutes les photos sont téléchargées sur iCloud et seule une copie en basse résolution est enregistrée sur le téléphone pour la navigation, la photo en haute résolution étant téléchargée à la demande si l'utilisateur clique dessus.
L'application Photos effectue un apprentissage automatique sur l'appareil lorsque celui-ci n'est pas utilisé et qu'il est en charge (généralement pendant que vous dormez) afin de détecter les visages dans votre photothèque et de créer ainsi des "albums de personnes". Il ne s'agit là que d'un exemple de l'utilisation de l'apprentissage automatique par l'application.
Ce qui me perturbe, c'est que les images basse résolution ne sont tout simplement pas assez bonnes pour effectuer une analyse ML, en particulier pour la détection des visages. Alors comment peut-il analyser ces photos à faible résolution et donner une prédiction correcte ?
J'ai deux hypothèses :
-
Peu importe que la résolution soit basse ou haute, il suffit d'analyser ce qui se trouve sur l'appareil. (Je ne crois pas vraiment que ce soit le cas car la détection des visages est trop précise pour que l'on puisse croire qu'ils sont le résultat d'un ML sur des photos 480p).
-
Chargement à la demande, téléchargement de la photo originale à partir d'iCloud pendant que l'algorithme de ML fonctionne, et suppression de la photo originale de l'appareil lorsque l'algorithme est terminé. (Ne s'agit-il pas d'un gaspillage de bande passante pour les serveurs iCloud ?)
Editer 1 : Je suis intéressé par la façon dont il va gérer le cas où j'ai ajouté manuellement une photo à une personne (cette action entraîne un changement du modèle, enfin, un changement éventuel après qu'il ait appris les nouvelles photos qui n'avaient pas été détectées auparavant), toutes les photos doivent être analysées à nouveau en utilisant le nouveau modèle. À l'heure actuelle, la plupart des images haute résolution (disons 199 Go/200 Go) se trouvent uniquement sur iCloud. Le système va-t-il les extraire une par une pour effectuer une nouvelle analyse ML à l'aide du nouveau modèle ? Et si je "modifie" régulièrement le ML (en ajoutant une photo non détectée à l'album d'une personne, mais pas toutes en même temps) ? si c'est le cas, cela pourrait représenter une charge énorme pour les serveurs iCloud... n'oubliez pas que certaines personnes ont plus de 1TB de photos dans iCloud.
Editer 2 :
Ne vous méprenez pas, je m'intéresse purement et simplement à la manière dont tout cela fonctionne, car je trouve que c'est très bien fait. Et pour être clair, je fais entièrement confiance à Apple sur la promesse "on-device", et c'est exactement la raison pour laquelle j'ai posé cette question pour comprendre les détails techniques qui permettent à la fois de respecter la vie privée et de donner des résultats précis.