J'essaie de trouver un moyen de télécharger une URL et de la convertir en PDF.
J'ai trouvé beaucoup de suggestions sur la façon de transformer des PDF en HTML ou du HTML en PDF, mais ce n'est pas la même chose que ce que je veux faire.
En fait, je cherche à obtenir le même résultat que si j'avais ouvert la page dans {insérer le navigateur de mon choix} et que j'avais sélectionné "Imprimer", puis "Enregistrer en PDF"
Mais je veux pouvoir faire tout cela à partir du terminal, automatiquement, de manière à pouvoir lui fournir une poignée d'URL à la fois et à ce qu'il fasse tout à ma place.
Je n'ai pas besoin ou ne veux pas de récursion vers des pages supplémentaires.
[Note : J'ai essayé
wget --page-requisites --convert-links
mais il ne récupère pas toujours réellement les images qui sont chargées à partir d'un serveur distant. En outre, supposez pour ces exécutions que les URL ne sont pas derrière une sorte de condition de connexion].