0 votes

Obtenir du texte à partir de plusieurs pages Web ne fonctionne pas si une URL est en panne

J'ai créé un simple flux de travail dans Automator qui extrait le texte d'une liste d'URL et les enregistre dans un fichier texte.

Les actions sont :

  • Obtenir le texte spécifié
  • Récupérer le texte d'une page Web
  • Nouveau fichier texte

Chaque fois qu'il y a un problème avec l'une des URL, Automator génère une erreur et cesse de fonctionner. Est-il possible de faire en sorte qu'il ignore l'URL problématique et continue ?

1voto

Philippe Dube Points 91

La raison en est que la fonction "Get Specified Text" ne permet pas les retours (si vous mettez plus d'une ligne de texte).

Afin de résoudre ce problème (le mien était similaire), j'ai trouvé un pack d'actions textuelles Automator en ligne et je l'ai acheté (vraiment pas cher). Vous pouvez le trouver ici :

http://www.automatedworkflows.com

0voto

Pourriez-vous utiliser curl ou wget à la place ?

for u in $(cat urls.txt); do curl -L "$u"; done > output.txt
brew install wget
wget -i urls.txt -U mozilla -O output.txt

LesApples.com

LesApples est une communauté de Apple où vous pouvez résoudre vos problèmes et vos doutes. Vous pouvez consulter les questions des autres utilisateurs d'appareils Apple, poser vos propres questions ou résoudre celles des autres.

Powered by:

X