Oula, ca fait un titre long… Je ne savais pas comment l’expliciter mieux… J’avais un besoin particulier, récupérer un site d’environ 20Go sur un serveur distant, depuis un de mes serveurs… C’est à dire pas d’interface disponible, et uniquement un accès ftp (certains hébergeurs ne connaissent pas le SSH chroot…). Ok, soit. Je test mget… Pas de bol, je dois faire chaque répertoire à la main…
Et la, la commande magique…
wget -r -N -l 100 ftp://user:pass@url...
Et ca fonctionne, et plutôt pas mal J’ai eu un pic a 60Mbps au début, et la, je suis redescendu à 30Mbps. Surement une limitation de l’hébergeur distant (ayant une carte 10Gbps et 1Gbps de bande passante sur mon dédié, je doute que ce soit moi…). Reste plus qu’a patienter…
Edit Maj. J’ai modifié un peu ma commande, en rajoutant -N -l 100 dans les paramètres. -N me permets de ne transférer que les fichiers mis à jour, et -l lui dit de naviguer sur 100 niveau. Cela me permets de mettre a jour un site de 5Go en moins de 10min (ayant peu de modification, évidemment)
Be First to Comment