Résolu [zip] 9,7Go à graver sur des CD-R

Bonjour,

Je vous expose mon problème:

J’ai 93 000 et des brouettes fichiers PDF à graver pour demain (oui on travaille dans l’urgence ici) pour un total de 8,7 Go.
Je pensait faire un zip (enfin je pensait… On m’a soufflé) du dossier avec une option permettant de le partitionner en fichiers zip de 700Mo ou moins.

Cependant, j’ai peur que cette manip’ ne puisse pas rendre indépendant les fichiers zip les uns des autres (je vois mal l’utilisateur insérer 15 CD pour ouvrir 1 PDF)

Ma question est de savoir, d’une part si c’est possible de rendre indépendant les différents zip (avec une option qui dirait de ne ziper que des fichiers complets) en limitant la taille à 700Mo Max,
et d’autre part, de savoir avec quel utilitaire cela était possible.

Je suis une bille en Archivage (jamais réussi à faire baisser la taille d’un fichier zipé par mes soins…) et l’urgence ainsi que mon niveau en recherche google font que c’est un peu la crise ici…

Nous utilisons 7zip au boulot, j’ai vu qu’il y avait quelques plugins qu’on pouvait ajouter… Malheureusement j’ai pas trouvé de pistes sur google pour m’aider assez concluante pour l’instant ( Ceci me paraissait pas mal mais j’ai peur que le coté fusion foute en l’air mon truc)

Merci d’avance

(si jamais je ne suis pas dans la bonne section ou si la réponse est trop évidente, merci de me le faire remarquer.)

PS: Forcément ils ne veulent pas de DVD.

[edit] Mon problème est vraiment que je ne trouve que des logiciels de découpagede fichiers volumineux mais rien pour séparer les fichiers. J’espère être clair…

[edit2] passage en résolu

Pas possible 'd’indépendantiser ’ les découpes d’archives avec winrar, que ce soit en zip ou rar…

sauf avis contraire, tu vas devoir estimer le taux de compression et découper en plusieurs sessions d’archivage tes PDFs… (désolé.)

Il y a très peu de temps, quelqu’un, (il me semble que c’est rolyat, mais pas sûr) parlait justement d’un logiciel qui optimisait le choix des fichiers par disque pour en graver le moins possible. (je cherche et j’edite si je trouve, c’etait une histoire de bibliotheque iTunes je crois…)

L’ordre des fichiers sur les disques est important, ou OSEF ? Si vous devez garder un ordre chronologique c’est la merde…
Sinon, faire une séléction jusqu’à ce que ça fasse 700Mo, graver, refaire et selection, et ainsi de suite. A la mano, quoi…

Une clé USB de 16go ?
http://www.fnac.com/Cle-USB/Cle-USB-16-Go/sh67396/w-4
Parce que splitté 9Go pour espérer avoir des fichiers zippés (principe contraire a la pérennité d’une archive, parce qu’un CD rayé, toute l’archive sera perdu et pas une partie des PDFs) qui tiennent sur des CDs, ce sont des heures de perdues à faire des essaies douteux.

Si c’est de PDF générés par imprimante virtuelle ( et non un scan) ET que les fichiers se ressemblent ,la compression peut faire gagner enormément. Il ne serait pas impossible de tout faire tenir sur un CD
Mais c’est que si.

Je peux me planter, mais il me semble que le PDF est compressé en natif. Du coup, c’est comme essayer de zipper un JPG, ça n’a pas beaucoup d’intérêt (i.e.: le gain d’espace va être très faible).

Donc tu as plutôt intérêt à les graver directement en PDF. Pour peaufiner, un petit utilitaire tel qu’Ignition (c’est du Freeware) devrait te permettre de gagner du temps et d’optimiser le nombre de galettes utilisées. Cela dit, je ne sais pas s’il arrivera à suivre vu le nombre assez énorme de fichiers que tu as à traiter. ^^

Alors… Je travaille au service informatique d’une Banque, et il faudrait que les fichiers soient en ordre chronologique.
(Ce sont des PDF de justificatifs d’imprimés fiscaux… Autant dire qu’il ne faut pas les perdre…) je ne sais pas pourquoi ils veulent absolument les graver, mais étant qu’un petit apprenti en alternance, j’éxécute.

Donc Ordre Alphabétique (pas forcément de création)

je viens de voir une option dans 7zip qui permet de faire des blocs de 700Mb… J’étudie l’option… et je reviendrai vers vous je le pense.

[edit] Pas faux pour l’histoire du zip et du CD rayé, je pensais au Zip au vu du nombre faramineux de fichiers a traiter (94 000), les options des archiveurs permettant de faire des blocs de 700Mo, je voyais une délivrance de ce coté la (malgré le souci d’indépendance mais bon…)

Un ptit programme dans un quelconque langage te permettra de faire ca en 5min. Genre, tu prends la liste des fichiers, tu les deplace un par un, si la taille totale < 700 Mo, tu bouges dans le repertoire 1, sinon, tu bouges dans le repertoire 2, etc. Ca peut etre le bon moment d’apprendre a coder un truc merdique qui t’economiseras une tache a la con :smiley:

Oublie de suite l’idée de les zipper et de splitter le machin, c’est la plus mauvaise idée que j’ai vu aujourd’hui :smiley:

Je ne dois pas bien comprendre ton problème : pourquoi toutes ces complications ?

Tu sélectionnes tes fichiers en partant du premier, dès que la barre d’état te dit que ta sélection contient 700mo tu la déposes sur le cd.
= 15 à 20 secondes de travail.
Tu recommences 15 fois = 5 minutes d’activité.

Pendant les phases de gravages t’apprends les maps de super mario wii par cœur.

bipbop + programmation = 2

J’adore ton idée Ana-l, reste plus qu’à programmer le script. Cependant, lors de mon BTS Info Gestion option Réseau, je n’ai appris que de l’algo scolaire… Pas de langage de programmation particulier (ce que je trouve lamentable)

J’ai des bases ridicules en scripts shell (mais je suis sous windows et le #!/bin/bash c’est pas conseillé n’est ce pas?)

ah et ici un quote de la demande du client:

[quote]Ces pdf seront édités à destination de vos clients.

Pour vous nous prévoyons de fournir les pdf sur CDs Rom

1 - Compression des IFU dans un fichier zippé

2 - Découpage de l’archive zip en plusieurs volumes de 700 Mo (selon taille du support CD)

3 �?? Vous pourrez reconstituer le répertoire global à l’aide des morceaux d’archive en utilisant un logiciel de décompression , par exemple winzip.[/quote]

Donc d’après ce que je viens de lire, le souci de dépendance des différents fichiers zip ne se présentait que dans mon imaginaire… Mais j’aimerai quand même leur faire un truc propre (en même temps, demander la veille de graver 94000 fichiers pour le lendemain, ya de quoi ne pas vouloir être gentil.)

Forcément mon chef est absent aujourd’hui et demain matin, je ne sais pas si ils ont déja effectué cette manip’ ou pas…

(le stress de la nuit blanche monte en moi…)

D’après ce que je comprends de la demande, ils souhaitent bien un zip segmenté par morceaux de 700Mo.

Donc la solution que tu avais prévu dès le départ semble la bonne (vraisemblablement, ils vont copier tous les CD sur un DD, reformer le zip, l’extraire et faire un gros back-up des fichiers. Les CD ne seront utilisés que pour la première (et unique) extraction.

Si ça peut te rassurer, j’ai appris une grosse merde au boulot 5 minutes avant de partir hier pour un projet à livrer aujourd’hui, j’ai passé une soirée et une nuit de chiotte sachant que mon boss ne serai pas la aujourd’hui… Et finalement tout s’est très bien passé, et j’ai livré à temps. Je te souhaite autant de bonheur !

Bon courage.

[quote=“bipbop, post:10, topic: 51070”]bipbop + programmation = 2

J’adore ton idée Ana-l, reste plus qu’à programmer le script. Cependant, lors de mon BTS Info Gestion option Réseau, je n’ai appris que de l’algo scolaire… Pas de langage de programmation particulier (ce que je trouve lamentable)

J’ai des bases ridicules en scripts shell (mais je suis sous windows et le #!/bin/bash c’est pas conseillé n’est ce pas?)

ah et ici un quote de la demande du client:

Donc d’après ce que je viens de lire, le souci de dépendance des différents fichiers zip ne se présentait que dans mon imaginaire… Mais j’aimerai quand même leur faire un truc propre (en même temps, demander la veille de graver 94000 fichiers pour le lendemain, ya de quoi ne pas vouloir être gentil.)

Forcément mon chef est absent aujourd’hui et demain matin, je ne sais pas si ils ont déja effectué cette manip’ ou pas…

(le stress de la nuit blanche monte en moi…)[/quote]

La je te recommande de faire ce qui t’es demandé, mais de le faire aussi d’une autre maniere (genre par paquets de 700Mo tout bete) et d’emmettre gentiment l’idée que la demande etait bidon.
Comme ca, t’es couvert, si ya un souci (ce qui peut arriver si le client utilise winzip et toi 7zip par exemple) et le client pourra pas broncher.

[quote=“SinRJ, post:6, topic: 51070”]Je peux me planter, mais il me semble que le PDF est compressé en natif. Du coup, c’est comme essayer de zipper un JPG, ça n’a pas beaucoup d’intérêt (i.e.: le gain d’espace va être très faible).

Donc tu as plutôt intérêt à les graver directement en PDF. Pour peaufiner, un petit utilitaire tel qu’Ignition (c’est du Freeware) devrait te permettre de gagner du temps et d’optimiser le nombre de galettes utilisées. Cela dit, je ne sais pas s’il arrivera à suivre vu le nombre assez énorme de fichiers que tu as à traiter. ^^[/quote]
Non.
si tu zippes 50 fois le meme fichier jpeg, tu auras, en théorie, un tx de compression de 50…
si les fichiers se ressemble, tu auras une compression, meme si les fichiers eux meme sont des images compressées.

Victoire, je viens d’appeler mon chef comme l’avait suggéré AnA-l et en fait c’était la manip qu’ils faisaient l’année dernière.
En gros zip des ouatmilles fichiers, en blocs de 700Mo, Gravure, reconstruction de l’archive 1 à 1. (sic)

C’est une solution qui puduku je l’avoue, mais ça a pas l’air de déranger le client…

je vais pouvoir rentrer plus tot chez moi et foutre la branlée à Bowser sur Mario Wii…
Génial

Merci à tous d’avoir été si réactif et de proposer des solutions aussi viables les unes que les autres.

[edit] Mouahahaha je viens d’appeler le client… Il est super content avec cette solution Oo. Double Win

Sinon dire au client d’acheter un lecteur DVD :smiley:

Ou lui offrir un clé USB ( si possible aux couleurs de la boite).

J’ai pas osé trollé en balançant la solution du DVD ou de la clé USB. Mais vu que le problème est resolu, je me permet.

Putain, mais qui se sert encore des CD ?? Enfin surtout pour un si gros volume de données. Que le client ait pas de graveur de DVD, c’est possible. Mais là, on lui demande juste un lecteur de DVD, ce qui est quand même devenu très courant.

Allez, je parle même pas de la clé USB, tout le monde n’a pas une clé de 10Go sur soit.

[quote=“ArunoKun, post:17, topic: 51070”]J’ai pas osé trollé en balançant la solution du DVD ou de la clé USB. Mais vu que le problème est resolu, je me permet.

Putain, mais qui se sert encore des CD ?? Enfin surtout pour un si gros volume de données. Que le client ait pas de graveur de DVD, c’est possible. Mais là, on lui demande juste un lecteur de DVD, ce qui est quand même devenu très courant.

Allez, je parle même pas de la clé USB, tout le monde n’a pas une clé de 10Go sur soit.[/quote]

Bon désolé pour le HS, mais vu que c’est résolu :

Je bosse chez un éditeur de logiciel.
On a des PC de 2003-2004, qui sont tout juste en train d’être changés (j’ai un PC de 2005, il sera peut-être changé d’ici 1 ou 2 ans avec de la chance).
Avec 768 Mo on fait tourner des moteurs Oracle (sur nos poste perso hein donc en plus y’a du outlook, word, etc d’ouvert, mais heureusement qu’on code sous vi/vim/gvim et que ça compile sur la brouette qui nous sert de serveur).
Je crois que tout le monde n’a déjà pas de graveur de CD. Le lecteur DVD y’en a peut-être sur 15 % des postes, le graveur j’en parle même pas.

Avant cette boite j’avais fait quelques boulots dans des entreprises qui ne font pas (que) du dev et j’avais du matos bien meilleur.
Là je me suis pris une belle claque, et je pense que ça doit pas être une exception.

Avant je pensais aussi que les CD c’était dépassé et que tout le monde avait un lecteur/graveur de DVD, mais maintenant ça ne me surprend plus en fait.

[quote=« Berzehk, post:13, topic: 51070 »]Non.
si tu zippes 50 fois le meme fichier jpeg, tu auras, en théorie, un tx de compression de 50…
si les fichiers se ressemble, tu auras une compression, meme si les fichiers eux meme sont des images compressées.[/quote]

heu non.
tu auras en gros un taux de compression de 1,1; 1,2…
si tu fais un fichier zip, que tu recompresses dans un autre fichier zip, que tu recompresses dans un autre fichier zip cinquante fois, tu vas pas dimiuner par 50 la taille de depart hein … Sinon tout le monde ferait ca.
Tu gagnes rien a zipper un zip, l’algo de compression est deja passé. Meme chose pour un jpeg, c’est deja un format compressé, qui plus est par un algo dedié à l’imagerie. C’est pas en utilisant un algo généraliste que tu feras mieux.

Donc non, tu n’auras pas un taux de compression de 50 :smiley:

[quote=“cben76, post:19, topic: 51070”]heu non.
tu auras en gros un taux de compression de 1,1; 1,2…
si tu fais un fichier zip, que tu recompresses dans un autre fichier zip, que tu recompresses dans un autre fichier zip cinquante fois, tu vas pas dimiuner par 50 la taille de depart hein … Sinon tout le monde ferait ca.
Tu gagnes rien a zipper un zip, l’algo de compression est deja passé. Meme chose pour un jpeg, c’est deja un format compressé, qui plus est par un algo dedié à l’imagerie. C’est pas en utilisant un algo généraliste que tu feras mieux.

Donc non, tu n’auras pas un taux de compression de 50 :D[/quote]

Certains algo ne sont pas sensés détecter qu’il y a 50 fichiers identiques et donc d’enregistrer “un seul” fichier avec une “entête” qui dirait “faut dupliquer le fichier/morceau de fichier 50 fois à tel ou tel endroit” ?