Accéder au contenu.
Menu Sympa

technique - Re: [TECH] Détection de doublons & nettoyag e de code DreamWeaver

Objet : Liste pour les discussions techniques (liste à inscription publique)

Archives de la liste

Re: [TECH] Détection de doublons & nettoyag e de code DreamWeaver


Chronologique Discussions 
  • From: Lucile Fievet <lucile.fievet AT eufar.net>
  • To: technique <technique AT april.org>
  • Subject: Re: [TECH] Détection de doublons & nettoyag e de code DreamWeaver
  • Date: Thu, 13 Mar 2008 12:26:58 +0100
  • Organization: Eufar

J'avais zappé la réponse pour fdups, je l'ai testé hier, il est vraiment très bien.

Il y'en a aussi des graphiques comme fslint et un autre dans la suite KDE qui sont pas mal.

il y'a one.sh qui est sympath aussi :

http://www.kde-apps.org/content/show.php/one.sh+search+&+delete+duplicate+files?content=51992

Mais ils sont tous orientés administration système; perso je cherche un outil me permettant de nettoyer du code php généré par dreamweawer:

*nombreux fichiers carrément dupliqués ou trèèèès légèrement modifiés (espace, ligne, commentaires, un nom)

*nombreux entêtes javascripts identiques.

*promène de liens relatifs.

*copier coller de pavé de code moisis dans toutes les pages.

*pas de vérification des variables passées.

*très peut de fonctions (0 objet).

*imbrication abusive du PHP/HTML/style.

La sécurité ne me semble pas problématique car je suis dans un contexte où le nommage/présence/contenu des fichiers est déjà contrôlé et sous CVS.(En tout cas mes deux trois moulinettes bash ne me posent pas de problèmes particuliers "chez moi ca marche" je n'appelle pas mes fichiers `rm -rf :o) je ne bosse pas en root).

C'est pour cela que j'aimerais pouvoir adapter les scripts de nettoyage pour prendre en comptes les fichiers qui se ressemblent du point de vue code (ignorer les différences de retours chariots ou espaces...).

Et les fusionner en un seul fichier :
0- solution crade mais rapide: Les remplacer par un lien symbolique ou direct,

1- solution plus propre:
-Trouver où ses fichiers sont appelés (apache, cron, include php, liens html, actions javascript, css, base de donnée)

-Remplacer leur chemin d'accès dans le "code" (php/html/javascript/css/crontab/httpd.conf)

-Faire un résumer, pour pouvoir tester les pages impactées et éviter les régressions.

-Mettre CVS à jour pour pas qu'il remette les fichiers en place à l'update..

3- solution entre les deux: les remplacer par un fichier du même nom qui ferait un "require_once",location,include ou @import (php, html, js, css) du fichier élu; et au passage y coller une fonction qui comptabilise et note où et comment il est appelé... (ne fonctionne pas pour les images mais cause moins d'ennuis avec CVS...)


Je pourrais remplacer l'appel au checksum par un diff avec les options qui conviennent dans un des nombreux scripts de détection de doublons. Puis y greffer la moulinnette dependance.sh (grep+sed) pour lister les fichiers à passer à une autre moulinnette (sed)... pour mettre à jour les chemins(include,require,href=,action=...)

Mais déjà si j'avais un "fdups" qui ne suprime pas les fichier mais me fasse un lien symbolique ou directe à la place ça serait pas mal...

lucile

David Lapetina wrote:
On Wed, 12 Mar 2008 16:45:46 +0100, Nicolas George <ngeorge AT april.org>
wrote:
Il est plein de bugs aussi, hein. Plein de re-parsage de sorties de
commandes qui ne sont pas destinées à être utilisées dans des
scripts,
plein
d'utilisation de variables non protégées. J'ai la flemme de regarder en
détails, c'est trop illisible, mais je suis certain qu'il y a moyen
d'exploiter ça pour te faire supprimer des fichiers précieux.

En tout cas fdupes fonctionne très bien. Il a parcouru mon disque remplis
ras la gueule de 160 Go en 20 minutes.
Merci à la personne qui me l'a conseiller et à l'autre qui m'en a
conseillé un autre que je n'ai pas utilisé car fdupes m'a satisfait.





Archives gérées par MHonArc 2.6.16.

Haut de le page