Chargement...
 
Skip to main content

3 - Le site : philosophie, organisation, problèmes...


Et valà ! (j'y pensais il ya quelques jours quand j'ai testé des liens vers tiki .org sur manuel du site ...)

Pour palier à ça il faudrait supprimer la fonction des historique car l4ID enn bout d'url est (sauf erreur ) lié au numéro de version de la page
France
c'est du aux structures qui ont changé (&structure=Doc)
ça devrait se mettre a jour sur google prochainement ?
On verra bien mais c'est le désavantage des structures.

ou alors il faudrait trouver une règle pour Disallow: /ce type d'url ? depuis le fichier robot ?
France
je trouve que c'est une bonne idée, si ca ne l'empeche pas de trouver les pages évidemment
France
Ou alors, on peut faire une redirection 301 vers la bonne nouvelle adresse.
Non je préfèrerai un disallow car ça peux changer pour raison x ou y et s'il faut éditer à chaque foi le htaccess c'est contraignant.

on dit à google tu t' occupe pas de ces url et c'est buen non?

Mais déja attendons quelque jours voir comment ça ce passe dans le cache google
France
C'est dans le Robots.txt ça, pas dans le .htaccess, non ?
Oui je voudrait que google ne s'occupe pas de ce genre d'url
mais à bien y réfléchir c'est pas une bonne idée car la visibiloté se fait aussi par les url lues donc on va attendre quelques jours ...
France
Ou alors, on peut faire une redirection 301 vers la bonne nouvelle adresse.

Ca par contre, c'est une très mauvaise bonne idée (que j'attendais au tournant)
Explication :
On a des pages contenant un plugiciel qui force l'ajout de la variable "structure" dans l'url. Car ces pages ont plusieurs structures, que par défaut dans ce cas aucune structure n'est affichée lorsqu'on y accède par une url sans la variable, et que l'on a jugé qu'il était mieux d'avoir une structure par défaut.
Exemple de page dans ce cas : cartes son
Cela créerai donc une boucle infinie :
Si on y accède via l'url http://www.linuxmao.org/cartes+son
  • le plugiciel recharge la page en rajoutant la variable structure=Accueil+Tutos
  • le htcaccess recharge la page sans la variable
  • le plugiciel recharge la page en rajoutant la variable structure=Accueil+Tutos
  • le htcaccess recharge la page sans la variable
  • ...
oliv'
purée ça va être la misère car si un lien fonction de suite et le lendemain non
on edite le htaccess pour lui dire ou est la bonne page
mais si le lendemain on edite cette page alors l'ID change avec la nouvelle version de la page et ainsi de suite ?? fastidieux l'affaire
France
Non, ce genre de problèmes peut arriver en effet, mais si on ajoute le modificateur L après la règle de réécriture, cette règle de réécriture est la dernière à être utilisée, ce qui évite ce genre de récursivité sans fin.
France
On peut identifier le numéro de révision et l'utiliser dans la nouvelle adresse, ou bien décider qu'on accepte tous les numéros.
La réécriture d'adresse est assez flexible.

On peut même charger un script (en Python, en Perl, en Php, par exemple) de s'en occuper, ce qui fait passer, pour ceux qui connaissent la théorie des langages formels, la réécriture de la puissance d'un automate pour langage régulier, à celle d'une machine de Turing.
France
C'est possible, mais dans ce cas là aucune structure ne sera chargée pour la page, ce que l'on ne souhaite pas
@ProgramLyrique :
Post une nouvelle réponse et n'édite pas ton premier post sinon on va pas suivre ce qui est vu ou pas .

On parle de ce genre d'url:
http://www.linuxmao.org/JP1&structure=Doc&page_ref_id=1402
et non pas de
http://www.linuxmao.org/JP1

Pour l'instant attendons voir car si c'est juste google qui index la page on doit pouvoir y palier faut juste le temps de truover comment.

Et je pense que ça ce fera avec le fichier robot .
France
Certes, mais là, on peut se débrouiller.

Par exemple, on peut décider de n'appliquer certaines règles que si une règle précise a été utilisée juste avant.
C'est assez puissant.

Mais ça devient vite compliqué, et plus c'est compliqué, plus il peut y avoir des bugs difficilement repérables.
On peut même charger un script (en Python, en Perl, en Php, par exemple) de s'en occuper, ce qui fait passer, pour ceux qui connaissent la théorie des langages formels, la réécriture de la puissance d'un automate pour langage régulier, à celle d'une machine de Turing.


Tu peux m'expliquer plus simplement stp?
et plus c'est compliqué, plus il peut y avoir des bugs difficilement repérables.

Je suis bien d'accord dponc avant d'agir on va attendre quelques jour sur cet aspect voir si google fait son taf. et si on retrouve les liens HS ou pas.
France
@utilisateur_anonyme :
Alors :

Ce sont des expressions rationnelles, donc on peut faire grosso modo, seulement des substitutions. On peut aussi bloquer des pages suivant l'heure de la journée, l'adresse IP du lecteur etc
  • Utiliser un programme externe Dernier paragraphe. Le programme reçoit les URL sur stdin (entrée standard) et renvoie les nouvelles URL sur stdout (sortie standard). En l'occurence, c'est un script perl qui fait le boulot.

Pour le commentaire sur les langages formels (et la calculabilité), je me référais à la Hiérarchie de Chomsky, qui essaye de classifier l'expressivité des langages (entre autres de programmation, mais ça peut être aussi des langages parlés par des humains) : dans cette hiérarchie, les expressions régulières qui sont utilisées par défaut par les règles de réécriture du .htaccess, sont beaucoup moins expressives ("puissantes") que les langages reconnaissables par machine de Turing (ce qui correspond aux langages de programmation, par exemple).
J'ai de la lecture du coup merci pour les liens .
Page: 1/2  [Suivant]
1  2