TheJoe.it Dans le (ouvrir) Source

15Jul/130

WordPress: migrer d'un sous-répertoire à la racine

wordpress-logo2

L'article d'aujourd'hui est un peu technique, J'ai dû fouiller dans certaines tendances que j'étais trop léger pour certains ennuis quand j'ai installé WordPress combiné (le moteur de ce blog) su TheJoe.it.

Voici ci-dessous les étapes Blog avec WordPress soutien à déplacer une installation existante de WordPress à partir d'un dossier, le domaine racine. Comme dans mon cas, il a été installé dans WordPress "http://thejoe.it/wordpress/", le fichier index.php dans le répertoire racine était à la place d'une simple redirection 301 répertoire alla "/wordpress".

17Mar/1224

Le mot-clé “(pas fourni)” dans Google Analytics

google-analytics

Google Analytics est un outil puissant à notre disposition gratuitement grâce à Google. Il offre une myriade de possibilités de la possibilité d' surveiller l'accès, à l' contrôle de la fréquence avec lequel un visiteur revient sur le site, le Cliquez sections, le cliquez moins et aussi mots-clés qui, après la route à la recherche d'un site.

Depuis que Google a mis en place SSL sur les utilisateurs connectés, cependant,, paru voix "(pas fourni)" dans mes statistiques. Au début c'était un très faible pourcentage auquel j'ai donné le poids voulu, après plusieurs années de fonctionnement, cependant,, Je trouve la voix "pas fourni" à l' 64,52%, maintenant au troisième rang parmi toutes les recherches.

26Feb/104

Quelques conseils à l'usage des “.htaccess”

not_found.jpg En arrivant à l' troisième poste consécutive son ".htaccess"Je pense qu'il est juste de dire que le sujet me suffit intrigues. Aujourd'hui, nous allons voir quelques conseils et les personnalisations dans l'utilisation des ".htaccess", l'amélioration des performances de notre serveur.

Remplis sous: SEO, Conseils, Web Lire la suite
25Feb/100

Utilisez le fichier “.htaccess” par bloccare l'hotlinking

broken_link.jpg Nous continuons à parler ".htaccess", Aujourd'hui, nous voyons comment bloc hotlink des images qui se trouvent sur notre serveur.

Hier, nous avons parlé d'interdire l'accès à nos images de sites externes (comme cela arrive souvent avec forum le sites amateurs), qui ne font rien, mais augmenter l'utilisation de la bande, réduisant les ressources de notre serveur. Dans le cas d'hier, l'utilisateur verra le symbole de l'image manquante, ceux qui tentent de se connecter directement au site j'obtiens l'erreur "403 Interdite".

Aujourd'hui, nous voulons avoir du plaisir à la place. Ce ne serait pas drôle si l'utilisateur au lieu de voir l'image manquant de voir une autre image qui le pousse à ne pas lier de notre serveur? Cette fois, nous allons créer un fichier ".htaccess"Directement dans le répertoire d'images. Et 'possible de créer plus ".htaccess"Sur un serveur. Si vous pouvez en créer un pour chaque répertoire. Voyons comment ce sera nos images pour:

Remplis sous: SEO, Conseils, Web Lire la suite
24Feb/104

Utilisez le fichier “.htaccess” pour bloquer l'accès

googlebot1.jpg Pour quelqu'un qui est arrivé à contrôler l'accès d'un site sera jamais rencontré très semblables les uns aux autres accès, il est souvent crawler (Google lui-même utilise un type sophistiqué de robot appelé GoogleBot). Paraphrasant Wikipedia:

Une chenille (également appelé araignée le Robot), est un logiciel qui analyse le contenu d'un réseau (ou une base de données) dans un méthodique, automatisé, typiquement pour compte d'un moteur de recherche,.

Crawlers sont généralement inoffensives, créer un pas de circulation dans le site (si bien fait) à offrir Le service d'indexation que nous connaissons et apprécions tous. [plus]

Cependant, il ya robots que, en utilisant les mêmes mécanismes de l'indexation sur chenilles, balayage de la bande à la recherche d' failles dans le code pages. Comme nous le savons webmasters ne sont pas toujours attention à la planification, et parfois nous sommes conscients de certains les failles de sécurité Site (Le portail). Ces chenilles nuisibles explorer la longueur et la largeur du web, l'indexation des pages pour eux-mêmes afin de "Pierce«Le site, et accéder le serveur ou pour le pire des données sensibles.

Aussi, en plus de ne pas nous un bon service d'indexation faire, augmenter l'utilisation de la bande, forçant le navigateur à visiter le site plus lentement. Eh bien ... au-dessus insulte à l'injure.

Cependant, il est possible via un fichier texte simple de bloquer l'accès à certaines adresses IP ou "user agent" une fois identifié. Je parle de ce fichier. "Htaccess".

Le fichier «. Htaccess" est un fichier de configuration utile pour le serveur, un outil très simple, mais tout aussi puissante, et ne peut être utilisé à la légère. Une erreur dans le fichier de configuration peut inhiber l'accès à leurs pages webmaster, pour qui Andiamoci prudent.

La meilleure façon de savoir si le "agent utilisateur"Qui a fait une visite récente au site est chenilles nuisibles est une recherche sur Google. Laissez-le séparément "agent utilisateur” e l’Adresse IP à partir de laquelle nous avons reçu la demande.

Verrouiller le bot à travers. "Htaccess"

Cet exemple, et toutes les suivantes, On peut ajouter à la fin du fichier ".htaccess", toujours il a été créé. Si elle n'existe pas déjà, vous pouvez le créer: un simple fichier texte que nous appellerons ". htaccess" mettra en "répertoire racine"Le serveur.

#Débarrassons-nous du bot %{HTTP_USER_AGENT} ^ Malbot(.*)$ http://go.away /

Qu'est-ce que ce morceau de code? Simple. Les quelques lignes ci-dessus indiquent au serveur de contrôler tous les accès dont "user agent " en commençant par "Malbot". Quand il en trouve une qui coïncide redirections à une adresse qui n'existe pas appelé "http://go.away /".

Maintenant, nous allons voir comment bloquer plus d'un:

#Débarrassons-nous des robots %{HTTP_USER_AGENT} ^ Malbot [OU]
RewriteCond %{HTTP_USER_AGENT} ^ EvilScaper [OU]
RewriteCond %{HTTP_USER_AGENT} ^ FakeUser(.*)$ http://go.away /

Le code ci-dessus fait exactement les mêmes choses qui ont fait la première, dans ce cas, bloque tout "agent utilisateur"Qui commencent par"Malbot", "EvilScraper", "Faux utilisateur". Notez que quand il ya plus d'un bot pour verrouiller vous devez mettre "[OU]«À la fin de la ligne de toutes les règles, sauf que le dernier.

Verrouillage de la bande passante de "voleurs"

N'importe qui voile ne sait généralement pas, mais il arrive souvent que, pour être plus léger sur votre propre serveur (ou la simple ignorance) certains webmasters inclure des images de résidents ailleurs dans vos pages. Cette éclaircit la charge sur le serveur qui n'a pas le fardeau de l'accueil l'image, mais poids trafic sur le serveur où réside l'image, sans compter que le second serveur n'a pas de publicité du travail accompli.

Puisque nous ne pouvons pas nous permettre de changer en séquence les images sur notre site, dans ce cas aussi ".htaccess«Il ya de l'aide.

RewriteEngine on %{HTTP_REFERER} ^ Http://.*somebadforum  com. [NC]
Rewriterule .* - [F]

De cette façon "somebadforum.com"Allez être redirigé vers un Code "403 Interdite"Pour chaque image incluse. Le résultat final sera le symbole classique de l'image manquante (image brisée), e nostro côté serveur enregistre Sara.

Pour verrouiller plus d'un site c'est le code:

RewriteEngine on %{HTTP_REFERER} ^ Http://.*somebadforum  com. [NC,OU]
RewriteCond %{HTTP_REFERER} ^ Http://.*example1  com. [NC,OU]
RewriteCond %{HTTP_REFERER} ^ Http://.*example2  com. [NC]
Rewriterule .* - [F]

Comme ci-dessus, noter sur la finition de chaque ligne "OU", à l'exception de la dernière.

Interdire l'IP

Il peut aussi arriver que vous faites bot intelligent, et à changer de rotation "agent utilisateur", afin d'avoir un accès continu à des pages du site. Lorsque ce phénomène se produit d'une manière à bloquer l'accès au bot "imaginative" est bloquer IP (verrouiller seulement si il existe un accès continu à partir de la même adresse IP). Toujours dans notre fidèle ".htaccess"Ajoutez les lignes suivantes:

Order allow,nier 192.168.44.201
refuser de 1.2.3.4
refuser de 5.6.7.8
permettre à tous

Dans cet exemple, nous bloquons trois adresses IP, avec la dernière ligne garantir l'accès à tous les autres. Mais il est également possible de bloquer l'accès à la racine de l'adresse (c'est. 192.168.*):

Order allow,nier 192.168.
refuser de 100.29.
refuser de 500.699.
permettre à tous

Avec ces règles, toutes les adresses IP qui commencent par "192.168." (et la suivante) seront bloqués.

Proposer toujours de créer un sauvegarder des ".htaccess", les choses ne vont pas toujours comme on le voudrait, et ne serait pas utile à toute personne n'ayant pas accès à leur serveur. L'hébergeur le plus commun offrir un soutien déposer ".htaccess", au cas où votre hébergeur propose pas un tel soutien croire, c'est le cas de cambiare hébergeur.

Remplis sous: SEO, Web 4 Commentaires