TheJoe.it Into the (öffnen) Quelle

15Jul_Juli_abbreviation/130

WordPress: Migration von einem Sub-Verzeichnis in das Root-

Wordpress-logo2

Der heutige Artikel ist ein bisschen "technische, Ich hatte in einigen Trends vertiefen, dass ich zu leicht war für einige Probleme, wenn ich WordPress installiert kombinierten (der Motor dieses Blogs) su TheJoe.it.

Hier unter den Schritten Blog mit WordPress Unterstützung zu eine bestehende Installation von WordPress aus einem Ordner, die Root-Domain. Wie in meinem Fall war es in WordPress installiert "http://thejoe.it/wordpress/", die Datei index.php in das Root-Verzeichnis anstelle war eine einfache Umleitung 301 alla Verzeichnis "/wordpress".

17Mrz_März_abbreviation/1224

Das Schlüsselwort “(nicht vorgesehen)” in Google Analytics

google-analytics

Google Analytics ist ein leistungsfähiges Werkzeug zur Verfügung, um uns kostenlos dank Google. Es bietet eine Vielzahl von Möglichkeiten, von der Möglichkeit der Monitorzugriff, die Frequenzregelung mit denen ein Besucher kehrt an den Ort, die Klicken Abschnitte, die Klicken Sie weniger und auch Schlüsselwörter, die nach dem Weg zum Website-Suche.

Da Google eingeführt hat angemeldeten Benutzer in SSL, jedoch, erschienen Stimme "(nicht vorgesehen)" in meiner Statistik. Am Anfang war es ein sehr geringer Prozentsatz, zu dem ich wegen Gewicht gegeben haben, nach mehreren Jahren der Betrieb jedoch, Ich finde die Stimme "nicht vorgesehen" die 64,52%, jetzt an dritter Stelle unter allen Forschungs-.

26Feb_Februar_abbreviation/104

Einige Tipps bei der Verwendung von “.htaccess”

not_found.jpg Bei der Ankunft im dritten Mal in Folge nach ihre ".htaccess"Ich denke, es ist angemessen zu sagen, dass das Thema fasziniert mich genug. Heute werden wir sehen, einige Tipps und Anpassungen bei der Verwendung von ".htaccess", Verbesserung der Leistung von unserem Server.

veröffentlicht unter: SEO, Tipps, Web weiterlesen
25Feb_Februar_abbreviation/100

Verwenden Sie die Datei “.htaccess” pro bloccare l'hotlinking

broken_link.jpg Wir werden weiterhin darüber zu sprechen ".htaccess", Heute sehen wir, wie Block hotlink Bilder, die auf unserem Server befinden.

Gestern sprachen wir über wie den Zugang zu unseren Bildern von externen Seiten zu verbieten (wie so oft mit Forum die Amateur-Sites), , die nichts zu tun, sondern um die Nutzung der Band, Verringerung der Ressourcen unserer Server. Im Fall von gestern, wird dem Benutzer das Symbol Bild fehlt, diejenigen, die eine direkte Verbindung zu der Website, bekomme ich die Fehlermeldung "403 Verbotene".

Heute wollen wir Spaß haben stattdessen. Wäre es nicht lustig, wenn der Anwender anstatt zu sehen, das Bild zu sehen fehlt ein anderes Bild, das ihn dazu drängt, nicht von unserem Server verbinden? Dieses Mal werden wir eine Datei erstellen ".htaccess"Direkt im Verzeichnis images. Und 'möglich, zur Schaffung von mehr ".htaccess"Auf einem Server. Wenn Sie können eine für jedes Verzeichnis. Mal sehen, wie es wird unsere Bilder für sein:

veröffentlicht unter: SEO, Tipps, Web weiterlesen
24Feb_Februar_abbreviation/104

Verwenden Sie die Datei “.htaccess” den Zugang zu sperren

googlebot1.jpg Für alle, die den Zugang von einer Website überwachen passiert jemals über sehr ähnlich zueinander kommen Zugang, oft ist es Crawler (Google selbst nutzt eine hoch entwickelte Art der Crawler genannt GoogleBot). Anlehnung Wikipedia:

Ein Crawler (auch als Spinne die Roboter), ist eine Software, die den Inhalt eines Netzwerks analysiert (oder eine Datenbank) in einer methodischen, automatisierte, typischerweise für Rechnung einer Suchmaschine.

Crawler sind meist harmlos, erstellen kein Verkehr innerhalb der Site (wenn sie gut gemacht) zu bieten Indexing Service die wir alle kennen und schätzen. [mehr]

Allerdings gibt es, dass Crawler, mit den gleichen Mechanismen des Crawlers Indizierung, Scannen des Web auf der Suche nach Fehler im Code Seiten. Wie wir wissen Webmaster sind nicht immer in der Planung vorsichtig, und manchmal sind wir uns bewusst von einigen Sicherheitsverletzungen Website (Das Portal). Diese schädlichen Raupen erkunden Sie die Länge und Breite der Bahn, Indizierung der Seiten für sich selbst, um "durchbohren"Der Standort, und Zugang der Server oder schlechter sensible Daten.

Auch, neben uns nicht eine gute Indizierung Service, verstärkte Nutzung der Band, zwingt den Browser, um die Website zu besuchen langsamer. Nun ... über Beleidigung Verletzung.

Allerdings ist es mit einem einfachen Text-Datei blockieren den Zugriff auf bestimmte IPs oder "User-Agent" einmal identifiziert möglich. Ich bin über die Datei zu reden. "Htaccess".

Die Datei ". Htaccess" ist eine nützliche Konfigurationsdatei auf dem Server, ein sehr einfaches Werkzeug, aber ebenso leistungsfähige, und kann nicht leichtfertig verwendet werden. Ein Fehler in der Konfigurationsdatei kann hemmen den Webmaster Zugriff auf ihre Seiten, für die Andiamoci vorsichtig.

Der sicherste Weg, zu wissen, ob die "Benutzeragenten"Wer hat einen letzten Besuch auf dem Gelände gemacht ist schädlich Crawler ist eine Suche auf Google. Lassen Sie ihn separat "Benutzeragenten” e l’IP-Adresse aus denen wir die Anforderung erhalten.

Sperren der Bot durch. "Htaccess"

Dieses Beispiel, und alle nachfolgenden, können am Ende der Datei hinzugefügt werden ".htaccess", immer es erstellt wurde. Wenn es nicht bereits vorhanden ist können Sie es: eine einfache Text-Datei, die wir nennen werden ". htaccess" wird gestellt in "Root-Verzeichnis"Der Server.

#Lasst uns loszuwerden, die Bot %{HTTP_USER_AGENT} ^ Badbot(.*)$ http://go.away /

Was macht dieses Stück Code? Einfache. Die paar Zeilen weiter oben sagen, den Server, um den Zugriff zu steuern, dessen "User-Agent " beginnend mit "Badbot". Wenn es stimmt, die findet man Weiterleitungen zu einer Adresse, die nicht genannt hat "existierenhttp://go.away /".

Nun wollen wir sehen, wie man mehr als einen Block:

#Lasst uns loszuwerden, die Bots %{HTTP_USER_AGENT} ^ Badbot [OR]
RewriteCond %{HTTP_USER_AGENT} ^ EvilScaper [OR]
RewriteCond %{HTTP_USER_AGENT} ^ FakeUser(.*)$ http://go.away /

Der obige Code macht genau die gleichen Dinge, die den ersten gemacht, in diesem Fall blockiert alle "Benutzeragenten"Das beginnt mit"Badbot", "EvilScraper", "Fake Benutzer". Beachten Sie, dass, wenn es mehr als einen Bot zu sperren müssen Sie setzen "[OR]"Am Ende der Zeile aller Regeln, außer, dass die letzte.

Sperren der "Diebe" Bandbreite

Wer Segeln in der Regel nicht wissen,, aber es passiert oft, dass leichter zu sein auf Ihrem eigenen Server (oder einfach Unwissenheit) einige Webmaster umfassen Bilder der Bewohner anderswo in Ihre Seiten. Diese hellt die Last auf dem Server, der nicht die Last der Ausrichtung der Bild, aber Gewichte Verkehr auf dem Server, auf dem sich das Image, nicht zu erwähnen, dass der zweite Server hat keine Werbung von der Arbeit.

Da können wir uns nicht leisten, in der Reihenfolge der Bilder auf unserer Website ändern, auch in diesem Fall ".htaccess"Es gibt Hilfe.

RewriteEngine on %{HTTP_REFERER} ^ Http://.*somebadforum . com [NC]
RewriteRule .* - [F]

Auf diese Weise "somebadforum.com"Wird ein umgeleitet werden Code "403 Verbotene"Für jedes Bild enthalten. Das Endergebnis wird das klassische Symbol für fehlende Bild sein (broken image), e Nostro serverseitige spart Sara.

Um mehr als eine Website sperren das ist der Code:

RewriteEngine on %{HTTP_REFERER} ^ Http://.*somebadforum . com [NC,OR]
RewriteCond %{HTTP_REFERER} ^ Http://.*example1 . com [NC,OR]
RewriteCond %{HTTP_REFERER} ^ Http://.*example2 . com [NC]
RewriteRule .* - [F]

Wie vorstehend, Beachten Sie auf dem Ende jeder Zeile "OR", mit Ausnahme der letzten.

Verbieten Sie die IP

Es kann auch passieren, dass Sie klug bot tun, und ändern ihre Drehung "Benutzeragenten", um die ständige Versorgung der Seiten der Website. Wenn dieses Phänomen ein Weg, um Zugang zu dem Bot blockieren passiert "phantasievolle" ist blockieren IP (sperren, wenn es einen kontinuierlichen Zugang aus dem gleichen IP). Auch in unserem treuen ".htaccess"Fügen Sie die folgenden Zeilen:

bestellen können,leugnen 192.168.44.201
deny from 1.2.3.4
deny from 5.6.7.8
ermöglichen von allen

In diesem Beispiel werden wir blockieren drei IP-Adressen, mit der letzten Zeile geliefert Zugriff auf alle anderen. Es ist aber auch möglich, den Zugriff auf den Grund der Adressblock (ist. 192.168.*):

bestellen können,leugnen 192.168.
deny from 100.29.
deny from 500.699.
ermöglichen von allen

Mit diesen Regeln, alle IP-Adressen, die beginnen mit "192.168." (und die folgenden) blockiert werden.

Schlagen Sie immer auf eine zu erstellen Backup von ".htaccess", Dinge nicht immer so, wie wir wollen,, und wäre nicht nützlich für alle, die keinen Zugang zu ihrem Server. Die häufigste Hoster bieten Unterstützung to file ".htaccess", im Falle Ihrer Hoster bieten keine solche Unterstützung glauben, ist der Fall von cambiare Hoster.

veröffentlicht unter: SEO, Web 4 Kommentare