Mysmilies.net die Smilies Datenbank

Script oder Datei finden :

 
-Startseite
-Newsarchiv
-Newsletter
-Mein Dreamcodes
-Scripte
-eBooks
-Online Speicher
-Datenbanken
-Webseiten
-Trickfilm
-Web Grafiken
-Bildbearbeiter
-Browser
-EMail Software
-Ftp Clienten
-Betriebssysteme
-Texteditoren
-Wampserver
-Office Pakete
-Antivirus
-System Cleaner
-Recovery Tools
-Php Schnipsel
-Ajax Schnipsel
-VB Schnipsel
-Tutorials
-Workshops
-Webkatalog
-Leserforum
-Erweiterte Suche
-Sitemap
-Impressum
-neuste Downloads

1. Selfphp (1851)
2. Xampp OS X (1737)
3. Xampp Linux (1726)
4. Xampp Windows (1750)

-neuste Tutorials

1. Samsung S20 rooten (2172)
2. Gratis USA Nummer (15921)
3. RAID (14735)
4. Text auf Grafik (15588)


Tutorials Robot.txt

 

Robot.txt

hallo!

In diesem Tutorial seht ihr wie man einfach seine Homepage davor schützen kann, dass sie von Suchmaschinen wie Google Indexiert wird, also das die Suchmaschine nicht
den Inhalt eines Verzeichnises speichert so dass man später in der Suchmaschine Dateienaus diesem Ordner aufgelistet bekommt.

Um die jeweiligen Ordner oder Dateien zu schützen, legen wir im Stammverzeichnis eine Datei mit dem Namen "robots.txt" an und öffnen sie mit einem einfachem Texteditor.
Also müsste die URL zu den Files dann so lauten: http://www.myurl.com/robots.txt


Die Syntax der robots.txt ist ganz einfach: Um Verzeichnise vor den Suchmaschinen zu schützen, gibt man folgenden
Code in die Datei ein:

# Beispiel robots.txt
User-agent: *
Disallow: /ordnername/
Disallow: nixtoindex.html


"User-agent" bezeichnet, für welche Suchmaschinen Indexdienste die Befehle gelten, am besten ihr nehmt *, das bedeutet das
die Befehle für alle Suchmaschinen gelten.

Mit diesem Code werden der Ordner "/ordnername/" und die Datei "nixtoindex.html"geschützt. Um meherere Ordner zu schützen gibt man einfach in einer neuen
Zeile wieder "Disallow: /ordner/" ein.
Anmerkung: Zeilen in denen vor dem Text ein "#" steht gelten als Kommentare und werden ignoriert.

Wenn man seine ganze Website mit einem Befehl schützen will gibt man "Disallow: /" ein, dies sperrt alle Ordner der Website
für Suchmaschinen.

Will man seine ganze Website freigeben gibt man "Disallow: " ein, dies ist eigentlich nicht nötig, weil man im Gegensatz auch
gleich die ganze Datei weglassen könnte.

Wann wird robots.txt angewandt?

Man sollte die Indexierung für Ordner in denen Hauptsächlich PHP Skripte mit sich ständig veränderden Ausgaben und Temporäre Dateien vorhanden sind sperren, weil
die Ausgaben von PHP Skripten sich meist öfters verändern und Temporäre Dateien schnell wieder entfernt werden und so "Death Links" entstehen.
Wenn man verhindern will, das Bilder die man in z.B. Google Bilder findet von seiner Website heruntergeladen werden, sollte man die jeweiligen Bildordner / Dateien ebenfalls
sperren.

Schlusswort

Die Suchmaschinen sind nicht gesetzlich verpflichtet, den Anweisungen in den robots.txt Dateien zu folgen, aber die meisten tun die angegebenen Dateien ausschließen.

 
Seiten : 1
hinzugefügt am : 26.05.2006
Autor : redcow
Listings ID : 996
Status zum lesen : Gast
gelesen : 5500 mal
[Druckansicht] [Lesercharts] [RSS] [zur Übersicht]
 
 

Die Möglichkeit diesen Artikel zu verlinken :

HTML-Code:

Code zum Einbinden in ein Forum:


Hinweis : Das lesen des Artikels Robot.txt - listings ID: 996 auf Dreamcodes, sowie Link Verweise auf Internetseiten fremder Anbieter erfolgen auf eigene Gefahr. Dreamcodes haftet nicht für Schäden, die aus der Verwendung des Inhaltes der Artikel erfolgen könnten. Schadenersatzansprüche, aus welchem Rechtsgrund auch immer, sind ausgeschlossen !
-Live Statistik
Datum: 22.11.2024
Uhrzeit: 01:36 Uhr
Online: 27 User
User heute: 2472
User allgem.: 35313129

Eingeloggt als Gast
-Download des Monats
-
-unsere Monats Umfrage
Welche Serie ist besser?

The Blacklist
House of the Dragon
Die Ringe der Macht
The Sandman
Manifest

-unsere Bestseller