Webpage Tricks
Sitemap anlegen (Textpattern: rah_sitemap) und unter https://www.google.com/webmasters/tools/sitemap-list registrieren.
Seiten auf Erkennbarkeit (schema.org) testen: https://search.google.com/structured-data/testing-tool
-> robots.txt im Hauptverzeichnis anlegen für Suchmaschienen.
Verzeichnisse für Suche frei geben oder sperren:
# alle robots
User-agent: *
Disallow: /bbs/
Disallow: /cgi-bin/
Disallow: /forms/
Disallow: /random/
Allow: /baumaschinen/
Allow: /allgemein/
-> .httaccess im Hauptverzeichnis bzw. in jedem Verzeichnis anlegen.
Diese lokale Konfigurtationsdatei überschreibt die serverseitigen Einstellungen des Webservers für das aktuelle Verzeichnis und alle Unterverzeichnisse.
Beispiel Standard-Fehlerseiten definieren:
ErrorDocument 400 /error/400.html
ErrorDocument 401 /error/401.html
ErrorDocument 403 /error/403.html
ErrorDocument 404 /error/404.html
ErrorDocument 500 /error/500.html
Zugangsschutz für Verzeichnis "geheim" aktivieren:
AuthUserFile /home/0815123/uwe-kernchen.de/htdocs/geheim/.htpasswd
AuthName "Uwe Kernchen - Bitte erst einloggen"
AuthType Basic
require valid-user
-> .htpasswd im zu schützenden Verzeichnis anlegen
Username + verschlüsseltes PW mit einem .htpasswd -Generator erstellen. (ein User pro Zeile)
Inhalt kann auch mit Unix Shell command "htpasswd" erstellt, gelöscht oder editiert werden.