Hallo liebe Community,
Ich habe eine robots.txt Datei für mein Forum erstellt und frage mich ob diese kompatibel für das Forum ist oder ob ich dabei etwas unbeachtet gelassen habe.
Die Robots Datei ist mit "Allow" vor allem geschieben, also anders als üblich wollte ich es so versuchen nur die Seiten zu erlauben die die Suchmaschine indexieren soll, also nach den Einschlussverfahren.
Da man ja anderweitig Seiten ausschließt also mit Disallow die Beispiele im Internet oft gemacht sind frage ich mich ob man das so machen kann wie ich das gemacht habe und was daran problematisch auf Dauer oder gar völlig unkompatibel für z.B. eine Google Indexierung ist oder ob es deutlich geeignetere Wege gibt?
Würde mich sehr freuen wenn ihr mir da weiterhelfen könnt.
Hier der Code:
User-agent: *
Disallow: /*?postID
Disallow: /*?action
Disallow: /*?userID
Disallow: /*?sortField
Allow: /board/
Allow: /user/
Allow: /thread/
Allow: /index.php?thread/
Allow: /index.php/Thread/
Allow: /dashboard
Allow: /dashboard/
Disallow: /*/
Allow: /
Disallow: /
User-agent: SurveyBot
Disallow: /
User-agent: WebsiteWiki
Disallow: /
User-agent: ShopWiki
Disallow: /
User-agent: Jakarta Commons-HttpClient
Disallow: /
User-Agent: AboutUsBot
Disallow: /
Sitemap: http://www.psychoseforum.de/wcf/sitemaps/sitemap.xml
Display More
Danke fürs darüberschauen und Gruß,
Maggi