Mehrere Fehler im Server-Log

  • Affected Version
    WoltLab Suite 3.1

    Hey,


    ich habe seit einiger Zeit immer folgendes im Log von Nginx stehen:


    Ich muss anmerken, dass mir im Forum nichts aufgefallen ist, was nicht funktioniert.
    Und das ich bis vor ein paar Wochen noch das Nginx module Pagespeed auf dem Server laufen hatte.


    Könnte das was mit Sitemaps zu tun haben?
    Das die noch die alten Links enthalten und das Bots sind die die alten Links versuchen aufzurufen?

  • Bitte nicht.. *push*. ;)



    [error] 17434#17434: *14636 open() "/var/www/example.de/web/forum/robots.txt" failed (2: No such file or directory), client: XXX.162.246.22, server: example.de, request: "GET /robots.txt HTTP/1.1", host: "forum.example.de"


    Ich würde mal schauen ob die Datei "robots.txt" an der richtigen Stelle vorhanden ist. (Hauptwurzelverzeichnis - dem genannten Pfad) Und ob die Datei auch die entsprechenden Rechte hat, so das diese von Gästen (und damit auch Bots) geöffnet/gelesen werden kann. Dies würde ich an deiner Stelle auch bei den anderen Dateien prüfen.

    WoltNet - Wir haben die aktuellen Nachrichten der WoltLab-Szene!

  • Sieht mir stark nach deiner Vermutung aus. Alte Pfade, die selben Bots. Google & Co. sollten mit der Zeit begreifen dass dort nichts (mehr) ist und die Aufrufe dürften aufhören. Ist ja nichts wildes.


    Was du vielleicht machen kannst ist die Sitemaps zu aktualisieren falls noch nicht getan. Alles andere erledigt die Zeit.

  • Ich würde mal schauen ob die Datei "robots.txt" an der richtigen Stelle vorhanden ist. (Hauptwurzelverzeichnis - dem genannten Pfad) Und ob die Datei auch die entsprechenden Rechte hat, so das diese von Gästen (und damit auch Bots) geöffnet/gelesen werden kann. Dies würde ich an deiner Stelle auch bei den anderen Dateien prüfen.

    Die robots.txt ist nur im root Verzeichnis.



    Sieht mir stark nach deiner Vermutung aus. Alte Pfade, die selben Bots. Google & Co. sollten mit der Zeit begreifen dass dort nichts (mehr) ist und die Aufrufe dürften aufhören. Ist ja nichts wildes.


    Was du vielleicht machen kannst ist die Sitemaps zu aktualisieren falls noch nicht getan. Alles andere erledigt die Zeit.

    Denke auch, dass es daran liegt, aber Google will meine Sitemap nicht mehr "neu lesen" seit dem 10.07.2019.

    Trotz neuer Sitemap + in der Search Console neu angelegt

  • Wie sieht die "robots.txt" aus?


    Ist das z.B. auch enthalten?

    Code
    User-agent: *
    Sitemap: https://www.example.de/sitemaps/sitemap.xml

    WoltNet - Wir haben die aktuellen Nachrichten der WoltLab-Szene!

  • Wenn das bei dir so aussieht, wie du schreibst, dann weiß du ja was du ändern solltest um deine Sitemap auch von Googelchen finden zu lassen.. ;)

    Sitemap: https://example.de/sitemaps/sitemap.xmlUser-agent: *


    (Siehe mein Beispiel: Zeile 1 und 2 sind wirklich auch Zeile 1 und 2 bei mir. )

    WoltNet - Wir haben die aktuellen Nachrichten der WoltLab-Szene!

  • Zeile 7 ist wohl beim Kopieren am Handy ineinander gerutscht


    So ist es richtig


    Code
    User-agent: *
    Disallow: /search/
    Disallow: /tagged/
    Sitemap: https://samfreaks.de/sitemaps/sitemap.xml
  • Ich denke das die Sitemapzeile als zweites gehört. Dann sollte auch Googel nicht mehr meckern.

    WoltNet - Wir haben die aktuellen Nachrichten der WoltLab-Szene!

Participate now!

Don’t have an account yet? Register yourself now and be a part of our community!