von Fränkin » Montag, 09. März 2026, 14:13:38
Von einem User aus Schweden:
Gast hat geschrieben: ↑Freitag, 06. März 2026, 11:49:48
Ich habe gesehen, das Forum war oft weg oder sehr langsam. Weil ich ein bisschen mit Server-Technik arbeite, habe ich mir die Fehler angeschaut, als es Probleme gab. Vielleicht hilft es für die Zukunft:
• Die Gäste-Zahlen: Ich habe gestern viele Gäste in Liste gesehen. Das ist oft ein Fehler im 'Session-Management' von phpBB, wenn die PHP-Version nicht schnell genug aufräumt. Jeder Klick eines Besuchers wird dann als 5 oder 10 neue Gäste gezählt. Das macht die Datenbank sehr langsam und das Forum 'laggt'.
• Der Zertifikats-Mismatch: Mein Browser hat eine Warnung gezeigt für zamas-magischesentertainment.de. Dieses Zertifikat ist seit Mai 2020 abgelaufen. Technisch bedeutet das: Der Server war so überlastet mit den vielen (Geister-)Sessions, dass er die Zuordnung zu het-forum.de kurzzeitig verloren hat und auf das alte Standard-Zertifikat des Accounts zurückgesprungen ist.
Dazu als kleine Anmerkung von mir:
Der Besucherrekord liegt bei 3358 Besuchern, die am Samstag, 07. März 2026, 11:03:57 gleichzeitig online waren.
Weiter mit dem netten Gast aus Schweden:
Solsken hat geschrieben: ↑Freitag, 06. März 2026, 12:20:47
ich habe gerade noch etwas gesehen, was dem Forum vielleicht sehr helfen würde gegen die vielen „Gäste“. Mir ist aufgefallen, dass das Forum keine robots.txt Datei im Hauptverzeichnis hat.
Das ist wahrscheinlich der Hauptgrund für die Last: Ohne diese Datei wissen Suchmaschinen-Crawler (Google, Bing, etc.) nicht, dass sie langsamer machen sollen. Sie indizieren dann alles gleichzeitig und erzeugen bei jedem Klick eine neue Session, was die Gäste-Liste so aufbläht und den Server extrem verlangsamt.
Hier ist ein Vorschlag für eine einfache robots.txt, die dem Server sofort Luft verschaffen würde:
User-agent: *
Disallow: /adm/
Disallow: /mcp/
Disallow: /ucp/
Disallow: /viewonline.php
Disallow: /search.php
Crawl-delay: 10
Als Antwort auf einen Vorbeitrag:
Solsken hat geschrieben: ↑Freitag, 06. März 2026, 12:26:57
Hej, das mit Cloudflare ist eine gute Idee, aber warum ein abgelaufenes Zertifikat von 2020 zeigen? Das passiert technisch nur, wenn der VirtualHost des Servers wegen Last auf den Default-Account zurückfällt. Das ist kein Hack, das ist ein Konfigurationsfehler. Und gegen 503-Fehler durch Crawler hilft die robots.txt viel schneller und kostenlos. Warum kompliziert, wenn es einfach geht?
Nächste Antwort:
Solsken hat geschrieben: ↑Freitag, 06. März 2026, 12:43:03
Ich muss deiner Theorie aber freundlich widersprechen: Dass ein SSL-Zertifikat von Mai 2020 erscheint, ist kein Zeichen für eine „gezielte Manipulation“. Technisch passiert das bei einem Apache- oder Nginx-Server schlicht dann, wenn der Server durch zu viele Anfragen (wie die 1.700+ Sessions ohne robots.txt) so überlastet ist, dass er die Domain nicht mehr dem richtigen Verzeichnis zuordnen kann. Er liefert dann einfach das allererste Zertifikat aus, das im System hinterlegt ist – in diesem Fall das uralte vom Hauptaccount.
Das ist ein klassisches Konfigurationsproblem bei Überlastung, kein erfolgreicher Hack. Bevor man über Cloudflare nachdenkt, sollte man erst einmal die Basics wie eine robots.txt und das Session-Cleanup lösen. Das spart dem Admin viel Geld und löst das Problem sofort.
Ergänzend:
Solsken hat geschrieben: ↑Freitag, 06. März 2026, 14:25:32
...
Echt, probiert das mit der robots.txt und dem Crawl-delay einfach mal aus. Es kostet nichts und die 1.700 Gäste-Sessions (die man im MXTool übrigens nicht sieht) verschwinden sofort. Warum die Dinge komplizierter machen, als sie sind?
Hälsningar
Und auch nicht unwichtig:
Sonnenschein solsken hat geschrieben: ↑Freitag, 06. März 2026, 19:27:57
noch ein dringender Nachtrag: Dass der Server Port 80 offen lässt und nicht auf HTTPS umleitet, ist innerhalb der EU kein Kavaliersdelikt mehr.
Nach GDPR Artikel 32 (bei euch DSGVO) ist die Verschlüsselung nach dem Stand der Technik zwingend vorgeschrieben. Wenn User-Daten oder Logins unverschlüsselt übertragen werden können, bewegt ihr euch rechtlich auf extrem dünnem Eis. In Schweden nehmen wir den Datenschutz sehr ernst – und die deutschen Behörden sind da meist noch strenger.
Ihr solltet das schleunigst fixen, bevor das Forum nicht nur wegen der Bots, sondern wegen rechtlicher Verstöße offline geht. Es wäre schade um die Arbeit, aber Sicherheit und Gesetz gehen vor.
Wenn @Iven das an Herrn Nieman senden könnte, könnte der ja mal ganz vorsichtig nachsehen, ob der liebe Gast aus Schweden Recht hat.
Wenn nicht, dann ist's egal.
Aber vielleicht schlummert in den durchaus kompetenten Beiträgen doch ein Lösungsansatz für die Downtimes des HET-Forums und man könnte sie in Zukunft verhindern.
Von einem User aus Schweden:
[quote=Gast post_id=324908 time=1772794188]
Ich habe gesehen, das Forum war oft weg oder sehr langsam. Weil ich ein bisschen mit Server-Technik arbeite, habe ich mir die Fehler angeschaut, als es Probleme gab. Vielleicht hilft es für die Zukunft:
• Die Gäste-Zahlen: Ich habe gestern viele Gäste in Liste gesehen. Das ist oft ein Fehler im 'Session-Management' von phpBB, wenn die PHP-Version nicht schnell genug aufräumt. Jeder Klick eines Besuchers wird dann als 5 oder 10 neue Gäste gezählt. Das macht die Datenbank sehr langsam und das Forum 'laggt'.
• Der Zertifikats-Mismatch: Mein Browser hat eine Warnung gezeigt für zamas-magischesentertainment.de. Dieses Zertifikat ist seit Mai 2020 abgelaufen. Technisch bedeutet das: Der Server war so überlastet mit den vielen (Geister-)Sessions, dass er die Zuordnung zu het-forum.de kurzzeitig verloren hat und auf das alte Standard-Zertifikat des Accounts zurückgesprungen ist.
[/quote]
Dazu als kleine Anmerkung von mir:
[quote]Der Besucherrekord liegt bei 3358 Besuchern, die am Samstag, 07. März 2026, 11:03:57 gleichzeitig online waren.[/quote]
Weiter mit dem netten Gast aus Schweden:
[quote=Solsken post_id=324912 time=1772796047]
ich habe gerade noch etwas gesehen, was dem Forum vielleicht sehr helfen würde gegen die vielen „Gäste“. Mir ist aufgefallen, dass das Forum keine robots.txt Datei im Hauptverzeichnis hat.
Das ist wahrscheinlich der Hauptgrund für die Last: Ohne diese Datei wissen Suchmaschinen-Crawler (Google, Bing, etc.) nicht, dass sie langsamer machen sollen. Sie indizieren dann alles gleichzeitig und erzeugen bei jedem Klick eine neue Session, was die Gäste-Liste so aufbläht und den Server extrem verlangsamt.
Hier ist ein Vorschlag für eine einfache robots.txt, die dem Server sofort Luft verschaffen würde:
User-agent: *
Disallow: /adm/
Disallow: /mcp/
Disallow: /ucp/
Disallow: /viewonline.php
Disallow: /search.php
Crawl-delay: 10
[/quote]
Als Antwort auf einen Vorbeitrag:
[quote=Solsken post_id=324915 time=1772796417]
Hej, das mit Cloudflare ist eine gute Idee, aber warum ein abgelaufenes Zertifikat von 2020 zeigen? Das passiert technisch nur, wenn der VirtualHost des Servers wegen Last auf den Default-Account zurückfällt. Das ist kein Hack, das ist ein Konfigurationsfehler. Und gegen 503-Fehler durch Crawler hilft die robots.txt viel schneller und kostenlos. Warum kompliziert, wenn es einfach geht? 😊
[/quote]
Nächste Antwort:
[quote=Solsken post_id=324919 time=1772797383]
Ich muss deiner Theorie aber freundlich widersprechen: Dass ein SSL-Zertifikat von Mai 2020 erscheint, ist kein Zeichen für eine „gezielte Manipulation“. Technisch passiert das bei einem Apache- oder Nginx-Server schlicht dann, wenn der Server durch zu viele Anfragen (wie die 1.700+ Sessions ohne robots.txt) so überlastet ist, dass er die Domain nicht mehr dem richtigen Verzeichnis zuordnen kann. Er liefert dann einfach das allererste Zertifikat aus, das im System hinterlegt ist – in diesem Fall das uralte vom Hauptaccount.
Das ist ein klassisches Konfigurationsproblem bei Überlastung, kein erfolgreicher Hack. Bevor man über Cloudflare nachdenkt, sollte man erst einmal die Basics wie eine robots.txt und das Session-Cleanup lösen. Das spart dem Admin viel Geld und löst das Problem sofort.
[/quote]
Ergänzend:
[quote=Solsken post_id=324931 time=1772803532]
...
Echt, probiert das mit der robots.txt und dem Crawl-delay einfach mal aus. Es kostet nichts und die 1.700 Gäste-Sessions (die man im MXTool übrigens nicht sieht) verschwinden sofort. Warum die Dinge komplizierter machen, als sie sind?
Hälsningar
[/quote]
Und auch nicht unwichtig:
[quote="Sonnenschein solsken" post_id=324958 time=1772821677]
noch ein dringender Nachtrag: Dass der Server Port 80 offen lässt und nicht auf HTTPS umleitet, ist innerhalb der EU kein Kavaliersdelikt mehr.
Nach GDPR Artikel 32 (bei euch DSGVO) ist die Verschlüsselung nach dem Stand der Technik zwingend vorgeschrieben. Wenn User-Daten oder Logins unverschlüsselt übertragen werden können, bewegt ihr euch rechtlich auf extrem dünnem Eis. In Schweden nehmen wir den Datenschutz sehr ernst – und die deutschen Behörden sind da meist noch strenger.
Ihr solltet das schleunigst fixen, bevor das Forum nicht nur wegen der Bots, sondern wegen rechtlicher Verstöße offline geht. Es wäre schade um die Arbeit, aber Sicherheit und Gesetz gehen vor.
[/quote]
Wenn @Iven das an Herrn Nieman senden könnte, könnte der ja mal ganz vorsichtig nachsehen, ob der liebe Gast aus Schweden Recht hat.
Wenn nicht, dann ist's egal.
Aber vielleicht schlummert in den durchaus kompetenten Beiträgen doch ein Lösungsansatz für die Downtimes des HET-Forums und man könnte sie in Zukunft verhindern.