Guten Tag zusammen,
ich habe mal eine theoretische Frage:
Wie kann ich massenhaftes Aufrufen meiner Seite verhindern.
Es handelt sich um eine Art Forum, und ich will einfach nur verhindern, dass sich eingeloggte Personen mit Bots rumtreiben.
Mein erster (und bis jetzt einziger) Einfall ist, jeden Seitenaufruf in eine Datenbank zu schreiben und dann zu schauen, ob mehr als eine bestimmte Anzahl Aufrufe pro Sekunde vorhanden sind.
So vielleicht 10/s.
Problem ist aber(denke ich), wenn man z.B. mit 'in neuem Tab öffnen' auf Links klickt, schafft man diese Anzahl auch ohne Bot.
Man könnte nämlich auch die Requests auswerten, und daraus dann einen Bot ableiten.
Hat da jemand eine Idee?
Wenn ich dann einen Bot erkannt habe würde ich einfach das Profil 'sperren', d.h. keinen Inhalt bis auf ein Captcha anzeigen, bis das bestätigt wurde.
Macht das Sinn?
Gibts Verbesserungsvorschläge?
Gibts Links?
Gruß und Danke
vanGoss
ich habe mal eine theoretische Frage:
Wie kann ich massenhaftes Aufrufen meiner Seite verhindern.
Es handelt sich um eine Art Forum, und ich will einfach nur verhindern, dass sich eingeloggte Personen mit Bots rumtreiben.
Mein erster (und bis jetzt einziger) Einfall ist, jeden Seitenaufruf in eine Datenbank zu schreiben und dann zu schauen, ob mehr als eine bestimmte Anzahl Aufrufe pro Sekunde vorhanden sind.
So vielleicht 10/s.
Problem ist aber(denke ich), wenn man z.B. mit 'in neuem Tab öffnen' auf Links klickt, schafft man diese Anzahl auch ohne Bot.
Man könnte nämlich auch die Requests auswerten, und daraus dann einen Bot ableiten.
Hat da jemand eine Idee?
Wenn ich dann einen Bot erkannt habe würde ich einfach das Profil 'sperren', d.h. keinen Inhalt bis auf ein Captcha anzeigen, bis das bestätigt wurde.
Macht das Sinn?
Gibts Verbesserungsvorschläge?
Gibts Links?
Gruß und Danke
vanGoss