Jump to content
Sign in to follow this  
puchne

Spam-Schutz / ip sperren

Recommended Posts

Hi!

Wir haben auf unserem Blog einen nervigen Spambot der alle paar Tage mal vorbeikommt und die shoutbox zumüllt.

Die Einträge sind immer ziemlich gleich, aber die ip's sind am letzten Zahlenblock meist verschieden (zB 195.225.177.137 und 195.225.177.3) wobei heute ein Eintrag von einer völlig anderen ip (aber mal wieder der gleiche Inhalt) kam (85.255.119.75).

Was würdet ihr vorschlagen kann man dagegen machen?


Gruß,

Jörg


P.S.: ich möchte eigentlich keine captchas benutzen, da es nur eine kleine shoutbox ist.

Genau so wie Frage-Antwort-Spielchen ("was ist 3+3" etc.) - die shoutbox würd der spambot vielleicht nicht mehr zumüllen, aber dafür wäre es auch für jeden normalen User nur noch nervig...

- Editiert von puchne am 19.10.2006, 18:04 -

Share this post


Link to post
Share on other sites

wenn der inhalt fast immer der selbe ist,

dann vergleich den doch.


mach dir halt ne blacklist, wo du verschiedene sätze, oder teile von sätzen, die in diesem inhalt

immer wieder vorkommen ablegst. in etwa so

 




			
		

Share this post


Link to post
Share on other sites

würd mich mal interessieren, obs was gebracht hat.

ich nutz diese lösung bei einträgen für newskommentare.. da es ja kein regestrieter user sein muss...

Share this post


Link to post
Share on other sites
Guest

In deine httpd.conf oder die Konfiguration des betreffenden Virtual Hosts:

 


   SetEnvIf    Remote_Addr     "195\.225\.177\.137"    spam=1
   SetEnvIf    Remote_Addr     "195\.225\.177\.3"      spam=1
   SetEnvIf    Remote_Addr     "85\.255\.119\.75"      spam=1
   # Add more and more here



   Order   allow,deny
   Allow   from all
   Deny    from env=spam

 

Sperrt jeden Zugriff auf von $Remote_Addr.

- Editiert von Statler am 01.11.2006, 18:40 -

Share this post


Link to post
Share on other sites
Guest
bringt aber wenig wenn sich die IP immer ändert.

Stimmt. Es bedarf eben der stetigen Pflege. Aber um diese kommt man eh nicht herum, wenn keine Automaten mehr eingesetzt werden.

Share this post


Link to post
Share on other sites
Guest

Der Webserver kann sich aber wesentlich performanter um Zugangsberechtigungen kümmern als das PHP jemals können wird.

Es spricht ja nichts dagegen, die Pflege der Listen über ein anderes Werkzeug zu erledigen.


Bei einem von mir betreuten Enzyklopädie-Projekt hat sich eine manuelle Blacklist, kombiniert mit einer automatischen Blacklist, welche direkt über den Apache-Log gefüttert wird, und einer manuellen Whitelist, sehr gut in beide Richtungen bewährt: Spammer bleiben draußen, Suchmaschinen und Poweruser werden nicht behindert.

Share this post


Link to post
Share on other sites

Hi,


ist zwar mein erster Post hier im Forum, aber da ich mich in den letzten Wochen viel mit solchen Problemen beschäftigt habe, weiß ich vielleicht noch einfachere Lösungen.


1. Füge dem Formular für die Shoutbox noch ein zusätrzliches Eingabefeld zu. Diesem Feld gibst du eine wichtig klingende ID. Am besten eine Checkbox oder ähnliches, dem wir die ID 'AGB' geben. Zusätzlich machen wir dieses Eingabefeld mit CSS unsichtbar. Nun prüfen wir auf der Übergabeseite einfach ob das Feld ausgefüllt ist. Wenn ja, können wir den Eintrag getrost ignorieren. Denn ein User kann es nicht gewesen sein.


Damit entfällt die dauernde Pflege.


Hoffe ich konnte helfen.


Greetz, M-Nasty

Share this post


Link to post
Share on other sites
Guest
Damit entfällt die dauernde Pflege.

Nur solange keine Menschen eingesetzt werden. Dahin geht aber die Tendenz.


Gegen diese hilft nur ein Mischung aus verschiedenen Konzepten: Content-Filter, Moderation, IP-Sperren, (starke) Captchas.

Share this post


Link to post
Share on other sites
Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

×
×
  • Create New...