URL Filter...

mydoys.de

Well-known member
ID: 84968
L
20 April 2006
2.744
124
Ich habe da mal ne frage und zwar möchte ich bestimmt URLS filtern das diese nicht angezeigt werden also das da eine fehlerseite kommt...

Ich rufe die links die aus meinem Forum kommen so auf :

https://www.gotchaforum.de/link.php?url=https://www.mydoys.de

(Alle Links werden Automatisch so angezeigt...)

Ich möchte wenn da eine bestimmt Url steht das diese nicht angezeigt wird...

aber die bestimmt Url bsp : https://www.bsp-url.de soll in allen Schreibweisen gelockt werden!
Also auch www.bspurl.de und so..

geht sowas wenn ja wer kann mir dabei einen tipp geben oder helfen!


Danke
 
Zuletzt bearbeitet:
hmm.. zum einen verstehe ich deine frage nicht so ganz und zum anderen weiss ich auch nicht was du genau als lösungsvorschlag hören willst..

d.h. du willst folgendes machen: (???)
in deinem forum hast du nen umwandler eingebaut damit alle links vorher über deinen skript gehen (also wie anonym.to)

https://redirekt/?https://test.de
--> geht ganz normal auf test.de

https://redirekt/?https://geblockt.de
--> seite wird geblockt!allerdings auch ähnliche konstruktionen wie gebl0ckt oder geblokkt?? oder sollen einfach nur so zusammensetzungen wie ge-blockt bzw. geb-lockt "blockiert" werden?


weil es gibt mehrere möglichkeiten:

1. mittels str_replace alle "-" zeichen löschen. dann haste quasi immer das wort "geblockt".

2. du kannst auch immer nur nach teilstrings suchen. z.b. suchste halt immer nach "block" dann wird "abgeblockt" oder "geblockt" oder auch "ge-blockt" rausgefiltert

3. oder du benutzt diverse algos die sich auf sowas spezialisieren: https://de3.php.net/manual/de/function.levenshtein.php
https://de3.php.net/manual/de/function.metaphone.php
https://de3.php.net/manual/de/function.soundex.php
https://de3.php.net/manual/de/function.similar-text.php

kuck dir am besten auch die beispiele an. nur da kann man nicht garantieren das auch ausversehen eine "korrekte" url rausgefiltert wird.

4. du fügst einfach manuell immer alle urls in den blocker.. aber hierzu musste man einfach wissen was du genau vorhast..
 
also ich habe mir da jetzt mal was gebastelt:


PHP:
$adresse = StrToLower($url); 
$test1 =explode('https://', $adresse);
$domain_parts = $test1[1]; 
$domain_host = $domain_parts; 
$not_allowed = array('xxx.de', 'www.xxxx.de','pb-xxx.de', 'www.pb-xxx.de','pbxxx.de', 'www.pbxxx.de','pb-xxx.de', 'www.pb-xxx.de'); 
if (in_array($domain_host, $not_allowed)){ 
echo "<b>Das Aufrufen dieser domain ist bei uns leider nicht erlaubt und wird hiermit geblockt! ($domain_parts)"; 
die();
}
So habe die Webseiten aber mal weggemacht...

So das Problem ist jetzt aber sobald ich hinter das .de ein ? mache geht es wieder also so kann mann die URL Speere umgehen...

Diese möchte ich vermeiden...
 
Hast du dir die Links von guwapo mal angesehen? Scheint nicht so.

Vorallem wenn du den Hostnamen aus der Domain rausfilterst, sollten die Algorithmen ziemlich effektiv arbeiten. Sonst nimmst du einfach alles bis auf [a-zA-Z] raus und vergleichst dann gegen deine Blacklist.
 
Wieso schaust nicht einfach ob pbxxx.de oder pb-xxx.de irgendwo drin vorkommt, vereinfacht:

PHP:
$not_allowed = array('xxx.de', 'pb-xxx.de', 'pbxxx.de');  
if (strstr($not_allowed, $domain_host)){  
echo "<b>Das Aufrufen dieser domain ist bei uns leider nicht erlaubt und wird hiermit geblockt!";  
die(); 
}

Sollte ungefaehr so moeglich sein ...

Gruesse,
artemis
 
Ich würde raten NICHT eine blackliste einzuführen, denn es gibt immer irgendwelche Möglichkeiten diese zu Umgehen sondern bau doch eine whitelist ein, dass nur diese Links erlaubt sind, dies ist viel sicherer
 
Hast du dir die Links von guwapo mal angesehen? Scheint nicht so.

Vorallem wenn du den Hostnamen aus der Domain rausfilterst, sollten die Algorithmen ziemlich effektiv arbeiten. Sonst nimmst du einfach alles bis auf [a-zA-Z] raus und vergleichst dann gegen deine Blacklist.


jupp und wer nicht einmal lesen will oder hilfe annehmen will.. naja ärgerlich für meine unnütz investierte zeit.. egal