[Suche] Anti-Leech-System

exportforce

Avachangererfinder
ID: 68278
L
23 April 2006
256
22
Ich hab mir das so vorgestellt:
Die Downloads sind nicht im htdocs-Bereich des Servers, sondern tiefer, so das man die Dateien selbst beim kennen des Pfades nicht saugen kann.

Wenn nun ein User eine Datei downloaden will, muss er halt einen Link klicken, bei dem folgendes passiert: Die Datei die er haben will, wird in den htdocs bereich kopiert und bekommt vor/nach dem eigentlichen Namen noch eine zufallsnummer falls mehrere downloaden und dann an den User weitergegeben.
Sobald der User die Datei loslässt (DL fertig, bricht ab etc.) wird die kopierte Datei sofort wieder gelöscht.

Sollte die Datei allerdings mehr als 1 mal angefasst (touch) werden, ausser durch den Server um überprüfungen zu machen, wird die Datei sofort gelöscht.
dies ist für Downloadacceleratoren und Leute die dann schnell den Link an weitere weitergeben wollen, oder per z. B. php-script die datei angefasst lassen wollen, damit sie die Datei für Ihre Seite als Download freigeben können.

Gibt es sowas schon?
Wenn ja, WO.
Wenn nicht, was wird die Programmierung kosten ?
 
exportforce schrieb:
Wenn, will ich die Dateien selber hosten, hat seine Gründe.
Mhh. Ja dann ist meines Erachtens schwer. Das von mir war nur so ein Tipp, was mir spontan eingefallen ist. Sry, dass ich dir ned weiterhelfen konnte.. :(
 
wäre doch auch einfach möglich die per id anzugeben...die zu der id gehörende datei ausszuwählren, diese aus geschützten ftp/bereich herauskopieren...nach geweisser zeit wieder löschen...
ist gerade die einfachste möglichkeit die mir um diese uhrzeit eingefallen ist :-D
 
FTP/HTACCESS will ich nicht nutzen.
Kann man per brute etc. alles umgehen.
Daher will ich es im unteren Root ablegen und dann hochkopieren.
Desweiteren soll ja auch der Schutz rein das nur 1 einzige Person die Datei anfassen darf
 
Wieso willst Du die denn unbedingt hochkopieren? Das Skript kann doch draufzugreifen und insofern kannst Du doch 'n One-Way-System realisieren.

Der User kriegt 'ne zugewiesene Download-ID, die in der DB festgehalten. Das Skript validiert diese ID, löscht sie bei angestossenem Download und kopiert die Datei nicht ins Filesystem, sondern gibt sie direkt an den User aus. Somit sollte das System recht unumgehbar sein.

Ist halt doof, wenn der Download aus irgendeinem Grund abgebrochen wird, aber da kann man dann halt nix machen.
 
*G* per brute kann man alles umgehen, wenn da nicht ein paar kleine schutzmechanismen drinnen wären...

edit:
oberer vorschlag ist natürlich besser

edit:
und wenn du die datei aus einem/ajksfhaskdufgi7w4cn374cnb/ ordner in einem ornder mit sessionid kopierst ( oder auch nen softlink erstellst)...und sobald die session beendet ist die wieder löschst, sollte es doch für nicht all zu viele user doch recht praktikabel sein
 
flashas schrieb:
topfklao schrieb:
Du könntest deine Dateien mit diesem Service schützen lassen:
https://www.anti-leech.com/index.php?
Vergiss es, taugt nicht.
Naja eigentlich schon, nur zwingt man damit seine User ein Browserplugin oder einen Adware-Downloadmanager benützen zu müssen.
exportforce schrieb:
Wenn, will ich die Dateien selber hosten, hat seine Gründe.
Das machst (bzw. kannst) Du bei diesem Dienst sowieso.
 
tleilax schrieb:
Der User kriegt 'ne zugewiesene Download-ID, die in der DB festgehalten. Das Skript validiert diese ID, löscht sie bei angestossenem Download und kopiert die Datei nicht ins Filesystem, sondern gibt sie direkt an den User aus. Somit sollte das System recht unumgehbar sein.

Ist halt doof, wenn der Download aus irgendeinem Grund abgebrochen wird, aber da kann man dann halt nix machen.
Wenn du es schaffst, ein PHP-Script lange laufen zu lassen, kannst du sogar abgebrochene Downloads managen.

Die Download-ID dürfte erst gelöscht werden, wenn der Download abgeschlossen is. Hierzu musst das PHP-Script den ganze Datei Stück für Stück outputten.
Theoretisch kannst du sogar einen Request mit Range-Header handeln und eben HTTP 206 ausgeben.

Ich stell mir das so in dem Schema vor:
PHP:
$id=$_GET['id'];
if(!validate_id($id))
  die("wrong id");

analyse_request();
if($range_header)
{
  $start=$range['start'];
  $end=$range['end'];
  header("HTTP 206 Partial Content");
}
else
{
  $start=0;
  $end=$downloadsize-1;
  header("HTTP 200 OK");
}

$filedata=fetch_downloaddata();
for($byte=$start;$byte<=$end;$byte++)
  echo $filedata{$byte};

delete_id($id);
 
Nunja, wenn man die ID erst danach löscht, muss man aber sichergehen, dass nicht zeitgleich zwei Leute diese ID benutzen. Ich glaube, das war doch eine der Anforderungen von ExportForce.

Also müsste die ID beim Anstossen des Downloads am Besten noch auf die IP des Users gelockt werden (obwohl das wieder mit dem Abbruch kollidiert). Oder man vermerkt, dass der Download gestartet wurde, aber noch nicht beendet - quasi den Status der ID ändern.
 
https://scripts.ihostwebservices.com/

Das script nutze ich seit längerem , und ist bisher das beste "meiner meinung nach" welches man frei und für lau erhalten kann . Deine Dateien werden falls du zugriff drauf hasst unter dem www ordner aufbewahrt .

Zu sehen hier https://xdp.chasergame.org

Mann kann ein tägliches downloadlimit oder stündlich ect einstellen . Und auch wie oft jehmand auf einen link klicken kann "da gibts ja welche die das mehr als 1mal tuen muessen.."
 
tleilax schrieb:
Nunja, wenn man die ID erst danach löscht, muss man aber sichergehen, dass nicht zeitgleich zwei Leute diese ID benutzen. Ich glaube, das war doch eine der Anforderungen von ExportForce.

genau, ist halt wichtig, das die Datei beim loslassen oder anfassen eines zweiten clients unwiderruflich gekillt wird.

fallout schrieb:
https://scripts.ihostwebservices.com/

Das script nutze ich seit längerem , und ist bisher das beste "meiner meinung nach" welches man frei und für lau erhalten kann . Deine Dateien werden falls du zugriff drauf hasst unter dem www ordner aufbewahrt .

Zu sehen hier https://xdp.chasergame.org

Mann kann ein tägliches downloadlimit oder stündlich ect einstellen . Und auch wie oft jehmand auf einen link klicken kann "da gibts ja welche die das mehr als 1mal tuen muessen.."

Danke das guck ich mir mal an
 
Im Prinzip müsste das doch per PHP mit Headern möglich sein, die Datei im übertragenen Sinne zu "streamen", d.h. die bleibt wo sie ist ausserhalb des htdocs-Ordner, das Script prüft op der User downloaden darf und wenn ja gibt es die Datei per header irgendwie weiter...weiss jetzt nicht wie genau aber im Prinzip müsste das doch machbar sein, oder?
 
m4g3t4 schrieb:
Naja eigentlich schon, nur zwingt man damit seine User ein Browserplugin oder einen Adware-Downloadmanager benützen zu müssen.
Langsam wiederhol' ich mich .. Anti-Leech zu umgehn schaffen 10 Jährige ..
 
benem schrieb:
Im Prinzip müsste das doch per PHP mit Headern möglich sein, die Datei im übertragenen Sinne zu "streamen", d.h. die bleibt wo sie ist ausserhalb des htdocs-Ordner, das Script prüft op der User downloaden darf und wenn ja gibt es die Datei per header irgendwie weiter...weiss jetzt nicht wie genau aber im Prinzip müsste das doch machbar sein, oder?

So wäre das natürlich optimal, sofern man das nicht auch wieder ausnutzen kann, da es ja darum geht, das nur der die Datei bekommen darf, der Rechte drauf hat und wirklich die Downloadseite sieht etc.
 
benem schrieb:
Im Prinzip müsste das doch per PHP mit Headern möglich sein, die Datei im übertragenen Sinne zu "streamen", d.h. die bleibt wo sie ist ausserhalb des htdocs-Ordner, das Script prüft op der User downloaden darf und wenn ja gibt es die Datei per header irgendwie weiter...weiss jetzt nicht wie genau aber im Prinzip müsste das doch machbar sein, oder?

1. Siehe theHacker´s Codeschnipsel
2. HTTP ist eigentlich generell nicht für Streaming gedacht.
 
zur not kannst ja die datei auch mit fopen einlesen und das was der user schon bekommen hat rauslöschen

so kann der datei download bendet werden
wenn mehrere User drauf zugreifen bekommt jeder ein Stück und sie hamm pech

is nur nen ansatz weis nicht ob das funktionieren würde

und um software zu vermeiden wie nen accelator oder sowas so ein Bildchen wie bei der Startseitengutschrift weis grad net wie die heißen :-?
 

Ähnliche Themen