Mastodon verschärft Regeln: Kampf gegen Scraper und Bots
Inmitten der aktuellen Debatten über den Schutz von Nutzerdaten verstärken soziale Netzwerke ihre Maßnahmen gegen Scraper und Bots, die Websites crawlen, um KI-Modelle zu trainieren. Wenige Tage nachdem die von Elon Musk geleitete Plattform X ihre Nutzungsbedingungen angepasst hat, folgt nun das dezentrale soziale Netzwerk Mastodon mit strengeren Regeln.
Mastodon hat nun explizite Vorgaben veröffentlicht, die das Scraping von Nutzerdaten für unerlaubte Zwecke untersagen. Dies betrifft insbesondere die Archivierung und das Training von Large Language Models (LLM). Eine kürzlich versandte E-Mail an die Nutzer verdeutlicht: „Das Training von LLMs auf Daten der Mastodon-Nutzer unserer Instanzen ist nicht gestattet.“
Die neuen Regelungen, die ab dem 1. Juli in Kraft treten, beinhalten rechtliche Formulierungen, welche jegliche Form von Datenextraktion sowie die Entwicklung automatisierter Systeme verbieten. Dazu zählen unter anderem Spider, Robot, Cheat-Utilities, Scraper, Offline-Reader oder ähnliche Data-Mining-Tools. Ausnahmen bilden einzig Standard-Suchmaschinen oder Internetbrowser sowie lokale Caching-Routinen zur menschlichen Interaktion mit Inhalten.
Interessanterweise beziehen sich diese Bestimmungen ausschließlich auf den Mastodon.social-Server, einen von vielen Servern im sogenannten "Fediverse", einem dezentralisierten Netzwerk. Das bedeutet, dass Scraper theoretisch weiterhin Daten von anderen Servern extrahieren könnten, sofern deren Nutzungsbedingungen dies nicht ausdrücklich untersagen.
Zusätzlich zu diesen Anpassungen führt Mastodon eine globale Altersgrenze von 16 Jahren für seine Nutzer ein, die bislang bei 13 Jahren in den USA lag.

