Google SEO/PR/Update Thread

Vielleicht wurde klamm ja wegen Duplicate Content abgestraft? Immerhin ist zumindest das Forum noch unter einer zweiten Url (https://www.klammunity.de/forum/) erreichbar. *vor kurzem bei google gefunden*

*edit*
Die Ganze Seite ist darüber doppelt erreichbar, sofern man den Direktlinks folgt.

Ergebnisse 1 - 10 von ungefähr 218 von klammunity.de. (0,13 Sekunden)



Nicht viel im Index aber immerhin.

*edit2*
Mal Link entfernt, muss man ja nicht noch unterstützen ^^
 
Zuletzt bearbeitet:
Werden mehrere Domains als Duplicate Content gesehen, auch wenn diese auf den *gleichen* Server verweisen? 8O So intelligent müsste Goggle doch sein, dass das dann nicht gewertet wird. Ist ja Gang und gebe, dass ein Unternehmen unter versch. Domains erreichbar ist.
 
irgendetwas muss bei Google passiert sein

wenn ich per SITE meinen Shop nachschaue, sind da nun über 5000 Treffer, vorher waren es immer um die 700 ?!?!
 
Werden mehrere Domains als Duplicate Content gesehen, auch wenn diese auf den *gleichen* Server verweisen? 8O
ja, aber einen guten Ansatz hast du ja schon gemacht. Nämlich deine 302 Weiterleitung wenn man Klammunity.de aufruft

Am besten leitest du klammunity.de auf das gleiche Verzeichnis wie klamm aber in die htaccess eine Regel, das automatisch von klammunity.de/*pfad-etc*/ nach klamm.de/*pfad-etc* umgeleitet wird.

Ist ja Gang und gebe, dass ein Unternehmen unter versch. Domains erreichbar ist
In der Regel aber dann mit einer 302er Weiterleitung oder aber mit anderem (ggf. regionalem) Content also bei .ch Endung dann Inhalte für Schweizer.

Hast du da mal ein konkretes Beispiel?
 
Ah ok das ist machbar.
Ich mach aber wohl eher 301 auf klammunity.de und fertig.
Is ja eigentlich nicht nötig, dass die Seiten alle so erreichbar sind.

Aber subdomains machen nix oder?
Also www.klamm.de vs. www1.klamm.de vs. username.klamm.de ....
Falls doch: Wäre es sinnvoll, alles ausser "www" als subdomain in der robots.txt zu verbieten?

Wundert mich nur, dass es jetzt nach 10 Jahren erst auftritt. Könnte natürlich auch an was ganz anderem liegen z.B. globales Wachstum des Internets und damit auch PR-Verschiebung nach unten (es gibt nach und nach viel mehr Seiten mit hohem PR, also wird *alles* nach unten korrigiert, um wieder Luft nach oben zu haben).
 
(es gibt nach und nach viel mehr Seiten mit hohem PR, also wird *alles* nach unten korrigiert, um wieder Luft nach oben zu haben).

So sehe ich das auch, wenn ich mir in letzter Zeit deine Seiten ansehe, also mit nem PR-Anzeige Plugin im FF.

Mal davon abgesehen, lese ich immer öfter das doppelter content schon lange kein soooo Großes Problem mehr für Google ist, solange er auf den eigenen Seiten vorkommt und nicht von anderen Seiten kopiert/gestohlen wurde.
Also die PR Maschiene kommt immer besser damit klar.
 
Also www.klamm.de vs. www1.klamm.de vs. username.klamm.de ....
Das hatte ich gestern auch direkt schon bei klamm geprüft, also username.klamm.de dort leitest du aber ja schon per 302 auf die definierte Seite um. :)

Wenn du bei Google Webmaster Tools angemeldet bist, kannst du dort klamm.de und www.klamm.de hinzufügen und dann z.B. www.klamm.de als bevorzugte Domain festlegen. (Früher musste man nur z.B. klamm.de anlegen, haben die voll doof gemacht mittlerweile :roll:) ob die Bevorzugung dann auch für www1 & Co gilt kann ich jedoch nicht sagen, hab mit mehreren Subdomains noch nicht so die Erfahrung gemacht.

Aber diese ganzen Domainanbieter wie .de.vu nutzen ja auch nur Subdomains, und dort haben auch die Subdomains unterschiedlichen Pagerank, also könnte ich mir gut vorstellen, das Google da noch Probleme mit hat.

Noch etwas von Google direkt zum Thema Duplicate Content:
https://www.google.com/support/webmasters/bin/answer.py?answer=66359

Aber wenn mir persönlich klamm bzw. das klamm-Forum gehören würde, dann würde ich vBSEO einsetzen, das Teil ist mega und würde den Pagerank und die Besucherzahlen bestimmt um einiges erhöhen. :mrgreen:

Das mit der allgemeinen Herabstufung sehe ich auch so. Vor 2 Jahren hatte ich mit https://www.joke-factory.de/ einen Pagerank 5:!: mittlerweile nur noch Pagerank 2. Früher war es einfacher einen hohen PR zu erhalten.
 
Vor zwei Jahren hatten ja die Webkataloge und Linklisten noch ordentlich gerankt. :mrgreen:
Naja vor einigen Monaten hatte ich noch Pagerank 3, kurz darauf wurde die Seite bei dmoz aufgenommen, und beim folgenden PR Update gab es dann den PR2 könnte man schon fast meinen dmoz wäre dran Schuld, aber kümmere mich in letzter Zeit ehrlich gesagt auch mehr um andere Projekte.

Meine Motivation an Joke-Factory weiterzuarbeiten, ist dank dem Deal mit Vodafone aber wieder gestiegen ;)
 
bei meinen Shops und meinen Blogs nutze ich PlugIns dazu, die es extra dafür gibt

beim Webkatalog hatte ich damals eine manuell erstellt, aber nur mit den Rubriken
 
Bezüglich Sitemap: Erweitert eine Sitemap die Indexierung nur bzw. gibt dem Google-Bot "Tipps" oder wird die immer als vollständig angesehen? Nicht dass man dann am Ende schlechter indexiert wird, weil die Sitemap nicht vollständig ist (und eine vollständige Sitemap ist ja mitunter nicht trivial zu erstellen und aktuell zu halten).

Ich hatte daher auch für klamm auch schon die Idee mit "Kategorien" bzw. der groben Struktur als Sitemap incl. ein paar Vorgaben, dass z.B. die News wichtiger sind als andere Bereiche ... aber eben nur ein grobes Gerüst.
 
keine Ahnung

ich kam mit Wittis-Web gut hin, bevor die mich in den Sandkasten gesteckt hatten, wie leider die meisten kleineren Webkataloge mit gutem Zuwachs

kam kurz vorm Kippen auf PR4

beim Shop sind eh noch nicht alle Artikel im Index bei Google, obwohl per Sitemap übermittelt
ich sehe es nur als Hilfsmittel an, es ist nicht das Allheilmittel, denke ich mal, aber es schadet sicher auch nicht
 
Hm jetzt mal noch ne knifflige Frage:

site:mone.klamm.de
(beispiel)

Davon abgesehen, dass sowas demnächst eh nicht mehr gehen wird:
Wie kommt diese Indexierung zustande?

1) Mone hat mal auf nen Thread verlinkt und statt www halt mone genommen (geht aktuell noch). Der Googlebot hat dann mit mone.klamm.de weitergespidert

oder (und das ist die Frage)

2) https://mone.klamm.de ... ihre Subdomain wird per 302 weitergeitet auf ihre Nickpage (mit www.klamm.de). In Google erscheint als URL trotzdem mone.klamm.de und aber die Description von der Nickpage!! D.h. Google hat sich die URL vor dem 302 gemerkt und übernommen. Wenn der Bot jetzt von der Nickpage aus (die ja jetzt mit www.klamm.de wieder ist) weiterspidert, könnte es dann sein, dass er alle folgenden Seiten auch noch unter mone.klamm.de indexiert? Wobei die weiterführenden Links ja alle mit www sind. Wäre dieses Verhalten mit nem 301 Redirect anders?

Bissl kompliziert aber ihr versteht, was ich meine ...
 
Auf dieser Seite werden die beiden Weiterleitungen 302 & 301 aus SEO Sicht behandelt:
https://suchmaschinenoptimierung.michaelsattler.de/weiterleitung.html

Im Prinzip erklären ja auch schon die Definitionen der Weiterleitungen wofür sie genutzt werden sollten:

301
Seite ist für immer unter der weitergeleiteten URL erreichbar, die alte Url soll aus dem Index verschwinden.

302
Die Seite ist temporär nicht mehr unter der URL erreichbar es könnte jedoch sein, dass die Seite bald wieder darunter erreichbar ist, die Seite soll also im Index bleiben.

Für deinen Fall eignet sich also 301, weil es ja nie unter mone.klamm.de erreichbar sein soll.

:)
 
D.h. wenn ich jetzt mone.klamm.de >> https://..../nickpage.php?id=mone mache, erscheint auch bei den Suchergebnissen die *Zielurl* als URL und nicht mone.klamm.de. D.h. mone.klamm.de wird für die Suchergebnisse dann quasi unsichtbar, richtig?

Edit: Wenn ich jetzt aber per 301 auf die velerion.php umleite, würde auch https://www.klamm.de aus dem Index fliegen und durch https://www.klamm.de/partner/velerion.php ersetzt, oder? Da lass ich wohl besser 302 an der Stelle. Es gibt ja das Gerücht, dass Google sowas erkennt und auch bei 302ern teilweise PR weitergibt.
 
sitemap grundstruktur,

PHP:
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="https://www.sitemaps.org/schemas/sitemap/0.9">
    <url>
      <loc>https://www.deine-domain.com</loc>
    </url>
    <url>
      <loc>https://www.deine-domain.com</loc>
    </url>
    <url>
      <loc>https://www.deine-domain.com</loc>
    </url>
    <url>
      <loc>https://www.deine-domain.com</loc>
    </url>
</urlset>
alles in eine .xml packen
 
@klamm
Bei deiner Frage aus Post 998 bin ich mir nun nicht sicher. Habe jedoch gerade deine Sitemaps Frage gelesen wo ich was zu sagen kann ;)

Eine Sitemap hilft dem Google Bot nur bei der Indizierung der Seiten, auf keinen Fall fliegen Seiten welche nicht in der Sitemap gelistet sind aus dem Index.

Die Beispiel Sitemap von chitypo ist wirklich sehr einfach gehalten, eine ordentliche Sitemap enthält noch einige weitere Angaben. Vorallem die Optionen

Code:
<priority>(0.0 bis 1.0)</priority>
und
Code:
<changefreq>(always/hourly/daily/weekly/monthly/yearly/never)</changefreq>
sollten angegeben werden.

priority gibt die Wichtigkeit der einzelnen Seiten an. Von 0 (unwichtig) bis 1.0 (sehr wichtig). Es bringt nichts, alles auf 1.0 zu setzen, denn die SuMas sehen die Zahlen im Verhältnis zueinander. Wenn nun alle mit 1.0 eingetragen sind ist keine wichtig.

chagefreq gibt an wie oft sich der Inhalt dieser Seite ändert, die einzelnen Begriffe sollten selbsterklärend sein. Der spider kommt jedoch nicht jede Stunde vorbei wenn man hourly angibt, ebenso kommt er nicht niemals mehr vorbei wenn man never angibt. Die Angabe hat jedoch einen Einfluss auf die Häufigkeit der Besucher.

Große Sitemaps sollte man auf mehrere kleine aufteilen, also bei den News z.B. für jede Kategorie eine eigene Sitemap, man erstellt diese dann mit eigenem Namen z.B. sitemap1.xml für Kategorie 1, sitemap2.xml für Kategorie 2 usw. in die Haupt sitemap.xml kommt dann ein Sitemap-Index welcher auf die einzelnen Sitemaps verlinkt, dieser ist so aufgebaut:

Code:
<?xml version="1.0" encoding="UTF-8"?>
   <sitemapindex xmlns="https://www.sitemaps.org/schemas/sitemap/0.9">
   <sitemap>
      <loc>https://www.example.com/sitemap1.xml</loc>
      <lastmod>2009-08-01</lastmod>
   </sitemap>
   <sitemap>
      <loc>https://www.example.com/sitemap2.xml</loc>
      <lastmod>2008-12-01</lastmod>
   </sitemap>
   </sitemapindex>
Wobei lastmod angeben sollte wann die Sitemap zuletzt geändert wurde :)

Dann noch einen tollen Link für einen Sitemap (und Sitemap Index) Validator:
https://www.validome.org/google/

Sobald man eine Sitemap eingerichtet hat sollte man die Suchmaschinen anpingen, hierfür gibt es auch Tools.

Was viele noch nicht wissen, da es neu ist
Man kann die Sitemap auch in der robots.txt verlinken. Hierzu einfach z.B. folgendes in die robots.txt einfügen
Code:
Sitemap: https://kingbonus.de/sitemap.xml
Hilfreich sind auch noch die Webmaster Logins der Sumas
Bei Google die Webmaster Tools und bei Yahoo der Site Explorer.
Hier kann man Statistiken zu den Sitemaps sehen.

Es ist auch nicht gesagt, das alle Urls aus der Sitemap
aufgenommen werden. Die Zahlen schwanken hier sehr stark,
wie man folgenden Screens entnehmen kann. Beides sind Sitemaps
welche ich bei Google eingereicht habe:




Die erste hat übrigens eine Sitemap die auf mehrere aufgeteilt wurde.
Warum bei der einen nur 1/4 aufgenommen wurde und bei der anderen fast alles
hab ich noch nicht rausgefunden. Aber vielleicht liegt es wirklich daran,
dass ich bei der zweiten alles in einer drin habe :think:

*edit*
Und Posting 1.000 im Thread :dance: