Google SEO/PR/Update Thread

@KeinKommentar
wichtig ist auch das man die Anzahl der Treffer mit der Position betrachtet.
Wenn Google mal wieder am optimieren ist kann es sein, das mal paar 100k Treffer, bzw. Millionen weg sind. Dann sind auch die Plazierungen teilweise sehr unterschiedlich. Also ich habe wirklich auch recht große Schwankungen bei einigen Keywords/Seiten. Da ist dann wirklich mal von top 10 auf top300 oder ähnliches...
 
Ich frage mich gerade folgendes,
Wie optimiert man eine Seite für ein Keywort, dass man im Grunde nicht bewerben darf?

also als Beispiel dazu das Keywort Tabak.

Man darf ja nicht für Tabak bewerben, wie soll man dann z.B. für google optimieren, außer onSite-Optimierung?

Backlinks ist ja eines der Wichtigsten Faktoren für eine gute Positionierung.
 
Bubu, auf Deine letzte Frage darfst von mir natürlich keine sinnvolle Antwort erwarten.

Wenn ich schreibe, bookmarks, erzähle ich ja gerade Dir nichts Neues, weil ich die Idee ja erst von Dir abgeschaut habe.^^ Bisher hatte ich diese Bookmarkdienste eher als lästig empfunden und mir keinerlei Gedanken über deren Nützlichkeit gemacht. :oops:

In dem Zusammenhang habe ich - natürlich - eine Frage. :LOL:

Nun habe ich alle unnötigen ausgehenden Links von meiner Startseite entfernt. Insbesondere PR-Dienste gelten ja als NoGo (habe da nur noch eine simulierende Grafik ohne Verlinkung). Gilt dies auch für die Links auf solche Bookmarkdienste? Die sieht man ja auch verdammt oft. (Ich fürchte, ich kenne die Antwort...)

Und wieder einmal sei mein Coder verflucht in alle Ewigkeit! Die Seite von links nach rechts aufzubauen statt von oben nach unten, gehört in die Top 3 der Schnapsideen. Die Ebay Ads rechts sind mein Footer... Wie also sollte ich z.B. solche Bookmarklinks sinnvoll, aber an untergeordneter Stelle unterbringen?!

Bei MisterWong habe ich festgestellt, daß je nach Kategorie schon 10 neue Links im Monat ausreichen, um in die Monatscharts zu rutschen. Und das kann ja nicht schaden... Daher würde ich Dir, bubu, empfehlen, die Bookmarks aus Deinem Thread in den Juli zu verlegen, wenn sich Interessenten melden.

@ master: Yo, genausowenig bringt es, einen der Editoren anzuschreiben. Aber ich wollte auch nicht bis zur Rente warten...
 
Zuletzt bearbeitet:
die ganzen Bookmarkdienste setzen doch mittlerweile nofollow ein, dementsprechend hat sich deren Relevanz gegen 0 genähert
 
one4all... Habe testweise AddThis integriert. Da müßte ich das nofollow aber selbst einbauen. Weiß nicht, ob das Konsequenzen haben kann.
 
Stimmt wohl, das die meisten nofollow rin haben, aber ich habe das jetzt nicht wegen des Pagranke oder der Positionierung in Angriff. Geht mir um die Verbreitung allgemein, Also als Werbung einmal und einmal für ne ganz spezielle Webseite (Verrate ich aber nicht welche ;) )

Es ist ja auch schon ausreichend wenn dadurch ein paar Besucher sich mehr auf die Seite verirren...
 
Neija im Mainstream sind diese ganzen Bookmarkdienste nicht angekommen, du wirst nur die "geeks" erreichen, ich vertrete da immer noch die These, dass die Erfolgschance mit den JavaScripten um die Seite im FF und IE in die Bookmarks zu schieben Erfolg behafteter ist als die Bookmarkdienste.
Denn wenn man mal die ganzen nicht internetaffinen Personen fragt, oder eben Personem die nicht so tief im Web 2.0 hängen, die haben von delicious, Mr. Wong & Co nie im Leben etwas gehört und können daher mit deren kleinen Symbolen im Footer auch nichts anfangen.
 
Yo, ich bis vor kurzem ja auch nicht, obwohl ich schon eher sollte als irgendein Rentner im Abenteuerland Internet. Deswegen lasse ich auch mein kleines Script "Seite merken" zusätzlich am Start, obwohl diese Option auch von AddThis unterstützt wird. Allerdings sind die lokalen Bookmarks in keinster Weise öffentlichkeitswirksam, sondern betreffen nur den einzelnen User. Ok, wenn der wiederkommt, freue ich mch natürlich auch. :D

Mit den social bookmarks will man aber nicht nur die Wahrscheinlichkeit erhöhen, daß der konkrete Besucher wiederkehrt, sondern nebenbei noch paar zusätzliche Besucher erhaschen - von mir aus auch Freaks. :LOL:

Damit erzähle ich Dir natürlich nichts Neues. Aber nachdem ich mich ein wenig damit beschäftigt habe, finde ich die Dinger gar nicht mehr so sinnlos - auch wenn ihre Reichweite begrenzt ist.

@ bubu: Aber man muß ja nicht mit dem Arsch einreißen, was man mit den Händen aufbaut, wenn ich das mal etwas derb formulieren darf. Wozu sich also ausgehende Links aufhalsen, wenn es sich vermeiden läßt?
 
Hallo KeinKommentar

ich glaube nicht das deine Seite Überoptimiert ist. Hier sind einpaar Punkte die du überarbeiten solltest.

1. der Quellcode ziemlich kaotisch nicht nur im Bezug auf validated.

2. du benutzt JavaScript

3. html ist nicht ganz vom Design getrennt

4. Seiten wie Aktuelles, Impressum, Hinweise... haben den gleichen Titel Tag, Description und Keywords.

5. unter www.redensarten.net/Eulen.html erreichen wir die Redewendung Eulen nach Athen tragen... www.redensarten.net/eulen-nach-athen-tragen.html währe besser

6. die Seite ist unter www.redensarten.net und redensarten.net zu erreichen.. das heißt Google hat zweimal denselben Inhalt und du müsstest wissen das Google keinen Duplicated Content mag :p

das waren jetzt einpaar Punkte die mir beim überfliegen der Seite aufgefallen sind.

MFG
TL
 
Bevor ich es am Ende vergesse: Dickes Danke für die Hinweise.
Schade und ärgerlich ist: An einigen Sachen werde ich nichts ändern können. :(

Hallo KeinKommentar1. der Quellcode ziemlich kaotisch nicht nur im Bezug auf validated.

Daran wollte ich im Rahmen meiner Möglichkeiten schon lange mal schrauben. W3C konform wird das mit Sicherheit niemals. Da müßte ich ja komplett neu aufsetzen. :ugly: Und so ist das halt, wenn man mangels eigener Kenntnisse von anderen abhängig ist. Die Validität steht allerdings nicht sonderlich weit oben auf meiner ToDo-Liste. Unterschätze ich diesen Punkt? Gibt soviele andere Sachen, die mir wichtiger erscheinen, allen voran die Erweiterung der Inhalte.

2. du benutzt JavaScript

Ja, aber doch eigentlich nur fürs Bookmarken und für die Werbung. Wer es nicht aktiviert hat, sieht halt z.B. die Textlinks nicht. Aber es sind keine grundlegenden Funktionen mit js umgesetzt, so daß das nicht so schlimm sein sollte. Oder übersehe ich da etwas?

3. html ist nicht ganz vom Design getrennt.

Auch hier kann ich mich leider nur rausreden. :( Es ist ein gekauftes, nicht wirklich sauberes Script, an dem dann auch noch Hinz und Kunz herumgeschraubt haben. Selbst wenn die Seite genug abwerfen würde (was bei weitem nicht der Fall ist): Immerhin läuft es nach außen hin ja (daß mittlerweile nicht mal (mehr) alle Admin-Funktionen funzen, ignorieren wir mal. :LOL:). Will sagen: Never touch a running system.

4. Seiten wie Aktuelles, Impressum, Hinweise... haben den gleichen Titel Tag, Description und Keywords.

Ja, das ist Sch... Dank des Scriptes :wall: haben alle Seiten die gleichen Metas. Bis auf den jeweiligen Titel.

5. unter www.redensarten.net/Eulen.html erreichen wir die Redewendung Eulen nach Athen tragen... www.redensarten.net/eulen-nach-athen-tragen.html wäre besser

Naja, der wandelt die Stichworte aus meinem fünfspaltigen Register automatisch in url um. Grundsätzlich könnte ich das ändern, werde mich im Detail aber dann doch wieder als zu doof in Sachen php erweisen. Trotzdem das ist ein Punkt, den ich wenigstens mal angehen könnte, ohne schon vorher Ausreden zu haben.

Die Bindestriche und dann sehr langen url stören google überhaupt nicht?

https://www.redensarten.net/Wasser+abgraben.html

Kommt der Sache ja schon recht nah (allerdings + statt -). Schneide mit dieser Unterseite allerdings trotzdem schon immer recht schlecht ab (im Moment 49. von knapp 3k).

6. die Seite ist unter www.redensarten.net und redensarten.net zu erreichen.. das heißt Google hat zweimal denselben Inhalt und du müsstest wissen das Google keinen Duplicated Content mag :p

Jessus! Ist mir noch net aufgefallen. Weiß ich vor Schreck weder woran das liegt, noch wie ich das abstellen kann.

ps: Sollte ich durch ein Wunder (oder harte, lange Arbeit) mal hinreichend Einnahmen generieren können, wüßte ich, wen ich nach Möglichkeit für das Erstellen eines neuen, sauberen Scriptes engagieren würde. Teilax hat sich eine meiner Dateien vorgenommen, eine gewünschte zusätzliche Funktion eingebaut und ganz nebenbei den Code von 400 Zeilen auf rund 50 gedrückt. Das war a) sehr beeindruckend und b) hat es mir zum wiederholten Mal gezeigt, was für ein tolles Script ich da verwende...

pps: Ab und an habe ich mir schon gewünscht, mich trotz der Arbeitserleichterungen eines Scriptes mit Datenbank nie damit angefangen, sondern trotz des enormen Aufwandes alles per html umgesetzt zu haben. Da würde ich wenigstens mehr oder weniger alles selbst bearbeiten können - früher oder später. Bei einer generellen Änderung 100 Unterseiten bearbeiten zu müssen, ist freilich auch nicht so prall...
 
Zuletzt bearbeitet:
Die Validität steht allerdings nicht sonderlich weit oben auf meiner ToDo-Liste. Unterschätze ich diesen Punkt?

ist nicht das wichtigste aber man sollte sich drum kömmern.

Die Bindestriche und dann sehr langen url stören google überhaupt nicht?

nein. Bindestriche helfen google Wörter auseinander zu halten. Du kannst locker 4-6 Wörter für deinen Dokumentnamen verwenden. Allerdings solltest du bindestrich oder unterstrich benutzen.

Jessus! Ist mir noch net aufgefallen. Weiß ich vor Schreck weder, woran das liegt, noch, wie ich das abstellen kann.

Code:
RewriteEngine On
RewriteCond %{HTTP_HOST} !^www\.redensarten\.net$
RewriteRule ^(.*)$ https://www.redensarten.net/$1 [L,R=301]
in die .htacces Kopieren.

Ich würde die übrigens raten auf ein CMS wie Wordpress oder Drupal umzusteigen. Ist quasi "nur" Copy & Paste und die Inhalte sind schnell kopiert.

Desweiteren zu deinem dmoz Problem... du solltest die eBay Werbung etwas dezenter zu deinem Layout anpassen (oder auf Adsend umsteigen) und auf die amazon und eBay Werbung im Inhalt verzichten. Viele Editoren reagieren sehr empfindlich auf Werbung.

MFG
TL
 
Word Press wollte ich mir ohnehin mal anschauen und "irgendein" anderes Projekt zusammenbasteln, um eine Spielwiese zu haben.

Zu dmoz und Werbung: Da muß ich dann Prioritäten setzen. Ich lege so schon drauf. Will ja nicht reich werden mit dem Projekt, aber... gerade die Contaxe-Werbung spült wenigstens paar Cent (durchaus wörtlich gemeint) in die Kasse. Und es sind ja nicht nur Webspace, Bilder von fotolia, Grafiken und anderes hier aus dem Forum, die einmaligen Investitionen fürs Script. Habe mittlerweile einen Regalmeter Literatur zum Thema - nicht gerade billig... Aber ich schweife ab, komme vom Hundertsten ins Tausendste. :oops:

Jedenfalls: Wenn dem so ist, habe ich halt Pech. Dann soll mich dmoz dann doch dort, wo nie die Sonne scheint. Dann haben sie halt eine der besten Seiten zum Thema nicht dabei.
 
Nun ja, gerade mit Sicherheitslücken ist zwar nicht zu spaßen, aber dann dürfte man so vieles nicht. Bei vielen Sachen, die man nicht dürfte, weiß ich nicht einmal, daß man sie nicht dürfte. Und da es nur eine Spielwiese sein soll... Allerdings auf dem gleichen Server, wo der Spaß dann wiederum aufhören würde.

@ Luci: Hatte ich vorhin vergessen: Danke für die Umleitung.

Aber glaub nicht, daß Du mich deswegen beim Pokern ausnehmen dürftest. :p
 
Hat jemand ein gutes Programm womit man googlesitemaps erstellen kann? Wo man auch direkt vorher sachen rausfiltern kann?

Habe bisher für partylions.de keine sitemap, wollte das nun mal erstellen. Aber das eine Programm, dass ich gefunden habe macht irgendwie nichts, k.a. wieso es startet einfach nciht den crawler. Bei dem Onlineprog das ich gefunden habe, da kann ich keinen Filter einstellen, so das es ewig dauert, weil er alle Vote-links mit nimmt, was nicht sein soll (sind ja so an die 20k, die nicht mit gecrawlt werden sollen).
 
Hat jemand ein gutes Programm womit man googlesitemaps erstellen kann? Wo man auch direkt vorher sachen rausfiltern kann?

Habe bisher für partylions.de keine sitemap, wollte das nun mal erstellen. Aber das eine Programm, dass ich gefunden habe macht irgendwie nichts, k.a. wieso es startet einfach nciht den crawler. Bei dem Onlineprog das ich gefunden habe, da kann ich keinen Filter einstellen, so das es ewig dauert, weil er alle Vote-links mit nimmt, was nicht sein soll (sind ja so an die 20k, die nicht mit gecrawlt werden sollen).

Hy

https://www.google.de/webmasters/

Webmaster-Tools (einschließlich Sitemaps)

MFG
TL