Ajax & SEO

Bububoomt

ohne Vertrauen
ID: 10361
L
28 April 2006
19.666
769
Hat jemand schon Erfahrung mit Ajax und SEO gemacht? Wie macht man es richtig, damit google auch alle Inhalte lesen kann?

Habe zwar paar Artikel gelesen aber so schlau wurde ich nicht drauß und weiß auch nicht wie aktuell diese sind.

Wie habt ihr es umgesetzt?
 
Lass Ajax ganz weg, du machst dir nur Unmengen Aufwand es korrekt umzusetzen. Denn der Vor- und Zurück-Button müssen nachher funktionieren - und genau hier beginnt dann für dich die Qual mit tausenden Browserbugs.
 
Eine komplette Seite nur mir Ajax zu machen, wäre in der Tat umständlich. Ein paar coole Zusatzfunktionen mit Ajax zu gestallten ist im Moment Stand der Dinge.

Was eine Möglichkeit ist dies zum Umgehen sind sog. Landing Pages. Von der Landing Page gelangt ein Benutzer auf deine funky Seite. Teilweise kann man auch nur für Suchmaschinen LPs definieren, die mit anderen Seiten assoziiert sind.

Dann gäbe es noch die Möglichkeit der "Google Sitemap". Praktisch eine Sitemap speziell für den Google-Crawler.
 
Also ich baue meine Seite gerade komplett in ajax. Von SEO experten ist mir geraten worden, eben dann für jede Kategorie eine eigene Datei zu nutzen. Jede dieser unterseiten gibt für sich den inhalt aus. in json. eine robots.txt datei in den ordner auf dem server mit rein und alles freigeben was geht. so sieht google zumindest die texte auf den unterseiten.
 
Halte ich für sehr gewagte Thesen anzunehmen, dass Google mit Webseiten-Inhalt innerhalb von JSON-Dateien umgehen kann, ich würde fast meine Hand dafür ins Feuer legen, dass es nicht so ist.
 
google sieht nur das was auch ein user sehen würde wenn er den quelltext öffnet! wenn meine PHP datei ein json-code ausliefert ist im quelltext das zu sehen. und dort befindet sich auch der TEXT oder was auch immer mit ausgegeben werden soll.. also wird das von google auch so analysiert. natürlich checkt google die json ausgabe im allgemeinen nicht. sollte google auf die Seite dann verlinken wegen dem TEXT ist halt mod_rewrite notwendig um das dann auf den richtigen content zu leiten
 
man kann doch anhand der Logfiles rausfinden ob die robots.txt angefasst wurde.. ist dies der fall deaktivert man einfach den befehl in der htaccess zum rewriten.. entfernt sich die Ip dann wieder vom Server aktiviert dus wieder.. ich weiß jetz nicht wo das problem ist. ansonsten geht doch google nur an die index und internen links soweit ich das jetz verstande habe.

mit c++ dürfte sich das von der schnelligkeit sogar realisierbar sein..


Naja egal ich wollte nur ein paar tipps geben, und der SEO Hansel hat mir das so gesagt. Ich hab mit SEO noch nicht die große Erfahrung , bin aber gerade eben mit dem Thema selbst beschäftigt.
 
Und Google wird dich abwerten, wenn du dem Crawler und den Nutzern verschiedene Inhalte sendest, denn das ist für Google ein Indiz für Blackhat SEO.

Da du selbst scheinbar keine Ahnung davon hast, wäre ich vorsichtig solche Empfehlungen zu geben. Denn die Json-Empfehlung war eine sehr schlechte Idee, generell ist Content per Ajax nachladen eine sehr schlechte Idee fürs SEO, es seidenn man macht es nach der escape-fragment-Methode von tleilax. Aber dann gilt trotzdem weiterhin die User-Problematik mit der Funktion des Vor/Zurück-Buttons des Browsers.
 
naja ich bin jetzt seit 5 Jahren Programmierer. Mich hat die Thematik SEO nie interessiert da es hauptsächlich um Software oder Klassen geht.

Es kann ja dennoch nicht sein, dass Usability gegen google ist.. und wozu soll dann die robots.txt gut ein wenn google nicht alle Datein im Ordner anfassen soll? dann kann ich genauso gut darauf verzichten.

Ich habe meine Seiten mit der von mir geschilderten SEO Methode auf seitenreport testen lassen und da kamen jetz keine schlechten ergebnisse raus oder irgendwelche Fehler..
 
Och, da kann man inzwischen auch gegen anwirken, nur leider steht wie so oft der IE einer schönen Umsetzung im Weg:

:arrow: https://caniuse.com/#feat=history
jup, pushState ist mir bekannt, aber die Implementierungen sind leider buggy ;)
balupton / history.js hat schon einige behoben, leider gibts weitere und manche Bugfixes verursachen jetzt in den neuen Browsern Probleme.
Es gibt leider aktuell wirklich keine stressfreie Methode, jede erfordert es Unmengen Browserbugs zu beheben und mit jeder neuen Version dann wieder zu prüfen.


Ich habe meine Seiten mit der von mir geschilderten SEO Methode auf seitenreport testen lassen und da kamen jetz keine schlechten ergebnisse raus oder irgendwelche Fehler..
Sei mir nicht böse, aber mit solch einer Aussage machst du dich etwas lächerlich ;)
Das was Seitenreport prüft ist Meilen von einer echten SEO-Analyse entfernt, das prüft nur die wirklich billigsten Dinge und 3/4 der Ergebnisse haben nur bedingt bis gar nichts mit SEO zu tun.
Solche Checks können die eklatante Fehler aufdecken, aber nicht Dinge die so schwer nachzuvollziehen wie Ajax-Seo-Seiten sind bewerten, das Tool prüft ja nichtmal die Verlinkungen.
 
ich weiß ernsthaft nicht was dein Problem ist.. ich habe jetzt schon ungefähr 3 mal erwähnt, dass ich mit SEO bis dato nichts zu tun hatte, da ich Software entwickle und / oder spezielle Klassen.

die Webentwicklung ist zwar kein Neugebiet für mich, aber das Thema SEO habe ich bisher noch nie für voll genommen. Ich habe hier lediglich die Informationen rausgegeben, die mir mein SEO Berater übergeben hat.. da ihr ja aber hier so laut aufschreit sollte ich vielleicht nochmal genau überprüfen ob sich die Kosten hier lohnen.. oder ich mir jemand neues suchen sollte.

Seitenreport ist meines Erachtens genau das richtige für Leute wie mich, die jetzt erst wieder in das Thema Webentwicklung reinschnuppern.

Es tut mir leid dass ich es überhaupt gewagt habe hier etwas zu posten.... ich verkriech mich lieber wieder in den Keller und entwickle an meiner Software weiter.. das macht definitv mehr Spass als sich hier nur volllabern zu lassen, anstatt dann im gegenzug mal einen WIRKLICH NÜTZLICHEN TIPP zu geben, so dass ich mir das Thema vielleicht auch SELBST ANEIGNEN KÖNNTE bevor ich nen SEO BERATER BEZAHLE!

so far..
 
Das Problem ist, es gibt viele SEO-Experten, die sich dafür halten aber noch nicht mal soviel wissen wie ich. Ich zähle mich sicher nicht zu SEO_Experten.

Mit einem Kunden war ich mal bei einem SEO-Experten, der konnte nicht mal Google Analytics richig lesen, tat aber so. Hat mit seinen Top 10 Plazierungen (7,8,9) bei Begriffen mit >10 Mio Treffern sein können versucht zu untermauern.

Schön, das ja Platz 7,8,9 weniger Wert ist als 11,12. Zudem sagen die 10 mio nichts aus.

Ich bin bei manchen Keywords auf Platz 1, die haben >100 Mio!

Habe aber halt mit Ajax und Seo noch nichts gemacht bisher.