• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

Übertriebenes SEO wird geahndet..

  • Ersteller Ersteller sysop
  • Erstellt am Erstellt am
Das es gegen reine Linklisten geht ist schon schön, auch schön wäre allerdings, wenn man bei der Suche nach einem Stickwort nicht mehr nach einem Wikipediaartikel, der zu Recht meist an Stelle eins steht die Plätze 2-5 mit Seiten besetzt wären, die nichts anderes gemacht haben, als den Wiki-Artikel zu kopieren.
 
Sowit ich weiß wird Contentklau und Linkspamming (Spamdexing) schon seit Jahren bestraft.

Ich hoffe Google tut endlich etwas gegen Webmaster die HTML mit Absicht falsch benutzen (<h1>-<h6> falsch einsetzen, zuhäufig <strong>, <b> und <u> usw. ) und sich dadurch Vorteile erschleichen.
 
Zuletzt bearbeitet:
Ich bin ein echter Verfechter von Inhalt vor SEO.
Eine Webseite sollte ausnahmslos nach ihrem Inhalt bewertet werden und jede Form der Suchmaschinenbeeinflussung in die falsche Richtung sollte massiv geahndet werden. <h1> - <hx> sind nur Vereinfachungen für "Goggles" die Texte analysieren zu können. Die falsche Verwendung ändert am Gehalt des Inhalts nichts, macht es Google nur schwerer Inhalte einzuordnen.
 
Mal ein aktuelles Beispiel für das was ich in Beitrag #3 meinte:
google.jpg
die Suche nach "Caprylsäure" liefert mir zwei mal den Wikiartikel, ein paar Shoppingergebnisse, einige Forendiskussionen und dann noch mal an Stelle 5 eine Kopie des Wikiartikels. Wenn man also nach Informationen sucht, hat man unter den ersten 5 Ergebnissen drei mal den selben Text...
 
Da hat Google wohl noch nicht genug gegen doppelten Content gemacht, oder die restlichen Seiten bieten so schlechte Inofrmationen, dass der Wikiartikel (geklaut oder nicht) relevanter ist.

Der Artikel über das Update selber ist aber doch nichts neues oder?
Hätte man die letzten Jahre mit den Schlägwörtern: Matt Cutts / Google Algorithmus / Googles Geheimnis / exakt so veröffnetlichen können.
Die Profis wissen doch mittlerweile, mit welchen SEO-Mitteln man auf die Nase fällt, da gibt es ja viele bekannte Beispiele. Es werden auch immer wieder neue Updates kommen.

Google hat es aber meiner Meinung nach schon gut gelöst Webmaster dazu zu bringen die Erstellung unnatürlicher Texte / zu hoher Keyworddichten / missbrauchen von Elementen usw. einzudämmen und sorgt so schon mit allen anderen Aspekten bsp. Wertung für gute Usability, für qualitativ hochwertigere Seiten.

Suchmaschinenoptimierung wird es in Zukunft auch noch geben, man wird dadurch auch Vorteile haben. Nur wird man dann SEO mit Usability und Qualität in Zusammenhang bringen anstatt mit Spam.
 
trotz aller Bemühungen ist es meiner Meinung nach nochnicht gelungen unnatürlicher Texte und zu hoher Keyworddichten einzudämmen. Man spricht zwar immer von unique, aber das hat sich noch nicht wirklich durchgesetzt. Die Leute die sich auf Suchmaschinenoptimierung spezialisiert habenn, kennen die Tricks. Gruss Veron
 
Andererseits sind hohen Keywortdichten auch gar nicht so schlecht. Irgendwo muss man die Grenzen ziehen. Und mal erlich 2% - 5% ist wirklich nicht viel. Ich persönlich schreibe meine Artikel auch suchwortoptimiert und verwende eine Dichte von etwa 3%. Ich denke die werden auch nicht abgewertet werden, weil sonst irgendwann alle Artikel eine Penalty bekommen. Fettgedrucktes, Bilder, Links, eigentlich alle Textauszeichnungen tragen maßgeblich zum Bild einer Seite bei. Eine Seite, die nur Text hat lese ich nur mit großem Widerwillen bis zum Ende.
 
Mir gefällt es nicht, dass die SEO-Pseudobranche, die keine echte Daseinsberechtigung hat, ständig versucht, völlig normale und logische Vorgehensweisen bei der Erstellung einer Webseite als SEO-Praktiken zu verkaufen.

Bei der Keyworddichte wird beispielsweise mal wieder Ursache und Wirkung verkehrt. Wie wird vom Suchanbieter die „optimale“ Keyworddichte festgelegt? Ich nehme doch mal, durch Analyse bestehender, themenrelevanter Texte, die nicht in Hinblick auf eine optimale Keyworddichte geschrieben wurden. Daraus folgt die Erkenntnis, dass ein „ordentlicher“ Text zum Thema vielleicht 2-5 % Keywords enthält (Zahlen sind jetzt ausgedacht). Das bedeutet, wenn du von dir aus ohne jedwede SEO-Gedanken im Hinterkopf einen guten Text schreibst, erreichst du automatisch das, was der Suchanbieter für optimal erachtet.

Es ist prinzipiell das Interesse des Suchanbieters, gute und relevante Texte hoch zu bewerten!

Jetzt sagen die SEO-Leute, dass keine guten Texte mehr geschrieben werden sollen, sondern Texte mit der Keyworddichte eines guten Texts. Also Texte, die nur so tun, als wären sie gute Texte.

Jetzt das Zauberkunststück: Schreibt einfach gute Texte mit relevanten Informationen zu eurem Thema und zeichnet diese Texte sinnvoll semantisch aus. So werden die „SEO-Experten“ weggezaubert. Simsalabim.
 
Naja es gibt solche und solche SEO's. Gute sind sich sehr wohl darüber im klaren das einfach qualitativ hochwertiger Content her muss. Aber das reicht ja leider oft nicht aus dewegen die "Wortspielereien". VIelleicht ändert sich ja jetzt nach dem Penguin Update etwas.
 
Das Problem, dass sich daraus ergibt ist, dass weniger gute Texte durch SEO Gefrickel besser bewertet werden also solche, die gut und weniger optimiert sind.
SEO entwickjelt sich mehr und mehr zur Abzocke. Jeder Webseiten Betreiber ist bestrebt seine Seite gut zu plazieren und erreicht das leider durch optimierung häufiger als durch "gute" Inhalte. Firmen lassen sich diese Qualitätsschwindelei bezahlen.

Ähnlich eines W3C Standards wäre es an der Zeit, einen Standard für die Suchmadschinen zu entwickeln, der alle anderen Optimierungsverfahren einfach ignoriert. Dann hört das mit dem "solche und solche SEO`s" einfach auf.
 
Porscheman schrieb:
Naja es gibt solche und solche SEO's. Gute sind sich sehr wohl darüber im klaren das einfach qualitativ hochwertiger Content her muss. Aber das reicht ja leider oft nicht aus dewegen die "Wortspielereien". VIelleicht ändert sich ja jetzt nach dem Penguin Update etwas.

Ich sehe ein, dass das Definitionssache sein kann, wie du jemanden nennst, der entsprechende Beratung/Optimierung durchführt. Für mich ist „SEO“ aber mittlerweile ein verbrannter Begriff, der praktisch ausschließlich die „black hat“-Techniken bezeichnet.

Das mache ich persönlich auch daran fest, dass ich Optimierungen, die die semantische Auszeichnung oder die Formulierung und Verteilung des Inhalts betreffen, nicht als SEO ansehe, sondern als Bestandteil einer guten Seitenkonzeption. Das hat mit den Suchmaschinen nichts zu tun, dass ich möchte, dass Besucher meiner Seite die bestmögliche inhaltliche Qualität auf die barriereärmste Art und Weise präsentiert bekommen.

Barrierefreiheit bedeutet dann übrigens auch, dass die Seite von Suchmaschinen gut ausgelesen werden kann. Semantik bedeutet, dass die Suchmaschinen – genau wie ein Browser – wissen, was ein Element im Quellcode verkörpert.

Suchmaschinen sind lediglich Clients die gewisse Bestandteile des HTML-Standards nutzen. Es ist wirklich so einfach.

SEO-Leute schalten sich dann gerne dazwischen und sagen: Der Einsatz von Standards hat nichts mit Barrierefreiheit oder so zu tun, das ist einzig und allein SEO.

Sie brauchen diese Sicht der Dinge, damit ihre kleine Blase nicht platzt, aber inhaltlich ist das ganz großer Unsinn. Barrierefreies und standardkonformes Webdesign wird nicht nur für die Suchmaschinen gemacht, es wird für alle Clients gemacht. Da die Suchmaschinen zur Gruppe aller Clients gehören, betrifft es logischerweise auch sie. Das ist aber Folge von und nicht Ursache für entsprechendes Design. Wer dabei Ursache und Wirkung verkehrt, hat entweder Webstandards nicht verstanden oder spiegelt mit voller Absicht falsche Tatsachen vor.

Als kleines Fazit: Es gibt vielleicht drei Aspekte, die relevant sind: guter Inhalt, semantische und standardkonforme Auszeichnung sowie Anzahl der Rückverlinkungen.

Die beiden ersten Aspekte umfassen „Optimierungen“, die auch vorgenommen werden sollten, wenn es keine Suchmaschinen gäbe. Für mich ist das Bestandteil handwerklich ordentlichen Webdesigns. Der dritte Aspekt ist ein Designfehler der Suchmaschinen.

Zum dritten Aspekt noch kurz: Ich habe hier vor anderthalb Jahren oder so mal eine Diskussion über nofollow-Links geführt.

- http://www.html.de/html-und-xhtml/36664-html-text-tool.html (im Rahmen dieses Threads)

Meine These dazu war mehr oder weniger: Wenn Leute inhaltlich absolut relevante Verlinkungen (etwa ein direkter Hinweis auf eine Seite in einem selbst verfassten Blogeintrag) künstlich als nofollow kennzeichnen, um „page juice“ auf ihrer Domain zu behalten, dann können wir das Web, das auf Verlinkung basiert aber leider auch auf der Willkür von Suchmaschinen, dichtmachen.

Der Witz ist: Jemand erhöht meinetwegen die Qualität des eigenen Angebots durch Zitate von und Hinweise auf meine Seite. Er kennzeichnet die Links aber als nofollow, sodass ich dadurch aus Suchmaschinensicht keinen Gewinn habe. Was mache ich, wenn ich umgekehrt Einträge der ersten Seite zitiere und verlinke? Wenn ich nicht nofollow setze, schade ich mir doppelt, wenn ich nofollow setze, schaden wir uns beide gegenseitig einfach. Wenn wir beide auf nofollow verzichten würden (also gewissermaßen kein „SEO“ betreiben würden), würden wir beide gewinnen. Weil aber aller Welt eingeredet wird, man müsse „cleverer“ sein, wird gerne nofollow gesetzt, weil ein Vorteil besteht, wenn andere Seiten „so dumm“ sind, es nicht zu tun.

Das ist insgesamt eine Problematik, die überhaupt nicht existiert. Sie existiert nur, weil SEO-Leute rücksichtslos ihre kleinen Tricks machen und weil es Suchmaschinen für clever halten, die Anzahl an „follow“-Links hoch zu bewerten.
 
wers etwas genauer wissen möchte kann sich über das "google update panda" erkundigen. in dem zuge wurden viele neuerungen und verbesserungen der suchmaschine zum thema "schlechter content und reine seo webseiten" eingeführt.
 
Zurück
Oben