• Jetzt anmelden. Es dauert nur 2 Minuten und ist kostenlos!

Google Indexierung / Duplikat

sirAnton

Neues Mitglied
Hallo, seit paar Wochen wurden fast alle meine Seiten aus den Google Index genommen mit dem vermerk:
"Duplikat – vom Nutzer nicht als kanonisch festgelegt"
Vor einem Monat waren noch alle Indexiert.
Ich habe 3 Domains .de .com .eu wobei jeweils 2 mit einer 301 Weiterleitung auf meine Haupt Domain weiterleiten.
Auch habe ich eine Subdomain eingerichtet die von www. auf meine Haupt Domain weiterleitet.
Könnte das das Problem sein, oder wo sollte man anfangen?
 
Werbung:
Werbung:
Also das einzige Problem was ich sehe ist, dass deine Domain unter www und ohne www erreichbar ist. Du solltest dich für eine Schreibweise entscheiden und dorthin alles weiterleiten.

Die Meldung hast du doch aus der Search Console? Dort bezieht sie sich auf die Domain die dort angemeldet ist - nicht auf irgendwelche anderen die parallel noch existieren könnten. Die kanonische URL einer Seite sollte man per Meta-Tag hinterlegen. Den sehe ich bei dir nirgends. Siehe: https://developers.google.com/search/docs/crawling-indexing/consolidate-duplicate-urls?hl=de
 
Danke, ich hatte bei Strato eine Subdomain www. angelegt die weiterleitete auf meine Hauptdomain. Die Subdomain mit der Weiterleitung habe ich vorgestern gelöscht. Also leitet der Server von Strato www. anfragen weiterhin weiter. Somit war das anscheinend doppelt.
Mal sehen ob sich bei Google was tut. Habe die Überprüfung in der Console beantragt.

Das mit dem rel="canonical" werde ich auch schauen möglichst bald zu machen.
 
Hallo, in der Google Konsole wird noch meine index.php als duplicated content angesehen.
Die Hauptseite kann über meinedomain_de oder meinedomain_de/index.php aufgerufen werden.
Für den Crawler anscheinend doppelt. Wie kann man das lösen?
Was ich auch nicht verstehe warum Google meine meinedomain_de/sitemap.xml nicht akzeptiert.
 
Werbung:
Entscheide dich für eine Startseiten-URL: mit oder ohne index.php. Die jeweils andere leitest Du per 301 zur Startseiten-URL um. Mit der Zeit erkennt Google das dann auch.

Eine sitemap.xml kann aus vielerlei Gründen nicht akzeptiert werden. Ich sehe derzeit nichts was dagegen spricht. Schreibt Google dazu nicht mehr?
 
Laut sitemap.org ist die korrekte schreibweise so:
XML:
<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
   <url>
      <loc>http://www.example.com/</loc>
      <lastmod>2005-01-01</lastmod>
      <changefreq>monthly</changefreq>
      <priority>0.8</priority>
   </url>
</urlset>
Das andere gedöns ist falsch oder veraltet oder was weiß ich... :)

Das Problem mit dem Duplikat hatte ich auch lange Zeit, trotz 'canonical'. .. und da steckte der Fehler: In der sitemap stand auch ein "Duplikat".
XML:
<loc>https://example.com</loc>
<loc>https://example.com/index.php</loc>

Seit ich die Variante mit "index.php" verwende ist der Duplikat-Fehler weg.
 
Zuletzt bearbeitet:
Ok, ich leite das jetzt mit PHP 301 auf die index.php weiter und hoffe ich hab dann Ruhe von dem Google gemeckere:smile:
PHP:
<?php
    $pfad = $_SERVER["REQUEST_URI"];
    if ($pfad == "/"){
        header("HTTP/1.1 301 Moved Permanently");
        header("Location: https://meinedomain_de/index.php");
        header("Connection: close");
    }
?>
Zu der sitemap.xml kommt von Google nur "Sitemap konnte nicht gelesen werden" warum auch immer:rolleyes:
 
Werbung:
Dann würde ich noch angeben , dass es sich um ein xml Dokument handelt und die richtige Zeichencodierung verwendet wird. Hoffenlich auch so abgespeichert.
XML:
<?xml version="1.0" encoding="UTF-8"?>
 
Werbung:
Ist so drinnen, wird nur im Browser nicht angezeigt. Im Seitenquelltext schon. VG
UTF-8 muss ich noch prüfen, evt. liegt da der Fehler
Edit: Überprüft sicher gespeichert im UTF-8 Zeilenende Unix/Linux
 
Zuletzt bearbeitet:
Zurück
Oben