Google hat gerade die November-Ausgabe seiner SEO Office Hours abgeschlossen, in der Mitglieder des Google Search-Teams Antworten auf Ihre Fragen gegeben haben. Die vollständige Aufzeichnung ist auf YouTube verfügbar, und eine Abschrift der Frage ist in diesem Blogbeitrag veröffentlicht. Das Team experimentiert mit verschiedenen Sprechstundenformaten, um sie einfacher zu veröffentlichen und anderen Teammitgliedern die Möglichkeit zu geben, Beiträge zu leisten, und strebt derzeit ein monatliches Nur-Audio-Format an. Interessenten, die Probleme für die Veröffentlichung im nächsten Monat einreichen möchten, können dies über dieses Formular tun. Wenn Sie spezifische Fragen zu Ihrer Website haben, besuchen Sie am besten das Forum des Google-Suchzentrums. In diesem Blogbeitrag von Developer Advocate John Mueller wird die Verwendung von Kommas zum Trennen mehrerer Werte in einem Schema-Tag-Feld erörtert. Als Antwort auf Lizzis Frage zu GTIN- und ISBN-spezifischen Attributen schlug John vor, dass es am besten wäre, einen Wert für jedes Feld anzugeben. Wenn sowohl eine GTIN als auch eine ISBN bereitgestellt werden, achten Sie außerdem darauf, das GTIN-Attribut vor dem ISBN-Attribut zu verwenden, damit jeder Wert für das richtige Feld gilt. Der Beitrag endet mit der Aufforderung an die Nutzer, Feedback zu diesem Blogbeitrag oder YouTube-Video über die Schaltfläche „Feedback senden“ zu hinterlassen. Enthält auch einen Link zu einem YouTube-Video, in dem Optionen für die Verwendung der Disavow-Funktion für Domain-Eigenschaften in der Search Console erörtert werden. Links: John Mueller, [YouTube-Video](https://www.youtube.com/ v=TepFVYrBVg0){rel="nofollow "} John und Duy beantworten zwei Fragen von Pierre bzw. Latha während ihrer SEO-Sprechstunde. Auf die Frage von Pierre: „Die Ablehnungsfunktion in der Search Console ist derzeit nicht für Domänenattribute verfügbar Disavowing zufälliger Links, die einige Tools markiert haben. Er empfiehlt, Disavow-Tools nur zu verwenden, wenn Sie für Links bezahlen und diese anschließend nicht entfernen können. Latha fragte nach nützlichen Inhaltsaktualisierungen für Websites, die Gastbeiträge akzeptieren, um Geld zu verdienen, und Duy antwortete, dass unsere Systeme von Suchmaschinen erstellte Inhalte von geringer Qualität oder geringem Wert identifizieren können und dass Websites, die Gastbeiträge akzeptieren, nicht nur riskieren, in den Rankings zu fallen Aufgrund dieses Updates sind bereits andere Systeme vorhanden. Sowohl John als auch Gary fragten nach dem Canonical-Tag von Google und wie es sich auf das Crawlen und Indexieren von Webinhalten auswirkt. Die Kanonisierung basiert nicht nur auf der Verknüpfung von rel="canonical"-Elementen. Das System von Google berücksichtigt Weiterleitungen, Sitemaps, interne Links, externe Links und mehr bei der Entscheidung, welche URL den Inhalt am besten darstellt. Es ist wichtig sicherzustellen, dass alle diese Signale konsistent sind, wenn die richtige URL ausgewählt werden soll. Der Kanonisierungsprozess wirkt sich nicht auf das Ranking der Seite aus, sondern nur auf die angezeigte URL. Gary fragte, ob Google Seiten mit kürzeren Inhalten eher crawlen und indexieren würde, weil es billiger wäre, sie im Index zu speichern. Es ist unklar, wie sich dies auf das Crawling auswirken würde, da es auch von anderen Signalen abhängt, wie z. B. internen/externen Links, die auf bestimmte Seiten oder Verzeichnisse verweisen. Paul warf die interessante Frage auf, ob die dynamische Reihenfolge der Auflistung der Grund dafür sein könnte, dass Produktbilder nicht indexiert werden. Alan von Google lieferte nützliche Informationen zu diesem Thema und erklärte, dass die dynamische Reihenfolge wahrscheinlich nicht der Grund dafür ist, dass Produktbilder nicht indexiert werden. Er empfiehlt, auf Produktbilder von Ihren Produktbeschreibungsseiten zu verweisen sowie eine Sitemap-Datei zu erstellen oder einen Google Merchant Center-Feed bereitzustellen, um sicherzustellen, dass Google alle Ihre Produktseiten finden kann, ohne sich auf Listenseiten verlassen zu müssen. Außerdem fragte Paul, ob es einen Zeitplan für die Site-Migration gebe, aber er wurde im Text nicht erwähnt. Link 1, Link 2. Sergey stellte eine Frage zum Zeitplan für die Site-Migration, da es vier Monate später immer noch keine Anzeichen dafür gibt, dass die neue Domain die SERP-Position der alten Domain erreicht. Es ist normal, Ranking-Schwankungen zu sehen, insbesondere während einer Migration. Das Verschieben nur eines Teils einer Website spiegelt nicht unbedingt das Verschieben der gesamten Website wider, und es ist schwierig, geeignete nächste Schritte vorzuschlagen, ohne eine bestimmte Website zu sehen. Für spezifischere Ratschläge wird Sergey empfohlen, im Forum zu posten und seine spezifische Situation zu beschreiben. Flavio warf auch die Frage auf, ob HTTP/3 die SEO verbessern könnte, indem es die Leistung verbessert. Obwohl HTTP/3 die Leistung verbessert, weist es nicht unbedingt auf eine verbesserte SEO hin, es sei denn, es trägt zu anderen Metriken bei – wie beispielsweise einer besseren Benutzererfahrung und Inhaltsrelevanz – die von Suchmaschinenalgorithmen verwendet werden, um Websites zu bewerten. Google verwendet das HTTP/3-Protokoll derzeit weder als Faktor in seinen Ranking-Algorithmen noch als Teil seines Crawling-Prozesses. Darüber hinaus sind die Leistungsgewinne durch die Verwendung dieses Protokolls wahrscheinlich vernachlässigbar und haben keinen Einfluss auf die Kern-Web-Vibranz, die im Ranking-Faktor der Seitenerfahrung verwendet wird. Um Andreas Frage zu beantworten, warum Google Backlinks weiterhin als Ranking-Faktor verwendet, obwohl Linkbuilding-Aktivitäten verboten sind, erklärt Duy das Problem weiter und stellt zunächst fest, dass Backlinks Rankings heute stärker beeinflussen als zu Beginn der kleinen Google-Suche. Er fügte hinzu, dass vollständige Linkbuilding-Kampagnen gemäß der Spam-Richtlinie des Unternehmens als Link-Spam gelten und von ihren Algorithmen in großem Umfang erkannt und entsprechend abgebrochen werden. Das bedeutet, dass Spammer oder SEOs, die Geld für Links ausgeben, keine Möglichkeit haben zu wissen, ob sie es wert sind, da sie möglicherweise bereits vom Google-System ungültig gemacht wurden. John und Lizzi beantworten zwei Fragen im Zusammenhang mit Onpage-SEO: Spielt es eine Rolle, ob die überwiegende Mehrheit der internen Content-Links denselben Anker hat? Wenn Sie die Website-Architektur hinzugefügt haben, haben Sie auch die Softwareanwendungsarchitektur hinzugefügt? John erklärte, dass es bei Menüs und Produkten normal ist, dass sie immer mit demselben Anker verknüpft sind. In diesem Fall müssen Sie sich also nicht auf SEO konzentrieren. Lizzi schlug vor, ob auch eine Softwareanwendungsarchitektur hinzugefügt werden sollte, abhängig von ihrer Website, schlug jedoch vor, dass strukturierte Daten verschachtelt werden sollten, sodass nur ein Website-Knoten auf der Homepage erscheint. Google hat seine Dokumentation aktualisiert und Branded Site Architecture[1] hinzugefügt. [1] https://developers.google.com/search/docs/data-types/corporate-contact Gary antwortet auf noindex
als Antwort auf eine Frage, wie hoch die Anzahl von "noindex"-Seiten Google möglicherweise betrifft sehr leistungsfähiges Tool, und viele dieser Seiten haben keinen Einfluss darauf, wie Google Ihre Website crawlt und indexiert. Als Antwort auf Yassers Frage, ob eine URL in einer anderen Sprache als der Seiteninhalt das Ranking einer Website beeinflussen würde, erklärte Alan, dass es aus SEO-Sicht keine negativen Auswirkungen gibt, obwohl Benutzer möglicherweise besorgt sind, ob sie eine URL mit anderen teilen . (Quelle 1) (Quelle 2). Kristin fragte, wie Ersteller von Inhalten auf Websites reagieren sollten, die ihre Inhalte kratzen, modifizieren und sie dann in den Suchergebnissen übertreffen. Google verfügt über Algorithmen, die solche Websites erkennen und aus ihren Suchergebnissen herabstufen, und sie ermutigen Benutzer, Websites zu melden, die sich an einem solchen Verhalten beteiligen, indem sie das Spam-Meldeformular verwenden. Auf Ridwans Frage „Ist es wahr, dass Google Indexseiten rotiert?“ lautet die Antwort nein. Google rotiert den Index nicht basierend auf dem Wochentag. Google ermutigt die Nutzer, Websites mit verdächtigem Scraping-Inhalt über das Spam-Meldeformular zu melden: https://support.google.com/webmasters/answer/93713?hl=de John und Alan von Google beantworteten Fragen der Nutzer Anton und Joydev Two zu Search Console, Crawling-Budgets für Ihre Website, Discover-Funktionen und Aktivierung von Inhalten für Discover. Anton fragte, ob es ein bestimmtes Verhältnis zwischen indizierten und nicht indizierten Seiten gebe, auf das man achten müsse, um potenziell verschwendetes Crawl-Budget auf nicht indizierten Seiten zu identifizieren. John antwortete, dass es kein magisches Verhältnis gibt, auf das man achten muss, und kleine und mittelgroße Websites brauchen sich nicht allzu viele Gedanken über das Crawl-Budget zu machen. Das Entfernen unnötiger interner Links ist eher ein Thema der Website-Hygiene als ein SEO-Thema. Joydev fragte sie, wie sie die Erkennung aktivieren könnten. Allen antwortete, dass keine Aktion erforderlich sei, um Inhalte für Discover zu aktivieren, da dies automatisch von Google durchgeführt werde. Außerdem verwendet Google unterschiedliche Kriterien bei der Entscheidung, ob Inhalte in Discover und in den Suchergebnissen angezeigt werden sollen. Das Erhalten von Traffic über die Suche garantiert also nicht Traffic von Discover. Gary und Lizzi beantworten zwei SEO-bezogene Fragen zur Verwendung von „noindex“ und zum Ausdünnen von Inhalten in Bezug auf längere Artikel. Sam fragte, ob viele „noindex“-Seiten, die von Spam-Websites verlinkt werden, das Crawl-Budget beeinträchtigen würden. Dazu sagte Gary, dass „noindex“ so konzipiert ist, dass bestimmte Seiten von der Indizierung ausgeschlossen werden, sodass es keine unbeabsichtigten Folgen hat, wie z. B. eine Beeinträchtigung des Crawl-Budgets. Als Antwort auf Lalindras Frage, ob ein Artikel, der ein langes Thema abdeckt, das in kleinere Abschnitte unterteilt und miteinander verlinkt ist, als dünner Inhalt gilt, sagte Lizzi, dass es vom Inhalt der Seite abhängt und was für den Benutzer am hilfreichsten ist. Der Fokus sollte darauf liegen, genügend Wert für jedes Thema zu bieten, das jede Seite abdecken könnte. Gary und Alan beantworten zwei Fragen zur Webentwicklung: die Auswirkungen von 404-Fehlern auf das Crawlen und Verarbeiten von URLs und den Status des Key Moments-Video-Tags. Gary beantwortet Michelles Frage zu den Auswirkungen vieler 404-Fehler auf Ihrer Website. Er stellte klar, dass HTTP-Statuscodes und nicht 404-Fehler dazu führen können, dass das Crawling auf Website-Ebene stoppt. 404-Fehler mit vielen Links wirken sich nicht auf das gesamte Crawling aus, da diese Seiten ein normaler Teil des Internets sind. Allen antwortete in kritischen Momenten auf Imans Frage zum aktuellen Stand der Videokennzeichnung. Es ist live und wird von vielen anderen Anbietern als YouTube verwendet, z. B. Vimeo. Wenn die Online-Dokumentation nicht genügend Informationen bietet, können Benutzer öffentliche Foren nach Antworten durchsuchen. John geht auf die Fragen der Benutzer ein, warum ihre neu gestartete Website „Weird All“ nicht in den Suchergebnissen angezeigt wird, wenn Benutzer den vollständigen Namen der Website eingeben. Wie sich herausstellt, liegt dies höchstwahrscheinlich an der Ähnlichkeit des Namens mit dem des Sängers „Weird Al“. John erklärte, dass Suchmaschinen "Weird All" als Rechtschreibfehler interpretieren und versuchen könnten, die Leute zu dem zu leiten, wonach sie wirklich suchen, Weird Al. Dies gilt insbesondere, wenn die Person, die „Weird All“ nachschlägt, mit der Arbeit von Weird Al vertraut ist. Letztendlich rät John davon ab, falsch geschriebene Namen bekannter Unternehmen für SEO-Zwecke zu verwenden, da es schwierig sein kann, sich von ihnen zu unterscheiden. Anonymous fragte, ob es möglich sei, FAQ-Featured Snippets nur mit HTML ohne Bezugnahme auf Schema-Markup abzurufen. Lizzi antwortete, dass derzeit das FAQ-Schema-Markup für verbesserte Suchergebnisse erforderlich sei. Es ist jedoch wichtig, die spezifische Dokumentation für die betreffende Funktion zu überprüfen, da einige Funktionen möglicherweise in HTML ohne Schema-Tags abgerufen werden können. Esben fragte John, was er von selbstreferenzierenden Spezifikationen halte und ob sie bei der Deduplizierung helfen würden. Johns Punkt ist, dass sie nichts tun, obwohl sie nützlich werden können, wenn auf die Seite unter anderen URLs verwiesen wird (z. B. UTM-Tracking-Parameter). Wenn Schema-Markup und selbstreferenzierende Spezifikationen zu Optimierungszwecken in Betracht gezogen werden, ist es wichtig, die spezifische Dokumentation zu prüfen. Alan, Duy und John beantworten mehrere SEO-bezogene Fragen. Die erste Frage ist, ob die Suchergebnisse einen gewissen Prozentsatz an Zufälligkeit enthalten sollten. Die Antwort ist, dass die Bereitstellung der nützlichsten Ergebnisse für die Person, die die Suche durchführt, der Hauptzweck einer Suchmaschine ist. Kunal fragte, warum Google nicht gegen kopierte oder erfundene Webstorys vorgehe. Die Antwort ist, dass Google sich dieser Versuche bewusst ist und sie untersuchen. Websites mit Spam-Inhalten verstoßen gegen ihre Spam-Richtlinien, und diese Algorithmen sind so konzipiert, dass sie in den Suchergebnissen niedriger eingestuft werden. Tom fragt, ob Bewertungsblog-Kommentarseiten mit internen Links link
rel="ugc"
deindexiert werden. Die Antwort ist nein, aber wenn Sie verhindern möchten, dass Seiten indiziert werden, dann sollten Sie das Robots-Meta-Tag „noindex“ verwenden. Abdul Rahim fragte, wie Google Produktbewertungen für nicht-physische Produkte ohne Affiliate-Links auswertet, wie z. B. digitale Produkte. Es ist nicht notwendig, Affiliate-Links einzufügen, wenn Sie ein Produkt bewerten; hilfreiche Links zu anderen Ressourcen, die für die Leser hilfreich sein könnten, werden vorgeschlagen. Siddiq fragte auch, ob es Abkürzungen zum Schreiben von Beschreibungen für die über 10.000 Seiten auf seiner Website gebe. Obwohl es eine gute Idee sein kann, Meta-Beschreibungen programmgesteuert zu generieren, insbesondere für große datenbankgesteuerte Websites, ist es wichtig, dass die Beschreibungen für jede Seite einzigartig und relevant bleiben. Google Docs bietet Anleitungen zu diesem Thema, die hier zu finden sind: (Link einfügen). John sucht nach Best Practices zum Aussortieren von 10.000 Seiten mit magerem Blog-Content. Die beste Vorgehensweise besteht darin, sie einfach zu entfernen, was die Website jedoch nicht unbedingt wertvoller macht. Duy war neu im Bereich SEO und fragte sich, ob Backlinks leistungsfähig seien oder ob sie sich auf die Maximierung der Website-Qualität konzentrieren sollten. Während Links in den letzten 20 Jahren ausgiebig verwendet wurden, wurden viele Algorithmen eingeführt, um Link-Spam zu eliminieren. Anstatt also Geld für Link-Spam zu verschwenden, sollte es ausgegeben werden, um eine großartige Website mit einer großartigen Benutzererfahrung und nützlichen Inhalten zu erstellen. John fragt, ob eine zwischengespeicherte Kopie der Seite erforderlich ist, um in den Suchergebnissen angezeigt zu werden. Die Antwort ist nein; das Caching-System ist unabhängig von der Indizierung und dem Ranking für die Suche, und seine Abwesenheit impliziert keine Qualität. Esben Rasmussen fragt sich, warum die Google Search Console eine unbekannte interne URL als Referrer für eine fehlerhafte URL der 400er-Serie meldet. Dies liegt wahrscheinlich daran, dass Google nicht jede gecrawlte Seite indiziert. Wenn sie also nicht indiziert ist, wird sie als unbekannt gemeldet. Yusuf fragte, ob eine WordPress-Site oder ein Blog automatisch erstellte Seiten (wie abc.com/page/one und page/two) als nofollow markieren sollte. Es ist am besten, stattdessen robots.txt-Sperrregeln zu verwenden, da dies mehr Kontrolle über das Crawlen oder Indizieren bestimmter Seiten auf Ihrer Website gibt und weniger Arbeit erfordert als Nofollow-URLs, die auf diese Seiten verweisen. John und Lizzi haben zwei Probleme mit den Leistungsberichten und bezahlten Inhalten der Search Console. Als Antwort auf Bobbys Frage zu verwirrenden Metriken in Leistungsberichten ist dies normal, da die Ansicht nach Abfrage und nach Seite unterschiedlich ist und einige Datenschutzfilter in den Daten pro Abfrage verwendet werden. Es ist wichtig zu beachten, dass die Trends tendenziell gleich sind, und weitere Informationen zu diesem Thema finden Sie unter [Drilling deep into performance data](https://developers.google.com/search/blog/2022/10/performance -data- deep-dive){rel="nofollow"}. Bei der Beantwortung von Michals Frage zum Verhindern, dass kostenpflichtige Inhalte in den Suchergebnissen angezeigt werden, ist es wichtig sicherzustellen, dass das richtige Markup für kostenpflichtige Inhalte ordnungsgemäß implementiert ist. Dadurch wird verhindert, dass Inhalte von unzufriedenen Benutzern angezeigt werden, die nicht für den Zugriff bezahlt haben. In diesem Artikel wird erläutert, wie Sie die richtigen Paywall-Inhalte auswählen und ob Spam-Scores das Ranking einer einzelnen Seite bei Google beeinflussen können. Usama fragte, ob es eine andere Möglichkeit gäbe, den Spam-Score einer Website zu verbessern, als Links für ungültig zu erklären. John antwortete, dass Google keine SEO-Tools von Drittanbietern verwendet, um die Punktzahl einzelner Seiten zu bestimmen, aber das bedeutet nicht, dass diese Tools nicht nützlich sind. Stattdessen ist es wichtig zu verstehen, was das Tool Ihnen sagt und ob etwas Umsetzbares dahinter steckt. Um zu verhindern, dass Paywall-Inhalte überhaupt in der Suche angezeigt werden, sollten Sie für diese Seiten „noindex“ verwenden. Sowohl Alan als auch John beantworteten Fragen zu Produktseiten und hreflang-Tags. Alan schlägt vor, dass das Entfernen der Seite aus Sicht der Suche akzeptabel ist, wenn das Produkt ausverkauft ist und nicht wieder aufgefüllt wird, aber aus Sicht der Benutzerfreundlichkeit kann es vorteilhaft sein, die Seite geöffnet zu lassen oder umzuleiten, falls ein externer Kunde darauf verwiesen hat oder die Seite mit einem Lesezeichen versehen. John beantwortete die Frage von Tomas, was passiert, wenn dem hreflang-Tag ein Return-Tag fehlt. Er erklärt, dass alle gültigen hreflang-Kommentare berücksichtigt werden, fehlerhafte jedoch ignoriert werden. Wenn einige Tags gültig sind und andere nicht, werden die gültigen Tags berücksichtigt und die fehlerhaften Tags werden verworfen, ohne dass sich dies negativ auswirkt, außer dass diese Seiten von hreflang ausgeschlossen werden. John empfiehlt, zur Beruhigung weiterhin alle fehlerhaften Anmerkungen zu reparieren. Damian fragte, wie hreflang von Websites in einer Situation implementiert werden könnte, in der viele Länder keine Kontrolle über Marken-Websites haben. Gary empfiehlt die Verwendung von Sitemaps als einfache Möglichkeit, alle Ihre hreflang von einem Ort aus zu steuern. Weitere Informationen zum Einrichten finden Sie unter sitemaps.org. Außerdem beantwortete John die Frage, ob hreflang-Sitemaps in einem beliebigen Ordner abgelegt werden können; es handelt sich lediglich um herkömmliche Sitemap-Dateien mit zusätzlichen hreflang-Anmerkungen, sodass sie wie jede andere Sitemap-Datei lokalisiert und über robots.txt- oder Search Console-Übermittlungen aufgerufen werden können auf verifizierten Websites (Search Console). Gleiches gilt für mit Bildern oder Videos kommentierte Sitemaps. Alan und John geben nützliche Ratschläge zu zwei Themen im Zusammenhang mit der Indexierung von Websites. Zunächst schlägt Alan vor, dass er, wenn eine Website nicht indexiert wird, zuerst die Google Search Console überprüft, um festzustellen, ob es Fehler gibt, die den Crawler daran hindern, auf die Website zuzugreifen. Außerdem schlug er vor, für qualitativ hochwertige Inhalte zu sorgen, da Google nicht alles im Web indiziert. John beantwortete dann Amys Frage zur Verwendung von x-default hreflang für neue Sprachaktualisierungen. Er erklärte, dass es Sache des Benutzers ist, zu entscheiden, welche Sprache die Standardsprache jedes Seitensets sein soll, und dass es nicht auf der gesamten Website dieselbe Sprache sein muss. Er empfiehlt außerdem, sich bei der Bestimmung, welche Sprache als Standard verwendet werden soll, mehr darauf zu konzentrieren, was für Benutzer funktioniert, als auf ihre internen Prozesse (https://www.eliteenterprisesoftwareteam.com/what-is-happening-to-a-website-that- nicht indexiert/). Alan, Gary und Lizzi erörtern drei häufige Probleme mit Produktbewertungen, dem Entfernen alter Inhalte und Bildtexten, die sich auf die Rankings in der Bildersuche auswirken. Lucy fragt: „Warum sollte sich eine Aktualisierung der Produktbewertung auf Inhalte auswirken, die keine Rezensionen sind?“ Allen schlägt vor, dass eine breite Auswirkung auf die Website wahrscheinlich nicht auf eine Produktbewertung zurückzuführen ist, sondern auf eine andere, nicht damit zusammenhängende Aktualisierung. Anonymous fragte: „Was ist der beste Weg, um alte Inhalte zu entfernen und zu verhindern, dass sie indexiert werden?“ Gary schlug vor, entweder die Seite vollständig zu entfernen und ihrem Standort einen 404- oder 410-Statuscode zu geben, wenn sie deaktiviert ist, oder sie auf die immer noch ähnlichen Seiten umzuleiten, die helfen können Benutzer erreichen ihre Ziele. Abschließend fragt Sean B „Beeinflusst Text in einem Bild das Ranking in der Bildersuche“, speziell für den T-Shirt-Druck? Letztendlich, so Lizzi, kommt es darauf an, was für die Nutzer sinnvoll ist, nicht für Suchmaschinen. Akshay Kumar Sharma und Alfonso stellten zwei verwandte Fragen zur Verbesserung der SEO: Ist es für lokale Unternehmen von Vorteil, viele lokale Listing-Sites zu nutzen? Und sind Suchparameter, die zu Website-URLs hinzugefügt werden, schlecht für SEO? Alan antwortete, dass lokale Listing-Sites zwar nicht notwendig sind, um die Suchmaschinenoptimierung zu verbessern, sie aber verwendet werden können, um mehr nicht suchbezogenen Traffic zu erhalten. John antwortete, dass zu URLs hinzugefügte Suchparameter allein nicht schlecht für die Suchmaschinenoptimierung sind, solange sie nicht zu einem exponentiellen Anstieg der Anzahl der auf der Website gefundenen URLs führen. Er schlägt vor, dass es besser ist, die Anzahl der hinzugefügten Parameter zu reduzieren, wenn die Site größer als mittelgroß ist.