Wenn Google Webseiten abrufen kann, diese aber dennoch nicht crawlt und indexiert bzw. ihnen nur schlechte Rankings zuweist, dann ist sehr wahrscheinlich die Qualität der Inhalte nicht ausreichend.
Technische Probleme sind nur vergleichsweise selten der Grund dafür, dass Google bestimmte Seiten nicht crawlt, indexiert oder in den Suchergebnissen anzeigt. Sie sind auch nur selten der Grund für Rankingverluste. Schließlich bieten die meisten Content Management Systeme von Haus aus gute Voraussetzungen für die Aufnahme der Seiten in die Suche.
Klappt es trotzdem nicht mit der Präsenz in Google, sollte man den Blick auf die Qualität der Seiten und der Website insgesamt richten. John Müller sagte dazu in den Google Search Central SEO Office Hours vom 6. Mai, wenn zum Beispiel statische HTML-Seiten von Google indexiert würden, dann liege das nicht daran, dass es sich um statische HTML-Seiten handele, sondern dass die dort zu findenden Inhalte gut seien.
Müller empfahl, bei Problemen einen Schritt zurück zu treten und sich das Gesamtbild anzusehen. Dabei sollten nicht nur Texte betrachtet werden, sondern alles, was die Qualität beeinflussen könne. Wenn man nicht weiter wisse, könne man auch Personen nach ihrer Meinung befragen, die nicht direkt in Verbindung mit der Website stehen, um beispielsweise zu prüfen, ob sie die Website als vertrauenswürdig empfinden.
Dazu eignet sich zum Beispiel die Liste von Fragen, die Google im Zusammenhang mit den qualitätsbezogenen Panda-Updates veröffentlicht hatte. Darin wird zum Beispiel gefragt, ob man bereit sei, einer Website vertrauliche Daten wie die eigene Kreditkartennummer anzuvertrauen.