Performanceprobleme mit dem Plugin „GDPR Cookie Consent“
In der Vergangenheit habe ich meist auf den Cookiebanner von webtoffee zurückgegriffen und damit sehr gute Erfahrungen gemacht. In dem Artikel WordPress DSVGO | Technisch Datenschutzkonform + Basic Tracking bin ich auch ausführlich auf das GDPR Cookie Consert caching Plugin eingegangen und habe gezeigt, wie ich für meine Kunden die Einstellungen „Privacy by default“ erreiche.
Eriks.blog bekam in den letzten Monaten immer mehr Traffic und aus diesem Grund habe ich versucht, die Performance meines Blogs noch einmal zu steigern. Dafür bin ich als erstes zu Kinsta, einem der leistungsstärksten WordPress Hoster* gewechselt.
Anschließend habe ich die Ladezeiten der einzelnen Elemente der Webseite analysiert und bin darüber gestolpert, dass es performancestärkere Caching Plugins gibt.
Borlabs Cookie – Schritt für Schritt Anleitung
Auf der Suche nach einem neuen, leistungsstarken Caching Plugin, das meinen Anforderungen entspricht, wurde mir das Plugin „Borlabs Cookie*“ mehrfach empfohlen.
Wichtig ist für uns ganz besonders, dass die Ladezeiten der Webseite sich nicht erheblich verschlechtern und es die Einstellungsmöglichkeit „Privacy by Default“ gibt.
Zu gerne hätte ich meine Expertise nicht nur an meine Klienten und Freunde weitergegeben, deren fraglicher Gesichtsausdruck sich im Gespräch mit mir nach und nach legte und gegen Ende zu freudigem Verständnis wechselte.
Schon lange brennt es mir unter den Fingernägeln, dem Wikipedia-Artikel, den tollen Beiträge zu den 100 beliebtesten Webdesign-Trends (Wow!) und den ganzen Agentur-Heinis, die stolz ihre Dienstleistung präsentieren, mit einem super verständlichen Blogeintrag Konkurrenz zu machen.
Jetzt konnte ich es einfach nicht mehr zurückhalten. Ich musste in die Tasten hauen. Und so entstand dieser Artikel hier. Ohne Mist, das hier ist der wahrscheinlich beste und umfangreichste Artikel zum Thema Webdesign im ganzen Netz. Eigenlob Ende.
Hier möchte ich Dir alles weitergeben, was ich in Jahrzehnten Erfahrung zum Thema Webentwicklung gelernt habe. Aber bevor wir jetzt direkt reinstarten, möchte ich noch anmerken, dass Du jederzeit auch wieder hereinschauen kannst, denn ich update den Artikel in regelmäßigen Abständen.
Heute dreht sich alles um die robots.txt. Ich zeige Dir, wie Du die robots.txt schnell und einfach in nur einer Minute erstellst, sodass Deine Webseite die Crawler von Google und Co. und somit auch für die Suchmaschinenoptimierung (SEO) bereit ist!
Was ist eine robots.txt?
Die robots.txt ist eine Textdatei, welche im Backend angelegt wird und den Crawlern der Suchmaschinen eine Laufkarte an die Hand gibt, mit der die Webseite absucht ohne sich zu verlaufen.
Warum braucht man eine robots.txt?
Die robots.txt ist die erste Datei, welche aufgerufen wird, wenn ein Bot/ Crawler sich die Webseite ansieht, sie sagt dem Crawler, wo er die Webseite absuchen darf und welche Bereiche er nicht „crawlen“ soll.
Einer meiner ersten Schritte der Suchmaschinenoptimierung für unsere Kunden ist das Anlegen einer Sitemap. In diesem Artikel möchte ich Dir zeigen wie du mit minimalem Aufwand eine Sitemap erstellst und in die Google Search Console integrierst.
Das Anlegen einer Sitemap ist nicht sonderlich kompliziert und wir werden folgendermaßen vorgehen:
Yoast SEO Plugin installieren
XML-Sitemap generieren
In Google Search Console anmelden
Besitzbestätigung der Domain via DNS
XML-Sitemap in Google Search Console einbinden
Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube. Mehr erfahren
Ich habe wieder einen eigenen Podcast! Während einer Reise nach Kenia traf ich eine belgische Psychotante mit einer Vorliebe für emotionale Achterbahnen und leckerem Wein. Gemeinsam erkunden wir alle Facetten des Lebens - von tiefsinnig bis urkomisch. Begleite mich auf der Reise außerhalb meiner Komfortzone!