Posts mit dem Label SEO werden angezeigt. Alle Posts anzeigen
Posts mit dem Label SEO werden angezeigt. Alle Posts anzeigen

Samstag, 31. Dezember 2022

Browser - vom Single-Browser-User zum Multi-Browser-User

Praktisches, Privatsphäre, Suchergebnislisten/Filterbubble, trackende Netzwerke

Browser - es kann nur einen geben?

Für manch einen ist die Wahl des Internet-Browsers eine Frage der Weltanschauung. Ich bin da schon immer eher pragmatisch und ein Out-of-the-Box-User - d. h. ich kaufe mir gerne fertige Hardware-Software-Pakete und fange sofort mit dem Schreiben an, ohne Installationsaufwand. Da Windows und Internet Explorer bei meinen Notebooks immer schon dabei waren, hab ich mir um den perfekten Browser nie einen Kopf gemacht: Internet Explorer war da und Internet Explorer (bzw. heute Edge) habe ich genutzt. (zuletzt aktualisiert a 31. Dezember 2022)

Trend zum Zweit-Browser

Erst als ich einen Fernkurs in Programmierung (-> meine Harvard-Fernkurs-Erfahrung) machte, musste ich mich zwangsläufig um das Thema Browser kümmern, denn die programmierten Webseiten sollten in jedem Browser gleich aussehen. Ein schwieriges Unterfangen (weil jeder Browser HTML-Code anders interpretiert - besonders bockig ist da der Internet Explorer), worauf ich hier aber nicht näher eingehen will, sondern darauf, dass ich nähere Bekanntschaft mit anderen Browsern machte - und das war gut so.

Anzeige

Am Mozilla-Browser Firefox begeisterten mich damals die vielen Add-ons (Erweiterungen), besonders die, die bei der Webseitenprogrammierung helfen (Firebug, Live HTTP Headers und viele andere). Später kamen die Add-Ons für die Suchmaschinenoptimierung (Seach Engine Optimization, SEO) - z. B. das SEOQuake-Add-On hinzu. Safari und Opera dagegen haben bei mir zunächst keinen bleibenden Eindruck hinterlassen.

Mein Haus- und Hof-Browser für den Alltag blieb allerdings der Internet Explorer, denn die bei mir permanent aktivierten Add-Ons des Firefox verlangsamten seinen Seitenaufbau, weil zusätzliche Informationen von zusätzlichen Servern geholt und verarbeitet werden müssen. Außerdem nutzten meine Seitenbesucher damals noch überwiegend den Internet Explorer und ich wollte meine Webseiten bzw. das Internet so sehen wie sie. (Heute, 2023, ist Google Chrome der meist genutzte Browser, davon abgesehen, dass vieles heute nicht mehr über eine Webseite mit einem Browser abgeholt wird, sondern, vor allem bei Verwendung mobiler Endgeräte, mit einer App.

Browser - aller guten Dinge sind mindestens drei!

Die nächste Änderung in meiner Browser-Nutzung kam mit Google Plus (Nachtrag 2020: Diese Social-Media-Plattform von Google gibt es inzwischen nicht mehr). Auch hier waren es vor allem die Erweiterungen (die das Google+-Nutzererlebnis verbesserten), die mich dazu brachten, Chrome dauerhaft zu installieren - als einen von mehreren Browsern.

Anzeige


Als ich dann durch Artikel über die Veränderung des Netzes allgemein, über das User Tracking (Google Suche, Google Adsense und andere Werbenetzwerke) und speziell über die Datenschutzproblematik mit Facebook noch stärker sensibilisiert wurde, was die Dominanz und die Daten-Saugkraft mancher (Social-Media-)Plattformen, oft aus USA, betrifft, habe ich mich für einen vierten Browser entschieden: Opera.

Nachtrag: Nachdem ich im Frühjahr 2014 Malware, darunter einen Sparkassen-Trojaner auf dem Rechner hatte, hatte ich einige Jahre lang Safari als fünften Browser installiert.

Welchen Browser für was nutzen?

Ich habe mich also vom Single-Browser-User zum Multi-Browser-User entwickelt. Und auf jedem Browser nutze ich auch eine andere Suchmaschine.

Die Browser meiner Wahl, die täglich auf meinem Notebook im Einsatz sind:

  • Internet Explorer
    Internet Explorer (Nachtrag 2020: seit Windows 10 ersetzt durch Microsoft Edge) ist für mich immer noch mein Alltagsbrowser: für Twitter, Internet-Recherchen und anderes mehr (aber ich lösche die Cookies regelmäßig, nutze die Google-Suche nur selten und oft ohne Anmeldung, sondern statt dessen Bing oder andere Suchmaschinen/Suchsysteme wie metager.de).
  • Firefox
    Firefox nutze ich hauptsächlich für die Webseitenerstellung und für SEO-Checks, aber auch für Recherchen. Wenn ich eine Suchmaschine benötige, nehme ich eine der vielen Alternativen zu Google.
  • Google Chrome
    Chrome setze ich überwiegend zur Nutzung von Google-Produkten ein (Google Analytics, Adsense, YouTube, Reader, E-Mail etc.). Als Suchmaschine nutze ich nur in diesem Browser die Google-Suche mit Anmeldung.
  • Opera
    Opera wurde eine Zeitlang mein Facebook-Browser - und zwar ausschließlich. Dort nutzte ich nur die Facebook-interne Suche. (Nachtrag 2020: Opera benutze ich inzwischen gar nicht mehr)
  • Safari für Windows 
    Seit ich einen Sparkassen-Trojaner hatte - keine Sorge, es ist zum Glück nichts passiert -, nahm ich Safari für Windows für das Online-Banking, in der Hoffnung, dass dieser Außenseiter-Browser weniger die bösen Hacker anlocken würde. (Nachtrag 2020: Safari für Windows wird von Apple nicht mehr gepflegt und von mir daher gar nicht mehr verwendet.)
Anzeige

Browser und Social Media - Privatsphäre

Wie oben schon angesprochen, kann Social Media bzw. der Schutz der Privatsphäre bei deren Nutzung ein guter Grund sein, mehr als einen Browser zu nutzen.

Will man nicht, dass Facebook weiß, wo man außerhalb von Facebook rumsurft, sollte man sich grundsätzlich ausloggen, wenn man Facebook verlässt, denn sonst meldet jede Webseite, die den dynamischen Like-Button o. Ä. eingebaut hat, wo man ist, und Facebook speichert die Information, nutzt sie zur Profilerstellung und vermutlich für seine und Drittanbieter-Werbung. Ähnliches gilt auch für Google/Google+ und manche anderen trackenden (Social-/Werbe-) Anwendungen.

Interessant in dem Zusammenhang ist ein Artikel über die Veränderung des Netzes (It's the end of the web as we know it) mit einem Link darin zu einem Artikel über Facebook (Logging out of Facebook is not enough).

Manche Internetnutzer gehen einen anderen Weg als ich mit meinen verschiedenen Browsern (und verschiedenen Suchmaschinen) und versuchen, einen Browser für ihre private Nutzung völlig clean zu halten, indem sie sich mit diesem Browser nie irgendwo einloggen, alle Cookies regelmäßig löschen und den Browser in regelmäßigen Abständen sogar komplett deinstallieren und neu installieren.

Doch bieten Browser auch Schutzfunktionen: Nutzt man bei Internet Explorer "InPrivat", werden keine Daten über die Browsersitzung gespeichert - keine Cookies, keine temporären Internetdateien, Verläufe etc. (Allerdings wurde Google vor kurzem vorgeworfen, solche Nutzereinstellungen ignoriert zu haben - ob das stimmt, kann ich nicht beurteilen). Eine ähnliche Privat-Funktion gibt es auch bei Mozilla (privater Modus), Opera (privater Tab) und bei Chrome (Inkognito-Fenster). Für Chrome und Firefox gibt es außerdem Erweiterungen, die man installieren kann, damit sie verhindern, dass Facebook, Google, Twitter etc. ihre Tracking-Cookies ablegen (siehe Facebook is tracking ...).

Browser bieten Privatsphare-Schutz - erreichbar
über einen Klick mit der rechten Maustaste
auf das Browsersymbol in der Taskleiste

Browser und Social Media - Suchergebnislisten

Die Vernetzung mit anderen Teilnehmern bei Google+ und über andere Google-Produkte schlägt sich angeblich über den Google-Suchalgorithmus auf die Google-Suchergebnislisten nieder. Suche ich beispielsweise nach einem politischen Thema, dann wird mir auf Platz 1 der Suchergebnisse angezeigt, was jemand, mit dem ich bei Google+ über ein fachliches Themen diskutiert habe, zu diesem politischen Thema geteilt hat. Aber will ich das?

Vernetzung ist doch nicht gleich Vernetzung - mit dem einen tausche ich mich über das Schreiben, mit dem anderen über Garten, mit wieder anderen über Suchmaschinenoptimierung, Datenbanken oder Existenzgründung aus.

Es störte mich damals schon innerhalb von Google+, dass ich von Leuten, die ich fachlich in einem bestimmten Thema sehr schätze, ständig politische Ansichten lesen muss, die ich teilweise überhaupt nicht teile, und dies nicht abstellen kann, will ich nicht auch den fachlichen Kontakt im Netzwerk verlieren. Ich möchte aber auch nicht, dass meine Suchergebnisse von Vernetzungen beeinflusst werden. Erst wenn der Social Graph nach Interessen aufgesplittet werden würde, würde das überhaupt einen Sinn machen - wenn man es denn überhaupt mag.

Zum Thema Digitale Deutungshoheit - Die Macht der Vernetzung hat sich Sascha Lobo ein paar interessante Gedanken gemacht. Jedenfalls: Vor ein paar Wochen stand ich der Social-Komponente im Suchalgorithmus noch skeptisch bis leicht ablehnend gegenüber, weil ich dachte, da schwimmt dann jeder in seiner eigenen Suppe (gleiche einseitige Sicht der Welt mit seiner Peergroup), aber inzwischen macht mir diese nicht qualifizierte Macht, die manche aufgrund ihrer starken Vernetzung erhalten, auch Angst - eine Macht die auf Vernetzungsquantität statt Vernetzungsqualität (in Bezug auf das gesuchte Thema) basiert.

Ich bevorzuge beim Googeln/Recherchieren i. d. R. eine "social-unbeeinflusste" Suchergebnisliste, denn ich will nicht in einer Filterbubble leben - es reicht doch schon, dass das menschliche Gehirn selektiv wahrnimmt, da will ich nicht auch noch eine Suchmaschine, die nach einem Algorithmus, den ich nicht kenne, vorsortiert - aber das muss jeder selbst entscheiden. Für mich ist dies jedenfalls auch ein Grund, warum ich nicht mehr mit dem Browser google, mit dem ich Google+ und andere Google-Produkte nutze, sondern einen anderen Browser verwende und/oder ich nutze oben beschriebenes InPrivat-Browsen (bzw. Inkognito-Fenster, privaten Modus etc.). Aber abgesehen davon, gibt es ja auch noch andere Suchmaschinen als Google (beispielsweise Bing.com, Duckduckgo.com, StartPage.com etc.) und es gibt Meta-Suchmaschinen wie www.metager.de, die mehrere Jobdatenbanken gleichzeitig durchsuchen. Darüberhinaus nutze ich das Opt-Out-Verfahren, das von der Network Advertising Initiative (NAI) angeboten wird, um nicht ständig mit Werbung bombadiert zu werden, die mit einem Thema zusammenhängt, das ich kürzlich mal gesucht oder bei dem ich Werbung angeklickt habe, was mich beides aber heute nicht mehr interessiert.

Anzeige

Mein Browser-Fazit


Es gibt gute Gründe, mehr als einen Browser zu nutzen:

  • Effizienteres Arbeiten, wenn jeder Browser entsprechend seiner Vorteile eingesetzt wird
  • Schutz der Privatsphäre
  • Suchergebnislisten ohne Social-Media-Komponente
  • Mit anderen Maßnahmen zusammen: um interessenbezogene Werbung zu verhindern
Ich finde es zudem praktisch, dass man durch den Einsatz verschiedener Browser etwas mehr Überblick in der Taskleiste hat, weil man durch die Browser-Aufgaben-Zuordnung eine Vorsortierung hat.


Das könnte Sie auch interessieren:

< ul type="disc">
  • Das Internet hat auch Abgase

  • Sie suchen Werbeplatz in diesem oder anderen meiner Blogs oder eine Bloggerin, Journalistin, Technikredakteurin für Texte auf Ihrer Website, ein Buchprojekt, ein Kundenmagazin oder Ähnliches? Schreiben Sie mir!


    Anzeige


    Montag, 24. Juni 2019

    Suchmaschinenoptimierung (SEO) für Blogs

    Blogs-bekannt-machen-vgwortTipps und Erfahrungen zur Suchmaschinenoptimierung (Search Engine Optimization, SEO) bei Blogs. (erste Veröffentlichung 2011, ergänzt 2019)

    SEO für Blogs - warum überhaupt?

    Wer schreibt, möchte in den meisten Fällen auch gelesen werden. Es reicht nicht, wenn der Blog oder ein Blogpost von Suchmaschinen indexiert wird, sondern es kommt darauf an, an welcher Stelle er in den Suchergebnissen (Search Engine Results Pages, SERPs) auftaucht. Was nicht auf der ersten Seite gelistet wird, sieht und liest kaum jemand. Das gilt nicht nur für Blogartikel/Blogs, sondern auch für einzelne Webseiten von Informations-Websites oder Homepages.

    Abhandlungen über Suchmaschinenoptimierung gibt es bereits genug. Hier sind meine persönlichen Tipps (die ich zwar auch nicht immer einhalte, doch wenn, dann zeigen sie Erfolg und bringen mich in den Suchergebnissen regelmäßig weit nach vorne):

    SEO für Blogs - Überblick

    Beeinflussen kann man die Position in den Suchergebnissen durch Maßnahmen der Suchmaschinenoptimierung (Search Engine Optimization, SEO) für Blogs bzw. Websites und Homepages.

    
    SEO für Blogs, Websites und Homepages: Mit den richtigen Maßnahmen
    schafft man es auf die vorderen Plätze

    Grundsätzlich unterscheidet man bei SEO für Blogs genauso wie bei SEO für Websites und Homepages:
    • SEO - Onsite
      Maßnahmen, die sich auf der eigenen Webpräsenz (Blog, Website, Homepage) abspielen. Auf eine einzelne Webseite oder einen einzelnen Blogartikel bezogen, nennt sich das dann Onpage-Suchmaschinenoptimierung.
    • SEO - Offsite
      Maßnahmen, die sich außerhalb der eigenen Webpräsenz abspielen 

    SEO für Blogs: Onsite-SEO

    1. An Suchmaschinenoptimierung bereits während der Brainstorming-Phase denken
      Als AutorIn wird man zwar oft von einem Thema gepackt und muss es dann umsetzen. Doch wenn man im Internet, in einem Blogpost oder auf einer Webseite, veröffentlichen und Leser erreichen will, sollte man nach dem ersten Brainstorming klar darauf fokussieren, für wen man schreibt (Zielgruppe) und welche Stichwörter (Keywords) dieser Personenkreis in einer Suche benutzen würde, wenn er/sie meine Informationen finden will. 
    2. Keyword Tool benutzen
      Die in Schritt 1 gefundenen Keywords sollte man mit einem Keyword Tool überprüfen. Google bietet ein Keyword Tool, welches anzeigt, wie oft ein Keyword benutzt wird, wie gut das Thema bereits im Internet abgedeckt ist u. v. m. Am besten ist, man richtet sich bei Google ein Google Adwords-Konto ein, denn dann hat man Zugriff auf die "Profi-Version" des Keyword Tools mit erweiterten Filtermöglichkeiten.
      Am Ende sollte man sich auf ein oder mehrere Keywords/Keywordskombinationen festlegen.

      SEO für Blogs - Tipp 1
      Anzeige

      Am Anfang habe ich zwei Fehler gemacht:
      • Ich habe möglichst viele Keywords (Schlüsselwörter) oder Keywordskombinationen ausgewählt und in den Text gepackt.
      • Ich habe Keywords ausgewählt, für die es besonders viele Suchanfragen gab.
      Beides funktionierte nicht!
      Zu 1.: Nur wenn der Blog/Blogpost besonders gut auf ein Keyword bzw. eine Keywordkombination passt, wird er weit vorne in den Suchergebnissen platziert - das schafft man aber nur, wenn man sich auf wenige Keywords bzw. Keywordkombinationen konzentriert.
      Zu 2.: Bei Keywords, die besonders häufig angefragt werden, handelt es sich meist um Einwort-Begriffe ("Geld", "Garten" etc.), für die die Konkurrenz riesig ist - und viele der Konkurrenten haben alte, hoch gerankte Domains, gegen die man als kleiner Blog kaum anstinken kann (es sei denn man hat selbst einige solcher Domains zur Hand, die auf den kleinen Blog linken).
      Meiner Erfahrung nach ist es besser, zusammengesetzte Keywords/Keywordkombinationen zu wählen, bei denen es bisher eher wenige Mitbewerber gibt (diese und weitere Informationen erhält man alle durch das Google Keyword Tool), und sich auf ein bis zwei Keywordkombinationen zu beschränken.
    3. Das wichtigste Keyword bzw. die Keyword-Kombination ist im Idealfall mit dem Blog-Domainnamen/Subdomainnamen identisch und/oder im sonstigen (möglichst kurzen) Pfad und/oder Dateinamen möglichst weit vorne enthalten.
    4. Das wichtigste Keyword/Keywordkombination sollte im Titel (Title-Tag innerhalb der Head-Tags) ganz vorne stehen.
      Der Titel ist das, was oben in der Titelleiste angezeigt wird.
    5. Das wichtigste Keyword/Keywordkombination sollte in der Beschreibung (Meta-Tag Description) ganz vorne stehen. Diese Beschreibung wird oft in den Suchergebnissen angezeigt. Wenn die Schlüsselwörter darin enthalten sind, zeigt das dem Suchenden, dass er gefunden hat, was er sucht. 
    6. Das wichtigste Keyword/Keywordkombination sollte nach Möglichkeit in der Hauptüberschrift und möglicherweise in Zwischenüberschriften ganz vorne platziert werden. Überschriften sollten - wenn möglich - mit den entsprechenden Tags (h1, h2 ...) oder wenigstens mit Fettdruck ausgezeichnet werden.
    7. Das wichtigste Keyword/Keywordkombination sollte mit einem Bild-/Video-Dateinamen identisch sein und in dessen Alt- und Title-Text möglichst vorne auftauchen.
    8. Das wichtigste Keyword/Keywordkombination sollte in der Bildunterschrift enthalten sein.
    9. Das wichtigste Keyword/Keywordkombination sollte oft, aber auch nicht zu oft im Text enthalten sein.
    10. Das Thema eines Blogposts sollte ausführlich textlich behandelt werden - auch wenn im Mittelpunkt vielleicht eine Applikation (Bankenvergleich, BMI-Rechner ...), ein Film (animiertes GIF, Flash, Video ...) o. ä. steht.
    11. Den Text mit Zwischenüberschriften (die Keyword/Keywordkombinationen enthalten) und Listen gliedern.
    12. Keywords/Keywordkombinationen vereinzelt im Text auszeichnen (z. B. durch Fettdruck)
    Anzeige


    Die Herausforderung für den Online-Redakteur/Blogger besteht darin, den Text so zu verfassen,
    • dass er trotz aller SEO-Maßnahmen angenehm für den Leser zu lesen ist und
    • dem Leser einen Mehrwert bringt,
      so dass er den Artikel/Blogpost
      • positiv bewertet (Like etc.),
      • die positive Erfahrung mit anderen teilt (Facebook-Share, Retweet/Twitter etc.),
      • den Artikel in seine Favoritenliste oder
      • in die Social Bookmarks aufnimmt (Mister Wong, Delicious etc.)
    • und den Leser so zum Wiederkehren animiert etc.

    SEO für Blogs - Tipp 2
    Auf blumige oder bildhafte Sprache im Titel und in den Überschriften verzichten - zugunsten der Keywords.

    SEO für Blogs - Tipp 3
    Meiner Erfahrung nach hat man mit langen Texten, die das Thema sehr ausführlich beleuchten und dazu noch gut mit Bildern, Grafiken und langen Listen ausgestattet sind (ohne dass die Ladezeit zu lang wird), die besten Chancen auf einen vorderen Platz.

    Es müssen nicht immer alle Tipps umgesetzt werden - äußerst wichtig sind meiner Erfahrung nach aber der Titel (Title-Tag), die Beschreibung (Meta-Tag Description) sowie die Hauptüberschrift.

    SEO für Blogs: Offsite-SEO

    Vor allem Linkaufbau (Backlinks, Linkbuilding) spielt bei den Offsite-Aktivitäten der Suchmaschinenoptimierung eine wichtige Rolle. Mehr dazu bei Blogs bekannt machen

    SEO für Blogs - Tipp 4
    Meiner Erfahrung nach braucht es manchmal viel Geduld und Nachfeilen, bis der Blogpost oder die Webseite weit vorne gelistet wird. Das ist immer auch eine Frage der Konkurrenz. Apropos Konkurrenz: Es lohnt sich zu schauen, welche SEO-Maßnahmen die Konkurrenz anwendet - das inspiriert manchmal zu neuen Ideen.

    SEO verändert sich

    Eine Garantie, dass man mit diesen SEO-Maßnahmen in den Suchmaschinenergebnissen nach vorne kommt, gibt es nicht. Google bewertet zunehmend auch das Nutzerverhalten auf einer Seite (weswegen neben guten Inhalten auch die Usability/Nutzererfahrung wichtig ist). Auch wird Nutzern häufig nicht eine "neutrale" Suchergebnisliste, sondern individuelle/personalisierte Suchergebnisse präsentiert. Google schraubt permanent an seinem Such-Algorithmus und anderen Aspekten der Suche, daher muss man die Enwicklung der SEO im Auge behalten (Blog bekannt machen - Fortsetzung).

    Wie man erreicht, dass man auf den Suchergebnisseiten und in der Vorschau bei verschiedenen Sozialen Netzen besonders einladend dargestellt wird, erläutert Carola Heine im Buch Blogging für Profis: Blogpost-Anatomie - Content Hacks to go 1* (zur Buchvorstellung und Review) erläutert.

    * Werbelink

    Mit welchen Maßnahmen habt Ihr/haben Sie gute Erfahrungen gemacht? Bitte nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen oder Meinung hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

    Das könnte Sie auch interessieren:
    Anzeigen




    Sonntag, 23. Juni 2019

    Blogging für Profis: Blogpost-Anatomie - Content Hacks to go 1 von Carola Heine (Buchvorstellung und Review)

    Das dürfte auch andere BloggerInnen interessieren: Blogging für Profis: Blogpost-Anatomie* von Carola Heine. Das Buch ist das erste einer Reihe namens Content Hacks to go. Es geht in dieser ersten Folge um effiziente Blogpost-Briefings, Verbesserung der Sichtbarkeit von Blogposts im Internet allgemein und in Social Media im Speziellen. Kurze Buchvorstellung und meine persönliche Bewertung.**


    Blogging für Profis: Blogpost-Anatomie - Content Hacks to go 1* von Carola Heine ist am 14.6.2019 als Taschenbuch und E-Book bei Amazon* erschienen.

    Wer selbst bloggt oder anders online veröffentlicht, weiß, dass es selten reicht, ein interessantes Thema toll aufzubereiten und mittels Blogsystem o. Ä. online zu stellen, in der Hoffnung, die Welt wird das Werk schon entdecken. So funktioniert Sichtbarkeit im Internet nicht. Es ist ein wenig Know-how nötig, damit man von Suchmaschinen gefunden, in den Suchergebnissen auf den vorderen Plätzen platziert und dann in diesen auch noch ansprechend und zum Klicken anregend dargestellt wird.

    Erfolgreich bloggen


    Aber was genau ist bei der Arbeit für einen Blog und an dem jeweiligen Blogartikel zu bedenken, einzuplanen, vorzubereiten und je nach Arbeitsteilung zwischen Auftraggeberseite (Agentur und/oder Marketing/Sales und/oder Online-Redaktion) und Auftragnehmerseite (Blogger, TexterIn) später auch umzusetzen, um die Sichtbarkeit nach Erscheinen zu fördern? Und wie baut man diese zusätzlichen Erfordernisse in den Workflow ein, damit die Zusammenarbeit für alle Beteiligten erfolgreich wird? Diese Fragen beantwortet Carola Heine, Autorin und Digital Marketing Professional, in diesem Buch.

    Carola Heine


    Die Autorin ist eine bekannte und erfolgreiche Bloggerin. Sie bloggt seit etwa 25 Jahren sowohl privat als auch beruflich - letzteres nicht nur für eigene Blogs, sondern im Auftrag von Unternehmen für deren Corporate Blogs. In diesem Buch über die Blogpost-Anatomie teilt sie ihre Erfahrungen, gibt Tipps und liefert für die verschiedenen Beteiligten praktischerweise auch Checklisten mit.

    Meinung zum Buch


    Carola Heine weiß, wovon sie redet, und meine Erwartungen an das Buch - ihr mal bei der Arbeit über die Schulter schauen zu dürfen - wurden voll erfüllt. Zwar richtet sich das Buch eher an Blogger, TexterInnen, Agenturen etc. mit wenig Wissen zum Drumherum des erfolgreichen Online-Publizierens, aber auch mir, die ich selbst seit über 20 Jahren online publiziere, tat die Auffrischung gut beziehungsweise bekam ich an manchen Stellen den notwendigen Tritt in den Allerwertesten, mich bei meinen persönlichen Blogs endlich um das ein oder andere Plugin zur Onpage-Optimierung zu kümmern. Bezüglich Wordpress-Plugins hätte ich Interesse an weiteren Empfehlungen, am liebsten sogar Vergleiche, was welches kann. Aber vielleicht kommt das in den weiteren Folgen. Mein Appetit auf mehr ist jedenfalls geweckt.

    Blogging für Profis: Blogpost-Anatomie - Content Hacks to go 1:
    Effiziente Blogpost-Briefings. Erhöhte Online-Sichtbarkeit. Erfolgreicher bloggen.*
    Carola Heine
    Verlag: one-trick-pony.de, 14. Juni 2019
    Taschenbuch
    ca. 126 Seiten
    ISBN 3-9480-3308-0


    auch als Kindle-Edition (ASIN: B07T2JGV45)*

    * Werbelink
    ** Buch selbst gekauft, Review not sponsered!


    Das könnte Sie auch interessieren

    Anzeige



    Samstag, 18. Februar 2017

    Eisiger Gegenwind bei Monetarisierung und andere Trends bei Blogs und Webseiten


    Mehr Smartphone- und weniger Desktop-Nutzer, gesunkene Adsense-Werbeeinnahmen trotz höherer Besucherzahlen, verändertes Ranking bei Browsern und Social Media – das sind nur einige der Trends, die ich in meinen Blogs und bei meinen Webseiten beobachte und hier beschreibe.

    Wer als BloggerIn, Web-PublisherIn oder Online-RedakteurIn eines Unternehmens oder einer Organisation Menschen informieren und/oder mit ihnen kommunizieren möchte, der muss seine Informationen inhaltlich so aufbereiten, dass sie Interesse wecken, verstanden und nach Möglichkeit weiterempfohlen werden. Doch die ganze Mühe mit der Aufbereitung von Texten, Graphiken und/oder Videos ist vergebens, wenn nicht auch die Rahmenbedingungen stimmen. Man muss herausfinden, ob die Zielgruppe/Wunschnutzer überhaupt davon erfährt und ob der Content auf dem Endgerät der Nutzer und mit seiner Technik gut konsumierbar ist.

    Zeit für eine Webanalyse und Bestandsaufnahme

    Um die notwendigen Daten für Vergleiche zu gewinnen, benötigt man einen Webanalysedienst, genauso auch, wenn man die Wirksamkeit von Werbemaßnahmen und Ähnlichem überprüfen will. Ich benutze den kostenlosen Dienst Google Analytics (anonymisiert, wo von mir administrierbar), der viele Möglichkeiten der Auswertung bietet, und gehe beispielsweise den folgenden Fragen nach.

    Anzeige

    Wie finden die Seitenbesucher mein Informationsangebot?

    Was haben die Seitenbesucher genutzt, um zu meinem Informationsangebot zu kommen: Suchmaschine (Organic), Direkteingabe (Direct), Link (Referral), Social Media (Social) oder anderes?

    Die meisten meiner Besucher finden meine Blogartikel und andere Webinformationen
    über die Suche mit Suchmaschinen (Organic Search).
    Nach wie vor kommen die meisten Besucher über die organische Suche (Google, Bing, etc.). 2016 sind es anteilsmäßig etwas weniger (68,5 %, im Vorjahr 71 %), dafür sind mehr Besucher direkt gekommen, haben also meine URL gekannt oder irgendwo abgelesen.

    Der Anteil, der über Social Media direkt kommt, ist bei mir mit 2,2 % immer noch klein – allerdings weiß ich nicht nicht, ob und wie der Google-Suche-Algorithmus Social-Media-Signale einbezieht. Es ist also möglich, dass meine Social-Media-Aktivitäten und die dort platzierten Links für den Anstieg der Besuche indirekt verantwortlich sind – andere Suchmaschinenoptimierung (SEO) nutze ich für meine eigenen Seiten kaum noch, nur auf Kundenwunsch. Ich lege bei meinen Artikeln vor allem Wert auf Übersichtlichkeit und Verständlichkeit, mehr als auf WDF*P*IDF und sonstiges SEO. Ich zähle keine Schlüsselwörter (Keywords) - außer ein Kunde wünscht das - und betreibe i. d. R. auch keinen Linktausch mehr.

    Überraschenderweise kamen 2016 mehr Besucher über Pinterest auf meine Webseiten als über Facebook.
    Apropos Social Media: Überraschend für mich ist, dass Pinterest 2016 mehr Besucher als Facebook auf meine Webseiten/Blogartikel gebracht hat – allerdings sind es sehr wenige Bilder, die sich bei Pinterest sehr stark verbreitet haben und Besucher zu wenigen Themen bringen. So viel anders ist das aber auch nicht bei denen, die über die Suchmaschinen kommen: Einige wenige Themen sind die hauptsächlichen Besucherbringer – oft auf den ersten Blick überraschend, aber dann auf den zweiten auch wieder nicht, denn es sind oft Nischenthemen oder Themen, mit denen ich schon online war, bevor die große Nachfrage und die Konkurrenz kam bzw. in die Nische noch nicht kam. Wichtig ist meiner Erfahrung nach, dass man solche Themenseiten regelmäßig überarbeitet - ich habe sie beispielsweise auf responsive umgestellt und sowohl Inhalte erweitert als auch die Werbung (vor allem die alten Amazon-Buchtipps) aktualisiert.

    Welcher Gerätetyp wird von den Seitenbesuchern wie stark genutzt?

    Wie viel Prozent der Nutzer kommen mit einem Highend-Mobilgerät, wie viel mit Desktop/-Computer/Notebook und wie viel mit Tablet auf meine Webseiten?

    Anteilsmäßig werden die Smartphone-Nutzer (mobile) immer wichtiger. 

    Bei mir haben sich von 2015 zu 2016 einige Änderungen gezeigt. Der Anteil der Smartphone-Nutzer (mobile) unter den Besuchern wuchs zu Lasten der Desktop-Nutzer (desktop). Der Anteil der Tablet-Nutzer (tablet) blieb dagegen gleich.

    Wie hat sich die Monetarisierung entwickelt

    Obwohl meine Seitenaufrufe und die Werbeaufrufe von Anzeigen aus dem Google-Werbenetz (andere vernachlässige ich bei diesem Vergleich) stark gestiegen sind, sind die Werbeeinnahmen aus dem Google-Werbenetzwerk gesunken – schon wieder – und das obwohl ich meine gefragtesten Blogartikel und Webseiten auf responsive umgestellt habe.

    Im Vergleich zu 2015 trugen Smartphone- und Tabletnutzer 2016 anteilsmäßig mehr zu den Werbeeinnahmen bei.
    In absoluten Werten kompensieren jedoch die Umsatzanteil-Anstiege bei den Mobil- und Tabletnutzern nicht den Verlust bei den Desktopnutzern! Die Werbeeinnahmen haben sich 2016 gegenüber 2015 verringert.

    Woran liegt das, wenn doch die Zahl der Besucher und Seitenaufrufe stark gestiegen sind? Ich habe mir den eCPM (die Adsense-Werbeeinnahmen pro 1000 Seitenbesuchen) angeschaut. Der eCPM ist um mehr als 30 % gesunken, besonders stark bei den Desktop-Nutzern! 

    Die Werbeeinnahmen pro 1000 Besuchern ist allgemein gesunken,
    besonders stark bei den Desktopnutzern.
    Für ein Absinken des eCPM kann es viele Gründe geben:
    • Von mir zu verantworten wären beispielsweise 
      • seltenere und schlechtere Platzierungen der Adsense-Werbung auf den Seiten (Hinweis: Ich habe auch noch andere Werbepartner, betreibe Affiliate-Werbeeinbindungen etc. siehe Geld verdienen mit dem Blog/Website),
      • ungeeignete Bannerformate etc. ausgewählt,
      • Konfigurierung möglicherweise ungünstiger (beispielsweise aus Datenschutzgründen Personalisierung abgestellt),
      • Seitenfehler (Ladezeiten etc.) durch schlechte Programmierung,
      • schlechter monetarisierbare Themen etc.
    • Vom Werbepartner, in dem Fall Google und sein Werbenetzwerk, „zu verantworten“ wären beispielsweise:
      • keine thematisch passende Werbung im Pool,
      • Werbung nicht ansprechend (Optik, Formulierung etc.),
      • die Werbeeinblendungen laden zu lange,
      • andere Fehler bei der Codierung (Flash) und Übertragung der Werbung,
      • schlechtere Preise für Publisher bei Google Adsense, vielleicht weil Google selbst schlechtere und/oder weniger Kunden hat, vielleicht weil kleinere Beteiligung der Publisher am Werbeerlös etc.
    Das sind Fragen, denen man dann im Einzelnen nachgehen muss/müsste. Manchem kann man mit der CTR (Klick-Through-Rate) und anderen Auswertungen des Webanalysedienstes auf die Spur kommen, bei anderem benötigt man Tools von außerhalb wie Ladezeitenmessung, die Verfolgung der HTTP headers (wie die Seite mit externen Quellen beim und nach dem Laden kommuniziert) etc.

    Normalerweise erhält Werbung von Google Adsense bei mir erst einmal einen sehr guten Platz. Erst wenn ich merke, dass mir die Werbung, die automatisiert eingeblendet wird, nicht gefällt oder zu langsam lädt, dann tausche ich den Platz mit einer Affili.net-Werbung o. Ä., die vorher weiter hinten platziert war.

    Welche Browser werden genutzt?

    Google's Chrome Browser liegt auch bei mir inzwischen in Führung.
    2015 war bei meinen Besuchern noch Firefox der meist genutzte Browser. Doch im letzten Jahr hat Google Chrome einen enormen Sprung nach vorne getan und hat alle abgehängt. Chrome liegt nun mit 34,39 % in Führung, gefolgt von Safari mit 24,22 % und Firefox mit 21,65 Prozent. Der Microsoft Internet Explorer ist nun mit nur noch 11,91 % auf Platz 4, Opera ist weit abgeschlagen mit 1,18 % auf Platz 7. Ich persönlich bin immer noch Multi-Browser-User.

    Man sollte und könnte auch beim Thema Browser noch viel mehr ins Detail gehen: Zeigen sich unterschiedliche Verhalten hinsichtlich Besuchsdauer pro Seite, Weiterklicken innerhalb meines Angebots, Verlassen meines Angebots, Werbeeinnahmen auf diesen Seiten etc. abhängig vom benutzten Browser? Dementsprechend müsste man die Seiten möglicherweise für manche Browser optimieren. Doch das würde jetzt hier zu weit führen, ich wollte nur ein paar grundsätzliche Trends zeigen, die ich bei mir beobachte.

    Anzeige


    Beobachten Sie/ihr bei Ihren/euren Blogs und Websites ähnliche Entwicklungen?



    Donnerstag, 19. März 2015

    Die Mobilen verändern die Browser-Top-Ten

    Im Internet reicht es nicht, Informationen spannend zu formulieren, die Rechtschreibung zu beherrschen und Bilder oder Filme zur Veranschaulichung in den Text zu hängen. Man muss von seinen Lesern auch gefunden werden (Stichwort SEO) und die Darstellung muss den Leser ansprechen bzw. die Nutzeroberfläche nutzerfreundlich gestaltet sein, die Ladezeiten stimmen und vieles mehr. Seit die Nutzer zunehmend mit mobilen Endgeräten wie Smartphones im Netz surfen, werden nicht nur neue Display-/Fenstergrößen für das Webdesign wichtig, sondern auch Browser, die vor wenigen Jahren noch unter dem Label "Newcomer" liefen.

    Webseiten, genauer deren Quell-Code, werden von verschiedenen Browsern unterschiedlich dargestellt. Insofern ist es wichtig zu wissen, mit welchen Browsern die Nutzer auf die Homepage, den Blog, die Webanwendung oder anderes kommen. Ich habe mir die Statistik der letzten 30 Tage für tinto.de und dazugehörende Projekte angeschaut und die Browser-Top-Ten mit den häufigsten Browsern vor einem Jahr verglichen.


    Browser im Februar/März 2015 (prozentual an der Gesamtzahl der Sitzungen)
    Browser im Februar/März 2014 (prozentual an der Gesamtzahl der Sitzungen)
    Wie man sieht, hat sich die Bedeutung der Browser verändert. Während 2014 Google's Chrome noch auf dem 4. Platz lag, 6 Prozent hinter dem Internet Explorer (IE), hat Chrome 2015 Platz 2 erobert und liegt nur wenig hinter dem Firefox auf Platz 1.

    Browser-Top-Ten 2015 (2014)            
    1. Firefox  27,64 %  (30,76 %)
    2. Chrome 24,04 %  (14,07 %)
    3. Safari    22,73 %  (21,06 %)
    4. IE          15,90 %  (14,7 %)
    5. Android  7,80 %  (30,76 %)
    8. Opera      1,03 %  (30,76 %)
    9. Safari (in-app) 0,25 %  (30,76 %)
    10. Amazon Silk 0,24 %  (Vorjahr 30,76 %)

    Noch mehr Einblick erhält man, wenn man Browser und Gerätekategorien (desktop für Desktop, tablet für Tablet, mobile für Mobilfunkgerät/Smartphone) kombiniert: Auf dem Desktop liegt Chrome immer noch auf Platz 3 hinter Firefox und IE), aber während sich Chrome Desktop von 10 auf 12 Prozent Anteil verbessert hat, mussten Firefox und IE deutlich abgeben. Chrome mobile ist sogar von nur 4 auf 9 Prozent gestiegen, Safari mobile während der gleichen Zeit nur von 6 auf 8 Prozent. Es sind also die mobilen Nutzer und allgemein Google Chrome, die die Browser-Top-Ten aufmischen.

    Browser Gerätekategorie im Februar/März 2015 (prozentual an der Gesamtzahl der Sitzungen)
    Browser Gerätekategorie im Februar/März 2014 (prozentual an der Gesamtzahl der Sitzungen)
    Laut Cisco wuchs die Zahl der mobilen Geräte 2014  weltweit um knapp 500 Millionen Geräte. Der Trend wird sich wohl kaum umkehren. Bei der Ausrichtung der Webseiten und Blogs auf die Nutzerbedürfnisse muss man nicht nur die verschiedenen Fenster-/Darstellungsgrößen, die mit den Mobilen kommen, sondern auch die Bedeutung der verschiedenen Browser der Nutzer im Auge haben.

    Anzeige


    Siehe auch
    Achtung, die Mobilen kommen!


    Mittwoch, 4. Februar 2015

    Achtung, die Mobilen kommen

    Der Anteil an Nutzern, die mit Smartphone und Tablets auf Webseiten zugreifen, ist inzwischen so groß, dass es höchste Zeit ist, sich als Webseitenbetreiber mit dem Thema gerätegerechte Webseitendarstellung zu befassen. Andernfalls verprellt man wegen der nicht optimalen Nutzererfahrung beim Seitenbesuch seine Besucher und Kunden, rutscht in den Suchmaschinenergebnissen nach hinten und verschlechtert mit der Zeit seine Reichweite und alles, was daran hängt. Eine Lösung für das Problem heißt Responsive Webdesign. Aber wie geht man bei der Umstellung eines Konglomerats aus über Jahrzehnte entstandenen Webseiten und Blogs vor?

    Nachtrag zum "Mobilegeddon": Google hat inzwischen in seinem Entwicklerblog veröffentlicht, dass die Mobile Friendliness (Nutzerfreundlichkeit für Mobilgeräte) ab dem 21. April 2015 als Ranking-Signal für die Suchergebnisse für Smartphones berücksichtigt wird.

    Anzeige


    Lange schien mir der Aufwand, mein Webangebot so umzustellen, dass die Webseiten sowohl mit einem Desktop-Computer als auch mit mobilen Endgeräten optimal dargestellt werden angesichts der sehr niedrigen Besucherzahlen mit mobilen Geräten wie Smartphone und Tablet zu hoch. Als mir vor ein paar Tagen das Google-Webmaster-Team schrieb: Beheben Sie Probleme der mobilen Nutzerfreundlichkeit auf www.tinto.de/, war das für mich Anlass, mich mal wieder genauer mit meinem Webseiten- und Blog-Traffic zu befassen.

    In den letzten 12 Monaten (Kreisdiagramm oben) nutzten etwa 35 Prozent der tinto-Besucher ein Smartphone (rot) oder ein Tablet (blau). 65 Prozent nutzten einen Desktop-Computer. Im Jahr davor waren es noch wesentlich weniger Mobile (Kreisdiagramm unten).
    Seit 1998 erstelle ich für tinto Webseiten und Blogs zu allem, wozu ich glaube, Wissen oder Erfahrungen beitragen zu können. Ich realisierte meine Vorstellungen mit Tools und Programmierkenntnissen, die ich zur jeweiligen Zeit hatte. Die Zahl meiner Seiten und der Besucher wuchs über die Jahre zu einem kleinen Imperium. Aber waren es bis vor wenigen Jahren fast ausschließlich Desktop-Nutzer, die meine Angebote nutzten, zeigt der jüngste Blick in mein Trafficanalyse-Tool Google Analytics, dass in den letzten 12 Monaten 35 Prozent der Besucher mit mobilen Endgeräten wie Smartphone und Tablet kamen. Im Jahr davor waren es noch knapp 23 %. Laut Statista surfen sogar 54 Prozent der Deutschen mobil.

    Dabei sind meine Besucher keine "Digital Hipsters", sondern ganz normale Verbraucher aller Altersklassen, die sich für Garten-, Gesundheits- und andere Verbraucherthemen interessieren. Je nach Zielgruppe, wird bei anderen der Anteil der mobilen Nutzer auf ihren Webseiten noch wesentlich höher sein.

    Infografik: 54% der Deutschen surfen mobil | Statista
    Mehr Statistiken finden Sie bei Statista

    Trafficanalyse, responsive Webdesign und Prioritätensetzung stehen jetzt auf meinem Stundenplan

    Bei einem Responsive Webdesign passt sich die Darstellung der aufgerufenen Webseite oder des Blogartikels automatisch an den Nutzer, beziehungsweise an sein Gerät oder seine Bildschirm-/Fenstergröße, an. So werden beispielsweise Elemente auf einem Desktop mit seinem großen Bildschirm und entsprechend großen Fenstern nebeneinander gezeigt, auf einem Smartphone dagegen untereinander. Auch Schriftgrößen und Menüs können für verschiedene Besuchergeräte, deren Auflösung oder Fenstergröße unterschiedlich konfiguriert werden. Technisch wird das durch die Programmierung nach den neuen Möglicheiten und Standards von Hyper Text Markup Language (HTML5), Cascading Style Sheets (CSS3, Media Queries) und JavaScript umgesetzt.

    Zwar habe ich meine neuesten "von Hand" programmierten, kleinen Projekte wie tinto-Horoskop gleich responsive umgesetzt oder sie nachträglich auf responsive umgestellt (beispielsweise Gartenblogs, Mein Pflanzenarchiv und Mein Outfitarchiv), sodass die Seiten bei Aufruf durch ein Smartphone anders angezeigt werden als bei Aufruf per Desktop. Dabei passt sich die Darstellung an die Fenstergröße an - man kann das ausprobieren, indem man die Seite aufruft und das Browserfenster verkleinert.

    Auch meine Blogs ließen sich recht einfach so konfigurieren, dass Besucher mit einem mobilen Gerät eine andere Version der Seite gezeigt bekommen - sowohl mein tinto bloggt-Blog, den ich mit Wordpress (php und MySQL) erstellt habe, als auch die verschiedenen Blogger-Blogs wie dieser. Dank passender Vorlage (Theme) waren nur ein paar Klicks nötig, um das Feature zu aktivieren. Allerdings steckt hier der Teufel im Detail: Bei der Überprüfung mit einem Mobile-Phone-Emulator stellt man fest, dass das Ergebnis nicht auf jedem Endgerät optimal ist.

    In welcher Reihenfolge auf Responsive Webdesign umstellen

    Im Gegensatz zu Blogs oder anderen Content-Management-Systemen (CMS) lassen sich alte statische Webseiten, die oft mit proprietären Webdesign-Programmen erstellt wurden, nur aufwendig umstellen. Doch die Zeit drängt - so scheint mir -, wenn man nicht ausschließlich Desktop-Nutzer als Zielgruppe hat und seine mobilen Besucher nicht verlieren möchte.

    Hilfreich: Der Emulator und der Punkt Nutzerfreundlichkeit
    unter dem Reiter Mobile von Google PageSpeed Insights
    Gerade wegen meiner über Jahre gewachsenen, nicht homogenen Projekte und wegen des hohen Aufwands muss ich eine sinnvolle Reihenfolge finden, wie ich bei der Umstellung vorgehe. Im Grunde geht es darum, Webprojekte/-seiten mit dem größten potenziellen Effekt zu identifizieren. Doch welcher Effekt ist mir überhaupt der wichtigste: Reichweitenverbesserung für bestimmte Botschaften, Erhöhung meines Bekanntheitsgrades, Erreichen potenzieller Auftragskunden (Werbekunden, Textaufträge-Kunden), sonstige Selbstvermarktungseffekte und/oder Affiliate-Werbeeinnahmen? Am liebsten natürlich alles.

    Es gibt viele Möglichkeiten, eine Reihenfolge zu finden, beispielsweise:
    • entlang der hierarchischen Struktur
    • Webprojekte/-seiten nach Traffic-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann allerdings davon beeinflusst sein, wie gut die Seiten bereits für die Ansprüche mobiler Geräte "versehentlich" optimiert sind). 
    • Webprojekte/-seiten nach Werbeeinnahmen-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann auch davon beeinflusst sein wie gut die Seiten oder zumindest die Werbung darauf bereits für die Ansprüche mobiler Geräte optimiert sind). 
    • Webprojekte/-seiten danach sortieren, wie oft auf sie mit mobilen Geräten zugegriffen wird. (Es ist allerdings möglich, dass Suchmaschinen wie Google mobilen Geräten bevorzugt bereits "versehentlich" optimierte Seiten in den Suchergebnissen zeigt) 
    • Webprojekte/-seiten danach sortieren, wie oft sie von mobilen Geräten ohne Verweildauer verlassen werden 
    • Planen, welche Themen und Webseiten als nächstes gefeatured werden sollen und diese umstellen und updaten 
    Während eine Vorgehensweise anhand der Struktur nur bei einem geschlossenen Projekt, das als Ganzes neu veröffentlicht wird, Sinn macht, muss man meiner Meinung nach zum Priorisieren von Projekten oder Einzelseiten, die alleine geupdated werden sollen, letztendlich (fast) all die anderen Möglichkeiten berücksichtigen - gewichtet entsprechend den persönlichen Prioritäten, um den größtmöglichen Effekt zu erzielen.

    Da wartet ein riesiger Berg Arbeit. Packen wir es an.

    Hilfsmittel 

    Während der Umprogrammierung hilfreich:

    Weitere Informationen
    Anzeige


    Sonntag, 13. Januar 2013

    Social-Media-Analyse: Facebook, Google+, Twitter & Co. bringen kaum Webseitenbesucher

    Meine Social-Media-Analyse der letzten 12 Monate zeichnet ein noch trüberes Bild, als die Social-Media-Analyse, die ich Ende August 2012 veröffentlicht habe: Es fanden - im Vergleich zu anderen Traffic-Quellen - nur wenige Besucher über Facebook, Google+, Twitter und Pinterest zu meinen Webseiten und Blogartikeln - jedenfalls auf dem direkten Weg. Wie ist das bei anderen?

    Ich habe Webseiten und Blogs zu ganz unterschiedlichen Themen - von Verbraucherthemen wie Garten oder Geld bis zu netzpolitischen und Kommunikationsthemen wie in diesem Blog. Ich wollte wissen, wie viele Besuche meiner Webseiten und Blogartikel über Verlinkungen in Social Media zustande kamen (Traffic-Analyse).

    Für Webanalysen meiner eigenen Domains (Verbraucherthemen, überwiegend statische Webseiten, seit 1998 gewachsen) nutze ich Google Analytics (IP-Adressen anonymisiert).

    In Google Analytics ist eine beschränkte Social-Media-Analyse enthalten, mit der man Social-Media als Traffic-Quelle für Websites und/oder Blogs untersuchen kann: Über Besucherquellen -> Soziale Netzwerke -> Netzwerkverweise erhält man eine Liste mit den sozialen Netzwerken (Facebook, Google+, Blogger, Twitter, Pinterest etc.) und der jeweiligen Anzahl der Besuche, die über sie zustande kamen. (Google Analytics wertet dabei auch Blogger, also seine eigene Plattform für Blogs, mit deren Hilfe auch dieser Blog existiert, als soziales Netzwerk.) Klickt man auf den Namen einer Social-Media-Plattform in der Liste, so erhält man eine Aufstellung der einzelnen Verweise (Links) und die dazugehörende Zahl der Besuche.

    Meine Ergebnisse für die vergangenen 12 Monate:

    Besucherquellen bei Verbraucherthemen (tinto und tinto-Projekte)

    • 74,43 Prozent der Besuche von tinto und tinto-Projekten kommen über eine Suche auf meine Webseiten (bzw. einige wenige Blogartikel, die in dieser Statistik enthalten sind)
      - davon 93,57 Prozent über die Google-Suche, 2,22 Prozent über Bing und 1,33 Prozent über Yahoo, 
    • 16,54 Prozent kommen über Verweise (Verlinkungen)
      Hierin sind auch die Verweise von den Social-Media-Plattformen zu meinen Webseiten enthalten. 
    • 9,03 Prozent kommen direkt - die Besucher kennen also die entsprechende URL.

    Besuche, die durch Verweise von Social-Media-Plattformen (soziale Netzwerke) auf meine Webseiten zustande kamen:

    1,07 Prozent der Besuche kamen durch Links von Social-Media-Plattformen (ohne Blogger) zu tinto und tinto-Projekten.

    Bezogen auf die Gesamtzahl der Besuche ergibt sich folgendes Bild:
    • 0,7 Prozent der tinto-Besuche kamen durch Links von Facebook, 
    • 0,22 Prozent der Besuche über Google+, 
    • 0,08 Prozent durch Twitter und 
    • 0,01 Prozent durch Pinterest.
    Besucherquellen für tinto und tinto-Projekte
    Soziale Netzwerke sind bei tinto und den tinto-Projekten (fast ausschließlich statische Webseiten) im Vergleich zur Google-Suche oder den direkten Zugriffen als Traffic-Quelle fast bedeutungslos - jedenfalls auf den ersten Blick.

    Besucherquellen dieses Kommunikationsthemen-Blogs

    Zu den Themen dieses Blogs gehören Social Media, Suchmaschinenoptimierung (SEO), Netzpolitisches und andere Themen. In diesen Blog habe ich Google Analytics nicht eingebaut und daher nur eine rudimentärere Blogstatistik. Doch kann ich ersehen, dass hier immerhin fast 5 Prozent der Besuche über Verweise bei Google+ zustande kommen und 1,07 Prozent über Links bei Facebook.

    Auch bei meinen Themenblogs wie gartensaison-gartentipps.blogspot.com oder beste-geldanlage.blogspot.com spielen Social Media eine größere Rolle als oben bei den überwiegend statischen Webseiten von tinto und tinto-Projekten.

    Wie ist meine Social-Media-Analyse zu bewerten?

    Meine kleine Social-Media-Analyse, eigentlich eine Traffic-Quellen-Untersuchung, ist natürlich nur ein winziger Bruchteil dessen, was alles zu einer Bewertung von Social Media für einen Freiberufler oder ein Unternehmen gehören würde.

    Als Besucherquelle für meine tinto-Verbraucherthemen-Webseiten haben die Social-Media-Plattformen nicht wirklich überzeugt - von den verschiedenen Social-Media-Plattformen schnitt hier Facebook noch am besten ab. Allerdings sind die Zahlen relativ - d. h. es kann auch sein, dass, weil die Suche als Besucherquelle so erfolgreich ist, Social Media nur im Vergleich dazu schwach ist. Ich kann auf jeden Fall große Unterschiede zwischen verschiedenen Themen feststellen. Zum Beispiel: Während ich mich mit dem Thema Garten bei Facebook gut vernetzen konnte, klappt das beim Thema Geld nicht so gut - auch weil meine Ansprüche da sehr hoch sind, da ich Verbraucher aufklären möchte und nicht mit Zockerplattformen kooperieren möchte.

    Im Vergleich zu den statischen Themenseiten spielen auch bei meinen Themenblogs die sozialen Netzwerke eine größere Rolle als Besucherbringer.

    Auffällig ist, dass Google+ bei meinen Artikeln über Urheberrecht, Social Media und Kommunikationsthemen wesentlich wichtiger zu sein scheint als Facebook. Allerdings sollte man in diesen Vergleich nicht zu viel hineinlesen, denn ich verhalte mich in den verschiedenen sozialen Netzwerken und zu den verschiedenen Themen nicht identisch. Doch passt zu dieser Beobachtung, wie rege bei der Einführung von Communities bei Google+ der Zulauf bei Online-Marketingthemen war (wozu auch Social Media Management und Suchmaschinenoptimierung gehören) und wie schwach bei normalen Verbraucherthemen.

    Interpretationsmöglichkeiten für meine Ergebnisse gibt es viele - vom Zweifel an meiner persönlichen Social-Media-Strategie bis zum Zweifel an Social Media als geeignete Besucherquelle für Websites und Blogs.

    Allerdings sollte man nicht vergessen, dass erstens die Zahlen relativ sind und zweitens, dass Social Media nicht hauptsächlich dazu da sind, Besucher auf Webseiten und Blogs zu holen, sondern zur Kommunikation - von der freundschaftlichen und/oder beruflichen Vernetzung bis zu Kundenservice und Unternehmenskommunikation.

    Darüber hinaus bewerten Suchmaschinen - so weit man über die Algorithmen weiß - auch die Aktivitäten von Autoren in Social Media, so dass diese zu einer besseren Platzierung von deren Artikeln in den Suchergebnissen führen können, was dann über Umwege auch zu mehr Besuchern führt - genauso wie auch die Vernetzung in Social Media zu einer Verlinkung durch andere Teilnehmer führen kann, was sich natürlich auch auf die Besucherzahlen auswirken würde.

    Mich interessiert, ob andere Blogger und Webseitenbetreiber ähnliche Beobachtungen gemacht habt oder ob ich mit meinen Zahlen eine Ausnahme von einer ganz anderen Regel bin.

    Sonntag, 11. November 2012

    Neues von der SEO-Front: WDF*P*IDF und Relevanz

    "Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

    Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

    Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

    Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

    Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

    Relevanz - was ist das?

    Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

    Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

    Statt Keyword-Dichte lieber Gewichtungsformel?

    Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

    Die Gewichtungsformel WDF*P*IDF ist das Produkt von
    WDF, IDF und einem Korrekturfaktor P

    WDF und IDF sind Begriffe aus der Textstatistik:
    • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
      Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
    • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
      Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
    Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

    P ist nur ein Gewichtungswert (Korrekturfaktor).

    Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

    Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

    Beim Wettbewerber abgucken

    Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

    Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

    Den Google-Algorithmus füttern - will man das?

    Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

    Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
    Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

    Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

    Quellen und weiterführende Informationen

    Donnerstag, 30. August 2012

    Wie viele Seitenbesucher kommen durch Facebook, Google+ und Twitter?

    "Vergebliche Mühe" titelt internet WORLD BUSINESS heute und meint damit die Jagd nach möglichst vielen Facebook-Fans. Das machte mich neugierig und ich konsultierte die Quelle und meine eigene Statistik des vergangenen Monats.

    Der Online-Artikel von internet WORLD BUSINESS bezog sich auf eine Untersuchung von BuzzFeeD (alle Quellen unten), die nach einer Korrelation zwischen der Anzahl von Facebook-Fans von Verlagen und dem Traffic suchten, den diese Verlage über Verweise in Facebook auf ihre "Sites". BuzzFeeD kam zu dem Schluss, dass es keine bis wenig Korrelation gibt: Viele Fans bedeuten nicht unbedingt viele Besucher (= mehr "traffic"). Dabei dürfte es keine Rolle spielen, ob diese "Sites", die verlinkt wurden, als statische Webseiten oder als Blog realisiert sind.

    Nach der Lektüre dieses Artikels schaute ich mir meine eigene Statistik vom vergangenen Monat für tinto.de und andere eigene Domains hinsichtlich Besucher-Quellen an. Meine Inhalte befinden sich vorwiegend auf statischen Seiten, die ich seit 1998 betreibe, aber es ist auch ein auf eigener Domain integrierter Blog dabei.

    Das Ergebnis für diese selbstgehosteten Inhalte:
    • < 2 % der Besuche kommen über Facebook 
    • ~ 0,5 % der Besuche über Google+ 
    • ~ 0,2 % der Besuche über Twitter 
    Zum Vergleich:
    • ~ 72 % der Besuche kommen über die Google-Suche 
    • ~ 7,5 % der Besuche waren direkt
    • ~ 2 % der Besuche kamen über die Bing-Suche 
    • ~ 1 % der Besuche über Blogger (Blog-Plattform)
    Traffic-Quellen Social Media
    Herkunft der Webseiten-/Blogartikel-Besuche in Prozent
    (Ausgesuchte Traffic-Quellen: Social Media u. a.)


    Zähle ich die Besuche über Facebook, Google+ und Twitter zusammen, dann kommen ca. 2,2 % meiner Domain-Besuche über diese drei Social Media-Plattformen zustande. (Ich stelle in Social Media allerdings auch Artikel vor, die sich auf Blogger-Blogs (als nicht auf einer eigenen Domain) befinden - diese Verweise sind in dieser Statistik nicht enthalten, da sie extern gehostet sind.)

    Jedenfalls kommen knapp 2 % der Seitenbesuche auf meinen eigenen Domains von Facebook - und da hauptsächlich von meiner Gartensaison-Facebook-Page, wo die "Fans" und ich eine rege kleine Austauschgruppe von Garten- und Pflanzenfreunden bilden, die sich gegenseitig unterstützen.

    Der Traffic von Social-Media-Plattformen ist nur ein Kriterium von vielen

    Die Zahl der Besucher, die über Facebook kommen, ist nicht wirklich beeindruckend. Es wäre noch interessant zu wissen, wie sich die Fan-Zahlen und die Interaktionen mit den Fans auf den Google-Algorithmus (und damit die Sichtbarkeit in den Sucherergebnissen der Google-Suche) auswirken. Doch leider werden solche Algorithmen nicht offengelegt.

    Überrascht bin ich, wie wenig Seitenbesuche über Google+ und Twitter zustande kommen, obwohl dort meine Follower-Zahlen ein Vielfaches betragen - das bestätigt allerdings die Ergebnisse von BuzzFeeD, auch wenn die sich nur auf Facebook bezogen: Mehr Fans, Einkreiser oder Follower bedeuten nicht unbedingt mehr Traffic.

    Circa 1 % der Besucher auf meinen Domains finden über Blogs bei Blogger zu mir. Blogger ist eine kostenlose Blog-Plattform für Anfänger aus dem Hause Google. Auch in diesem Fall sind es hauptsächlich Garten-Interessierte und teilweise an Geldthemen interessierte Besucher, die über die Links von dort zu meinen Webseiten kommen. Die Verweise stammen zum Teil von eigenen Blogger-Blogs, die ich als Ergänzung zu den Websites auf meinen Domains führe. Inzwischen habe ich allerdings auch einen Wordpress-Blog auf der eigenen Domain (weshalb der nicht als externe Quelle geführt wird).

    Wenn ich nur den Zeitaufwand für meine Social-Media-Aktivitäten und die dadurch generierten Besuchszahlen ("traffic") gegenüberstellen würde, dann würde ich diese wohl einschränken und meinen Fokus noch stärker auf Seiten-/Artikel-Erstellung und Suchmaschinen-Optimierung legen müssen. Doch möchte ich zum einen die Abhängigkeit von der Google-Suche (-> Machtkonzentration) verringern und zum anderen die Inspiration (einschließlich der täglichen Aufreger) und die Kommunikation mit den Menschen aus aller Welt nicht missen.

    Quellen