Posts mit dem Label SEO werden angezeigt. Alle Posts anzeigen
Posts mit dem Label SEO werden angezeigt. Alle Posts anzeigen

Samstag, 18. Februar 2017

Eisiger Gegenwind bei Monetarisierung und andere Trends bei Blogs und Webseiten


Mehr Smartphone- und weniger Desktop-Nutzer, gesunkene Adsense-Werbeeinnahmen trotz höherer Besucherzahlen, verändertes Ranking bei Browsern und Social Media – das sind nur einige der Trends, die ich in meinen Blogs und bei meinen Webseiten beobachte und hier beschreibe.

Wer als BloggerIn, Web-PublisherIn oder Online-RedakteurIn eines Unternehmens oder einer Organisation Menschen informieren und/oder mit ihnen kommunizieren möchte, der muss seine Informationen inhaltlich so aufbereiten, dass sie Interesse wecken, verstanden und nach Möglichkeit weiterempfohlen werden. Doch die ganze Mühe mit der Aufbereitung von Texten, Graphiken und/oder Videos ist vergebens, wenn nicht auch die Rahmenbedingungen stimmen. Man muss herausfinden, ob die Zielgruppe/Wunschnutzer überhaupt davon erfährt und ob der Content auf dem Endgerät der Nutzer und mit seiner Technik gut konsumierbar ist.

Zeit für eine Webanalyse und Bestandsaufnahme

Um die notwendigen Daten für Vergleiche zu gewinnen, benötigt man einen Webanalysedienst, genauso auch, wenn man die Wirksamkeit von Werbemaßnahmen und Ähnlichem überprüfen will. Ich benutze den kostenlosen Dienst Google Analytics (anonymisiert, wo von mir administrierbar), der viele Möglichkeiten der Auswertung bietet, und gehe beispielsweise den folgenden Fragen nach.

Anzeige

Wie finden die Seitenbesucher mein Informationsangebot?

Was haben die Seitenbesucher genutzt, um zu meinem Informationsangebot zu kommen: Suchmaschine (Organic), Direkteingabe (Direct), Link (Referral), Social Media (Social) oder anderes?

Die meisten meiner Besucher finden meine Blogartikel und andere Webinformationen
über die Suche mit Suchmaschinen (Organic Search).
Nach wie vor kommen die meisten Besucher über die organische Suche (Google, Bing, etc.). 2016 sind es anteilsmäßig etwas weniger (68,5 %, im Vorjahr 71 %), dafür sind mehr Besucher direkt gekommen, haben also meine URL gekannt oder irgendwo abgelesen.

Der Anteil, der über Social Media direkt kommt, ist bei mir mit 2,2 % immer noch klein – allerdings weiß ich nicht nicht, ob und wie der Google-Suche-Algorithmus Social-Media-Signale einbezieht. Es ist also möglich, dass meine Social-Media-Aktivitäten und die dort platzierten Links für den Anstieg der Besuche indirekt verantwortlich sind – andere Suchmaschinenoptimierung (SEO) nutze ich für meine eigenen Seiten kaum noch, nur auf Kundenwunsch. Ich lege bei meinen Artikeln vor allem Wert auf Übersichtlichkeit und Verständlichkeit, mehr als auf WDF*P*IDF und sonstiges SEO. Ich zähle keine Schlüsselwörter (Keywords) - außer ein Kunde wünscht das - und betreibe i. d. R. auch keinen Linktausch mehr.

Überraschenderweise kamen 2016 mehr Besucher über Pinterest auf meine Webseiten als über Facebook.
Apropos Social Media: Überraschend für mich ist, dass Pinterest 2016 mehr Besucher als Facebook auf meine Webseiten/Blogartikel gebracht hat – allerdings sind es sehr wenige Bilder, die sich bei Pinterest sehr stark verbreitet haben und Besucher zu wenigen Themen bringen. So viel anders ist das aber auch nicht bei denen, die über die Suchmaschinen kommen: Einige wenige Themen sind die hauptsächlichen Besucherbringer – oft auf den ersten Blick überraschend, aber dann auf den zweiten auch wieder nicht, denn es sind oft Nischenthemen oder Themen, mit denen ich schon online war, bevor die große Nachfrage und die Konkurrenz kam bzw. in die Nische noch nicht kam. Wichtig ist meiner Erfahrung nach, dass man solche Themenseiten regelmäßig überarbeitet - ich habe sie beispielsweise auf responsive umgestellt und sowohl Inhalte erweitert als auch die Werbung (vor allem die alten Amazon-Buchtipps) aktualisiert.

Welcher Gerätetyp wird von den Seitenbesuchern wie stark genutzt?

Wie viel Prozent der Nutzer kommen mit einem Highend-Mobilgerät, wie viel mit Desktop/-Computer/Notebook und wie viel mit Tablet auf meine Webseiten?

Anteilsmäßig werden die Smartphone-Nutzer (mobile) immer wichtiger. 

Bei mir haben sich von 2015 zu 2016 einige Änderungen gezeigt. Der Anteil der Smartphone-Nutzer (mobile) unter den Besuchern wuchs zu Lasten der Desktop-Nutzer (desktop). Der Anteil der Tablet-Nutzer (tablet) blieb dagegen gleich.

Wie hat sich die Monetarisierung entwickelt

Obwohl meine Seitenaufrufe und die Werbeaufrufe von Anzeigen aus dem Google-Werbenetz (andere vernachlässige ich bei diesem Vergleich) stark gestiegen sind, sind die Werbeeinnahmen aus dem Google-Werbenetzwerk gesunken – schon wieder – und das obwohl ich meine gefragtesten Blogartikel und Webseiten auf responsive umgestellt habe.

Im Vergleich zu 2015 trugen Smartphone- und Tabletnutzer 2016 anteilsmäßig mehr zu den Werbeeinnahmen bei.
In absoluten Werten kompensieren jedoch die Umsatzanteil-Anstiege bei den Mobil- und Tabletnutzern nicht den Verlust bei den Desktopnutzern! Die Werbeeinnahmen haben sich 2016 gegenüber 2015 verringert.

Woran liegt das, wenn doch die Zahl der Besucher und Seitenaufrufe stark gestiegen sind? Ich habe mir den eCPM (die Adsense-Werbeeinnahmen pro 1000 Seitenbesuchen) angeschaut. Der eCPM ist um mehr als 30 % gesunken, besonders stark bei den Desktop-Nutzern! 

Die Werbeeinnahmen pro 1000 Besuchern ist allgemein gesunken,
besonders stark bei den Desktopnutzern.
Für ein Absinken des eCPM kann es viele Gründe geben:
  • Von mir zu verantworten wären beispielsweise 
    • seltenere und schlechtere Platzierungen der Adsense-Werbung auf den Seiten (Hinweis: Ich habe auch noch andere Werbepartner, betreibe Affiliate-Werbeeinbindungen etc. siehe Geld verdienen mit dem Blog/Website),
    • ungeeignete Bannerformate etc. ausgewählt,
    • Konfigurierung möglicherweise ungünstiger (beispielsweise aus Datenschutzgründen Personalisierung abgestellt),
    • Seitenfehler (Ladezeiten etc.) durch schlechte Programmierung,
    • schlechter monetarisierbare Themen etc.
  • Vom Werbepartner, in dem Fall Google und sein Werbenetzwerk, „zu verantworten“ wären beispielsweise:
    • keine thematisch passende Werbung im Pool,
    • Werbung nicht ansprechend (Optik, Formulierung etc.),
    • die Werbeeinblendungen laden zu lange,
    • andere Fehler bei der Codierung (Flash) und Übertragung der Werbung,
    • schlechtere Preise für Publisher bei Google Adsense, vielleicht weil Google selbst schlechtere und/oder weniger Kunden hat, vielleicht weil kleinere Beteiligung der Publisher am Werbeerlös etc.
Das sind Fragen, denen man dann im Einzelnen nachgehen muss/müsste. Manchem kann man mit der CTR (Klick-Through-Rate) und anderen Auswertungen des Webanalysedienstes auf die Spur kommen, bei anderem benötigt man Tools von außerhalb wie Ladezeitenmessung, die Verfolgung der HTTP headers (wie die Seite mit externen Quellen beim und nach dem Laden kommuniziert) etc.

Normalerweise erhält Werbung von Google Adsense bei mir erst einmal einen sehr guten Platz. Erst wenn ich merke, dass mir die Werbung, die automatisiert eingeblendet wird, nicht gefällt oder zu langsam lädt, dann tausche ich den Platz mit einer Affili.net-Werbung o. Ä., die vorher weiter hinten platziert war.

Welche Browser werden genutzt?

Google's Chrome Browser liegt auch bei mir inzwischen in Führung.
2015 war bei meinen Besuchern noch Firefox der meist genutzte Browser. Doch im letzten Jahr hat Google Chrome einen enormen Sprung nach vorne getan und hat alle abgehängt. Chrome liegt nun mit 34,39 % in Führung, gefolgt von Safari mit 24,22 % und Firefox mit 21,65 Prozent. Der Microsoft Internet Explorer ist nun mit nur noch 11,91 % auf Platz 4, Opera ist weit abgeschlagen mit 1,18 % auf Platz 7. Ich persönlich bin immer noch Multi-Browser-User.

Man sollte und könnte auch beim Thema Browser noch viel mehr ins Detail gehen: Zeigen sich unterschiedliche Verhalten hinsichtlich Besuchsdauer pro Seite, Weiterklicken innerhalb meines Angebots, Verlassen meines Angebots, Werbeeinnahmen auf diesen Seiten etc. abhängig vom benutzten Browser? Dementsprechend müsste man die Seiten möglicherweise für manche Browser optimieren. Doch das würde jetzt hier zu weit führen, ich wollte nur ein paar grundsätzliche Trends zeigen, die ich bei mir beobachte.

Anzeige


Beobachten Sie/ihr bei Ihren/euren Blogs und Websites ähnliche Entwicklungen?



Donnerstag, 19. März 2015

Die Mobilen verändern die Browser-Top-Ten

Im Internet reicht es nicht, Informationen spannend zu formulieren, die Rechtschreibung zu beherrschen und Bilder oder Filme zur Veranschaulichung in den Text zu hängen. Man muss von seinen Lesern auch gefunden werden (Stichwort SEO) und die Darstellung muss den Leser ansprechen bzw. die Nutzeroberfläche nutzerfreundlich gestaltet sein, die Ladezeiten stimmen und vieles mehr. Seit die Nutzer zunehmend mit mobilen Endgeräten wie Smartphones im Netz surfen, werden nicht nur neue Display-/Fenstergrößen für das Webdesign wichtig, sondern auch Browser, die vor wenigen Jahren noch unter dem Label "Newcomer" liefen.

Webseiten, genauer deren Quell-Code, werden von verschiedenen Browsern unterschiedlich dargestellt. Insofern ist es wichtig zu wissen, mit welchen Browsern die Nutzer auf die Homepage, den Blog, die Webanwendung oder anderes kommen. Ich habe mir die Statistik der letzten 30 Tage für tinto.de und dazugehörende Projekte angeschaut und die Browser-Top-Ten mit den häufigsten Browsern vor einem Jahr verglichen.


Browser im Februar/März 2015 (prozentual an der Gesamtzahl der Sitzungen)
Browser im Februar/März 2014 (prozentual an der Gesamtzahl der Sitzungen)
Wie man sieht, hat sich die Bedeutung der Browser verändert. Während 2014 Google's Chrome noch auf dem 4. Platz lag, 6 Prozent hinter dem Internet Explorer (IE), hat Chrome 2015 Platz 2 erobert und liegt nur wenig hinter dem Firefox auf Platz 1.

Browser-Top-Ten 2015 (2014)            
1. Firefox  27,64 %  (30,76 %)
2. Chrome 24,04 %  (14,07 %)
3. Safari    22,73 %  (21,06 %)
4. IE          15,90 %  (14,7 %)
5. Android  7,80 %  (30,76 %)
8. Opera      1,03 %  (30,76 %)
9. Safari (in-app) 0,25 %  (30,76 %)
10. Amazon Silk 0,24 %  (Vorjahr 30,76 %)

Noch mehr Einblick erhält man, wenn man Browser und Gerätekategorien (desktop für Desktop, tablet für Tablet, mobile für Mobilfunkgerät/Smartphone) kombiniert: Auf dem Desktop liegt Chrome immer noch auf Platz 3 hinter Firefox und IE), aber während sich Chrome Desktop von 10 auf 12 Prozent Anteil verbessert hat, mussten Firefox und IE deutlich abgeben. Chrome mobile ist sogar von nur 4 auf 9 Prozent gestiegen, Safari mobile während der gleichen Zeit nur von 6 auf 8 Prozent. Es sind also die mobilen Nutzer und allgemein Google Chrome, die die Browser-Top-Ten aufmischen.

Browser Gerätekategorie im Februar/März 2015 (prozentual an der Gesamtzahl der Sitzungen)
Browser Gerätekategorie im Februar/März 2014 (prozentual an der Gesamtzahl der Sitzungen)
Laut Cisco wuchs die Zahl der mobilen Geräte 2014  weltweit um knapp 500 Millionen Geräte. Der Trend wird sich wohl kaum umkehren. Bei der Ausrichtung der Webseiten und Blogs auf die Nutzerbedürfnisse muss man nicht nur die verschiedenen Fenster-/Darstellungsgrößen, die mit den Mobilen kommen, sondern auch die Bedeutung der verschiedenen Browser der Nutzer im Auge haben.

Anzeige


Siehe auch
Achtung, die Mobilen kommen!


Mittwoch, 4. Februar 2015

Achtung, die Mobilen kommen

Der Anteil an Nutzern, die mit Smartphone und Tablets auf Webseiten zugreifen, ist inzwischen so groß, dass es höchste Zeit ist, sich als Webseitenbetreiber mit dem Thema gerätegerechte Webseitendarstellung zu befassen. Andernfalls verprellt man wegen der nicht optimalen Nutzererfahrung beim Seitenbesuch seine Besucher und Kunden, rutscht in den Suchmaschinenergebnissen nach hinten und verschlechtert mit der Zeit seine Reichweite und alles, was daran hängt. Eine Lösung für das Problem heißt Responsive Webdesign. Aber wie geht man bei der Umstellung eines Konglomerats aus über Jahrzehnte entstandenen Webseiten und Blogs vor?

Nachtrag zum "Mobilegeddon": Google hat inzwischen in seinem Entwicklerblog veröffentlicht, dass die Mobile Friendliness (Nutzerfreundlichkeit für Mobilgeräte) ab dem 21. April 2015 als Ranking-Signal für die Suchergebnisse für Smartphones berücksichtigt wird.

Anzeige


Lange schien mir der Aufwand, mein Webangebot so umzustellen, dass die Webseiten sowohl mit einem Desktop-Computer als auch mit mobilen Endgeräten optimal dargestellt werden angesichts der sehr niedrigen Besucherzahlen mit mobilen Geräten wie Smartphone und Tablet zu hoch. Als mir vor ein paar Tagen das Google-Webmaster-Team schrieb: Beheben Sie Probleme der mobilen Nutzerfreundlichkeit auf www.tinto.de/, war das für mich Anlass, mich mal wieder genauer mit meinem Webseiten- und Blog-Traffic zu befassen.

In den letzten 12 Monaten (Kreisdiagramm oben) nutzten etwa 35 Prozent der tinto-Besucher ein Smartphone (rot) oder ein Tablet (blau). 65 Prozent nutzten einen Desktop-Computer. Im Jahr davor waren es noch wesentlich weniger Mobile (Kreisdiagramm unten).
Seit 1998 erstelle ich für tinto Webseiten und Blogs zu allem, wozu ich glaube, Wissen oder Erfahrungen beitragen zu können. Ich realisierte meine Vorstellungen mit Tools und Programmierkenntnissen, die ich zur jeweiligen Zeit hatte. Die Zahl meiner Seiten und der Besucher wuchs über die Jahre zu einem kleinen Imperium. Aber waren es bis vor wenigen Jahren fast ausschließlich Desktop-Nutzer, die meine Angebote nutzten, zeigt der jüngste Blick in mein Trafficanalyse-Tool Google Analytics, dass in den letzten 12 Monaten 35 Prozent der Besucher mit mobilen Endgeräten wie Smartphone und Tablet kamen. Im Jahr davor waren es noch knapp 23 %. Laut Statista surfen sogar 54 Prozent der Deutschen mobil.

Dabei sind meine Besucher keine "Digital Hipsters", sondern ganz normale Verbraucher aller Altersklassen, die sich für Garten-, Gesundheits- und andere Verbraucherthemen interessieren. Je nach Zielgruppe, wird bei anderen der Anteil der mobilen Nutzer auf ihren Webseiten noch wesentlich höher sein.

Infografik: 54% der Deutschen surfen mobil | Statista
Mehr Statistiken finden Sie bei Statista

Trafficanalyse, responsive Webdesign und Prioritätensetzung stehen jetzt auf meinem Stundenplan

Bei einem Responsive Webdesign passt sich die Darstellung der aufgerufenen Webseite oder des Blogartikels automatisch an den Nutzer, beziehungsweise an sein Gerät oder seine Bildschirm-/Fenstergröße, an. So werden beispielsweise Elemente auf einem Desktop mit seinem großen Bildschirm und entsprechend großen Fenstern nebeneinander gezeigt, auf einem Smartphone dagegen untereinander. Auch Schriftgrößen und Menüs können für verschiedene Besuchergeräte, deren Auflösung oder Fenstergröße unterschiedlich konfiguriert werden. Technisch wird das durch die Programmierung nach den neuen Möglicheiten und Standards von Hyper Text Markup Language (HTML5), Cascading Style Sheets (CSS3, Media Queries) und JavaScript umgesetzt.

Zwar habe ich meine neuesten "von Hand" programmierten, kleinen Projekte wie tinto-Horoskop gleich responsive umgesetzt oder sie nachträglich auf responsive umgestellt (beispielsweise Gartenblogs, Mein Pflanzenarchiv und Mein Outfitarchiv), sodass die Seiten bei Aufruf durch ein Smartphone anders angezeigt werden als bei Aufruf per Desktop. Dabei passt sich die Darstellung an die Fenstergröße an - man kann das ausprobieren, indem man die Seite aufruft und das Browserfenster verkleinert.

Auch meine Blogs ließen sich recht einfach so konfigurieren, dass Besucher mit einem mobilen Gerät eine andere Version der Seite gezeigt bekommen - sowohl mein tinto bloggt-Blog, den ich mit Wordpress (php und MySQL) erstellt habe, als auch die verschiedenen Blogger-Blogs wie dieser. Dank passender Vorlage (Theme) waren nur ein paar Klicks nötig, um das Feature zu aktivieren. Allerdings steckt hier der Teufel im Detail: Bei der Überprüfung mit einem Mobile-Phone-Emulator stellt man fest, dass das Ergebnis nicht auf jedem Endgerät optimal ist.

In welcher Reihenfolge auf Responsive Webdesign umstellen

Im Gegensatz zu Blogs oder anderen Content-Management-Systemen (CMS) lassen sich alte statische Webseiten, die oft mit proprietären Webdesign-Programmen erstellt wurden, nur aufwendig umstellen. Doch die Zeit drängt - so scheint mir -, wenn man nicht ausschließlich Desktop-Nutzer als Zielgruppe hat und seine mobilen Besucher nicht verlieren möchte.

Hilfreich: Der Emulator und der Punkt Nutzerfreundlichkeit
unter dem Reiter Mobile von Google PageSpeed Insights
Gerade wegen meiner über Jahre gewachsenen, nicht homogenen Projekte und wegen des hohen Aufwands muss ich eine sinnvolle Reihenfolge finden, wie ich bei der Umstellung vorgehe. Im Grunde geht es darum, Webprojekte/-seiten mit dem größten potenziellen Effekt zu identifizieren. Doch welcher Effekt ist mir überhaupt der wichtigste: Reichweitenverbesserung für bestimmte Botschaften, Erhöhung meines Bekanntheitsgrades, Erreichen potenzieller Auftragskunden (Werbekunden, Textaufträge-Kunden), sonstige Selbstvermarktungseffekte und/oder Affiliate-Werbeeinnahmen? Am liebsten natürlich alles.

Es gibt viele Möglichkeiten, eine Reihenfolge zu finden, beispielsweise:
  • entlang der hierarchischen Struktur
  • Webprojekte/-seiten nach Traffic-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann allerdings davon beeinflusst sein, wie gut die Seiten bereits für die Ansprüche mobiler Geräte "versehentlich" optimiert sind). 
  • Webprojekte/-seiten nach Werbeeinnahmen-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann auch davon beeinflusst sein wie gut die Seiten oder zumindest die Werbung darauf bereits für die Ansprüche mobiler Geräte optimiert sind). 
  • Webprojekte/-seiten danach sortieren, wie oft auf sie mit mobilen Geräten zugegriffen wird. (Es ist allerdings möglich, dass Suchmaschinen wie Google mobilen Geräten bevorzugt bereits "versehentlich" optimierte Seiten in den Suchergebnissen zeigt) 
  • Webprojekte/-seiten danach sortieren, wie oft sie von mobilen Geräten ohne Verweildauer verlassen werden 
  • Planen, welche Themen und Webseiten als nächstes gefeatured werden sollen und diese umstellen und updaten 
Während eine Vorgehensweise anhand der Struktur nur bei einem geschlossenen Projekt, das als Ganzes neu veröffentlicht wird, Sinn macht, muss man meiner Meinung nach zum Priorisieren von Projekten oder Einzelseiten, die alleine geupdated werden sollen, letztendlich (fast) all die anderen Möglichkeiten berücksichtigen - gewichtet entsprechend den persönlichen Prioritäten, um den größtmöglichen Effekt zu erzielen.

Da wartet ein riesiger Berg Arbeit. Packen wir es an.

Hilfsmittel 

Während der Umprogrammierung hilfreich:

Weitere Informationen
Anzeige


Sonntag, 13. Januar 2013

Social-Media-Analyse: Facebook, Google+, Twitter & Co. bringen kaum Webseitenbesucher

Meine Social-Media-Analyse der letzten 12 Monate zeichnet ein noch trüberes Bild, als die Social-Media-Analyse, die ich Ende August 2012 veröffentlicht habe: Es fanden - im Vergleich zu anderen Traffic-Quellen - nur wenige Besucher über Facebook, Google+, Twitter und Pinterest zu meinen Webseiten und Blogartikeln - jedenfalls auf dem direkten Weg. Wie ist das bei anderen?

Ich habe Webseiten und Blogs zu ganz unterschiedlichen Themen - von Verbraucherthemen wie Garten oder Geld bis zu netzpolitischen und Kommunikationsthemen wie in diesem Blog. Ich wollte wissen, wie viele Besuche meiner Webseiten und Blogartikel über Verlinkungen in Social Media zustande kamen (Traffic-Analyse).

Für Webanalysen meiner eigenen Domains (Verbraucherthemen, überwiegend statische Webseiten, seit 1998 gewachsen) nutze ich Google Analytics (IP-Adressen anonymisiert).

In Google Analytics ist eine beschränkte Social-Media-Analyse enthalten, mit der man Social-Media als Traffic-Quelle für Websites und/oder Blogs untersuchen kann: Über Besucherquellen -> Soziale Netzwerke -> Netzwerkverweise erhält man eine Liste mit den sozialen Netzwerken (Facebook, Google+, Blogger, Twitter, Pinterest etc.) und der jeweiligen Anzahl der Besuche, die über sie zustande kamen. (Google Analytics wertet dabei auch Blogger, also seine eigene Plattform für Blogs, mit deren Hilfe auch dieser Blog existiert, als soziales Netzwerk.) Klickt man auf den Namen einer Social-Media-Plattform in der Liste, so erhält man eine Aufstellung der einzelnen Verweise (Links) und die dazugehörende Zahl der Besuche.

Meine Ergebnisse für die vergangenen 12 Monate:

Besucherquellen bei Verbraucherthemen (tinto und tinto-Projekte)

  • 74,43 Prozent der Besuche von tinto und tinto-Projekten kommen über eine Suche auf meine Webseiten (bzw. einige wenige Blogartikel, die in dieser Statistik enthalten sind)
    - davon 93,57 Prozent über die Google-Suche, 2,22 Prozent über Bing und 1,33 Prozent über Yahoo, 
  • 16,54 Prozent kommen über Verweise (Verlinkungen)
    Hierin sind auch die Verweise von den Social-Media-Plattformen zu meinen Webseiten enthalten. 
  • 9,03 Prozent kommen direkt - die Besucher kennen also die entsprechende URL.

Besuche, die durch Verweise von Social-Media-Plattformen (soziale Netzwerke) auf meine Webseiten zustande kamen:

1,07 Prozent der Besuche kamen durch Links von Social-Media-Plattformen (ohne Blogger) zu tinto und tinto-Projekten.

Bezogen auf die Gesamtzahl der Besuche ergibt sich folgendes Bild:
  • 0,7 Prozent der tinto-Besuche kamen durch Links von Facebook, 
  • 0,22 Prozent der Besuche über Google+, 
  • 0,08 Prozent durch Twitter und 
  • 0,01 Prozent durch Pinterest.
Besucherquellen für tinto und tinto-Projekte
Soziale Netzwerke sind bei tinto und den tinto-Projekten (fast ausschließlich statische Webseiten) im Vergleich zur Google-Suche oder den direkten Zugriffen als Traffic-Quelle fast bedeutungslos - jedenfalls auf den ersten Blick.

Besucherquellen dieses Kommunikationsthemen-Blogs

Zu den Themen dieses Blogs gehören Social Media, Suchmaschinenoptimierung (SEO), Netzpolitisches und andere Themen. In diesen Blog habe ich Google Analytics nicht eingebaut und daher nur eine rudimentärere Blogstatistik. Doch kann ich ersehen, dass hier immerhin fast 5 Prozent der Besuche über Verweise bei Google+ zustande kommen und 1,07 Prozent über Links bei Facebook.

Auch bei meinen Themenblogs wie gartensaison-gartentipps.blogspot.com oder beste-geldanlage.blogspot.com spielen Social Media eine größere Rolle als oben bei den überwiegend statischen Webseiten von tinto und tinto-Projekten.

Wie ist meine Social-Media-Analyse zu bewerten?

Meine kleine Social-Media-Analyse, eigentlich eine Traffic-Quellen-Untersuchung, ist natürlich nur ein winziger Bruchteil dessen, was alles zu einer Bewertung von Social Media für einen Freiberufler oder ein Unternehmen gehören würde.

Als Besucherquelle für meine tinto-Verbraucherthemen-Webseiten haben die Social-Media-Plattformen nicht wirklich überzeugt - von den verschiedenen Social-Media-Plattformen schnitt hier Facebook noch am besten ab. Allerdings sind die Zahlen relativ - d. h. es kann auch sein, dass, weil die Suche als Besucherquelle so erfolgreich ist, Social Media nur im Vergleich dazu schwach ist. Ich kann auf jeden Fall große Unterschiede zwischen verschiedenen Themen feststellen. Zum Beispiel: Während ich mich mit dem Thema Garten bei Facebook gut vernetzen konnte, klappt das beim Thema Geld nicht so gut - auch weil meine Ansprüche da sehr hoch sind, da ich Verbraucher aufklären möchte und nicht mit Zockerplattformen kooperieren möchte.

Im Vergleich zu den statischen Themenseiten spielen auch bei meinen Themenblogs die sozialen Netzwerke eine größere Rolle als Besucherbringer.

Auffällig ist, dass Google+ bei meinen Artikeln über Urheberrecht, Social Media und Kommunikationsthemen wesentlich wichtiger zu sein scheint als Facebook. Allerdings sollte man in diesen Vergleich nicht zu viel hineinlesen, denn ich verhalte mich in den verschiedenen sozialen Netzwerken und zu den verschiedenen Themen nicht identisch. Doch passt zu dieser Beobachtung, wie rege bei der Einführung von Communities bei Google+ der Zulauf bei Online-Marketingthemen war (wozu auch Social Media Management und Suchmaschinenoptimierung gehören) und wie schwach bei normalen Verbraucherthemen.

Interpretationsmöglichkeiten für meine Ergebnisse gibt es viele - vom Zweifel an meiner persönlichen Social-Media-Strategie bis zum Zweifel an Social Media als geeignete Besucherquelle für Websites und Blogs.

Allerdings sollte man nicht vergessen, dass erstens die Zahlen relativ sind und zweitens, dass Social Media nicht hauptsächlich dazu da sind, Besucher auf Webseiten und Blogs zu holen, sondern zur Kommunikation - von der freundschaftlichen und/oder beruflichen Vernetzung bis zu Kundenservice und Unternehmenskommunikation.

Darüber hinaus bewerten Suchmaschinen - so weit man über die Algorithmen weiß - auch die Aktivitäten von Autoren in Social Media, so dass diese zu einer besseren Platzierung von deren Artikeln in den Suchergebnissen führen können, was dann über Umwege auch zu mehr Besuchern führt - genauso wie auch die Vernetzung in Social Media zu einer Verlinkung durch andere Teilnehmer führen kann, was sich natürlich auch auf die Besucherzahlen auswirken würde.

Mich interessiert, ob andere Blogger und Webseitenbetreiber ähnliche Beobachtungen gemacht habt oder ob ich mit meinen Zahlen eine Ausnahme von einer ganz anderen Regel bin.

Sonntag, 11. November 2012

Neues von der SEO-Front: WDF*P*IDF und Relevanz

"Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

Relevanz - was ist das?

Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

Statt Keyword-Dichte lieber Gewichtungsformel?

Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

Die Gewichtungsformel WDF*P*IDF ist das Produkt von
WDF, IDF und einem Korrekturfaktor P

WDF und IDF sind Begriffe aus der Textstatistik:
  • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
    Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
  • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
    Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

P ist nur ein Gewichtungswert (Korrekturfaktor).

Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

Beim Wettbewerber abgucken

Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

Den Google-Algorithmus füttern - will man das?

Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

Quellen und weiterführende Informationen

Donnerstag, 30. August 2012

Wie viele Seitenbesucher kommen durch Facebook, Google+ und Twitter?

"Vergebliche Mühe" titelt internet WORLD BUSINESS heute und meint damit die Jagd nach möglichst vielen Facebook-Fans. Das machte mich neugierig und ich konsultierte die Quelle und meine eigene Statistik des vergangenen Monats.

Der Online-Artikel von internet WORLD BUSINESS bezog sich auf eine Untersuchung von BuzzFeeD (alle Quellen unten), die nach einer Korrelation zwischen der Anzahl von Facebook-Fans von Verlagen und dem Traffic suchten, den diese Verlage über Verweise in Facebook auf ihre "Sites". BuzzFeeD kam zu dem Schluss, dass es keine bis wenig Korrelation gibt: Viele Fans bedeuten nicht unbedingt viele Besucher (= mehr "traffic"). Dabei dürfte es keine Rolle spielen, ob diese "Sites", die verlinkt wurden, als statische Webseiten oder als Blog realisiert sind.

Nach der Lektüre dieses Artikels schaute ich mir meine eigene Statistik vom vergangenen Monat für tinto.de und andere eigene Domains hinsichtlich Besucher-Quellen an. Meine Inhalte befinden sich vorwiegend auf statischen Seiten, die ich seit 1998 betreibe, aber es ist auch ein auf eigener Domain integrierter Blog dabei.

Das Ergebnis für diese selbstgehosteten Inhalte:
  • < 2 % der Besuche kommen über Facebook 
  • ~ 0,5 % der Besuche über Google+ 
  • ~ 0,2 % der Besuche über Twitter 
Zum Vergleich:
  • ~ 72 % der Besuche kommen über die Google-Suche 
  • ~ 7,5 % der Besuche waren direkt
  • ~ 2 % der Besuche kamen über die Bing-Suche 
  • ~ 1 % der Besuche über Blogger (Blog-Plattform)
Traffic-Quellen Social Media
Herkunft der Webseiten-/Blogartikel-Besuche in Prozent
(Ausgesuchte Traffic-Quellen: Social Media u. a.)


Zähle ich die Besuche über Facebook, Google+ und Twitter zusammen, dann kommen ca. 2,2 % meiner Domain-Besuche über diese drei Social Media-Plattformen zustande. (Ich stelle in Social Media allerdings auch Artikel vor, die sich auf Blogger-Blogs (als nicht auf einer eigenen Domain) befinden - diese Verweise sind in dieser Statistik nicht enthalten, da sie extern gehostet sind.)

Jedenfalls kommen knapp 2 % der Seitenbesuche auf meinen eigenen Domains von Facebook - und da hauptsächlich von meiner Gartensaison-Facebook-Page, wo die "Fans" und ich eine rege kleine Austauschgruppe von Garten- und Pflanzenfreunden bilden, die sich gegenseitig unterstützen.

Der Traffic von Social-Media-Plattformen ist nur ein Kriterium von vielen

Die Zahl der Besucher, die über Facebook kommen, ist nicht wirklich beeindruckend. Es wäre noch interessant zu wissen, wie sich die Fan-Zahlen und die Interaktionen mit den Fans auf den Google-Algorithmus (und damit die Sichtbarkeit in den Sucherergebnissen der Google-Suche) auswirken. Doch leider werden solche Algorithmen nicht offengelegt.

Überrascht bin ich, wie wenig Seitenbesuche über Google+ und Twitter zustande kommen, obwohl dort meine Follower-Zahlen ein Vielfaches betragen - das bestätigt allerdings die Ergebnisse von BuzzFeeD, auch wenn die sich nur auf Facebook bezogen: Mehr Fans, Einkreiser oder Follower bedeuten nicht unbedingt mehr Traffic.

Circa 1 % der Besucher auf meinen Domains finden über Blogs bei Blogger zu mir. Blogger ist eine kostenlose Blog-Plattform für Anfänger aus dem Hause Google. Auch in diesem Fall sind es hauptsächlich Garten-Interessierte und teilweise an Geldthemen interessierte Besucher, die über die Links von dort zu meinen Webseiten kommen. Die Verweise stammen zum Teil von eigenen Blogger-Blogs, die ich als Ergänzung zu den Websites auf meinen Domains führe. Inzwischen habe ich allerdings auch einen Wordpress-Blog auf der eigenen Domain (weshalb der nicht als externe Quelle geführt wird).

Wenn ich nur den Zeitaufwand für meine Social-Media-Aktivitäten und die dadurch generierten Besuchszahlen ("traffic") gegenüberstellen würde, dann würde ich diese wohl einschränken und meinen Fokus noch stärker auf Seiten-/Artikel-Erstellung und Suchmaschinen-Optimierung legen müssen. Doch möchte ich zum einen die Abhängigkeit von der Google-Suche (-> Machtkonzentration) verringern und zum anderen die Inspiration (einschließlich der täglichen Aufreger) und die Kommunikation mit den Menschen aus aller Welt nicht missen.

Quellen

Freitag, 13. Juli 2012

Blog bekannt machen - Fortsetzung

Was sich durch die Google Algorithmus Updates Panda und Penguin verändert hat.

Dies ist eine Ergänzung zu den Blog-Posts vom vergangenen Jahr:
Blog bekannt machen Fortsetzung
Im ersten Blogbeitrag werden die Möglichkeiten beschrieben, wie man seinen Blog bekannt machen kann - denn wer schreibt, der will in der Regel auch gelesen werden. Im zweiten Blog-Post geht es speziell um die Suchmaschinenoptimierung (Search Engine Optimization, SEO) mit seriösen Mitteln - denn wer in den Suchergebnissen nicht vorne gelistet ist, ist im Internet praktisch unsichtbar. Wegen ihrer Quasi-Monopolstellung wird besonders auf die SEO für die Google-Suche eingegangen, denn wer keine gute Position in den Sucherergebnissen (Search Engine Results Positions - SERPs) von Google hat, dem fehlt eine wichtige Möglichkeit, Leser für seine Blogbeiträge zu finden.

Die Möglichkeiten, wie man einen Blog bekannt machen kann, sind zwar im Wesentlichen die gleichen geblieben und die wichtigste Voraussetzung für den Erfolg eines Blogs oder eines anderen Webangebotes ist immer noch Content, der einzigartig ist und dem Nutzer einen Mehrwert bietet - also informative und gut geschriebene Texte, Bilder, Videos, Anwendungen etc. Trotzdem sollte man ein paar Fallen kennen, die sich durch die Veränderungen des Google-Algorithmus aufgetan haben, damit man nicht von Google abgestraft wird (Google Penalty). Denn es kann auch Unschuldige treffen.

Blog bekannt machen
Achtung: Google Algorithmus Updates

Google möchte mit den Updates seines Suchalgorithmus die Suchergebnisse verbessern. Zum einen wurden das Suchverhalten und Bewertungen der User in den Algorithmus integriert. Zum anderen sollen Manipulatoren, die mit unlauteren Methoden (Black Hat SEO) arbeiten, von den vorderen Plätzen vertrieben oder ganz ausgeschlossen werden.

Die wichtigsten Google-Algorithmus-Updates heißen

Google Panda (begann im Februar 2011)
Durch die verschiedenen Google Panda Updates soll die Qualität der Blogs oder der Webseiten (Onsite-Kriterien) gecheckt und in den Algorithmus integriert werden: Ist der Content gut und einzigartig? Bietet er einen Mehrwert? Bleiben die Besucher auf der Seite oder fliehen sie gleich wieder?

Google Penguin (bekannt gegeben am 24. April 2012)
Durch Google Penguin wird neben Onsite-Kriterien wie Keyword-Stuffing (unnatürliche Wiederholung des Keywords im Text oder in den Meta-Tags) die Verlinkung (Offsite-Kriterien) gecheckt. Massenhaft Links von minderwertigen Domains/Seiten (z. B. von Linkschleudern - das sind Verzeichnisse, wo jeder Links eintragen kann, ohne dass es eine Qualitätsprüfung gibt) können sich negativ auswirken. Google bestraft auch, wenn Inhalte mehrmals im Netz vorhanden sind - ein Problem, wenn ein Unternehmen mit örtlichen Filialen die gleichen Texte (bis auf Anfahrtsinformationen o. ä.) auf alle lokalen Seiten stellt - was sachlich völlig logisch wäre. Aber auch für den normalen Blogger kann "duplicate Content" zum Problem werden, wenn die gleichen Inhalte über verschiedene URLs zu erreichen sind oder auch wenn Inhalte unberechtigt wiederverwendet wurden (Content-Klau) - wegen letzterem sollte man regelmäßig überprüfen, ob Inhalte des Blogs oder der Webseite kopiert und woanders noch einmal ins Netz gestellt werden (dafür gibt es Werkzeuge, z. B. Copyscape).

Leider zeigen Google's Maßnahmen zur Verbesserung der Suchergebnisse bisher nur mäßigen Erfolg, denn bei manchen Suchbegriffen (Keywords) sind immer noch einige nahezu inhaltslose Seiten voller Werbung auf den vorderen Plätzen vertreten. Andererseits wurden schon "unschuldige" Webseiten und Blogs abgestraft und flogen aus dem Index. Auf jeden Fall bibbern auch ganz normale Webseitenbetreiber und Blogger vor Angst wegen der Google Algorithmus Updates, denn Sichtbarkeit oder Unsichtbarkeit kann über die Existenz entscheiden - und am Drücker sitzt das Mega-Unternehmen Google mit seiner Quasi-Monopolstellung.

Manche Google Maßnahmen haben außerdem böswilligen Wettbewerbern, die Möglichkeit eröffnet, Blogs und Webseiten aus dem Index zu katapultieren, die sie loshaben wollen - z. B. indem sie massenweise Links von minderwertigen Linkschleudern zu einer konkurrierenden Seite setzen (was dann durch das Google Penguin Update geahndet wird) oder indem sie den Mitbewerber bei Google denunzieren - wozu Google aufgerufen hat.

Ergänzungen und Meinungen können gerne über die Kommentarfunktion hinzugefügt werden.

Quellen und weiterführende Informationen


Freitag, 13. Januar 2012

Wordpress-Kommentare-Links von "nofollow" auf "dofollow" umstellen


Das geht auch ohne Plugin

Wordpress-Kommentare-Links sind
standardmäßig auf "nofollow"
gestellt. Das kann man ändern.
wordpress-vgwortWordpress hat - genauso wie Blogger.com - die Links aus den Kommentaren standardmäßig auf "nofollow" gesetzt. Das bedeutet, dass diese Links nicht von Suchmaschinen verfolgt werden. Sie bringen dann zwar neue Besucher, aber bringen nichts hinsichtlich Suchmaschinenoptimierung (SEO), denn sie haben keinen (umstritten) oder zumindest weniger Backlink-Effekt.

Viele Blogbetreiber mögen das nicht: Sie wollen diejenigen, die mit interessanten Kommentaren wertvollen Inhalt beitragen, die Diskussion anregen und damit den Blog aufwerten, mit einem Dofollow-Link belohnen. Wie man Blogspot.com-Blogs umstellen kann, habe ich bei Blogkommentare-Links von "nofollow" auf "dofollow" umstellen beschrieben. Inzwischen habe ich mir auch einen Wordpress-Blog (tinto bloggt) eingerichtet und stand wieder vor dem Problem, denn auch bei Wordpress ist "nofollow" für die Kommentare-Links voreingestellt. Bei der Recherche nach einer Möglichkeit, das umzustellen, fand ich Plugins gibt, die man installieren kann, um dies umzustellen, doch suchte ich eine Lösung ohne Plugin. Fündig wurde ich bei WordPress Dofollow ohne Plugin". Aus den Tipps habe ich eine Schritt-für-Schritt-Anleitung für Einsteiger gebastelt.

In Wordpress Kommentare-Links von "nofollow" auf "dofollow" umstellen

Anleitung Schritt für Schritt (Nachmachen auf eigene Gefahr): 

  1. Auf dem eigenen Rechner in der Wordpress-Installation im Ordner wp-includes die Datei comment-template.php suchen und davon sicherheitshalber eine Kopie machen. Dann die Datei comment-template.php öffnen. Das geht z. B. mit PSPad - einem kostenlosen Editor für Programmierer und Webdesigner (der Windows Editor ist dafür nicht geeignet). 
  2. In der Datein comment-template.php nach dieser Zeichenfolge suchen:

    $return = "<a href='$url' rel='external nofollow' class='url'>$author</a>";

    Die Zeichenfolge definiert, wie der Code von Links ausgeworfen wird. Der Abschnitt
    rel='external nofollow'
    macht die Kommentarlinks zu Nofollow-Links. Um die Links automatisch als Dofollow-Links zu generieren, muss man diesen Abschnitt nur entfernen. Mehr nicht. Die Zeichenfolge lautet dann:

    $return = "<a href='$url' class='url'>$author</a>";
     
  3. Datei comment-template.php speichern und schließen. 
  4. Die Datei comment-template.php auf den Webserver in den Ordner wp-includes des Blogverzeichnisses hochladen. Dabei wird die alte Version überschrieben. 
Hinweis: Das muss nach einem Update eventuell wiederholt werden.

Wem es zu heikel ist, in einer Datei etwas zu verändern, der kann statt dessen auch ein Dofollow-Plugin für Wordpress installieren. Man findet sie mit der Suchmaschine, wenn man "Wordpress Plugin dofollow" eingibt. Plugins haben oft zusätzliche Features.

Problem SEO-Spammer

Wer die Umstellung von "nofollow" auf "dofollow" umsetzt, sollte sich aber bewusst sein, dass er dadurch auch manchen Suchmaschinenoptimierer anzieht, den die Themen des Blogs nicht interessieren, sondern der nur des Links wegen kommt. Abgesehen davon, dass deren Kommentare meist ohne Informationen sind, führen sie manchmal zu Webseiten, mit denen man nichts zu tun haben möchte. Um hier eine gewisse Kontrolle zu haben und einen gewissen Anspruch durchzusetzen, empfiehlt es sich, Kommentare erst nach einer Prüfung freizugeben oder zumindest Kommentare zumindest regelmäßig zu kontrollieren.

Sonntag, 18. Dezember 2011

Google Plus (Google+) und Google-Suche

Basiswissen für Strategen vgwort - google plus

Wer als Freiberufler oder Unternehmen Google Plus (Google+) strategisch nutzen möchte, sollte ein paar Fakten und Zusammenhänge rund um Google Inc., Google Plus und die Google-Suche kennen.

Google Incorporated (Google Inc.) ist ein börsengehandeltes Unternehmen mit Sitz in Kalifornien, welches Internetdienstleistungen anbietet. Das erfolgreichste Produkt von Google Inc., mit dem 1998 alles begann, ist die Google-Suche. Die Google-Suche dominiert seit einigen Jahren den Suchmarkt - manche Statistiken geben 80 % Marktbeherrschung an, bei mir (tinto) kamen in den letzten 30 Tagen 94 Prozent der über Suchmaschinen zugeführten Besucher von der Google-Suche.

Die Google-Suche als führende Suchmaschine bestimmt also zu großen Teilen die Sichtbarkeit im Internet, weshalb, wer Suchmaschinenoptimierung (SEO) betreibt, sich vor allem an der Google-Suche orientieren muss. Ein Problem für Google Inc. und das Google-Suche-Produkt wurden in den letzten Jahren die sozialen Netzwerke, allen voran Facebook - denn sie verführten die Menschen dazu, weniger Zeit im "öffentlichen" Internet zu verbringen und hatten eigene Suchfunktionen innerhalb ihrer Netzwerke.

2011 hat Google nun ein neues Produkt ausgespielt, das auch eine dominierende Rolle spielen soll: das Google-eigene soziale Netzwerk Google Plus (Google+). Wegen seiner klaren Struktur, seiner fast intuitiven Bedienbarkeit und der Abneigung mancher Personengruppen gegenüber Facebook haben sich die Teilnehmerzahlen explosionsartig entwickelt.

Alles deutet darauf hin, dass Google Inc. Google Plus zum Zentrum seines Imperiums machen möchte, d. h. Google Plus wird immer stärker mit anderen Google-Produkten und vor allem auch mit der mächtigen Google-Suche verknüpft. Das ist für Internetnutzer insofern gut, dass Inhalte wieder öffentlich werden und nicht nur in abgeschlossenen sozialen Netzwerken verfügbar sind - denn bei Google Plus kann alles öffentlich gepostet werden (bei jedem einzelnen Beitrag kann man bestimmen, welche Kontakte ihn lesen dürfen oder ob man ihn öffentlich verfügbar macht). Andererseits ist es aus Nutzer- und Webseitenbetreibersicht nicht positiv, wenn Google Inc. durch die Verknüpfung von Google-Suche und Google Plus seine dominante Stellung festigt bzw. ausbaut: Es zwingt sie nach den Spielregeln von Google Inc. zu tanzen. 

Die Google-Suche benutzt einen (nicht veröffentlichten) Suchalgorithmus. Einer der Bestandteile des Algorithmus, der mitbestimmt, wie weit vorne eine Internetseite in den Suchmaschinen platziert wird, ist die Qualität und Menge der Links, die von anderen Internetseiten auf eine Website führen. Links zur eigenen Website aus einem oder mehreren Google Plus Profilen (Personen- oder Unternehmens-/Markenprofile) sowie aus Beiträgen heraus wirken sich daher positiv auf die Platzierung in den Suchergebnissen aus.

Das Profil einer Markenseite bietet im Intro- und im
Empfohlene-Links-Bereich Möglichkeiten, Links zu setzen


Auch die Google Plus Personenprofile und Unternehmensseiten (Google Plus Pages)tauchen in den Suchergebnissen auf. Je nachdem aus welchem Blickwinkel man das betrachtet, können sie als "Konkurrent" in der Suchergebnisliste angesehen werden oder als Unterstützung, sichtbarer zu werden (schließlich besetzt man auf die Weise mehr Platz in den Suchergebnissen).

Seit der Einführung von Google's +1-Knöpfen/-Plaketten (Badges), mit denen man auf Webseiten sein Gefallen bekunden kann (wenn der Webmaster sie eingebaut hat - www.google.com/intl/de/webmasters/+1/button/ oder man den Google-Browser Chrome mit der +1-Erweiterung benutzt), bezieht Google diese +1-Bewertungen in die Google-Suche ein. Das heißt: Viele Gefallensbekundungen wirken sich positiv auf die Platzierung in den Google-Suchergebnissen aus. Die Google Plus Unternehmens-/Markenseiten sind automatisch mit einem +1-Knopf ausgestattet.

Seit es Google Plus gibt, bietet Google nun auch Plaketten (Badges) an, mit denen man auf der Firmen-Website für den Auftritt (Personenprofil oder Unternehmens-/Markenseite) bei Google Plus werben kann - was natürlich auch eine schöne Werbung für Google Plus ist - das ist ja auch legitim, schließlich nimmt man kostenlose Dienste in Anspruch. Auch auf diesen Badges gibt es einen +1-Knopf, die Gefallsbekundungen gelten dann aber für die entsprechende Seite bei Google Plus. Es gilt also, alle Knöpfe/Badges so zu platzieren, dass Seitenbesucher nicht verwirrt oder irritiert werden - wenn man alle Arten von Badges einbauen möchte (schließlich sollen die Kunden sowie der Freiberufler/das Unternehmen die Nutznießer sein). Zur Info: Auf den Badges sind außerdem Felder, mit denen man das beworbene Google Plus Profil bzw. die beworbene Google Plus Unternehmensseite seinen Kreisen hinzufügen kann sowie ein Link zum Stream des beworbenen Google Plus Auftritts.

Google Plus als soziales Netzwerk mit aktuell ca. 50 Millionen Teilnehmern weiß, wer mit wem vernetzt ist und wer was gut findet (durch die +1-Gefallensbekundungen für Internetseiten und auf den Google Plus Unternehmens-/Markenseiten). Auch diese Informationen beeinflussen inzwischen die Suchergebnisse, die die Google-Suche ausspuckt. Was jemand, mit dem man vernetzt ist, mit +1 bewertet hat, wird in den Suchergebnissen entsprechend gekennzeichnet (zumindest wenn man bei Google eingeloggt ist) und möglicherweise auch anders platziert. Jemand, der stark vernetzt ist, hat also viel Einfluss (leider spielt es dabei keine Rolle, weswegen man mit der Person überhaupt vernetzt ist und ob die Suchanfrage überhaupt etwas mit diesem Thema zu tun hatte).

Bei all den Chancen, die Google-Produkte bieten, sollte man sich nicht zu abhängig machen - das gilt vor allem für die Google-Suche und für Google Plus. Zum einen kann das Unternehmen jederzeit die Spielregeln ändern, zum anderen könnten dem Unternehmen (und anderen Quasi-Monopolisten) durch Regulierungsbehörden andere Spielregeln aufgezwungen werden - was aus Sicht der Nutzer und Webseitenbetreiber (Freiberufler und Unternehmen) eher positiv zu bewerten wäre. Ein weiterer Gesichtspunkt, der dazu kommt: Google scheint zunehmend mehr auf große Marken als auf kleine Unternehmen und Publisher zu setzen - eines von vielen Anzeichen ist, dass nun auch Posts von Google+ Unternehmensseiten ausgewählter großer Marken in den Suchergebnissen vertreten sind.

Nachtrag am 20.01.2012
Wer einen Google-Account anlegt, bekommt jetzt automatisch einen Gmail Account und ein Profil und tritt Google+ bei.

Sonntag, 30. Oktober 2011

Google: Panda-Alarm

panda-vgwort

Googles Problembär macht Webseitenbetreibern und Bloggern das Leben schwer.

Schon das ganze Jahr über herrschte Panda-Alarm: In regelmäßigen Abständen wurden Webseitenbetreiber und Blogger von Meldungen aufgeschreckt, dass Google demnächst wieder eine Veränderung des Suchalgorithmus (ein so genanntes "Panda Update") ausspiele und damit sicher geglaubte Positionen in den Suchmaschinenergebnissen gefährdet seien. Und immer wieder wurden die SEO-Tipps von Google und den vielen SEO-Blogs wiedergekäut, mit denen man sich gegen eine schlechtere Positionierung wappnen könne.

Jeder, der nicht gerade eine Content-Farm (Website mit dünnem/minderwertigem Content und viel Werbung) betreibt, begrüßt es natürlich, wenn Google den Suchmaschinen-Algorithmus der Google-Suche optimieren will - auch ich: Immerhin kommen über 90 Prozent der Seitenbesucher, die über eine Suchmaschine zu meinen Seiten finden, über die Google-Suche. Doch die bisherigen Panda Updates haben gezeigt, dass nicht jede Veränderung der Suchmaschinenergebnislisten (SERPs, Search Engine Results Pages, genannt) diese tatsächlich verbessert haben. Oft genug trifft das Fallbeil nicht Content-Farmen, sondern "Unschuldige".

Panda Update: Ach, schon wieder?

Bisher sind diese Google Panda Updates an mir bzw. meinen tinto-Projekten spurlos vorübergegangen. Manchmal habe ich zwar einen leichten Rückgang bemerkt, aber der hat sich immer wieder verwachsen - die Ursache kann also auch woanders gelegen haben. Doch seit dem 14. Oktober 2011 ist mir das Lachen vergangen: Von einem Tag auf den anderen ist die Zahl meiner Besucher über Suchmaschinen um 40 Prozent zurückgegangen und meine sowieso geringen Adsense-Einnahmen sind um ca. 60 Prozent gesunken. Warum? Weiß ich nicht. Eine Recherche ergab, dass Matt Cutts am 14. Oktober 2011 in einem Tweet bestätigte, dass es am Vorabend ein kleineres Panda Update gegeben hatte.

Der zähe Kampf um Googles Gunst

Meine ältesten Webseiten sind seit 13 Jahren im Netz. In ihren Anfangszeiten gab es zu meinen Themen noch kaum andere deutschsprachige Informationsseiten, weswegen sie überall verlinkt wurden. Ich engagierte mich außerdem in Foren, um meine Webseiten bekannt zu machen, und ich schrieb Bücher zu den jeweiligen Themen, die auch bekannt wurden. (Manchmal waren auch erst die Bücher da und danach baute ich die Webseiten.)

Dann konnte ich die Webseiten aus beruflichen Gründen ein paar Jahre lang nur gelegentlich pflegen, aber nicht weiter ausbauen. Dass damals die Besucherzahlen abnahmen, verstand ich - das hatte ich ja schließlich nicht anders "verdient".

Doch seit ca. 18 Monaten arbeite ich hart an der Aktualisierung und Erweiterung der verschiedenen Themenbereiche (Garten, Geld & Börse etc.) meiner Website. Zuerst überarbeitete ich vor allem den Content (Texte und Bilder) - es heißt doch immer seitens Google: "Content ist King". Nach jeder Bearbeitung erwartete ich den Durchbruch: einen der vorderen Plätze in den SERPs und als Folge davon ein paar Werbeeinnahmen. Doch nichts passierte bzw. die Verbesserungen waren im Verhältnis zum Aufwand minimal. (Einfacher verlief die gezielte Platzierung von Blog-Postings, was sich allerdings monetär kaum auswirkte.)

Als nächstes begann ich, mich mit der Suchmaschinenoptimierung (SEO) auseinanderzusetzen - schraubte, feilte, feilte noch mal ... wartete wieder auf den Durchbruch. Doch wieder passierte nichts. Erst nach Wochen zeigten sich bei einigen Schlüsselwörtern/Suchwort-Kombinationen leichte Verbesserungen, nach Monaten hatte ich einige neue gute Plätze in den SERPs ergattert.

Nach 18 Monaten kam ich zu dem Schluss, dass ich im Prinzip wohl auf einem guten Weg sei - er dauere nur wahrscheinlich länger, als ich gedacht hatte. Aber ich kann zäh sein, wenn ich das Licht am Ende des Tunnels sehe.

Dann kam der 14. Oktober und ich wurde auf den Stand von vor 12 Monaten zurückgeworfen. Einfach so.

Seit dem 14. Oktober 2010 zerbreche ich mir den Kopf, was ich falsch gemacht habe:

  • Zu wenig Content?
    Zu wenig Inhalt kann nicht der Grund sein, denn ich habe teilweise sehr lange Texte und meistens Bilder zu den Artikeln. 
  • Probleme mit der Content-Qualität?
    Auch wenn vielleicht noch nicht jede Seite perfekt ist, nehme ich doch in Anspruch, dass meine Webseiten qualitativ hochwertigen Content, verständlich aufbereitet und von guter sprachlicher Qualität und Rechtschreibung bieten. 
  • Zu viel Werbung?
    Auch das kann nicht der Grund für die Abstrafung gewesen sein, denn immer wieder fordert mich Adsense dazu auf, doch mehr Adsense-Werbung auf meine Seiten zu setzen. 
  • Canonical Tags falsch gesetzt?
    Tatsächlich hatte ich kurz vor dem Einbruch an meinen Canonical Tags geschraubt - wieder in der Hoffnung auf einen Durchbruch. Die habe ich in der Zwischenzeit wieder zurückgesetzt, doch die Lage hat sich nicht verbessert. 
 Manchmal werde ich bei der Suche nach dem Grund für die Abstrafung durch Google schon richtig paranoid und ich frage mich, ob Google mich schlechter positioniert, weil ich auch anderen Werbepartnern Werbeplätze gebe. Oder vielleicht, weil ich den Google+-Button noch nicht überall eingebaut habe? Oder weil ich auch mal kritisch über das Google Monopol schreibe? Oder habe ich das bösen Mitbewerbern zu verdanken - haben die vielleicht auf von Google negativ bewerteten Seiten massenhaft verlinkt, damit ich abgewertet werde? Tatsächlich fand ich kürzlich bei einem Backlinkcheck tinto-Seiten auf mehreren polnischen und anderen osteuropäischen Seiten, die ich nicht kenne, verlinkt.

Google - was nun?

Bei aller Bewunderung für die Kreativität der Entwickler und für die unternehmerische Leistung von Google, frage ich mich zunehmend, ob es richtig ist, dass ein einzelnes Unternehmen ein Quasi-Monopol auf die Suche im Internet besitzen darf: Wie ein Torwächter kann Google die Sichtbarkeit jeder Webseite und jedes Blogs weltweit im Internet kontrollieren - und für die Sichtbarmachung entweder eine Art Wegezoll kassieren (Adwords) oder Regeln aufstellen und einfordern, die nicht überprüfbar sind (keine Transparenz, kein Schutz vor Böswilligkeit) bzw. deren Einhaltung man nicht einklagen kann.

Mein Fazit ist, dass ich - neben ein paar kleineren SEO-Anpassungen - vor allem versuchen werde, die Abhängigkeit von Google zu verringern: mehr Facebook, mehr Twitter, mehr XING, mehr Traffic über Verlinkungen, mehr Zusammenarbeit und Vernetzung mit anderen Webseiten und Blogs, mehr Einträge in Portalen etc.

Im März 2001 wurde das Telekom-Monopol aufgebrochen - ist so etwas nicht auch auf Google und seine Vormachtstellung anzuwenden oder schieße ich damit über das Ziel hinaus? Ich freue mich über Ihre Meinung in den Kommentaren.

Dienstag, 27. September 2011

Browser - vom Single-Browser-User zum Multi-Browser-User

Praktisches, Privatsphäre, Suchergebnislisten/Filterbubble, trackende Netzwerkebrowser-vgwort

Browser - es kann nur einen geben?

Für manch einen ist die Wahl des Internet-Browsers eine Frage der Weltanschauung. Ich bin da schon immer eher pragmatisch und ein Out-of-the-Box-User - d. h. ich kaufe mir gerne fertige Hardware-Software-Pakete und fange sofort mit dem Schreiben an, ohne Installationsaufwand. Da Windows und Internet Explorer bei meinen Notebooks immer schon dabei waren, hab ich mir um den perfekten Browser nie einen Kopf gemacht: Internet Explorer war da und Internet Explorer habe ich genutzt.

Trend zum Zweit-Browser

Erst als ich einen Fernkurs in Programmierung (-> meine Harvard-Fernkurs-Erfahrung) machte, musste ich mich zwangsläufig um das Thema Browser kümmern, denn die programmierten Webseiten sollten in jedem Browser gleich aussehen. Ein schwieriges Unterfangen (weil jeder Browser HTML-Code anders interpretiert - besonders bockig ist da der Internet Explorer), worauf ich hier aber nicht näher eingehen will, sondern darauf, dass ich nähere Bekanntschaft mit anderen Browsern machte - und das war gut so.

Am Mozilla-Browser Firefox begeisterten mich sofort die vielen Add-ons (Erweiterungen), besonders die, die bei der Webseitenprogrammierung helfen (Firebug, Live HTTP Headers und viele andere). Später kamen die Add-Ons für die Suchmaschinenoptimierung (Seach Engine Optimization, SEO) - z. B. das SEOQuake-Add-On hinzu. Safari und Opera dagegen haben bei mir zunächst keinen bleibenden Eindruck hinterlassen.

Mein Haus- und Hof-Browser für den Alltag blieb allerdings der Internet Explorer, denn die bei mir permanent aktivierten Add-Ons des Firefox verlangsamen natürlich seinen Seitenaufbau, weil zusätzliche Informationen von zusätzlichen Servern geholt und verarbeitet werden müssen. Außerdem nutzten meine Seitenbesucher überwiegend den Internet Explorer und ich wollte meine Webseiten bzw. das Internet so sehen wie sie.

Browser - aller guten Dinge sind mindestens drei!

Die nächste Änderung in meiner Browser-Nutzung kam mit Google Plus. Auch hier waren es vor allem die Erweiterungen (die das Google+-Nutzererlebnis verbesserten), die mich dazu brachten, Chrome dauerhaft zu installieren.

Als ich dann durch Artikel über die Veränderung des Netzes allgemein, über das User Tracking (Google Suche, Google Adsense und andere Werbenetzwerke) und speziell über die Datenschutzproblematik mit Facebook noch stärker sensibilisiert wurde, was die Dominanz und die Daten-Saugkraft mancher (Social-Media-) Plattformen betrifft, habe ich mich für einen vierten Browser entschieden: Opera.

Nachtrag: Nachdem ich im Frühjahr 2014 Malware, darunter einen Sparkassen-Trojaner auf dem Rechner hatte, habe ich auch noch Safari als fünften Browser installiert.

Welchen Browser für was nutzen?

Ich habe mich also vom Single-Browser-User zum Multi-Browser-User entwickelt. Und auf jedem Browser nutze ich auch eine andere Suchmaschine.

Die Browser meiner Wahl, die täglich auf meinem Notebook im Einsatz sind:

  • Internet Explorer
    Internet Explorer ist für mich immer noch mein Alltagsbrowser: für Twitter, Xing und Internet-Recherchen (aber ich lösche die Cookies regelmäßig, nutze die Google-Suche nur selten und ohne Anmeldung, sondern statt dessen Bing oder andere Suchmaschinen/Suchsysteme wie metager.de).
  • Firefox
    Firefox nutze ich hauptsächlich für die Webseitenerstellung und für SEO-Checks, aber auch für Recherchen. Wenn ich eine Suchmaschine benötige, nehme ich eine der vielen Alternativen zu Google.
  • Google Chrome
    Chrome nutze ich ausschließlich für Google+ und andere Google-Produkte (Google Analytics, Adsense, Reader, E-Mail mit Buzz etc.). Als Suchmaschine nutze ich nur in diesem Browser die Google-Suche mit Anmeldung.
  • Opera
    Opera ist jetzt mein Facebook-Browser - und zwar ausschließlich. Dort nutze ich nur die Facebook-interne Suche.
  • Safari
    Seit ich einen Sparkassen-Trojaner hatte - keine Sorte, es ist nichts passiert - nehme ich Safari für das Online-Banking in der Hoffnung, dass dieser Außenseiter-Browser weniger die bösen Hacker anlockt.

Browser und Social Media - Privatsphäre

Wie oben schon angesprochen, kann Social Media bzw. der Schutz der Privatsphäre bei deren Nutzung ein guter Grund sein, mehr als einen Browser zu nutzen.

Will man nicht, dass Facebook weiß, wo man außerhalb von Facebook rumsurft, sollte man sich grundsätzlich ausloggen, wenn man Facebook verlässt, denn sonst meldet jede Webseite, die den dynamischen Like-Button eingebaut hat, wo man ist, und Facebook speichert die Information, nutzt sie zur Profilerstellung und vermutlich für seine und Drittanbieter-Werbung. Ähnliches gilt auch für Google/Google+ und manche anderen trackenden (Social-/Werbe-) Anwendungen.

Interessant in dem Zusammenhang ist ein Artikel über die Veränderung des Netzes (It's the end of the web as we know it) mit einem Link darin zu einem Artikel über Facebook (Logging out of Facebook is not enough).

Manche Internetnutzer gehen einen anderen Weg als ich mit meinen 4 5 verschiedenen Browsern (und verschiedenen Suchmaschinen) und versuchen, einen Browser für ihre private Nutzung völlig clean zu halten, indem sie sich mit diesem Browser nie irgendwo einloggen, alle Cookies regelmäßig löschen und den Browser in regelmäßigen Abständen sogar komplett deinstallieren und neu installieren.

Doch bieten Browser auch Schutzfunktionen: Nutzt man bei Internet Explorer "InPrivat", werden keine Daten über die Browsersitzung gespeichert - keine Cookies, keine temporären Internetdateien, Verläufe etc. (Allerdings wurde Google vor kurzem vorgeworfen, solche Nutzereinstellungen ignoriert zu haben - ob das stimmt, kann ich nicht beurteilen). Eine ähnliche Privat-Funktion gibt es auch bei Mozilla (privater Modus), Opera (privater Tab) und bei Chrome (Inkognito-Fenster). Für Chrome und Firefox gibt es außerdem Erweiterungen, die man installieren kann, damit sie verhindern, dass Facebook, Google, Twitter etc. ihre Tracking-Cookies ablegen (siehe Facebook is tracking ...).

Browser bieten Privatsphare-Schutz - erreichbar
über einen Klick mit der rechten Maustaste
auf das Browsersymbol in der Taskleiste

Browser und Social Media - Suchergebnislisten

Die Vernetzung mit anderen Teilnehmern bei Google+ und über andere Google-Produkte schlägt sich über den Google-Suchalgorithmus auf die Google-Suchergebnislisten nieder. Suche ich beispielsweise nach einem politischen Thema, dann wird mir auf Platz 1 der Suchergebnisse angezeigt, was jemand, mit dem ich bei Google+ über ein fachliches Themen diskutiert habe, zu diesem politischen Thema geteilt hat. Aber will ich das?

Vernetzung ist doch nicht gleich Vernetzung - mit dem einen tausche ich mich über das Schreiben, mit dem anderen über Garten, mit wieder anderen über Suchmaschinenoptimierung, Datenbanken oder Existenzgründung aus.

Es stört mich inzwischen schon innerhalb von Google+, dass ich von Leuten, die ich fachlich in einem bestimmten Thema sehr schätze, ständig politische Ansichten lesen muss, die ich teilweise überhaupt nicht teile, und dies nicht abstellen kann, will ich nicht auch den fachlichen Kontakt im Netzwerk verlieren. Ich möchte aber auch nicht, dass meine Suchergebnisse von Vernetzungen beeinflusst werden. Erst wenn der Social Graph nach Interessen aufgesplittet werden würde, würde das überhaupt einen Sinn machen - wenn man es denn überhaupt mag.

Zum Thema Digitale Deutungshoheit - Die Macht der Vernetzung hat sich Sascha Lobo ein paar interessante Gedanken gemacht. Jedenfalls: Vor ein paar Wochen stand ich der Social-Komponente im Suchalgorithmus noch skeptisch bis leicht ablehnend gegenüber, weil ich dachte, da schwimmt dann jeder in seiner eigenen Suppe (gleiche einseitige Sicht der Welt mit seiner Peergroup), aber inzwischen macht mir diese nicht qualifizierte Macht, die manche aufgrund ihrer starken Vernetzung erhalten, auch Angst - eine Macht die auf Vernetzungsquantität statt Vernetzungsqualität (in Bezug auf das gesuchte Thema) basiert.

Ich bevorzuge beim Googlen/Recherchieren i. d. R. eine "social-unbeeinflusste" Suchergebnisliste, denn ich will nicht in einer Filterbubble leben - es reicht doch schon, dass das menschliche Gehirn selektiv wahrnimmt, da will ich nicht auch noch eine Suchmaschine, die nach einem Algorithmus, den ich nicht kenne, vorsortiert - aber das muss jeder selbst entscheiden. Für mich ist dies jedenfalls auch ein Grund, warum ich nicht mehr mit dem Browser google, mit dem ich Google+ und andere Google-Produkte nutze, sondern einen anderen Browser verwende und/oder ich nutze oben beschriebenes InPrivat-Browsen (bzw. Inkognito-Fenster, privaten Modus etc.). Aber abgesehen davon, gibt es ja auch noch andere Suchmaschinen als Google (Bing.com, Duckduckgo.com, StartPage.com etc.) und es gibt Meta-Suchmaschinen (z. B. www.metager.de). Darüberhinaus nutze ich das Opt-Out-Verfahren, das von der Network Advertising Initiative (NAI) angeboten wird, um nicht ständig mit Werbung bombadiert zu werden, die mit einem Thema zusammenhängt, das ich kürzlich mal gesucht oder bei dem ich Werbung angeklickt habe, das mich aber heute nicht mehr interessiert.

Mein Browser-Fazit


Es gibt gute Gründe, mehr als einen Browser zu nutzen:

  • Effizienteres Arbeiten, wenn jeder Browser entsprechend seiner Vorteile eingesetzt wird
  • Schutz der Privatsphäre
  • Suchergebnislisten ohne Social-Komponente
  • Mit anderen Maßnahmen zusammen: um interessenbezogene Werbung zu verhindern
Ich finde es zudem praktisch, dass man durch den Einsatz verschiedener Browser etwas mehr Überblick in der Taskleiste hat, weil man durch die Browser-Aufgaben-Zuordnung eine Vorsortierung hat.

Wer hat weitere Browser-/Privatsphäre-Tipps oder eine andere Meinung? Bitte nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

Das könnte Sie auch interessieren:

Sie suchen Werbeplatz in diesem Blog oder eine Technische Redakteurin/Autorin/Texterin zu Software-, Informatik- oder Internetthemen für Ihre Website, ein Buchprojekt, ein Kundenmagazin o. Ä.? Schreiben Sie mir!