Posts mit dem Label Google+ werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Google+ werden angezeigt. Alle Posts anzeigen

Montag, 24. Juni 2019

Suchmaschinenoptimierung (SEO) für Blogs

Blogs-bekannt-machen-vgwortTipps und Erfahrungen zur Suchmaschinenoptimierung (Search Engine Optimization, SEO) bei Blogs. (erste Veröffentlichung 2011, ergänzt 2019)

SEO für Blogs - warum überhaupt?

Wer schreibt, möchte in den meisten Fällen auch gelesen werden. Es reicht nicht, wenn der Blog oder ein Blogpost von Suchmaschinen indexiert wird, sondern es kommt darauf an, an welcher Stelle er in den Suchergebnissen (Search Engine Results Pages, SERPs) auftaucht. Was nicht auf der ersten Seite gelistet wird, wird kaum gelesen. Das gilt nicht nur für Blogs, sondern auch für Websites und Homepages.

Abhandlungen über Suchmaschinenoptimierung gibt es bereits genug. Hier sind meine persönlichen Tipps (die ich zwar auch nicht immer einhalte, doch wenn, dann zeigen sie Erfolg und bringen mich in den Suchergebnissen regelmäßig weit nach vorne):

SEO für Blogs - Überblick

Beeinflussen kann man die Position in den Suchergebnissen durch Maßnahmen der Suchmaschinenoptimierung (Search Engine Optimization, SEO) für Blogs bzw. Websites und Homepages.


SEO für Blogs, Websites und Homepages: Mit den richtigen Maßnahmen
schafft man es auf die vorderen Plätze

Grundsätzlich unterscheidet man bei SEO für Blogs genauso wie bei SEO für Websites und Homepages:
  • SEO - Onsite
    Maßnahmen, die sich auf der eigenen Webpräsenz (Blog, Website, Homepage) abspielen. Auf eine einzelne Webseite oder einen einzelnen Blogartikel bezogen, nennt sich das dann Onpage-Suchmaschinenoptimierung.
  • SEO - Offsite
    Maßnahmen, die sich außerhalb der eigenen Webpräsenz abspielen 

SEO für Blogs: Onsite-SEO

  1. An Suchmaschinenoptimierung bereits während der Brainstorming-Phase denken
    Als AutorIn wird man zwar oft von einem Thema gepackt und muss es dann umsetzen. Doch wenn man im Internet, in einem Blogpost oder auf einer Webseite veröffentlichen und Leser erreichen will, sollte man nach dem ersten Brainstorming klar darauf fokussieren, für wen man schreibt (Zielgruppe) und welche Stichwörter (Keywords) dieser Personenkreis in einer Suche benutzen würde, wenn er/sie meine Informationen finden will. 
  2. Keyword Tool benutzen
    Die in Schritt 1 gefundenen Keywords sollte man mit einem Keyword Tool überprüfen. Google bietet ein Keyword Tool, welches anzeigt, wie oft ein Keyword benutzt wird, wie gut das Thema bereits im Internet abgedeckt ist u. v. m. Am besten ist, man richtet sich bei Google ein Google Adwords-Konto ein, denn dann hat man Zugriff auf die "Profi-Version" des Keyword Tools mit erweiterten Filtermöglichkeiten.
    Am Ende sollte man sich auf ein oder mehrere Keywords/Keywordskombinationen festlegen.

    SEO für Blogs - Tipp 1
    Anzeige


    Am Anfang habe ich zwei Fehler gemacht: 1. Ich habe möglichst viele Keywords (Schlüsselwörter) oder Keywordskombinationen ausgewählt und in den Text gepackt. 2. Ich habe Keywords ausgewählt, für die es besonders viele Suchanfragen gab. Beides funktionierte nicht! Zu 1.: Nur wenn der Blog/Blogpost besonders gut auf ein Keyword bzw. eine Keywordkombination passt, wird er weit vorne in den Suchergebnissen platziert - das schafft man aber nur, wenn man sich auf wenige Keywords bzw. Keywordkombinationen konzentriert. Zu 2.: Bei Keywords, die besonders häufig angefragt werden, handelt es sich meist um Einwort-Begriffe ("Geld", "Garten" etc.), für die die Konkurrenz riesig ist - und viele der Konkurrenten haben alte, hoch gerankte Domains, gegen die man als kleiner Blog kaum anstinken kann (es sei denn man hat selbst einige solcher Domains zur Hand, die auf den kleinen Blog linken). Meiner Erfahrung nach ist es besser, zusammengesetzte Keywords/Keywordkombinationen zu wählen, bei denen es bisher eher wenige Mitbewerber gibt (diese und weitere Informationen erhält man alle durch das Google Keyword Tool), und sich auf ein bis zwei Keywordkombinationen zu beschränken.
  3. Das wichtigste Keyword bzw. die Keyword-Kombination ist im Idealfall mit dem Blog-Domainnamen/Subdomainnamen identisch und/oder im sonstigen (möglichst kurzen) Pfad und/oder Dateinamen möglichst weit vorne enthalten.
  4. Das wichtigste Keyword/Keywordkombination sollte im Titel (Title-Tag innerhalb der Head-Tags) ganz vorne stehen.
    Der Titel ist das, was oben in der Titelleiste angezeigt wird.
  5. Das wichtigste Keyword/Keywordkombination sollte in der Beschreibung (Meta-Tag Description) ganz vorne stehen. Diese Beschreibung wird oft in den Suchergebnissen angezeigt. Wenn die Schlüsselwörter darin enthalten sind, zeigt das dem Suchenden, dass er gefunden hat, was er sucht. 
  6. Das wichtigste Keyword/Keywordkombination sollte nach Möglichkeit in der Hauptüberschrift und möglicherweise in Zwischenüberschriften ganz vorne platziert werden. Überschriften sollten - wenn möglich - mit den entsprechenden Tags (h1, h2 ...) oder wenigstens mit Fettdruck ausgezeichnet werden.
  7. Das wichtigste Keyword/Keywordkombination sollte mit einem Bild-/Video-Dateinamen identisch sein und in dessen Alt- und Title-Text möglichst vorne auftauchen.
  8. Das wichtigste Keyword/Keywordkombination sollte in der Bildunterschrift enthalten sein.
  9. Das wichtigste Keyword/Keywordkombination sollte oft, aber auch nicht zu oft im Text enthalten sein.
  10. Das Thema eines Blogposts sollte ausführlich textlich behandelt werden - auch wenn im Mittelpunkt vielleicht eine Applikation (Bankenvergleich, BMI-Rechner ...), ein Film (animiertes GIF, Flash, Video ...) o. ä. steht.
  11. Den Text mit Zwischenüberschriften (die Keyword/Keywordkombinationen enthalten) und Listen gliedern.
  12. Keywords/Keywordkombinationen vereinzelt im Text auszeichnen (z. B. durch Fettdruck)
Die Herausforderung für den Online-Redakteur/Blogger besteht darin, den Text so zu verfassen,
  • dass er trotz aller SEO-Maßnahmen angenehm für den Leser zu lesen ist und
  • dem Leser einen Mehrwert bringt,
    so dass er den Artikel/Blogpost
    • positiv bewertet (Like etc.),
    • die positive Erfahrung mit anderen teilt (Facebook-Share, Retweet/Twitter etc.),
    • den Artikel in seine Favoritenliste oder
    • in die Social Bookmarks aufnimmt (Mister Wong, Delicious etc.)
  • und den Leser so zum Wiederkehren animiert etc.

SEO für Blogs - Tipp 2
Auf blumige oder bildhafte Sprache im Titel und in den Überschriften verzichten - zugunsten der Keywords.

SEO für Blogs - Tipp 3
Meiner Erfahrung nach hat man mit langen Texten, die das Thema sehr ausführlich beleuchten und dazu noch gut mit Bildern, Grafiken und langen Listen ausgestattet sind (ohne dass die Ladezeit zu lang wird), die besten Chancen auf einen vorderen Platz.

Es müssen nicht immer alle Tipps umgesetzt werden - äußerst wichtig sind meiner Erfahrung nach aber der Titel (Title-Tag), die Beschreibung (Meta-Tag Description) sowie die Hauptüberschrift.

SEO für Blogs: Offsite-SEO

Vor allem Linkaufbau (Backlinks, Linkbuilding) spielt bei den Offsite-Aktivitäten der Suchmaschinenoptimierung eine wichtige Rolle. Mehr dazu bei Blogs bekannt machen

SEO für Blogs - Tipp 4
Meiner Erfahrung nach braucht es manchmal viel Geduld und Nachfeilen, bis der Blogpost oder die Webseite weit vorne gelistet wird. Das ist immer auch eine Frage der Konkurrenz. Apropos Konkurrenz: Es lohnt sich zu schauen, welche SEO-Maßnahmen die Konkurrenz anwendet - das inspiriert manchmal zu neuen Ideen.

SEO verändert sich

Eine Garantie, dass man mit diesen SEO-Maßnahmen in den Suchmaschinenergebnissen nach vorne kommt, gibt es nicht. Google bewertet zunehmend auch das Nutzerverhalten auf einer Seite (weswegen neben guten Inhalten auch die Usability/Nutzererfahrung wichtig ist). Auch wird Nutzern häufig nicht eine "neutrale" Suchergebnisliste, sondern individuelle/personalisierte Suchergebnisse präsentiert. Google schraubt permanent an seinem Such-Algorithmus und anderen Aspekten der Suche, daher muss man die Enwicklung der SEO im Auge behalten (Blog bekannt machen - Fortsetzung).

Wie man erreicht, dass man auf den Suchergebnisseiten und in der Vorschau bei verschiedenen Sozialen Netzen besonders einladend dargestellt wird, erläutert Carola Heine im Buch Blogging für Profis: Blogpost-Anatomie - Content Hacks to go 1* (zur Buchvorstellung und Review) erläutert.

* Werbelink

Mit welchen Maßnahmen habt Ihr/haben Sie gute Erfahrungen gemacht? Bitte nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen oder Meinung hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

Das könnte Sie auch interessieren:

Sie suchen Werbeplatz in diesem Blog oder eine Technische Redakteurin/Autorin/Texterin zu Software-, Informatik- oder Internetthemen für Ihre Website, ein Buchprojekt, ein Kundenmagazin o. Ä.? Schreiben Sie mir!

Montag, 22. Januar 2018

Das YouTube Partnerprogramm ändert die Regeln! Drum prüfe, wer sich bindet.

Hier zeigt sich einmal mehr, wie ausgeliefert Nutzer/Kunden gegenüber Unternehmen - besonders den großen Internetplayern - sind, in diesem Fall geht es um YouTube Content schaffende Personen (YouTube Creators, Vlogger, YouTuber), die am YouTube-Partnerprogramm (YPP) teilnehmen. Aber das Prinzip ist immer das gleiche: Unternehmen locken auf ihre Plattformen mit Einnahmemöglichkeiten, kostenlosen Diensten oder anderen Vorteilen. Der interessierte Urheber/Kreativschaffende investiert Zeit und Geld ins Erlernen, in das Equipment und die Produktion von Content, in diesem Fall Video-Content. Dann nach einiger Zeit ändert das Unternehmen die Spielregeln und viele der UrheberInnen schauen plötzlich ins Ofenrohr.

Eva Schumann YouTube Channel
Als YouTuberin, die erst einige Video-Testballons hat fliegen lassen, werde ich in Kürze - wie viele Tausende anderer YouTube Creators - aus dem YouTube Partnerprogramm geworfen. Nur 1.000 neue Abonnenten bis Mitte Februar könnten mich noch retten - wie witzig. Schauen Sie trotzdem mal bei meinem YouTube Kanal vorbei, kommentieren Sie Videos, verteilen Sie Däumchen-hoch und abonnieren Sie den Kanal.
YouTube ist ein Tochterunternehmen von Google (und dieses von Alphabet). Google hat am 16. Januar 2018 angekündigt, dass nur noch am YouTube Partnerprogramm teilnehmen darf, wer in den letzten 12 Monaten mindestens 4000 Stunden Wiedergabezeit schaffte und außerdem 1.000 Abonnenten hat. Alle anderen fliegen demnächst raus und verlieren damit die Möglichkeit, ihren Content über das YPP (in Kombination mit Google Adsense) zu monetarisieren - sprich ein paar Cents mit Werbung in oder neben ihren Videos zu verdienen. Es ist zu vermuten, dass diese "unqualifizierten" YouTube Creators mit der Zeit auch immer weniger sichtbar werden, denn warum sollte YouTube Videos von ihnen zeigen, wenn sie nur an den Werbeeinnahmen der "qualifizierten" Geld mitverdienen können (die Werbeeinnahmen werden zwischen dem YouTube Creator im YPP und YouTube aufgeteilt). Es wird also noch schwieriger, sich "hochzuarbeiten".

Fairness ist etwas anderes

Ich persönlich hätte Verständnis für eine Regeländerung gehabt, wenn diese neuen Regeln für Neuaufnahmen ins YPP eingeführt werden würden - die Neuzugänge hätten von Anfang an gewusst, worauf sie sich einlassen. Aber wir haben angefangen, als andere Regeln galten und nun werden tatsächlich alle kleinen YouTube Creators zum 20. Februar 2018 aus dem YouTube Partnerprogramm geworfen und damit von der Monetarisierung ausgeschlossen. Auch wer, wie ich, auf die Kombination von Google Adsense für Blogs und andere Webseiten und YPP für die YouTube-Videos gesetzt hat, fliegt beim YPP raus - obwohl ich bei Google Adsense durch die sehr lange Partnerschaft nicht so unbedeutend bin, wie mit meinen ersten YouTube-Video-Versuchen.

Google verspielt Vertrauen

Google hat mit den neuen Regeln des YPP viele kleine YouTube Creators vor den Kopf gestoßen, die sich nun ihrer Chancen beraubt fühlen (bei Twitter kann man die Diskussionen verfolgen: #YouTube, #YPP, #YouTubePartnerProgram, #YouTubeSuckt etc.)

Google tut immer so, als sei das Unternehmen an der Zufriedenheit der Videoschaffenden und Content-Veröffentlichenden (Publisher) interessiert, so wird man als TeilnehmerIn von Google Adsense ständig nach Feedback gefragt und ob/wer Google bei der Monetarisierung Konkurrenz mache. Die Antwort liegt meiner Meinung nach auf der Hand: Google sollte an seiner Vertrauenswürdigkeit arbeiten, indem das Unternehmen Urheber/Content-Schaffende fair behandelt und Spielregeln nicht nachträglich und relativ kurzfristig ändert, wo es keine Not dafür gibt. Abgesehen davon sollte das Unternehmen mehr auf Mindestqualitätsansprüche statt auf Click Baiter setzen, die mit möglichst abartigen Titeln und Inhalten nach Zuschauern fischen, und auch gegen Contentklauer zum Schutz der Urheber besser vorgehen. Das hohe Auszahlungslimit bei Google Adsense, über das auch die Einnahmen aus dem YPP abgerechnet werden, finde ich auch grenzwertig - andere Partner- und Affiliate-Programme setzen ihre Auszahlungslimits niedriger an (Google Adsense: 70 Euro versus Affilinet: 25 Euro, Amazon.de: 50 Euro, Awin: 20 Euro).

Alternativen zum YPP für kleine YouTube Creators und andere Video-Content-Schaffende

Ich sehe vor allem folgende Möglichkeit, als Vlogger/YouTuber/Video Creator doch noch Einnahmen mit (YouTube-)Videos zu generieren. Man kann
Anzeige

  • seine Videos in eigene Blogbeiträge im eigenen Blog oder in andere Webseiten einbauen. Den notwendigen Code kann man bei YouTube, Vimeo, DailyMotion oder anderen Videoplattformen, auf denen man seine Videos veröffentlicht, unter "Teilen/Einbetten" generieren. Um das eigene Video herum kann man auf eigenen Webseiten weiteren selbst erzeugten und relevanten Content sowie Werbung nach Geschmack (Google Adsense, Amazon, Affilinet, etc. oder für das eigene Fanprodukte-Angebot ["Merch"]) für Web-/Mobile Nutzer platzieren. In Zukunft bewirbt man eben nicht mehr das Video direkt auf der (YouTube) Plattform, sondern den Blogbeitrag oder die Webseite, auf welcher man das Video eingebaut hat.
  • versuchen, Sponsoren für seine Videos zu finden - ist man damit erfolgreich, muss man das allerdings im Video kenntlich machen, sonst wäre das Schleichwerbung.
  • in die Informationen zu den Videos beiYouTube kann man Werbepartnerlinks beispielsweise zu Amazon setzen - auch dies muss kenntlich gemacht werden. 
Ich kann jedoch nicht garantieren, dass es diese Möglichkeiten auch in Zukunft noch geben wird.

Zu meinen ersten Versuchen gehörte es, mit Windows Movie Maker aus einzelnen Bildern, wie hier beschrieben, ein Video für YouTube zu basteln: Making-of "Randfugen füllen"


Alternativen zu Google Adsense für Web- und Mobile Content Creators

Wer nicht nur vom YPP, sondern von Google insgesamt die Nase voll hat, weil ihm/ihr seine Teilnahme an YPP aufgekündigt wurde, hat auf seinen eigene Webseiten Alternativen zu Google Adsense,
beispielsweise

Mein Fazit

Wenn irgendwie möglich, sollte man sein "Geschäftsmodell" nie von einem einzigen Dritten abhängig machen - nicht von einem Mega-Unternehmen wie Google oder Facebook, die sehr viel Macht haben, aber auch nicht von einem kleinen Start-up-Unternehmen, das vielleicht insolvent wird, weil es keine Wachstumsfinanzierung zusammenbekommt o. Ä. Wie bei der Geldanlage, sollte man das Risiko, wo es möglich ist, lieber verteilen oder auf unangenehme Eventualitäten vorbereitet sein.

Ein weiterer Versuch (inspiriert durch einen Harvard/edX MOOC) bestand darin, mit Scratch und Camtasia Studio aus einzelnen Bildern eine Videoanleitung zu basteln


Habe ich noch etwas vergessen? Bitte nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

Das könnte Sie auch interessieren:

Sie suchen Werbeplatz in diesem Blog oder eine Technische Redakteurin/Autorin/Texterin zu Software-, Informatik- oder Internetthemen für Ihre Website, ein Buchprojekt, ein Kundenmagazin o. Ä.? Schreiben Sie mir!

Mittwoch, 4. Februar 2015

Achtung, die Mobilen kommen

Der Anteil an Nutzern, die mit Smartphone und Tablets auf Webseiten zugreifen, ist inzwischen so groß, dass es höchste Zeit ist, sich als Webseitenbetreiber mit dem Thema gerätegerechte Webseitendarstellung zu befassen. Andernfalls verprellt man wegen der nicht optimalen Nutzererfahrung beim Seitenbesuch seine Besucher und Kunden, rutscht in den Suchmaschinenergebnissen nach hinten und verschlechtert mit der Zeit seine Reichweite und alles, was daran hängt. Eine Lösung für das Problem heißt Responsive Webdesign. Aber wie geht man bei der Umstellung eines Konglomerats aus über Jahrzehnte entstandenen Webseiten und Blogs vor?

Nachtrag zum "Mobilegeddon": Google hat inzwischen in seinem Entwicklerblog veröffentlicht, dass die Mobile Friendliness (Nutzerfreundlichkeit für Mobilgeräte) ab dem 21. April 2015 als Ranking-Signal für die Suchergebnisse für Smartphones berücksichtigt wird.

Anzeige


Lange schien mir der Aufwand, mein Webangebot so umzustellen, dass die Webseiten sowohl mit einem Desktop-Computer als auch mit mobilen Endgeräten optimal dargestellt werden angesichts der sehr niedrigen Besucherzahlen mit mobilen Geräten wie Smartphone und Tablet zu hoch. Als mir vor ein paar Tagen das Google-Webmaster-Team schrieb: Beheben Sie Probleme der mobilen Nutzerfreundlichkeit auf www.tinto.de/, war das für mich Anlass, mich mal wieder genauer mit meinem Webseiten- und Blog-Traffic zu befassen.

In den letzten 12 Monaten (Kreisdiagramm oben) nutzten etwa 35 Prozent der tinto-Besucher ein Smartphone (rot) oder ein Tablet (blau). 65 Prozent nutzten einen Desktop-Computer. Im Jahr davor waren es noch wesentlich weniger Mobile (Kreisdiagramm unten).
Seit 1998 erstelle ich für tinto Webseiten und Blogs zu allem, wozu ich glaube, Wissen oder Erfahrungen beitragen zu können. Ich realisierte meine Vorstellungen mit Tools und Programmierkenntnissen, die ich zur jeweiligen Zeit hatte. Die Zahl meiner Seiten und der Besucher wuchs über die Jahre zu einem kleinen Imperium. Aber waren es bis vor wenigen Jahren fast ausschließlich Desktop-Nutzer, die meine Angebote nutzten, zeigt der jüngste Blick in mein Trafficanalyse-Tool Google Analytics, dass in den letzten 12 Monaten 35 Prozent der Besucher mit mobilen Endgeräten wie Smartphone und Tablet kamen. Im Jahr davor waren es noch knapp 23 %. Laut Statista surfen sogar 54 Prozent der Deutschen mobil.

Dabei sind meine Besucher keine "Digital Hipsters", sondern ganz normale Verbraucher aller Altersklassen, die sich für Garten-, Gesundheits- und andere Verbraucherthemen interessieren. Je nach Zielgruppe, wird bei anderen der Anteil der mobilen Nutzer auf ihren Webseiten noch wesentlich höher sein.

Infografik: 54% der Deutschen surfen mobil | Statista
Mehr Statistiken finden Sie bei Statista

Trafficanalyse, responsive Webdesign und Prioritätensetzung stehen jetzt auf meinem Stundenplan

Bei einem Responsive Webdesign passt sich die Darstellung der aufgerufenen Webseite oder des Blogartikels automatisch an den Nutzer, beziehungsweise an sein Gerät oder seine Bildschirm-/Fenstergröße, an. So werden beispielsweise Elemente auf einem Desktop mit seinem großen Bildschirm und entsprechend großen Fenstern nebeneinander gezeigt, auf einem Smartphone dagegen untereinander. Auch Schriftgrößen und Menüs können für verschiedene Besuchergeräte, deren Auflösung oder Fenstergröße unterschiedlich konfiguriert werden. Technisch wird das durch die Programmierung nach den neuen Möglicheiten und Standards von Hyper Text Markup Language (HTML5), Cascading Style Sheets (CSS3, Media Queries) und JavaScript umgesetzt.

Zwar habe ich meine neuesten "von Hand" programmierten, kleinen Projekte wie tinto-Horoskop gleich responsive umgesetzt oder sie nachträglich auf responsive umgestellt (beispielsweise Gartenblogs, Mein Pflanzenarchiv und Mein Outfitarchiv), sodass die Seiten bei Aufruf durch ein Smartphone anders angezeigt werden als bei Aufruf per Desktop. Dabei passt sich die Darstellung an die Fenstergröße an - man kann das ausprobieren, indem man die Seite aufruft und das Browserfenster verkleinert.

Auch meine Blogs ließen sich recht einfach so konfigurieren, dass Besucher mit einem mobilen Gerät eine andere Version der Seite gezeigt bekommen - sowohl mein tinto bloggt-Blog, den ich mit Wordpress (php und MySQL) erstellt habe, als auch die verschiedenen Blogger-Blogs wie dieser. Dank passender Vorlage (Theme) waren nur ein paar Klicks nötig, um das Feature zu aktivieren. Allerdings steckt hier der Teufel im Detail: Bei der Überprüfung mit einem Mobile-Phone-Emulator stellt man fest, dass das Ergebnis nicht auf jedem Endgerät optimal ist.

In welcher Reihenfolge auf Responsive Webdesign umstellen

Im Gegensatz zu Blogs oder anderen Content-Management-Systemen (CMS) lassen sich alte statische Webseiten, die oft mit proprietären Webdesign-Programmen erstellt wurden, nur aufwendig umstellen. Doch die Zeit drängt - so scheint mir -, wenn man nicht ausschließlich Desktop-Nutzer als Zielgruppe hat und seine mobilen Besucher nicht verlieren möchte.

Hilfreich: Der Emulator und der Punkt Nutzerfreundlichkeit
unter dem Reiter Mobile von Google PageSpeed Insights
Gerade wegen meiner über Jahre gewachsenen, nicht homogenen Projekte und wegen des hohen Aufwands muss ich eine sinnvolle Reihenfolge finden, wie ich bei der Umstellung vorgehe. Im Grunde geht es darum, Webprojekte/-seiten mit dem größten potenziellen Effekt zu identifizieren. Doch welcher Effekt ist mir überhaupt der wichtigste: Reichweitenverbesserung für bestimmte Botschaften, Erhöhung meines Bekanntheitsgrades, Erreichen potenzieller Auftragskunden (Werbekunden, Textaufträge-Kunden), sonstige Selbstvermarktungseffekte und/oder Affiliate-Werbeeinnahmen? Am liebsten natürlich alles.

Es gibt viele Möglichkeiten, eine Reihenfolge zu finden, beispielsweise:
  • entlang der hierarchischen Struktur
  • Webprojekte/-seiten nach Traffic-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann allerdings davon beeinflusst sein, wie gut die Seiten bereits für die Ansprüche mobiler Geräte "versehentlich" optimiert sind). 
  • Webprojekte/-seiten nach Werbeeinnahmen-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann auch davon beeinflusst sein wie gut die Seiten oder zumindest die Werbung darauf bereits für die Ansprüche mobiler Geräte optimiert sind). 
  • Webprojekte/-seiten danach sortieren, wie oft auf sie mit mobilen Geräten zugegriffen wird. (Es ist allerdings möglich, dass Suchmaschinen wie Google mobilen Geräten bevorzugt bereits "versehentlich" optimierte Seiten in den Suchergebnissen zeigt) 
  • Webprojekte/-seiten danach sortieren, wie oft sie von mobilen Geräten ohne Verweildauer verlassen werden 
  • Planen, welche Themen und Webseiten als nächstes gefeatured werden sollen und diese umstellen und updaten 
Während eine Vorgehensweise anhand der Struktur nur bei einem geschlossenen Projekt, das als Ganzes neu veröffentlicht wird, Sinn macht, muss man meiner Meinung nach zum Priorisieren von Projekten oder Einzelseiten, die alleine geupdated werden sollen, letztendlich (fast) all die anderen Möglichkeiten berücksichtigen - gewichtet entsprechend den persönlichen Prioritäten, um den größtmöglichen Effekt zu erzielen.

Da wartet ein riesiger Berg Arbeit. Packen wir es an.

Hilfsmittel 

Während der Umprogrammierung hilfreich:

Weitere Informationen
Anzeige


Montag, 10. März 2014

Browser-Top-Ten Anfang 2014: Mein Gewinner heißt Firefox!

Angeblich führt Chrome den europäischen Browsermarkt an, aber auf meinen deutschen Webseiten ist Chrome schon fast abgeschlagen auf Platz 4. Mein Gewinner heißt Firefox. Safari und Internet Browser schlagen sich um Platz 2 und 3.

Internet World Business hatte gestern die Schlagzeile, dass Google Chrome im europäischen Browsermarkt die Nase vorn habe, und beruft sich auf das Browser-Barometer des Webanalyse-Anbieters AT Internet. Ich konnte es gar nicht glauben und guckte mir sicherheitshalber meine eigene Webstatistik für die letzten 30 Tage an. Und da sieht es völlig anders aus: 

Meine Browser-Top-Ten der letzten 30 Tage (7.02.2014 bis 9.03.2014 und gleicher Zeitraum im Vorjahr) bei tinto.de:

Top-Ten-Browser 2014
Platz 1:
Firefox 30,95 % (Vorjahr: 37,57 %) 

Platz 2:
Safari 20,95 % (Vorjahr: 16,41 %)

Platz 3:
Internet Explorer 20,81 % (Vorjahr: 25,12 %)

Platz 4:
Chrome 14,56 % (Vorjahr: 12,18 %)

Platz 5:
Android Browser 9,91 % (Vorjahr: 5,52 %)

Platz 6:
Opera 1,91 % (Vorjahr: 1,81 %)

Platz 7:
Safari (in-app) 0,35 % (Vorjahr: 0,85 %)

Platz 8:
Amazon Silk 0,18 % (Vorjahr: 0,00 %)
Das ist der Browser des Kindle Fire Android Tablet

Platz 9:
Blackberry 0,10 % (Vorjahr: 0,00 %)

Platz 10:
Opera Mini 0,09 (Vorjahr: 0,08 %)

Da es sich bei tinto.de und seinen Projekten überwiegend um Informationsseiten für Verbraucher (Garten-, Geld-, Gesundheits- und ähnliche Themen) handelt, sind die Besucher nicht allzu technikaffin im Vergleich zu Entwicklern oder anderen möglichen Zielgruppen.

Ich selbst praktiziere Multi-Browser-Browsing - ich setze zum Browsen Firefox, Opera, Internet Explorer, Chrome und Safari ein - eigentlich jeden für einen anderen Zweck, aber ich komme auch mal aus dem Takt. Und ich ärgere mich sehr, wenn ich auf eine Webseite komme, die mir sagt, sie mag meinen Browser nicht, ich solle Chrome nehmen. Ziemlich arrogante Art mit seinen Besuchern umzugehen!

Firefox und Internet Explorer haben im Vergleich zum Vorjahr zwar ordentlich Federn gelassen, aber davon hat Chrome laut meiner Webstatistik nur mit knapp 2,5 % hinzugewonnenem Marktanteil profitiert. 4,5 % hat sich dagegen Safari gekrallt. 

Ich kann nur raten, sich als Website-Betreiber oder Blogger mit eigenem Blog nicht von Schlagzeilen manipulieren zu lassen und statt dessen vor der Änderung seines Webdesigns bzw. der Seitenoptimierung zu gucken, wer die eigene Zielgruppe ist, was sie mag und was sie macht.

Anzeige
www.kabeldeutschland.de

Ich würde mich freuen, wenn andere Webseiten- und Blogbetreiber auch Einblicke in ihre Browserstatistiken gewährten.

Mittwoch, 10. Juli 2013

XING: Mitgliederprofil wird erneuert

Man darf gespannt sein: XING, das soziale Netzwerk für berufliche und private Kontakte mit über 13 Millionen Mitgliedern, kündigt eine Rundumerneuerung des Mitgliederprofils an.

Was mich an sozialen Netzwerken nervt, sind die Umstellungen. Schon wieder, denke ich, weil ich den Zeitaufwand sehe, den mich diese Umstellung kosten wird. Besonders lästig finde ich in diesem Zusammenhang Facebook und Google+. Gerade hat man alles schön neu gestaltet, neue Bilder hochgeladen, die Vorstellungstexte überarbeitet, die Privatsphäre-Einstellungen angepasst usw., kommt schon das nächste Update, Bilder und Spalten werden größer oder kleiner, Reiter und Darstellungsmöglichkeiten werden eingeführt oder abgeschafft, und schon muss man (als Profi mit mehreren Pages) wieder viele Stunden Arbeitszeit investieren.

XING ist in der Hinsicht bisher weniger nervig gewesen und so sehe ich dem Update des Mitgliederprofils zum zehnjährigen Jubiläum mit Spannung entgegen. Manche hatten XING nach dem Erfolg der großen amerikanischen Netzwerke Facebook, Twitter und Google+ ja schon völlig abgeschrieben, obwohl die stetig steigenden Mitgliederzahlen das Gegenteil sagen. Andere finden XING langweilig, weil es doch eher um professionelle Vernetzung geht. Doch oft muss man sich bei der Kritik an die eigene Nase fassen, man hat vielleicht - so wie ich - irgendwann aufgehört, die dort gebotenen Möglichkeiten wie Foren und Veranstaltungen zu nutzen, weil einfach die Zeit nicht mehr für alle Netzwerke gereicht hat.

Da mir XING (früher OpenBC für Open Business Community) in einer Phase beruflicher Neuorientierung eine wichtige "Entscheidungsfindungs-Hilfe" und "Vernetzungs-Übungsplattform" war und weil mich über XING schon einige sehr gute Werbekunden und Auftraggeber gefunden haben, möchte ich XING nicht missen. Und wer weiß, vielleicht animiert mich das Update, mich dort wieder stärker einzubringen. Nach den jüngsten Geheimdienst-Skandalen und Whistleblower-Offenlegungen - z. B. sollen lt. Edward Snowden die Großkonzerne Google, Apple, Microsoft und Facebook dem amerikanischen Nachrichtendienst NSA direkten Zugriff auf das Back-End gegeben haben - will ich XING sowieso eine neue Chance geben. Vielleicht ist ein deutsches Unternehmen bei der Ausspionierung der Nutzer weniger kooperativ - allerdings ist mein Enthusiasmus in dieser Hinsicht nicht mehr allzu groß.

Das neu gestaltete XING-Mitgliederprofil soll wesentlich umfassendere und individuellere Möglichkeiten der professionellen Selbstdarstellung in frischem Design bieten, was besonders Freiberufler, Kreative, Studenten und viele andere Vernetzungswillige, Auftrag- und Jobsuchende freuen dürfte. Es soll u. a. auch die Möglichkeit bieten, Beiträge aus Foren und aus Twitter im Profil anzuzeigen. Auch die Jobsuche bzw. das Recruiting sollen vereinfacht werden, wobei genau konfiguriert werden können soll, wem das Interesse an einem Jobwechsel angezeigt wird und wem nicht.
Die Umstellung der 13 Millionen Mitglieder soll schrittweise erfolgen und mit dem heutigen Tag beginnen. Wer es nicht erwarten kann, bis es bei ihm/ihr losgeht, kann sich vorab registrieren.

Quellen und weiterführende Informationen 

Sonntag, 7. Juli 2013

Das Ende des Internets

Überwachung im Internet
Die Überwachung durch die
Geheimdienste hat das Vertrauen
ins Internet zerstört.
... wie wir es kannten oder glaubten, zu kennen.

Das Internet war für mich lange das Medium, das einen Beitrag zu einer besseren Welt leisten würde - weil es die Kommunikation der Menschen untereinander fördert und damit zu mehr Mitgefühl, Verständnis und gegenseitiger Hilfe führen würde. Manche träum(t)en noch viel weiter als ich - von einer besseren Demokratie und sogar von ganz neuen Menschen dank Internet. Tatsächlich sind einige unserer Träume wahr geworden - manche Initiativen im Bildungsbereich, wie die MOOCs, haben meine Erwartungen sogar übertroffen.

Aber wie alles, hat auch das Medium Internet nicht nur gute Seiten, sondern auch "Abgase" - ungute Nebenwirkungen. Diese heißen z. B. Cyberkrieg, Cyberkriminalität, Reduzierung des menschlichen Nutzers auf ein gläsernes, manipulier- und ausbeutbares Marketingobjekt und einiges Schreckliche mehr.

Nun ist durch die Aufklärungsarbeit von Edward Snowden (hätte er einen Presseausweis, wäre er ein investigativer Journalist) noch eine weitere, besonders hässliche Seite ans Tageslicht geholt worden, von der wir Bürger nichts wussten oder zumindest nicht das Ausmaß kannten: Praktisch jegliche Kommunikation und jeder Datenstrom im Internet wird von Geheimdiensten wie NSA, GCHQ und anderen durchforstet und je nach Geheimdienst ganz oder teilweise gespeichert. Traurig auch in dem Zusammenhang die Offenlegung des Whistleblowser Snowden, dass die amerikanischen Megaunternehmen Google, Facebook, Apple und Microsoft der NSA direkten Zugriff aufs Back-End gegeben haben - ohne ihre Nutzer darüber zu informieren.

Zusammenarbeit mit NSA und anderen ausländischen Geheimdiensten statt Diskussionen um Vorratsdatenspeicherung?

Wenn unsere Regierung so ahnungslos war, wie sie jetzt tut, dann glänzt sie mit Inkompetenz. Dann müssen wir die Lachnummer Europas und der Welt sein: die dummen Deutschen mit ihrer Diskussion um Vorratsdatenspeicherung. Und wenn unsere Regierung davon gewusst und es geduldet hat bzw. diese ausländischen Geheimdienstaktivitäten sogar indirekt mitnutzt (und sich auf diesem Wege die lästige Diskussion mit den eigenen Bürgern über Vorratsdatenspeicherung u. Ä. erspart hat!?!), dann hat sie nicht nur aus den Protesten um ACTA nichts gelernt, sondern das Vertrauen der Bürger bewusst missbraucht.

Welche Konsequenzen werden NSAgate und all die aktuellen Überwachungs- und Abhörskandale haben?

Eine Regierung kann man in Deutschland abwählen oder zum Rücktritt zwingen und es liegt am Bürger, ob er das tut. Die nächste Wahl steht ja vor der Tür.

Aber was ist mit dem Internet - kann man diesem Medium jemals wieder trauen? Denn, selbst wenn sich verbindliche Regeln zwischen Staaten vereinbaren lassen, wie will man Geheimdienste (oder Nachahmer) kontrollieren? Gibt es noch einen Weg weg vom total überwachten Internet?

Im Moment stellen sich mir auch so pragmatische Fragen wie: Kann man noch E-Mails verwenden? Kann man noch über die Messenger-Funktionen sozialer Netzwerke kommunizieren?

Nicht, wenn es wichtig ist! So lautet derzeit die Antwort für Journalisten, die ihre Quellen schützen müssen. Selbst wenn man verschlüsselt - empfohlen wird Pretty Good Privacy (PGP) - ist nicht sicher, dass diese Verschlüsselungen in ein paar Jahren auch noch sicher sind. Und man kann natürlich davon ausgehen, dass gerade verschlüsselte E-Mails aus dem Datenstrom gefiltert und gespeichert werden. Und wie sicher ist der Informant dann? Es gibt Informationen, deren Brisanz verblasst nie.

Heute Mittag im Presseclub stellte in der anschließenden Diskussion ein Zuschauer die Frage, wie man als Whistleblower überhaupt noch Kontakt zu den Medien herstellen könne. Es wurde empfohlen, einen herkömmlichen Brief zu schreiben und darin ein persönliches Treffen zu verabreden!

Und was machen Unternehmen, die von ihrem Wissensvorsprung leben - z. B. Maschinenbauunternehmen? Selbst wenn die Geheimdienste nicht automatisch Interessantes aus Wirtschaft und Unternehmen an deren jeweilige nationale Unternehmen weiterleiten, so besteht immer die Gefahr, dass korrupte Geheimdienstmitarbeiter Wissen teuer verkaufen. Wie einfach man sich bei CIA und NSA einschleusen und an geheime Daten kommen kann, zeigt das Beispiel Edward Snowden.

Können also Unternehmen Wichtiges noch per E-Mail kommunizieren oder das Internet als Rechercheinstrument verwenden, wenn sie sicher sein wollen, dass sie nicht Opfer von Industriespionage werden? Nein, eigentlich nicht. Und was ist mit Cloud Computing? Das Vertrauen in die Cloud ist spätestens jetzt dahin.

Das Internet ist zurück beim Militär. Oder war es niemals weg?

Für mich ist das Internet, zu dem es sich in meiner Vorstellung hätte entwickeln können, nicht mehr realisierbar - wenn mich jemand vom Gegenteil überzeugen will: gerne. Auch "The Internet of Things" ist für mich inzwischen eine Horrorvorstellung, weil mich dann auch mein Kühlschrank, mein Staubsaug-Roboter und die Personenwaage ausspionieren und verpfeifen können.

Das Internet, wie es sich jetzt darstellt, gefällt mir in weiten Teilen nicht. Bei allem, was ich privat in einer E-Mail an Meinung äußere, denke ich daran, dass mitgehört und gespeichert wird. Wenn das Laden einer Seite oder das Versenden einer Mail etwas länger dauert, denke ich: Aha, jetzt hat sich ein Abhörprogramm aktiviert und eingeklinkt, um den Datenstrom zu den Filtern der NSA, des GCHQ oder des französischen Geheimdienstes zu lenken. Ich fühle mich bei allem, was ich tue, beobachtet - als säße jemand auf meiner Schulter und schaut, was ich wieder schreibe - dabei hatte ich mich doch für Homeoffice statt Gemeinschaftsbüro entschieden.

Ich mag Überwachung nicht - obwohl ich rein gar nichts zu verbergen habe, außer vielleicht meiner echten Haarfarbe.

Und wie wird es weitergehen? Die Digitalisierung ist schon weit fortgeschritten, doch haben wir Internetenthusiasten doch schon viel weiter nach vorne ins digitale Zeitalter geschaut. Und das würde viele aufregende Neuerungen und Vorteile bringen - wie jetzt noch klarer sein dürfte: nicht nur uns, sondern auch unseren Überwachern. Das Netz der Netze wird sich um uns herum zusammenziehen.

Aktuell wird vielleicht nur überwacht und gesammelt. Aber wie lange wird es dauern, bis das, was über Personen gesammelt wird, schon auf dem Weg von Dritten und Vierten manipuliert wird, oder aber später im Nachhinein verändert wird, um zu beweisen, was man gerade beweisen will.

Das Internet ist für mich am Ende, denn ich sehe nicht, wie man aus dieser Vertrauenskrise wieder herauskommen könnte. Die Geschichte des Internets begann beim Militär - nun haben sie es sich gewissermaßen zurückgeholt.

Vielleicht waren sie aber auch nie wirklich weg, und sie haben uns nur nicht beim Träumen gestört.

Quellen und weitere Informationen

Sonntag, 13. Januar 2013

Social-Media-Analyse: Facebook, Google+, Twitter & Co. bringen kaum Webseitenbesucher

Meine Social-Media-Analyse der letzten 12 Monate zeichnet ein noch trüberes Bild, als die Social-Media-Analyse, die ich Ende August 2012 veröffentlicht habe: Es fanden - im Vergleich zu anderen Traffic-Quellen - nur wenige Besucher über Facebook, Google+, Twitter und Pinterest zu meinen Webseiten und Blogartikeln - jedenfalls auf dem direkten Weg. Wie ist das bei anderen?

Ich habe Webseiten und Blogs zu ganz unterschiedlichen Themen - von Verbraucherthemen wie Garten oder Geld bis zu netzpolitischen und Kommunikationsthemen wie in diesem Blog. Ich wollte wissen, wie viele Besuche meiner Webseiten und Blogartikel über Verlinkungen in Social Media zustande kamen (Traffic-Analyse).

Für Webanalysen meiner eigenen Domains (Verbraucherthemen, überwiegend statische Webseiten, seit 1998 gewachsen) nutze ich Google Analytics (IP-Adressen anonymisiert).

In Google Analytics ist eine beschränkte Social-Media-Analyse enthalten, mit der man Social-Media als Traffic-Quelle für Websites und/oder Blogs untersuchen kann: Über Besucherquellen -> Soziale Netzwerke -> Netzwerkverweise erhält man eine Liste mit den sozialen Netzwerken (Facebook, Google+, Blogger, Twitter, Pinterest etc.) und der jeweiligen Anzahl der Besuche, die über sie zustande kamen. (Google Analytics wertet dabei auch Blogger, also seine eigene Plattform für Blogs, mit deren Hilfe auch dieser Blog existiert, als soziales Netzwerk.) Klickt man auf den Namen einer Social-Media-Plattform in der Liste, so erhält man eine Aufstellung der einzelnen Verweise (Links) und die dazugehörende Zahl der Besuche.

Meine Ergebnisse für die vergangenen 12 Monate:

Besucherquellen bei Verbraucherthemen (tinto und tinto-Projekte)

  • 74,43 Prozent der Besuche von tinto und tinto-Projekten kommen über eine Suche auf meine Webseiten (bzw. einige wenige Blogartikel, die in dieser Statistik enthalten sind)
    - davon 93,57 Prozent über die Google-Suche, 2,22 Prozent über Bing und 1,33 Prozent über Yahoo, 
  • 16,54 Prozent kommen über Verweise (Verlinkungen)
    Hierin sind auch die Verweise von den Social-Media-Plattformen zu meinen Webseiten enthalten. 
  • 9,03 Prozent kommen direkt - die Besucher kennen also die entsprechende URL.

Besuche, die durch Verweise von Social-Media-Plattformen (soziale Netzwerke) auf meine Webseiten zustande kamen:

1,07 Prozent der Besuche kamen durch Links von Social-Media-Plattformen (ohne Blogger) zu tinto und tinto-Projekten.

Bezogen auf die Gesamtzahl der Besuche ergibt sich folgendes Bild:
  • 0,7 Prozent der tinto-Besuche kamen durch Links von Facebook, 
  • 0,22 Prozent der Besuche über Google+, 
  • 0,08 Prozent durch Twitter und 
  • 0,01 Prozent durch Pinterest.
Besucherquellen für tinto und tinto-Projekte
Soziale Netzwerke sind bei tinto und den tinto-Projekten (fast ausschließlich statische Webseiten) im Vergleich zur Google-Suche oder den direkten Zugriffen als Traffic-Quelle fast bedeutungslos - jedenfalls auf den ersten Blick.

Besucherquellen dieses Kommunikationsthemen-Blogs

Zu den Themen dieses Blogs gehören Social Media, Suchmaschinenoptimierung (SEO), Netzpolitisches und andere Themen. In diesen Blog habe ich Google Analytics nicht eingebaut und daher nur eine rudimentärere Blogstatistik. Doch kann ich ersehen, dass hier immerhin fast 5 Prozent der Besuche über Verweise bei Google+ zustande kommen und 1,07 Prozent über Links bei Facebook.

Auch bei meinen Themenblogs wie gartensaison-gartentipps.blogspot.com oder beste-geldanlage.blogspot.com spielen Social Media eine größere Rolle als oben bei den überwiegend statischen Webseiten von tinto und tinto-Projekten.

Wie ist meine Social-Media-Analyse zu bewerten?

Meine kleine Social-Media-Analyse, eigentlich eine Traffic-Quellen-Untersuchung, ist natürlich nur ein winziger Bruchteil dessen, was alles zu einer Bewertung von Social Media für einen Freiberufler oder ein Unternehmen gehören würde.

Als Besucherquelle für meine tinto-Verbraucherthemen-Webseiten haben die Social-Media-Plattformen nicht wirklich überzeugt - von den verschiedenen Social-Media-Plattformen schnitt hier Facebook noch am besten ab. Allerdings sind die Zahlen relativ - d. h. es kann auch sein, dass, weil die Suche als Besucherquelle so erfolgreich ist, Social Media nur im Vergleich dazu schwach ist. Ich kann auf jeden Fall große Unterschiede zwischen verschiedenen Themen feststellen. Zum Beispiel: Während ich mich mit dem Thema Garten bei Facebook gut vernetzen konnte, klappt das beim Thema Geld nicht so gut - auch weil meine Ansprüche da sehr hoch sind, da ich Verbraucher aufklären möchte und nicht mit Zockerplattformen kooperieren möchte.

Im Vergleich zu den statischen Themenseiten spielen auch bei meinen Themenblogs die sozialen Netzwerke eine größere Rolle als Besucherbringer.

Auffällig ist, dass Google+ bei meinen Artikeln über Urheberrecht, Social Media und Kommunikationsthemen wesentlich wichtiger zu sein scheint als Facebook. Allerdings sollte man in diesen Vergleich nicht zu viel hineinlesen, denn ich verhalte mich in den verschiedenen sozialen Netzwerken und zu den verschiedenen Themen nicht identisch. Doch passt zu dieser Beobachtung, wie rege bei der Einführung von Communities bei Google+ der Zulauf bei Online-Marketingthemen war (wozu auch Social Media Management und Suchmaschinenoptimierung gehören) und wie schwach bei normalen Verbraucherthemen.

Interpretationsmöglichkeiten für meine Ergebnisse gibt es viele - vom Zweifel an meiner persönlichen Social-Media-Strategie bis zum Zweifel an Social Media als geeignete Besucherquelle für Websites und Blogs.

Allerdings sollte man nicht vergessen, dass erstens die Zahlen relativ sind und zweitens, dass Social Media nicht hauptsächlich dazu da sind, Besucher auf Webseiten und Blogs zu holen, sondern zur Kommunikation - von der freundschaftlichen und/oder beruflichen Vernetzung bis zu Kundenservice und Unternehmenskommunikation.

Darüber hinaus bewerten Suchmaschinen - so weit man über die Algorithmen weiß - auch die Aktivitäten von Autoren in Social Media, so dass diese zu einer besseren Platzierung von deren Artikeln in den Suchergebnissen führen können, was dann über Umwege auch zu mehr Besuchern führt - genauso wie auch die Vernetzung in Social Media zu einer Verlinkung durch andere Teilnehmer führen kann, was sich natürlich auch auf die Besucherzahlen auswirken würde.

Mich interessiert, ob andere Blogger und Webseitenbetreiber ähnliche Beobachtungen gemacht habt oder ob ich mit meinen Zahlen eine Ausnahme von einer ganz anderen Regel bin.

Sonntag, 11. November 2012

Neues von der SEO-Front: WDF*P*IDF und Relevanz

"Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

Relevanz - was ist das?

Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

Statt Keyword-Dichte lieber Gewichtungsformel?

Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

Die Gewichtungsformel WDF*P*IDF ist das Produkt von
WDF, IDF und einem Korrekturfaktor P

WDF und IDF sind Begriffe aus der Textstatistik:
  • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
    Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
  • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
    Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

P ist nur ein Gewichtungswert (Korrekturfaktor).

Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

Beim Wettbewerber abgucken

Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

Den Google-Algorithmus füttern - will man das?

Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

Quellen und weiterführende Informationen

Montag, 27. August 2012

Klout Score oder wer hat den größten ...

... Einfluss in Social Media

All das Vernetzen, Teilen, Diskutieren und oft genug Geschwafel in Social Media und am Ende des Tages hat man dem Chef oder potenziellen Auftraggebern nichts vorzuweisen? Von wegen. Da werden die Twitter-Follower, Facebook-Freunde bzw. -Fans und Google+-Einkreiser rausgekramt und mit dem vorherigen Stand sowie denen von anderen verglichen. Da wird geguckt, wie oft retweetet, geliked und geteilt wurde und über wen und was in Social Media gesprochen wird.

Das ist viel zu mühlselig für den schnellen Überblick, wie einflussreich jemand in Social Media ist, sagten sich die Gründer der Klout Inc. aus Kalifornien: Wir rühren all diese Informationen zusammen, setzen einen Algorithmus dran und der spuckt dann den Klout-Wert (Klout Score) aus. Am Ende des Tages kann sich der Klout-Nutzer sagen: Wow, er ist wieder gewachsen - ich muss toll sein. Auf der anderen Seite wird denen, die nach Influencern - Leuten, deren Äußerungen von vielen beachtet werden - suchen, die Suche erleichtert.

Eva Schumann bei Klout
Den größten hat übrigens Barack Obama (Klout Score 99 von maximal 100) und auch Justin Bieber ist Klout-mäßig gut bestückt mit 92.

Doch das ist nur die eine Seite der Medaille. Die andere ist: Dadurch, dass allen Social-Media-Nutzern ein immer wieder neu berechneter Klout-Wert zugeordnet wird und sie kategorisiert werden (Klout Style - siehe weiter unten), sind sie von Unternehmen bzw. deren Marketing-Abteilungen/-Agenturen für ihr Marketing prima nutzbar.

Klout Inc. ist also ein weiteres US-amerikanisches Internet-Unternehmen, das mit einem intransparenten Algorithmus arbeitet und sich über das Internet ausbreitet wie ein ansteckender Ausschlag. Das Unternehmen wurde 2007 von Joe Fernandez (CEO) und Binh Tran gegründet. Eigenen Angaben zufolge wurden bereits über 100 Millionen Profile erstellt (Quelle Wikipedia English) - nicht nur von freiwillig registrierten Klout-Mitgliedern, sondern auch von Menschen in deren Netzwerken.

Kritik an Klout

Gerade dieses Daten-Staubsaugen und Klout-Score-Generieren von Nicht-Mitgliedern ist den Kritikern ein Dorn im Auge. Des Weiteren wird die tatsächliche Aussagekraft des Klout Scores hinsichtlich Einfluss und damit Reputation bezweifelt - nicht zuletzt wegen seiner Manipulierbarkeit (Stichworte: Twitter-Spam, gekaufte Facebook-Freunde etc.) und der fehlenden Berücksichtigung von Qualitätskriterien (Motto: "Masse statt Klasse"). Dazu kommt, dass der Klout Score das Leben und den Einfluss außerhalb von Social Media bzw. außerhalb der Main-Stream-Social-Media-Plattformen nicht berücksichtigt (was ist mit den Foren, die im IT-/Mobilbereich immer noch eine Bedeutung haben u. ä.). Noch ein weiterer Kritikpunkt ist der, dass die Reputation von Social-Media-Teilnehmern von einem kommerziellen Unternehmen bewertet wird - eine ähnliche Konstellation bereitet ja bereits genug Diskussionsstoff bei den Ratingagenturen und der SCHUFA. Seine Mitbewerber in der Reputationsmessung wie beispielsweise den PeerIndex hat der Klout Score schon weitgehend ausgestochen.

Guter Klout Score wird belohnt

Der Klout Score weckt andererseits Spieltrieb und Ehrgeiz und den erfolgreichsten winken Goodies (genannt "Klout Perks") - das sind mal Gutscheine, mal Kosmetika, mal eine Testfahrt mit einem neuen Automodell oder Freiflüge für eine neue Flugverbindung etc. Viele der bekannten Social-Media-Hengste (Top-Influencer - ja, ich bin nur neidisch) lieben den Klout Score.

Und wie kommt Klout an all die Daten?

Die Plattform verbindet sich mit Einwilligung des Klout-Nutzers mit seinen verschiedenen Social-Media-Acounts und liest da offensichtlich aus, was er braucht - und ich fürchte, am Ende des Tages weiß Klout so viel über uns, wie all die einzelnen Social-Media-Plattformen zusammen. Clever. Beängstigend!

Was der Klout Score berücksichtigt

Facebook: Mitteilungen, Erwähnungen, Likes, Kommentare, Freunde etc.
Twitter: Retweets, Erwähnungen, Listen-Mitgliedschaft, Follower, Antworten
Google+: Kommentare, +1s, Teilen ("Reshares")
Klout: +K, die man von anderen erhält.

Weitere Social-Media-Plattformen, die für die Klout-Score-Berechnung berücksichtigt werden: LinkedIn (da sieht man, dass der Klout-Wert auf den amerikanischen Markt zugeschnitten ist, denn bei uns hätte wohl XING die größere Bedeutung), foursquare, Wikipedia - alles nachzulesen bei Klout.com.

Klout Style

Klout Style ist kein neues Modemagazin, sondern kategorisiert die Klout-Nutzer. Da gibt es die Kategorien Celebrity, Broadcaster, Observer, Explorer, Networker, Specialist, Socializer und viele andere mehr. Google ist beispielsweise mit einem Klout von 94 bewertet und wird als Celebrity eingestuft. Zur Celebrity-Kategorie heißt es (frei übersetzt): "Sie haben die maximale Einfluss-Stufe erreicht. Die Menschen lauschen jedem Ihrer Worte und teilen Ihre Inhalte wie keine anderen. Wahrscheinlich sind sie im wirklichen Leben berühmt und Ihre Fans können von Ihnen einfach nicht genug bekommen." Na, wenn das nicht wahr ist. (Aber übrigens, es gibt da das kleine Dorf in Gallien, die finden das nicht gut ... -> Google's Quasimonopolstellung).

Nachtrag:
Und kaum hatte man sich dran gewöhnt, wurde der Klout Style und ein paar andere Einblicke leider - als "Networker" kategorisiert zu werden, hatte mir gefallen - wieder abgeschafft. Statt dessen werden einem "Klout Moments" gezeigt. Klout Moments sind die letzten Interaktionen mit anderen auf ausgewählten Social-Media-Plattformen.

Klout Score als Eintrittskarte

Laut einem Artikel in WIRED vom April 2012 kann der Klout Score - je nach Beruf und angestrebter Position - durchaus ausschlaggebend sein, wer von mehreren Bewerbern den Zuschlag für den Job bekommt und wer nicht. Außerdem hätten Personen mit einem höheren Klout Score bessere Dienstleistungen oder Hotelzimmer bekommen - wohl in der Hoffnung, dass diese Influencer dann später über positive Erfahrungen in Social Media berichten. Laut den Frequently Asked Questions (FAQ) auf der Klout-Site, nutzen 3.000 Anwendungen und Partner Klout-Daten, um Klout-Werte darzustellen und Influencer mit einem bestimmten Klout-Wert zu einem bestimmten Thema, Lokalität o. ä. zu finden.

Klout Geschäftsmodell

Wenn ich das Geschäftsmodell von Klout richtig verstehe - denn mit irgendetwas müssen sie ja schließlich Geld verdienen - dann ermöglicht Klout Unternehmen "Klout-Perks-Aktionen" durchzuführen, bei denen eine Marke und die optimalen Influencer zusammengebracht werden. Diese optimalen Influencer erhalten dann Klout Perks und können über ihre Erfahrungen mit dem jeweiligen Produkt berichten - müssen aber nicht. Andererseits sagt Klout, dass sie die Identitäten der Influencer gegenüber Werbetreibenden nicht offenlegen und auch keine Daten verkaufen würden. Also fungiert Klout als Mittelsmann zwischen Unternehmen/Marke und Influencer bei der Klout-Perks-Vermittlung.

Führt ein Weg an Klout vorbei?

Ich habe lange Zeit versucht, mich aus dem Klout-Gedönse rauszuhalten. Aber es kamen ständig E-Mail-Einladungen, bis ich es aufgegeben habe. Ich oute mich: Ich bin dabei - aber ohne mich groß zu engagieren. Und ja: Ich hab nichts dagegen, wenn mir jemand ein +K gibt. Ich will auch einen großen haben - ist wohl dieser Neid, von dem schon Sigmund Freud sprach ;-). http://klout.com/#/eva4tinto

Freitag, 13. Juli 2012

Blog bekannt machen - Fortsetzung

Was sich durch die Google Algorithmus Updates Panda und Penguin verändert hat.

Dies ist eine Ergänzung zu den Blog-Posts vom vergangenen Jahr:
Blog bekannt machen Fortsetzung
Im ersten Blogbeitrag werden die Möglichkeiten beschrieben, wie man seinen Blog bekannt machen kann - denn wer schreibt, der will in der Regel auch gelesen werden. Im zweiten Blog-Post geht es speziell um die Suchmaschinenoptimierung (Search Engine Optimization, SEO) mit seriösen Mitteln - denn wer in den Suchergebnissen nicht vorne gelistet ist, ist im Internet praktisch unsichtbar. Wegen ihrer Quasi-Monopolstellung wird besonders auf die SEO für die Google-Suche eingegangen, denn wer keine gute Position in den Sucherergebnissen (Search Engine Results Positions - SERPs) von Google hat, dem fehlt eine wichtige Möglichkeit, Leser für seine Blogbeiträge zu finden.

Die Möglichkeiten, wie man einen Blog bekannt machen kann, sind zwar im Wesentlichen die gleichen geblieben und die wichtigste Voraussetzung für den Erfolg eines Blogs oder eines anderen Webangebotes ist immer noch Content, der einzigartig ist und dem Nutzer einen Mehrwert bietet - also informative und gut geschriebene Texte, Bilder, Videos, Anwendungen etc. Trotzdem sollte man ein paar Fallen kennen, die sich durch die Veränderungen des Google-Algorithmus aufgetan haben, damit man nicht von Google abgestraft wird (Google Penalty). Denn es kann auch Unschuldige treffen.

Blog bekannt machen
Achtung: Google Algorithmus Updates

Google möchte mit den Updates seines Suchalgorithmus die Suchergebnisse verbessern. Zum einen wurden das Suchverhalten und Bewertungen der User in den Algorithmus integriert. Zum anderen sollen Manipulatoren, die mit unlauteren Methoden (Black Hat SEO) arbeiten, von den vorderen Plätzen vertrieben oder ganz ausgeschlossen werden.

Die wichtigsten Google-Algorithmus-Updates heißen

Google Panda (begann im Februar 2011)
Durch die verschiedenen Google Panda Updates soll die Qualität der Blogs oder der Webseiten (Onsite-Kriterien) gecheckt und in den Algorithmus integriert werden: Ist der Content gut und einzigartig? Bietet er einen Mehrwert? Bleiben die Besucher auf der Seite oder fliehen sie gleich wieder?

Google Penguin (bekannt gegeben am 24. April 2012)
Durch Google Penguin wird neben Onsite-Kriterien wie Keyword-Stuffing (unnatürliche Wiederholung des Keywords im Text oder in den Meta-Tags) die Verlinkung (Offsite-Kriterien) gecheckt. Massenhaft Links von minderwertigen Domains/Seiten (z. B. von Linkschleudern - das sind Verzeichnisse, wo jeder Links eintragen kann, ohne dass es eine Qualitätsprüfung gibt) können sich negativ auswirken. Google bestraft auch, wenn Inhalte mehrmals im Netz vorhanden sind - ein Problem, wenn ein Unternehmen mit örtlichen Filialen die gleichen Texte (bis auf Anfahrtsinformationen o. ä.) auf alle lokalen Seiten stellt - was sachlich völlig logisch wäre. Aber auch für den normalen Blogger kann "duplicate Content" zum Problem werden, wenn die gleichen Inhalte über verschiedene URLs zu erreichen sind oder auch wenn Inhalte unberechtigt wiederverwendet wurden (Content-Klau) - wegen letzterem sollte man regelmäßig überprüfen, ob Inhalte des Blogs oder der Webseite kopiert und woanders noch einmal ins Netz gestellt werden (dafür gibt es Werkzeuge, z. B. Copyscape).

Leider zeigen Google's Maßnahmen zur Verbesserung der Suchergebnisse bisher nur mäßigen Erfolg, denn bei manchen Suchbegriffen (Keywords) sind immer noch einige nahezu inhaltslose Seiten voller Werbung auf den vorderen Plätzen vertreten. Andererseits wurden schon "unschuldige" Webseiten und Blogs abgestraft und flogen aus dem Index. Auf jeden Fall bibbern auch ganz normale Webseitenbetreiber und Blogger vor Angst wegen der Google Algorithmus Updates, denn Sichtbarkeit oder Unsichtbarkeit kann über die Existenz entscheiden - und am Drücker sitzt das Mega-Unternehmen Google mit seiner Quasi-Monopolstellung.

Manche Google Maßnahmen haben außerdem böswilligen Wettbewerbern, die Möglichkeit eröffnet, Blogs und Webseiten aus dem Index zu katapultieren, die sie loshaben wollen - z. B. indem sie massenweise Links von minderwertigen Linkschleudern zu einer konkurrierenden Seite setzen (was dann durch das Google Penguin Update geahndet wird) oder indem sie den Mitbewerber bei Google denunzieren - wozu Google aufgerufen hat.

Ergänzungen und Meinungen können gerne über die Kommentarfunktion hinzugefügt werden.

Quellen und weiterführende Informationen


Sonntag, 3. Juni 2012

Monopolstellung + Richtlinien = Macht

Monopolstellungen und Richtlinien von Mega-Unternehmen sollten unter die Lupe genommen werden, denn Quasi-Monopolisten wie Google (mit einem Marktanteil von 96 %) können ihre Richtlinien wie Gesetze durchdrücken und behindern damit den freien Wettbewerb.

Google's Monopolstellung verleiht zu viel MachtUm es gleich vorwegzunehmen:
Ich führe keinen Feldzug gegen Google. Google ist eine tolle Firma, die sich durch innovative Ideen, geschicktes Vorgehen und gute Produkte einen Platz als Marktführer in der Suche erobert hat. Die, die schneller auf Veränderungen in der Welt reagieren müssten, sind Politiker, Gesetzgeber, Kartellwächter und ähnliche. Sie müssen die gesetzlichen Rahmenbedingungen setzen, damit nicht am Ende die Welt den Megaunternehmen gehört und diese ihre eigenen Richtlinien zu Gesetzen machen können. Ach, ich vergass: Das ist doch, was bereits passiert!

Die meisten Internetnutzer wollen Geld sparen und Informationen ohne monetäre Bezahlung nutzen und es ist ja auch toll, dass das Internet Informations- und Kommunikationsmöglichkeiten unabhängig vom Einkommen bietet. Aber irgendwie müssen auch Publisher ("Veröffentlicher im Internet" - also Betreiber von Informations-, Schulungs-, und Themen-Webseiten/-Blogs) überleben. Also finanzieren sie ihre Webseiten und Blogs über Werbung auf ihren Seiten - oder zumindest versuchen sie es. Dazu setzen sie Werbung ihrer Werbepartner auf die Webseite. Dies sind überwiegend keine herkömmlichen Werbebanner oder Werbetexte mit einem Link zum Angebot des Werbenden, wie man dies direkt mit einem Werbekunden vereinbaren könnte, sondern der Publisher platziert einen Code in den Quellcode seines Blogs oder seiner Homepage, den er von den Werbepartnerprogrammen (Google Adsense, Amazon Partnerprogramm, Affiliate-Plattformen etc.) erhält.

Doch dieser Code ist eben nicht nur ein einfacher Link, sondern ermöglicht es diesen Unternehmen, die Seiten des Publishers und seine Besucher zu tracken - also Daten zu sammeln, Profile zu erstellen und so z. B. personalisierte Werbung (z. B. über Google Adwords) seinen werbetreibenden Kunden anzubieten und (z. B. über Google Adsense) einzublenden. Wer einmal sehen möchte, wer alles mitliest, wenn er/sie eine Webseite besucht, sollte Ghostery (alle Quellen unten) ausprobieren. Denn da sind ja auch noch Twitter, Facebook, Google+ und Co., deren Knöpfe über ähnliche Codes in Webseiten und Blogs eingebaut werden und die genauso tracken.

Die Richtlinien von Google verbieten das Setzen von Links aus bezahlter Werbung auf die Webseite des Werbenden, wenn diese Links nicht im Code mit "nofollow" gekennzeichnet werden - doch das möchten die direkten Werbekunden nicht: Sie wollen den Werbeeffekt plus die Backlinkwirkung von einer guten Seite, dafür sind sie bereit zu zahlen. Google aber droht Publishern und Werbern bei Zuwiderhandlung gegen ihre Richtlinien mit Abstrafung und Unsichtbarkeit in der Google Suche (also im äußersten Fall mit Existenzvernichtung, denn wer in der Google-Suche fehlt, ist praktisch nicht existent). Und nun ruft Google auch noch zur gegenseitigen Denunziation auf.

Als Grund für diese Paid-Links-Richtlinie von Google wird die Verhinderung von Spamming angegeben (in diesem Zusammenhang meint Spamming das Nachvornedrücken von Webseiten in den Trefferlisten der Suchmaschine durch viele gekaufte Links oder Links von eigens dazu generierten Linkschleudern). Ehrlich gesagt, glaube ich diesen Grund nicht mehr, denn Google sollte längst in der Lage sein, schlechte Links von unbrauchbaren Seiten ("Linkfarmen") herauszufiltern und diese entsprechend nicht als "Linkjuice" zu werten (das lernt man doch schon im Internet bei Udacity und Coursera).

Ich habe den Verdacht, Google will seine Monopolstellung ausnutzen, um selbst das Eingangstor zu Werbevereinbarungen zu bleiben/werden und Publisher zur Nutzung von Google Adsense zu manipulieren - denn wenn Publisher mit Google Adsense zusammenarbeiten, anstatt direkt mit Werbekunden Vereinbarungen zu treffen, macht Google dabei seinen Schnitt.

Dabei würde ein verantwortungsvoller Publisher doch nur Werbekunden akzeptieren, die er selbst gut und zu seinen Inhalten passend findet (was den Dofollow-Link rechtfertigt), während er bei Google Adsense weniger bzw. nur komplizierte oder nachträgliche Kontrollmöglichkeiten hat und sich oft genug über die eingeblendete Werbung die Haare rauft. Und natürlich würde ein verantwortungsbewusster Publisher Werbung aus Verbraucherschutz- und Transparenzgründen als solche kennzeichnen - wie es in Deutschland ja auch gesetzlich vorgeschrieben ist.

Durch den Druck jedoch, den Google durch seine Monopolstellung und seine Richtlinien auf Publisher ausübt, treibt das Unternehmen vermutlich etliche Publisher dazu, Werbetexte mit Do-Followlinks nicht als solche zu deklarieren - zum Nachteil des Verbrauchers, der einen Anspruch auf Transparenz hat.

Witzigerweise fand t3n Anfang des Jahres Hinweise, dass Google selbst seine Richtlinien bei Werbung für seinen Chrome Browser missachtete und Werbelinks nicht als Nofollow-Links ausgewiesen wurden. Doch ich finde das eigentlich irrelevant, denn meiner Meinung nach gehört diese Richtlinie grundsätzlich verboten.

Google's Quasimonopolstellung und seine Richtlinien sollten endlich rechtlich unter die Lupe genommen werden und Gegenmaßnahmen ergriffen werden. Denn solche Richtlinien und Strafandrohungen eines Unternehmens mit einer dominanten Marktstellung behindern den freien Wettbewerb und schwächen Publisher.



Quellen und weiterführende Informationen