Donnerstag, 13. Juni 2013

Twitter auf Webseite einbinden

Wäre es nicht schön, wenn Ihre Homepage- oder Blogbesucher Ihre Tweets beziehungsweise öffentliche Tweets Ihrer Wahl direkt auf einer Website - beispielsweise auf Ihrer Homepage, im Blog oder auf einer anderen Webseite Ihrer Domains - lesen könnten? Kein Problem, Twitter bietet Widgets, mit denen man eine Twitter-Box auf der Website integrieren kann.

Nachtrag:
Twitter hat die Nutzeroberfläche und die Konfigurierung verändert, weshalb ich eine neue Anleitung erstellt habe, siehe Twitter-Tweets in eine Webseite einbauen.

Twitter-Tweets auf einer Webseite einbinden
Die Twitter-Box lässt sich nach Wunsch konfigurieren und kann
in jede Webseite eingebaut werden. Ich nutze sie auf meiner
Portalseite tinto.de, um dort meine neuesten Tweets anzuzeigen.
Anzeige


Eigentlich gibt es die Möglichkeit, eine Twitter-Box mit öffentlichen Tweets in die Website einzubinden, schon seit Langem, doch war die Funktion etwas versteckt. Jetzt wurde der Widget-Code von Twitter umgestellt, der Widget-Konfigurator erweitert und leichter auffindbar gemacht.

Twitter auf Website einbinden - Anleitung

So generieren Sie Ihr Widget:
  1. Gehen Sie auf die Twitter-Homepage  
  2. Loggen Sie sich mit ID und Passwort ein.
  3. Klicken Sie auf Ihr Porträtbild in der Symbolleiste oben rechts und wählen Sie in der Dropdown-Liste Einstellungen und Datenschutz
  4. Auf der Seite Account wählen Sie in der Navigation auf der linken Seite Widgets
  5. Klicken Sie auf Neu erstellen
  6. Nun öffnet sich der Widgets-Konfigurator.

    Widgets-Konfigurator für die Konfigurierung einer Benutzer-Timeline
  7. Über die Reiter unterhalb von Wähle eine Timeline-Quelle können Sie aussuchen, welche Art von Tweets Ihre Twitter-Box zeigen soll: 
    • Benutzer Timeline
      Tweets eines öffentlichen Accounts
    • Gefällt mir
      Tweets, die Sie als Favoriten gekennzeichnet haben 
    • Liste
      Tweets einer Liste, die Sie zuvor angelegt und denen Sie öffentliche Twitter-Accounts zugeordnet haben
    • Suchen
      Tweets, die mit einem definierten Hashtag-Begriff, z. B. #garten, gekennzeichnet wurden 
    • Sammlung
      Tweent einer Sammlung, die Sie zuvor angelegt haben.
  8. Die Konfigurierung ist weitgehend selbsterklärend.

    Beispiel Benutzer-Timeline: 
    1. Wählen Sie den Reiter Benutzer Timeline
    2. Auf der linken Seite können Sie Ihr Widget nun konfigurieren, auf der rechten Seite wird währenddessen eine Vorschau angezeigt. 
    3. Bei Nutzername können Sie Ihren eigenen oder einen anderen öffentlichen Twitter-Account angeben. 
    4. Bei Optionen können Sie wählen, ob Antworten auf Tweets auch eingeblendet und ob Bilder angezeigt werden sollen. 
    5. Bei Höhe geben Sie einen Wert von mindestens 200 ein, wenn Sie nicht den vorgegebenen Wert von 600 px beibehalten wollen. Die Breite muss nicht angegeben werden, da Twitter die Breite der Box automatisch an die Umgebung anpasst - sie ist jedoch mindestens 180 px breit. 
    6. Bei Thema können Sie zwischen Hell und Dunkel wählen. 
    7. Bei Linkfarbe können Sie eine Farbe auswählen, nachdem Sie in das Feld geklickt haben, und diese speichern. 
    8. Twitter für mich nicht anpassen aktivieren Sie mit einem Häkchen, wenn Sie nicht möchten, dass Ihnen Twitter Tweets einblendet aufgrund von Informationen, die der Dienst über Ihre Interessen und Verhalten gespeichert hat. 
    9. Klicken Sie auf Widget erstellen oder später beim Bearbeiten Änderungen speichern.
      Die Eingaben werden nun auf einem Twitter-Server gespeichert und rechts unten im Code-Feld Ihr Widget-Code eingeblendet. 
    10. Kopieren Sie den Code und fügen Sie ihn an der Stelle, an der Sie Twitter in die Website einbinden wollen, in den HTML-Code Ihrer Website/Homepage oder Ihres Blogs ein.

      Tipp:
      Zusätzliche Anpassungsmöglichkeiten ("Client Side Options") werden auf der Seite für Twitter Entwickler beschrieben (Englisch).

Twitter auf Website einbinden - Anwendungsbeispiele

Ich habe eine Twitter-Box mit meinen letzten Tweets auf meiner tinto.de-Einstiegsseite und im Media Newsroom von evaschumann.biz eingebunden. Ob das auch bei Ihnen Sinn macht, hängt von der persönlichen Nutzung und vom Kommunikationskonzept ab.

Anzeige


Ich verwende die verschiedenen Social-Media-Plattformen zu unterschiedlichen Zwecken:
  • Zum Diskutieren bevorzuge ich die Kommentarfunktionen von Blogs sowie die Kommunikationsmöglichkeiten bei Facebook und Googleplus.
  • In meiner Twitter-Timeline stelle ich vorwiegend neue Blogartikel und Informationswebseiten aus meinem eigenen "Internetreich" vor. Nur manchmal teile ich auch besonders Interessantes aus meinem Netzwerk auf Twitter - allerdings nur dann, wenn ich meine, dass diese Tweets nicht nur meine Twitter-Follower, sondern auch meine Webseiten-/Blogbesucher interessieren könnten, denn wie bereits erwähnt: Ich habe Twitter auf meiner tinto.de-Einstiegsseite und im Social Media Newsroom von evaschumann.biz eingebunden. So haben auch meine Webseiten- und Blogbesucher eine komfortable Möglichkeit, sich anhand der letzten Tweets über Neues in meinen Internetprojekten zu informieren.


Nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

Das könnte Sie auch interessieren:

Sie suchen Werbeplatz in diesem Blog oder eine Technische Redakteurin/Autorin/Texterin zu Software-, Informatik- oder Internetthemen für Ihre Website, ein Buchprojekt, ein Kundenmagazin o. Ä.? Schreiben Sie mir!
Anzeige


Montag, 3. Juni 2013

Fremdsprachen lernen - aus Gründen

Ricarda Essrich, meine Texttreff-Kollegin, hat heute Morgen zur Blogparade -> Fremdsprachen lernen geladen und seit dem kreisen meine Gedanken um das Thema, denn tatsächlich war und ist das Fremdsprachenlernen ein wichtiger Teil meines Lebens. 

Ich gebe es zu: Ich bin ein Weiterbildungs-Junkie. Ich liebe das Lernen und will nie damit aufhören. Aber das war nicht immer so. Erst nach dem absoluten Tiefpunkt meiner schulischen Laufbahn in den Teenagerjahren hatte ich eine Art Erleuchtung. Plötzlich fand ich nämlich Gründe zu lernen: Ich wollte beweisen, dass ich doch mehr zustande bringen konnte, als meine letzten Schulleistungen vermuten ließen; ich wollte einen anspruchsvolleren Beruf, als es mein erster Ausbildungsberuf war; ich wollte Studentin sein, denn Studieren fand ich jetzt "cool" (ich war Teenager). Diese und andere Gründe motivierten mich und trieben mich von da ab voran.

Ich begann also zu lernen, weil ich Gründe hatte - im Gegensatz zu vorher, als ich ohne Nachdenken von der Grundschule ins Gymnasium gestolpert war und irgendwann das Interesse am Lernen verloren hatte.

Fremdsprachen lernen - für die Kommunikation mit der großen weiten Welt

Und so erging es mir auch mit dem Fremdsprachen lernen: In der Schule habe ich mich nicht besonders dafür interessiert, Fremdsprachen zu lernen, obwohl auf dem neusprachlichen Gymnasium Englisch, Französisch und Latein reichlich im Stundenplan vertreten waren. Aber nach meinem Tiefpunkt fand ich plötzlich Gründe - besonders dafür, Englisch zu lernen: Ich wollte viel von der Welt sehen und ich wollte so sein wie einige Menschen, die ich beobachtet hatte, wie sie sich lässig in einer Fremdsprache unterhalten konnten.

Ich überlegte also, wie ich mein bisheriges Schulenglisch verbessern konnte, und fand einige Möglichkeiten, die nicht mal Geld kosteten - das ich als Azubi ja nicht hatte. So vertiefte ich mich z. B. in meine alten Sprachenlern-Romane aus der Schulzeit ("The Hound of the Baskervilles" etc.), ging an meines Vaters Regal und fand "Ivanhoe" (schweeeere Lesekost in der Originalsprache - ich glaube nicht, dass mein Vater das lesen konnte, und frage mich heute, wieso und woher er das hatte), lernte Vokabeln (Grundwortschatz Seite für Seite) und machte Grammatikübungen (Grammatik-Übungsbuch) in der S-Bahn von und zur Arbeit.

Dann begann die Zeit meiner eigenen Reisen (in den Schulferien, Semesterferien) und Auslandsaufenthalte. Und wo ich auch war, las ich Romane in Englisch, die in dem jeweiligen Land spielten, und versuchte möglichst oft mit Einheimischen und anderen Reisenden in Englisch zu sprechen.

Später hatte ich andere Gründe, an meinem Englisch zu feilen: weil ich während und nach meinem Gartenbaustudium Fachliteratur in anderen Sprachen verstehen wollte; weil ich - nach weiteren Berufswechseln - einen Job als Technische Redakteurin für Mobilfunknetze bekommen hatte und ich technisches Englisch schreiben können musste; und weil in den internationalen Projektteam-Meetings, in denen ich meine Abteilung vertrat, Englisch gesprochen wurde und ich Einfluss nehmen und gut rüberkommen wollte/musste. Also las ich Fachzeitungen in Englisch, Ratgeberbücher für Englisch im Berufsalltag (Englischer Schriftverkehr, Englisch telefonieren etc.) schaute englischsprachiges TV und bis heute schaue ich auch immer mal wieder gerne Telekolleg Englisch an.

Und als sich die Möglichkeit bot, erfüllte ich mir noch einen Traum: an einer Elite-Uni englischsprachig studieren. Ich belegte zunächst einen IT-Semesterkurs mit Online-Vorlesungen, -Seminaren und -Projekten an der Harvard University Extension School, später nahm ich an mehreren MOOCs (Massive Open Online Courses - kostenlose Online-Kurse auf Universitätsniveau für jeden) teil. Zum einen ermöglichte mein bisheriges Fremdsprachen lernen die Teilnahme, zum anderen trainierte ich durch die Teilnahme an den Kursen meine Fremdsprachenkenntnisse.

Bis heute lese ich viel in Englisch, vor allem unterhaltende Romane genieße ich am liebsten in Englisch - die Wörter, die ich nicht kenne, füllt mein Gehirn inzwischen automatisch ein (sicher stimmen die nicht immer, aber wen stört's). Manchmal lese ich mir auch selbst aus englischen Büchern laut vor, damit ich mit dem Klang meiner Stimme in Englisch vertraut bleibe und um das flüssige Sprechen zu trainieren.

Was mir half, das Fremdsprachenlernen überhaupt anzupacken, war, dass ich schon als Kind mit meiner Familie öfter im Ausland war und dabei gelernt habe, dass es freundlich ist, Einheimische in ihrer Sprache anzusprechen und dass es einem nicht peinlich sein muss, wenn man dabei Fehler macht.

Ohne persönliche Motivation ist alles nichts

Es gibt viele Methoden, Fremdsprachen zu lernen. Manche machen mehr Spaß als andere, manche bringen schneller Erfolg als andere. Doch ich finde, persönlich motivierende Gründe dafür zu haben, eine oder mehrere Fremdsprachen zu lernen, ist noch wichtiger als alle Methoden! Die Begeisterung treibt einen dann von alleine vorwärts. Ich lerne jedenfalls weiter, denn ich weiß, warum.

Anzeige



Freitag, 5. April 2013

Senioren in sozialen Netzwerken

Gestern kam die Nachricht, dass Facebook - zumindest in Deutschland und in den USA - veraltet. Weil die Jungen abwandern und nur die Gruppe der älteren Nutzer noch wächst. Heute widmet sich "Surfer haben Rechte" dem Thema Soziale Netzwerke für Senioren. Fast jeder Dritte über 65 nutzt nämlich das Internet und 41 Prozent der Senioren ab 65 mit Internetzugang sind in sozialen Netzwerken aktiv, sagt der Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. (Bitkom).

 Anzeige
50plus-Treff

Auch die "Silver Surfer", wie die älteren Internet-Nutzer und Senioren manchmal genannt werden, sind nicht nur auf Facebook aktiv, sondern oft in sozialen Netzwerken speziell für Ältere, Generation 50plus bzw. Senioren (65plus), z. B. bei Seniorentreff, Seniorbook oder Platinnetz.

Während Facebook den Senioren bei der Vernetzung mit der Familie, Freunden und mit Gleichgesinnten über bestimmte Interessen hilft, finden sie in speziellen sozialen Netzwerken für Senioren auf sie zugeschnittene Informationen zu Themen des Alltags und des Alters sowie den Erfahrungsaustausch mit Menschen gleichen Alters.

Genauso wenig, wie die Menschen im Internet alle einer einheitlichen Meinung sind (es gibt keine "Netzgemeinde" im Sinne einer politischen Einheit - auch wenn selbst ernannte Vertreter gerne so tun), so verschieden sind auch die Senioren in sozialen Netzwerken, z. B.: Während die einen vor allem neue Kontakte für Erfahrungsaustausch und gemeinsame Freizeitaktivitäten suchen, träumen andere von einer neuen Liebe.

Quellen

Sonntag, 13. Januar 2013

Social-Media-Analyse: Facebook, Google+, Twitter & Co. bringen kaum Webseitenbesucher

Meine Social-Media-Analyse der letzten 12 Monate zeichnet ein noch trüberes Bild, als die Social-Media-Analyse, die ich Ende August 2012 veröffentlicht habe: Es fanden - im Vergleich zu anderen Traffic-Quellen - nur wenige Besucher über Facebook, Google+, Twitter und Pinterest zu meinen Webseiten und Blogartikeln - jedenfalls auf dem direkten Weg. Wie ist das bei anderen?

Ich habe Webseiten und Blogs zu ganz unterschiedlichen Themen - von Verbraucherthemen wie Garten oder Geld bis zu netzpolitischen und Kommunikationsthemen wie in diesem Blog. Ich wollte wissen, wie viele Besuche meiner Webseiten und Blogartikel über Verlinkungen in Social Media zustande kamen (Traffic-Analyse).

Für Webanalysen meiner eigenen Domains (Verbraucherthemen, überwiegend statische Webseiten, seit 1998 gewachsen) nutze ich Google Analytics (IP-Adressen anonymisiert).

In Google Analytics ist eine beschränkte Social-Media-Analyse enthalten, mit der man Social-Media als Traffic-Quelle für Websites und/oder Blogs untersuchen kann: Über Besucherquellen -> Soziale Netzwerke -> Netzwerkverweise erhält man eine Liste mit den sozialen Netzwerken (Facebook, Google+, Blogger, Twitter, Pinterest etc.) und der jeweiligen Anzahl der Besuche, die über sie zustande kamen. (Google Analytics wertet dabei auch Blogger, also seine eigene Plattform für Blogs, mit deren Hilfe auch dieser Blog existiert, als soziales Netzwerk.) Klickt man auf den Namen einer Social-Media-Plattform in der Liste, so erhält man eine Aufstellung der einzelnen Verweise (Links) und die dazugehörende Zahl der Besuche.

Meine Ergebnisse für die vergangenen 12 Monate:

Besucherquellen bei Verbraucherthemen (tinto und tinto-Projekte)

  • 74,43 Prozent der Besuche von tinto und tinto-Projekten kommen über eine Suche auf meine Webseiten (bzw. einige wenige Blogartikel, die in dieser Statistik enthalten sind)
    - davon 93,57 Prozent über die Google-Suche, 2,22 Prozent über Bing und 1,33 Prozent über Yahoo, 
  • 16,54 Prozent kommen über Verweise (Verlinkungen)
    Hierin sind auch die Verweise von den Social-Media-Plattformen zu meinen Webseiten enthalten. 
  • 9,03 Prozent kommen direkt - die Besucher kennen also die entsprechende URL.

Besuche, die durch Verweise von Social-Media-Plattformen (soziale Netzwerke) auf meine Webseiten zustande kamen:

1,07 Prozent der Besuche kamen durch Links von Social-Media-Plattformen (ohne Blogger) zu tinto und tinto-Projekten.

Bezogen auf die Gesamtzahl der Besuche ergibt sich folgendes Bild:
  • 0,7 Prozent der tinto-Besuche kamen durch Links von Facebook, 
  • 0,22 Prozent der Besuche über Google+, 
  • 0,08 Prozent durch Twitter und 
  • 0,01 Prozent durch Pinterest.
Besucherquellen für tinto und tinto-Projekte
Soziale Netzwerke sind bei tinto und den tinto-Projekten (fast ausschließlich statische Webseiten) im Vergleich zur Google-Suche oder den direkten Zugriffen als Traffic-Quelle fast bedeutungslos - jedenfalls auf den ersten Blick.

Besucherquellen dieses Kommunikationsthemen-Blogs

Zu den Themen dieses Blogs gehören Social Media, Suchmaschinenoptimierung (SEO), Netzpolitisches und andere Themen. In diesen Blog habe ich Google Analytics nicht eingebaut und daher nur eine rudimentärere Blogstatistik. Doch kann ich ersehen, dass hier immerhin fast 5 Prozent der Besuche über Verweise bei Google+ zustande kommen und 1,07 Prozent über Links bei Facebook.

Auch bei meinen Themenblogs wie gartensaison-gartentipps.blogspot.com oder beste-geldanlage.blogspot.com spielen Social Media eine größere Rolle als oben bei den überwiegend statischen Webseiten von tinto und tinto-Projekten.

Wie ist meine Social-Media-Analyse zu bewerten?

Meine kleine Social-Media-Analyse, eigentlich eine Traffic-Quellen-Untersuchung, ist natürlich nur ein winziger Bruchteil dessen, was alles zu einer Bewertung von Social Media für einen Freiberufler oder ein Unternehmen gehören würde.

Als Besucherquelle für meine tinto-Verbraucherthemen-Webseiten haben die Social-Media-Plattformen nicht wirklich überzeugt - von den verschiedenen Social-Media-Plattformen schnitt hier Facebook noch am besten ab. Allerdings sind die Zahlen relativ - d. h. es kann auch sein, dass, weil die Suche als Besucherquelle so erfolgreich ist, Social Media nur im Vergleich dazu schwach ist. Ich kann auf jeden Fall große Unterschiede zwischen verschiedenen Themen feststellen. Zum Beispiel: Während ich mich mit dem Thema Garten bei Facebook gut vernetzen konnte, klappt das beim Thema Geld nicht so gut - auch weil meine Ansprüche da sehr hoch sind, da ich Verbraucher aufklären möchte und nicht mit Zockerplattformen kooperieren möchte.

Im Vergleich zu den statischen Themenseiten spielen auch bei meinen Themenblogs die sozialen Netzwerke eine größere Rolle als Besucherbringer.

Auffällig ist, dass Google+ bei meinen Artikeln über Urheberrecht, Social Media und Kommunikationsthemen wesentlich wichtiger zu sein scheint als Facebook. Allerdings sollte man in diesen Vergleich nicht zu viel hineinlesen, denn ich verhalte mich in den verschiedenen sozialen Netzwerken und zu den verschiedenen Themen nicht identisch. Doch passt zu dieser Beobachtung, wie rege bei der Einführung von Communities bei Google+ der Zulauf bei Online-Marketingthemen war (wozu auch Social Media Management und Suchmaschinenoptimierung gehören) und wie schwach bei normalen Verbraucherthemen.

Interpretationsmöglichkeiten für meine Ergebnisse gibt es viele - vom Zweifel an meiner persönlichen Social-Media-Strategie bis zum Zweifel an Social Media als geeignete Besucherquelle für Websites und Blogs.

Allerdings sollte man nicht vergessen, dass erstens die Zahlen relativ sind und zweitens, dass Social Media nicht hauptsächlich dazu da sind, Besucher auf Webseiten und Blogs zu holen, sondern zur Kommunikation - von der freundschaftlichen und/oder beruflichen Vernetzung bis zu Kundenservice und Unternehmenskommunikation.

Darüber hinaus bewerten Suchmaschinen - so weit man über die Algorithmen weiß - auch die Aktivitäten von Autoren in Social Media, so dass diese zu einer besseren Platzierung von deren Artikeln in den Suchergebnissen führen können, was dann über Umwege auch zu mehr Besuchern führt - genauso wie auch die Vernetzung in Social Media zu einer Verlinkung durch andere Teilnehmer führen kann, was sich natürlich auch auf die Besucherzahlen auswirken würde.

Mich interessiert, ob andere Blogger und Webseitenbetreiber ähnliche Beobachtungen gemacht habt oder ob ich mit meinen Zahlen eine Ausnahme von einer ganz anderen Regel bin.

Sonntag, 23. Dezember 2012

Offline- oder Online-Shopping?

Gedanken zur "Pappkartonzeit" - früher bekannt als Weihnachten

Während sich die Online-Händler über Rekordumsätze freuen, gehen für manchen stationären Laden die Lichter aus. Das veränderte Kaufverhalten der Konsumenten wird Auswirkungen auf Städte, Leben und Kultur haben. 

Im Dezember ist Hochkonjunktur bei den Pickern, Packern und Paketfahrern - den geschundenen Arbeitssklaven der schönen neuen E-Commerce-Welt. Dann bringen sie uns, was wir über Kataloge, Tele-Shopping und das Internet bestellt haben, um die Augen unserer Lieben zum Glänzen zu bringen. Die Läden in den Innenstädten dagegen bleiben zunehmend leer. Oh du fröhliche Pappkartonzeit: Zu Weihnachten treffen wir uns nicht mehr in den geschmückten Innenstädten zu Glühwein und Plätzchen, sondern auf den Wertstoffhöfen zum Pappkartonabgeben - damit wir unter diesen nicht in unseren Wohnungen ersticken.

Tote Innenstädte als Folge des zunehmenden Online-Handels?

Als ich vor Jahren damit begann, online einzukaufen, dachte ich nicht daran, dass das, was ich nicht nutze - die vielfältigen Einkaufsmöglichkeiten der Innenstädte -, verschwinden könnte. Tat es ja auch nicht, solange wir Online-Käufer nur relativ wenige waren. Wenn uns danach war, dann konnten wir jederzeit in die Innenstädte gehen - die Einkaufsstraßen und ihre Geschäfte waren noch da, genauso wie die Cafés, Kinos und die Museen. Aber dass das noch lange so bleibt, muss man inzwischen bezweifeln.

Der Einkauf über das Internet nimmt rasant zu - der Umsatz steigerte sich von 1,3 Milliarden Euro 1999 auf 31 Milliarden Euro 2012. Die Tablet-PCs und Smartphones, die zu diesem Weihnachtsfest verschenkt werden, dürften diese Entwicklung vermutlich noch beschleunigen.

Der Buch- und Musikhandel ist aus den Innenstädten schon fast verschwunden, derzeit tobt ein Kampf um Marktanteile in den Sparten Schuhe und Textilien, den viele stationäre Läden verlieren werden. Die anderen Sparten des Einzelhandels werden wohl nach und nach folgen - die stationären Läden sind zunehmend nicht mehr konkurrenzfähig, denn der Wettbewerb geht zu einem großen Teil über den Preis und die Preise in den Läden der Innenstadt müssen - bedingt u. a. durch die immer höheren Mietpreise an diesen Standorten - anders kalkuliert werden. Dazu kommt, dass die Innenstadtläden nicht nur mit dem Versandhandel (Katalog-, Tele-Shopping- und Online-Handel) konkurrieren müssen, sondern auch mit den Einkaufszentren in den Randzonen der Städte.

Die Geschäfte kämpfen ums Überlegen, die Angestellten um ihre Jobs. Wenn sie verlieren, werden als Folge vermutlich auch der Großteil der Restaurants, Cafés, Kinos und Museen aus den Stadtzentren verschwinden. Die Straßenkünstler werden dann nach Mallorca oder Phuket auswandern müssen oder sonst irgendwohin fahren, wo noch Menschen in einer größeren Anzahl draußen flanieren und sie eine Chance auf Zuschauer und damit Einnahmen haben.

Kundenverhalten ist auch "Kommunikation"

Was Verbraucher tun, ist auch "Kommunikation" in dem Sinne, wie der Begriff im Marketing gebraucht wird. Wenn ich nicht mehr zum Einkaufen in die Läden meiner Stadt oder der nächsten Großstadt gehe, dann signalisiere ich - C2B (Consumer to Business) sozusagen - "Ich brauche euch nicht mehr." Natürlich denkt oder sagt das jeder mal, wenn er oder sie sich gerade über eine schnippische Bedienung geärgert hat. Aber will man deshalb auf die Innenstadt-Shopping- und Kulturinfrastruktur verzichten?

Bevor die Innenstädte wirklich sterben, sollten wir als Konsumenten uns dieses Prozesses bewusst werden und uns fragen, ob wir diese Veränderungen, die wir durch unser Verhalten in Gang setzen, wirklich dauerhaft wollen - denn "wenn weg, dann weg".

Innovation um jeden Preis?

Innovation ist (meistens) gut - sie eröffnet neue Möglichkeiten, hat aber auch etwas Destruktives - d. h.: Etwas, was vorher da war, wird von etwas Neuem verdrängt. Der Ökonom behauptet lapidar, der stationäre Handel sei nicht mehr zeitgemäß. Aber stimmt das? Ist er uns nicht mehr wichtig oder sind wir nur vorübergehend neugierig auf die neue Mode "Online-Shopping"?

Nicht alles, was verschwindet, ist es wert, dass man es betrauert: Wer vermisst schon Musikkassetten, die sich dauernd zu Bandsalat verhedderten, oder Minipli-Dauerwellen bei Männern, wie es in den 1980er Jahren modern war. Die Frage ist, ob wir für die Innovation "Online-Einkauf" (E-Commerce) unsere lebendigen Innenstädte als Preis aufgeben wollen. Die fehlenden Gewerbesteuereinnahmen aus dem stationären Handel werden die Haushalte der Städte und Gemeinden belasten - d. h., es wird weniger Geld für Kultur-, Architektur- und Infrastruktur-Projekte da sein. Ist es das wert? Oder wie könnte man das kompensieren?

Wenn Online-Kauf zum ethischen Armutszeugnis wird

Es ist eine Sache, wenn man gerne online einkauft, weil es bequem ist und man im Internet eine sehr große Auswahl hat. Viele kaufen auch deshalb online, weil sie hoffen, damit Zeit zu sparen - doch in Wahrheit verbrät man beim Online-Einkauf viel Zeit mit Recherche, auf Postämtern und in Paketshops sowie auf den Wertstoffhöfen, wenn man die enormen Mengen an Verpackungen entsorgen muss.

Unethisch wird es jedoch meiner Meinung nach, wenn man sich im Laden ausführlich beraten lässt, dann das empfohlene Produkt aber über einen Online-Händler billiger kauft - dafür gibt es bereits passende Apps. So "kommuniziert" man zwar nicht "Ich brauche euch nicht mehr", aber demonstriert dafür seine fehlende Solidarität (und seine soziale Inkompetenz).

Sollte sich der Trend ausweiten, werden wegen fehlender Einnahmen noch mehr Verkäufer entlassen als ohnehin schon, die restlichen werden mehr und mehr durch billige Auffüllkräfte ersetzt - dann kann man erst richtig über die Inkompetenz von Verkäufern und die Servicewüste im deutschen Einzelhandel meckern. Die Ausbildungsplätze fallen dann auch weg, bis es irgendwann den Gnadenstoß gibt: Insolvenz. Dann kann der Billig-um-jeden-Preis-Konsument seine App wieder löschen.

Sind die Stadtzentren noch zu retten?

Handel und Märkte sind in fast jeder Gesellschaft ein zentrales Element. Sicher - eine Gesellschaft und Kultur sollte sich nicht nur über den Konsum definieren. Und es gibt anderes, das Städte lebendig macht - beispielsweise sind die neuen, manchmal von Kommunen geförderten Urban-Gardening-Projekte neue Orte der Begegnung und Kommunikation - doch wird dieser Trend meiner Ansicht nach nicht die Stadtzentren ersetzen können (und auch nicht die Taschen der Städte und Gemeinden füllen).

Wenn die Gewerbesteuereinnahmen des stationären Einzelhandels in den Haushalten der Städte wegbrechen, dann wird das Geld für Restaurierungen fehlen und vermutlich auch viel an gewohnter Innenstadtkultur wegfallen oder teurer werden.

Ich kann am Horizont bis jetzt kein Rettungsschiff erkennen.

Online-Giganten schieben ihre Gewinne am deutschen Fiskus vorbei

Wenn Konsumenten statt in stationären Geschäften vor Ort wenigstens in deutschen Online-Shops einkaufen, haben immerhin deren "Standortgemeinden" was von der eingenommenen Gewerbesteuer. Denn, was ist mit der Steuerpflicht internationaler Großkonzerne wie dem Online-Händler Amazon? Laut taz organisiert Amazon zwar den Versand über Deutschlanddependancen, da die Zahlungen jedoch über die europäische Zentrale in der "Steueroase Luxemburg" abgewickelt werden, dürfte das Geld zum Großteil am deutschen Fiskus vorbeigeleitet werden - letztendlich zu unserer aller Nachteil. Laut Focus handelt es sich im Falle von Deutschland um zweistellige Milliardenbeträge, die dem Fiskus durch Gewinnverlagerungen jährlich verloren gehen - durch amerikanische Unternehmen, die gleichzeitig EU-Subventionen erhalten - mal ehrlich: Die müssen sich doch über uns totlachen! Inzwischen werden einige EU-Länder aktiv, um diesen "Steuertricks" ein Ende zu bereiten. Man wird sehen, ob sie sich durchsetzen können.

Innovationen schaffen neue Berufe?

Sicher - im Laufe der Geschichte verschwanden immer wieder Berufe - dafür entstanden neue. Mit dem Internet und dank E-Commerce stieg der Bedarf an Programmieren, Designern, Administratoren, Online-Marketing-Spezialisten etc. Durch seine innovative Kraft, einer perfekten Logistik und mit seinem Image der Zuverlässigkeit hat Amazon entscheidend zum Erfolg und Wachstum des Online-Handels beigetragen - der ja als solcher nichts Schlechtes ist, aber wie alles eben auch Nebenwirkungen bzw. seinen Preis hat. Doch, was wird aus denen, die jetzt Verkäufer sind? Müssen die alle in Zukunft als Picker und Packer bei den Online-Händlern arbeiten oder Paketfahrer bei Logistikunternehmen werden? In beiden Fällen dürften sie beruflich und finanziell demnächst noch weniger zum Lachen haben als jetzt schon, denn diese neuen Jobs gehören zu den prekären Erwerbsverhältnissen: unsicher, sehr schlecht bezahlt, machtlos als Arbeitnehmer und mit wenig Schutz durch Sozial- und Arbeitsrecht. Man kann nur hoffen, dass die Politik endlich gegen die Ausbeutung dieser Menschen vorgeht.

Offline- oder Online-Shopping?

Ich würde unsere lebendigen Stadtzentren vermissen - sowohl die großen Konsumtempel als auch die kleinen Boutiquen und Galerien, die Kinos und die kleinen Museen, die Maroni-Verkäufer und die Straßenmusiker. Sie sind doch Teil unserer Kultur. Dabei ist es mir nicht wichtig, ob ich mir jeden Luxus dort leisten kann oder will - ich kann gut damit leben, dass ich es nicht kann. Aber es ist schön, dass sie da sind, dass mich manches dort zum Träumen, anderes zum Kaufen und Schenken anregt.

Ich möchte ehrlich gesagt, beides: Online-Handel, wenn es mal schnell gehen muss und ich weiß, was ich will, und den stationären Handel in bunten lebendigen Innenstädten mit Weihnachtsdekoration oder was sonst gerade zur Jahreszeit passt und Verkäufer/Verkäuferinnen, mit denen man mal lachen, aber auch mal streiten kann.

Ich weiß nicht, ob wir beides haben können. Ich werde jedenfalls meinen Beitrag für die Innenstädte leisten, indem ich wieder viel öfter in die Stadt zum ganz altmodischen Einkaufen gehen werde - Retro sozusagen.

Quellen:

Sonntag, 11. November 2012

Neues von der SEO-Front: WDF*P*IDF und Relevanz

"Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

Relevanz - was ist das?

Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

Statt Keyword-Dichte lieber Gewichtungsformel?

Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

Die Gewichtungsformel WDF*P*IDF ist das Produkt von
WDF, IDF und einem Korrekturfaktor P

WDF und IDF sind Begriffe aus der Textstatistik:
  • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
    Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
  • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
    Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

P ist nur ein Gewichtungswert (Korrekturfaktor).

Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

Beim Wettbewerber abgucken

Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

Den Google-Algorithmus füttern - will man das?

Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

Quellen und weiterführende Informationen

Donnerstag, 30. August 2012

Wie viele Seitenbesucher kommen durch Facebook, Google+ und Twitter?

"Vergebliche Mühe" titelt internet WORLD BUSINESS heute und meint damit die Jagd nach möglichst vielen Facebook-Fans. Das machte mich neugierig und ich konsultierte die Quelle und meine eigene Statistik des vergangenen Monats.

Der Online-Artikel von internet WORLD BUSINESS bezog sich auf eine Untersuchung von BuzzFeeD (alle Quellen unten), die nach einer Korrelation zwischen der Anzahl von Facebook-Fans von Verlagen und dem Traffic suchten, den diese Verlage über Verweise in Facebook auf ihre "Sites". BuzzFeeD kam zu dem Schluss, dass es keine bis wenig Korrelation gibt: Viele Fans bedeuten nicht unbedingt viele Besucher (= mehr "traffic"). Dabei dürfte es keine Rolle spielen, ob diese "Sites", die verlinkt wurden, als statische Webseiten oder als Blog realisiert sind.

Nach der Lektüre dieses Artikels schaute ich mir meine eigene Statistik vom vergangenen Monat für tinto.de und andere eigene Domains hinsichtlich Besucher-Quellen an. Meine Inhalte befinden sich vorwiegend auf statischen Seiten, die ich seit 1998 betreibe, aber es ist auch ein auf eigener Domain integrierter Blog dabei.

Das Ergebnis für diese selbstgehosteten Inhalte:
  • < 2 % der Besuche kommen über Facebook 
  • ~ 0,5 % der Besuche über Google+ 
  • ~ 0,2 % der Besuche über Twitter 
Zum Vergleich:
  • ~ 72 % der Besuche kommen über die Google-Suche 
  • ~ 7,5 % der Besuche waren direkt
  • ~ 2 % der Besuche kamen über die Bing-Suche 
  • ~ 1 % der Besuche über Blogger (Blog-Plattform)
Traffic-Quellen Social Media
Herkunft der Webseiten-/Blogartikel-Besuche in Prozent
(Ausgesuchte Traffic-Quellen: Social Media u. a.)


Zähle ich die Besuche über Facebook, Google+ und Twitter zusammen, dann kommen ca. 2,2 % meiner Domain-Besuche über diese drei Social Media-Plattformen zustande. (Ich stelle in Social Media allerdings auch Artikel vor, die sich auf Blogger-Blogs (als nicht auf einer eigenen Domain) befinden - diese Verweise sind in dieser Statistik nicht enthalten, da sie extern gehostet sind.)

Jedenfalls kommen knapp 2 % der Seitenbesuche auf meinen eigenen Domains von Facebook - und da hauptsächlich von meiner Gartensaison-Facebook-Page, wo die "Fans" und ich eine rege kleine Austauschgruppe von Garten- und Pflanzenfreunden bilden, die sich gegenseitig unterstützen.

Der Traffic von Social-Media-Plattformen ist nur ein Kriterium von vielen

Die Zahl der Besucher, die über Facebook kommen, ist nicht wirklich beeindruckend. Es wäre noch interessant zu wissen, wie sich die Fan-Zahlen und die Interaktionen mit den Fans auf den Google-Algorithmus (und damit die Sichtbarkeit in den Sucherergebnissen der Google-Suche) auswirken. Doch leider werden solche Algorithmen nicht offengelegt.

Überrascht bin ich, wie wenig Seitenbesuche über Google+ und Twitter zustande kommen, obwohl dort meine Follower-Zahlen ein Vielfaches betragen - das bestätigt allerdings die Ergebnisse von BuzzFeeD, auch wenn die sich nur auf Facebook bezogen: Mehr Fans, Einkreiser oder Follower bedeuten nicht unbedingt mehr Traffic.

Circa 1 % der Besucher auf meinen Domains finden über Blogs bei Blogger zu mir. Blogger ist eine kostenlose Blog-Plattform für Anfänger aus dem Hause Google. Auch in diesem Fall sind es hauptsächlich Garten-Interessierte und teilweise an Geldthemen interessierte Besucher, die über die Links von dort zu meinen Webseiten kommen. Die Verweise stammen zum Teil von eigenen Blogger-Blogs, die ich als Ergänzung zu den Websites auf meinen Domains führe. Inzwischen habe ich allerdings auch einen Wordpress-Blog auf der eigenen Domain (weshalb der nicht als externe Quelle geführt wird).

Wenn ich nur den Zeitaufwand für meine Social-Media-Aktivitäten und die dadurch generierten Besuchszahlen ("traffic") gegenüberstellen würde, dann würde ich diese wohl einschränken und meinen Fokus noch stärker auf Seiten-/Artikel-Erstellung und Suchmaschinen-Optimierung legen müssen. Doch möchte ich zum einen die Abhängigkeit von der Google-Suche (-> Machtkonzentration) verringern und zum anderen die Inspiration (einschließlich der täglichen Aufreger) und die Kommunikation mit den Menschen aus aller Welt nicht missen.

Quellen

Montag, 27. August 2012

Klout Score oder wer hat den größten ...

... Einfluss in Social Media

All das Vernetzen, Teilen, Diskutieren und oft genug Geschwafel in Social Media und am Ende des Tages hat man dem Chef oder potenziellen Auftraggebern nichts vorzuweisen? Von wegen. Da werden die Twitter-Follower, Facebook-Freunde bzw. -Fans und Google+-Einkreiser rausgekramt und mit dem vorherigen Stand sowie denen von anderen verglichen. Da wird geguckt, wie oft retweetet, geliked und geteilt wurde und über wen und was in Social Media gesprochen wird.

Das ist viel zu mühlselig für den schnellen Überblick, wie einflussreich jemand in Social Media ist, sagten sich die Gründer der Klout Inc. aus Kalifornien: Wir rühren all diese Informationen zusammen, setzen einen Algorithmus dran und der spuckt dann den Klout-Wert (Klout Score) aus. Am Ende des Tages kann sich der Klout-Nutzer sagen: Wow, er ist wieder gewachsen - ich muss toll sein. Auf der anderen Seite wird denen, die nach Influencern - Leuten, deren Äußerungen von vielen beachtet werden - suchen, die Suche erleichtert.

Eva Schumann bei Klout
Den größten hat übrigens Barack Obama (Klout Score 99 von maximal 100) und auch Justin Bieber ist Klout-mäßig gut bestückt mit 92.

Doch das ist nur die eine Seite der Medaille. Die andere ist: Dadurch, dass allen Social-Media-Nutzern ein immer wieder neu berechneter Klout-Wert zugeordnet wird und sie kategorisiert werden (Klout Style - siehe weiter unten), sind sie von Unternehmen bzw. deren Marketing-Abteilungen/-Agenturen für ihr Marketing prima nutzbar.

Klout Inc. ist also ein weiteres US-amerikanisches Internet-Unternehmen, das mit einem intransparenten Algorithmus arbeitet und sich über das Internet ausbreitet wie ein ansteckender Ausschlag. Das Unternehmen wurde 2007 von Joe Fernandez (CEO) und Binh Tran gegründet. Eigenen Angaben zufolge wurden bereits über 100 Millionen Profile erstellt (Quelle Wikipedia English) - nicht nur von freiwillig registrierten Klout-Mitgliedern, sondern auch von Menschen in deren Netzwerken.

Kritik an Klout

Gerade dieses Daten-Staubsaugen und Klout-Score-Generieren von Nicht-Mitgliedern ist den Kritikern ein Dorn im Auge. Des Weiteren wird die tatsächliche Aussagekraft des Klout Scores hinsichtlich Einfluss und damit Reputation bezweifelt - nicht zuletzt wegen seiner Manipulierbarkeit (Stichworte: Twitter-Spam, gekaufte Facebook-Freunde etc.) und der fehlenden Berücksichtigung von Qualitätskriterien (Motto: "Masse statt Klasse"). Dazu kommt, dass der Klout Score das Leben und den Einfluss außerhalb von Social Media bzw. außerhalb der Main-Stream-Social-Media-Plattformen nicht berücksichtigt (was ist mit den Foren, die im IT-/Mobilbereich immer noch eine Bedeutung haben u. ä.). Noch ein weiterer Kritikpunkt ist der, dass die Reputation von Social-Media-Teilnehmern von einem kommerziellen Unternehmen bewertet wird - eine ähnliche Konstellation bereitet ja bereits genug Diskussionsstoff bei den Ratingagenturen und der SCHUFA. Seine Mitbewerber in der Reputationsmessung wie beispielsweise den PeerIndex hat der Klout Score schon weitgehend ausgestochen.

Guter Klout Score wird belohnt

Der Klout Score weckt andererseits Spieltrieb und Ehrgeiz und den erfolgreichsten winken Goodies (genannt "Klout Perks") - das sind mal Gutscheine, mal Kosmetika, mal eine Testfahrt mit einem neuen Automodell oder Freiflüge für eine neue Flugverbindung etc. Viele der bekannten Social-Media-Hengste (Top-Influencer - ja, ich bin nur neidisch) lieben den Klout Score.

Und wie kommt Klout an all die Daten?

Die Plattform verbindet sich mit Einwilligung des Klout-Nutzers mit seinen verschiedenen Social-Media-Acounts und liest da offensichtlich aus, was er braucht - und ich fürchte, am Ende des Tages weiß Klout so viel über uns, wie all die einzelnen Social-Media-Plattformen zusammen. Clever. Beängstigend!

Was der Klout Score berücksichtigt

Facebook: Mitteilungen, Erwähnungen, Likes, Kommentare, Freunde etc.
Twitter: Retweets, Erwähnungen, Listen-Mitgliedschaft, Follower, Antworten
Google+: Kommentare, +1s, Teilen ("Reshares")
Klout: +K, die man von anderen erhält.

Weitere Social-Media-Plattformen, die für die Klout-Score-Berechnung berücksichtigt werden: LinkedIn (da sieht man, dass der Klout-Wert auf den amerikanischen Markt zugeschnitten ist, denn bei uns hätte wohl XING die größere Bedeutung), foursquare, Wikipedia - alles nachzulesen bei Klout.com.

Klout Style

Klout Style ist kein neues Modemagazin, sondern kategorisiert die Klout-Nutzer. Da gibt es die Kategorien Celebrity, Broadcaster, Observer, Explorer, Networker, Specialist, Socializer und viele andere mehr. Google ist beispielsweise mit einem Klout von 94 bewertet und wird als Celebrity eingestuft. Zur Celebrity-Kategorie heißt es (frei übersetzt): "Sie haben die maximale Einfluss-Stufe erreicht. Die Menschen lauschen jedem Ihrer Worte und teilen Ihre Inhalte wie keine anderen. Wahrscheinlich sind sie im wirklichen Leben berühmt und Ihre Fans können von Ihnen einfach nicht genug bekommen." Na, wenn das nicht wahr ist. (Aber übrigens, es gibt da das kleine Dorf in Gallien, die finden das nicht gut ... -> Google's Quasimonopolstellung).

Nachtrag:
Und kaum hatte man sich dran gewöhnt, wurde der Klout Style und ein paar andere Einblicke leider - als "Networker" kategorisiert zu werden, hatte mir gefallen - wieder abgeschafft. Statt dessen werden einem "Klout Moments" gezeigt. Klout Moments sind die letzten Interaktionen mit anderen auf ausgewählten Social-Media-Plattformen.

Klout Score als Eintrittskarte

Laut einem Artikel in WIRED vom April 2012 kann der Klout Score - je nach Beruf und angestrebter Position - durchaus ausschlaggebend sein, wer von mehreren Bewerbern den Zuschlag für den Job bekommt und wer nicht. Außerdem hätten Personen mit einem höheren Klout Score bessere Dienstleistungen oder Hotelzimmer bekommen - wohl in der Hoffnung, dass diese Influencer dann später über positive Erfahrungen in Social Media berichten. Laut den Frequently Asked Questions (FAQ) auf der Klout-Site, nutzen 3.000 Anwendungen und Partner Klout-Daten, um Klout-Werte darzustellen und Influencer mit einem bestimmten Klout-Wert zu einem bestimmten Thema, Lokalität o. ä. zu finden.

Klout Geschäftsmodell

Wenn ich das Geschäftsmodell von Klout richtig verstehe - denn mit irgendetwas müssen sie ja schließlich Geld verdienen - dann ermöglicht Klout Unternehmen "Klout-Perks-Aktionen" durchzuführen, bei denen eine Marke und die optimalen Influencer zusammengebracht werden. Diese optimalen Influencer erhalten dann Klout Perks und können über ihre Erfahrungen mit dem jeweiligen Produkt berichten - müssen aber nicht. Andererseits sagt Klout, dass sie die Identitäten der Influencer gegenüber Werbetreibenden nicht offenlegen und auch keine Daten verkaufen würden. Also fungiert Klout als Mittelsmann zwischen Unternehmen/Marke und Influencer bei der Klout-Perks-Vermittlung.

Führt ein Weg an Klout vorbei?

Ich habe lange Zeit versucht, mich aus dem Klout-Gedönse rauszuhalten. Aber es kamen ständig E-Mail-Einladungen, bis ich es aufgegeben habe. Ich oute mich: Ich bin dabei - aber ohne mich groß zu engagieren. Und ja: Ich hab nichts dagegen, wenn mir jemand ein +K gibt. Ich will auch einen großen haben - ist wohl dieser Neid, von dem schon Sigmund Freud sprach ;-). http://klout.com/#/eva4tinto

Freitag, 13. Juli 2012

Blog bekannt machen - Fortsetzung

Was sich durch die Google Algorithmus Updates Panda und Penguin verändert hat.

Dies ist eine Ergänzung zu den Blog-Posts vom vergangenen Jahr:
Blog bekannt machen Fortsetzung
Im ersten Blogbeitrag werden die Möglichkeiten beschrieben, wie man seinen Blog bekannt machen kann - denn wer schreibt, der will in der Regel auch gelesen werden. Im zweiten Blog-Post geht es speziell um die Suchmaschinenoptimierung (Search Engine Optimization, SEO) mit seriösen Mitteln - denn wer in den Suchergebnissen nicht vorne gelistet ist, ist im Internet praktisch unsichtbar. Wegen ihrer Quasi-Monopolstellung wird besonders auf die SEO für die Google-Suche eingegangen, denn wer keine gute Position in den Sucherergebnissen (Search Engine Results Positions - SERPs) von Google hat, dem fehlt eine wichtige Möglichkeit, Leser für seine Blogbeiträge zu finden.

Die Möglichkeiten, wie man einen Blog bekannt machen kann, sind zwar im Wesentlichen die gleichen geblieben und die wichtigste Voraussetzung für den Erfolg eines Blogs oder eines anderen Webangebotes ist immer noch Content, der einzigartig ist und dem Nutzer einen Mehrwert bietet - also informative und gut geschriebene Texte, Bilder, Videos, Anwendungen etc. Trotzdem sollte man ein paar Fallen kennen, die sich durch die Veränderungen des Google-Algorithmus aufgetan haben, damit man nicht von Google abgestraft wird (Google Penalty). Denn es kann auch Unschuldige treffen.

Blog bekannt machen
Achtung: Google Algorithmus Updates

Google möchte mit den Updates seines Suchalgorithmus die Suchergebnisse verbessern. Zum einen wurden das Suchverhalten und Bewertungen der User in den Algorithmus integriert. Zum anderen sollen Manipulatoren, die mit unlauteren Methoden (Black Hat SEO) arbeiten, von den vorderen Plätzen vertrieben oder ganz ausgeschlossen werden.

Die wichtigsten Google-Algorithmus-Updates heißen

Google Panda (begann im Februar 2011)
Durch die verschiedenen Google Panda Updates soll die Qualität der Blogs oder der Webseiten (Onsite-Kriterien) gecheckt und in den Algorithmus integriert werden: Ist der Content gut und einzigartig? Bietet er einen Mehrwert? Bleiben die Besucher auf der Seite oder fliehen sie gleich wieder?

Google Penguin (bekannt gegeben am 24. April 2012)
Durch Google Penguin wird neben Onsite-Kriterien wie Keyword-Stuffing (unnatürliche Wiederholung des Keywords im Text oder in den Meta-Tags) die Verlinkung (Offsite-Kriterien) gecheckt. Massenhaft Links von minderwertigen Domains/Seiten (z. B. von Linkschleudern - das sind Verzeichnisse, wo jeder Links eintragen kann, ohne dass es eine Qualitätsprüfung gibt) können sich negativ auswirken. Google bestraft auch, wenn Inhalte mehrmals im Netz vorhanden sind - ein Problem, wenn ein Unternehmen mit örtlichen Filialen die gleichen Texte (bis auf Anfahrtsinformationen o. ä.) auf alle lokalen Seiten stellt - was sachlich völlig logisch wäre. Aber auch für den normalen Blogger kann "duplicate Content" zum Problem werden, wenn die gleichen Inhalte über verschiedene URLs zu erreichen sind oder auch wenn Inhalte unberechtigt wiederverwendet wurden (Content-Klau) - wegen letzterem sollte man regelmäßig überprüfen, ob Inhalte des Blogs oder der Webseite kopiert und woanders noch einmal ins Netz gestellt werden (dafür gibt es Werkzeuge, z. B. Copyscape).

Leider zeigen Google's Maßnahmen zur Verbesserung der Suchergebnisse bisher nur mäßigen Erfolg, denn bei manchen Suchbegriffen (Keywords) sind immer noch einige nahezu inhaltslose Seiten voller Werbung auf den vorderen Plätzen vertreten. Andererseits wurden schon "unschuldige" Webseiten und Blogs abgestraft und flogen aus dem Index. Auf jeden Fall bibbern auch ganz normale Webseitenbetreiber und Blogger vor Angst wegen der Google Algorithmus Updates, denn Sichtbarkeit oder Unsichtbarkeit kann über die Existenz entscheiden - und am Drücker sitzt das Mega-Unternehmen Google mit seiner Quasi-Monopolstellung.

Manche Google Maßnahmen haben außerdem böswilligen Wettbewerbern, die Möglichkeit eröffnet, Blogs und Webseiten aus dem Index zu katapultieren, die sie loshaben wollen - z. B. indem sie massenweise Links von minderwertigen Linkschleudern zu einer konkurrierenden Seite setzen (was dann durch das Google Penguin Update geahndet wird) oder indem sie den Mitbewerber bei Google denunzieren - wozu Google aufgerufen hat.

Ergänzungen und Meinungen können gerne über die Kommentarfunktion hinzugefügt werden.

Quellen und weiterführende Informationen


Sonntag, 3. Juni 2012

Monopolstellung + Richtlinien = Macht

Monopolstellungen und Richtlinien von Mega-Unternehmen sollten unter die Lupe genommen werden, denn Quasi-Monopolisten wie Google (mit einem Marktanteil von 96 %) können ihre Richtlinien wie Gesetze durchdrücken und behindern damit den freien Wettbewerb.

Google's Monopolstellung verleiht zu viel MachtUm es gleich vorwegzunehmen:
Ich führe keinen Feldzug gegen Google. Google ist eine tolle Firma, die sich durch innovative Ideen, geschicktes Vorgehen und gute Produkte einen Platz als Marktführer in der Suche erobert hat. Die, die schneller auf Veränderungen in der Welt reagieren müssten, sind Politiker, Gesetzgeber, Kartellwächter und ähnliche. Sie müssen die gesetzlichen Rahmenbedingungen setzen, damit nicht am Ende die Welt den Megaunternehmen gehört und diese ihre eigenen Richtlinien zu Gesetzen machen können. Ach, ich vergass: Das ist doch, was bereits passiert!

Anzeige


Die meisten Internetnutzer wollen Geld sparen und Informationen ohne monetäre Bezahlung nutzen und es ist ja auch toll, dass das Internet Informations- und Kommunikationsmöglichkeiten unabhängig vom Einkommen bietet. Aber irgendwie müssen auch Publisher ("Veröffentlicher im Internet" - also Betreiber von Informations-, Schulungs-, und Themen-Webseiten/-Blogs) überleben. Also finanzieren sie ihre Webseiten und Blogs über Werbung auf ihren Seiten - oder zumindest versuchen sie es. Dazu setzen sie Werbung ihrer Werbepartner auf die Webseite. Dies sind überwiegend keine herkömmlichen Werbebanner oder Werbetexte mit einem Link zum Angebot des Werbenden, wie man dies direkt mit einem Werbekunden vereinbaren könnte, sondern der Publisher platziert einen Code in den Quellcode seines Blogs oder seiner Homepage, den er von den Werbepartnerprogrammen (Google Adsense, Amazon Partnerprogramm, Affiliate-Plattformen etc.) erhält.

Doch dieser Code ist eben nicht nur ein einfacher Link, sondern ermöglicht es diesen Unternehmen, die Seiten des Publishers und seine Besucher zu tracken - also Daten zu sammeln, Profile zu erstellen und so z. B. personalisierte Werbung (z. B. über Google Adwords) seinen werbetreibenden Kunden anzubieten und (z. B. über Google Adsense) einzublenden. Wer einmal sehen möchte, wer alles mitliest, wenn er/sie eine Webseite besucht, sollte Ghostery (alle Quellen unten) ausprobieren. Denn da sind ja auch noch Twitter, Facebook, Google+ und Co., deren Knöpfe über ähnliche Codes in Webseiten und Blogs eingebaut werden und die genauso tracken.

Die Richtlinien von Google verbieten das Setzen von Links aus bezahlter Werbung auf die Webseite des Werbenden, wenn diese Links nicht im Code mit "nofollow" gekennzeichnet werden - doch das möchten die direkten Werbekunden nicht: Sie wollen den Werbeeffekt plus die Backlinkwirkung von einer guten Seite, dafür sind sie bereit zu zahlen. Google aber droht Publishern und Werbern bei Zuwiderhandlung gegen ihre Richtlinien mit Abstrafung und Unsichtbarkeit in der Google Suche (also im äußersten Fall mit Existenzvernichtung, denn wer in der Google-Suche fehlt, ist praktisch nicht existent). Und nun ruft Google auch noch zur gegenseitigen Denunziation auf.

Als Grund für diese Paid-Links-Richtlinie von Google wird die Verhinderung von Spamming angegeben (in diesem Zusammenhang meint Spamming das Nachvornedrücken von Webseiten in den Trefferlisten der Suchmaschine durch viele gekaufte Links oder Links von eigens dazu generierten Linkschleudern). Ehrlich gesagt, glaube ich diesen Grund nicht mehr, denn Google sollte längst in der Lage sein, schlechte Links von unbrauchbaren Seiten ("Linkfarmen") herauszufiltern und diese entsprechend nicht als "Linkjuice" zu werten (das lernt man doch schon im Internet bei Udacity und Coursera).

Ich habe den Verdacht, Google will seine Monopolstellung ausnutzen, um selbst das Eingangstor zu Werbevereinbarungen zu bleiben/werden und Publisher zur Nutzung von Google Adsense zu manipulieren - denn wenn Publisher mit Google Adsense zusammenarbeiten, anstatt direkt mit Werbekunden Vereinbarungen zu treffen, macht Google dabei seinen Schnitt.

Dabei würde ein verantwortungsvoller Publisher doch nur Werbekunden akzeptieren, die er selbst gut und zu seinen Inhalten passend findet (was den Dofollow-Link rechtfertigt), während er bei Google Adsense weniger bzw. nur komplizierte oder nachträgliche Kontrollmöglichkeiten hat und sich oft genug über die eingeblendete Werbung die Haare rauft. Und natürlich würde ein verantwortungsbewusster Publisher Werbung aus Verbraucherschutz- und Transparenzgründen als solche kennzeichnen - wie es in Deutschland ja auch gesetzlich vorgeschrieben ist.

Durch den Druck jedoch, den Google durch seine Monopolstellung und seine Richtlinien auf Publisher ausübt, treibt das Unternehmen vermutlich etliche Publisher dazu, Werbetexte mit Do-Followlinks nicht als solche zu deklarieren - zum Nachteil des Verbrauchers, der einen Anspruch auf Transparenz hat.

Witzigerweise fand t3n Anfang des Jahres Hinweise, dass Google selbst seine Richtlinien bei Werbung für seinen Chrome Browser missachtete und Werbelinks nicht als Nofollow-Links ausgewiesen wurden. Doch ich finde das eigentlich irrelevant, denn meiner Meinung nach gehört diese Richtlinie grundsätzlich verboten.

Google's Quasimonopolstellung und seine Richtlinien sollten endlich rechtlich unter die Lupe genommen werden und Gegenmaßnahmen ergriffen werden. Denn solche Richtlinien und Strafandrohungen eines Unternehmens mit einer dominanten Marktstellung behindern den freien Wettbewerb und schwächen Publisher.

Anzeige


Quellen und weiterführende Informationen


Freitag, 25. Mai 2012

Google's quasi-totalitäre Herrschaft

Matt Cutts ("I am the head of the webspam team at Google") fordert dazu auf, Webspam von Mitbewerbern zu melden. Da frage ich mich schon: Ist das ein Aufruf eines (welt-)marktbeherrschenden Megakonzerns an seine "Bürger" zur Denunziation anderer "Bürger"? Und an was erinnert mich das? Jedenfalls nicht an Demokratie!

Google hat eine Vormachtstellung im Suchmarkt: Laut W&V hat die Google-Suchmaschine in Deutschland einen Marktanteil von 96 %. Die Google-Suche bestimmt im Grunde, wer sichtbar ist im Internet - zumindest für die Internetnutzer, die mit einer Suchmaschine recherchieren.

Was in den Suchergebnissen gezeigt wird, hängt vom Google-eigenen Suchalgorithmus ab, den Google ständig zu verbessern sucht - angeblich nur im Sinne des Nutzers, aber die seit neuestem beobachtete Bevorzugung großer Marken könnte auch andere Interessen vermuten lassen. Jedenfalls: Auch nach gefühlten 1.000 Panda- und seit neuestem auch Penguin-Updates des Google-Algorithmus ist Google mit den Suchergebnissen auf den vorderen Plätzen nicht zufrieden. Und als Publisher und Nutzer muss ich sagen: Ja, ich auch nicht - es sind bei manchen Suchbegriffen immer noch Seiten mit kaum brauchbarem Content auf den vorderen Plätzen.

Google unterstellt nun, dass daran unlautere Suchmaschinen-Optimierungs-Methoden ("Black Hat SEO") Schuld seien, mit denen der Google-Algorithmus ausgetrickst würde. Matt Cutts, der Kopf der Google-Spam-Brigade, ruft jetzt dazu auf, Mitbewerber, die unlautere Webspam-Techniken nutzen, an Google zu melden und öffnet damit meiner Meinung nach Denunziantentum Tür und Tor. Denn was unter unlauteren Webspam-Techniken zu verstehen ist, definiert natürlich Google selbst und nicht etwa Verbraucherschutzgesetze irgendeines Landes.

Google - die ungeteilte Macht

In unserer Demokratie gibt es aus guten Gründen eine Gewaltenteilung, die die Staatsgewalt auf verschiedene Staatsorgane - Gesetzgebung (Legislative), Vollziehung (Exekutive) und Rechtsprechung (Judikative) - verteilt, um die Macht zu begrenzen (von der vierten Gewalt, der Presse, ganz zu schweigen). Doch im Internet liegt die Macht ganz allein beim Quasi-Monopolisten. Was den Suchmarkt anbetrifft, ist das Google (zu dem übrigens auch YouTube gehört), was Social Media anbetrifft, vor allem Facebook - wobei Google ja über sein Suchmaschinen-Monopol und durch die Verknüpfung der Suche mit anderen Google-Diensten Publisher faktisch zu Google+ zwingt. In ihren Bereichen herrschen die Internetgiganten quasi totalitär - sie machen die Gesetze, verfolgen (bzw. lassen denunzieren) und bestrafen. Bei Zuwiderhandlung bzw. einer Denunziation ist die Existenz, sofern sie auf der Sichtbarkeit im Internet basierte, dahin.

Ach ja - kleine persönliche Anmerkung: Und da wundert sich Google, dass ich als tinto-Publisher nicht ausschließlich Google Adsense Werbung auf meine werbefinanzierten Webseiten und Blogs platziere und nicht noch weitere Google-Tools nutze (solche die offenlegen, wo ich wie viel verdiene), und mich noch abhängiger von Google bzw. mich vollkommen transparent mache? (Dass sie sich wundern, schließe ich aus den E-Mails, die ich immer wieder bekomme: Dass ich mein Adsense-Potenzial nicht ausschöpfe und dass ich doch dieses tolle neue Vergleichstool nutzen könnte - hab vergessen, wie es heißt).

Die Abhängigheit von Google sieht man in dieser Grafik (statistische Auswertung der Besucherquellen für tinto.de und -Projekte (Verbraucherthemen-Mix: Garten, Geld, Gesundheit, Job, Selbstverwirklichung etc.) von Ende April bis Ende Mai 2012).


Die Grafik wurde erstellt mit infogr.am

Macht Google das Internet kaputt?

Ich mag Google und ich mag Facebook - da stecken tolle Ideen und Programmierer dahinter. Ich wünschte, ich hätte solche Visionen. Aber beide Unternehmen wurden zu groß und mächtig - was man eigentlich nicht den Unternehmen vorwerfen kann, denn warum sollten sie nicht wachsen wollen? "The sky is the limit" hatte vor 15 Jahren jeder zweite als Motto in seinen Profilen bei Foren, in Messengern, Chatrooms und bei AOL stehen.

Aber speziell im Falle des Aufrufs von Google zur Denunziation fürchte ich, dass Google Unternehmen und User aus dem nicht-proprietären Internet vertreibt - direkt in die Hände des anderen Datenkraken Facebook (der natürlich nicht weniger totalitär in seinem geschlossenen Reich herrscht)!

Die einzige Möglichkeit für uns Publisher (aber auch Nutzer), eine gewisse Freiheit zu bewahren, sehe ich darin, dass sich Blog- und Webseitenbetreiber gegenseitig stärken. Ideen dazu, Meinungen und Visionen dürfen gerne in den Kommentaren gepostet werden, genauso auch Ideen, ob und wie nationale und internationale Politik die Macht der Megakonzerne einschränken sollte.

Quellen und weitere Informationen
Danke an Eric Kubitz für seine SEO-Woche: News aus der Content Marketing-Maschine, die mich auf diesen Aufruf von Google's Webspam-Chef Matt Cutts aufmerksam gemacht hat.

Dienstag, 15. Mai 2012

Ist die Zeit reif für HTML 5?

Interview mit Stefan Münz, Initiator von SELFHTML, Technischer Redakteur, Programmierer und Autor

Fragt man einen Nichtprogrammierer, woraus eine Internetseite besteht, dann wird er wohl antworten: aus Textblöcken, Links und Bildern. Denn das ist das, was uns der Browser zeigt, wenn wir eine Webseite aufrufen.

Doch unter der Haube enthält eine Webseite zusätzlich Meta-Informationen in Form von HTML-Code, mit dem die Seiteninhalte strukturiert werden - so dass der Browser sie überhaupt wie gewünscht darstellen kann.

Diese Auszeichnungssprache HTML (Hypertext Markup Language) wird derzeit von einer Arbeitsgruppe namens WHATWG (whatwg.org) weiterentwickelt und mit dem für die Standardisierung von Webtechnologien zuständigen World Wide Web Consortium (W3C - w3.org) abgestimmt. Die offizielle aktuelle Version ist zwar HTML4.01, doch HTML5 mit vielen neuen Funktionen steht längst in den Startlöchern.

HTML5 soll HTML endlich von SGML (Standard Generalized Markup Language) mit ihren DTDs (Dokumenttypdefinitionen) loslösen, aber trotzdem rückwärtskompatibel sein.

Zu den Vorteilen von HTML5 gehören neue Elemente wie z. B. section, nav und article, die eine bessere Strukturierung bei gleichzeitiger Auszeichnung ermöglichen. Auch soll HTML5 Plugins wie Adobe Flash überflüssig machen.

HTML5 Strukturbeispiel


Stefan Münz, Technischer Redakteur, Programmierer und Autor hat diese ganze Entwicklung von HTML mitgemacht. Sein Name ist jedem Webdesigner ein Begriff, denn er hat in den 1990ern SELFHTML initiiert und aufgebaut - das HTML-Online-Nachschlagewerk, das seit vielen Jahren fast jeder nutzt, der Internetseiten professionell oder als Hobby erstellt. 2007 ist Stefan Münz zwar aus dem Projekt ausgestiegen, doch HTML gehört weiterhin zu seinen Themen. So erschien von ihm und Clemens Gull Ende 2010 das HTML 5 Handbuch.

Ich durfte Stefan Münz ein paar Fragen stellen:

Wie verbreitet ist HTML5 inzwischen im Netz? Welche großen Marken nutzen schon HTML5?

Die Frage nach der Verbreitung lässt sich sehr unterschiedlich beantworten, je nachdem, mit welchem Maß man misst. Man kann zum Beispiel versuchen herauszufinden, wie viel Prozent aller Webseiten den post-SGML-typischen HTML-Doctype verwenden. Namics Weblog hat das neulich getan und kam zu einem eher nüchternen Ergebnis: 5,4% aller schweizer Webseiten nutzen den neuen Doctype (Quelle). Man kann aber auch mal einen Blick in die Quellcodes der meist besuchtesten Sites werfen: die Google-Suche verwendet den neuen Doctype, Facebook verwendet ihn, YouTube verwendet ihn, Yahoo verwendet ihn, und Baidu verwendet ihn - also die fünf meistbesuchtesten Webangebote weltweit (Quelle). Erst Platz sechs, die Wikipedia, setzt noch auf XHTML1.0 transitional. Auch die Mehrzahl neuerer Wordpress-Themes ist HTML5-basiert. Man ist also in guter Gesellschaft, wenn man sich für HTML5 entscheidet.

Kann man kleinen Website-Betreibern schon HTML5 empfehlen - sprich: wird HTML5 schon von den wichtigsten Browsern unterstützt?

Ich würde nichts anderes mehr empfehlen, wenn nicht besondere, eher seltene Gründe dagegen sprechen. Ein solcher Grund könnte sein, dass ein Anbieter Webseiten-Code im Rahmen einer existierenden XML-Infrastruktur verarbeiten möchte und deswegen "echtes" XHTML benötigt. Aber Browser sind kein Argument mehr gegen HTML5, nachdem ja mittlerweile Konsens ist, dass der IE6 kein geeignetes Mittel mehr ist, um im Web unterwegs zu sein. Für alle übrigen Browser wird man je nachdem, welche Features von HTML5 man überhaupt verwenden möchte, mehr oder weniger viele Workarounds benötigen. Da heute aber auch weitgehend Konsens ist, dass man JavaScript für einen normalen Website-Betrieb als aktiviert voraussetzen darf, wird einem diesbezüglich mittlerweile viel Arbeit abgenommen, vor allem durch Lösungen wie JQuery und seine zahlreichen Plugins. Wenn man vor der Aufgabe steht, ein völlig neues Webprojekt ground up neu zu gestalten, würde ich als Framework die HTML5-Boilerplate empfehlen - eine robuste Basis für zeitgemäße Webseiten, mit allem, was man heute so benötigt - von JQuery über Modernizr für HTML5/CSS3-Workarounds, CSS-Reset bis hin zu Vorlagen für eine robots.txt oder die XML-Datei für Adobe-Cross-Domain-Policy.

Funktioniert HTML5 auch mit Web Application Engines, falls jemand große Projekte aufziehen will?

Da kann ich nur für FastCGI sprechen (für andere Application Engines entwickele ich selber nicht). Die meisten heute genutzten HTML5-Features haben für Web Application Engines gar keine Relevanz, weil sie rein client-seitig verarbeitet werden. Anders ist das bei Technologien wie den Web Sockets, einem wichtigen neuen Verbindungsprotokolltyp im Dunstkreis von HTML5, der HTTP ergänzt und Präsenzserverfunktionalität für Chats, Multi-User-Spiele und dergleichen ermöglicht. Web Sockets erfordern sowohl client-seitig (Browser) als auch webserver-seitig entsprechende Unterstützung. Mittlerweile gibt es serverseitige Plugin- oder Modul-Lösungen für Apache, Tomcat, LightHTTP und andere.

Muss oder sollte man alte Websites auf HTML5 umstellen? Schon jetzt oder später bzw. ab welcher Version?

"Historische" Seiten sollte man, finde ich, ruhig mal lassen, wie sie sind, und Feedback abwarten. Sicherlich werden viele alte Seiten im Laufe der Zeit immer fehlerhafter - besonders wenn sie proprietäre HTML-Elemente enthalten, beim CSS auf das veraltete Microsoft-Box-Modell setzen oder seinerzeit coole, heute aber nicht mehr unterstützte oder verpönte Technologien wie etwa ActiveX-Controls nutzen. Leiden alte Projekte zunehmend unter solchen Erosionserscheinungen, muss ein sinnvoller Kompromiss gefunden werden zwischen heutiger Bedeutung/Reichweite und Änderungsaufwand.

Bei allen Websites dagegen, die noch aktiv gepflegt werden, und die hin und wieder ohnehin einen kräftigen Relaunch spendiert bekommen, sollte die HTML5-Umstellung auf der Todo-Liste stehen. Da gilt eigentlich das Gleiche wie bei Neuprojekten. Da die meisten Webseiten heute dynamisch generiert und die Inhalte via CMS gepflegt werden, genügt es in vielen Fällen, Templates zu ändern. Natürlich kann es in der Praxis darüber hinaus zu Problemen kommen wie Konflikten zwischen HTML5-typischem JQuery und bestehenden JavaScripts. Solche Probleme zu lösen, erfordert mitunter einigen Aufwand. Doch insgesamt sind die Probleme bei der Umstellung auf HTML5, glaube ich, kleiner als befürchtet. Der Teufel steckt da eher im Detail, und den Teufel im Detail wird man so oder so niemals los.

Vielen Dank für die Informationen und Tipps und weiterhin alles Gute!


Buchtipp

HTML5 Handbuch*
Die neuen Features von HTML5
Stefan Münz, Clemens Gull
Franzis Verlag GmbH
744 Seiten
ISBN-13: 978-3-6456-0284-6

* Werbepartnerlink


Mehr von Stefan Münz und HTML5


Freitag, 13. April 2012

Hört auf, von der Netzgemeinde zu reden

Immer wieder lese ich von dieser "Netzgemeinde". Als es noch vorwiegend um technische Belange ging und netzunerfahreneren Politikern erklärt wurde, wie bestimmte Dinge im Internet oder auf Social-Media-Plattformen ablaufen, fand ich das noch in Ordnung. Da ich selbst seit 1996 online bin und seit 1997 im Internet veröffentliche, fühle ich mich auch hier zuhause - bin im unpolitischen Sinne also ein Bestandteil dieser "Netzgemeinde".

Netzgemeinde? Vernetzte Menschen sind nicht unbedingt einer Meinung
Netzgemeinde? Vernetzte Menschen sind nicht
unbedingtin allem einer Meinung!
Zu Anfang gab mir das Wort "Netzgemeinde" noch so eine Art heimeliges Gefühl – schließlich waren wir die Eroberer (zweiter Generation) einer neuen Welt gewesen, der virtuellen Welt. Wir waren cool, wir waren Vorreiter. Aus Begeisterung für Computer und Internet habe ich sogar meinen Beruf gewechselt.

Doch in letzter Zeit wird der Begriff ständig in politischen Zusammenhängen gebraucht – meiner Meinung nach missbraucht – auf der einen Seite von selbst ernannten, politisch motivierten Netzgemeinden-Fürsprechern, deren Ansichten ich überwiegend nicht teile. Ich habe euch nicht gewählt, also redet nicht für mich! Aber auch von denen, die sich eben gegen diese artikulieren und sie als "Netzgemeinde" adressieren, wenn sie ihre Gegenargumente vorbringen. Hört auf damit - es gibt keine Netzgemeinde, jedenfalls nicht als einheitliche politische Fraktion!

Ich will weder, dass jemand, den ich nicht gewählt habe, für mich spricht, noch will ich mit ihnen von der anderen Seite in einen Topf geworfen werden - seid nicht so dumm, nicht zu differenzieren, wenn Ihr euch eure Feinde nicht selbst züchten wollt!

Ich bin sicher, so wie mir, geht es auch vielen anderen. Nur weil wir das Internet und seine neuen Möglichkeiten (auch hinsichtlich Bürgerbeteiligung) schätzen, wollen viele/die meisten (?) von uns nicht, dass sich unsere Gesellschaft/Demokratie als solche grundsätzlich verändert. Aber wir sind eben nicht die, die laut schreien, sondern einfach die, die das Internet tagtäglich nutzen.

Ich bin Bestandteil der Netzgemeinde im unpolitischen Sinne. Auch ich liebe das Internet als Informationsquelle, Kommunikationsmöglichkeit und Ort der Freiheit: Freiheit, mich auszudrücken, selbst zu publizieren, kreativ zu sein. Ich will weder das Urheberrecht verkürzen (Urheberrecht aus Sicht eines Urhebers (Autor), Lobbyismus in Social Media) und ich will keine Digitale Demokratie (Digitale Demokratie ist Bullshit). Obwohl ich pro-kapitalistisch eingestellt (im Sinne einer sozialen Marktwirtschaft) und Hobbybörsianerin bin, will ich nicht, dass unsere Gesetze sich nach den Geschäftsmodellen amerikanischer Großkonzerne richten.

Hört endlich auf, von der Netzgemeinde zu reden - zumindest in politischen Diskussionen! 

Und wer wissen will, was die Netznutzer denken, der soll ordentliche Wahlen oder zumindest seriöse Umfragen durchführen, bei denen neben der Repräsentativität sichergestellt ist, dass jeder Nutzer nur für sich (und nicht beauftragt im Sinne von Unternehmens- oder politischer Kommunikation) und auch nur einmal abstimmen kann.