Posts mit dem Label Google+ werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Google+ werden angezeigt. Alle Posts anzeigen

Montag, 22. Januar 2018

Das YouTube Partnerprogramm ändert die Regeln! Drum prüfe, wer sich bindet.

Hier zeigt sich einmal mehr, wie ausgeliefert Nutzer/Kunden gegenüber Unternehmen - besonders den großen Internetplayern - sind, in diesem Fall geht es um YouTube Content schaffende Personen (YouTube Creators, Vlogger, YouTuber), die am YouTube-Partnerprogramm (YPP) teilnehmen. Aber das Prinzip ist immer das gleiche: Unternehmen locken auf ihre Plattformen mit Einnahmemöglichkeiten, kostenlosen Diensten oder anderen Vorteilen. Der interessierte Urheber/Kreativschaffende investiert Zeit und Geld ins Erlernen, in das Equipment und die Produktion von Content, in diesem Fall Video-Content. Dann nach einiger Zeit ändert das Unternehmen die Spielregeln und viele der UrheberInnen schauen plötzlich ins Ofenrohr.

Eva Schumann YouTube Channel
Als YouTuberin, die erst einige Video-Testballons hat fliegen lassen, werde ich in Kürze - wie viele Tausende anderer YouTube Creators - aus dem YouTube Partnerprogramm geworfen. Nur 1.000 neue Abonnenten bis Mitte Februar könnten mich noch retten - wie witzig. Schauen Sie trotzdem mal bei meinem YouTube Kanal vorbei, kommentieren Sie Videos, verteilen Sie Däumchen-hoch und abonnieren Sie den Kanal.
YouTube ist ein Tochterunternehmen von Google (und dieses von Alphabet). Google hat am 16. Januar 2018 angekündigt, dass nur noch am YouTube Partnerprogramm teilnehmen darf, wer in den letzten 12 Monaten mindestens 4000 Stunden Wiedergabezeit schaffte und außerdem 1.000 Abonnenten hat. Alle anderen fliegen demnächst raus und verlieren damit die Möglichkeit, ihren Content über das YPP (in Kombination mit Google Adsense) zu monetarisieren - sprich ein paar Cents mit Werbung in oder neben ihren Videos zu verdienen. Es ist zu vermuten, dass diese "unqualifizierten" YouTube Creators mit der Zeit auch immer weniger sichtbar werden, denn warum sollte YouTube Videos von ihnen zeigen, wenn sie nur an den Werbeeinnahmen der "qualifizierten" Geld mitverdienen können (die Werbeeinnahmen werden zwischen dem YouTube Creator im YPP und YouTube aufgeteilt). Es wird also noch schwieriger, sich "hochzuarbeiten".

Fairness ist etwas anderes

Ich persönlich hätte Verständnis für eine Regeländerung gehabt, wenn diese neuen Regeln für Neuaufnahmen ins YPP eingeführt werden würden - die Neuzugänge hätten von Anfang an gewusst, worauf sie sich einlassen. Aber wir haben angefangen, als andere Regeln galten und nun werden tatsächlich alle kleinen YouTube Creators zum 20. Februar 2018 aus dem YouTube Partnerprogramm geworfen und damit von der Monetarisierung ausgeschlossen. Auch wer, wie ich, auf die Kombination von Google Adsense für Blogs und andere Webseiten und YPP für die YouTube-Videos gesetzt hat, fliegt beim YPP raus - obwohl ich bei Google Adsense durch die sehr lange Partnerschaft nicht so unbedeutend bin, wie mit meinen ersten YouTube-Video-Versuchen.

Google verspielt Vertrauen

Google hat mit den neuen Regeln des YPP viele kleine YouTube Creators vor den Kopf gestoßen, die sich nun ihrer Chancen beraubt fühlen (bei Twitter kann man die Diskussionen verfolgen: #YouTube, #YPP, #YouTubePartnerProgram, #YouTubeSuckt etc.)

Google tut immer so, als sei das Unternehmen an der Zufriedenheit der Videoschaffenden und Content-Veröffentlichenden (Publisher) interessiert, so wird man als TeilnehmerIn von Google Adsense ständig nach Feedback gefragt und ob/wer Google bei der Monetarisierung Konkurrenz mache. Die Antwort liegt meiner Meinung nach auf der Hand: Google sollte an seiner Vertrauenswürdigkeit arbeiten, indem das Unternehmen Urheber/Content-Schaffende fair behandelt und Spielregeln nicht nachträglich und relativ kurzfristig ändert, wo es keine Not dafür gibt. Abgesehen davon sollte das Unternehmen mehr auf Mindestqualitätsansprüche statt auf Click Baiter setzen, die mit möglichst abartigen Titeln und Inhalten nach Zuschauern fischen, und auch gegen Contentklauer zum Schutz der Urheber besser vorgehen. Das hohe Auszahlungslimit bei Google Adsense, über das auch die Einnahmen aus dem YPP abgerechnet werden, finde ich auch grenzwertig - andere Partner- und Affiliate-Programme setzen ihre Auszahlungslimits niedriger an (Google Adsense: 70 Euro versus Affilinet: 25 Euro, Amazon.de: 50 Euro, Awin: 20 Euro).

Alternativen zum YPP für kleine YouTube Creators und andere Video-Content-Schaffende

Ich sehe vor allem folgende Möglichkeit, als Vlogger/YouTuber/Video Creator doch noch Einnahmen mit (YouTube-)Videos zu generieren. Man kann
Anzeige

  • seine Videos in eigene Blogbeiträge im eigenen Blog oder in andere Webseiten einbauen. Den notwendigen Code kann man bei YouTube, Vimeo, DailyMotion oder anderen Videoplattformen, auf denen man seine Videos veröffentlicht, unter "Teilen/Einbetten" generieren. Um das eigene Video herum kann man auf eigenen Webseiten weiteren selbst erzeugten und relevanten Content sowie Werbung nach Geschmack (Google Adsense, Amazon, Affilinet, etc. oder für das eigene Fanprodukte-Angebot ["Merch"]) für Web-/Mobile Nutzer platzieren. In Zukunft bewirbt man eben nicht mehr das Video direkt auf der (YouTube) Plattform, sondern den Blogbeitrag oder die Webseite, auf welcher man das Video eingebaut hat.
  • versuchen, Sponsoren für seine Videos zu finden - ist man damit erfolgreich, muss man das allerdings im Video kenntlich machen, sonst wäre das Schleichwerbung.
  • in die Informationen zu den Videos beiYouTube kann man Werbepartnerlinks beispielsweise zu Amazon setzen - auch dies muss kenntlich gemacht werden. 
Ich kann jedoch nicht garantieren, dass es diese Möglichkeiten auch in Zukunft noch geben wird.

Zu meinen ersten Versuchen gehörte es, mit Windows Movie Maker aus einzelnen Bildern, wie hier beschrieben, ein Video für YouTube zu basteln: Making-of "Randfugen füllen"


Alternativen zu Google Adsense für Web- und Mobile Content Creators

Wer nicht nur vom YPP, sondern von Google insgesamt die Nase voll hat, weil ihm/ihr seine Teilnahme an YPP aufgekündigt wurde, hat auf seinen eigene Webseiten Alternativen zu Google Adsense,
beispielsweise

Mein Fazit

Wenn irgendwie möglich, sollte man sein "Geschäftsmodell" nie von einem einzigen Dritten abhängig machen - nicht von einem Mega-Unternehmen wie Google oder Facebook, die sehr viel Macht haben, aber auch nicht von einem kleinen Start-up-Unternehmen, das vielleicht insolvent wird, weil es keine Wachstumsfinanzierung zusammenbekommt o. Ä. Wie bei der Geldanlage, sollte man das Risiko, wo es möglich ist, lieber verteilen oder auf unangenehme Eventualitäten vorbereitet sein.

Ein weiterer Versuch (inspiriert durch einen Harvard/edX MOOC) bestand darin, mit Scratch und Camtasia Studio aus einzelnen Bildern eine Videoanleitung zu basteln


Habe ich noch etwas vergessen? Bitte nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

Das könnte Sie auch interessieren:

Sie suchen Werbeplatz in diesem Blog oder eine Technische Redakteurin/Autorin/Texterin zu Software-, Informatik- oder Internetthemen für Ihre Website, ein Buchprojekt, ein Kundenmagazin o. Ä.? Schreiben Sie mir!

Mittwoch, 4. Februar 2015

Achtung, die Mobilen kommen

Der Anteil an Nutzern, die mit Smartphone und Tablets auf Webseiten zugreifen, ist inzwischen so groß, dass es höchste Zeit ist, sich als Webseitenbetreiber mit dem Thema gerätegerechte Webseitendarstellung zu befassen. Andernfalls verprellt man wegen der nicht optimalen Nutzererfahrung beim Seitenbesuch seine Besucher und Kunden, rutscht in den Suchmaschinenergebnissen nach hinten und verschlechtert mit der Zeit seine Reichweite und alles, was daran hängt. Eine Lösung für das Problem heißt Responsive Webdesign. Aber wie geht man bei der Umstellung eines Konglomerats aus über Jahrzehnte entstandenen Webseiten und Blogs vor?

Nachtrag zum "Mobilegeddon": Google hat inzwischen in seinem Entwicklerblog veröffentlicht, dass die Mobile Friendliness (Nutzerfreundlichkeit für Mobilgeräte) ab dem 21. April 2015 als Ranking-Signal für die Suchergebnisse für Smartphones berücksichtigt wird.

Anzeige


Lange schien mir der Aufwand, mein Webangebot so umzustellen, dass die Webseiten sowohl mit einem Desktop-Computer als auch mit mobilen Endgeräten optimal dargestellt werden angesichts der sehr niedrigen Besucherzahlen mit mobilen Geräten wie Smartphone und Tablet zu hoch. Als mir vor ein paar Tagen das Google-Webmaster-Team schrieb: Beheben Sie Probleme der mobilen Nutzerfreundlichkeit auf www.tinto.de/, war das für mich Anlass, mich mal wieder genauer mit meinem Webseiten- und Blog-Traffic zu befassen.

In den letzten 12 Monaten (Kreisdiagramm oben) nutzten etwa 35 Prozent der tinto-Besucher ein Smartphone (rot) oder ein Tablet (blau). 65 Prozent nutzten einen Desktop-Computer. Im Jahr davor waren es noch wesentlich weniger Mobile (Kreisdiagramm unten).
Seit 1998 erstelle ich für tinto Webseiten und Blogs zu allem, wozu ich glaube, Wissen oder Erfahrungen beitragen zu können. Ich realisierte meine Vorstellungen mit Tools und Programmierkenntnissen, die ich zur jeweiligen Zeit hatte. Die Zahl meiner Seiten und der Besucher wuchs über die Jahre zu einem kleinen Imperium. Aber waren es bis vor wenigen Jahren fast ausschließlich Desktop-Nutzer, die meine Angebote nutzten, zeigt der jüngste Blick in mein Trafficanalyse-Tool Google Analytics, dass in den letzten 12 Monaten 35 Prozent der Besucher mit mobilen Endgeräten wie Smartphone und Tablet kamen. Im Jahr davor waren es noch knapp 23 %. Laut Statista surfen sogar 54 Prozent der Deutschen mobil.

Dabei sind meine Besucher keine "Digital Hipsters", sondern ganz normale Verbraucher aller Altersklassen, die sich für Garten-, Gesundheits- und andere Verbraucherthemen interessieren. Je nach Zielgruppe, wird bei anderen der Anteil der mobilen Nutzer auf ihren Webseiten noch wesentlich höher sein.

Infografik: 54% der Deutschen surfen mobil | Statista
Mehr Statistiken finden Sie bei Statista

Trafficanalyse, responsive Webdesign und Prioritätensetzung stehen jetzt auf meinem Stundenplan

Bei einem Responsive Webdesign passt sich die Darstellung der aufgerufenen Webseite oder des Blogartikels automatisch an den Nutzer, beziehungsweise an sein Gerät oder seine Bildschirm-/Fenstergröße, an. So werden beispielsweise Elemente auf einem Desktop mit seinem großen Bildschirm und entsprechend großen Fenstern nebeneinander gezeigt, auf einem Smartphone dagegen untereinander. Auch Schriftgrößen und Menüs können für verschiedene Besuchergeräte, deren Auflösung oder Fenstergröße unterschiedlich konfiguriert werden. Technisch wird das durch die Programmierung nach den neuen Möglicheiten und Standards von Hyper Text Markup Language (HTML5), Cascading Style Sheets (CSS3, Media Queries) und JavaScript umgesetzt.

Zwar habe ich meine neuesten "von Hand" programmierten, kleinen Projekte wie tinto-Horoskop gleich responsive umgesetzt oder sie nachträglich auf responsive umgestellt (beispielsweise Gartenblogs, Mein Pflanzenarchiv und Mein Outfitarchiv), sodass die Seiten bei Aufruf durch ein Smartphone anders angezeigt werden als bei Aufruf per Desktop. Dabei passt sich die Darstellung an die Fenstergröße an - man kann das ausprobieren, indem man die Seite aufruft und das Browserfenster verkleinert.

Auch meine Blogs ließen sich recht einfach so konfigurieren, dass Besucher mit einem mobilen Gerät eine andere Version der Seite gezeigt bekommen - sowohl mein tinto bloggt-Blog, den ich mit Wordpress (php und MySQL) erstellt habe, als auch die verschiedenen Blogger-Blogs wie dieser. Dank passender Vorlage (Theme) waren nur ein paar Klicks nötig, um das Feature zu aktivieren. Allerdings steckt hier der Teufel im Detail: Bei der Überprüfung mit einem Mobile-Phone-Emulator stellt man fest, dass das Ergebnis nicht auf jedem Endgerät optimal ist.

In welcher Reihenfolge auf Responsive Webdesign umstellen

Im Gegensatz zu Blogs oder anderen Content-Management-Systemen (CMS) lassen sich alte statische Webseiten, die oft mit proprietären Webdesign-Programmen erstellt wurden, nur aufwendig umstellen. Doch die Zeit drängt - so scheint mir -, wenn man nicht ausschließlich Desktop-Nutzer als Zielgruppe hat und seine mobilen Besucher nicht verlieren möchte.

Hilfreich: Der Emulator und der Punkt Nutzerfreundlichkeit
unter dem Reiter Mobile von Google PageSpeed Insights
Gerade wegen meiner über Jahre gewachsenen, nicht homogenen Projekte und wegen des hohen Aufwands muss ich eine sinnvolle Reihenfolge finden, wie ich bei der Umstellung vorgehe. Im Grunde geht es darum, Webprojekte/-seiten mit dem größten potenziellen Effekt zu identifizieren. Doch welcher Effekt ist mir überhaupt der wichtigste: Reichweitenverbesserung für bestimmte Botschaften, Erhöhung meines Bekanntheitsgrades, Erreichen potenzieller Auftragskunden (Werbekunden, Textaufträge-Kunden), sonstige Selbstvermarktungseffekte und/oder Affiliate-Werbeeinnahmen? Am liebsten natürlich alles.

Es gibt viele Möglichkeiten, eine Reihenfolge zu finden, beispielsweise:
  • entlang der hierarchischen Struktur
  • Webprojekte/-seiten nach Traffic-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann allerdings davon beeinflusst sein, wie gut die Seiten bereits für die Ansprüche mobiler Geräte "versehentlich" optimiert sind). 
  • Webprojekte/-seiten nach Werbeeinnahmen-Kennzahlen sortieren und bei denen mit den höchsten Werten für alle Geräte beginnen. (Das kann auch davon beeinflusst sein wie gut die Seiten oder zumindest die Werbung darauf bereits für die Ansprüche mobiler Geräte optimiert sind). 
  • Webprojekte/-seiten danach sortieren, wie oft auf sie mit mobilen Geräten zugegriffen wird. (Es ist allerdings möglich, dass Suchmaschinen wie Google mobilen Geräten bevorzugt bereits "versehentlich" optimierte Seiten in den Suchergebnissen zeigt) 
  • Webprojekte/-seiten danach sortieren, wie oft sie von mobilen Geräten ohne Verweildauer verlassen werden 
  • Planen, welche Themen und Webseiten als nächstes gefeatured werden sollen und diese umstellen und updaten 
Während eine Vorgehensweise anhand der Struktur nur bei einem geschlossenen Projekt, das als Ganzes neu veröffentlicht wird, Sinn macht, muss man meiner Meinung nach zum Priorisieren von Projekten oder Einzelseiten, die alleine geupdated werden sollen, letztendlich (fast) all die anderen Möglichkeiten berücksichtigen - gewichtet entsprechend den persönlichen Prioritäten, um den größtmöglichen Effekt zu erzielen.

Da wartet ein riesiger Berg Arbeit. Packen wir es an.

Hilfsmittel 

Während der Umprogrammierung hilfreich:

Weitere Informationen
Anzeige


Montag, 10. März 2014

Browser-Top-Ten Anfang 2014: Mein Gewinner heißt Firefox!

Angeblich führt Chrome den europäischen Browsermarkt an, aber auf meinen deutschen Webseiten ist Chrome schon fast abgeschlagen auf Platz 4. Mein Gewinner heißt Firefox. Safari und Internet Browser schlagen sich um Platz 2 und 3.

Internet World Business hatte gestern die Schlagzeile, dass Google Chrome im europäischen Browsermarkt die Nase vorn habe, und beruft sich auf das Browser-Barometer des Webanalyse-Anbieters AT Internet. Ich konnte es gar nicht glauben und guckte mir sicherheitshalber meine eigene Webstatistik für die letzten 30 Tage an. Und da sieht es völlig anders aus: 

Meine Browser-Top-Ten der letzten 30 Tage (7.02.2014 bis 9.03.2014 und gleicher Zeitraum im Vorjahr) bei tinto.de:

Top-Ten-Browser 2014
Platz 1:
Firefox 30,95 % (Vorjahr: 37,57 %) 

Platz 2:
Safari 20,95 % (Vorjahr: 16,41 %)

Platz 3:
Internet Explorer 20,81 % (Vorjahr: 25,12 %)

Platz 4:
Chrome 14,56 % (Vorjahr: 12,18 %)

Platz 5:
Android Browser 9,91 % (Vorjahr: 5,52 %)

Platz 6:
Opera 1,91 % (Vorjahr: 1,81 %)

Platz 7:
Safari (in-app) 0,35 % (Vorjahr: 0,85 %)

Platz 8:
Amazon Silk 0,18 % (Vorjahr: 0,00 %)
Das ist der Browser des Kindle Fire Android Tablet

Platz 9:
Blackberry 0,10 % (Vorjahr: 0,00 %)

Platz 10:
Opera Mini 0,09 (Vorjahr: 0,08 %)

Da es sich bei tinto.de und seinen Projekten überwiegend um Informationsseiten für Verbraucher (Garten-, Geld-, Gesundheits- und ähnliche Themen) handelt, sind die Besucher nicht allzu technikaffin im Vergleich zu Entwicklern oder anderen möglichen Zielgruppen.

Ich selbst praktiziere Multi-Browser-Browsing - ich setze zum Browsen Firefox, Opera, Internet Explorer, Chrome und Safari ein - eigentlich jeden für einen anderen Zweck, aber ich komme auch mal aus dem Takt. Und ich ärgere mich sehr, wenn ich auf eine Webseite komme, die mir sagt, sie mag meinen Browser nicht, ich solle Chrome nehmen. Ziemlich arrogante Art mit seinen Besuchern umzugehen!

Firefox und Internet Explorer haben im Vergleich zum Vorjahr zwar ordentlich Federn gelassen, aber davon hat Chrome laut meiner Webstatistik nur mit knapp 2,5 % hinzugewonnenem Marktanteil profitiert. 4,5 % hat sich dagegen Safari gekrallt. 

Ich kann nur raten, sich als Website-Betreiber oder Blogger mit eigenem Blog nicht von Schlagzeilen manipulieren zu lassen und statt dessen vor der Änderung seines Webdesigns bzw. der Seitenoptimierung zu gucken, wer die eigene Zielgruppe ist, was sie mag und was sie macht.

Anzeige
www.kabeldeutschland.de

Ich würde mich freuen, wenn andere Webseiten- und Blogbetreiber auch Einblicke in ihre Browserstatistiken gewährten.

Mittwoch, 10. Juli 2013

XING: Mitgliederprofil wird erneuert

Man darf gespannt sein: XING, das soziale Netzwerk für berufliche und private Kontakte mit über 13 Millionen Mitgliedern, kündigt eine Rundumerneuerung des Mitgliederprofils an.

Was mich an sozialen Netzwerken nervt, sind die Umstellungen. Schon wieder, denke ich, weil ich den Zeitaufwand sehe, den mich diese Umstellung kosten wird. Besonders lästig finde ich in diesem Zusammenhang Facebook und Google+. Gerade hat man alles schön neu gestaltet, neue Bilder hochgeladen, die Vorstellungstexte überarbeitet, die Privatsphäre-Einstellungen angepasst usw., kommt schon das nächste Update, Bilder und Spalten werden größer oder kleiner, Reiter und Darstellungsmöglichkeiten werden eingeführt oder abgeschafft, und schon muss man (als Profi mit mehreren Pages) wieder viele Stunden Arbeitszeit investieren.

XING ist in der Hinsicht bisher weniger nervig gewesen und so sehe ich dem Update des Mitgliederprofils zum zehnjährigen Jubiläum mit Spannung entgegen. Manche hatten XING nach dem Erfolg der großen amerikanischen Netzwerke Facebook, Twitter und Google+ ja schon völlig abgeschrieben, obwohl die stetig steigenden Mitgliederzahlen das Gegenteil sagen. Andere finden XING langweilig, weil es doch eher um professionelle Vernetzung geht. Doch oft muss man sich bei der Kritik an die eigene Nase fassen, man hat vielleicht - so wie ich - irgendwann aufgehört, die dort gebotenen Möglichkeiten wie Foren und Veranstaltungen zu nutzen, weil einfach die Zeit nicht mehr für alle Netzwerke gereicht hat.

Da mir XING (früher OpenBC für Open Business Community) in einer Phase beruflicher Neuorientierung eine wichtige "Entscheidungsfindungs-Hilfe" und "Vernetzungs-Übungsplattform" war und weil mich über XING schon einige sehr gute Werbekunden und Auftraggeber gefunden haben, möchte ich XING nicht missen. Und wer weiß, vielleicht animiert mich das Update, mich dort wieder stärker einzubringen. Nach den jüngsten Geheimdienst-Skandalen und Whistleblower-Offenlegungen - z. B. sollen lt. Edward Snowden die Großkonzerne Google, Apple, Microsoft und Facebook dem amerikanischen Nachrichtendienst NSA direkten Zugriff auf das Back-End gegeben haben - will ich XING sowieso eine neue Chance geben. Vielleicht ist ein deutsches Unternehmen bei der Ausspionierung der Nutzer weniger kooperativ - allerdings ist mein Enthusiasmus in dieser Hinsicht nicht mehr allzu groß.

Das neu gestaltete XING-Mitgliederprofil soll wesentlich umfassendere und individuellere Möglichkeiten der professionellen Selbstdarstellung in frischem Design bieten, was besonders Freiberufler, Kreative, Studenten und viele andere Vernetzungswillige, Auftrag- und Jobsuchende freuen dürfte. Es soll u. a. auch die Möglichkeit bieten, Beiträge aus Foren und aus Twitter im Profil anzuzeigen. Auch die Jobsuche bzw. das Recruiting sollen vereinfacht werden, wobei genau konfiguriert werden können soll, wem das Interesse an einem Jobwechsel angezeigt wird und wem nicht.
Die Umstellung der 13 Millionen Mitglieder soll schrittweise erfolgen und mit dem heutigen Tag beginnen. Wer es nicht erwarten kann, bis es bei ihm/ihr losgeht, kann sich vorab registrieren.

Quellen und weiterführende Informationen 

Sonntag, 7. Juli 2013

Das Ende des Internets

Überwachung im Internet
Die Überwachung durch die
Geheimdienste hat das Vertrauen
ins Internet zerstört.
... wie wir es kannten oder glaubten, zu kennen.

Das Internet war für mich lange das Medium, das einen Beitrag zu einer besseren Welt leisten würde - weil es die Kommunikation der Menschen untereinander fördert und damit zu mehr Mitgefühl, Verständnis und gegenseitiger Hilfe führen würde. Manche träum(t)en noch viel weiter als ich - von einer besseren Demokratie und sogar von ganz neuen Menschen dank Internet. Tatsächlich sind einige unserer Träume wahr geworden - manche Initiativen im Bildungsbereich, wie die MOOCs, haben meine Erwartungen sogar übertroffen.

Aber wie alles, hat auch das Medium Internet nicht nur gute Seiten, sondern auch "Abgase" - ungute Nebenwirkungen. Diese heißen z. B. Cyberkrieg, Cyberkriminalität, Reduzierung des menschlichen Nutzers auf ein gläsernes, manipulier- und ausbeutbares Marketingobjekt und einiges Schreckliche mehr.

Nun ist durch die Aufklärungsarbeit von Edward Snowden (hätte er einen Presseausweis, wäre er ein investigativer Journalist) noch eine weitere, besonders hässliche Seite ans Tageslicht geholt worden, von der wir Bürger nichts wussten oder zumindest nicht das Ausmaß kannten: Praktisch jegliche Kommunikation und jeder Datenstrom im Internet wird von Geheimdiensten wie NSA, GCHQ und anderen durchforstet und je nach Geheimdienst ganz oder teilweise gespeichert. Traurig auch in dem Zusammenhang die Offenlegung des Whistleblowser Snowden, dass die amerikanischen Megaunternehmen Google, Facebook, Apple und Microsoft der NSA direkten Zugriff aufs Back-End gegeben haben - ohne ihre Nutzer darüber zu informieren.

Zusammenarbeit mit NSA und anderen ausländischen Geheimdiensten statt Diskussionen um Vorratsdatenspeicherung?

Wenn unsere Regierung so ahnungslos war, wie sie jetzt tut, dann glänzt sie mit Inkompetenz. Dann müssen wir die Lachnummer Europas und der Welt sein: die dummen Deutschen mit ihrer Diskussion um Vorratsdatenspeicherung. Und wenn unsere Regierung davon gewusst und es geduldet hat bzw. diese ausländischen Geheimdienstaktivitäten sogar indirekt mitnutzt (und sich auf diesem Wege die lästige Diskussion mit den eigenen Bürgern über Vorratsdatenspeicherung u. Ä. erspart hat!?!), dann hat sie nicht nur aus den Protesten um ACTA nichts gelernt, sondern das Vertrauen der Bürger bewusst missbraucht.

Welche Konsequenzen werden NSAgate und all die aktuellen Überwachungs- und Abhörskandale haben?

Eine Regierung kann man in Deutschland abwählen oder zum Rücktritt zwingen und es liegt am Bürger, ob er das tut. Die nächste Wahl steht ja vor der Tür.

Aber was ist mit dem Internet - kann man diesem Medium jemals wieder trauen? Denn, selbst wenn sich verbindliche Regeln zwischen Staaten vereinbaren lassen, wie will man Geheimdienste (oder Nachahmer) kontrollieren? Gibt es noch einen Weg weg vom total überwachten Internet?

Im Moment stellen sich mir auch so pragmatische Fragen wie: Kann man noch E-Mails verwenden? Kann man noch über die Messenger-Funktionen sozialer Netzwerke kommunizieren?

Nicht, wenn es wichtig ist! So lautet derzeit die Antwort für Journalisten, die ihre Quellen schützen müssen. Selbst wenn man verschlüsselt - empfohlen wird Pretty Good Privacy (PGP) - ist nicht sicher, dass diese Verschlüsselungen in ein paar Jahren auch noch sicher sind. Und man kann natürlich davon ausgehen, dass gerade verschlüsselte E-Mails aus dem Datenstrom gefiltert und gespeichert werden. Und wie sicher ist der Informant dann? Es gibt Informationen, deren Brisanz verblasst nie.

Heute Mittag im Presseclub stellte in der anschließenden Diskussion ein Zuschauer die Frage, wie man als Whistleblower überhaupt noch Kontakt zu den Medien herstellen könne. Es wurde empfohlen, einen herkömmlichen Brief zu schreiben und darin ein persönliches Treffen zu verabreden!

Und was machen Unternehmen, die von ihrem Wissensvorsprung leben - z. B. Maschinenbauunternehmen? Selbst wenn die Geheimdienste nicht automatisch Interessantes aus Wirtschaft und Unternehmen an deren jeweilige nationale Unternehmen weiterleiten, so besteht immer die Gefahr, dass korrupte Geheimdienstmitarbeiter Wissen teuer verkaufen. Wie einfach man sich bei CIA und NSA einschleusen und an geheime Daten kommen kann, zeigt das Beispiel Edward Snowden.

Können also Unternehmen Wichtiges noch per E-Mail kommunizieren oder das Internet als Rechercheinstrument verwenden, wenn sie sicher sein wollen, dass sie nicht Opfer von Industriespionage werden? Nein, eigentlich nicht. Und was ist mit Cloud Computing? Das Vertrauen in die Cloud ist spätestens jetzt dahin.

Das Internet ist zurück beim Militär. Oder war es niemals weg?

Für mich ist das Internet, zu dem es sich in meiner Vorstellung hätte entwickeln können, nicht mehr realisierbar - wenn mich jemand vom Gegenteil überzeugen will: gerne. Auch "The Internet of Things" ist für mich inzwischen eine Horrorvorstellung, weil mich dann auch mein Kühlschrank, mein Staubsaug-Roboter und die Personenwaage ausspionieren und verpfeifen können.

Das Internet, wie es sich jetzt darstellt, gefällt mir in weiten Teilen nicht. Bei allem, was ich privat in einer E-Mail an Meinung äußere, denke ich daran, dass mitgehört und gespeichert wird. Wenn das Laden einer Seite oder das Versenden einer Mail etwas länger dauert, denke ich: Aha, jetzt hat sich ein Abhörprogramm aktiviert und eingeklinkt, um den Datenstrom zu den Filtern der NSA, des GCHQ oder des französischen Geheimdienstes zu lenken. Ich fühle mich bei allem, was ich tue, beobachtet - als säße jemand auf meiner Schulter und schaut, was ich wieder schreibe - dabei hatte ich mich doch für Homeoffice statt Gemeinschaftsbüro entschieden.

Ich mag Überwachung nicht - obwohl ich rein gar nichts zu verbergen habe, außer vielleicht meiner echten Haarfarbe.

Und wie wird es weitergehen? Die Digitalisierung ist schon weit fortgeschritten, doch haben wir Internetenthusiasten doch schon viel weiter nach vorne ins digitale Zeitalter geschaut. Und das würde viele aufregende Neuerungen und Vorteile bringen - wie jetzt noch klarer sein dürfte: nicht nur uns, sondern auch unseren Überwachern. Das Netz der Netze wird sich um uns herum zusammenziehen.

Aktuell wird vielleicht nur überwacht und gesammelt. Aber wie lange wird es dauern, bis das, was über Personen gesammelt wird, schon auf dem Weg von Dritten und Vierten manipuliert wird, oder aber später im Nachhinein verändert wird, um zu beweisen, was man gerade beweisen will.

Das Internet ist für mich am Ende, denn ich sehe nicht, wie man aus dieser Vertrauenskrise wieder herauskommen könnte. Die Geschichte des Internets begann beim Militär - nun haben sie es sich gewissermaßen zurückgeholt.

Vielleicht waren sie aber auch nie wirklich weg, und sie haben uns nur nicht beim Träumen gestört.

Quellen und weitere Informationen

Sonntag, 13. Januar 2013

Social-Media-Analyse: Facebook, Google+, Twitter & Co. bringen kaum Webseitenbesucher

Meine Social-Media-Analyse der letzten 12 Monate zeichnet ein noch trüberes Bild, als die Social-Media-Analyse, die ich Ende August 2012 veröffentlicht habe: Es fanden - im Vergleich zu anderen Traffic-Quellen - nur wenige Besucher über Facebook, Google+, Twitter und Pinterest zu meinen Webseiten und Blogartikeln - jedenfalls auf dem direkten Weg. Wie ist das bei anderen?

Ich habe Webseiten und Blogs zu ganz unterschiedlichen Themen - von Verbraucherthemen wie Garten oder Geld bis zu netzpolitischen und Kommunikationsthemen wie in diesem Blog. Ich wollte wissen, wie viele Besuche meiner Webseiten und Blogartikel über Verlinkungen in Social Media zustande kamen (Traffic-Analyse).

Für Webanalysen meiner eigenen Domains (Verbraucherthemen, überwiegend statische Webseiten, seit 1998 gewachsen) nutze ich Google Analytics (IP-Adressen anonymisiert).

In Google Analytics ist eine beschränkte Social-Media-Analyse enthalten, mit der man Social-Media als Traffic-Quelle für Websites und/oder Blogs untersuchen kann: Über Besucherquellen -> Soziale Netzwerke -> Netzwerkverweise erhält man eine Liste mit den sozialen Netzwerken (Facebook, Google+, Blogger, Twitter, Pinterest etc.) und der jeweiligen Anzahl der Besuche, die über sie zustande kamen. (Google Analytics wertet dabei auch Blogger, also seine eigene Plattform für Blogs, mit deren Hilfe auch dieser Blog existiert, als soziales Netzwerk.) Klickt man auf den Namen einer Social-Media-Plattform in der Liste, so erhält man eine Aufstellung der einzelnen Verweise (Links) und die dazugehörende Zahl der Besuche.

Meine Ergebnisse für die vergangenen 12 Monate:

Besucherquellen bei Verbraucherthemen (tinto und tinto-Projekte)

  • 74,43 Prozent der Besuche von tinto und tinto-Projekten kommen über eine Suche auf meine Webseiten (bzw. einige wenige Blogartikel, die in dieser Statistik enthalten sind)
    - davon 93,57 Prozent über die Google-Suche, 2,22 Prozent über Bing und 1,33 Prozent über Yahoo, 
  • 16,54 Prozent kommen über Verweise (Verlinkungen)
    Hierin sind auch die Verweise von den Social-Media-Plattformen zu meinen Webseiten enthalten. 
  • 9,03 Prozent kommen direkt - die Besucher kennen also die entsprechende URL.

Besuche, die durch Verweise von Social-Media-Plattformen (soziale Netzwerke) auf meine Webseiten zustande kamen:

1,07 Prozent der Besuche kamen durch Links von Social-Media-Plattformen (ohne Blogger) zu tinto und tinto-Projekten.

Bezogen auf die Gesamtzahl der Besuche ergibt sich folgendes Bild:
  • 0,7 Prozent der tinto-Besuche kamen durch Links von Facebook, 
  • 0,22 Prozent der Besuche über Google+, 
  • 0,08 Prozent durch Twitter und 
  • 0,01 Prozent durch Pinterest.
Besucherquellen für tinto und tinto-Projekte
Soziale Netzwerke sind bei tinto und den tinto-Projekten (fast ausschließlich statische Webseiten) im Vergleich zur Google-Suche oder den direkten Zugriffen als Traffic-Quelle fast bedeutungslos - jedenfalls auf den ersten Blick.

Besucherquellen dieses Kommunikationsthemen-Blogs

Zu den Themen dieses Blogs gehören Social Media, Suchmaschinenoptimierung (SEO), Netzpolitisches und andere Themen. In diesen Blog habe ich Google Analytics nicht eingebaut und daher nur eine rudimentärere Blogstatistik. Doch kann ich ersehen, dass hier immerhin fast 5 Prozent der Besuche über Verweise bei Google+ zustande kommen und 1,07 Prozent über Links bei Facebook.

Auch bei meinen Themenblogs wie gartensaison-gartentipps.blogspot.com oder beste-geldanlage.blogspot.com spielen Social Media eine größere Rolle als oben bei den überwiegend statischen Webseiten von tinto und tinto-Projekten.

Wie ist meine Social-Media-Analyse zu bewerten?

Meine kleine Social-Media-Analyse, eigentlich eine Traffic-Quellen-Untersuchung, ist natürlich nur ein winziger Bruchteil dessen, was alles zu einer Bewertung von Social Media für einen Freiberufler oder ein Unternehmen gehören würde.

Als Besucherquelle für meine tinto-Verbraucherthemen-Webseiten haben die Social-Media-Plattformen nicht wirklich überzeugt - von den verschiedenen Social-Media-Plattformen schnitt hier Facebook noch am besten ab. Allerdings sind die Zahlen relativ - d. h. es kann auch sein, dass, weil die Suche als Besucherquelle so erfolgreich ist, Social Media nur im Vergleich dazu schwach ist. Ich kann auf jeden Fall große Unterschiede zwischen verschiedenen Themen feststellen. Zum Beispiel: Während ich mich mit dem Thema Garten bei Facebook gut vernetzen konnte, klappt das beim Thema Geld nicht so gut - auch weil meine Ansprüche da sehr hoch sind, da ich Verbraucher aufklären möchte und nicht mit Zockerplattformen kooperieren möchte.

Im Vergleich zu den statischen Themenseiten spielen auch bei meinen Themenblogs die sozialen Netzwerke eine größere Rolle als Besucherbringer.

Auffällig ist, dass Google+ bei meinen Artikeln über Urheberrecht, Social Media und Kommunikationsthemen wesentlich wichtiger zu sein scheint als Facebook. Allerdings sollte man in diesen Vergleich nicht zu viel hineinlesen, denn ich verhalte mich in den verschiedenen sozialen Netzwerken und zu den verschiedenen Themen nicht identisch. Doch passt zu dieser Beobachtung, wie rege bei der Einführung von Communities bei Google+ der Zulauf bei Online-Marketingthemen war (wozu auch Social Media Management und Suchmaschinenoptimierung gehören) und wie schwach bei normalen Verbraucherthemen.

Interpretationsmöglichkeiten für meine Ergebnisse gibt es viele - vom Zweifel an meiner persönlichen Social-Media-Strategie bis zum Zweifel an Social Media als geeignete Besucherquelle für Websites und Blogs.

Allerdings sollte man nicht vergessen, dass erstens die Zahlen relativ sind und zweitens, dass Social Media nicht hauptsächlich dazu da sind, Besucher auf Webseiten und Blogs zu holen, sondern zur Kommunikation - von der freundschaftlichen und/oder beruflichen Vernetzung bis zu Kundenservice und Unternehmenskommunikation.

Darüber hinaus bewerten Suchmaschinen - so weit man über die Algorithmen weiß - auch die Aktivitäten von Autoren in Social Media, so dass diese zu einer besseren Platzierung von deren Artikeln in den Suchergebnissen führen können, was dann über Umwege auch zu mehr Besuchern führt - genauso wie auch die Vernetzung in Social Media zu einer Verlinkung durch andere Teilnehmer führen kann, was sich natürlich auch auf die Besucherzahlen auswirken würde.

Mich interessiert, ob andere Blogger und Webseitenbetreiber ähnliche Beobachtungen gemacht habt oder ob ich mit meinen Zahlen eine Ausnahme von einer ganz anderen Regel bin.

Sonntag, 11. November 2012

Neues von der SEO-Front: WDF*P*IDF und Relevanz

"Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

Relevanz - was ist das?

Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

Statt Keyword-Dichte lieber Gewichtungsformel?

Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

Die Gewichtungsformel WDF*P*IDF ist das Produkt von
WDF, IDF und einem Korrekturfaktor P

WDF und IDF sind Begriffe aus der Textstatistik:
  • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
    Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
  • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
    Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

P ist nur ein Gewichtungswert (Korrekturfaktor).

Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

Beim Wettbewerber abgucken

Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

Den Google-Algorithmus füttern - will man das?

Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

Quellen und weiterführende Informationen

Montag, 27. August 2012

Klout Score oder wer hat den größten ...

... Einfluss in Social Media

All das Vernetzen, Teilen, Diskutieren und oft genug Geschwafel in Social Media und am Ende des Tages hat man dem Chef oder potenziellen Auftraggebern nichts vorzuweisen? Von wegen. Da werden die Twitter-Follower, Facebook-Freunde bzw. -Fans und Google+-Einkreiser rausgekramt und mit dem vorherigen Stand sowie denen von anderen verglichen. Da wird geguckt, wie oft retweetet, geliked und geteilt wurde und über wen und was in Social Media gesprochen wird.

Das ist viel zu mühlselig für den schnellen Überblick, wie einflussreich jemand in Social Media ist, sagten sich die Gründer der Klout Inc. aus Kalifornien: Wir rühren all diese Informationen zusammen, setzen einen Algorithmus dran und der spuckt dann den Klout-Wert (Klout Score) aus. Am Ende des Tages kann sich der Klout-Nutzer sagen: Wow, er ist wieder gewachsen - ich muss toll sein. Auf der anderen Seite wird denen, die nach Influencern - Leuten, deren Äußerungen von vielen beachtet werden - suchen, die Suche erleichtert.

Eva Schumann bei Klout
Den größten hat übrigens Barack Obama (Klout Score 99 von maximal 100) und auch Justin Bieber ist Klout-mäßig gut bestückt mit 92.

Doch das ist nur die eine Seite der Medaille. Die andere ist: Dadurch, dass allen Social-Media-Nutzern ein immer wieder neu berechneter Klout-Wert zugeordnet wird und sie kategorisiert werden (Klout Style - siehe weiter unten), sind sie von Unternehmen bzw. deren Marketing-Abteilungen/-Agenturen für ihr Marketing prima nutzbar.

Klout Inc. ist also ein weiteres US-amerikanisches Internet-Unternehmen, das mit einem intransparenten Algorithmus arbeitet und sich über das Internet ausbreitet wie ein ansteckender Ausschlag. Das Unternehmen wurde 2007 von Joe Fernandez (CEO) und Binh Tran gegründet. Eigenen Angaben zufolge wurden bereits über 100 Millionen Profile erstellt (Quelle Wikipedia English) - nicht nur von freiwillig registrierten Klout-Mitgliedern, sondern auch von Menschen in deren Netzwerken.

Kritik an Klout

Gerade dieses Daten-Staubsaugen und Klout-Score-Generieren von Nicht-Mitgliedern ist den Kritikern ein Dorn im Auge. Des Weiteren wird die tatsächliche Aussagekraft des Klout Scores hinsichtlich Einfluss und damit Reputation bezweifelt - nicht zuletzt wegen seiner Manipulierbarkeit (Stichworte: Twitter-Spam, gekaufte Facebook-Freunde etc.) und der fehlenden Berücksichtigung von Qualitätskriterien (Motto: "Masse statt Klasse"). Dazu kommt, dass der Klout Score das Leben und den Einfluss außerhalb von Social Media bzw. außerhalb der Main-Stream-Social-Media-Plattformen nicht berücksichtigt (was ist mit den Foren, die im IT-/Mobilbereich immer noch eine Bedeutung haben u. ä.). Noch ein weiterer Kritikpunkt ist der, dass die Reputation von Social-Media-Teilnehmern von einem kommerziellen Unternehmen bewertet wird - eine ähnliche Konstellation bereitet ja bereits genug Diskussionsstoff bei den Ratingagenturen und der SCHUFA. Seine Mitbewerber in der Reputationsmessung wie beispielsweise den PeerIndex hat der Klout Score schon weitgehend ausgestochen.

Guter Klout Score wird belohnt

Der Klout Score weckt andererseits Spieltrieb und Ehrgeiz und den erfolgreichsten winken Goodies (genannt "Klout Perks") - das sind mal Gutscheine, mal Kosmetika, mal eine Testfahrt mit einem neuen Automodell oder Freiflüge für eine neue Flugverbindung etc. Viele der bekannten Social-Media-Hengste (Top-Influencer - ja, ich bin nur neidisch) lieben den Klout Score.

Und wie kommt Klout an all die Daten?

Die Plattform verbindet sich mit Einwilligung des Klout-Nutzers mit seinen verschiedenen Social-Media-Acounts und liest da offensichtlich aus, was er braucht - und ich fürchte, am Ende des Tages weiß Klout so viel über uns, wie all die einzelnen Social-Media-Plattformen zusammen. Clever. Beängstigend!

Was der Klout Score berücksichtigt

Facebook: Mitteilungen, Erwähnungen, Likes, Kommentare, Freunde etc.
Twitter: Retweets, Erwähnungen, Listen-Mitgliedschaft, Follower, Antworten
Google+: Kommentare, +1s, Teilen ("Reshares")
Klout: +K, die man von anderen erhält.

Weitere Social-Media-Plattformen, die für die Klout-Score-Berechnung berücksichtigt werden: LinkedIn (da sieht man, dass der Klout-Wert auf den amerikanischen Markt zugeschnitten ist, denn bei uns hätte wohl XING die größere Bedeutung), foursquare, Wikipedia - alles nachzulesen bei Klout.com.

Klout Style

Klout Style ist kein neues Modemagazin, sondern kategorisiert die Klout-Nutzer. Da gibt es die Kategorien Celebrity, Broadcaster, Observer, Explorer, Networker, Specialist, Socializer und viele andere mehr. Google ist beispielsweise mit einem Klout von 94 bewertet und wird als Celebrity eingestuft. Zur Celebrity-Kategorie heißt es (frei übersetzt): "Sie haben die maximale Einfluss-Stufe erreicht. Die Menschen lauschen jedem Ihrer Worte und teilen Ihre Inhalte wie keine anderen. Wahrscheinlich sind sie im wirklichen Leben berühmt und Ihre Fans können von Ihnen einfach nicht genug bekommen." Na, wenn das nicht wahr ist. (Aber übrigens, es gibt da das kleine Dorf in Gallien, die finden das nicht gut ... -> Google's Quasimonopolstellung).

Nachtrag:
Und kaum hatte man sich dran gewöhnt, wurde der Klout Style und ein paar andere Einblicke leider - als "Networker" kategorisiert zu werden, hatte mir gefallen - wieder abgeschafft. Statt dessen werden einem "Klout Moments" gezeigt. Klout Moments sind die letzten Interaktionen mit anderen auf ausgewählten Social-Media-Plattformen.

Klout Score als Eintrittskarte

Laut einem Artikel in WIRED vom April 2012 kann der Klout Score - je nach Beruf und angestrebter Position - durchaus ausschlaggebend sein, wer von mehreren Bewerbern den Zuschlag für den Job bekommt und wer nicht. Außerdem hätten Personen mit einem höheren Klout Score bessere Dienstleistungen oder Hotelzimmer bekommen - wohl in der Hoffnung, dass diese Influencer dann später über positive Erfahrungen in Social Media berichten. Laut den Frequently Asked Questions (FAQ) auf der Klout-Site, nutzen 3.000 Anwendungen und Partner Klout-Daten, um Klout-Werte darzustellen und Influencer mit einem bestimmten Klout-Wert zu einem bestimmten Thema, Lokalität o. ä. zu finden.

Klout Geschäftsmodell

Wenn ich das Geschäftsmodell von Klout richtig verstehe - denn mit irgendetwas müssen sie ja schließlich Geld verdienen - dann ermöglicht Klout Unternehmen "Klout-Perks-Aktionen" durchzuführen, bei denen eine Marke und die optimalen Influencer zusammengebracht werden. Diese optimalen Influencer erhalten dann Klout Perks und können über ihre Erfahrungen mit dem jeweiligen Produkt berichten - müssen aber nicht. Andererseits sagt Klout, dass sie die Identitäten der Influencer gegenüber Werbetreibenden nicht offenlegen und auch keine Daten verkaufen würden. Also fungiert Klout als Mittelsmann zwischen Unternehmen/Marke und Influencer bei der Klout-Perks-Vermittlung.

Führt ein Weg an Klout vorbei?

Ich habe lange Zeit versucht, mich aus dem Klout-Gedönse rauszuhalten. Aber es kamen ständig E-Mail-Einladungen, bis ich es aufgegeben habe. Ich oute mich: Ich bin dabei - aber ohne mich groß zu engagieren. Und ja: Ich hab nichts dagegen, wenn mir jemand ein +K gibt. Ich will auch einen großen haben - ist wohl dieser Neid, von dem schon Sigmund Freud sprach ;-). http://klout.com/#/eva4tinto

Freitag, 13. Juli 2012

Blog bekannt machen - Fortsetzung

Was sich durch die Google Algorithmus Updates Panda und Penguin verändert hat.

Dies ist eine Ergänzung zu den Blog-Posts vom vergangenen Jahr:
Blog bekannt machen Fortsetzung
Im ersten Blogbeitrag werden die Möglichkeiten beschrieben, wie man seinen Blog bekannt machen kann - denn wer schreibt, der will in der Regel auch gelesen werden. Im zweiten Blog-Post geht es speziell um die Suchmaschinenoptimierung (Search Engine Optimization, SEO) mit seriösen Mitteln - denn wer in den Suchergebnissen nicht vorne gelistet ist, ist im Internet praktisch unsichtbar. Wegen ihrer Quasi-Monopolstellung wird besonders auf die SEO für die Google-Suche eingegangen, denn wer keine gute Position in den Sucherergebnissen (Search Engine Results Positions - SERPs) von Google hat, dem fehlt eine wichtige Möglichkeit, Leser für seine Blogbeiträge zu finden.

Die Möglichkeiten, wie man einen Blog bekannt machen kann, sind zwar im Wesentlichen die gleichen geblieben und die wichtigste Voraussetzung für den Erfolg eines Blogs oder eines anderen Webangebotes ist immer noch Content, der einzigartig ist und dem Nutzer einen Mehrwert bietet - also informative und gut geschriebene Texte, Bilder, Videos, Anwendungen etc. Trotzdem sollte man ein paar Fallen kennen, die sich durch die Veränderungen des Google-Algorithmus aufgetan haben, damit man nicht von Google abgestraft wird (Google Penalty). Denn es kann auch Unschuldige treffen.

Blog bekannt machen
Achtung: Google Algorithmus Updates

Google möchte mit den Updates seines Suchalgorithmus die Suchergebnisse verbessern. Zum einen wurden das Suchverhalten und Bewertungen der User in den Algorithmus integriert. Zum anderen sollen Manipulatoren, die mit unlauteren Methoden (Black Hat SEO) arbeiten, von den vorderen Plätzen vertrieben oder ganz ausgeschlossen werden.

Die wichtigsten Google-Algorithmus-Updates heißen

Google Panda (begann im Februar 2011)
Durch die verschiedenen Google Panda Updates soll die Qualität der Blogs oder der Webseiten (Onsite-Kriterien) gecheckt und in den Algorithmus integriert werden: Ist der Content gut und einzigartig? Bietet er einen Mehrwert? Bleiben die Besucher auf der Seite oder fliehen sie gleich wieder?

Google Penguin (bekannt gegeben am 24. April 2012)
Durch Google Penguin wird neben Onsite-Kriterien wie Keyword-Stuffing (unnatürliche Wiederholung des Keywords im Text oder in den Meta-Tags) die Verlinkung (Offsite-Kriterien) gecheckt. Massenhaft Links von minderwertigen Domains/Seiten (z. B. von Linkschleudern - das sind Verzeichnisse, wo jeder Links eintragen kann, ohne dass es eine Qualitätsprüfung gibt) können sich negativ auswirken. Google bestraft auch, wenn Inhalte mehrmals im Netz vorhanden sind - ein Problem, wenn ein Unternehmen mit örtlichen Filialen die gleichen Texte (bis auf Anfahrtsinformationen o. ä.) auf alle lokalen Seiten stellt - was sachlich völlig logisch wäre. Aber auch für den normalen Blogger kann "duplicate Content" zum Problem werden, wenn die gleichen Inhalte über verschiedene URLs zu erreichen sind oder auch wenn Inhalte unberechtigt wiederverwendet wurden (Content-Klau) - wegen letzterem sollte man regelmäßig überprüfen, ob Inhalte des Blogs oder der Webseite kopiert und woanders noch einmal ins Netz gestellt werden (dafür gibt es Werkzeuge, z. B. Copyscape).

Leider zeigen Google's Maßnahmen zur Verbesserung der Suchergebnisse bisher nur mäßigen Erfolg, denn bei manchen Suchbegriffen (Keywords) sind immer noch einige nahezu inhaltslose Seiten voller Werbung auf den vorderen Plätzen vertreten. Andererseits wurden schon "unschuldige" Webseiten und Blogs abgestraft und flogen aus dem Index. Auf jeden Fall bibbern auch ganz normale Webseitenbetreiber und Blogger vor Angst wegen der Google Algorithmus Updates, denn Sichtbarkeit oder Unsichtbarkeit kann über die Existenz entscheiden - und am Drücker sitzt das Mega-Unternehmen Google mit seiner Quasi-Monopolstellung.

Manche Google Maßnahmen haben außerdem böswilligen Wettbewerbern, die Möglichkeit eröffnet, Blogs und Webseiten aus dem Index zu katapultieren, die sie loshaben wollen - z. B. indem sie massenweise Links von minderwertigen Linkschleudern zu einer konkurrierenden Seite setzen (was dann durch das Google Penguin Update geahndet wird) oder indem sie den Mitbewerber bei Google denunzieren - wozu Google aufgerufen hat.

Ergänzungen und Meinungen können gerne über die Kommentarfunktion hinzugefügt werden.

Quellen und weiterführende Informationen


Sonntag, 3. Juni 2012

Monopolstellung + Richtlinien = Macht

Monopolstellungen und Richtlinien von Mega-Unternehmen sollten unter die Lupe genommen werden, denn Quasi-Monopolisten wie Google (mit einem Marktanteil von 96 %) können ihre Richtlinien wie Gesetze durchdrücken und behindern damit den freien Wettbewerb.

Google's Monopolstellung verleiht zu viel MachtUm es gleich vorwegzunehmen:
Ich führe keinen Feldzug gegen Google. Google ist eine tolle Firma, die sich durch innovative Ideen, geschicktes Vorgehen und gute Produkte einen Platz als Marktführer in der Suche erobert hat. Die, die schneller auf Veränderungen in der Welt reagieren müssten, sind Politiker, Gesetzgeber, Kartellwächter und ähnliche. Sie müssen die gesetzlichen Rahmenbedingungen setzen, damit nicht am Ende die Welt den Megaunternehmen gehört und diese ihre eigenen Richtlinien zu Gesetzen machen können. Ach, ich vergass: Das ist doch, was bereits passiert!

Die meisten Internetnutzer wollen Geld sparen und Informationen ohne monetäre Bezahlung nutzen und es ist ja auch toll, dass das Internet Informations- und Kommunikationsmöglichkeiten unabhängig vom Einkommen bietet. Aber irgendwie müssen auch Publisher ("Veröffentlicher im Internet" - also Betreiber von Informations-, Schulungs-, und Themen-Webseiten/-Blogs) überleben. Also finanzieren sie ihre Webseiten und Blogs über Werbung auf ihren Seiten - oder zumindest versuchen sie es. Dazu setzen sie Werbung ihrer Werbepartner auf die Webseite. Dies sind überwiegend keine herkömmlichen Werbebanner oder Werbetexte mit einem Link zum Angebot des Werbenden, wie man dies direkt mit einem Werbekunden vereinbaren könnte, sondern der Publisher platziert einen Code in den Quellcode seines Blogs oder seiner Homepage, den er von den Werbepartnerprogrammen (Google Adsense, Amazon Partnerprogramm, Affiliate-Plattformen etc.) erhält.

Doch dieser Code ist eben nicht nur ein einfacher Link, sondern ermöglicht es diesen Unternehmen, die Seiten des Publishers und seine Besucher zu tracken - also Daten zu sammeln, Profile zu erstellen und so z. B. personalisierte Werbung (z. B. über Google Adwords) seinen werbetreibenden Kunden anzubieten und (z. B. über Google Adsense) einzublenden. Wer einmal sehen möchte, wer alles mitliest, wenn er/sie eine Webseite besucht, sollte Ghostery (alle Quellen unten) ausprobieren. Denn da sind ja auch noch Twitter, Facebook, Google+ und Co., deren Knöpfe über ähnliche Codes in Webseiten und Blogs eingebaut werden und die genauso tracken.

Die Richtlinien von Google verbieten das Setzen von Links aus bezahlter Werbung auf die Webseite des Werbenden, wenn diese Links nicht im Code mit "nofollow" gekennzeichnet werden - doch das möchten die direkten Werbekunden nicht: Sie wollen den Werbeeffekt plus die Backlinkwirkung von einer guten Seite, dafür sind sie bereit zu zahlen. Google aber droht Publishern und Werbern bei Zuwiderhandlung gegen ihre Richtlinien mit Abstrafung und Unsichtbarkeit in der Google Suche (also im äußersten Fall mit Existenzvernichtung, denn wer in der Google-Suche fehlt, ist praktisch nicht existent). Und nun ruft Google auch noch zur gegenseitigen Denunziation auf.

Als Grund für diese Paid-Links-Richtlinie von Google wird die Verhinderung von Spamming angegeben (in diesem Zusammenhang meint Spamming das Nachvornedrücken von Webseiten in den Trefferlisten der Suchmaschine durch viele gekaufte Links oder Links von eigens dazu generierten Linkschleudern). Ehrlich gesagt, glaube ich diesen Grund nicht mehr, denn Google sollte längst in der Lage sein, schlechte Links von unbrauchbaren Seiten ("Linkfarmen") herauszufiltern und diese entsprechend nicht als "Linkjuice" zu werten (das lernt man doch schon im Internet bei Udacity und Coursera).

Ich habe den Verdacht, Google will seine Monopolstellung ausnutzen, um selbst das Eingangstor zu Werbevereinbarungen zu bleiben/werden und Publisher zur Nutzung von Google Adsense zu manipulieren - denn wenn Publisher mit Google Adsense zusammenarbeiten, anstatt direkt mit Werbekunden Vereinbarungen zu treffen, macht Google dabei seinen Schnitt.

Dabei würde ein verantwortungsvoller Publisher doch nur Werbekunden akzeptieren, die er selbst gut und zu seinen Inhalten passend findet (was den Dofollow-Link rechtfertigt), während er bei Google Adsense weniger bzw. nur komplizierte oder nachträgliche Kontrollmöglichkeiten hat und sich oft genug über die eingeblendete Werbung die Haare rauft. Und natürlich würde ein verantwortungsbewusster Publisher Werbung aus Verbraucherschutz- und Transparenzgründen als solche kennzeichnen - wie es in Deutschland ja auch gesetzlich vorgeschrieben ist.

Durch den Druck jedoch, den Google durch seine Monopolstellung und seine Richtlinien auf Publisher ausübt, treibt das Unternehmen vermutlich etliche Publisher dazu, Werbetexte mit Do-Followlinks nicht als solche zu deklarieren - zum Nachteil des Verbrauchers, der einen Anspruch auf Transparenz hat.

Witzigerweise fand t3n Anfang des Jahres Hinweise, dass Google selbst seine Richtlinien bei Werbung für seinen Chrome Browser missachtete und Werbelinks nicht als Nofollow-Links ausgewiesen wurden. Doch ich finde das eigentlich irrelevant, denn meiner Meinung nach gehört diese Richtlinie grundsätzlich verboten.

Google's Quasimonopolstellung und seine Richtlinien sollten endlich rechtlich unter die Lupe genommen werden und Gegenmaßnahmen ergriffen werden. Denn solche Richtlinien und Strafandrohungen eines Unternehmens mit einer dominanten Marktstellung behindern den freien Wettbewerb und schwächen Publisher.



Quellen und weiterführende Informationen


Freitag, 25. Mai 2012

Google's quasi-totalitäre Herrschaft

Matt Cutts ("I am the head of the webspam team at Google") fordert dazu auf, Webspam von Mitbewerbern zu melden. Da frage ich mich schon: Ist das ein Aufruf eines (welt-)marktbeherrschenden Megakonzerns an seine "Bürger" zur Denunziation anderer "Bürger"? Und an was erinnert mich das? Jedenfalls nicht an Demokratie!

Google hat eine Vormachtstellung im Suchmarkt: Laut W&V hat die Google-Suchmaschine in Deutschland einen Marktanteil von 96 %. Die Google-Suche bestimmt im Grunde, wer sichtbar ist im Internet - zumindest für die Internetnutzer, die mit einer Suchmaschine recherchieren.

Was in den Suchergebnissen gezeigt wird, hängt vom Google-eigenen Suchalgorithmus ab, den Google ständig zu verbessern sucht - angeblich nur im Sinne des Nutzers, aber die seit neuestem beobachtete Bevorzugung großer Marken könnte auch andere Interessen vermuten lassen. Jedenfalls: Auch nach gefühlten 1.000 Panda- und seit neuestem auch Penguin-Updates des Google-Algorithmus ist Google mit den Suchergebnissen auf den vorderen Plätzen nicht zufrieden. Und als Publisher und Nutzer muss ich sagen: Ja, ich auch nicht - es sind bei manchen Suchbegriffen immer noch Seiten mit kaum brauchbarem Content auf den vorderen Plätzen.

Google unterstellt nun, dass daran unlautere Suchmaschinen-Optimierungs-Methoden ("Black Hat SEO") Schuld seien, mit denen der Google-Algorithmus ausgetrickst würde. Matt Cutts, der Kopf der Google-Spam-Brigade, ruft jetzt dazu auf, Mitbewerber, die unlautere Webspam-Techniken nutzen, an Google zu melden und öffnet damit meiner Meinung nach Denunziantentum Tür und Tor. Denn was unter unlauteren Webspam-Techniken zu verstehen ist, definiert natürlich Google selbst und nicht etwa Verbraucherschutzgesetze irgendeines Landes.

Google - die ungeteilte Macht

In unserer Demokratie gibt es aus guten Gründen eine Gewaltenteilung, die die Staatsgewalt auf verschiedene Staatsorgane - Gesetzgebung (Legislative), Vollziehung (Exekutive) und Rechtsprechung (Judikative) - verteilt, um die Macht zu begrenzen (von der vierten Gewalt, der Presse, ganz zu schweigen). Doch im Internet liegt die Macht ganz allein beim Quasi-Monopolisten. Was den Suchmarkt anbetrifft, ist das Google (zu dem übrigens auch YouTube gehört), was Social Media anbetrifft, vor allem Facebook - wobei Google ja über sein Suchmaschinen-Monopol und durch die Verknüpfung der Suche mit anderen Google-Diensten Publisher faktisch zu Google+ zwingt. In ihren Bereichen herrschen die Internetgiganten quasi totalitär - sie machen die Gesetze, verfolgen (bzw. lassen denunzieren) und bestrafen. Bei Zuwiderhandlung bzw. einer Denunziation ist die Existenz, sofern sie auf der Sichtbarkeit im Internet basierte, dahin.

Ach ja - kleine persönliche Anmerkung: Und da wundert sich Google, dass ich als tinto-Publisher nicht ausschließlich Google Adsense Werbung auf meine werbefinanzierten Webseiten und Blogs platziere und nicht noch weitere Google-Tools nutze (solche die offenlegen, wo ich wie viel verdiene), und mich noch abhängiger von Google bzw. mich vollkommen transparent mache? (Dass sie sich wundern, schließe ich aus den E-Mails, die ich immer wieder bekomme: Dass ich mein Adsense-Potenzial nicht ausschöpfe und dass ich doch dieses tolle neue Vergleichstool nutzen könnte - hab vergessen, wie es heißt).

Die Abhängigheit von Google sieht man in dieser Grafik (statistische Auswertung der Besucherquellen für tinto.de und -Projekte (Verbraucherthemen-Mix: Garten, Geld, Gesundheit, Job, Selbstverwirklichung etc.) von Ende April bis Ende Mai 2012).


Die Grafik wurde erstellt mit infogr.am

Macht Google das Internet kaputt?

Ich mag Google und ich mag Facebook - da stecken tolle Ideen und Programmierer dahinter. Ich wünschte, ich hätte solche Visionen. Aber beide Unternehmen wurden zu groß und mächtig - was man eigentlich nicht den Unternehmen vorwerfen kann, denn warum sollten sie nicht wachsen wollen? "The sky is the limit" hatte vor 15 Jahren jeder zweite als Motto in seinen Profilen bei Foren, in Messengern, Chatrooms und bei AOL stehen.

Aber speziell im Falle des Aufrufs von Google zur Denunziation fürchte ich, dass Google Unternehmen und User aus dem nicht-proprietären Internet vertreibt - direkt in die Hände des anderen Datenkraken Facebook (der natürlich nicht weniger totalitär in seinem geschlossenen Reich herrscht)!

Die einzige Möglichkeit für uns Publisher (aber auch Nutzer), eine gewisse Freiheit zu bewahren, sehe ich darin, dass sich Blog- und Webseitenbetreiber gegenseitig stärken. Ideen dazu, Meinungen und Visionen dürfen gerne in den Kommentaren gepostet werden, genauso auch Ideen, ob und wie nationale und internationale Politik die Macht der Megakonzerne einschränken sollte.

Quellen und weitere Informationen
Danke an Eric Kubitz für seine SEO-Woche: News aus der Content Marketing-Maschine, die mich auf diesen Aufruf von Google's Webspam-Chef Matt Cutts aufmerksam gemacht hat.

Donnerstag, 16. Februar 2012

Urheberrecht aus Sicht eines Urhebers (Autor)

Zurzeit wird viel über ACTA und über das Urheberrecht diskutiert. Viele, die gegen ACTA sind, wollen gleichzeitig das Urheberrecht abschaffen oder drastisch verkürzen. Als Urheber habe ich den Eindruck gewonnen, dass sich zu wenige hauptberufliche Urheber, die tatsächlich vom Schreiben, Fotografieren etc. leben, an der Diskussion beteiligen und dass in der Öffentlichkeit und auch unter den Politikern zu wenig bekannt ist, wie und wovon ein Urheber eigentlich lebt. Daher hier meine Sicht als Autor.

Urheberrecht und ACTA

Die Vermischung der Diskussionen um ACTA, Urheberrecht und Verwertung/Lizenzierung macht mir Angst. Ich traue den ACTA-Gegnern nicht, nachdem in Diskussionen und Interviews ACTA-Gegner als Argument äußerten: „Dann könnte ich bei YouTube ja nicht mehr alles umsonst runterladen“. Sind das die Kinder der Geiz-ist-geil-Generation, die nun alles umsonst haben wollen, was ihnen an Musik, Bildern oder Texten gefällt? Selbst Menschen, die sich intensiver mit der Materie beschäftigen und einen Gegenentwurf zu ACTA entwickeln, schlugen vor, das Urheberrecht solle auf 2 Jahre nach Erstveröffentlichung gekürzt werden. Da frage ich mich schon, ob die überhaupt wissen, wie beispielsweise ein Autor in Deutschland sein Geld verdient. (Für andere Urheber wie Fotografen, Maler, Musiker und auch für andere Länder kann ich nicht sprechen, da ich nicht im Detail damit vertraut bin – die USA hat ja beispielsweise ein anderes Urheberrecht als wir. Ich würde mich aber freuen, wenn sie auch ihre Sicht darstellen, und verlinke dann gerne von hier aus.)

Das (Über-)Leben eines Urhebers am Beispiel Autor

So ist der Weg von der Idee zum Einkommen: Entweder hat ein Autor (= Urheber) eine Idee, über was er schreiben möchte, oder ein Verwerter (im besten Fall ein netter Verlag) trägt eine Idee an ihn heran. Wenn man als Autor selbst keinen Verlag für seine Idee gewinnen kann, aber unbedingt beim Verlag schreiben will, sucht man sich einen Agenten – allerdings sind die ebenso schwer wie Verlage zu gewinnen und möglicherweise finden sie auch keinen Verlag. Hat dann endlich doch ein Verlag angebissen, entwickeln der Lektor des Verlages und der Autor zusammen eine Inhaltsstruktur, wobei der erste Entwurf vom Autor kommt.

Wenn man sich über alles einigen kann, wird ein Vertrag zur Verwertung gemacht, der alle Details zu Rechten und Pflichten von beiden Seiten enthält. Der Verwerter (Verlag) verpflichtet sich im Verlagsvertrag beispielsweise, dafür zu sorgen, dass das Buch gedruckt und unter die Leute gebracht wird. Damit er das kann, muss der Autor ihm bestimmte Rechte einräumen - leider klingt das in den Verträgen immer sehr kompliziert (bei Mediafon kann man recherchieren, was "normal" ist). Was die Bezahlung angeht, kann man als Nicht-Prominenter oder Nicht-Starautor aber doch einigermaßen geschätzter Fachautor meist einen nicht rückzahlbaren Vorschuss aushandeln. Die Höhe des Vorschusses ist sehr themenabhängig und es kommt auch darauf an, was sich der Verlag überhaupt leisten kann – je mehr Vorschuss, desto mehr zusätzliches Risiko für den Verlag, denn letztlich weiß niemand, ob sich das Buch überhaupt verkaufen wird.

Ein Verlagsvertrag ist etwas Gutes. Der Vorschuss deckt bei mir im Durchschnitt etwa den Lebensunterhalt eines Viertels der Zeit, die ich brauche, um das Buch zu schreiben – bei manchen Büchern mehr, bei anderen gibt es gar keinen Vorschuss (je nach Thema bzw. bei Fiktion als unbekannter Schriftsteller in einem kleinen Verlag). Mit anderen Worten: Wenn ich 4 Monate an einem Buch schreibe, dann deckt der Vorschuss (der meist erst bei Manuskriptabgabe oder bei Veröffentlichung fällig wird) im Durchschnitt anschließend einen Monat lang meine Lebenskosten.

Da fragt man sich: Wovon leben Autoren dann die restliche Zeit? Zurecht. Antwort: Von den Honoraren, die über die Jahre noch nachkleckern, nachdem der Vorschuss mit ihnen verrechnet wurde. Wenn mein Vorschuss beispielsweise nach 2 - 3 Jahren mit den tatsächlichen Honoraren aus Verkäufen verrechnet ist, kommt wieder etwas Geld herein – jedes Mal, wenn jemand mein Buch kauft und bezahlt. Aber das sind winzige Beträge pro Buch. Manche Bücher haben dann nach 10 Jahren so viel Geld gebracht, dass die ursprünglich investierte Zeit zu einem erträglichen Stundenlohn führte. Bei manchen Büchern passiert das nie. Das gute Buch, das lange läuft, trägt den Rest mit, der nicht so recht in Fahrt kommt – und das passiert bei vielen Büchern.
[Nachtrag 19.2.2012] Dazu kommt noch das Geld, das die Verwertungsgesellschaft (VG) Wort einsammelt und verteilt. Damit ist in etwa die Miete eines Monats bezahlt - in einem Jahr mehr, im anderen weniger. Das Geld stammt beispielsweise aus geringfügigen Aufschlägen auf Vervielfältigungsgeräte, durch die Nutzer Geld sparen, denn sie müssen nicht das ganze Buch kaufen, wenn sie nur Abschnitte kopieren. [Nachtrag-Ende]

Werden Bücher von unberechtigten Dritten gescannt und als E-Books angeboten (solche Plattformen "E-Books umsonst" gibt es ja im Internet), ist das nach unserem Gesetz Diebstahl zu Lasten des Autors und zu Lasten des Verlages, die die ganze Arbeit und das Risiko hatten. Das Teure am Buch ist übrigens nicht der Buchdruck, sondern die viele Arbeit, die Autoren, Lektoren und viele andere Menschen da reingesteckt haben - deshalb spielt es keine soooo große Rolle, wie viele annehmen, ob das Buch gedruckt oder digital verkauft wird. Wenn es digital verkauft wird, ist allerdings i. d. R. der stationäre Buchhandel nicht mehr beteiligt (dafür wirken Monopolisten auf die Preisgestaltung) - das spart dem Kunden Geld, dafür fehlt ihm die Beratung durch die Fachleute der Buchläden, die aber leider zunehmend pleitegehen und aus den Städten (auch wegen anderer Zusammenhänge) verschwinden.

Verschiedene Geschäftsmodelle für Autoren

Natürlich kann man nicht nur über Verlage publizieren. Als Autorin/Journalistin habe ich schon verschiedene Wege probiert – und ich bin sehr froh, dass es verschiedene Wege gibt: gedruckte Bücher/E-Books mit Verlag, Bücher ohne Verlag, werbefinanzierte Online-Publikationen. Aber wenn ich mich aufs Schreiben konzentrieren will, dann ist die Arbeit mit (einem guten Agenten und) einem Verlag am erfreulichsten, denn dann kann ich das tun, weswegen ich den Beruf ergriffen habe: Schreiben.

Der Verlag hält dem Autor den Rücken frei, entwickelt Buchreihen, kümmert sich um Lektorat, Korrektorat, Layout, Umschlag, Vertrieb und Vermarktung. Wenn ich selbst verlege – egal, ob gedrucktes Buch, E-Book oder Online-Publikation, dann muss ich mich um alles selbst kümmern, d. h. ich muss all dies selbst lernen und umsetzen. Das frisst wahnsinnig viel Zeit und Energie, schließlich muss man mehrere Berufe lernen, in die andere als Azubi oder Student mehrere Jahre reingewachsen sind. Dabei wollte ich einfach nur schreiben.

Leider werden die Verlagsverträge in den letzten Jahren immer schwieriger zu lesen und gehen oft genug in Richtung Total Buy Out. Ein Agent kann dabei helfen, einen besseren Vertrag zu bekommen, möchte aber für seine Arbeit auch bezahlt werden - verständlicherweise. Der Grund für die schlechteren Verträge liegt aber meiner Meinung nach nicht darin, dass die Verlage immer böser werden, sondern weil es ihnen – meinem Eindruck nach – immer schlechter geht. Und das hat natürlich mit den großen amerikanischen Platzhirschen im Internet zu tun, die den Nutzern alles für lau und den Autoren große Erfolge unter Umgehung der Verlage versprechen. Sie machen das nicht aus Gutherzigkeit, sondern sie wollen die Verlage u. a. Verwerter loswerden und selbst das Geschäft machen. Sie interessieren keine Urheberrechte und letztlich auch nicht der Künstler/Autor, sondern nur wie viele Besucher kommen (umso teurer können sie ihren Werbeplatz verkaufen) oder wie sie die Verlage ersetzen können (ohne den Service zu bieten, der nämlich Geld kosten würde).

Ja, die Verlage u. a. Verwerter müssen sich - wie alle - der neuen Situation im Internet stellen. Aber das Urheberrecht abzuschaffen oder drastisch zu kürzen oder überhaupt Gesetze kritiklos an Geschäftsmodelle von Unternehmen anzupassen, ist meiner Meinung nach der falsche Weg.

Urheberrecht- und ACTA-Argumente

Die ACTA-Gegner behaupten, dass ACTA nur den Verwertern in die Hände spiele und die Verwerter seien böse. Nun, die Verwerter (in meinem Fall Verlage) bezahlen mich als Urheber, indem sie mir für jedes verkaufte Buch einen Honoraranteil überweisen – und sie können nur verwerten, was sie von den Urhebern zur Verwertung per Vertrag bekommen haben. Es steht jedem frei, zu schreiben, komponieren, fotografieren und seine Werke als frei zu deklarieren (GNU-Lizenz für freie Dokumentation). Doch ich möchte vom Schreiben leben können. Und wenn mein erster Roman erst nach 25 Jahren entdeckt wird, finde ich, steht immer noch mir das Honorar zu – denn schließlich habe ich über ein Jahr lang in jedem Urlaub, an jedem Wochenende und jeden Abend daran geschrieben (Geld verdienen musste ich damals mit was anderem).

Die ACTA-Gegner wollen keine „Totalüberwachung durch den Staat“ und auch nicht, dass die Tauschplattformen zu Hilfssheriff gemacht werden. Ob das überhaupt durch ACTA verlangt wird, weiß ich nicht – nach der Analyse zweier Rechtsanwälte (Links zu den Artikeln sind unten bei Quellen), steht das nicht drin und sind auch kaum neue gesetzlichen Regelungen in Deutschland erforderlich. Leider sind die ACTA-Gegner nicht so kritisch, wenn es um die Totalüberwachung durch Internet-Unternehmen wie Facebook oder Google geht oder andere, die tracken und bubblen.

Ich möchte auch keine Totalüberwachung durch den Staat und ich möchte auch nicht, dass Jugendliche bei Ersttaten unverhältnismäßig hohe Abmahnungen zahlen müssen, aber ich will, dass Gesetze auch im Internet gelten – allerdings gehören die auch mal eindeutig für das Internet ausgelegt und kommuniziert, statt User und Publisher in Fallen laufen zu lassen, in der Hoffnung, dass Gerichte alles irgendwann klären werden, während sich die Politik irgendwo versteckt. Aber grundsätzlich: Wenn ich die Situation auf ein Gasthaus übertrage: Von einem Wirt verlange ich doch auch, dass er dafür sorgt, dass in seinem Laden das Gesetz eingehalten wird, dass er dort keinen Drogenhandel duldet und Kindern keinen Alkohol verkauft. Warum soll man das nicht auch von einer Internetplattform verlangen können. Die überwachen uns doch sowieso bzw. sammeln Daten wie verrückt. Wie man sieht, machen die Internet-Unternehmen freiwillig wenig nur deshalb, weil etwas richtig wäre, denn jeder Besucher ist für sie ein guter Besucher – die interessieren sich nicht für Urheberrecht oder andere Gesetze, solange die Kohle stimmt und man sie machen lässt.

Ein Urheber will nicht das Haustier der Gesellschaft sein

Das Leben eines Künstlers/Autors ist hart. Aber das weiß man, wenn man damit anfängt. Mag sein, dass es einer Rihanna oder einem Dieter Bohlen finanziell nicht so viel ausmacht, wenn jemand ihre Arbeit kopiert und verteilt. Aber es ist ungesetzlich. Doch ein Künstler/Publizist hat in Deutschland laut Künstlersozialkasse im Durchschnitt ein Monatseinkommen von ca. 1.100 Euro (und die KSK nimmt erst ab einem Mindesteinkommen auf) - in dem Betrag ist auch das enthalten, was die Verwertungsgesellschaften (z. B. VGWort) eingesammelt und verteilt haben. Und das will man dem Künstler/Publizist wegnehmen, indem man das Urheberrecht abschafft oder verkürzt?

Voll die Krätze kriege ich aber, wenn ich von eher dem Sozialismus zugeneigten Menschen in Diskussionen höre, dass „unsere Künstler und Schriftsteller eben einen Pauschalbetrag zum Leben bekommen sollen“ (wenn wir dann mal die Gesellschaft umgekrempelt haben). Aber: Es müsste ja wohl fairerweise erst die Gesellschaft umgekrempelt werden, bevor man Urheber enteignet. Aber auch so will ich nicht wie ein Haustier, das man sich als Gesellschaft leistet, gehalten werden – abgesehen davon, dass ich Verfechter der sozialen Marktwirtschaft und nicht des Sozialismus bin.

Mein Fazit als Urheber (Autor)

ACTA, Urheberrecht und Verwertung sind verschiedene Dinge - darüber muss aufgeklärt werden. Die Auslegung der Gesetze für das Internet sollte eindeutiger kommuniziert, am besten schriftlich veröffentlicht und in Schulen gelehrt werden, denn weder Internetnutzer noch Urheber/Seitenbetreiber können aktuell noch durchschauen, was legal ist und was nicht.

Beispiel: Offensichtlich sind die Vorschaubilder bei Google-Suche legal, aber bei Verlinkungen bei Facebook oder beim Pinnen aus Blogs mit Pinterest/Pinspire nicht (weiß leider nicht mehr, wer das im TV vor Kurzem gesagt hat). Genauso gehört das ganze Tracking-Thema untersucht und eindeutige Regeln aufgestellt – Illegales sollte in Deutschland erst gar nicht angeboten werden dürfen, statt den überforderten Nutzer oder Publisher ins Verderben sausen lassen. Die Politik sollte sich endlich mal dran setzen und die Regeln für die Bürger formulieren.

Diesem Schlamassel aus dem Weg gehen zu wollen, indem man einfach mal das Urheberrecht beseitigt, weil man sich sonst mit mächtigen Unternehmen auseinandersetzen müsste, ist für mich feige und davon abgesehen auch gleichzusetzen mit Enteignung.

[Nachtrag 19.2.2012] Es sollten auch meiner Meinung nach faire Lizensierungs-/Nutzungsmodelle ermöglicht werden. Z. B. günstige Kombiprodukte (Buch + E-Book). Oder Lizenzen für den Inhalt: Wer ein Buch gekauft hat, soll es für einen kleinen Aufpreis auch als E-Book herunterladen dürfen, statt es noch einmal ganz bezahlen zu müssen (Ausnahme E-Books mit extremem Mehraufwand und "Mehrwert" wie interaktiven Grafiken etc.). Die Buchpreisbindung und der Börsenverein des Deutschen Buchhandels als Sprachrohr der deutschen Buchbranche sollten fairen Innovationen nicht den Weg verstellen. Dementsprechend sollte auch die GEMA (Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte) sich innovativen Lizensierungs- und Nutzungsmodellen öffnen oder sie selbst entwickeln. ACTA (Anti-Counterfeiting Trade Agreement), bei dem es um die (Art der) Durchsetzung von Gesetzen gegen Produktpiraterie und Markenfälschungen geht, ist für mich ein ganz eigenes Thema. [Nachtrag-Ende]

Aber solange eine große Zahl der ACTA-Gegner gleichzeitig auch Urheberrechtsabschaffer sind bzw. Urhebern und Künstlern die Rechte und die Lebensgrundlage beschneiden wollen, werde ich mich nicht zu ihnen stellen.

Anzeige

Aufruf
Wenn ihr auch Urheber (Fotograf, Musiker, Journalist, Maler o. a.) seid und davon lebt (also nicht nur schreibt, um eure Dienstleistungen zu promoten) oder Verwerter (Verlag) seid, dann könnt ihr vielleicht auch für andere aufschreiben, wie das mit Kunst/Urheberschaft oder Geschäft und Einkommen bei euch funktioniert. Ich glaube nämlich, dass viele Menschen davon einfach die falsche Vorstellung haben.

Quellen und weitere Informationen


[Nachtrag 16.5.2012]
Gut gefällt mir auch dieses Interview mit Pia Ziefle: Mein Standpunkt ist der des autonomen Urhebers

Nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen oder persönliche Meinung hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

Das könnte euch/Sie auch interessieren:

Sie suchen Werbeplatz in diesem Blog oder eine Technische Redakteurin/Autorin/Texterin zu Software-, Informatik- oder Internetthemen für Ihre Website, ein Buchprojekt, ein Kundenmagazin o. Ä.? Schreiben Sie mir!