Posts mit dem Label Internet werden angezeigt. Alle Posts anzeigen
Posts mit dem Label Internet werden angezeigt. Alle Posts anzeigen

Samstag, 31. Dezember 2022

Browser - vom Single-Browser-User zum Multi-Browser-User

Praktisches, Privatsphäre, Suchergebnislisten/Filterbubble, trackende Netzwerke

Browser - es kann nur einen geben?

Für manch einen ist die Wahl des Internet-Browsers eine Frage der Weltanschauung. Ich bin da schon immer eher pragmatisch und ein Out-of-the-Box-User - d. h. ich kaufe mir gerne fertige Hardware-Software-Pakete und fange sofort mit dem Schreiben an, ohne Installationsaufwand. Da Windows und Internet Explorer bei meinen Notebooks immer schon dabei waren, hab ich mir um den perfekten Browser nie einen Kopf gemacht: Internet Explorer war da und Internet Explorer (bzw. heute Edge) habe ich genutzt. (zuletzt aktualisiert a 31. Dezember 2022)

Trend zum Zweit-Browser

Erst als ich einen Fernkurs in Programmierung (-> meine Harvard-Fernkurs-Erfahrung) machte, musste ich mich zwangsläufig um das Thema Browser kümmern, denn die programmierten Webseiten sollten in jedem Browser gleich aussehen. Ein schwieriges Unterfangen (weil jeder Browser HTML-Code anders interpretiert - besonders bockig ist da der Internet Explorer), worauf ich hier aber nicht näher eingehen will, sondern darauf, dass ich nähere Bekanntschaft mit anderen Browsern machte - und das war gut so.

Anzeige

Am Mozilla-Browser Firefox begeisterten mich damals die vielen Add-ons (Erweiterungen), besonders die, die bei der Webseitenprogrammierung helfen (Firebug, Live HTTP Headers und viele andere). Später kamen die Add-Ons für die Suchmaschinenoptimierung (Seach Engine Optimization, SEO) - z. B. das SEOQuake-Add-On hinzu. Safari und Opera dagegen haben bei mir zunächst keinen bleibenden Eindruck hinterlassen.

Mein Haus- und Hof-Browser für den Alltag blieb allerdings der Internet Explorer, denn die bei mir permanent aktivierten Add-Ons des Firefox verlangsamten seinen Seitenaufbau, weil zusätzliche Informationen von zusätzlichen Servern geholt und verarbeitet werden müssen. Außerdem nutzten meine Seitenbesucher damals noch überwiegend den Internet Explorer und ich wollte meine Webseiten bzw. das Internet so sehen wie sie. (Heute, 2023, ist Google Chrome der meist genutzte Browser, davon abgesehen, dass vieles heute nicht mehr über eine Webseite mit einem Browser abgeholt wird, sondern, vor allem bei Verwendung mobiler Endgeräte, mit einer App.

Browser - aller guten Dinge sind mindestens drei!

Die nächste Änderung in meiner Browser-Nutzung kam mit Google Plus (Nachtrag 2020: Diese Social-Media-Plattform von Google gibt es inzwischen nicht mehr). Auch hier waren es vor allem die Erweiterungen (die das Google+-Nutzererlebnis verbesserten), die mich dazu brachten, Chrome dauerhaft zu installieren - als einen von mehreren Browsern.

Anzeige


Als ich dann durch Artikel über die Veränderung des Netzes allgemein, über das User Tracking (Google Suche, Google Adsense und andere Werbenetzwerke) und speziell über die Datenschutzproblematik mit Facebook noch stärker sensibilisiert wurde, was die Dominanz und die Daten-Saugkraft mancher (Social-Media-)Plattformen, oft aus USA, betrifft, habe ich mich für einen vierten Browser entschieden: Opera.

Nachtrag: Nachdem ich im Frühjahr 2014 Malware, darunter einen Sparkassen-Trojaner auf dem Rechner hatte, hatte ich einige Jahre lang Safari als fünften Browser installiert.

Welchen Browser für was nutzen?

Ich habe mich also vom Single-Browser-User zum Multi-Browser-User entwickelt. Und auf jedem Browser nutze ich auch eine andere Suchmaschine.

Die Browser meiner Wahl, die täglich auf meinem Notebook im Einsatz sind:

  • Internet Explorer
    Internet Explorer (Nachtrag 2020: seit Windows 10 ersetzt durch Microsoft Edge) ist für mich immer noch mein Alltagsbrowser: für Twitter, Internet-Recherchen und anderes mehr (aber ich lösche die Cookies regelmäßig, nutze die Google-Suche nur selten und oft ohne Anmeldung, sondern statt dessen Bing oder andere Suchmaschinen/Suchsysteme wie metager.de).
  • Firefox
    Firefox nutze ich hauptsächlich für die Webseitenerstellung und für SEO-Checks, aber auch für Recherchen. Wenn ich eine Suchmaschine benötige, nehme ich eine der vielen Alternativen zu Google.
  • Google Chrome
    Chrome setze ich überwiegend zur Nutzung von Google-Produkten ein (Google Analytics, Adsense, YouTube, Reader, E-Mail etc.). Als Suchmaschine nutze ich nur in diesem Browser die Google-Suche mit Anmeldung.
  • Opera
    Opera wurde eine Zeitlang mein Facebook-Browser - und zwar ausschließlich. Dort nutzte ich nur die Facebook-interne Suche. (Nachtrag 2020: Opera benutze ich inzwischen gar nicht mehr)
  • Safari für Windows 
    Seit ich einen Sparkassen-Trojaner hatte - keine Sorge, es ist zum Glück nichts passiert -, nahm ich Safari für Windows für das Online-Banking, in der Hoffnung, dass dieser Außenseiter-Browser weniger die bösen Hacker anlocken würde. (Nachtrag 2020: Safari für Windows wird von Apple nicht mehr gepflegt und von mir daher gar nicht mehr verwendet.)
Anzeige

Browser und Social Media - Privatsphäre

Wie oben schon angesprochen, kann Social Media bzw. der Schutz der Privatsphäre bei deren Nutzung ein guter Grund sein, mehr als einen Browser zu nutzen.

Will man nicht, dass Facebook weiß, wo man außerhalb von Facebook rumsurft, sollte man sich grundsätzlich ausloggen, wenn man Facebook verlässt, denn sonst meldet jede Webseite, die den dynamischen Like-Button o. Ä. eingebaut hat, wo man ist, und Facebook speichert die Information, nutzt sie zur Profilerstellung und vermutlich für seine und Drittanbieter-Werbung. Ähnliches gilt auch für Google/Google+ und manche anderen trackenden (Social-/Werbe-) Anwendungen.

Interessant in dem Zusammenhang ist ein Artikel über die Veränderung des Netzes (It's the end of the web as we know it) mit einem Link darin zu einem Artikel über Facebook (Logging out of Facebook is not enough).

Manche Internetnutzer gehen einen anderen Weg als ich mit meinen verschiedenen Browsern (und verschiedenen Suchmaschinen) und versuchen, einen Browser für ihre private Nutzung völlig clean zu halten, indem sie sich mit diesem Browser nie irgendwo einloggen, alle Cookies regelmäßig löschen und den Browser in regelmäßigen Abständen sogar komplett deinstallieren und neu installieren.

Doch bieten Browser auch Schutzfunktionen: Nutzt man bei Internet Explorer "InPrivat", werden keine Daten über die Browsersitzung gespeichert - keine Cookies, keine temporären Internetdateien, Verläufe etc. (Allerdings wurde Google vor kurzem vorgeworfen, solche Nutzereinstellungen ignoriert zu haben - ob das stimmt, kann ich nicht beurteilen). Eine ähnliche Privat-Funktion gibt es auch bei Mozilla (privater Modus), Opera (privater Tab) und bei Chrome (Inkognito-Fenster). Für Chrome und Firefox gibt es außerdem Erweiterungen, die man installieren kann, damit sie verhindern, dass Facebook, Google, Twitter etc. ihre Tracking-Cookies ablegen (siehe Facebook is tracking ...).

Browser bieten Privatsphare-Schutz - erreichbar
über einen Klick mit der rechten Maustaste
auf das Browsersymbol in der Taskleiste

Browser und Social Media - Suchergebnislisten

Die Vernetzung mit anderen Teilnehmern bei Google+ und über andere Google-Produkte schlägt sich angeblich über den Google-Suchalgorithmus auf die Google-Suchergebnislisten nieder. Suche ich beispielsweise nach einem politischen Thema, dann wird mir auf Platz 1 der Suchergebnisse angezeigt, was jemand, mit dem ich bei Google+ über ein fachliches Themen diskutiert habe, zu diesem politischen Thema geteilt hat. Aber will ich das?

Vernetzung ist doch nicht gleich Vernetzung - mit dem einen tausche ich mich über das Schreiben, mit dem anderen über Garten, mit wieder anderen über Suchmaschinenoptimierung, Datenbanken oder Existenzgründung aus.

Es störte mich damals schon innerhalb von Google+, dass ich von Leuten, die ich fachlich in einem bestimmten Thema sehr schätze, ständig politische Ansichten lesen muss, die ich teilweise überhaupt nicht teile, und dies nicht abstellen kann, will ich nicht auch den fachlichen Kontakt im Netzwerk verlieren. Ich möchte aber auch nicht, dass meine Suchergebnisse von Vernetzungen beeinflusst werden. Erst wenn der Social Graph nach Interessen aufgesplittet werden würde, würde das überhaupt einen Sinn machen - wenn man es denn überhaupt mag.

Zum Thema Digitale Deutungshoheit - Die Macht der Vernetzung hat sich Sascha Lobo ein paar interessante Gedanken gemacht. Jedenfalls: Vor ein paar Wochen stand ich der Social-Komponente im Suchalgorithmus noch skeptisch bis leicht ablehnend gegenüber, weil ich dachte, da schwimmt dann jeder in seiner eigenen Suppe (gleiche einseitige Sicht der Welt mit seiner Peergroup), aber inzwischen macht mir diese nicht qualifizierte Macht, die manche aufgrund ihrer starken Vernetzung erhalten, auch Angst - eine Macht die auf Vernetzungsquantität statt Vernetzungsqualität (in Bezug auf das gesuchte Thema) basiert.

Ich bevorzuge beim Googeln/Recherchieren i. d. R. eine "social-unbeeinflusste" Suchergebnisliste, denn ich will nicht in einer Filterbubble leben - es reicht doch schon, dass das menschliche Gehirn selektiv wahrnimmt, da will ich nicht auch noch eine Suchmaschine, die nach einem Algorithmus, den ich nicht kenne, vorsortiert - aber das muss jeder selbst entscheiden. Für mich ist dies jedenfalls auch ein Grund, warum ich nicht mehr mit dem Browser google, mit dem ich Google+ und andere Google-Produkte nutze, sondern einen anderen Browser verwende und/oder ich nutze oben beschriebenes InPrivat-Browsen (bzw. Inkognito-Fenster, privaten Modus etc.). Aber abgesehen davon, gibt es ja auch noch andere Suchmaschinen als Google (beispielsweise Bing.com, Duckduckgo.com, StartPage.com etc.) und es gibt Meta-Suchmaschinen wie www.metager.de, die mehrere Jobdatenbanken gleichzeitig durchsuchen. Darüberhinaus nutze ich das Opt-Out-Verfahren, das von der Network Advertising Initiative (NAI) angeboten wird, um nicht ständig mit Werbung bombadiert zu werden, die mit einem Thema zusammenhängt, das ich kürzlich mal gesucht oder bei dem ich Werbung angeklickt habe, was mich beides aber heute nicht mehr interessiert.

Anzeige

Mein Browser-Fazit


Es gibt gute Gründe, mehr als einen Browser zu nutzen:

  • Effizienteres Arbeiten, wenn jeder Browser entsprechend seiner Vorteile eingesetzt wird
  • Schutz der Privatsphäre
  • Suchergebnislisten ohne Social-Media-Komponente
  • Mit anderen Maßnahmen zusammen: um interessenbezogene Werbung zu verhindern
Ich finde es zudem praktisch, dass man durch den Einsatz verschiedener Browser etwas mehr Überblick in der Taskleiste hat, weil man durch die Browser-Aufgaben-Zuordnung eine Vorsortierung hat.


Das könnte Sie auch interessieren:

< ul type="disc">
  • Das Internet hat auch Abgase

  • Sie suchen Werbeplatz in diesem oder anderen meiner Blogs oder eine Bloggerin, Journalistin, Technikredakteurin für Texte auf Ihrer Website, ein Buchprojekt, ein Kundenmagazin oder Ähnliches? Schreiben Sie mir!


    Anzeige


    Donnerstag, 11. Juli 2013

    Plausible Deniability - glaubhafte Abstreitbarkeit

    Zum ersten Mal habe ich von dem Begriff "Plausible Deniability" im Presseclub "Vorsicht Freund hört mit" am 7. Juli 2013 gehört, bei dem es um die intensiven Abhöraktivitäten von Geheimdiensten wie der National Security Agency (NSA) und der Government Communications Headquarters (GCHQ) sowie weitere Offenlegungen, die wir dem Whistleblower Edward Snowden zu verdanken haben, ging.

    "Plausible Deniability" sei ein Konzept, das die plausible Leugbarkeit ermöglicht. Nein, ich kannte Prism nicht, kann man beispielsweise sagen, wenn einem der Projektname Prism wohlweislich nicht mitgeteilt wurde. Das bedeutet jedoch nicht, dass man nichts von einer flächendeckenden Ausspionierung von Daten wusste oder von dem, was der ausländische Geheimdienst sonst so tat. Es wurde vielleicht in Gesprächen ein anderer Name, z. B. ein Codename, verwendet, oder man fragte bewusst nicht nach, um sich später in eine Wolke der Unwissenheit hüllen zu können.

    Als ich recherchierte, stellte ich fest, dass "Plausible Deniability" tatsächlich gar nichts Neues ist, bei Wikipedia gibt es längliche Ausführungen zur "Glaubhaften Abstreitbarket". "Plausible Deniability" ist ein Konzept der "Spurenvermeidung" in der Politik, die in den USA in den 1950er Jahren entwickelt wurde: Führungsstrukturen und Befehlsketten werden so gestaltet, dass sie bei Bedarf gut abgestritten werden können, so dass beispielsweise ein Politiker nicht zur Verantwortung gezogen werden kann.

    Wenn ich nun lese, dass die Kanzlerin bei Fragen der Wochenzeitung DIE ZEIT zum Thema Prism gesagt habe, sie habe vom US-Spionageprogramm "durch die aktuelle Berichterstattung Kenntnis genommen" und auf die Verantwortung des Kanzleramtsministers für Geheimdienste hinweist, erinnerte das doch unwillkürlich an das Konzept "Plausible Deniability" und irgendwie auch an Bill Clinton's "I did not have sexual relations with that woman". Hat sie möglicherweise nur den Namen Prism nicht gekannt?

    Wenn ich desweiteren lese, dass Bundesinnenminister Friedrich sich dahingehend äußert, dass das deutsche Rechtssystem nicht betroffen sei, wenn Datenströme über ausländische Server laufen und die Daten deutscher Bürger und Unternehmen außerhalb von deutschem Boden ausspioniert werden, dann sieht er offensichtlich nicht den Gesprächsbedarf mit ausländischen Regierungen zu eben diesem international zu behandelnden Thema, nicht den Diskussionsbedarf mit eigenen Bürgern und nicht die Notwendigkeit, Bürger-/Menschenrechte, Wirtschaft (Stichwort Industriespionage) und Demokratie zu schützen. Die öffentlich geäußerte Empörung der amtierenden Regierungspolitiker anlässlich der Offenlegungen von Edward Snowden beziehen sich meines Wissens nur auf die verwanzten Botschaften und EU-Gebäude, nicht auf die Ausspionierung der ganz normalen Menschen.

    Das ist nicht gut. Die zunehmende Digitalisierung schafft immer neue Möglichkeiten, uns zu überwachen. Es darf aber nicht sein, dass das angebliche "Neuland" zum rechtsfreien Raum für die Politik wird, die die Verantwortung abschiebt, weil Verbindungen und Server außerhalb von deutschem Boden liegen und fremde Geheimdienste die Drecksarbeit erledigen, während man selbst seine Hände in Unschuld wäscht. Unsere Regierung muss offenlegen, was sie wann wusste und billigend in Kauf nahm. Wir müssen sicher sein, dass nicht mit Hilfe von Digitalisierung, länderübergreifenden Netzen und "Plausible Deniability" mal eben Bürger- und Menschenrechte und die Demokratie ausgehebelt werden können.
    Anzeige


    Quellen und weiterführende Informationen

    Mittwoch, 10. Juli 2013

    XING: Mitgliederprofil wird erneuert

    Man darf gespannt sein: XING, das soziale Netzwerk für berufliche und private Kontakte mit über 13 Millionen Mitgliedern, kündigt eine Rundumerneuerung des Mitgliederprofils an.

    Anzeige


    Was mich an sozialen Netzwerken nervt, sind die Umstellungen. Schon wieder, denke ich, weil ich den Zeitaufwand sehe, den mich diese Umstellung kosten wird. Besonders lästig finde ich in diesem Zusammenhang Facebook und Google+. Gerade hat man alles schön neu gestaltet, neue Bilder hochgeladen, die Vorstellungstexte überarbeitet, die Privatsphäre-Einstellungen angepasst usw., kommt schon das nächste Update, Bilder und Spalten werden größer oder kleiner, Reiter und Darstellungsmöglichkeiten werden eingeführt oder abgeschafft, und schon muss man (als Profi mit mehreren Pages) wieder viele Stunden Arbeitszeit investieren.

    XING ist in der Hinsicht bisher weniger nervig gewesen und so sehe ich dem Update des Mitgliederprofils zum zehnjährigen Jubiläum mit Spannung entgegen. Manche hatten XING nach dem Erfolg der großen amerikanischen Netzwerke Facebook, Twitter und Google+ ja schon völlig abgeschrieben, obwohl die stetig steigenden Mitgliederzahlen das Gegenteil sagen. Andere finden XING langweilig, weil es doch eher um professionelle Vernetzung geht. Doch oft muss man sich bei der Kritik an die eigene Nase fassen, man hat vielleicht - so wie ich - irgendwann aufgehört, die dort gebotenen Möglichkeiten wie Foren und Veranstaltungen zu nutzen, weil einfach die Zeit nicht mehr für alle Netzwerke gereicht hat.

    Da mir XING (früher OpenBC für Open Business Community) in einer Phase beruflicher Neuorientierung eine wichtige "Entscheidungsfindungs-Hilfe" und "Vernetzungs-Übungsplattform" war und weil mich über XING schon einige sehr gute Werbekunden und Auftraggeber gefunden haben, möchte ich XING nicht missen. Und wer weiß, vielleicht animiert mich das Update, mich dort wieder stärker einzubringen. Nach den jüngsten Geheimdienst-Skandalen und Whistleblower-Offenlegungen - z. B. sollen lt. Edward Snowden die Großkonzerne Google, Apple, Microsoft und Facebook dem amerikanischen Nachrichtendienst NSA direkten Zugriff auf das Back-End gegeben haben - will ich XING sowieso eine neue Chance geben. Vielleicht ist ein deutsches Unternehmen bei der Ausspionierung der Nutzer weniger kooperativ - allerdings ist mein Enthusiasmus in dieser Hinsicht nicht mehr allzu groß.

    Das neu gestaltete XING-Mitgliederprofil soll wesentlich umfassendere und individuellere Möglichkeiten der professionellen Selbstdarstellung in frischem Design bieten, was besonders Freiberufler, Kreative, Studenten und viele andere Vernetzungswillige, Auftrag- und Jobsuchende freuen dürfte. Es soll u. a. auch die Möglichkeit bieten, Beiträge aus Foren und aus Twitter im Profil anzuzeigen. Auch die Jobsuche bzw. das Recruiting sollen vereinfacht werden, wobei genau konfiguriert werden können soll, wem das Interesse an einem Jobwechsel angezeigt wird und wem nicht.
    Die Umstellung der 13 Millionen Mitglieder soll schrittweise erfolgen und mit dem heutigen Tag beginnen. Wer es nicht erwarten kann, bis es bei ihm/ihr losgeht, kann sich vorab registrieren.

    Quellen und weiterführende Informationen 
    Anzeige

    Sonntag, 7. Juli 2013

    Das Ende des Internets

    Überwachung im Internet
    Die Überwachung durch die
    Geheimdienste hat das Vertrauen
    ins Internet zerstört.
    ... wie wir es kannten oder glaubten, zu kennen.

    Das Internet war für mich lange das Medium, das einen Beitrag zu einer besseren Welt leisten würde - weil es die Kommunikation der Menschen untereinander fördert und damit zu mehr Mitgefühl, Verständnis und gegenseitiger Hilfe führen würde. Manche träum(t)en noch viel weiter als ich - von einer besseren Demokratie und sogar von ganz neuen Menschen dank Internet. Tatsächlich sind einige unserer Träume wahr geworden - manche Initiativen im Bildungsbereich, wie die MOOCs, haben meine Erwartungen sogar übertroffen.

    Aber wie alles, hat auch das Medium Internet nicht nur gute Seiten, sondern auch "Abgase" - ungute Nebenwirkungen. Diese heißen z. B. Cyberkrieg, Cyberkriminalität, Reduzierung des menschlichen Nutzers auf ein gläsernes, manipulier- und ausbeutbares Marketingobjekt und einiges Schreckliche mehr.

    Anzeige


    Nun ist durch die Aufklärungsarbeit von Edward Snowden (hätte er einen Presseausweis, wäre er ein investigativer Journalist) noch eine weitere, besonders hässliche Seite ans Tageslicht geholt worden, von der wir Bürger nichts wussten oder zumindest nicht das Ausmaß kannten: Praktisch jegliche Kommunikation und jeder Datenstrom im Internet wird von Geheimdiensten wie NSA, GCHQ und anderen durchforstet und je nach Geheimdienst ganz oder teilweise gespeichert. Traurig auch in dem Zusammenhang die Offenlegung des Whistleblowser Snowden, dass die amerikanischen Megaunternehmen Google, Facebook, Apple und Microsoft der NSA direkten Zugriff aufs Back-End gegeben haben - ohne ihre Nutzer darüber zu informieren.

    Zusammenarbeit mit NSA und anderen ausländischen Geheimdiensten statt Diskussionen um Vorratsdatenspeicherung?

    Wenn unsere Regierung so ahnungslos war, wie sie jetzt tut, dann glänzt sie mit Inkompetenz. Dann müssen wir die Lachnummer Europas und der Welt sein: die dummen Deutschen mit ihrer Diskussion um Vorratsdatenspeicherung. Und wenn unsere Regierung davon gewusst und es geduldet hat bzw. diese ausländischen Geheimdienstaktivitäten sogar indirekt mitnutzt (und sich auf diesem Wege die lästige Diskussion mit den eigenen Bürgern über Vorratsdatenspeicherung u. Ä. erspart hat!?!), dann hat sie nicht nur aus den Protesten um ACTA nichts gelernt, sondern das Vertrauen der Bürger bewusst missbraucht.

    Welche Konsequenzen werden NSAgate und all die aktuellen Überwachungs- und Abhörskandale haben?

    Eine Regierung kann man in Deutschland abwählen oder zum Rücktritt zwingen und es liegt am Bürger, ob er das tut. Die nächste Wahl steht ja vor der Tür.

    Aber was ist mit dem Internet - kann man diesem Medium jemals wieder trauen? Denn, selbst wenn sich verbindliche Regeln zwischen Staaten vereinbaren lassen, wie will man Geheimdienste (oder Nachahmer) kontrollieren? Gibt es noch einen Weg weg vom total überwachten Internet?

    Im Moment stellen sich mir auch so pragmatische Fragen wie: Kann man noch E-Mails verwenden? Kann man noch über die Messenger-Funktionen sozialer Netzwerke kommunizieren?

    Nicht, wenn es wichtig ist! So lautet derzeit die Antwort für Journalisten, die ihre Quellen schützen müssen. Selbst wenn man verschlüsselt - empfohlen wird Pretty Good Privacy (PGP) - ist nicht sicher, dass diese Verschlüsselungen in ein paar Jahren auch noch sicher sind. Und man kann natürlich davon ausgehen, dass gerade verschlüsselte E-Mails aus dem Datenstrom gefiltert und gespeichert werden. Und wie sicher ist der Informant dann? Es gibt Informationen, deren Brisanz verblasst nie.

    Heute Mittag im Presseclub stellte in der anschließenden Diskussion ein Zuschauer die Frage, wie man als Whistleblower überhaupt noch Kontakt zu den Medien herstellen könne. Es wurde empfohlen, einen herkömmlichen Brief zu schreiben und darin ein persönliches Treffen zu verabreden!

    Und was machen Unternehmen, die von ihrem Wissensvorsprung leben - z. B. Maschinenbauunternehmen? Selbst wenn die Geheimdienste nicht automatisch Interessantes aus Wirtschaft und Unternehmen an deren jeweilige nationale Unternehmen weiterleiten, so besteht immer die Gefahr, dass korrupte Geheimdienstmitarbeiter Wissen teuer verkaufen. Wie einfach man sich bei CIA und NSA einschleusen und an geheime Daten kommen kann, zeigt das Beispiel Edward Snowden.

    Können also Unternehmen Wichtiges noch per E-Mail kommunizieren oder das Internet als Rechercheinstrument verwenden, wenn sie sicher sein wollen, dass sie nicht Opfer von Industriespionage werden? Nein, eigentlich nicht. Und was ist mit Cloud Computing? Das Vertrauen in die Cloud ist spätestens jetzt dahin.

    Das Internet ist zurück beim Militär. Oder war es niemals weg?

    Für mich ist das Internet, zu dem es sich in meiner Vorstellung hätte entwickeln können, nicht mehr realisierbar - wenn mich jemand vom Gegenteil überzeugen will: gerne. Auch "The Internet of Things" ist für mich inzwischen eine Horrorvorstellung, weil mich dann auch mein Kühlschrank, mein Staubsaug-Roboter und die Personenwaage ausspionieren und verpfeifen können.

    Das Internet, wie es sich jetzt darstellt, gefällt mir in weiten Teilen nicht. Bei allem, was ich privat in einer E-Mail an Meinung äußere, denke ich daran, dass mitgehört und gespeichert wird. Wenn das Laden einer Seite oder das Versenden einer Mail etwas länger dauert, denke ich: Aha, jetzt hat sich ein Abhörprogramm aktiviert und eingeklinkt, um den Datenstrom zu den Filtern der NSA, des GCHQ oder des französischen Geheimdienstes zu lenken. Ich fühle mich bei allem, was ich tue, beobachtet - als säße jemand auf meiner Schulter und schaut, was ich wieder schreibe - dabei hatte ich mich doch für Homeoffice statt Gemeinschaftsbüro entschieden.

    Ich mag Überwachung nicht - obwohl ich rein gar nichts zu verbergen habe, außer vielleicht meiner echten Haarfarbe.

    Und wie wird es weitergehen? Die Digitalisierung ist schon weit fortgeschritten, doch haben wir Internetenthusiasten doch schon viel weiter nach vorne ins digitale Zeitalter geschaut. Und das würde viele aufregende Neuerungen und Vorteile bringen - wie jetzt noch klarer sein dürfte: nicht nur uns, sondern auch unseren Überwachern. Das Netz der Netze wird sich um uns herum zusammenziehen.

    Aktuell wird vielleicht nur überwacht und gesammelt. Aber wie lange wird es dauern, bis das, was über Personen gesammelt wird, schon auf dem Weg von Dritten und Vierten manipuliert wird, oder aber später im Nachhinein verändert wird, um zu beweisen, was man gerade beweisen will.

    Das Internet ist für mich am Ende, denn ich sehe nicht, wie man aus dieser Vertrauenskrise wieder herauskommen könnte. Die Geschichte des Internets begann beim Militär - nun haben sie es sich gewissermaßen zurückgeholt.

    Vielleicht waren sie aber auch nie wirklich weg, und sie haben uns nur nicht beim Träumen gestört.

    Quellen und weitere Informationen
    Anzeige

    Donnerstag, 4. Juli 2013

    MOOCs - eine Erfolgsgeschichte

    Im November 2011 berichtete ich "live" vom ersten Massive Open Online Course (MOOC), an dem ich teilnahm. Mein Online-Kurs "Introduction to Databases" war eines der drei Pilotprojekte der Stanford University. Und ich schrieb: Die Stanford University hat eine Bildungsoffensive gestartet. Dabei hatten sich damals erst 70.000 Teilnehmer angemeldet, später wurden es im Parallelkurs "Artificial Intelligence" 160.000!

    Den Begriff MOOCs kannten die meisten von uns Teilnehmern damals nicht. In unserer Wahrnehmung waren das weltweit offene, kostenlose Online-Kurse einer Elite-Universität und die meisten von uns waren unheimlich dankbar, daran teilnehmen zu können. Sie boten eine spannende, neue Art des Lernens und die Möglichkeit, Dozenten und Lerninhalte einer weltweit bekannten Elite-Universität gleich neben Silicon Valley kennenzulernen. Für manche Teilnehmer aus abgelegenen Teilen der Welt war es die einzige Möglichkeit überhaupt, an hochwertige Bildung heranzukommen.

    Anzeige

    Mit dem Experiment hat die Stanford University eine Lawine ins Rollen gebracht: Aus den Pilotprojekten heraus wurden zwei Start-ups ins Leben gerufen: Coursera und Udacity, zwei kommerzielle MOOCs-Lernplattformen, die für ihren Start Geldgeber gefunden hatten und sich im Weiteren über Fachkräftevermittlung finanzieren wollen. Bei Coursera bieten inzwischen 70 Universitäten aus aller Welt und andere Bildungseinrichtungen MOOCs zu vielen verschiedenen Themen an. Bei Udacity konzentriert man sich derzeit auf Naturwissenschaften und IT-Themen.

    Eine weitere MOOCs-Plattform wurde von der Harvard University und dem dem Massachusetts Institute of Technology (MIT) ins Leben gerufen: edX. Dieser nicht-kommerziellen MOOCs-Plattform haben sich bisher 26 weitere Universitäten und Bildungseinrichtungen angeschlossen.

    Auch die Stanford University selbst bietet weiterhin ihre MOOCs über Coursera und andere MOOCs-Plattformen an. Außerdem arbeitet Stanford mit edX an der Entwicklung einer Open-Source-Online-Lernplattform zusammen.

    MOOCs-Plattformen gibt es inzwischen nicht nur in den USA, sondern auch in Australien (Open2study), Deutschland (z. B. Iversity, openHPI und OpenCourseWorld) und in anderen Ländern.

    Das Erfolgsgeheimnis der MOOCs

    Zeit- und ortsunabhängiges Lernen gab es schon vor den MOOCs - das nannte sich z. B. webbasiertes Lernen. Oft stinklangweilig. Und für das Online-Lernen aufbereitete Kurse amerikanischer Elite-Universitäten lagen auch schon vorher öffentlich zugänglich auf deren Servern im Internet - auch da schon kostenlos. Auch nicht sooo reizvoll. Ich glaube, das Erfolgsgeheimnis der MOOCs liegt einerseits in dem großen Engagement der Dozenten und ihrer Assistenten (Mitarbeiter oder Studenten höherer Semester), die Bildungsschranken niederreißen, erstklassige Inhalte und tolle Technik Bildungshungrigen weltweit bieten wollen. Aber es liegt auch daran, dass man als Gruppe zusammen Etappe für Etappe, Hausaufgabe für Hausaufgabe, Prüfung für Prüfung bewältigt. Weiß man nicht weiter, geht man ins MOOC-Forum. Dort unterstützt man sich gegenseitig, freut sich oder leidet zusammen, und auch die Dozenten und deren Assistenten geben dort Tipps, in welche Richtung man denken sollte, um eine bestimmte Aufgabe zu lösen.

    Zwar ist beim MOOC grundsätzlich alles freiwillig und völlig flexibel, niemand ist gezwungen Hausaufgaben zu machen oder den ganzen Kurs zu absolvieren - tatsächlich wollen manche Teilnehmer nur ein bestimmtes Thema auffrischen oder etwas Spezielles dazulernen. Aber am meisten Spaß machen MOOCs, wenn man sich richtig auf sie einlässt. Die Vorlesungen schaut zwar jeder für sich alleine an und auch die Hausaufgaben macht man erst einmal alleine, aber zum Austauschen, Jammern und Feiern geht man ins Forum - so fühlt sich niemand isoliert, sondern als Teil einer großen Gemeinschaft.

    MOOCs sind sowohl für Leute geeignet, die gerne in der Masse untergehen, als auch für solche, die sich vernetzen und mit anderen in engem Kontakt sein möchten. Und wer sich profilieren möchte, der kann das durch Können und besondere Hilfsbereitschaft in den Foren. Es liegt an jedem selbst, was man aus dem MOOC macht. Für die Anmeldung reichen schon Internetzugang und E-Mail-Adresse.

    Das Erfolgsgeheimnis der MOOCs ist aber letztendlich die Dankbarkeit der Teilnehmer, die das Wort in die Welt tragen. Und die ist oft grenzenlos - wie der Zugang zu den oft exzellenten Kurse.

    Pilotprojekt: Online-Master über eine MOOCs-Plattform

    Bisher dauerten die MOOCs maximal ein Semester lang und sie waren kostenlos. 2014 startet das Georgia Institute of Technology in Zusammenarbeit mit Udacity und AT&T einen zweijährigen Online-Master-Studiengang, den Online Master of Science in Computer Science (OMS CS). Mit einem Preis von unter 7.000 US-Dollar kostet er nur einen Bruchteil dessen, was die On-Campus-Version des Kurses kostet (ca. 40.000 US-Dollar).

    Weiterführende Informationen zu MOOCs:

    Anzeige


    Sonntag, 23. Dezember 2012

    Offline- oder Online-Shopping?

    Gedanken zur "Pappkartonzeit" - früher bekannt als Weihnachten

    Während sich die Online-Händler über Rekordumsätze freuen, gehen für manchen stationären Laden die Lichter aus. Das veränderte Kaufverhalten der Konsumenten wird Auswirkungen auf Städte, Leben und Kultur haben. 

    Im Dezember ist Hochkonjunktur bei den Pickern, Packern und Paketfahrern - den geschundenen Arbeitssklaven der schönen neuen E-Commerce-Welt. Dann bringen sie uns, was wir über Kataloge, Tele-Shopping und das Internet bestellt haben, um die Augen unserer Lieben zum Glänzen zu bringen. Die Läden in den Innenstädten dagegen bleiben zunehmend leer. Oh du fröhliche Pappkartonzeit: Zu Weihnachten treffen wir uns nicht mehr in den geschmückten Innenstädten zu Glühwein und Plätzchen, sondern auf den Wertstoffhöfen zum Pappkartonabgeben - damit wir unter diesen nicht in unseren Wohnungen ersticken.

    Tote Innenstädte als Folge des zunehmenden Online-Handels?

    Als ich vor Jahren damit begann, online einzukaufen, dachte ich nicht daran, dass das, was ich nicht nutze - die vielfältigen Einkaufsmöglichkeiten der Innenstädte -, verschwinden könnte. Tat es ja auch nicht, solange wir Online-Käufer nur relativ wenige waren. Wenn uns danach war, dann konnten wir jederzeit in die Innenstädte gehen - die Einkaufsstraßen und ihre Geschäfte waren noch da, genauso wie die Cafés, Kinos und die Museen. Aber dass das noch lange so bleibt, muss man inzwischen bezweifeln.

    Der Einkauf über das Internet nimmt rasant zu - der Umsatz steigerte sich von 1,3 Milliarden Euro 1999 auf 31 Milliarden Euro 2012. Die Tablet-PCs und Smartphones, die zu diesem Weihnachtsfest verschenkt werden, dürften diese Entwicklung vermutlich noch beschleunigen.

    Der Buch- und Musikhandel ist aus den Innenstädten schon fast verschwunden, derzeit tobt ein Kampf um Marktanteile in den Sparten Schuhe und Textilien, den viele stationäre Läden verlieren werden. Die anderen Sparten des Einzelhandels werden wohl nach und nach folgen - die stationären Läden sind zunehmend nicht mehr konkurrenzfähig, denn der Wettbewerb geht zu einem großen Teil über den Preis und die Preise in den Läden der Innenstadt müssen - bedingt u. a. durch die immer höheren Mietpreise an diesen Standorten - anders kalkuliert werden. Dazu kommt, dass die Innenstadtläden nicht nur mit dem Versandhandel (Katalog-, Tele-Shopping- und Online-Handel) konkurrieren müssen, sondern auch mit den Einkaufszentren in den Randzonen der Städte.

    Die Geschäfte kämpfen ums Überlegen, die Angestellten um ihre Jobs. Wenn sie verlieren, werden als Folge vermutlich auch der Großteil der Restaurants, Cafés, Kinos und Museen aus den Stadtzentren verschwinden. Die Straßenkünstler werden dann nach Mallorca oder Phuket auswandern müssen oder sonst irgendwohin fahren, wo noch Menschen in einer größeren Anzahl draußen flanieren und sie eine Chance auf Zuschauer und damit Einnahmen haben.

    Kundenverhalten ist auch "Kommunikation"

    Was Verbraucher tun, ist auch "Kommunikation" in dem Sinne, wie der Begriff im Marketing gebraucht wird. Wenn ich nicht mehr zum Einkaufen in die Läden meiner Stadt oder der nächsten Großstadt gehe, dann signalisiere ich - C2B (Consumer to Business) sozusagen - "Ich brauche euch nicht mehr." Natürlich denkt oder sagt das jeder mal, wenn er oder sie sich gerade über eine schnippische Bedienung geärgert hat. Aber will man deshalb auf die Innenstadt-Shopping- und Kulturinfrastruktur verzichten?

    Bevor die Innenstädte wirklich sterben, sollten wir als Konsumenten uns dieses Prozesses bewusst werden und uns fragen, ob wir diese Veränderungen, die wir durch unser Verhalten in Gang setzen, wirklich dauerhaft wollen - denn "wenn weg, dann weg".

    Innovation um jeden Preis?

    Innovation ist (meistens) gut - sie eröffnet neue Möglichkeiten, hat aber auch etwas Destruktives - d. h.: Etwas, was vorher da war, wird von etwas Neuem verdrängt. Der Ökonom behauptet lapidar, der stationäre Handel sei nicht mehr zeitgemäß. Aber stimmt das? Ist er uns nicht mehr wichtig oder sind wir nur vorübergehend neugierig auf die neue Mode "Online-Shopping"?

    Nicht alles, was verschwindet, ist es wert, dass man es betrauert: Wer vermisst schon Musikkassetten, die sich dauernd zu Bandsalat verhedderten, oder Minipli-Dauerwellen bei Männern, wie es in den 1980er Jahren modern war. Die Frage ist, ob wir für die Innovation "Online-Einkauf" (E-Commerce) unsere lebendigen Innenstädte als Preis aufgeben wollen. Die fehlenden Gewerbesteuereinnahmen aus dem stationären Handel werden die Haushalte der Städte und Gemeinden belasten - d. h., es wird weniger Geld für Kultur-, Architektur- und Infrastruktur-Projekte da sein. Ist es das wert? Oder wie könnte man das kompensieren?

    Wenn Online-Kauf zum ethischen Armutszeugnis wird

    Es ist eine Sache, wenn man gerne online einkauft, weil es bequem ist und man im Internet eine sehr große Auswahl hat. Viele kaufen auch deshalb online, weil sie hoffen, damit Zeit zu sparen - doch in Wahrheit verbrät man beim Online-Einkauf viel Zeit mit Recherche, auf Postämtern und in Paketshops sowie auf den Wertstoffhöfen, wenn man die enormen Mengen an Verpackungen entsorgen muss.

    Unethisch wird es jedoch meiner Meinung nach, wenn man sich im Laden ausführlich beraten lässt, dann das empfohlene Produkt aber über einen Online-Händler billiger kauft - dafür gibt es bereits passende Apps. So "kommuniziert" man zwar nicht "Ich brauche euch nicht mehr", aber demonstriert dafür seine fehlende Solidarität (und seine soziale Inkompetenz).

    Sollte sich der Trend ausweiten, werden wegen fehlender Einnahmen noch mehr Verkäufer entlassen als ohnehin schon, die restlichen werden mehr und mehr durch billige Auffüllkräfte ersetzt - dann kann man erst richtig über die Inkompetenz von Verkäufern und die Servicewüste im deutschen Einzelhandel meckern. Die Ausbildungsplätze fallen dann auch weg, bis es irgendwann den Gnadenstoß gibt: Insolvenz. Dann kann der Billig-um-jeden-Preis-Konsument seine App wieder löschen.

    Sind die Stadtzentren noch zu retten?

    Handel und Märkte sind in fast jeder Gesellschaft ein zentrales Element. Sicher - eine Gesellschaft und Kultur sollte sich nicht nur über den Konsum definieren. Und es gibt anderes, das Städte lebendig macht - beispielsweise sind die neuen, manchmal von Kommunen geförderten Urban-Gardening-Projekte neue Orte der Begegnung und Kommunikation - doch wird dieser Trend meiner Ansicht nach nicht die Stadtzentren ersetzen können (und auch nicht die Taschen der Städte und Gemeinden füllen).

    Wenn die Gewerbesteuereinnahmen des stationären Einzelhandels in den Haushalten der Städte wegbrechen, dann wird das Geld für Restaurierungen fehlen und vermutlich auch viel an gewohnter Innenstadtkultur wegfallen oder teurer werden.

    Ich kann am Horizont bis jetzt kein Rettungsschiff erkennen.

    Online-Giganten schieben ihre Gewinne am deutschen Fiskus vorbei

    Wenn Konsumenten statt in stationären Geschäften vor Ort wenigstens in deutschen Online-Shops einkaufen, haben immerhin deren "Standortgemeinden" was von der eingenommenen Gewerbesteuer. Denn, was ist mit der Steuerpflicht internationaler Großkonzerne wie dem Online-Händler Amazon? Laut taz organisiert Amazon zwar den Versand über Deutschlanddependancen, da die Zahlungen jedoch über die europäische Zentrale in der "Steueroase Luxemburg" abgewickelt werden, dürfte das Geld zum Großteil am deutschen Fiskus vorbeigeleitet werden - letztendlich zu unserer aller Nachteil. Laut Focus handelt es sich im Falle von Deutschland um zweistellige Milliardenbeträge, die dem Fiskus durch Gewinnverlagerungen jährlich verloren gehen - durch amerikanische Unternehmen, die gleichzeitig EU-Subventionen erhalten - mal ehrlich: Die müssen sich doch über uns totlachen! Inzwischen werden einige EU-Länder aktiv, um diesen "Steuertricks" ein Ende zu bereiten. Man wird sehen, ob sie sich durchsetzen können.

    Innovationen schaffen neue Berufe?

    Sicher - im Laufe der Geschichte verschwanden immer wieder Berufe - dafür entstanden neue. Mit dem Internet und dank E-Commerce stieg der Bedarf an Programmieren, Designern, Administratoren, Online-Marketing-Spezialisten etc. Durch seine innovative Kraft, einer perfekten Logistik und mit seinem Image der Zuverlässigkeit hat Amazon entscheidend zum Erfolg und Wachstum des Online-Handels beigetragen - der ja als solcher nichts Schlechtes ist, aber wie alles eben auch Nebenwirkungen bzw. seinen Preis hat. Doch, was wird aus denen, die jetzt Verkäufer sind? Müssen die alle in Zukunft als Picker und Packer bei den Online-Händlern arbeiten oder Paketfahrer bei Logistikunternehmen werden? In beiden Fällen dürften sie beruflich und finanziell demnächst noch weniger zum Lachen haben als jetzt schon, denn diese neuen Jobs gehören zu den prekären Erwerbsverhältnissen: unsicher, sehr schlecht bezahlt, machtlos als Arbeitnehmer und mit wenig Schutz durch Sozial- und Arbeitsrecht. Man kann nur hoffen, dass die Politik endlich gegen die Ausbeutung dieser Menschen vorgeht.

    Offline- oder Online-Shopping?

    Ich würde unsere lebendigen Stadtzentren vermissen - sowohl die großen Konsumtempel als auch die kleinen Boutiquen und Galerien, die Kinos und die kleinen Museen, die Maroni-Verkäufer und die Straßenmusiker. Sie sind doch Teil unserer Kultur. Dabei ist es mir nicht wichtig, ob ich mir jeden Luxus dort leisten kann oder will - ich kann gut damit leben, dass ich es nicht kann. Aber es ist schön, dass sie da sind, dass mich manches dort zum Träumen, anderes zum Kaufen und Schenken anregt.

    Ich möchte ehrlich gesagt, beides: Online-Handel, wenn es mal schnell gehen muss und ich weiß, was ich will, und den stationären Handel in bunten lebendigen Innenstädten mit Weihnachtsdekoration oder was sonst gerade zur Jahreszeit passt und Verkäufer/Verkäuferinnen, mit denen man mal lachen, aber auch mal streiten kann.

    Ich weiß nicht, ob wir beides haben können. Ich werde jedenfalls meinen Beitrag für die Innenstädte leisten, indem ich wieder viel öfter in die Stadt zum ganz altmodischen Einkaufen gehen werde - Retro sozusagen.

    Quellen:

    Sonntag, 11. November 2012

    Neues von der SEO-Front: WDF*P*IDF und Relevanz

    "Content is King" lässt der Quasi-Suchmaschinenmonopolist Google immer wieder verkünden. Aber das wussten wir Autoren, Journalisten und Blogger auch vorher bzw. wir schreiben, weil wir was zu sagen haben. Allerdings: Seit wir für das Internet schreiben, wissen wir auch, dass Schlüsselwörter (Keywords) richtig gewählt und eingearbeitet werden müssen, dass Verlinkung eine Rolle spielt und Ähnliches mehr, damit die Suchmaschine mit ihrem beschränkten Algorithmus unseren schönen Online-Artikel nicht auf Platz 5.345.789 ihrer Ergebnisliste aufführt - quasi unsichtbar für alle, die über Suchmaschinen nach Inhalten suchen (siehe auch: Blogs bekannt machen). Nun gibt es neben Keyword-Optimierung und Backlink-Aufbau wieder neue Buzzwords in der Suchmaschinenoptimierungs- (SEO) Welt - und die heißen WDF*P*IDF (Gewichtungsformel) und Relevanz. 

    Ich schreibe und veröffentliche auf meinen Webseiten und in meinen Blogs über Themen, die mir am Herzen liegen und/oder zu denen ich selbst jahrelang Erfahrungen gesammelt habe. Ähnlich der philosophischen Frage um den Baum, der im Wald umfällt, ohne dass es jemand hört: Bin ich ein Autor/Journalist dadurch, dass ich schreibe? Oder werde ich erst dazu, wenn jemand meine Artikel oder Bücher liest?

    Ich jedenfalls möchte, dass die Ergebnisse meiner Schreibarbeit, die ich liebe, die aber oft auch mühselig ist, gelesen werden. Deshalb befasse ich mich mit Suchmaschinenoptimierung (SEO). Um von meiner Online-Schreiberei (vielleicht irgendwann) einmal leben zu können, platziere ich zudem Werbung auf meine Webseiten.

    Es gibt aber auch eine andere Herangehensweise: Menschen, die nicht selbst das Bedürfnis zu schreiben haben (außer über SEO), aber Geld im Internet verdienen möchten, prüfen mit verschiedenen Tools (beispielsweise mit dem Google Keyword Tool), mit welchen Themen man prinzipiell hohe Werbeeinnahmen via Google Adsense o. a. erzielen kann. Dann lassen sie zu dem Thema bzw. zu einem bestimmten Keyword oder einer Keyword-Kombinationen möglichst preisgünstig und suchmaschinenoptimiert einen Text schreiben und veröffentlichen diesen auf einer Webseite. Sie platzieren Werbung auf der Seite, sorgen für Verlinkung und ergreifen weitere SEO-Maßnahmen, damit sie mit dem eingekauften Text Geld verdienen können.

    Man mag von dieser Vorgehensweise halten, was man will - es gibt nicht nur Schwarz und Weiß -, man kann von diesen SEO- und Online-Marketing-Profis einiges lernen. Ich habe damit zuerst aus Verzweiflung begonnen, als ich feststellte, dass ich durch deren Webangebote zunehmend von meinen guten Positionen im Internet verdrängt wurde, die ich hatte, weil meine Seiten schon sehr alt aus Zeiten ohne Konkurrenz waren (und zugegebenermaßen auch eine Überarbeitung nötig hatten). Inzwischen befasse ich mich unregelmäßig mit dem Thema SEO, auch wenn ich SEO nur in Maßen anwende, weil ich mich nicht von einer Suchmaschine und ihren Algorithmus-Updates (Panda, Penguin und wie sie alle heißen) gängeln lassen möchte.

    Relevanz - was ist das?

    Die Relevanz eines Textes ist der Mehrwert, den er einem Leser zu einem bestimmten Suchwort bietet. Das hört sich zunächst gut und leserfreundlich an. Doch die Relevanz von Texten im Internet wird von einem Suchmaschinenalgorithmus berechnet, der simple Eckdaten miteinander verrechnet, die Ergebnisse miteinander vergleicht und dementsprechend die Suchergebnisse sortiert. Hier hat sich insofern etwas getan, dass es nicht mehr nur auf das Haupt-Keyword ankommt, sondern auch auf verwandte ("relevante") Keywords im gleichen Artikel.

    Aus SEO-Sicht heißt das: Statt wie bisher ein Keyword zu bestimmen und dieses in einer bestimmten "Keyword-Dichte" im Text und außerdem im Seitentitel, in Meta-Descriptions, Überschriften, Bildunterschriften, Bild-Title-Tags etc. unterzubringen, müssen nun zusätzlich Relevanzwerte berechnet werden. Die Relevanzwerte des eigenen Artikels müssen besser oder in einem besseren Verhältnis zueinander sein, als die in Artikeln von den Mitbewerbern, sonst reicht es nicht in die Sichtbarkeitszone der Suchmachinenergebnisse. Ein Aspekt der neu entdeckten Relevanz ist, dass nicht nur das Haupt-Keyword ausreichend oft im Text vorkommen muss (wie oft "oft genug" oder "zu viel" ist, weiß man nicht wirklich), sondern auch andere Keywords, die einen Bezug zu diesem Keyword haben - allerdings dürfen sie dem Haupt-Keyword auch nicht zu viel Konkurrenz machen, wie man weiter unten sieht.

    Statt Keyword-Dichte lieber Gewichtungsformel?

    Mit einem Keyword und der Keyword-Dichte kommt man nach Aussagen einiger SEO-Profis, so z. B. Karl Kratz (Links siehe unten) heutzutage nicht mehr weit. Mehr Aussagekraft habe die Gewichtungsformel oder WDF*P*IDF.

    Die Gewichtungsformel WDF*P*IDF ist das Produkt von
    WDF, IDF und einem Korrekturfaktor P

    WDF und IDF sind Begriffe aus der Textstatistik:
    • WDF steht für Within-document Frequency (Dokumentspezifische Gewichtung).
      Die WDF beschreibt die Häufigkeit eines Wortes i im Verhältnis zur Gesamtzahl aller Worte L in einem Dokument j - bzw. in unserem Fall: die Häufigkeit eines Keywords bzw. einer Keyword-Kombination im Verhältnis zu allen Keywords/Keyword-Kombinationen im Text. Je öfter ein Keyword bzw. eine Keyword-Kombination in einem Text vorkommt, desto größer ist der WDF-Wert. Das ist im Prinzip nichts Neues. Im Gegensatz zur Keyword-Dichte wird der WDF mit Logarithmen berechnet. Mehr Details z. B. bei Wikipedia. 
    • IDF steht für Inverse Document Frequency (Inverse Dokumenthäufigkeit).
      Der IDF setzt die gesamte Anzahl ND von Dokumenten einer Datenbank zur Anzahl f der Dokumente, die ein bestimmtes Keyword/Keyword-Kombination t enthalten. Je größer der IDF, desto weniger Dokumente gibt es in der Datenbank, die das Keyword/Keyword-Kombination enthalten. 
    Das Produkt WDF*IDF für ein Keyword ist also rein rechnerisch am besten, wenn das Keyword-/Keyword-Kombination oft im Text vorkommt, es aber gleichzeitig noch wenig andere Dokumente mit diesem Keyword/Keyword-Kombination gibt.

    P ist nur ein Gewichtungswert (Korrekturfaktor).

    Kratz hat festgestellt, dass es eine Relation zwischen WDF*IDF und der Position in den Suchmaschinenergebnissen (Search Engine Results Position, SERP) gibt. Je höher WDF*IDF, desto besser i. d. R. die Position in den SERPs. Das ist jetzt eigentlich nicht überraschend oder neu, sondern wird nun eben mathematisch ausgedrückt. Kratz hat außerdem bemerkt, dass viele zu einem Keyword gut positionierte Seiten eines gemeinsam haben: dass der WDF*IDF für dieses Keyword deutlich höher ist, als für andere Keywords/Keyword-Kombinationen in dem Text. Eindeutigkeit ist also Trumpf.

    Grundlegend neu sind diese Erkenntnisse nicht, man kann jetzt nur alles genauer berechnen. Man sollte bei aller Rechnerei nicht vergessen, dass man ein Keyword auch zu oft einsetzen kann und der Text dann möglicherweise von Google als Spam gewertet wird. Und wie Kratz auch sagt, gibt es ja auch noch andere Faktoren, die die Position in den Suchergebnissen beeinflussen können.

    Beim Wettbewerber abgucken

    Die neue Onpage-Optimierung mit dem Ziel der Verbesserung der Relevanz führt vor allem über die Mitbewerberbeobachtung - wie das geht, führen Karl Kratz und Philipp Helminger vor (Links unten). Sie analysieren die Mitbewerber-Webseiten und berechnen die WDF*IDF-Werte für die wichtigsten Keywords/Keyword-Kombinationen für die Seiten, an denen sie vorbeiziehen oder zumindest mithalten wollen. Aus den Ergebnissen der Mitbewerberbeobachtung erstellt beispielsweise Kratz die Vorgaben für seine Internettexte. Dann noch die restlichen SEO-Maßnahmen umgesetzt und fertig ist Platz 1 in den SERPs. Schön wäre es - oder auch nicht. Also wird noch weiter gefeilt: Keyword-Abstand, Keyword-Verteilung, partielle Keyword-Häufung, gezielter Einsatz artverwandter Keywords ... Ich frage mich, wo da bei all den Vorgaben noch Raum und Zeit für Inhalte und Sprachliches bleibt.

    Noch interessant zu wissen: Helminger hat in seinen Untersuchungen festgestellt, dass bei manchen Keywords bzw. Keyword-Kombinationen die vorderen Plätze inzwischen mit sehr langen Texten belegt sind. Bei seinem Beispiel "HochgeschwindigkeitsSEO" liegen auf den ersten fünf Plätzen Texte mit 3.000 bis 8.000 Wörtern! Seine Empfehlung außerdem: Die Häufigkeitsverteilung relevanter Keywords sollte man an die der Top-Positionen für sein Haupt-Keyword anpassen.

    Den Google-Algorithmus füttern - will man das?

    Als Autorin, Journalistin und Bloggerin, die ich schon lange auch für das Internet schreibe, gefällt mir diese Entwicklung nicht und ich hoffe, dass sie nur vorübergehend ist. Es kann doch nicht sein, dass das gesamte "Schreibhandwerk" immer mehr, statt endlich weniger dem Algorithmus einer Suchmaschine untergeordnet werden muss, wenn man sichtbar bleiben möchte. Was ist mit der Verwendung von Synonymen, sprachlichen Bildern, etc.? So wichtig eine simplifizierte Sprache in der Technikdokumentation ist, wenn sie zur Alltagssprache wird, dann führt das zu einer Verarmung - nicht nur der Sprache, sondern auch des Denkens.

    Ich möchte doch Wissen weitergeben, Diskussionen anregen, unterhalten, mich auf Recherche und das Schreiben konzentrieren, kreativ sein und mich, wenn überhaupt, dann nur am Rande mit SEO beschäftigen müssen.
    Zum Glück gibt es noch einige gute Medien, für die es Spaß macht, zu schreiben, und die es aufgrund ihres Markennamens oder eben weil sie Printmedien sind, nicht nötig haben, mit Algorithmen-Fütterei zu buhlen und dafür Sprachvielfalt und -kreativität zu opfern. Doch für uns kleine Blogger und Webseiten-Publisher sind das gerade sehr schwere Zeiten - und sich als SEO-Texter ausbeuten zu lassen, kann auch nicht die Alternative sein. Dann doch lieber sich weiter selbst ausbeuten und Spaß haben.

    Ansonsten bin ich der Meinung: Suchmaschinen müssen besser werden und Google braucht stärkere Konkurrenz, damit da mal was vorwärts geht.

    Quellen und weiterführende Informationen

    Sonntag, 3. Juni 2012

    Monopolstellung + Richtlinien = Macht

    Monopolstellungen und Richtlinien von Mega-Unternehmen sollten unter die Lupe genommen werden, denn Quasi-Monopolisten wie Google (mit einem Marktanteil von 96 %) können ihre Richtlinien wie Gesetze durchdrücken und behindern damit den freien Wettbewerb.

    Google's Monopolstellung verleiht zu viel MachtUm es gleich vorwegzunehmen:
    Ich führe keinen Feldzug gegen Google. Google ist eine tolle Firma, die sich durch innovative Ideen, geschicktes Vorgehen und gute Produkte einen Platz als Marktführer in der Suche erobert hat. Die, die schneller auf Veränderungen in der Welt reagieren müssten, sind Politiker, Gesetzgeber, Kartellwächter und ähnliche. Sie müssen die gesetzlichen Rahmenbedingungen setzen, damit nicht am Ende die Welt den Megaunternehmen gehört und diese ihre eigenen Richtlinien zu Gesetzen machen können. Ach, ich vergass: Das ist doch, was bereits passiert!

    Anzeige


    Die meisten Internetnutzer wollen Geld sparen und Informationen ohne monetäre Bezahlung nutzen und es ist ja auch toll, dass das Internet Informations- und Kommunikationsmöglichkeiten unabhängig vom Einkommen bietet. Aber irgendwie müssen auch Publisher ("Veröffentlicher im Internet" - also Betreiber von Informations-, Schulungs-, und Themen-Webseiten/-Blogs) überleben. Also finanzieren sie ihre Webseiten und Blogs über Werbung auf ihren Seiten - oder zumindest versuchen sie es. Dazu setzen sie Werbung ihrer Werbepartner auf die Webseite. Dies sind überwiegend keine herkömmlichen Werbebanner oder Werbetexte mit einem Link zum Angebot des Werbenden, wie man dies direkt mit einem Werbekunden vereinbaren könnte, sondern der Publisher platziert einen Code in den Quellcode seines Blogs oder seiner Homepage, den er von den Werbepartnerprogrammen (Google Adsense, Amazon Partnerprogramm, Affiliate-Plattformen etc.) erhält.

    Doch dieser Code ist eben nicht nur ein einfacher Link, sondern ermöglicht es diesen Unternehmen, die Seiten des Publishers und seine Besucher zu tracken - also Daten zu sammeln, Profile zu erstellen und so z. B. personalisierte Werbung (z. B. über Google Adwords) seinen werbetreibenden Kunden anzubieten und (z. B. über Google Adsense) einzublenden. Wer einmal sehen möchte, wer alles mitliest, wenn er/sie eine Webseite besucht, sollte Ghostery (alle Quellen unten) ausprobieren. Denn da sind ja auch noch Twitter, Facebook, Google+ und Co., deren Knöpfe über ähnliche Codes in Webseiten und Blogs eingebaut werden und die genauso tracken.

    Die Richtlinien von Google verbieten das Setzen von Links aus bezahlter Werbung auf die Webseite des Werbenden, wenn diese Links nicht im Code mit "nofollow" gekennzeichnet werden - doch das möchten die direkten Werbekunden nicht: Sie wollen den Werbeeffekt plus die Backlinkwirkung von einer guten Seite, dafür sind sie bereit zu zahlen. Google aber droht Publishern und Werbern bei Zuwiderhandlung gegen ihre Richtlinien mit Abstrafung und Unsichtbarkeit in der Google Suche (also im äußersten Fall mit Existenzvernichtung, denn wer in der Google-Suche fehlt, ist praktisch nicht existent). Und nun ruft Google auch noch zur gegenseitigen Denunziation auf.

    Als Grund für diese Paid-Links-Richtlinie von Google wird die Verhinderung von Spamming angegeben (in diesem Zusammenhang meint Spamming das Nachvornedrücken von Webseiten in den Trefferlisten der Suchmaschine durch viele gekaufte Links oder Links von eigens dazu generierten Linkschleudern). Ehrlich gesagt, glaube ich diesen Grund nicht mehr, denn Google sollte längst in der Lage sein, schlechte Links von unbrauchbaren Seiten ("Linkfarmen") herauszufiltern und diese entsprechend nicht als "Linkjuice" zu werten (das lernt man doch schon im Internet bei Udacity und Coursera).

    Ich habe den Verdacht, Google will seine Monopolstellung ausnutzen, um selbst das Eingangstor zu Werbevereinbarungen zu bleiben/werden und Publisher zur Nutzung von Google Adsense zu manipulieren - denn wenn Publisher mit Google Adsense zusammenarbeiten, anstatt direkt mit Werbekunden Vereinbarungen zu treffen, macht Google dabei seinen Schnitt.

    Dabei würde ein verantwortungsvoller Publisher doch nur Werbekunden akzeptieren, die er selbst gut und zu seinen Inhalten passend findet (was den Dofollow-Link rechtfertigt), während er bei Google Adsense weniger bzw. nur komplizierte oder nachträgliche Kontrollmöglichkeiten hat und sich oft genug über die eingeblendete Werbung die Haare rauft. Und natürlich würde ein verantwortungsbewusster Publisher Werbung aus Verbraucherschutz- und Transparenzgründen als solche kennzeichnen - wie es in Deutschland ja auch gesetzlich vorgeschrieben ist.

    Durch den Druck jedoch, den Google durch seine Monopolstellung und seine Richtlinien auf Publisher ausübt, treibt das Unternehmen vermutlich etliche Publisher dazu, Werbetexte mit Do-Followlinks nicht als solche zu deklarieren - zum Nachteil des Verbrauchers, der einen Anspruch auf Transparenz hat.

    Witzigerweise fand t3n Anfang des Jahres Hinweise, dass Google selbst seine Richtlinien bei Werbung für seinen Chrome Browser missachtete und Werbelinks nicht als Nofollow-Links ausgewiesen wurden. Doch ich finde das eigentlich irrelevant, denn meiner Meinung nach gehört diese Richtlinie grundsätzlich verboten.

    Google's Quasimonopolstellung und seine Richtlinien sollten endlich rechtlich unter die Lupe genommen werden und Gegenmaßnahmen ergriffen werden. Denn solche Richtlinien und Strafandrohungen eines Unternehmens mit einer dominanten Marktstellung behindern den freien Wettbewerb und schwächen Publisher.

    Anzeige


    Quellen und weiterführende Informationen


    Freitag, 25. Mai 2012

    Google's quasi-totalitäre Herrschaft

    Matt Cutts ("I am the head of the webspam team at Google") fordert dazu auf, Webspam von Mitbewerbern zu melden. Da frage ich mich schon: Ist das ein Aufruf eines (welt-)marktbeherrschenden Megakonzerns an seine "Bürger" zur Denunziation anderer "Bürger"? Und an was erinnert mich das? Jedenfalls nicht an Demokratie!

    Google hat eine Vormachtstellung im Suchmarkt: Laut W&V hat die Google-Suchmaschine in Deutschland einen Marktanteil von 96 %. Die Google-Suche bestimmt im Grunde, wer sichtbar ist im Internet - zumindest für die Internetnutzer, die mit einer Suchmaschine recherchieren.

    Was in den Suchergebnissen gezeigt wird, hängt vom Google-eigenen Suchalgorithmus ab, den Google ständig zu verbessern sucht - angeblich nur im Sinne des Nutzers, aber die seit neuestem beobachtete Bevorzugung großer Marken könnte auch andere Interessen vermuten lassen. Jedenfalls: Auch nach gefühlten 1.000 Panda- und seit neuestem auch Penguin-Updates des Google-Algorithmus ist Google mit den Suchergebnissen auf den vorderen Plätzen nicht zufrieden. Und als Publisher und Nutzer muss ich sagen: Ja, ich auch nicht - es sind bei manchen Suchbegriffen immer noch Seiten mit kaum brauchbarem Content auf den vorderen Plätzen.

    Google unterstellt nun, dass daran unlautere Suchmaschinen-Optimierungs-Methoden ("Black Hat SEO") Schuld seien, mit denen der Google-Algorithmus ausgetrickst würde. Matt Cutts, der Kopf der Google-Spam-Brigade, ruft jetzt dazu auf, Mitbewerber, die unlautere Webspam-Techniken nutzen, an Google zu melden und öffnet damit meiner Meinung nach Denunziantentum Tür und Tor. Denn was unter unlauteren Webspam-Techniken zu verstehen ist, definiert natürlich Google selbst und nicht etwa Verbraucherschutzgesetze irgendeines Landes.

    Google - die ungeteilte Macht

    In unserer Demokratie gibt es aus guten Gründen eine Gewaltenteilung, die die Staatsgewalt auf verschiedene Staatsorgane - Gesetzgebung (Legislative), Vollziehung (Exekutive) und Rechtsprechung (Judikative) - verteilt, um die Macht zu begrenzen (von der vierten Gewalt, der Presse, ganz zu schweigen). Doch im Internet liegt die Macht ganz allein beim Quasi-Monopolisten. Was den Suchmarkt anbetrifft, ist das Google (zu dem übrigens auch YouTube gehört), was Social Media anbetrifft, vor allem Facebook - wobei Google ja über sein Suchmaschinen-Monopol und durch die Verknüpfung der Suche mit anderen Google-Diensten Publisher faktisch zu Google+ zwingt. In ihren Bereichen herrschen die Internetgiganten quasi totalitär - sie machen die Gesetze, verfolgen (bzw. lassen denunzieren) und bestrafen. Bei Zuwiderhandlung bzw. einer Denunziation ist die Existenz, sofern sie auf der Sichtbarkeit im Internet basierte, dahin.

    Ach ja - kleine persönliche Anmerkung: Und da wundert sich Google, dass ich als tinto-Publisher nicht ausschließlich Google Adsense Werbung auf meine werbefinanzierten Webseiten und Blogs platziere und nicht noch weitere Google-Tools nutze (solche die offenlegen, wo ich wie viel verdiene), und mich noch abhängiger von Google bzw. mich vollkommen transparent mache? (Dass sie sich wundern, schließe ich aus den E-Mails, die ich immer wieder bekomme: Dass ich mein Adsense-Potenzial nicht ausschöpfe und dass ich doch dieses tolle neue Vergleichstool nutzen könnte - hab vergessen, wie es heißt).

    Die Abhängigheit von Google sieht man in dieser Grafik (statistische Auswertung der Besucherquellen für tinto.de und -Projekte (Verbraucherthemen-Mix: Garten, Geld, Gesundheit, Job, Selbstverwirklichung etc.) von Ende April bis Ende Mai 2012).


    Die Grafik wurde erstellt mit infogr.am

    Macht Google das Internet kaputt?

    Ich mag Google und ich mag Facebook - da stecken tolle Ideen und Programmierer dahinter. Ich wünschte, ich hätte solche Visionen. Aber beide Unternehmen wurden zu groß und mächtig - was man eigentlich nicht den Unternehmen vorwerfen kann, denn warum sollten sie nicht wachsen wollen? "The sky is the limit" hatte vor 15 Jahren jeder zweite als Motto in seinen Profilen bei Foren, in Messengern, Chatrooms und bei AOL stehen.

    Aber speziell im Falle des Aufrufs von Google zur Denunziation fürchte ich, dass Google Unternehmen und User aus dem nicht-proprietären Internet vertreibt - direkt in die Hände des anderen Datenkraken Facebook (der natürlich nicht weniger totalitär in seinem geschlossenen Reich herrscht)!

    Die einzige Möglichkeit für uns Publisher (aber auch Nutzer), eine gewisse Freiheit zu bewahren, sehe ich darin, dass sich Blog- und Webseitenbetreiber gegenseitig stärken. Ideen dazu, Meinungen und Visionen dürfen gerne in den Kommentaren gepostet werden, genauso auch Ideen, ob und wie nationale und internationale Politik die Macht der Megakonzerne einschränken sollte.

    Quellen und weitere Informationen
    Danke an Eric Kubitz für seine SEO-Woche: News aus der Content Marketing-Maschine, die mich auf diesen Aufruf von Google's Webspam-Chef Matt Cutts aufmerksam gemacht hat.

    Dienstag, 15. Mai 2012

    Ist die Zeit reif für HTML 5?

    Interview mit Stefan Münz, Initiator von SELFHTML, Technischer Redakteur, Programmierer und Autor

    Fragt man einen Nichtprogrammierer, woraus eine Internetseite besteht, dann wird er wohl antworten: aus Textblöcken, Links und Bildern. Denn das ist das, was uns der Browser zeigt, wenn wir eine Webseite aufrufen.

    Doch unter der Haube enthält eine Webseite zusätzlich Meta-Informationen in Form von HTML-Code, mit dem die Seiteninhalte strukturiert werden - so dass der Browser sie überhaupt wie gewünscht darstellen kann.

    Diese Auszeichnungssprache HTML (Hypertext Markup Language) wird derzeit von einer Arbeitsgruppe namens WHATWG (whatwg.org) weiterentwickelt und mit dem für die Standardisierung von Webtechnologien zuständigen World Wide Web Consortium (W3C - w3.org) abgestimmt. Die offizielle aktuelle Version ist zwar HTML4.01, doch HTML5 mit vielen neuen Funktionen steht längst in den Startlöchern.

    HTML5 soll HTML endlich von SGML (Standard Generalized Markup Language) mit ihren DTDs (Dokumenttypdefinitionen) loslösen, aber trotzdem rückwärtskompatibel sein.

    Zu den Vorteilen von HTML5 gehören neue Elemente wie z. B. section, nav und article, die eine bessere Strukturierung bei gleichzeitiger Auszeichnung ermöglichen. Auch soll HTML5 Plugins wie Adobe Flash überflüssig machen.

    HTML5 Strukturbeispiel


    Stefan Münz, Technischer Redakteur, Programmierer und Autor hat diese ganze Entwicklung von HTML mitgemacht. Sein Name ist jedem Webdesigner ein Begriff, denn er hat in den 1990ern SELFHTML initiiert und aufgebaut - das HTML-Online-Nachschlagewerk, das seit vielen Jahren fast jeder nutzt, der Internetseiten professionell oder als Hobby erstellt. 2007 ist Stefan Münz zwar aus dem Projekt ausgestiegen, doch HTML gehört weiterhin zu seinen Themen. So erschien von ihm und Clemens Gull Ende 2010 das HTML 5 Handbuch.

    Ich durfte Stefan Münz ein paar Fragen stellen:

    Wie verbreitet ist HTML5 inzwischen im Netz? Welche großen Marken nutzen schon HTML5?

    Die Frage nach der Verbreitung lässt sich sehr unterschiedlich beantworten, je nachdem, mit welchem Maß man misst. Man kann zum Beispiel versuchen herauszufinden, wie viel Prozent aller Webseiten den post-SGML-typischen HTML-Doctype verwenden. Namics Weblog hat das neulich getan und kam zu einem eher nüchternen Ergebnis: 5,4% aller schweizer Webseiten nutzen den neuen Doctype (Quelle). Man kann aber auch mal einen Blick in die Quellcodes der meist besuchtesten Sites werfen: die Google-Suche verwendet den neuen Doctype, Facebook verwendet ihn, YouTube verwendet ihn, Yahoo verwendet ihn, und Baidu verwendet ihn - also die fünf meistbesuchtesten Webangebote weltweit (Quelle). Erst Platz sechs, die Wikipedia, setzt noch auf XHTML1.0 transitional. Auch die Mehrzahl neuerer Wordpress-Themes ist HTML5-basiert. Man ist also in guter Gesellschaft, wenn man sich für HTML5 entscheidet.

    Kann man kleinen Website-Betreibern schon HTML5 empfehlen - sprich: wird HTML5 schon von den wichtigsten Browsern unterstützt?

    Ich würde nichts anderes mehr empfehlen, wenn nicht besondere, eher seltene Gründe dagegen sprechen. Ein solcher Grund könnte sein, dass ein Anbieter Webseiten-Code im Rahmen einer existierenden XML-Infrastruktur verarbeiten möchte und deswegen "echtes" XHTML benötigt. Aber Browser sind kein Argument mehr gegen HTML5, nachdem ja mittlerweile Konsens ist, dass der IE6 kein geeignetes Mittel mehr ist, um im Web unterwegs zu sein. Für alle übrigen Browser wird man je nachdem, welche Features von HTML5 man überhaupt verwenden möchte, mehr oder weniger viele Workarounds benötigen. Da heute aber auch weitgehend Konsens ist, dass man JavaScript für einen normalen Website-Betrieb als aktiviert voraussetzen darf, wird einem diesbezüglich mittlerweile viel Arbeit abgenommen, vor allem durch Lösungen wie JQuery und seine zahlreichen Plugins. Wenn man vor der Aufgabe steht, ein völlig neues Webprojekt ground up neu zu gestalten, würde ich als Framework die HTML5-Boilerplate empfehlen - eine robuste Basis für zeitgemäße Webseiten, mit allem, was man heute so benötigt - von JQuery über Modernizr für HTML5/CSS3-Workarounds, CSS-Reset bis hin zu Vorlagen für eine robots.txt oder die XML-Datei für Adobe-Cross-Domain-Policy.

    Funktioniert HTML5 auch mit Web Application Engines, falls jemand große Projekte aufziehen will?

    Da kann ich nur für FastCGI sprechen (für andere Application Engines entwickele ich selber nicht). Die meisten heute genutzten HTML5-Features haben für Web Application Engines gar keine Relevanz, weil sie rein client-seitig verarbeitet werden. Anders ist das bei Technologien wie den Web Sockets, einem wichtigen neuen Verbindungsprotokolltyp im Dunstkreis von HTML5, der HTTP ergänzt und Präsenzserverfunktionalität für Chats, Multi-User-Spiele und dergleichen ermöglicht. Web Sockets erfordern sowohl client-seitig (Browser) als auch webserver-seitig entsprechende Unterstützung. Mittlerweile gibt es serverseitige Plugin- oder Modul-Lösungen für Apache, Tomcat, LightHTTP und andere.

    Muss oder sollte man alte Websites auf HTML5 umstellen? Schon jetzt oder später bzw. ab welcher Version?

    "Historische" Seiten sollte man, finde ich, ruhig mal lassen, wie sie sind, und Feedback abwarten. Sicherlich werden viele alte Seiten im Laufe der Zeit immer fehlerhafter - besonders wenn sie proprietäre HTML-Elemente enthalten, beim CSS auf das veraltete Microsoft-Box-Modell setzen oder seinerzeit coole, heute aber nicht mehr unterstützte oder verpönte Technologien wie etwa ActiveX-Controls nutzen. Leiden alte Projekte zunehmend unter solchen Erosionserscheinungen, muss ein sinnvoller Kompromiss gefunden werden zwischen heutiger Bedeutung/Reichweite und Änderungsaufwand.

    Bei allen Websites dagegen, die noch aktiv gepflegt werden, und die hin und wieder ohnehin einen kräftigen Relaunch spendiert bekommen, sollte die HTML5-Umstellung auf der Todo-Liste stehen. Da gilt eigentlich das Gleiche wie bei Neuprojekten. Da die meisten Webseiten heute dynamisch generiert und die Inhalte via CMS gepflegt werden, genügt es in vielen Fällen, Templates zu ändern. Natürlich kann es in der Praxis darüber hinaus zu Problemen kommen wie Konflikten zwischen HTML5-typischem JQuery und bestehenden JavaScripts. Solche Probleme zu lösen, erfordert mitunter einigen Aufwand. Doch insgesamt sind die Probleme bei der Umstellung auf HTML5, glaube ich, kleiner als befürchtet. Der Teufel steckt da eher im Detail, und den Teufel im Detail wird man so oder so niemals los.

    Vielen Dank für die Informationen und Tipps und weiterhin alles Gute!


    Buchtipp

    HTML5 Handbuch*
    Die neuen Features von HTML5
    Stefan Münz, Clemens Gull
    Franzis Verlag GmbH
    744 Seiten
    ISBN-13: 978-3-6456-0284-6

    * Werbepartnerlink


    Mehr von Stefan Münz und HTML5


    Freitag, 13. April 2012

    Hört auf, von der Netzgemeinde zu reden

    Immer wieder lese ich von dieser "Netzgemeinde". Als es noch vorwiegend um technische Belange ging und netzunerfahreneren Politikern erklärt wurde, wie bestimmte Dinge im Internet oder auf Social-Media-Plattformen ablaufen, fand ich das noch in Ordnung. Da ich selbst seit 1996 online bin und seit 1997 im Internet veröffentliche, fühle ich mich auch hier zuhause - bin im unpolitischen Sinne also ein Bestandteil dieser "Netzgemeinde".

    Netzgemeinde? Vernetzte Menschen sind nicht unbedingt einer Meinung
    Netzgemeinde? Vernetzte Menschen sind nicht
    unbedingtin allem einer Meinung!
    Zu Anfang gab mir das Wort "Netzgemeinde" noch so eine Art heimeliges Gefühl – schließlich waren wir die Eroberer (zweiter Generation) einer neuen Welt gewesen, der virtuellen Welt. Wir waren cool, wir waren Vorreiter. Aus Begeisterung für Computer und Internet habe ich sogar meinen Beruf gewechselt.

    Doch in letzter Zeit wird der Begriff ständig in politischen Zusammenhängen gebraucht – meiner Meinung nach missbraucht – auf der einen Seite von selbst ernannten, politisch motivierten Netzgemeinden-Fürsprechern, deren Ansichten ich überwiegend nicht teile. Ich habe euch nicht gewählt, also redet nicht für mich! Aber auch von denen, die sich eben gegen diese artikulieren und sie als "Netzgemeinde" adressieren, wenn sie ihre Gegenargumente vorbringen. Hört auf damit - es gibt keine Netzgemeinde, jedenfalls nicht als einheitliche politische Fraktion!

    Ich will weder, dass jemand, den ich nicht gewählt habe, für mich spricht, noch will ich mit ihnen von der anderen Seite in einen Topf geworfen werden - seid nicht so dumm, nicht zu differenzieren, wenn Ihr euch eure Feinde nicht selbst züchten wollt!

    Ich bin sicher, so wie mir, geht es auch vielen anderen. Nur weil wir das Internet und seine neuen Möglichkeiten (auch hinsichtlich Bürgerbeteiligung) schätzen, wollen viele/die meisten (?) von uns nicht, dass sich unsere Gesellschaft/Demokratie als solche grundsätzlich verändert. Aber wir sind eben nicht die, die laut schreien, sondern einfach die, die das Internet tagtäglich nutzen.

    Ich bin Bestandteil der Netzgemeinde im unpolitischen Sinne. Auch ich liebe das Internet als Informationsquelle, Kommunikationsmöglichkeit und Ort der Freiheit: Freiheit, mich auszudrücken, selbst zu publizieren, kreativ zu sein. Ich will weder das Urheberrecht verkürzen (Urheberrecht aus Sicht eines Urhebers (Autor), Lobbyismus in Social Media) und ich will keine Digitale Demokratie (Digitale Demokratie ist Bullshit). Obwohl ich pro-kapitalistisch eingestellt (im Sinne einer sozialen Marktwirtschaft) und Hobbybörsianerin bin, will ich nicht, dass unsere Gesetze sich nach den Geschäftsmodellen amerikanischer Großkonzerne richten.

    Hört endlich auf, von der Netzgemeinde zu reden - zumindest in politischen Diskussionen! 

    Und wer wissen will, was die Netznutzer denken, der soll ordentliche Wahlen oder zumindest seriöse Umfragen durchführen, bei denen neben der Repräsentativität sichergestellt ist, dass jeder Nutzer nur für sich (und nicht beauftragt im Sinne von Unternehmens- oder politischer Kommunikation) und auch nur einmal abstimmen kann.


    Donnerstag, 16. Februar 2012

    Urheberrecht aus Sicht eines Urhebers (Autor)

    Zurzeit wird viel über ACTA und über das Urheberrecht diskutiert. Viele, die gegen ACTA sind, wollen gleichzeitig das Urheberrecht abschaffen oder drastisch verkürzen. Als Urheber habe ich den Eindruck gewonnen, dass sich zu wenige hauptberufliche Urheber, die tatsächlich vom Schreiben, Fotografieren etc. leben, an der Diskussion beteiligen und dass in der Öffentlichkeit und auch unter den Politikern zu wenig bekannt ist, wie und wovon ein Urheber eigentlich lebt. Daher hier meine Sicht als Autor.

    Urheberrecht und ACTA

    Die Vermischung der Diskussionen um ACTA, Urheberrecht und Verwertung/Lizenzierung macht mir Angst. Ich traue den ACTA-Gegnern nicht, nachdem in Diskussionen und Interviews ACTA-Gegner als Argument äußerten: „Dann könnte ich bei YouTube ja nicht mehr alles umsonst runterladen“. Sind das die Kinder der Geiz-ist-geil-Generation, die nun alles umsonst haben wollen, was ihnen an Musik, Bildern oder Texten gefällt? Selbst Menschen, die sich intensiver mit der Materie beschäftigen und einen Gegenentwurf zu ACTA entwickeln, schlugen vor, das Urheberrecht solle auf 2 Jahre nach Erstveröffentlichung gekürzt werden. Da frage ich mich schon, ob die überhaupt wissen, wie beispielsweise ein Autor in Deutschland sein Geld verdient. (Für andere Urheber wie Fotografen, Maler, Musiker und auch für andere Länder kann ich nicht sprechen, da ich nicht im Detail damit vertraut bin – die USA hat ja beispielsweise ein anderes Urheberrecht als wir. Ich würde mich aber freuen, wenn sie auch ihre Sicht darstellen, und verlinke dann gerne von hier aus.)

    Das (Über-)Leben eines Urhebers am Beispiel Autor

    So ist der Weg von der Idee zum Einkommen: Entweder hat ein Autor (= Urheber) eine Idee, über was er schreiben möchte, oder ein Verwerter (im besten Fall ein netter Verlag) trägt eine Idee an ihn heran. Wenn man als Autor selbst keinen Verlag für seine Idee gewinnen kann, aber unbedingt beim Verlag schreiben will, sucht man sich einen Agenten – allerdings sind die ebenso schwer wie Verlage zu gewinnen und möglicherweise finden sie auch keinen Verlag. Hat dann endlich doch ein Verlag angebissen, entwickeln der Lektor des Verlages und der Autor zusammen eine Inhaltsstruktur, wobei der erste Entwurf vom Autor kommt.

    Wenn man sich über alles einigen kann, wird ein Vertrag zur Verwertung gemacht, der alle Details zu Rechten und Pflichten von beiden Seiten enthält. Der Verwerter (Verlag) verpflichtet sich im Verlagsvertrag beispielsweise, dafür zu sorgen, dass das Buch gedruckt und unter die Leute gebracht wird. Damit er das kann, muss der Autor ihm bestimmte Rechte einräumen - leider klingt das in den Verträgen immer sehr kompliziert (bei Mediafon kann man recherchieren, was "normal" ist). Was die Bezahlung angeht, kann man als Nicht-Prominenter oder Nicht-Starautor aber doch einigermaßen geschätzter Fachautor meist einen nicht rückzahlbaren Vorschuss aushandeln. Die Höhe des Vorschusses ist sehr themenabhängig und es kommt auch darauf an, was sich der Verlag überhaupt leisten kann – je mehr Vorschuss, desto mehr zusätzliches Risiko für den Verlag, denn letztlich weiß niemand, ob sich das Buch überhaupt verkaufen wird.

    Ein Verlagsvertrag ist etwas Gutes. Der Vorschuss deckt bei mir im Durchschnitt etwa den Lebensunterhalt eines Viertels der Zeit, die ich brauche, um das Buch zu schreiben – bei manchen Büchern mehr, bei anderen gibt es gar keinen Vorschuss (je nach Thema bzw. bei Fiktion als unbekannter Schriftsteller in einem kleinen Verlag). Mit anderen Worten: Wenn ich 4 Monate an einem Buch schreibe, dann deckt der Vorschuss (der meist erst bei Manuskriptabgabe oder bei Veröffentlichung fällig wird) im Durchschnitt anschließend einen Monat lang meine Lebenskosten.

    Da fragt man sich: Wovon leben Autoren dann die restliche Zeit? Zurecht. Antwort: Von den Honoraren, die über die Jahre noch nachkleckern, nachdem der Vorschuss mit ihnen verrechnet wurde. Wenn mein Vorschuss beispielsweise nach 2 - 3 Jahren mit den tatsächlichen Honoraren aus Verkäufen verrechnet ist, kommt wieder etwas Geld herein – jedes Mal, wenn jemand mein Buch kauft und bezahlt. Aber das sind winzige Beträge pro Buch. Manche Bücher haben dann nach 10 Jahren so viel Geld gebracht, dass die ursprünglich investierte Zeit zu einem erträglichen Stundenlohn führte. Bei manchen Büchern passiert das nie. Das gute Buch, das lange läuft, trägt den Rest mit, der nicht so recht in Fahrt kommt – und das passiert bei vielen Büchern.
    [Nachtrag 19.2.2012] Dazu kommt noch das Geld, das die Verwertungsgesellschaft (VG) Wort einsammelt und verteilt. Damit ist in etwa die Miete eines Monats bezahlt - in einem Jahr mehr, im anderen weniger. Das Geld stammt beispielsweise aus geringfügigen Aufschlägen auf Vervielfältigungsgeräte, durch die Nutzer Geld sparen, denn sie müssen nicht das ganze Buch kaufen, wenn sie nur Abschnitte kopieren. [Nachtrag-Ende]

    Anzeige


    Werden Bücher von unberechtigten Dritten gescannt und als E-Books angeboten (solche Plattformen "E-Books umsonst" gibt es ja im Internet), ist das nach unserem Gesetz Diebstahl zu Lasten des Autors und zu Lasten des Verlages, die die ganze Arbeit und das Risiko hatten. Das Teure am Buch ist übrigens nicht der Buchdruck, sondern die viele Arbeit, die Autoren, Lektoren und viele andere Menschen da reingesteckt haben - deshalb spielt es keine soooo große Rolle, wie viele annehmen, ob das Buch gedruckt oder digital verkauft wird. Wenn es digital verkauft wird, ist allerdings i. d. R. der stationäre Buchhandel nicht mehr beteiligt (dafür wirken Monopolisten auf die Preisgestaltung) - das spart dem Kunden Geld, dafür fehlt ihm die Beratung durch die Fachleute der Buchläden, die aber leider zunehmend pleitegehen und aus den Städten (auch wegen anderer Zusammenhänge) verschwinden.

    Verschiedene Geschäftsmodelle für Autoren

    Natürlich kann man nicht nur über Verlage publizieren. Als Autorin/Journalistin habe ich schon verschiedene Wege probiert – und ich bin sehr froh, dass es verschiedene Wege gibt: gedruckte Bücher/E-Books mit Verlag, Bücher ohne Verlag, werbefinanzierte Online-Publikationen. Aber wenn ich mich aufs Schreiben konzentrieren will, dann ist die Arbeit mit (einem guten Agenten und) einem Verlag am erfreulichsten, denn dann kann ich das tun, weswegen ich den Beruf ergriffen habe: Schreiben.

    Der Verlag hält dem Autor den Rücken frei, entwickelt Buchreihen, kümmert sich um Lektorat, Korrektorat, Layout, Umschlag, Vertrieb und Vermarktung. Wenn ich selbst verlege – egal, ob gedrucktes Buch, E-Book oder Online-Publikation, dann muss ich mich um alles selbst kümmern, d. h. ich muss all dies selbst lernen und umsetzen. Das frisst wahnsinnig viel Zeit und Energie, schließlich muss man mehrere Berufe lernen, in die andere als Azubi oder Student mehrere Jahre reingewachsen sind. Dabei wollte ich einfach nur schreiben.

    Leider werden die Verlagsverträge in den letzten Jahren immer schwieriger zu lesen und gehen oft genug in Richtung Total Buy Out. Ein Agent kann dabei helfen, einen besseren Vertrag zu bekommen, möchte aber für seine Arbeit auch bezahlt werden - verständlicherweise. Der Grund für die schlechteren Verträge liegt aber meiner Meinung nach nicht darin, dass die Verlage immer böser werden, sondern weil es ihnen – meinem Eindruck nach – immer schlechter geht. Und das hat natürlich mit den großen amerikanischen Platzhirschen im Internet zu tun, die den Nutzern alles für lau und den Autoren große Erfolge unter Umgehung der Verlage versprechen. Sie machen das nicht aus Gutherzigkeit, sondern sie wollen die Verlage u. a. Verwerter loswerden und selbst das Geschäft machen. Sie interessieren keine Urheberrechte und letztlich auch nicht der Künstler/Autor, sondern nur wie viele Besucher kommen (umso teurer können sie ihren Werbeplatz verkaufen) oder wie sie die Verlage ersetzen können (ohne den Service zu bieten, der nämlich Geld kosten würde).

    Ja, die Verlage u. a. Verwerter müssen sich - wie alle - der neuen Situation im Internet stellen. Aber das Urheberrecht abzuschaffen oder drastisch zu kürzen oder überhaupt Gesetze kritiklos an Geschäftsmodelle von Unternehmen anzupassen, ist meiner Meinung nach der falsche Weg.

    Urheberrecht- und ACTA-Argumente

    Die ACTA-Gegner behaupten, dass ACTA nur den Verwertern in die Hände spiele und die Verwerter seien böse. Nun, die Verwerter (in meinem Fall Verlage) bezahlen mich als Urheber, indem sie mir für jedes verkaufte Buch einen Honoraranteil überweisen – und sie können nur verwerten, was sie von den Urhebern zur Verwertung per Vertrag bekommen haben. Es steht jedem frei, zu schreiben, komponieren, fotografieren und seine Werke als frei zu deklarieren (GNU-Lizenz für freie Dokumentation). Doch ich möchte vom Schreiben leben können. Und wenn mein erster Roman erst nach 25 Jahren entdeckt wird, finde ich, steht immer noch mir das Honorar zu – denn schließlich habe ich über ein Jahr lang in jedem Urlaub, an jedem Wochenende und jeden Abend daran geschrieben (Geld verdienen musste ich damals mit was anderem).

    Die ACTA-Gegner wollen keine „Totalüberwachung durch den Staat“ und auch nicht, dass die Tauschplattformen zu Hilfssheriff gemacht werden. Ob das überhaupt durch ACTA verlangt wird, weiß ich nicht – nach der Analyse zweier Rechtsanwälte (Links zu den Artikeln sind unten bei Quellen), steht das nicht drin und sind auch kaum neue gesetzlichen Regelungen in Deutschland erforderlich. Leider sind die ACTA-Gegner nicht so kritisch, wenn es um die Totalüberwachung durch Internet-Unternehmen wie Facebook oder Google geht oder andere, die tracken und bubblen.

    Ich möchte auch keine Totalüberwachung durch den Staat und ich möchte auch nicht, dass Jugendliche bei Ersttaten unverhältnismäßig hohe Abmahnungen zahlen müssen, aber ich will, dass Gesetze auch im Internet gelten – allerdings gehören die auch mal eindeutig für das Internet ausgelegt und kommuniziert, statt User und Publisher in Fallen laufen zu lassen, in der Hoffnung, dass Gerichte alles irgendwann klären werden, während sich die Politik irgendwo versteckt. Aber grundsätzlich: Wenn ich die Situation auf ein Gasthaus übertrage: Von einem Wirt verlange ich doch auch, dass er dafür sorgt, dass in seinem Laden das Gesetz eingehalten wird, dass er dort keinen Drogenhandel duldet und Kindern keinen Alkohol verkauft. Warum soll man das nicht auch von einer Internetplattform verlangen können. Die überwachen uns doch sowieso bzw. sammeln Daten wie verrückt. Wie man sieht, machen die Internet-Unternehmen freiwillig wenig nur deshalb, weil etwas richtig wäre, denn jeder Besucher ist für sie ein guter Besucher – die interessieren sich nicht für Urheberrecht oder andere Gesetze, solange die Kohle stimmt und man sie machen lässt.

    Ein Urheber will nicht das Haustier der Gesellschaft sein

    Das Leben eines Künstlers/Autors ist hart. Aber das weiß man, wenn man damit anfängt. Mag sein, dass es einer Rihanna oder einem Dieter Bohlen finanziell nicht so viel ausmacht, wenn jemand ihre Arbeit kopiert und verteilt. Aber es ist ungesetzlich. Doch ein Künstler/Publizist hat in Deutschland laut Künstlersozialkasse im Durchschnitt ein Monatseinkommen von ca. 1.100 Euro (und die KSK nimmt erst ab einem Mindesteinkommen auf) - in dem Betrag ist auch das enthalten, was die Verwertungsgesellschaften (z. B. VGWort) eingesammelt und verteilt haben. Und das will man dem Künstler/Publizist wegnehmen, indem man das Urheberrecht abschafft oder verkürzt?

    Voll die Krätze kriege ich aber, wenn ich von eher dem Sozialismus zugeneigten Menschen in Diskussionen höre, dass „unsere Künstler und Schriftsteller eben einen Pauschalbetrag zum Leben bekommen sollen“ (wenn wir dann mal die Gesellschaft umgekrempelt haben). Aber: Es müsste ja wohl fairerweise erst die Gesellschaft umgekrempelt werden, bevor man Urheber enteignet. Aber auch so will ich nicht wie ein Haustier, das man sich als Gesellschaft leistet, gehalten werden – abgesehen davon, dass ich Verfechter der sozialen Marktwirtschaft und nicht des Sozialismus bin.

    Mein Fazit als Urheber (Autor)

    ACTA, Urheberrecht und Verwertung sind verschiedene Dinge - darüber muss aufgeklärt werden. Die Auslegung der Gesetze für das Internet sollte eindeutiger kommuniziert, am besten schriftlich veröffentlicht und in Schulen gelehrt werden, denn weder Internetnutzer noch Urheber/Seitenbetreiber können aktuell noch durchschauen, was legal ist und was nicht.

    Beispiel: Offensichtlich sind die Vorschaubilder bei Google-Suche legal, aber bei Verlinkungen bei Facebook oder beim Pinnen aus Blogs mit Pinterest/Pinspire nicht (weiß leider nicht mehr, wer das im TV vor Kurzem gesagt hat). Genauso gehört das ganze Tracking-Thema untersucht und eindeutige Regeln aufgestellt – Illegales sollte in Deutschland erst gar nicht angeboten werden dürfen, statt den überforderten Nutzer oder Publisher ins Verderben sausen lassen. Die Politik sollte sich endlich mal dran setzen und die Regeln für die Bürger formulieren.

    Diesem Schlamassel aus dem Weg gehen zu wollen, indem man einfach mal das Urheberrecht beseitigt, weil man sich sonst mit mächtigen Unternehmen auseinandersetzen müsste, ist für mich feige und davon abgesehen auch gleichzusetzen mit Enteignung.

    [Nachtrag 19.2.2012] Es sollten auch meiner Meinung nach faire Lizensierungs-/Nutzungsmodelle ermöglicht werden. Z. B. günstige Kombiprodukte (Buch + E-Book). Oder Lizenzen für den Inhalt: Wer ein Buch gekauft hat, soll es für einen kleinen Aufpreis auch als E-Book herunterladen dürfen, statt es noch einmal ganz bezahlen zu müssen (Ausnahme E-Books mit extremem Mehraufwand und "Mehrwert" wie interaktiven Grafiken etc.). Die Buchpreisbindung und der Börsenverein des Deutschen Buchhandels als Sprachrohr der deutschen Buchbranche sollten fairen Innovationen nicht den Weg verstellen. Dementsprechend sollte auch die GEMA (Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte) sich innovativen Lizensierungs- und Nutzungsmodellen öffnen oder sie selbst entwickeln. ACTA (Anti-Counterfeiting Trade Agreement), bei dem es um die (Art der) Durchsetzung von Gesetzen gegen Produktpiraterie und Markenfälschungen geht, ist für mich ein ganz eigenes Thema. [Nachtrag-Ende]

    Aber solange eine große Zahl der ACTA-Gegner gleichzeitig auch Urheberrechtsabschaffer sind bzw. Urhebern und Künstlern die Rechte und die Lebensgrundlage beschneiden wollen, werde ich mich nicht zu ihnen stellen.

    Anzeige


    Aufruf
    Wenn ihr auch Urheber (Fotograf, Musiker, Journalist, Maler o. a.) seid und davon lebt (also nicht nur schreibt, um eure Dienstleistungen zu promoten) oder Verwerter (Verlag) seid, dann könnt ihr vielleicht auch für andere aufschreiben, wie das mit Kunst/Urheberschaft oder Geschäft und Einkommen bei euch funktioniert. Ich glaube nämlich, dass viele Menschen davon einfach die falsche Vorstellung haben.

    Quellen und weitere Informationen


    [Nachtrag 16.5.2012]
    Gut gefällt mir auch dieses Interview mit Pia Ziefle: Mein Standpunkt ist der des autonomen Urhebers

    Nutzt/nutzen Sie die Kommentarfunktion und fügt eure/Ihre Erfahrungen oder persönliche Meinung hinzu. Wenn der Blogbeitrag euch/Sie inspiriert hat, abonniert/abonnieren Sie den Feed oder per E-Mail.

    Das könnte euch/Sie auch interessieren:

    Sie suchen Werbeplatz in diesem Blog oder eine Technische Redakteurin/Autorin/Texterin zu Software-, Informatik- oder Internetthemen für Ihre Website, ein Buchprojekt, ein Kundenmagazin o. Ä.? Schreiben Sie mir!