Technology is our friend
Back To Normal

April 11, 2014

Die neuesten Facebook Newsfeed Veränderungen und was wir daraus lernen können

Langsam wird es ernst: Durch die neuesten Änderungen am Facebook Newsfeed werden Fanpage Betreiber noch mehr dazu gedrängt, ihre Aktivitäten zu professionalisieren oder mit weniger Reichweite leben zu lernen. Denn einige Facebook-Seiten kriegen ihre KPI's noch auf diese Weise erfüllt:


In den letzten Jahren war dieses eines meiner Lieblingsbilder in Präsentationen zu Facebook. Um eine lange Geschichte kurz zu machen: 2010 war es meist noch eine Neuigkeit, wenn man Firmen erklärte, dass Facebook nicht immer alles ausliefert, was man postet – dass man also nicht immer mit jedem Inhalt alle (zumindest aktiven) Fans einer Seite erreichte. Der „Edge Rank“, das unbekannte Wesen, bekam einen mythischen Ruf. Bizarre Rechenakrobatik auf YouTube und wilde Spekulationen in diversen Blogs machten die Runde, um zu entschlüsseln, wie man dann doch möglichst viele Fans erreichen konnte. Dann ging Facebook selbst in die Offensive und erklärte Grundzüge des Edge Ranks.


Diese Grundzüge führten häufig zu Inhalten wie dem Pizza-Post ganz oben – und der Erfolg gab den Seiten, die sich so verhielten, recht. Wer es böse meint behauptet, dass Facebook ziellos im Nebel stocherte und diverse Fehlversuche hinter sich hat, einen möglichst relevanten Newsfeed für User zusammenzustellen. Sicher wurde damit experimentiert, Beitragsarten (Text, Link, Foto, Video), Beitragshäufigkeit, generelle Relevanz einer Fanpage oder einer Freundesbeziehung und aktuelle Relevanz einer Beziehung (zu einer Fanpage oder einem Freund) zu berücksichtigen. Wer es positiv darstellen will, sieht die seit Jahren andauernden, ständigen Änderungen am Newsfeed als kontinuierliche Verbesserungen auf dem Weg zum jeweils individuell relevantesten Newsfeed für jeden Nutzer. Mit der Folge, dass häufig Posts von Fanpages nur noch eine einstellige Prozentzahl ihrer Fans erreichen, und der Aussage von Facebook, dass es keinen Edge Rank mehr gäbe – ein Algorhitmus bewertet Post für Post, was angezeigt wird und was nicht (ein „Rank“ impliziert ja eine Grundsatz-Einordnung der Relevanz einer Page, vgl. Google, die es nicht mehr zu geben scheint).
Man könnte jetzt tausende Beiträge verlinken, in denen dieses statistisch nachgewiesen und zum Anlass für massive Beschwerden genommen wird (und ich habe das in anderen Beiträgen oft genug getan). Der Tenor lautet: „Ich habe jetzt so viel in meine Fanpage investiert – am Anfang ‚nur‘ in Redaktion und Management, später auch in Kampagnen – und jetzt muss ich jedes Mal bezahlen, wenn ich meine Fans erreichen will“. Darin steckt ein Körnchen Wahrheit – wenn Facebook Firmen dazu riet, per Kampagne Likes aufzubauen und dafür gutes Geld bekam, jetzt aber die Fanbase ein Stück weit „entwertet“, weil diese schwerer zu erreichen ist, dann ist die Frage, ob das nicht absehbar war, durchaus berechtigt

Die letzten Änderungen am Facebook Newsfeed, die gestern bekannt geworden sind, zeigen aber, dass Facebooks Priorität zu recht der User sein muss, der seinen Newsfeed als relevant wahrnehmen soll: Facebook hat angekündigt, „Like Baiting“, Doppelcontent und Spam aus dem Newsfeed herauszufiltern
Facebook sagt nicht genau, wie man diese Posts erkennen will („the improvement better detects these stories“), und natürlich treten Unsicherheiten auf und in vielen Facebook-Redaktionen wird wohl umgedacht werden müssen. Schauen wir uns heutzutage noch "normale" Posts an:


Der linke Post fällt sicherlich unter das genannte Like/Comment-Baiting. Der rechte auch? Facebook führt als Indikator an, dass Menschen bei Umfragen signifikant häufiger Irrelevanz diagnostizieren als bei Stories mit vergleichbar vielen Likes und Comments. Aber ist der Geburtstag eines Starspielers für einen Bayern München Fan irrelevant? Müssen sie in Zukunft einfach die Like-Aufforderung weglassen? Ist der „Galileo Sprücheklopfer“ als beliebte Rubrik (der hier gezeigte Post hat 8500+ Kommentare) betroffen oder nicht?

Die Page Insights werden es uns über die Zeit verraten. Neben den „taktischen“ Änderungen, die Facebook-Redaktionen jetzt berücksichtigen müssen, stellt sich aber auch die Frage, was wir aus der Mittelfrist-Perspektive daraus lernen können. Offensichtlich ist es so, dass Facebook die Relevanz für den User über alles stellt – also auch und gerade über die geschäftlichen Interessen von Fanpages. Für heute – und das steht immer unter dem Vorbehalt kommender Änderungen und Entwicklungen, die man nur schwer absehen kann - lerne ich daraus dieses:

1.       Weitere Professionalisierung von Facebook Redaktionen
Viele Firmen betreiben Facebook Fanpages immer noch „nebenher“. Ein „affiner“ Praktikant, ein Online-Redakteur mit wenig Privatleben, irgendwer wird sich schon finden, der im Idealfall ein paar Mal am Tag „irgendwas raushaut“ bzw. Pressemeldungen und Ereignisse aus dem Unternehmen schnell postet. Und ab und zu einen „Engager“, siehe das Pizza-Bild, dazwischen klebt. Das wird nur mit sehr viel Glück zu Erfolg führen. Um es mit Heiko Hebig von Facebook zu sagen: „Eine erfolgreiche Facebook-Page ist im besten Fall ein eigenständiges journalistisches Produkt, geschrieben von Menschen für Menschen, mit guten und einzigartigen Inhalten […]. Im besten Fall ist die Facebook-Page also viel mehr als ein Wurmfortsatz einer Webseite. Facebook ist eine eigenständige Spielwiese mit viel kreativem Freiraum, der gute Inhalte auch dann durch virale Reichweite amplifiziert, wenn es um andere Themen geht als Katzen.“


2.       Ausgeweitetes Social Media Management
Die berechtigte Anschlussfrage ist dann natürlich: Wenn ich eine ordentliche Facebook- Redaktion aufbaue, was habe ich dann davon außer Kosten? Zu wenige Firmen stellen sich diese Frage ergebnisoffen und mit der nötigen Härte und Ehrlichkeit. Wer in klassischen Medien Kontakte kauft, kann recht einfach diese mit Facebook Aktivitäten vergleichen und wird wahrscheinlich relativ schnell zu dem Schluss kommen, dass Facebook allein in dieser Messgröße ein wettbewerbesfähiges Produkt bietet – allein aufgrund der (potenziellen) Häufigkeit der Kontakte und der Möglichkeit zur Interaktion. Weiterhin bietet Facebook (im Vergleich zu anderen Social Networks gigantische) Möglichkeiten, Traffic auf die eigenen Seiten zu bringen, und diesen dann zu konvertieren – in Werbeanzeigen-Seher, Video-Pre-Roll-Seher, in Käufer, in Subscriber, was auch immer man anbietet. Bisher ist dieses häufig den Redakteuren überlassen. Diese sind in einer Zwitterfunktion zwischen Inhalteerstellung und Management, sie sollen halt in die Insights schauen, was gut funktioniert, aber „funktionieren“ kann hier, anders als bei Chartbeat auf einer journalistischen Webseite, ganz andere Dinge beinhalten als Anzahl der erreichten Eyeballs. Ohne regelmäßige Analyse, die a) meist über die eigenen Fanpage Insights hinausgehen muss, nämlich auch die eigene Website (oder andere „Zielseiten“) beinhalten muss und b) dann natürlich der Redaktion zurückgespielt werden muss, wird es schwer sein, optimale Ergebnisse zu erzielen. Das bedeutet, dass die Analysten, die sich die meisten Firmen für Webseiten leisten (oder die Menschen, denen sie diese Rolle zuteilen), auch Facebook in ihren Tätigkeitsbereich aufnehmen sollten - oder ein Social Media Management eingerichtet wird, das explizit nicht zum Posten von Inhalten, sondern zur Planung, Durchführung und Kontrolle von Social Media Maßnahmen da ist. Was zum letzten Punkt führt:

3.       Facebook als Business Case analog SEO/SEA
Die beschriebene “Zwitterposition” von Social Media Redakteuren zwischen Manager und Inhalte-Ersteller ist in meinen Augen gut mit der Rolle von üblichen Online-Redakteuren für Webseiten vergleichbar: Ein Grundverständnis von SEO ist durchaus wichtig, aber keiner der Redakteure bucht SEA Kampagnen oder kümmert sich täglich um die Findbarkeit seiner Artikel bei Google. Über kurz oder lang wird es hinsichtlich Social Referrer Traffic, wie er von Facebook kommen kann, ähnlich sein. Der Redakteur erstellt möglichst gute Inhalte und hat ein Grundverständnis für Zeitpunkte von Posts, Textlängen, Bilder, Bildformate und Teasertexte zu Links. Experten sollten dazu da sein, diesen Inhalten eine maximale Verbreitung zukommen zu lassen - wo das eben Sinn macht. Das wird, ähnlich wie bei Google, ganz ohne finanzielles Engagement nicht gehen. „Überperformende“ Beiträge (z.B. in Traffic-Generierung, Konvertierung zu Käufern und ähnliches) als Sponsored Posts weiter zu verbreiten, ist ein Business Case in sich, und die Redakteure, die sowohl solche Beiträge erstellen als auch entsprechende „Mini-Kampagnen“ managen können, dürften rar gesät sein. Das Social Media Management sollte, wenn mit einem Budget ausgestattet, in enger Kooperation mit Redaktionen über Kampagnen und bezahlte Maßnahmen bestimmen. Das alte Bild von „owned, earned and paid media“ wird sich in allen drei Kategorien professionalisieren müssen. 


Fazit:
Natürlich: Als Deutsche Sporthilfe oder auch als Gaffel Kölsch würde ich mir die aktuellen Änderungen für meine Redaktion zu Herzen nehmen, aber auch kein x-köpfiges Redaktions- und Management-Team aufbauen. Für viele Seiten wird es sich weiterhin lohnen, Facebook Pages auch ohne großes Budget zu betreiben und zu versuchen, möglichst viele relevante Inhalte zu erzeugen. Als Tchibo oder Media Markt würde ich mir allerdings überlegen, ob die SEO/SEA Analogie nicht doch greift und der eine oder andere Experte helfen könnte. Und wer von Buzzfeed und Upworthy und all diesen „neuen, auf Social Media basierten“ journalistischen Angeboten schwärmt, der sollte sich vergegenwärtigen, wie stark diese auf Realtime-Daten basierend ihre Inhalte managen. Die Komplexität der Aufgaben sinkt nicht gerade, wenn man versucht, aus den drei großen Trafficquellen Direct Traffic, Search und Referrer (wobei hier der überwiegende Großteil Social Media und davon wiederum der größte Teil Facebook bedeutet) jeweils das Maximum herauszuholen. Da wird man um eine Professionalisierung und auch angemessene Budgetierung seiner Facebook-Aktivitäten nicht umhinkommen. Wer 3000 Keywords bei Google belegt hat und ständig nachrechnet, welches Keyword zu welchem Preis wieviel Traffic mit welcher Konvertierung zu seiner Webseite holt, der wird ähnliches auch bei Facebook tun müssen: Wenn auf einer Medienseite der Leser eines Artikels im Schnitt 1.27 neue Leser mitbringt, weil dieser so teilenswert und gut ist, dann kann man ausrechnen, wie viel man in eine schnelle Facebook-Kampagne mit einem Link zu diesem Artikel investieren kann, um daraus einen positiven Business Case zu machen. Wenn man ein Angebot postet, das gut klickt und dann auch überdurchschnittlich in Käufe konvertiert, kann man sich ebenfalls ausrechnen, mit welchem Invest pro Click es sich lohnt, das Angebot als Sponsored Post zu schalten. Wer mit einer Print-Anzeige x Eyeballs erreicht, der kann sich ausrechnen, ob y Eyeballs mit „Like-Click“ für ähnliches Geld bei Facebook erreichbar sind oder nicht.

Das alles klingt furchtbar kompliziert und nach wahnsinnig viel Aufwand. Im Grunde stehen für viele Unternehmen in naher Zukunft Grundsatzentscheidungen an: Betreibe ich Facebook nebenbei und als reines „Zusatztool“, das für ein bisschen Image, Interaktion, Bekanntheit und im besten Fall noch für etwas Traffic sorgt, also als oben beschriebenen "Wurmfortsatz", oder betrachte ich meine Facebook-Aktivitäten als Investition und Business? Im letzteren Fall muss man sich einlassen auf eine Welt, in der Realtime-Daten, ständige Analyse, Mikromanagement und die Bereitschaft zur stetigen Veränderung gefordert sind – anders als bei Kampagnen, die ich einfach für die nächsten zwei Monate bei meiner Media-Agentur abliefere. Willkommen in der Gegenwart.

   
Read More

March 27, 2014

For 2bn, Facebook can buy pretty much anything - and it will make sense

In my personal environment there are split opinions about Facebook buying Oculus Rift. Most hardcore gamers hate it because they think Oculus will now not become a hardcore gaming device, although Zuckerberg announced that it would - for now at least - be focused on gaming.


Others just don’t believe in virtual reality as a „next big thing“ and mock the deal by saying Second Life would finally come back as an undead Zombie of Social Networks. Then again, there are others who compare the deal with Google buying Android back in 2005 or think that „a Facebook wall that you can actually physically experience“ had to be something exciting. Imagine your phone being able to produce Oculus-compatible Video, and you could invite your friends to experience the beach that you are actually visiting right now. Pretty cool?

I have no idea, to be honest. I don’t know enough about Oculus and ever since that„every company will be re-built around people“-vision from a few years ago somehow stopped, especially after the IPO, I am pretty insecure about the strategy of Facebook, the social network. Ok, they won’t let any competitor come up and eat their lunch, so they are buying Instagram and What’s App and anyone else who will have a large and especially very active and engaged user base in anything that involves user-to-user-communication. But that seems like survival, not necessarily strategy, and I am pretty sure there is a masterplan for both Facebook, the social network, as well as for Facebook, the Internet giant who will own a diverse variety of platforms, services and digital products. I just can’t see it right now and I am not ashamed to admit it. 

For one thing, even if the social network as such will suffer under the pressure of creating earnings and people may eventually move to other platforms (that may be owned by Facebook by then), I am very convinced that Facebook, the Internet giant, regardless of the social network, is here to stay. And they are not throwing away two billion dollars on some vaguely probable bet. They may be betting on products, remember Facebook Home (merely a year ago) and the Skype integration and other stuff that seemingly never really took off. But it came up during lunch today that Facebook’s story so far must have been a story of an incredible ability to say „Sorry, not interested“. 

Imagine, once you reach a quarter of a billion users, how many super-interesting opportunities and offers there must have been: Some manufacturer must have come to them and said: Hey, let’s build a phone. Let’s build a TV Set Top Box. Let’s make an MVNO. Let’s make a connected car operating system. Let’s start broadcasting video content. Let’s do this, let’s do that. And all of these opportunities might have been a few hundred million dollars strong or even more. Imagine what you can do with 250 million users at hand. But someone at Facebook must have said: „Sorry, not interested“ to all these people. They focused on growing their social network far beyond a billion users now. And still, they could do this, that and anything else. Their limited resource shouldn't be money, but (management) attention, and this should be the only currency with which you can measure the acquisition of Oculus: Could they have done something better instead? Because with over a billion users, anything is possible. Any acquisition of a company can make sense. So this time they didn't say "sorry, not interested" and the reason might be that there is a huge opportunity in leveraging the Oculus technology with the huge user base that they have.

Let me explain this from my personal history: 8, 9 years ago, when I worked for Deutsche Telekom in the pre-iPhone era, I quickly learned that we would not be able to produce world class web technology (at all or at least not quickly enough) to get any competitive edge over competitors in any field – not telco, not web, not music, games or media distribution, not web storage, not voice or data communication (these were the hot topics back then). And if we could, the probability of competitors copying it or building something better was pretty high. So we quickly understood that the only thing that would give us a competitive edge was to focus on the one thing others did not have: a huge amount of relationships. 30 million+ households, 13 million+ DSL subscribers, 10 million+ T-Online users, 10 million+ T-Mobile users etc. - in Germany alone. If we could have created products and offerings where a network effect – the number of people who participate create value for all other participants – would have come into play, this would have been something that may have locked out competition and would have been a real advantage. Emphasis on would. Look at ebay – the more people sell, the more people will be drawn to offers, and the more people are drawn to the offers, the more likely it is that you may want to sell your stuff on ebay. Look at credit cards: The more shops accept them, the more people are likely to use them, and the more people use them, the more likely it is to find shops who accept them etc. That's why there are 4 major credit card companies on a global level, not 2000. If you start thinking about this, with Deutsche Telekom's relationships at hand, the more you realize that the opportunities are endless. One reason that I left the company so quickly was that I didn’t seem to be able to convince the right people and create the right buy-in to make any of those concepts a reality. This had to do with my personal shortcomings, being in my early 30s back then, and with structures of a huge giant with 200k+ employees, or as we sometimes say (pun only works if you speak German): „I work for Deutsche Telekom, a big German concern“.

From a strategic standpoint, I still think that these network dynamics – make the number of people using your service a value in itself – are still the best way to reach a competitive advantage in most industries. Coming back to Facebook: With 1.2 billion active users in your social network, you can buy Lexus and it can make total sense. You can buy Comcast and it can make total sense, or buy Nintendo and it can make total sense. You can even buy the Washington Post and it can make total sense (what happened to this one, anyway?). As long as you manage to leverage the huge amount of people you have relationships to (or help them to maintain relationships among themselves).

So when Facebook decides to buy Oculus, I cannot imagine that this could turn out to be a huge mistake. It may be a bold move, but compared to the What's App acquisition (for some 16-19bn?), I cannot see how this could severely damage Facebook. Even if you do not integrate Oculus at all, it might be a valuable business of its own. But once you think of network dynamics and more than a billion users, and what user-to-user-communication may be like when a fraction of these people owns such a virtual reality device, the opportunities seem endless. 
Read More

March 24, 2014

Chromecast Unboxing - Einrichtung und erste Eindrücke

Gestern lief der "Clasico" - Real Madrid gegen FC Barcelona. "Lief" meint in diesem Fall: Es gab einen Stream bei LaOla1.tv. Faul auf dem Sofa, gerade den Abschluss der Bundesliga hinter mir, schien das die ideale Fortsetzung des Abends zu sein. Mag sein, dass es eine Apple TV App gibt, aber ich habe sie nicht und bei Anstoß 21 Uhr kümmert man sich ja um 21.01 Uhr darum, irgendwie an den Stream zu kommen. Also das iPad gezückt, um über Air Play auf dem TV zu schauen. Leider muss man, um auf "mobilen Endgeräten" (das kommt einem Sonntag abends auf dem Sofa sehr albern vor) zu schauen, zahlendes Premium-Mitglied sein. Lange Geschichte, kurz erzählt: Ich bin in solchen Situationen zu faul und wissend, dass das Spiel bereits läuft, auch zu ungeduldig, an meinen Kabeln zu fummeln, den HDMI Dongle fürs Laptop zu suchen oder überhaupt den Laptop aus der Reisetasche zu holen und hochzufahren oder den parallelen Bild.de-Stream zu checken: Ich hab das Spiel letztlich am PC geschaut. 22" Monitor, auch ok, keine Buffer-Probleme wie früher, HD-Bild. Beim TV geht es für mich nicht um das Machbare, sondern um das Bequeme: Ich habe mich schon dabei erwischt, via Watchever Filme zu schauen, die ich auch als DVD habe - als DVD aber nicht geschaut hätte, denn Film raussuchen, einlegen, nachher wieder wegpacken, klingt albern, ist aber in der Anwendungssituation eine echte Nutzungshürde. Ich kann mir nicht vorstellen, dass ich damit allein bin.

Abhilfe erhoffe ich mir vom ganze 35 Euro kostenden Google Chromecast - der pünktlich heute, am Tag nach dem "Clasico" geliefert wurde (obwohl andere Prime Kunden, liebes Amazon, trotz späterer Bestellung das Ding am Samstag in den Händen hielten...). Hier also ein kleines Unboxing/Einrichtungs-Protokoll.

Die Hardware habe ich nicht abfotografiert, sie besteht aus einem HDMI-Dongle, einem Stromkabel und, falls der TV zu eng an der Wand klebt, einem HDMI Extender für besseren WLAN Empfang. Positiv: Kein 200seitiges Handbuch. Lese ich eh nicht - insbesondere Technik sollte mit stöpseln, fummeln, Knöpfe drücken immer selbsterklärend funktionieren. Das kann man dem Chromecast nicht wirklich absprechen. Nach dem Einstöpseln wählt man den passenden Eingang am TV.


"Bitte einrichten" - wir haben gemeinsame Interessen, der Chromecast und ich.


Da mir allerhand Geräte dazu angeboten werden, nehme ich das nächste herumliegende - in diesem Fall das iPad. Unter der auf dem TV Screen angezeigten Domain liegt nichts anderes als ein Link zum App Store, wo man dann die Chromecast App installieren kann. Die will als erstes das:


Ich gehe davon aus, dass ich von einem Privacy Shitstorm schon gelesen hätte (aaaah, der Schwarm) und akzeptiere blind. Die App sucht übers WLAN den Stick, der in meinem TV hängt.


Dann verbindet man sein iPad mit dem WLAN, das der Stick selbst anbietet.


Ein bizarres Gefühl, sein eigenes WLAN links liegen zu lassen. Muss ich jetzt immer umswitchen, wenn ich streamen will?


Erinnerungen an meine erste Bluetooth Nutzung werden wach. Ein Code soll sicherstellen, dass mein Stick auch wirklich mein Stick ist:


Und siehe da:


Mein Stick ist mein Stick, und das WLAN des Sticks verbindet sich jetzt mit meinem Heim-WLAN. Dafür, dass das ein komplexer Vorgang zu sein scheint, ist die Nutzerführung bisher ziemlich einfach. Wenn auch zeitaufwendiger, als ich dachte. Denn jetzt ist erst einmal ein Update fällig. Ich habe immer häufiger das Gefühl, quasi "leere Empfangsgeräte" zu kaufen, die dann erst durch einen Download zu vollwertigen Produkten werden. Da fällt mir ein: Ich wollte noch nach Firmware-Updates meines Staubsaugers suchen.


Update complete. Der erste Bump folgt aber sogleich: Angeblich passt etwas nicht.


"Small change to your settings" löst in mir immer gleich den Gedanken aus, neue Firmware für den Router installieren und jedes einzelne Haushaltsgerät neustarten zu müssen. Wenn ich schon "Liste zur Routerkompatibilität" lese... "Routerkompatibilität". Ich will solche Begriffe nicht kennen. Ich will fernsehen.


Zum Glück war das nur ein Bauerntrick. Links angetäuscht, rechts vorbeigegangen. Während ich noch überlege, ob ich auch nur eine einzige Zeile dieser angeblichen "Hilfe" lesen soll, richtet sich der Stick trotzdem ein. Von alleine. Startklar, sagt er. Schön.


Ähnlich problemlos sieht es in der App auf meinem iPad aus.


Das Ganze hat etwas unter 15 Minuten gedauert. Insgesamt eine zumutbare Veranstaltung und nicht übermäßig komplex, auch wenn man in diesem 15 Minuten gut beschäftigt ist mit Installationen und Anweisungen. Die App bietet nun eine Art internen App Store an.


Ich will aber beim Usecase "Real Madrid - Barcelona" bleiben.


Aha. Das Ding heißt nicht umsonst "Chromecast". Man kann einen Tab aus dem Chrome Browser 1:1 auf das TV schicken. Mir hätte hier auffallen sollen, dass wir einen Laptop und einen TV sehen. Ist es aber nicht. Ich versuche, die Chrome Extension, die dazu nötig ist, auf dem iPad in Chrome zu installieren.


Wenn bei Watchever eins funktioniert, dann ist es SEA. Anyway. Der erste echte und wahrhafte Bump folgt sogleich:

Sowohl für das iPad als auch für ein Android Gerät sind die entsprechenden Extensions (noch?) nicht verfügbar. Rechtefrage? Engineering Issues? Ich glaube ja an ersteres, das ist aber für den Endanwender unbefriedigend. Ich muss vom PC oder Laptop aus "casten". Also Installation der Extension am PC Browser.


Das funktioniert einwandfrei. Man hat dann ein neues Icon im Browser. Ruft mal also etwa LaOla1.tv auf, wo ja der Clasico laufen würde, wenn er Montag morgens ausgetragen würde, klickt man auf jenes Icon, kann den Chromecast auswählen (falls man 3 Stück an seinen 3 TV Geräten hat) und klickt auf "Tab übertragen".


Was dann passiert, kennt man so vom Apple TV nicht: Es wird in der Tat der Tab, so wie er am PC Monitor erscheint, auf das TV Gerät gesendet.


In diesem Fall läuft die Zusammenfassung des Clasicos. Will man das Ganze Full Screen sehen, muss man eben am PC Full Screen auswählen.


Jetzt kommt Apple TV Feeling auf, denn ein ähnliches Icon überträgt ja dort auch auf das TV.


Fullscreen Fußball mit sehr ordentlichem Bild und Sound. Danach habe ich es noch über das Android Handy versucht - man kann zwar nicht die Browser Extension installieren (und in dem Sinne "chromecasten"), aber es gibt natürlich eine App.


Auch hier ist Watchever populär. Chromecast wird, gerade bei dem attraktiven Preis, für alle "Over the Top" Angebote wie Snap von Sky, die digitalen Mediatheken der TV Sender, Maxdome und andere sicher eine hilfreiche Rolle spielen. Ich wähle den einfachen Weg. Chromecast, Android, Youtube - kein Wunder, dass das dann auch problemlos funktioniert.


Man spielt irgendein Video in seiner Youtube App ab, die nun auch das "Cast Logo" beinhaltet, kann die App verlassen und im Notification Center ist der Stream kontrollierbar (ganz ähnlich wie beim Abspielen von Musik auf einem Android Smartphone).


Zack, läuft das Sport1-Youtube-Video auf dem TV, und es ist von Sport1 als TV-Kanal nicht zu unterscheiden.

Erstes Fazit: Die Einrichtung ist nicht gerade "Einstöpseln und Warten", aber auch nicht übermäßig schwierig. Aus dem Browser auf den Fernseher senden ist eine nette Anwendung, noch netter wäre, wenn das auch per Tablet und Smartphone ginge. Die Nutzung über Apps ist ein Kinderspiel und funktioniert problemlos. Der Chromecast ist eine echte Alternative zu Apple TV - die Anwendungsszenarien nehmen sich nichts, und lieber springe ich am Handy von YT-Video zu YT-Video, das ich dann am TV sehe, als die vom UI her eher unsäglichen (Search, Discovery) Apple-TV Apps zu verwenden. Und mit den Apps, die sicher noch folgen, wird der Chromecast eventuell sogar am 3x teureren Apple Gerät vorbeiziehen - mit ein bisschen Phantasie erscheinen die Chromecast Möglichkeiten riesig. Aber wenn man schon ein Apple TV hat und für 35 Euro lieber eine Staffel einer Serie kauft, muss man sich den Chromecast - derzeit - nicht holen.

Der große Durchbruch ist der Chromecast allerdings (noch?) nicht. Meine Erwartung, aus meinem TV Gerät im Wohnzimmer quasi durch Stick-Einschieben einfach nur ein 47" großes Smartphone zu machen, hat sich immer noch nicht erfüllt. Und in meiner End-User-Naivität weiß ich gar nicht, was daran so schwer sein soll.


Read More

March 16, 2014

#justsaying

technology is our friend .-)


Read More

March 13, 2014

Wir brauchen eher eine ÖR-Reform als eine GEZ-Reform

Heute mal kurz etwas eher Privates: Falls man keine Vorstellung davon hat, wie viel eigentlich ARD und ZDF geschaut wird oder was eigentlich im deutschen TV populär ist.

Ich gehöre ja zu denen, die daran glauben, dass ein öffentlicher Rundfunk notwendig ist. Und ich zahle dafür auch halbwegs gerne (so einer bin ich auch). Und ich glaube natürlich daran, dass man mit 8 Mrd. Budget durchaus sehr regelmäßig ein "House of Cards" raushauen können müsste. Ich will auch keine 73 Cents im Monat zurück und eigentlich finde ich, meinem naiven Verständnis nach, den ÖR aus Steuern finanziert sinnvoller als aus einer Spezialabgabe, die sich immer wirr berechnen muss, weil das in der Natur von Spezialabgaben liegt.

Weil derzeit wild diskutiert wird, ob wir in Zukunft nun 73 Cent weniger im Monat zahlen, das ganze System nicht rechtens ist und sich damit auch strukturelle Fragen zum ÖR stellen: Ich persönlich finde, der öffentlich-rechtliche Rundfunk sollte per se werbefrei sein, nicht, weil ich (disclosure) viel für privates TV arbeite, sondern weil dann die Gestaltung eines "werbefreundlichen Programms" keine Rolle mehr spielt. Sollte sie eigentlich auch deshalb nicht, weil es ohnehin nicht gelingt. Schauen wir uns mal den 11. März an:


Man kann die Quotenermittlung ja ohnehin für eine riesige Lüge halten, aber wenn wir uns an den Zahlen hier festhalten, und die gesamte TV-Wirtschaft tut dies, dann erkennen wir, dass die öffentlich-rechtlichen TV-Programme für ihre Informationssendungen gebraucht werden und alles andere, wenn überhaupt, ein Publikum über im Alter über 49 anspricht.

Ich will damit sagen: ARD und ZDF sollten, da quasi steuerfinanziert, genau das machen, was zwar gebraucht wird, aber sich privatwirtschaftlich eben nicht von alleine regelt (auch so einer bin ich: nicht alles regelt sich durch den Markt): Allgemeine Informationsprogramme in hoher Qualität und dazu Unterhaltung in Nischen - die zu klein, zu gewagt, zu riskant, zu aufwendig für privates TV sind. Lieber hätte ich 3 arte-Sender, 2 ZDF Neos und 4 EinsPlusse als das x-te dämliche Quiz, den x-ten belanglosen Fernsehfilm, die x-te Vorabendserie, die genau so gut auch bei Sat1 laufen könnten. Aber eigentlich will ich die alle schon nicht mehr haben. Denn noch empfehlenswerter wäre doch ein BBC iPlayer in deutscher Version, eine digitale Riesen-Mediathek, verlässliche Online-Medien - Text, Audio, Video, aus Steuergeldern, die ohne Headline-Bait und Clicks durch Lügen auskommen. Der gesamte Rundfunk-Staatsvertrag mit seinen Sendelizenzen und dem Grundversorgungsauftrag wird ja ohnehin von einer Welle des Internetfernsehens derart unterspült, dass man sich jetzt schon an die übernächste Reform machen müsste. Die ganze Idee, man könne ein Volk "grundversorgen" und eine Art Bildungsauftrag quasi gezwungenermaßen vollziehen, ist ja in Zeiten mit 200 Sendern im Kabel und diesem Internetz in sich obsolet.
Welcome to reality:


Die Mehrheit ruft kostenpflichtig an, um "Mir egal" durchzugeben. Eine bestimmte Klientel ist also ohnehin schon verloren, und wenn man nochmal oben auf die Quote schaut, dann ist diese Klientel zu weiten Teilen 14-49 Jahre alt. Schaut euch mal in der Quote oben Platz 22 an: "Um Himmels Willen" auf ARD wird von 6,3 Millionen Menschen geschaut. Runde 5,5 Millionen davon sind 50 Jahre alt oder älter. Ich sage ja nicht, dass man für diese Leute kein Programm machen sollte. Ich sage bloß, dass man die anderen komplett verliert. Man kann die nicht zwingen, Nachrichten zu schauen. Man muss sie besser machen als andere, die von Werbung getrieben sind. Und für all diese Programme gilt natürlich: sie sind "opt in". Man schaut sie freiwillig. Insbesondere digital. Und dabei denke ich auch an die, die heute 12 Jahre alt sind. Und die noch nicht hinterfragen, warum ARD in wahrscheinlich 90% der Fernseher heute auf der 1 programmiert ist. Die aber alle keine Fernseher mehr in ihren Kinderzimmern brauchen, sondern Smartphones, Tablets und Laptops.

Also, demographischer Wandel hin oder her: Der öffentlich-rechtliche Rundfunk müsste eigentlich bereits jetzt radikal digital gehen: Digital first, und die TV/Radio-Angebote als eine Ableitung daraus sehen, bei der immer noch hinreichend viele Inhalte für das normale, lineare TV und das Geriatrie-Fernsehen abfallen. Und nicht andersrum, wie jetzt: Erst mal das TV füllen, irgendwie auf Quote kommen, und dann schauen, wie man das digital verwursten kann. Wenn sie für die Transition ins Digitale 100 Millionen im Jahr brauchen, was bedeuten würde, dass sie meine 73 Cent im Monat behalten wollen: Be my guest.

Read More

March 12, 2014

Werbung, die nicht wie Werbung aussieht

Gestern in meiner Timeline: "Schau mal, das süßeste Video der Welt". 20 Fremde, die sich offenbar noch nie zuvor gesehen haben, sollen sich vor laufender Kamera küssen. Klingt albern, ist es vielleicht auch, aber dann wird es doch herzergreifend und irgendwie freut man sich, Mensch zu sein, wenn man das sieht.

)

Das Gefühl dürfte, Stand jetzt, 12.3. vormittags, 21 Millionen mal aufgekommen sein, das ist jedenfalls die Zahl der Youtube-Abrufe.

Heute in meiner Timeline: "Das ist ja nur schnöde Werbung", "Betrug", "Alles Fake". Als machte das einen Unterschied. Immerhin behauptet das Modelabel, das dieses Video produziert hat, das Dargestellte sei echt.


Ist in meinen Augen auch total egal. Edeka: Der Supergeil-Song als Ganzes hat auf dem offiziellen Kanal fast 7 Millionen Views, was für ein deutsches Viral schon sensationell ist (auch wenn ein paar der Views aus dem Ausland kommen dürften - immerhin wurde der Song bei Buzzfeed, Mashable und Co. gefeatured). Hier fragt sich auch niemand, wie authentisch das ist, und jede zweite Fernsehsendung der letzten 2 Wochen hat entweder den Tanzbär eingeladen oder das Video wenigstens parodiert. Wenn Werbung mehr mitbringt als "Kauf jetzt, du Sau" oder austauschbares Marketing-Geseier* - hat offenbar niemand etwas dagegen, mit Werbung bombardiert zu werden - außer, die Werbung tarnt sich ein bisschen (wenn ich meinen heutigen FB-Newsfeed mal als Stimmungsbarometer nehme). Lerne: Wenn du Werbung machst, die nicht wie das aussieht, was wir als Werbung kennen, und wir ziehen uns das freiwillig rein, dann machst du zwar Werbung, die nicht nur nicht nervt, sondern sogar unterhält - aber offenbar zu Empörung führt, wenn sie nicht ultraklar als Werbung gekennzeichnet ist. Bizarr.

In einem davon völlig unabhängigen Projekt für einen Kunden diskutieren wir eine Kampagne mit Pre-Rolls in Youtube. Dort kann man entscheiden, ob man das Video nach 5 Sekunden "skippable" macht, Youtube nennt das "TrueView", und man bezahlt nur für die tatsächlich länger gelaufenen Videos. Oder ob man dem Seher 20-30 Sekunden Werbung einfach aufzwingt. Interessante Haltung des Kunden: Unsere "guten", unterhaltsamen Spots machen wir skippable: Wir gehen davon aus, dass es Leute gibt, die das sehen wollen. Unsere langweiligen Spots zwingen wir den Nutzern auf.

Das ist eigentlich ja die Ur-Logik von Werbung: Dass sie dir aufgezwungen wird. Niemand fragt mich, ob ich das Plakat sehen möchte oder die Anzeige. Oder den Spot mitten im Spielfilm, oder das alberne 4-Sekunden-Logo vor dem Fußballspiel. Hell, selbst Facebook fragt mich nicht, ob der Sponsored Post von "Bauchfett weg, jetzt sofort" in meiner Timeline cool ist oder nicht. Das ist derart gelernt, dass es Unternehmen dazu verleitet, Werbung zu machen, die nervt: Man kann es Dir ja aufzwingen.
Darin sehe ich einen der Gründe, warum die gestern noch grenzenlose Zuneigung zum Knutsch-Video in meiner Timeline heute in "Fake-Drecks-Betrug"-Empörung umgeschlagen ist. Während das bei Edeka (und bei anderen erfolgreichen Virals, etwa dieser hübschen Volkswagen Aktion) ganz eindeutig als Werbung erkennbar war, mögen viele "Wren Studio" im Vorspann für eine Filmproduktion gehalten haben. Als gäbe es neben der gesetzlichen in Medienerzeugnissen auch eine moralische Kennzeichnungspflicht für Werbung, selbst bei Youtube.

Selbst, wenn es nicht einmal "echte Fremde" waren, die sich da im Video geküsst haben, sondern Schauspieler, wäre es ein schönes Video (das erinnert mich daran, dass die W&V mal eine Enthüllungsstory veröffentlicht hat: Dass die Leute in der Faber-Lotto-Werbung gar nicht wirklich Lotto-Millionäre seien). Darf Werbung so aussehen, als wäre sie keine Werbung? Im Internet ja. Die Grenze zur Fake-Kundenrezension dürfte immer noch klar zu ziehen sein. Native Advertising, die Internet-Werbesau, die in den letzten Monaten durchs Dorf getrieben wurde, ist in seiner Struktur nicht viel anders. Auch hier wird Dir Werbung weniger aufgezwungen - sie wird wie Content verpackt und soll dich informieren, unterhalten - das, was Content eben auch macht.

Ich persönlich glaube an Werbung, die nicht wie Werbung aussieht, wenn sie mir im Gegenzug einen Wert gibt. Zum Beispiel Unterhaltung, oder das warme Gefühl, gerne Mensch zu sein. Auch wenn es gute Argumente gegen die angenommene Effizienz von Native Advertising und auch gegen die sogenannte "Banner Blindness" gibt, glaube ich, dass Unternehmen viel mehr Content Provider sind, als sie eigentlich selbst verstehen. Noch machen die meisten das nur in Facebook und anderen Social Networks, dass sie auf der Suche nach Inhalten sind, die irgendwie auch guter Content sind und trotzdem etwas mit ihren Produkten und Leistungen zu tun haben. Warten wir das unausweichliche Zeitungssterben ab. Warten wir das Ende des linearen Fernsehens ab. Beides kommt, so sicher wie das Amen in der Kirche, wir wissen nur nicht, wann genau. So, wie Anfang des Jahrtausends Unternehmen tonnenweise Musik gekauft haben, um sie zu verschenken, als Belohnung in Loyalty-Programme zu kleben oder zur Produktbeigabe zu machen (ich erinnere mich an ein Kilo Tchibo-Kaffee, das mit CD kam, oder an einen Multi-Millionen-Downloads-Deal von Coca-Cola, bin aber zu faul, die Links rauszusuchen), so werden sich Unternehmen auf Bewegtbildinhalte stürzen. Wenn Du Werbung hinkriegst, die nicht wie das aussieht, was wir heute Werbung nennen, bist du dann vorne mit dabei. Ja, mit riesigem Streuverlust. So what? Bei funktionierenden Viralspots zahlt man ja nicht für die Distribution. Man darf aber weiterhin extra zahlen, wenn man in einer reinen Media-On-Demand-Welt den Menschen Werbung aufzwingen will.




* zum Marketing-Geseier: Ich hab ja in den 90ern für BMW agenturseitig Werbung gemacht. Und in der Agentur haben wir geweint, weil die Texte immer gleich klangen. Nein, schon die Briefings klangen immer gleich: Fahrdynamik. Innovation. Design. Emotion. Freude am Fahren. Gähn. Und das war unabhängig von der jeweiligen Karre so. Immer der Logik folgend: Wenn man "emotional" in die Headline schreibt, ist die ganze Anzeige emotional. 
Fast 20 Jahre später - der neue BMW 2er. Ich hab den Anfang mal transskribiert:
"Das allererste BMW 2er Coupé ist nicht nur pure Freude am Fahren, sondern auch cool und sportlich. Mit ihm geht die Erfolgsgeschichte von sportlichen, emotionalen BMW Kompakt-Coupés weiter. Sein atemberaubendes Design, die beeindruckende Dynamik und die einzigartigen Fahreigenschaften werden Autofans weltweit begeistern. Dieses Auto ist Freude am Fahren pur." Wer sich über das Knutsch-Video empört, weil es Werbung ist, kann ja stattdessen sowas schauen.






Read More

March 11, 2014

Goobye De:bug

Wenn eine Tageszeitung wieder einmal die Segel streicht, haben wir in den Web-Reaktionen immer locker 50%-80% Häme. "Sterbt doch" denke ich allerdings auch selbst oft genug, wenn ich im Kiosk stehe, weiß, dass ich im Flieger nur die Nachrichten von gestern bekommen werde und nach einer Alternative suche, aber keine finde. Ich bin dahingehend versaut, dass ich eh schon nicht weiss, wann ich das alles lesen soll, was ich interessant finde - warum mir dann einen Papierklotz ans Bein binden, in dem mich wahrscheinlich nicht einmal 20% der Inhalte reizen werden? Bei dem Versuch der Akku-Schonung während der Tagesreise ohne Steckdose lande ich dann eher beim Sudoku-Heft als beim Spiegel, auch wenn die Sudoku-App, die ich sonst nutze, umsonst ist und um Tonnen besser als jedes Papier-Spiel.

Und warum hab ich nicht jedes Mal, wenn das so war, eine De:bug gekauft? Weiß ich jetzt auch nicht. Vielleicht, weil sie nicht in jedem Kiosk liegt. Vielleicht, weil sie nicht da liegt, wo ich hinschaue. Und ganz sicher, weil ich nicht daran gedacht habe. Scheint nicht nur mir so zu gehen: In den Beiträgen, die ich bisher zum vorläufigen Aus des Magazins gelesen habe, war kein bisschen Häme zu erkennen. Eher Reue, Selbst-Scham und das Bekenntnis, die De:Bug zwar geil zu finden, aber dann doch seit Ewigkeiten nicht mehr gekauft zu haben. Und auf der Website war man jetzt auch nicht jeden Tag. Schnell noch Facebook-Fan werden.

Eigentlich hat ja niemand mich, wie ich mich selbst sehe, so verstanden wie die De:bug. Allein der vorläufig letzte Titel. Smartcore. Fick das Betriebssystem. Netz, Musik, Pop, Technik, Digitale Gesellschaft, Modernes Leben, alles in Einem.
Und Technology is our friend. Aber in Freundschaft muss man ja investieren. Wenn ich die De:Bug nicht jedes Mal kaufe, wer denn dann?

Offenbar zu wenige. Schön ist, dass selbst der oben und hier nochmal verlinkte "Abschiedstext" optimistisch wirkt und sich schön vom "Mimimi" der Umsonstkultur-Beschwerer abgrenzt. Sogar mit Verweis darauf, dass Papier einen Wert an sich darstellt. Worüber man streiten kann. Vielleicht auch sollte. Oder muss, wieder einmal. Denn ich vermute ja die Gründe, weshalb wir eine Zeitschrift (jetzt fällt mir erst auf, was "Zeit-Schrift" für ein schönes Wort ist) nicht kaufen, die wir aber offenbar alle wirklich wertschätzen und gut finden, schon in der Nähe des Papiers. Da stimmt ja alles, Themenmix, Style, Brand, "Wer bin ich, wenn ich De:Bug lese". Papier ist für mich sicher einer der Gründe. Ein anderer ist in meinen Augen, dass ich diese Mischung, Netz, Musik, Pop, Technik, Digitale Gesellschaft, Modernes Leben, irgendwie mittlerweile selbst hinbekomme. Das war früher nicht so. Flipboard, Posts und Soundcloud-Mixes auf Facebook, Good Old RSS, Google Currents, der gelegentliche Tweet und Freundes-Empfehlungen drehen sich, Filter Bubble hin oder her, um all diese Themen, die mir wichtig sind, und für mich ganz persönlich kommt noch ein Schuss Fußball dazu. Nicht der kicker, den kaufe ich auch nicht mehr. Aber ich sehe der Familie von Jermaine Jones auf Instagram beim wachsen und leben in Istanbul zu, weil ich dem Account seiner Frau folge. Ich entdecke Musik selten über Spotify und meistens über Posts von Menschen, denen ich unter anderem deshalb folge, weil sie einen sensationellen Musikgeschmack haben. "Das alles war irgendwie unser Auftrag", schreibt Sascha Kösch in seinem persönlichen Rückblick unter die Sätze, die De:bugs Schaffen skizzieren, und ich will das gerne als Bumper Sticker unter mein eigenes Medienverhalten kleben. Mit der De:bug war der Weg dahin besser. Und irgendwann ist das debugging vielleicht auch durch, dann funktioniert etwas an den meisten Ecken und Enden echt gut. Insofern: Danke De:bug, Mission accomplished.
Read More

February 6, 2014

Blogger vs. Journalisten - Unterscheidungen aus einer analogen Welt

Der Bundestag akkreditiert Blogger nicht, weil sie keinen Presseausweis haben. Oder besser gesagt: Die Pressestelle des Deutschen Bundestages unterscheidet zwischen Bloggern und Journalisten, idealerweise anhand eines Presseausweises. Das scheint die derzeitige Praxis zu sein, und zu der ist viel (zurecht Empörtes) geschrieben worden - ich selbst habe auch wieder einen Haufen gelernt darüber, wie wer eigentlich Augenzeuge der Demokratie werden kann und darf. Zum Beispiel beim Telemedicus, der taz, aus erster Hand von Tobias Schwarz, der Deutschen Welle und und und.


Was da passiert, ist ein Musterbeispiel für einen der vielen Knotenpunkte innerhalb eines Digitalisierungsvorganges, einer der Momente, die schmerzen, in denen es Geburtswehen gibt und geahnte Wahrheiten vielleicht zu tatsächlichen Wahrheiten werden. Man kann (und muss vielleicht) der Pressestelle des Deutschen Bundestages zu Gute halten, dass es in der Tat sehr wahrscheinlich ist, dass sich rein physisch schon zu viele Leute um eine Akkreditierung bewerben (erinnert ein bisschen an München, NSU). Andererseits kann man (und muss vielleicht) der Pressestelle vorwerfen, dass das nicht sehr überraschend kommen dürfte. Was man ihr aber vorwerfen muss, ist, daraus den Schluss zu ziehen, dass Journalisten mit Presseausweis strukturell den Bloggern, seien sie haupt- oder nebenberuflich tätig, grundsätzlich vorzuziehen seien. Und es hat den Anschein, als handele die Pressestelle des Deutschen Bundestages so. Warum tut sie das? Weil es schon immer so war, insbesondere, als es noch keine Blogger gab. Das wäre die positivste Antwort, die man geben kann, und wenn man Digitalisierungsprozesse in Wirtschaft und Gesellschaft analysiert, trifft das auch häufig zu. Wenn man ein bisschen böswillig ist, interpretiert man das anders: Ein Journalist mit Presseausweis ist entweder angestellt oder steht in finanzieller Abhängigkeit zu größeren Gebilden (was nicht heißt, er wäre grundsätzlich journalistisch nicht unabhängig - es heißt nur, er steht in Abhängigkeiten). Das klingt jetzt linkstheoretisch marxistisch, aber es ist so, dass die Abhängigkeit besteht, weil die "größeren Gebilde" Produktionsmittel besitzen - im journalistischen Beispiel Druckerpressen, Vertriebe, Sendelizenzen und ähnliches. Deswegen gab es vor der Digitalisierung zwar "Quasi-Blogger", etwa zusammenkopierte Blättchen, unabhängige Magazinchen - aber aufgrund der Eintrittshürde Produktionsmittel konnten die immer nur sehr, sehr wenige Menschen auf journalistischem Weg erreichen. Heute ist das anders: Ich, du, er, sie, es kann theoretisch die ganze Welt erreichen. Aufgrund der Digitalisierung sind Markteintrittshürden weggefallen, Produktionsmittel haben sich demokratisiert, und auf einmal gibt es eine Masse an Piranhas, die an den riesigen ehemaligen Platzhirschen nagt. Das haben wir im Laufe der Digitalisierung schon tausend Mal gesehen, und wir werden es noch hunderttausend weitere Male sehen.

Im Fall des Journalismus ist dabei das Dramatische (wertfrei), dass damit die oben beschriebenen Abhängigkeiten wegfallen - der Blogger ist eine "unguided missile", der ist nichts und niemandem verpflichtet, der hat keinen Chef, kein Verlagshaus, keinen Sender im Nacken, und da kann man auch nicht einfach so anrufen, vom Rubikon faseln und hoffen, dass von dem Haufen Scheiße, den man da ausgekippt hat, hinreichend viel auf die Schreibtische der Redaktionen fällt, so dass die in Zukunft zwei Mal überlegen, bevor sie schreiben. Die deutsche Verlagslandschaft ist hoch konzentriert - 59% der Erzeugnisse werden von 10 Verlagsgruppen produziert. Bei den Kaufzeitungen decken die Top 5 Verlage entspannte 97% der Auflage ab. Man kann nicht behaupten, dass es gezielt darum geht, diese "größeren Gebilde" zu stützen oder dass man gezielt Einfluss nehmen wollte - aber rein intuitiv ist der Gedanke, dass man bei Journalisten dieser Unternehmen "weiß, wen man da im Haus hat" (und damit in letzter Konsequenz auch weiß, was ungefähr geschrieben wird, oder weiß, wem man im Zweifel aufs Dach steigen müsste) nicht von der Hand zu weisen. Das gilt im Positiven wie im Negativen: Der Panorama-Journalist und der Springer-Schreiber können halt beide eingeschätzt werden, so oder so. Aber wenn ein Markus Beckedahl mit netzpolitik.org keine Akkreditierung bekommt oder einem Tobias Schwarz bei seinem Versuch gesagt wird, dass man von Netzpiloten.de noch nie etwas gehört habe, dann unterliegt dem, gezielt oder nicht, sicher mindestens zum Teil dieses Gefühl von potenzieller, gefühlter Minimal-Kontrolle, die es bei Medien, von denen man schon gehört hat, ja irgendwie geben müsse. Wie gesagt - das ist bei neuen Teilnehmern in digitalisierten Märkten aufgrund wegfallender Markteintrittsbarrieren ein üblicher Vorgang. "Kauf nicht im Online Shop, die betrügen mit Kreditkarten und dein Produkt kriegst du auch nie" - so klang das 1998, heute ist es "Blogger haben halt keinen Presseausweis".

Zwar 2008, gab's 10 Jahre vorher aber noch massiver: Aufpassen beim Online-Einkauf!

Was es also braucht, ist ein Mechanismus, nach dem Akkreditierungen verteilt werden, der einer neuen Zeit angepasst ist. Damit geht ein - gefühlter oder tatsächlicher - Kontrollverlust einher, und auch das ist in allen Digitalisierungsprozessen zu beobachten. Und wie so oft ist der ohnehin schon eingetreten - aber das einzusehen, sich selbst einzugestehen und vor allen Dingen: das dann auch zu institutionalisieren, ist eine äußerst delikate Angelegenheit. Ende 2008 war es in den USA so weit, dass das Web in seiner Gesamtheit die Tageszeitung als Nachrichtenquelle überholt hatte. Das inkludierte allerdings auch die Web-Angebote von Tageszeitungen. Was auch häufig anzutreffen ist in der Digitalisierung: "Alles halb so schlimm, wir sind jetzt auch in der digitalen Welt dominant". Als Stütze dessen könnte man die BITKOM-Studie nehmen, die im Mai letzten Jahres vor der Bundestagswahl veröffentlicht wurde. Danach sind die oben genannten "größeren Gebilde", Verlage, Sender und Co., auch in der Online-Welt die wichtigste Quelle im Informationsverhalten der Bürger. Wenn man diese vorsichtig liest, findet man dort aber auch gute Argumente, warum die Blogger-/Journalisten-Unterscheidung in ihrem Grundsatz falsch ist. Zum Einen werden dort soziale Netzwerke getrennt von den Online-Angeboten der Tageszeitungen betrachtet, was in sich den gesamten Mechanismus, wie heutzutage Nachrichten zu Menschen gelangen, ignoriert. In Newsfeeds, Timelines usw. kommen die Nachrichten zu mir - nicht ich zu den Nachrichten. Und häufig genug reicht die Headline in meinem Newsfeed aus, um mich informiert zu fühlen - was im Übrigen das Endprodukt der journalistischen Tätigkeit ist, sofern sie sich nicht auf Werbekunden bezieht. Noch dramatischer, was sich wieder auf die Produktionsmittel bezieht: Ob die Pressestelle des Deutschen Bundestags selbst, eine Nachrichtenagentur, eine Tageszeitung, ein Blogger oder mein Nachbar eine Nachricht schreibt, ist den Social Networks vollkommen egal. Die Nachrichten werden gleichrangig ausgeliefert, in Twitter vollständig gleichrangig, in Facebook nach Relevanz, und das maßgeblich beeinflusst von der individuellen Beziehung zwischen Empfänger und Sender. Wenn ich also Tilo Jung mehr traue als Günter Jauch und mehr mit ihm interagiere, werden mir seine Beiträge prominenter angezeigt. Der eine produziert mit Media-Markt-Equipment, sendet selbst bei Youtube und neuerdings bei Joiz, der andere Sonntag abends live aus dem Gasometer in der ARD. Der eine ist eine "unguided missile", der andere gehört zu einem "größeren Gebilde". Der eine kriegt keine Akkreditierung, der andere lädt Minister ein und sie kommen gerne.

In besagter BITKOM-Studie, die wie gesagt ein paar fundamentale Mechanismen außer acht lässt, sind es dann immer noch 16% der Befragten, die sich explizit in politischen Blogs informieren, und 55% der 18-29jährigen, die sich in sozialen Netzwerken über Politik informieren. Das, liebe Pressestelle des Deutschen Bundestages, kann man in meinen Augen nicht ignorieren. Der Vorwurf, den man machen muss, ist also zweigeteilt: Erstens, dass man die falschen Kriterien heranzieht, um Akkreditierungen zu verteilen, und zweitens, dass man so tut, als sei man von der Menge der Anfragen überrascht und dieses zur Rechtfertigung für eben jene falschen Kriterien heranführt.

Der Druck darauf, neue, durch Digitalisierung entstandene Verhältnisse etwa durch Kriterien zur Akkreditierungsvergabe institutionalisiert anzuerkennen, wird weiter wachsen. Zum Einen durch sinkende Relevanz der obig beschriebenen "größeren Gebilde", die so sicher ist wie das Amen in der Kirche (die Frage ist nur, wie schnell das in spürbarem Ausmaß kommt) - auch das haben wir aus den Digitalisierungsprozessen der Vergangenheit gelernt. Zum Anderen werden die Blogger an Einfluss gewinnen und auch andere Wege, etwa Live-Streams politischer Vorgänge statt physischer Präsenz, zur Berichterstattung nutzen. Das wird der Gang der Dinge, und dem wird sich auch der Bundestag nicht verschließen.

Wie sagt Jeff Jarvis so schön?
"There are no Journalists, there is only the service of Journalism".


Live with it.




Read More

January 30, 2014

Feb 11 - If we don't watch out, Skynet will happen

It's no coincidence that I brand my professional activities with "technology is our friend" - because i firmly believe (especially in a business context) that digitization and new technologies will help to create better products - and to those who offer them, better business. But this does not come for free. We have to learn, adapt, create and innovate - to make technology our friend. This goes for societies and humankind in general as well, and I have the impression that we're not trying hard enough. In this case, technology will eat us alive.
We ignore that technology will replace millions of jobs worldwide in the near future - or at least we should have a much more lively debate about coding and engineering in primary and high school and an even more open debate on an unconditional basic income. And seeing that the economic system has very basic structural flaws that lead to bizarre (at best) conditions like 85 people owning as much wealth as the bottom 50% of the world population, we use technology to optimize financial markets and carve out the structural flaws even more - make them more visible and more impactful. I don't know of any serious political effort to understand the role of computing, software and programmes in creating and deepening the financial crisis. To sum it up: It will not work that way.

Not only will we run into serious economic and social trouble, we might even create our own little Skynet. Remember? Skynet is one of these science fiction visions, featured in the Terminator franchise. It was built as a defense software to avoid human error in managing the nuclear arsenal and all other military systems - but turned self-learning, self-aware and finally recognized that all humans would want to shut it down, concluding that it had to kill all humans to survive. Yes, science fiction, of course. But what we are doing nowadays with our handhelds, tablets, smartphones etc. was science fiction (at best) 35 years ago.
Look at this video (klick link):


"It takes over 2 hours and over 5 dollars in telephone fees to download the text of a newspaper".
Of course without images, and no one thought of videos these days, much less of the possibility that all of us may produce videos and photos anytime, anywhere. So 35 years from now, it is almost certain that smartphones, laptops, smart TVs, game consoles and their capabilities will look at least as ridicolous to the people as this video here looks to us.

Because today (more accurately: 18 months ago), it takes 16.000 computers to run a self-learning program that will teach itself to recognize cats - from thumbnails taken from random 10 million Youtube videos. Quote: "We never told it during training, 'This is a cat', said Dr. Dean [...], ': It basically invented the concept of a cat.' [...]" The Google brain assembled a dreamlike digital image of a cat by employing a hierarchy of memory locations to successively cull out general features after being exposed to millions of images. The scientists said, however, that it appeared they had developed a cybernetic cousin to what takes place in the brain's visual cortex."

Read carefully. "It had appeared they had developed"... reminds me of that autosuggest joke:


All kidding (memes, cats) aside, it seems that this ability of the machine was not just an accident, but way better than expected - at least they cannot really explain how the machines did that. That's my takeaway when a Google engineer, probably some kind of genious, explains that their "deep learning" systems can solve problems that their engineers CANNOT really explain or could not have created themselves. Even though the article on The Register ends with "Skynet? No", I would not be so sure of that - in the long run. Don't think 5 years ahead, think 30 years. Identifying any face from whichever angle on any photo? No problem. Identifying any object on any photo? No problem. Maybe we are close to that even today. So now add the three letters N, S and A to it. Most of what we read about them is 5 or more years old. That is yet another field where we as businesses, as individuals and, worse, as whole societies do not seem to take as much influence as we need to make the technological capabilities our friend. Machines that can learn by themselves and are already now able to extract information from a huge number of data in ways that engineers cannot explain - this means that not only the NSA seems to be out of anyone's control, but very well some day the NSA's programs might be out of their control. Sounds a lot like Skynet to me. I thought we had at least one or maybe even some decades left until that would happen - that there are machines really capable of learning (not a simulation of learning). So in the absence of a better plan than to take it to the streets and tell the governments to finally accept the unbelievable impact of digitization and technology as a whole on society, economics, business and in the end on human life, I can just recommend to support EFF.org and at least take part in the February 11 protests.











Read More