Ansicht im Browser  
 
 
 
 
   
 
 
Das Sammeln von Daten lässt sich nicht verhindern. Die Kontrolle über Daten aber neu organisieren.  Quelle: Giphy
 
 
  Guten Tag,

als die Finanzchefin der Google-Mutter Alphabet vor einigen Wochen auf einem Podium in Davos saß, versuchte sie eine verbreitete Metapher zu korrigieren: „Daten“, sagte Porat, „sind nicht das Öl des 21. Jahrhunderts. Daten sind das Sonnenlicht des 21. Jahrhundert. Sie sind theoretisch unbegrenzt verfügbar und jeder kann etwas daraus machen.“ Das ist einerseits ein faszinierender Gedanke. Und doch entspricht diese Sicht auf die Dinge vor allem den Interessen von Google und der anderen großen Netz-Konzerne. Denn sie täuscht darüber hinweg, dass die Daten zwar theoretisch unbegrenzt verfügbar, aber eben nicht für jeden nutzbar sind. Sie sind in erster Linie für jene nutzbar, die mit ihren Dienstleistungen Daten sammeln und dann von der Allgemeinheit abschirmen. Dass dies ein Problem ist, kristallisiert sich immer stärker heraus. Und so nehmen in diesen Wochen die Aktivitäten zu, diesen Zustand zu verändern.

Zum einen entwickeln sich Geschäftsmodelle, die Nutzer*innen die Hoheit über ihre Daten zurückgeben wollen (dafür könnt ihr auch in unseren Podcast "Ist das Internet kaputt?" hören). Oder sie zumindest ökonomisch profitieren lassen wollen. Die Logik dahinter: Wenn Nutzer*innen schon nicht verhindern können, dass ihre Daten gesammelt werden, dann sollte man sie dafür wenigstens entlohnen. Start-ups wie Digi me oder Citizen Me machen bei Entlohnungen von um die fünf Dollar Nutzer*innen zwar auch nicht reich – schaffen aber immerhin ein Bewusstsein für die Datenfrage. Der kalifornische Gouverneur Gavin Newsome warb diese Woche ebenfalls dafür, Nutzer*innen einen Return auf die abgegebenen Daten zu zahlen.

Auch in Europa wird das Thema politisch: Hier schafft die Debatte sogar noch ein kleines Wunder: Nämlich, dass von einem Wahlkampf womöglich doch noch neue Ideen ausgehen können. Europas Sozialdemokrat*innen fordern, einen gemeinnützigen Datenberg zu schaffen. „Wir wollen Daten für das Gemeinwohl einsetzen und auch der Zivilgesellschaft Zugang eröffnen“, sagte SPD-Spitzenkandidatin und Bundesjustizministerin Katarina Barley bereits im ada-Interview. Und die Idee, so schwammig sie mitunter noch ist, nimmt tatsächlich Fahrt auf. Auch, weil selbst Datensammel-Kritikern längst klar ist: Big Data birgt nicht nur Überwachungsgefahren sondern auch unzählige Chancen, intelligente Lösungen für Alltagsprobleme zu bringen. Ob in der autonomen Mobilität, im Gesundheitswesen oder in der Energieversorgung.

Die entscheidende Frage dabei ist nicht, ob wir diese digitale Zukunft wollen, sondern wer diese Daten kontrolliert. „Gesellschaft und Politik müssen dafür sorgen, dass die Zukunft digital und nachhaltig, aber eben nicht autoritär wird“, schreibt der Soziologe und Datenforscher Nils Zurawski. „Denkbar wären Formen solidarischer Datenspeicherung, eine Art Daten-Genossenschaft, was auch bedeutet, dass neue Modelle gesellschaftliches Zusammenlebens im digitalen Zeitalter gedacht werden müssen.“ Da ist noch viel Detail-Denkarbeit zu leiten. Aber sie lohnt sich. Denn dann wären Daten wirklich Sonnenstrahlen. Nur auf Googles Geschäftsmodell, da ruhte dann ein Schatten.

Wenn ihr Fragen oder Anregungen habt: Wir freuen uns auf Feedback!


Eure Miriam
 
 
 
 
 
SERENDIPITY
 
 
 
 
 
Verunsicherte Algorithmen

Jeder kennt sie, die Menschen, die mit einer unbeschreiblichen Sicherheit durchs Leben gehen und auf jede Frage eine Antwort haben. Betone: eine! Unsicherheit oder gar Dilemmata kennen sie nicht, denn sie wissen immer, woran die Welt ist, meist besser als diese selbst. Damit machen sie den Algorithmen erschreckende Konkurrenz. Denn die wissen nach dem binären Prinzip der ausschließlichen Alternativen auch immer genau Bescheid: richtig oder falsch, schwarz oder weiß, null oder eins.

Wenn Algorithmen nun immer häufiger eingesetzt werden, um ethisch relevante Entscheidungen zu treffen (z.B. beim selbstfahrenden Auto), kommt man mit der binären Logik nicht weit. Ethische Fragen lassen sich selten bis nie binär entscheiden. Wenn die Alternative Leben oder Tod lautet, wird alles drumherum schnell sehr trist. Der Forscher Peter Eckersley von “Partnership on AI” hat deshalb die Idee entwickelt, Unsicherheit in Algorithmen einzuprogrammieren. Verunsicherte Algorithmen müssen sich über mehrere Lösungsalternativen mit ihren jeweiligen Folgen an ein Problem herantasten und dann die Entscheidung an die Menschen zurückspielen.

Das ist eine kluge Idee, die mittelfristig die Zusammenarbeit von menschlicher und künstlicher Intelligenz verbessern könnte. Eine Beziehung, in der ein Partner immer ganz sicher, der andere aber oft unsicher ist, bringt Konflikte mit sich. Der unsichere (hier: Mensch) neigt dann dazu, seinen Selbstwert immer stärker aus der Beziehung zum anderen (hier: Algorithmus) abzuleiten. Auf Dauer führt das zu ungesunden Abhängigkeiten. Wenn beide gleich sicher oder unsicher sind, kommen Sie miteinander deutlich besser klar. Unsichere Algorithmen sind folglich nicht nur eine interessante Idee für die komplexen ethischen Fragen unserer Zeit. Sie könnten auch der Beziehungskitt für die künftige Mensch-Maschine-Partnerschaft sein.
 
 
 
 
 
 
 
 
 
BURN TO LEARN
 
 
 
 
  In Love with Rasputin

Die Kollegin Astrid hat uns diese Woche alle erschreckt: Sie äußerte einen neuen Traum-Job, der in der ada-Welt zumindest so zunächst nicht vorgesehen ist. Sie wolle, schrieb sie uns, künftige Chief Rasputin Officer werden. Eine Karnevalslaune schied angesichts der norddeutschen Prägung der Kollegin aus, stattdessen schürft das fröhliche Ansinnen tiefer: Sie war auf eine Analyse der Financial Times gestoßen, die einem spannenden Phänomen nachgeht: Job-Titel, gerade in gehobenen Positionen, klingen immer mystischer. Statt Chief Digital Officer jetzt eben Chief Rasputin Officer. Oder so.

Jahre lang galt, dass vor allem Führungstitel immer sperriger wurden, weil sie möglichst viele Kompetenzen übermitteln sollten. Es entstanden die Vice Presidents, Chief Irgendwas Officer und so. Heute dagegen gilt: Je mystischer, desto wichtiger scheint ein Job zu sein. Einige der von der Autorin der FT befragten Expert*innen führen das auf die Technologisierung zurück: Mehr denn je seien heute Freigeister und Querdenker*innen gefragt – die dürfe man nicht in enge Funktionskorsetts zwängen. Die Autorin selbst fragt allerdings auch: Oder spiegelt der Drang zum Chief Nonsense-Officer die schwere Sinnsuche vieler Unternehmen in der heutigen Welt wider? Wir haben jedenfalls schonmal ausprobiert, wie unsere Astrid optisch als Chief Rasputin Officer wirken würde…und würden doch lieber die alte Astrid behalten:

 
 
 
 
 
Von Unserem Partner
 
 
 
 
  ANZEIGE

Innovation made in Germany auf der SXSW 2019

Auch 2019 tauschen sich die Digital- und Kreativbranche im German Haus auf der SXSW Conference in Austin, Texas über Best Practices aus und knüpfen ein globales Businessnetzwerk. Im Themenschwerpunkt Innovation dreht es sich vom 9. - 12.3. u.a. um Future of Mobility, New Media und die Einbindung neuer Technologien. Im Anschluss steht bis zum 14.3. die Musikwirtschaft, aber auch hier Schnittstellen wie Creative Tech im Mittelpunkt.

Programm-Highlights sind u.a. die Lufthansa FlyingsLab Konferenz und das von der ZEIT-Tochter CONVENT kuratierte Format zum Thema Plattform-Ökonomie mit Dorothee Bär, Beauftragte der Bundesregierung für Digitalisierung im Bundeskanzleramt. Weiteres Highlight: der TOA Worldtour Stop am Abend des 9.3.; veranstaltet von Tech Open Air, Europas größtem, interdisziplinärem Technologie-Festival.

 
 
 
 
 
DIGITAL GOOD LIFE
 
 
 
 
 
Lernen im Schlaf
 
Man kann auch auf dem Weg in die Zukunft am Steuer einschlafen. Irgendwer oder irgendwas wird dabei dann hoffentlich die vorausschauende Übersicht behalten. Wenn es kein menschlicher Beifahrer ist, dann vielleicht das selbstfahrende Auto, das bald mehr Gouvernante ist als Vehikel. So erzählt es uns eine Kurzgeschichte, die der amerikanische Autor TC Boyle kürzlich im New Yorker veröffentlicht hat. Die Shortstory “Asleep at the wheel” lässt sich als Erweckungserzählung lesen darüber, dass wir die Fahrt Richtung Zukunft nicht den zunehmend autonomen Systemen überlassen sollten.

In der Geschichte werden Obdachlose nachts durch autonome Überwachungsroboter belästigt und um den Schlaf gebracht. Die Roboter patrouillieren die Gegend, und alle 30 Minuten ist es aus mit dem Schlaf, wenn der unförmige Koloss herangefahren kommt, einen Scheinwerfer auf die Obdachlosen richtet und ausruft: “What is the situation here?” Einer der Obdachlosen antwortet schließlich: “Die Situation nennt man Schlaf”, was den Roboter in keinerlei Hinsicht beeindruckt.

Verständlich, denn er kann mit dem für Menschen lebenswichtigen Konzept Schlaf nichts anfangen. Ein Forschungsprojekt italienischer Wissenschaftler*innen könnte dahingehend Abhilfe schaffen. Sie haben ein künstliches neuronales Netzwerk geschaffen, das schlafen kann, um besser zu lernen. Mathematisch wurden ihm vom Menschen abgeleitete Schlafmuster einprogrammiert, inklusive Tiefschlaf- und REM-Phasen, in denen das Netzwerk das tut, was auch Menschen während des Schlafens machen: Wichtige Informationen und Erfahrungen konsolidieren, weniger wichtige aussortieren. Das Ergebnis ist beeindruckend: Ohne algorithmische Nickerchen erreichte das Netzwerk eine Kapazität von 0,14 gespeicherten Bits pro Synapse. Mit programmierten Schlafphasen kam es auf 1,0 Bits pro Synapse. Es gibt also Hoffnung für uns. Wo Maschinen den Vorteil des algorithmischen Schlafs zu nutzen lernen, werden sie vielleicht auch lernen, den Menschen ihre Nachtruhe zu lassen.
 
 
 
 
So sieht es aus, wenn Googles neuronales Netzwerk “Deep Dream” Alpträume von einem Mittagessen hat Quelle: IBTimes
 
 
 
 
 
PODCAST
 
 
 
 
 
Im Streaming-Rausch
 
Netflix hat einen echten Boom ausgelöst: Längst laufen verschiedene Streaming-Dienste dem linearen Fernsehen den Rang ab. Wohin führt das alles? Das diskutieren Léa Steinacker und Miriam Meckel in unserer neuesten Podcast-Folge.
 
 
 
           
 
 
 
 
 
ADA
AUTORINNEN UND AUTOREN
 
 
 
 
 
 
Miriam Meckel
 
 
Astrid
Maier
 
 
Sven Prange
 
 
Milena Merten
 
 
Léa Steinacker
 
 
 
 
 
Folgt uns auf Twitter, Facebook und LinkedIn!
 
 
 
 
Wenn Dir dieser Brief gefallen hat, schicke ihn weiter an eine Freundin oder einen Freund. Wenn er Dich nervt, schicke ihn an jemanden, der Dich nervt.
 
  weiterempfehlen  
 
 
 
 
 
Sie bekommen diesen Newsletter, weil Sie ihn mit der E-Mail-Adresse max.mustermann@mailservice.wiwo.de bestellt haben. Hier können Sie den Newsletter abbestellen.

Impressum
Handelsblatt GmbH (Anbieter i.S.d. §§ 5 TMG, 55 RStV)
Toulouser Allee 27, 40211 Düsseldorf
E-Mail: online@wiwo.de
Telefon: 0800 723 831 1 (kostenlos)
Geschäftsführer: Frank Dopheide, Ingo Rieper, Gerrit Schumann
AG Düsseldorf, HRB 38183
UID: DE812813090