Der Brief aus der Zukunft
 
  Ansicht im Browser  
 
 
 
 
 
   
 
  Guten Tag,

wenn gefälschte Nachrichten auf echtes Leben treffen, dann kann das böse ausgehen. Und führt uns vor Augen, wie kraft- und machtlos die Anbieter so genannter sozialer, auf jeden Fall aber digitaler, Plattformen dem Problem der Desinformation bislang entgegengetreten sind.
In Indien wurden in den vergangenen Monaten insgesamt neun Menschen von wütenden Mobs getötet, weil Nutzer über WhatsApp gefährliche Gerüchte über sie verbreitet hatten. Sie sollen angeblich Kinder entführt, manchmal auch getötet haben. Weil sie Außenseiter waren, oft ethnischen Minderheiten angehörten, schoss sich eine auf Rache gebürstete Menge über den Messaging-Dienst auf die jeweiligen Opfer ein – mit Lügen, wilden Behauptungen, der ganzen Klaviatur der digitalen Desinformation. Der WhatsApp-Mutterkonzern Facebook schaltete daraufhin diese Woche ganzseitige Anzeigen in indischen Tageszeitungen - mit zehn Tipps, woran Nutzer Falschinformationen erkennen.

Und auch sonst gibt sich der weltweit führende Social Media-Konzern in diesen Tagen entschlossen, den auf seiner Plattform grassierenden Lügen und Desinformationen endlich etwas entgegen zu setzen. So will der Konzern in Zukunft seine riesigen Datenschätze für Sozialwissenschaftler öffnen, die erforschen, wie sich Falschinformationen in dem sozialen Netzwerk verbreiten und wie sie demokratische Wahlen beeinflussen. Warum Facebook allerdings die Verschwörungsplattform „InfoWars“ dann doch lieber nicht runternehmen möchte, bleibt ein verschwörerisches Geheimnis. Auf die Frage eines CNN-Reporters bei einer Facebook-Veranstaltung sagte John Hegemann, der Chef von Facebooks News Feed: „I guess just for being false that doesn't violate the community Standards."

Auch Twitter hat eine große Offensive gegen Manipulation im Netz angekündigt: Täglich will das Unternehmen mehr als eine Millionen mutmaßliche Fake-Accounts sperren, es soll um sechs Prozent der Zugänge gehen. US-Präsident Donald Trump verlor denn auch prompt 300.000 "Follower".

Vielleicht ist nach den jüngsten Skandalen bei den großen Tech-Konzernen tatsächlich die Erkenntnis eingetreten, dass sie mehr Verantwortung für die Inhalte auf ihren Plattformen und den Schutz ihrer Nutzer übernehmen müssen. Womöglich spielt aber auch die Angst vor dem langfristigen Bedeutungsverlust eine Rolle. Bei der jungen Zielgruppe sind Facebook und Twitter nicht mehr so angesagt. Eine Studie des Pew Research Centers zeigte kürzlich, dass nur noch die Hälfte der 13- bis 17-Jährigen Facebook und gerade mal jeder Dritte Twitter nutzt. Die neuste Offensive der Tech-Giganten gegen Desinformation dürfte also auch eine Kampagne sein, um das angekratzte Image wieder aufzupolieren.  
Kriegen wir das Hacking unserer Wirklichkeit durch grassierende Halb- und Nichtwahrheiten gestoppt? Nur, wenn alle stärker sensibilisiert sind, dass nicht jede vermeintliche Nachricht im Netz auch eine echte Information ist, Was gerade geschieht, ist nur ein erster Schritt zu Friedensverhandlungen im neuen Informationskrieg.


Wenn ihr Fragen oder Anregungen habt: Wir freuen uns auf Feedback!


Eure Miriam
 
 
 
 
 
EINBLICK
 
 
 
 
  Wird „Brave New World“ Realität?

Wo immer die Zukunftsforscherin Amy Webb auftritt, füllen sich die Hallen. So wie beim Technologie-Festival South By Southwest in Austin in diesem Frühjahr. Dort standen die Menschen stundenlang an, um ihren Vortrag nicht zu verpassen. In Austin prophezeite Webb das Ende des Smartphones. Mit ada-Autorin Astrid Maier sprach die Futurologin über voreilige Autos und warum sie gerne selbst darüber entscheiden würde, wie laut die Musik ist, wenn sie rückwärts in ihre Garage einparkt. „Wir verlieren sekündlich die Kontrolle über unsere Entscheidungen an KI-Systeme“ sagt Webb. Mit Astrid unternahm die Zukunftsforscherin im Laufe des Gesprächs ein dunkles Gedankenexperiment. Was dabei herauskam, liest Du hier:

 
 
 
Ganze Geschichte lesen
 
 
 
 
 
BURN TO LEARN
 
 
 
 
 
„Vielen Dank für Ihre Mail, die ich niemals lesen werde…“

Wer den ersten Tag nach dem Urlaub nicht stundenlang damit verbringen will, alle eingegangen Mails zu lesen und zu beantworten, checkt meist regelmäßig während der Reise seine Mails – was der Idee des „Abschaltens“ im Urlaub nicht gerade zuträglich ist. Der US-Unternehmer Brad Feld rät zu einer anderen Strategie: In seiner Abwesenheitsnotiz kündigt er an, dass er sämtliche Mails nach seinem Urlaub einfach archivieren und niemals lesen werde. Wer ein dringendes Anliegen habe, solle sich an die Kollegen wenden oder die Mail nach dem Urlaub noch einmal senden. Eine mutige Ansage im Zeitalter der Dauer-Erreichbarkeit.

Ähnlich kontrovers ist die neue Regel, die mehrere Universitäten in den USA eingeführt haben: Sie verlangen eine Klima-Abgabe von Wissenschaftlern, die mit dem Flugzeug zu Konferenzen anreisen. Sie wollen die vielreisende Forscher-Community dazu ermuntern, öfter die Bahn oder andere umweltfreundlichere Verkehrsmittel zu nutzen. Eine Doktorandin probierte es aus und verbrachte 27 Stunden im Zug.

Wie nutzt man so viel Reisezeit? Vielleicht, indem man spielerisch Programmieren lernt. Ein polnisches Start-up hat einen Roboter namens Photon entwickelt, der sich, zugegeben, eigentlich an Kinder richtet. Mit einer einfach gestalteten App können sie dem Roboter nach und nach verschiedene Funktionen beibringen. Photon soll bald auch auf den deutschen Markt kommen. Allerdings ist der kleine Coding-Lehrer ein eher teures Spielzeug: In Polen ist er momentan für umgerechnet 184 Euro zu haben.
 
 
 
 
 
 
SERENDIPITY
 
 
 
 
 
Lernen in der BlackBox
 
Braucht ein Algorithmus Selbstbewusstsein? Grund genug hätte er, eines zu entwickeln. Denn längst werden ganze Teile unseres Lebens durch Algorithmen ausgewertet und gesteuert. Wer viel Einfluss hat, verfügt üblicherweise über ein großes Selbstbewusstsein. Aber darum geht es natürlich nicht. Algorithmen haben kein Bewusstsein und also auch kein Selbstbewusstsein. Und da beginnt das Problem.

Es ist fast ein bisschen lustig, dass die Europäische Datenschutzgrundverordnung (DSGVO) von Unternehmen verlangt, sie sollen doch bitte erklären können, wie automatisierte Systeme Entscheidungen treffen. Wie erklären, was in einer BlackBox geschieht? Manche Machine Learning Algorithmen sind für Menschen so transparent wie die Gewässer in den Sümpfen Floridas. Bei beiden darf man sich nicht wundern, wenn plötzlich etwas Bissiges daraus auftaucht. An vielen Stellen können Vorurteile und Verzerrungen den algorithmischen Entscheidungsprozess beeinflussen. Wer das nicht merkt, verstärkt mit Hilfe der Software die Probleme, die er schon als Mensch hat. Maschinen werden also menschenähnlich in einem Phänomen, das nach dem Philosophen Michael Polanyi als “Polanyi Paradox” bekannt ist. Polanyi argumentiert, dass Menschen mehr wissen, als sie selbst beschreiben können. Das gilt jetzt auch für Software. Anders als Menschen sind Maschinen aber keine guten Geschichtenerzähler. So sehen das auch Erik Brynjolfsson und Andrew McAfee, zwei Forscher am MIT und durchaus optimistisch, was den Nutzen Künstlicher Intelligenz angeht. Algorithmen können nicht selbst begründen, warum sie zum Beispiel aus einer Vielzahl von Bewerbungen einige wenige auswählen. Es bleibt also doch wieder an uns Menschen hängen zu schauen, was der Algo so treibt. Das ist dann eine moderne Form der Personalentwicklung: Menschen vor der Diskriminierung durch Algorithmen zu schützen, die von denen gar nicht böse gemeint ist. Dazu braucht es die richtigen Metriken und statistischen Modelle einer Rechenschaftspflicht für Algorithmen mit Macht, aber ohne Selbstbewusstsein.
 
 
 
 
 
WEITER WEG
 
 
 
 
 
Fake it till you make it
 
In den USA verbreitet sich ein Phänomen mit dem Namen „Wizard of Oz“-Technik: Hinter intelligenten Bots stecken in Wahrheit normale Menschen, die nur so tun, als seien sie Roboter. Immerhin ist die Entwicklung künstlicher Intelligenz teuer und aufwändig. Bis sie den Bots wirklich glaubhaftes menschliches Verhalten antrainiert haben, weichen manche Unternehmen lieber auf Fake-Roboter (sprich: Menschen) aus.
 
 
 
 
 
ADA'S ANNOUNCEMENT
 
 
 
 
 
Jetzt neu: Unser Podcast

Welche Moral brauchen Maschinen? Was kommt nach dem Blockchain-Hype? Und wie ist Sex mit Robotern? Mehr dazu hörst Du ab sofort in unserem ada-Podcast.
In Folge 1 sprechen Miriam Meckel und Astrid Maier über Ethik der Algortihme. Sie lassen das Gespräch zwischen Bundeskanzlerin Angela Merkel und dem humanoiden Roboter "Sophia" sowie das Interview mit dem Bestsellerautor Yuval Noah Harari Revue passieren. Können wir Robotern unsere Werte einprogrammieren?
Hier könnt Ihr sie nachhören:
 
 
 
 
 
 
ADA
AUTORINNEN UND AUTOREN
 
 
 
 
 
 
Miriam Meckel
 
 
Astrid
Maier
 
 
Sven Prange
 
 
Milena Merten
 
 
Lea Steinacker
 
 
 
 
Wenn dir dieser Brief gefallen hat, schick ihn weiter an eine Freundin oder Freund.
Wenn er dich nervt, schicke ihn an jemanden der dich nervt.
 
  weiterempfehlen  
 
 
 
 
 
Sie bekommen diesen Newsletter, weil Sie ihn mit der E-Mail-Adresse max.mustermann@mailservice.wiwo.de bestellt haben. Hier können Sie den Newsletter abbestellen.

Impressum
Handelsblatt GmbH (Anbieter i.S.d. §§ 5 TMG, 55 RStV)
Toulouser Allee 27, 40211 Düsseldorf
E-Mail: online@wiwo.de
Telefon: 0800 723 831 1 (kostenlos)
Geschäftsführer: Frank Dopheide, Ingo Rieper, Gerrit Schumann
AG Düsseldorf, HRB 38183
UID: DE812813090