Single post

Facebook führt „DeepText“-Intelligenz zur semantischen Filterung von Messages und Statusposts ein.

Relativ sang- und klanglos in Bezug auf mögliche Bedenken stellt Facebook vor ein paar Tagen sein neuestes Künstliche Intelligenz-Feature „DeepText“ vor [1].

„DeepText“ ist ein autonom lernfähiges System (basierend auf neuronalen Netzen etc.) zur semantischen Verarbeitung natürlicher Sprachen. Es geht darum, einzelne Posts oder Textfragmente in ihren Zusammenhang einordnen zu können. Beispiele von denen Facebook spricht, sind etwa: „I like blackberry“ entweder als bezogen auf die Frucht oder die Handymarke erkennen zu können. Oder „brother“, „bro“ und „broter“ (Rechtschreibfehler) automatisiert als semantisch nah verwandte Worte zu handhaben – ohne dass jemand manuell ein Wörterbuch für alle solchen Slang-Gebrauchsweisen erstellen müsste.

Was sich dahinter verbirgt ist ein weiterer Schritt zum algorithmenbasierten Ökonomisieren und Policing von user content. Anwendungsmöglichkeiten, von denen Facebook selbst spricht, sind:

  • Wenn jemand einen Status-Post schreibt, in dem er seine alte Waschmaschine anbietet (oder eine Wohnung zur Verbietung, oder einen Job, oder eine Dienstleistung etc.), dann soll das automatisch geparsed werden, um es für weitere Facebook-Dienste nutzbar zu machen. In diesen Screenshot sieht man, wie aufdringlich diese (bereits existierende) Funktion ist:

    „Are you selling something?
    Create a Sale post to sell your item faster. Only post as a discussion if you’re not selling something.“

  • Die Vorstellung der „DeepText“-Technik auf dem Facebook Tech-Blog zeigt stolz ein Video mit einer Messenger-Konversation, in der auftomatisch erkannt wird, dass die eine von den beiden Personen gerade ein Taxi (oder ein „Uber“) braucht.

  • Mit der automatisierten Klassifizierung von Spam und Hate Speech wird außerdem geworben. Wobei die angaben zu diesen heiklen Themen vage bleiben, harmloser und ausführlicher wird das Beispiel einer automatisierten Relevanzbemessung im Fall von Fanpost beschrieben:

    „Many celebrities and public figures use Facebook to start conversations with the public. These conversations often draw hundreds or even thousands of comments. Finding the most relevant comments in multiple languages while maintaining comment quality is currently a challenge. One additional challenge that DeepText may be able to address is surfacing the most relevant or high-quality comments.“ [1]

Automatisiertes content policing für Facebook posts und messages

Es ist jetzt schon schwierig, auf Facebook ein vollumfängliche soziale Unterhaltung zu führen, ohne mit den automatisierten oder semi-automatisierten content-Filtern zu kollidieren. Das Internet ist voll mit leicht auffindbaren Beispielen, hier nur drei:

  • Hier ein Screenshot [2] mit einem Dialog „We removed something you posted“. Als Gegenstand dieser Zensur wird eine Nachricht gezeigt mit dem Inhalt: „I love France“ und dann ein Link zu einem journalistischen Aritkel über die „Le nu masculin“-Ausstellung im Musée d’Orsay.

  • Nicht nur männliche Nackheit ist betroffen: Libertäre Lobbyorganisationen in den USA erzürnen sich darüber, dass ein Blog-Post [3] mit Foto über eine Bronzestatue mit nackter weiblicher Brust entfernt wurde – und auch die darauf sich entspinnende Diskussion, in der Worte wie „boobs“ und „bare-breasted statue“ vorkamen, wurden gelöscht.

  • Hier berichten Leute aus dem linken Spektrum in einem ausführlichen Blog-Post, wie eine Nachricht mit dem Inhalt

    “not sure they would be taken down. look at the white supremacist crap that has been allowed to remain up, including attacks on Sylvia Posadas, Karen McRae, Elise Hendricks and myself.”

    automatisch entfernt wurde. Lustigerweise tauschen die sich in der betroffenen Facebook-Konversation gerade darüber aus, wie viele Posts z.B. mit homophoben oder anti-palästinensischen Statements vorkommen, nicht zensiert werden – während die Handhabe anti-israelischer Statements eine andere sei, wofür in dem wegzensierten Post dann Gegenbeispiele genannt werden.

Anyway, es geht hier darum: Für Facebook sind hate speech, spam und „unerwünschter“ content in Bild und Schrift eines der größten politischen, gesellschaftlich wahrgenommenen und ökonomischen Ärgernisse. Dieser Artikel hat uns gelehrt, wie in „digitalen Sweatshops auf den Philippinen“ tausende minimal bezahlter, nicht krankenversicherter quasi-Sklavenarbeiter_innen daran sitzen, das kontinuierlich auf Facebook hochgeladene Bildmaterial der user durchzusehen und auf „verbotene Inhalte“ zu überprüfen. Automatisierte Filterungen sind bisher nicht so gut entwickelt, dass mehr als eine Vorfilterung möglich ist, die dann von diesen Arbeitskräften noch manuell verfeinert werden muss. Diese Filterung durch Menschen – in beiden Bedeutungen von „durch“ – kostet nicht nur Geld, sondern sie macht auch psychisch krank, wie der Artikel ausführlich darstellt.

In der Situation liegt es nahe, dass Facebook in Technologien zum automatisierten content filtering – mit komplexeren Formen künstlicher Intelligenz – investiert. (Nein, ich glaube auch nicht daran, dass es der Schutz ausgebeuteter Mitarbeitender ist, der da die größte Triebkraft für Facebook darstellt – trotzdem wäre dies vielleicht ein positiver Nebeneffekt einer ansonsten bedenklichen technologischen Entwicklung.).

Die journalistische Besprechung: Nichts sehen, nichts sagen, nicht nachdenken.

Desaströs ist jedoch, wie die wenigen journalistischen Artikel, die die Ankündigung der „DeepText“ Technologie besprechen, in ihren Erläuterungen dem weichgespülten und politisch beinahe unkritischen Beispielraum verhaftet bleiben, den der Facebook-Post, in dem das Feature angekündigt wird, selbst vorgibt: Spamschutz, Taxi, Fanpost bei Celebrities. Das gilt nicht nur für die dumme Sendung bei „Radioeins“ (rbb) heute Nachmittag (2016-06-10), sondern auch in Expertenforen und spezialisierteren Tech-Blogs [4]. Es scheint, als wäre das journalistische Handwerk selbst längst in ein algorithmisches Dasein überführt worden – wo neuer content ganz schnell mit der „Auto-Zusammenfassen“-Funktion aus bestehenden Nachrichtenmeldungen generiert wird, aber nicht auf Grundlage eigenen kritischen Denkens und Urteilens.

Es liegt auf der Hand, dass mit „DeepText“ ein Tool geschaffen ist, mit dem ohne einen wesentlichen technischen Schritt auch Inhalte als politisch unliebsam oder „terroristisch“ klassifiziert werden können, mit dem Wirtschafts- und Betriebsgeheimnisse aus Chat-Konversationen herausgelöst werden können (es wäre einen eigenen Blogeintrag wert, wie normal und weit verbreitet gegenwärtig die Verwendung von instant messaging services in allen Formen der Büroarbeit geworden ist!), mit dem Menschen (oder Posts) auf ihre moralischen Dispositionen, beabsichtigte Handlungen oder Bewegungen hin klassifiziert werden können. Prinzipiell ist das auch rückwirkend möglich – bezogen auf alle gespeicherten Inhalte, Statusmeldungen und Messages der Vergangenheit. Das ist ja zunächst ein grundsätzliches Problem: Bei der Verwendung eines Services, der alle Daten auf Ewigkeit speichert, darf man sich bei der Entscheidung nicht an den technischen Möglichkeiten von heute orientieren, sondern muss die möglichen Entwicklung der nächsten Jahrzehnte vorausdenken.

Allerdings ist im Fall von „DeepText“ gerade der Echtzeitaspekt besonders schwerwiegend. Gerade der „Messenger“ – und darunter fällt auch der Facebook-Service WhatsApp – steht im Zentrum der spezifischen neuen Anwendungsmöglichkeiten dieser Technologie. Denn anders als bei Statusmeldungen und hochgeladenen Fotos ist hier eine Echtzeiterkennung von semantischen Inhalten nötig, um Leuten wirksam – also schnell genug, noch während der Unterhaltung – ein Taxi vermitteln, den Mund verbieten oder die Polizei auf den Hals schicken zu können. Dieser Echtzeitaspekt, und somit der gesamte Geschäftsbereich der live-Kommunikation, war bisher nicht leicht zu zensieren, weil die Posts teilautomatisch, von Mitarbeiter_innen in Sweat Shops im globalen Süden, durchgesehen werden müssen. Mit Blick auf dieses Feld bringt die automatische „Tiefenintelligenz“-basierte Erkennung semantischer Zusammenhänge einen qualitativen Schritt.

Vor diesem Hintergrund ist es besodners fatal, wie in dem albernen „Radioeins“-Beitrag heute Nachmittag, wo sogar so ein Herr Doktor-Experte telefonisch zugeschaltet wurde, einmütig betont wurde, dass der Messenger auf Facebook in Europa nicht von der Anwendung des „DeepText“-Verfahrens betroffen sein würde. Das hätte Facebook auf Anfrage beteuert. Schließlich sei – und so haben sie sich in diesem Telefoninterview alle die Hände in den Schoß gelegt – das ja auch gewissermaßen der umstrittenste aller Bereich, nämlich der wo intime Informationen ausgetauscht würden. Es tut so gut, an das Gute von Facebook zu glauben, selbst dann noch, wenn Facebook selbst in seiner Ankündigung – mit Videos bebildert – den Messenger als ersten Anwendungsfall dieser Technik aufführt.


[1] Einführung auf dem Facebook-Entwicklerblog: https://code.facebook.com/posts/181565595577955/introducing-deeptext-facebook-s-text-understanding-engine/
[2] Siehe americablog.com/wp-content/uploads/2013/09/Facebook-musee-dorsay-ban.jpg ; sorry für die unseriöse Quelle.
[3] Siehe https://www.aclu.org/blog/naked-statue-reveals-one-thing-facebook-censorship-needs-better-appeals-process
[4] Siehe z.B. http://www.golem.de/news/deep-text-facebooks-ki-liest-nachrichten-der-nutzer-1606-121262.html oder http://techcrunch.com/2016/06/01/facebook-deep-text/ .

LEAVE A COMMENT

theme by teslathemes