Am Dienstag stand Washington, DC im Bann der Enthüllungen von Frances Haugen – der ehemaligen Facebook-Produktmanagerin und jetzigen Whistleblowerin. Das Unternehmen ist allerdings schon öfter vor hochrangige Kongressausschüsse geladen worden, ohne dass daraus etwas gefolgt wäre. Für diejenigen von uns, die an den Schnittstellen von Technologie und Politik arbeiten, gibt es wenig Grund zur Hoffnung, Washington könnte die aktuelle Entrüstung in gesetzliche Maßnahmen verwandeln.
Das grundlegende Hindernis besteht darin, dass sich Demokraten und Republikaner nicht darüber einig sind, was das Problem ist: Den Demokraten bereitet die ungebrochene Verbreitung von Falschinformationen Kopfschmerzen – wieder einmal bestätigt durch die internen Dokumente, die Haugen an das Wall Street Journal weitergegeben hat – während sich die Republikaner über gegen sie gerichtete Zensur und Voreingenommenheit beschweren. Diese Uneinigkeit spielt Facebook und den anderen Social-Media-Konzernen in die Hände. Sie können einfach so weitermachen wie bisher.
Aber wie Haugen in ihrer Aussage vor einem Senatsausschuss am Dienstag betont hat, gibt es eine regulatorische Lösung, die die wichtigsten Belange beider Parteien berücksichtigt, das erste Amendment über die Meinungsfreiheit respektiert und die Dynamik der Internetwirtschaft schützt. Der Kongress sollte eine einfache Gesetzesreform durchführen: die Social-Media-Konzerne für Inhalte, deren Verbreitung durch ihre Algorithmen gefördert wird, haftbar zu machen.
Die Uneinigkeit spielt Facebook und den anderen Social-Media-Konzernen in die Hände.
Ende der 1990er fanden Internetnutzer Inhalte über Suchmaschinen wie Lycos und Webverzeichnisse wie Yahoo. Diese frühen Internetdienste hatten noch keine Mechanismen, die dafür gesorgt hätten, dass obskure Inhalte vom Rand der Gesellschaft ein größeres Publikum erreichen. Um an Inhalte zu kommen, mussten Nutzer bewusst ein bestimmtes Stichwort eingeben oder gezielt eine Webseite oder ein Forum aufsuchen.
Dies erscheint uns heute sehr altmodisch. Die Feeds unserer sozialen Medien sind voll mit Inhalten, die wir nicht nachgefragt haben, und mit Themen vom Rand der Gesellschaft, weil sie sich auf zwei wichtige technologische Entwicklungen stützen: Personalisierung durch die massenhafte Sammlung von Nutzerdaten über Web-Cookies und Big-Data-Systeme; und algorithmische Verstärkung mithilfe mächtiger Systeme künstlicher Intelligenz (KI), die die Inhalte auswählen, die den Nutzern angezeigt werden.
Jeweils für sich allein ermöglichten die Personalisierung und die algorithmische Verstärkung zweifellos wunderbare neue Internetdienste. Heute ist es für die Nutzerinnen und Nutzer dieser Technologien selbstverständlich, Apps und Webseiten hinsichtlich ihrer bevorzugten Sportmannschaften, Musiker oder Hobbys zu personalisieren. Dass Nachrichtenseiten Ranking-Algorithmen verwenden, um ihre – traditionell mit Spam verseuchten – Nutzerkommentare zu sortieren, war ein großer Erfolg.
Der Kongress sollte eine einfache Gesetzesreform durchführen: die Social-Media-Konzerne für Inhalte, deren Verbreitung durch ihre Algorithmen gefördert wird, haftbar zu machen.
Kombinieren Datentechniker und Softwareingenieure allerdings die Personalisierung von Inhalten mit der algorithmischen Verstärkung – wie es bei Facebooks Newsfeed, TikToks For You-Tab und YouTubes Empfehlungsmechanismus der Fall ist – erzeugen sie unkontrollierbare Vampire, die unsere Aufmerksamkeit aufsaugen. Obwohl Algorithmen wie Facebooks „Engagement-basiertes Ranking“ mit der Behauptung vermarktet werden, sie würden „relevante“ Inhalte stärker verbreiten, bestätigen sie Vorurteile und beeinflussen die Gesellschaft auf eine Weise, die selbst von ihren Programmierern kaum verstanden wird – geschweige denn von Nutzern und Regulierungsbehörden.
Ab 2007 war ich als Datentechniker bei Facebook beschäftigt, und mein erster Auftrag war, am Algorithmus für den Newsfeed zu arbeiten. Facebook hat über 15 Jahre Zeit gehabt, um zu zeigen, dass algorithmisch kontrollierte persönliche Feeds verantwortungsvoll entwickelt werden können. Aber wenn dies bis jetzt nicht geschehen ist, wird es nie geschehen. Wie Frances Haugen sagte, sollten es von nun an nicht Computer, sondern Menschen sein, die entscheiden, „von wem wir hören“.
Obwohl unterbesetzte Teams von Datentechnikern und Produktmanagerinnen wie Haugen versuchen, die schlimmsten Folgen der Algorithmen unter Kontrolle zu bringen, haben die Social-Media-Plattformen einen grundlegenden wirtschaftlichen Anreiz, ihre Nutzerinnen und Nutzer engagiert und beschäftigt zu halten. So wird gewährleistet, dass diese Feeds weiterhin die anzüglichsten und hetzerischsten Inhalte in den Vordergrund stellen. Für die Moderatoren, die in Hunderten von Sprachen, Ländern und politischen Umfeldern problematische, sich viral verbreitende Inhalte überwachen, schafft dies eine unmögliche Aufgabe.
Facebook hat über 15 Jahre Zeit gehabt, um zu zeigen, dass algorithmisch kontrollierte persönliche Feeds verantwortungsvoll entwickelt werden können.
Selbst wenn die Social-Media-Unternehmen aufgespalten oder zu mehr Transparenz gezwungen werden, wird sich die Motivation für Facebook und seine Mitbewerber nicht ändern, diese Algorithmen maximal auszureizen. Beunruhigend ist, dass ein stärker wettbewerbsorientierter Kampf um Aufmerksamkeit sogar noch größeren Schaden verursachen könnte, wenn beispielsweise mehr Unternehmen TikToks erfolgreichen Algorithmus nachahmen, der laut Wall Street Journal Minderjährige mit „endlosen Reihen von Inhalten über Sex und Drogen“ versorgt.
Die Lösung ist einfach: Unternehmen, die Inhalte algorithmisch verstärkt personalisiert verbreiten, müssen für die Inhalte, deren Verbreitung durch diese Algorithmen erhöht wird, haftbar gemacht werden. Dies kann durch eine kleine Änderung der Section 230 erreicht werden – des Gesetzes von 1996, das es den Social-Media-Konzernen ermöglicht, nutzererzeugte Inhalte zu hosten, ohne für Verleumdungen und illegale Inhalte dieser Nutzer juristisch belangt werden zu können.
Haugen sagte dazu aus: „Wenn wir 230 so reformieren, dass Facebook für die Folgen willentlicher Ranking-Entscheidungen zur Verantwortung gezogen werden kann, dann würden sie meiner Meinung nach mit dem Engagement-basierten Ranking aufhören.“ Bei diesem Ranking werden die Feeds von Facebook nach der Maßgabe priorisiert, welche Beiträge der jeweilige Nutzer durch Likes oder Kommentare besonders beachtet hat. Als ehemaliger Datentechniker bei Facebook und gegenwärtige Führungskraft bei einem Technologieunternehmen stimme ich mit Haugens Einschätzung überein. Es gibt kein System Künstlicher Intelligenz, das jeden möglichen illegalen Inhalt finden könnte. Müssten die Konzerne fürchten, für jeden algorithmisch verstärkt verbreiteten Beitrag haftbar gemacht werden zu können, sähen sie sich wahrscheinlich dazu gezwungen, diese Art von Feeds völlig abzuschaffen.
Auch mit solchen Regeln können die Social-Media-Konzerne durchaus erfolgreich und profitabel sein. Twitter hat algorithmische Feeds erst 2015 eingeführt. Und Facebook ist in seinen beiden ersten Jahren, als es Nutzerprofile ohne personalisierte Nachrichten-Feeds gehostet hat, erheblich gewachsen. Beide Plattformen bieten bereits nicht-algorithmische, chronologische Versionen ihrer Inhalts-Feeds an.
Es gibt kein System Künstlicher Intelligenz, das jeden möglichen illegalen Inhalt finden könnte.
Diese Lösung würde auch die Sorgen über politische Voreingenommenheit und freie Meinungsäußerung berücksichtigen: Die Feeds der sozialen Medien wären dann frei von der unvermeidlichen Einseitigkeit, die häufig eine Begleiterscheinung von Systemen auf KI-Basis ist. Sämtliche algorithmischen Rangfolgen nutzergenerierter Inhalte könnten auf nicht personalisierte Funktionen wie „Favoritenlisten“ begrenzt oder einfach an bestimmte Regionen oder Sprachen angepasst werden. Inhalte vom Rand der Gesellschaft würden wieder an den Rand verbannt. Die würde auch zu weniger Nutzerbeschwerden führen und weniger Druck auf die Plattformen ausüben, die Nutzer wegen ihrer Aussagen verwarnen und ausschließen zu müssen.
Natürlich hätte eine solche Reform von Section 230 auch mögliche Nachteile: Wie Daphne Keller aus Stanford geschrieben hat, sind die Passagen des Gesetzes, die für eine gerichtliche Einschätzung relevant wären, „berüchtigt für ihre Schwierigkeit“. Das Gesetz müsste sehr sorgfältig verfasst werden, um ihm die bestmögliche Chance zu geben, Anfechtungen wegen Verletzung der Meinungsfreiheit (erstes Amendment) zu überstehen.
Die letzte Änderung von Section 230 durch den Kongress hatte eine Vielzahl unbeabsichtigter Folgen. Diesmal sollte sich der Kongress mit jenen Aktivisten und marginalisierten Gruppen absprechen, die von der Online-Regulierung der freien Meinungsäußerung am stärksten betroffen sein könnten, um zu gewährleisten, dass das Gesetz richtig und gezielt wirken kann. Werden diese Bedenken berücksichtigt, gibt es keinen Grund dafür, dass Frances Haugens mutige Tat zu einer weiteren verpassten Gelegenheit wird, um diese Unternehmen zur Verantwortung zu ziehen.
Aus dem Englischen von Harald Eckhoff
(c) The New York Times 2021