WASHINGTON – Stuart Force sagt, er habe Trost auf Facebook gefunden, nachdem sein Sohn 2016 in Israel von einem Mitglied der militanten Gruppe Hamas erstochen worden war. Er wandte sich an die Website, um Hunderte von Beileidsbotschaften auf der Seite seines Sohnes zu lesen.
Aber nur wenige Monate später hatte Mr. Force entschieden, dass Facebook teilweise für den Tod verantwortlich war, weil die Algorithmen, die das soziale Netzwerk antreiben, halfen, die Inhalte der Hamas zu verbreiten. Er schloss sich Verwandten anderer Terroropfer an, um das Unternehmen zu verklagen, und argumentierte, dass seine Algorithmen die Verbrechen unterstützten, indem sie regelmäßig Posts verstärkten, die Terroranschläge förderten.
Der Rechtsstreit endete im vergangenen Jahr erfolglos, als der Oberste Gerichtshof die Aufnahme ablehnte. Aber Streitigkeiten über die Macht der Algorithmen haben in Washington nachgehallt, wo einige Mitglieder des Kongresses den Fall in einer intensiven Debatte über das Gesetz zitieren, das Technologieunternehmen vor der Haftung für von Benutzern gepostete Inhalte schützt.
Bei einer Anhörung des Repräsentantenhauses am Donnerstag über die Verbreitung von Fehlinformationen mit den Geschäftsführern von Facebook, Twitter und Google wird erwartet, dass sich einige Gesetzgeber darauf konzentrieren, wie die Algorithmen der Unternehmen geschrieben sind, um Einnahmen zu generieren, indem sie Beiträge auftauchen, auf die Benutzer geneigt sind, zu klicken und Antworten auf. Und einige werden argumentieren, dass das Gesetz, das die sozialen Netzwerke vor Haftung schützt, Abschnitt 230 des Communications Decency Act, geändert werden sollte, um die Unternehmen zur Verantwortung zu ziehen, wenn ihre Software die Dienste von Plattformen zu Komplizen für offline begangene Verbrechen macht.
„Die letzten Jahre haben bewiesen, dass Social-Media-Plattformen umso mehr Engagement und Werbegelder einstreichen, je mehr unverschämte und extremistische Inhalte sie fördern“, sagte der Abgeordnete Frank Pallone Jr., der Vorsitzende des Energie- und Handelsausschusses, der Fragen stellen wird die Hauptgeschäftsführer.
„Mittlerweile ist schmerzlich klar, dass weder der Markt noch öffentlicher Druck Social-Media-Unternehmen davon abhalten werden, Desinformation und Extremismus zu verbreiten, also haben wir keine andere Wahl, als Gesetze zu erlassen, und jetzt stellt sich die Frage, wie wir dies am besten tun“, Herr Pallone, ein Demokrat aus New Jersey, hinzugefügt.
Der frühere Präsident Donald J. Trump forderte die Aufhebung von Abschnitt 230, und Präsident Biden äußerte sich ähnlich, als er für das Weiße Haus kämpfte. Eine Aufhebung erscheint jedoch zunehmend zweifelhaft, da sich der Gesetzgeber auf kleinere mögliche Gesetzesänderungen konzentriert.
Die Änderung des rechtlichen Schutzschilds, um der Macht der Algorithmen Rechnung zu tragen, könnte das Web neu gestalten, da algorithmische Sortierung, Empfehlung und Verbreitung in sozialen Medien üblich sind. Die Systeme entscheiden, welche Links zuerst im Newsfeed von Facebook angezeigt werden, welche Accounts den Usern auf Instagram empfohlen werden und welches Video als nächstes auf YouTube abgespielt wird.
Die Industrie, Meinungsfreiheitsaktivisten und andere Befürworter des Rechtsschutzes argumentieren, dass die Algorithmen der sozialen Medien unabhängig von der Botschaft gleichermaßen auf Beiträge angewendet werden. Sie sagen, dass die Algorithmen nur aufgrund der von den Benutzern bereitgestellten Inhalte funktionieren und daher unter Abschnitt 230 fallen, der Websites schützt, die Beiträge, Fotos und Videos von Personen hosten.
Gerichte haben zugestimmt. Ein Richter des Bundesbezirks sagte, selbst eine „großzügigste Lektüre“ der von Mr. Force erhobenen Anschuldigungen „platziert sie direkt innerhalb“ der Immunität, die Plattformen nach dem Gesetz gewährt wird.
Ein Sprecher von Facebook lehnte es ab, sich zu dem Fall zu äußern, verwies jedoch auf Kommentare seines Vorstandsvorsitzenden Mark Zuckerberg, der einige Änderungen an Abschnitt 230 unterstützte. Elena Hernandez, eine Sprecherin von YouTube, das zu Google gehört, sagte, der Dienst habe Änderungen an vorgenommen seine „Such- und Erkennungsalgorithmen, um sicherzustellen, dass maßgeblichere Inhalte auftauchen und in Suchergebnissen und Empfehlungen prominent gekennzeichnet werden“.
Twitter stellte fest, dass es vorgeschlagen hatte, den Benutzern mehr Wahlmöglichkeiten bei den Algorithmen zu geben, die ihre Zeitleisten ordnen.
„Algorithmen sind grundlegende Bausteine von Internetdiensten, einschließlich Twitter“, sagte Lauren Culbertson, Leiterin der US-Politik von Twitter. „Die Regulierung muss die Realität widerspiegeln, wie verschiedene Dienste funktionieren und Inhalte eingestuft und erweitert werden, während gleichzeitig der Wettbewerb maximiert und ein Gleichgewicht zwischen Sicherheit und freier Meinungsäußerung hergestellt wird.“
Der Fall von Mr. Force begann im März 2016, als sein Sohn Taylor Force, 28, von Bashar Masalha getötet wurde, als er mit Klassenkameraden der Graduiertenschule in Jaffa, einer israelischen Hafenstadt, zum Abendessen ging. Hamas, eine palästinensische Gruppe, sagte, Herr Masalha, 22, sei Mitglied.
In den folgenden Monaten arbeiteten Stuart Force und seine Frau Robbi daran, den Nachlass ihres Sohnes zu regeln und seine Wohnung aufzuräumen. In jenem Sommer erhielten sie einen Anruf von einer israelischen Streitbeilegungsgruppe, die eine Frage hatte: Wäre die Force-Familie bereit, Facebook zu verklagen?
Nachdem Mr. Force einige Zeit auf einer Facebook-Seite der Hamas verbracht hatte, stimmte die Familie einer Klage zu. Die Klage fügt sich in umfassendere Bemühungen der Streitkräfte ein, die den palästinensischen Gruppen zur Verfügung stehenden Ressourcen und Instrumente zu begrenzen. Herr Force und seine Frau verbündeten sich mit Gesetzgebern in Washington, um Gesetze zu verabschieden, die die Hilfe für die Palästinensische Autonomiebehörde einschränken, die einen Teil der Westbank regiert.
Ihre Anwälte argumentierten vor einem amerikanischen Gericht, Facebook habe der Hamas „einen hochentwickelten und ausgeklügelten Algorithmus gegeben, der es der Hamas erleichtert, ein Publikum zu erreichen und zu engagieren, das sie sonst nicht so effektiv erreichen könnte“. In der Klage hieß es, die Algorithmen von Facebook hätten nicht nur Posts verstärkt, sondern der Hamas geholfen, indem sie den Nutzern Gruppen, Freunde und Veranstaltungen empfohlen hätten.
Der Bundesbezirksrichter in New York entschied unter Berufung auf Abschnitt 230 gegen die Klagen. Die Anwälte der Force-Familie legten Berufung bei einem aus drei Richtern bestehenden Gremium des US-Berufungsgerichts für den zweiten Stromkreis ein, und zwei der Richter entschieden dafür Facebook. Der andere, Richter Robert Katzmann, schrieb einen 35-seitigen Widerspruch zu einem Teil des Urteils und argumentierte, dass die algorithmischen Empfehlungen von Facebook nicht unter den gesetzlichen Schutz fallen sollten.
„Es gibt immer mehr Beweise dafür, dass Anbieter ihre Algorithmen so konzipiert haben, dass sie Benutzer zu Inhalten und Personen führen, mit denen die Benutzer einverstanden sind – und dass sie es zu gut gemacht haben, indem sie anfällige Seelen immer weiter auf dunkle Pfade gedrängt haben“, sagte er.

Ein Dissens im Force-Fall, geschrieben von Richter Robert Katzmann, Mitte, argumentierte, dass ein Rechtsschutz die algorithmischen Empfehlungen von Facebook nicht abdecken sollte. Kredit… Don Emmert/Agence France-Presse – Getty Images
Ende letzten Jahres lehnte der Oberste Gerichtshof einen Anruf ab, um einen anderen Fall anzuhören, der den Schutzschild von Abschnitt 230 getestet hätte. In einer Erklärung, die der Entscheidung des Gerichts beigefügt ist, forderte Richter Clarence Thomas das Gericht auf, zu prüfen, ob der Schutz von Abschnitt 230 zu weit ausgeweitet worden sei, und berief sich dabei auf die Klage von Mr. Force und die Meinung von Richter Katzmann.
Richter Thomas sagte, das Gericht müsse im Moment nicht entscheiden, ob der Rechtsschutz eingeschränkt werden solle. „Aber in einem geeigneten Fall obliegt es uns, dies zu tun“, sagte er.
Einige Gesetzgeber, Anwälte und Akademiker sagen, dass die Anerkennung der Macht der Algorithmen der sozialen Medien bei der Bestimmung dessen, was die Menschen sehen, längst überfällig ist. Welche Faktoren die Algorithmen zur Entscheidungsfindung heranziehen und wie sie gegeneinander abgewogen werden, verraten die Plattformen meist nicht.
„Verstärkung und automatisierte Entscheidungsfindungssysteme schaffen Verbindungsmöglichkeiten, die sonst nicht möglich wären“, sagte Olivier Sylvain, Rechtsprofessor an der Fordham University, der das Argument im Zusammenhang mit Bürgerrechten vorgebracht hat. „Sie tragen wesentlich zum Inhalt bei.“
Dieses Argument ist in einer Reihe von Klagen aufgetaucht, in denen behauptet wird, dass Facebook für Diskriminierung im Wohnungswesen verantwortlich sein sollte, wenn seine Plattform Werbung nach der Rasse eines Benutzers ausrichten könnte. Ein Gesetzesentwurf, der von der Abgeordneten Yvette D. Clarke, Demokratin aus New York, vorgelegt wurde, würde die Immunität von Abschnitt 230 von gezielten Anzeigen, die gegen Bürgerrechtsgesetze verstoßen, aufheben.
Ein Gesetzentwurf, der letztes Jahr von den Abgeordneten Tom Malinowski aus New Jersey und Anna G. Eshoo aus Kalifornien, beide Demokraten, eingebracht wurde, würde den Schutz von Abschnitt 230 von Social-Media-Plattformen aufheben, wenn ihre Algorithmen Inhalte verstärken, die gegen einige Antiterror- und Bürgerrechtsgesetze verstoßen. Die Pressemitteilung, in der das Gesetz angekündigt wird, das am Mittwoch wieder eingeführt wird, zitiert die Klage der Force-Familie gegen Facebook. Herr Malinowski sagte, er sei teilweise von Richter Katzmanns Widerspruch inspiriert worden.
Kritiker der Gesetzgebung sagen, dass sie möglicherweise gegen die erste Änderung verstößt und, weil es so viele Algorithmen im Internet gibt, eine breitere Palette von Diensten auffegen könnte, als der Gesetzgeber beabsichtigt. Sie sagen auch, dass es ein grundlegenderes Problem gibt: Die Regulierung der algorithmischen Verstärkung aus der Existenz würde die Impulse, die sie antreiben, nicht eliminieren.
„Es gibt eine Sache, von der man irgendwie nicht wegkommt“, sagte Daphne Keller, die Direktorin des Programms zur Plattformregulierung am Cyber Policy Center der Stanford University, „das ist die menschliche Nachfrage nach Müllinhalten.“