Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
(00:00):
Herzlich willkommen zu einer neuen Folge von TV-Helden, der
Branchen-Podcast für alle, die sich professionell mit Fernsehen beschäftigen.
Mein Name ist Christoph Köller.
(00:24):
Meta der Konzern hinter den Diensten Instagram, Facebook und
Sonstigem, hat verkündet, dass für ihn das Thema
Faktenchecker oder das Checken von Fakten nicht mehr so
relevant ist und es in den USA mehr oder weniger eingestellt.
Man will zu sogenannten Community Notes übergeben.
In Deutschland bleibt erstmal alles so, wie es ist. Das Medienecho
(00:47):
war in den USA wie auch in Europa jedenfalls gewaltig. Was
das denn überhaupt im Einzelnen bedeutet, Faktenchecker, Community Notes, warum es in
Europa anders ist und warum in Deutschland oder in Europa auch eine
andere Regulierung besteht, das bespreche ich heute mit Professor Dr. Henna
Hensch. Er ist Leiter Rechte und Regulierung beim GAME, dem
Verband der Games-Industrie. Und gleichzeitig auch Professor
(01:09):
an der TH Köln. Und hat einen sehr interessanten Aufsatz zum Thema
geschrieben, weshalb ich gerne mit ihm sprechen wollte. Hallo, Henner, schön, dass du da bist.
Hallo, Christoph, vielen Dank für die Einladung. Freut mich, hier zu sein. Sehr gerne. Bevor
wir auf Meta und Faktencheck und Sonstiges eingehen, sag uns kurz, welche Themen
beschäftigen dich gerade so an der TH Köln im Medienrecht und
Sonstigen? Genau, an der TH Köln haben wir die Kölner Forschungsstelle für
(01:31):
Medienrecht zusammen mit dem Rolf Schwartmann. Und der Name
Medienrecht ist sozusagen schon themenweisend,
aber Medien müssen in der Zwischenzeit einfach umfassend gesehen werden. Und
deswegen haben wir fünf Säulen in unserem Masterstudiengang, den wir im
Wesentlichen machen, wo wir uns natürlich mit dem Medienrecht auseinandersetzen,
daneben aber auch mit dem Urheber- und Urheberrecht und dem
(01:54):
gewerblichen Rechtsschutz, haben da eine große Säule auch zum
Datenschutzrecht und immer mehr natürlich auch IT und dann eben das
IT-Recht. Und da fällt natürlich jetzt auch KI mit rein. Also
insofern bilden wir das relativ breit ab. Und natürlich, die
spannenden Themen sind gerade KI und DSA, also die
Haftung von Plattformen. Und da fällt das heutige Thema ja mit rein.
(02:16):
Genau, DSA, der Digital Service Act, da sprechen wir gleich noch mal
genauer drüber. Lass uns vorher kurz sprechen. Meta hat
gesagt, wir mehr oder weniger stellen unser ganzes
System, wie wir überprüft haben, was wahr und was unwahr ist, auf
unserer Plattform Was haben Sie im Einzelnen getan oder was
machen Sie jetzt nicht mehr? Vielleicht eher die Frage. Naja, im Wesentlichen haben
(02:37):
Sie es ja erst mal angekündigt. Und jetzt gab es erste
Vermutungen, als es darum ging, dass man Trump
entfolgen wollte, dass das nicht mehr so leicht ging oder dass
man Obama plötzlich nicht mehr gefunden hat. Das muss ich jetzt natürlich erst
noch finden. Das heißt, das ist alles noch in einer Phase, wo wir ein
bisschen Mut maßen müssen. Aber der Trend ist vollkommen klar. Sie haben
(02:59):
angekündigt, Sie wollen, anders als vorher, wo sie sich als
Speerspitze gesehen haben für das Gute
und das Narrativ auch wahrgesorgen dafür, dass wir eine nicht toxische
Plattform sind, wo die Menschen gut miteinander umgehen, eine Etikette
hinzu. Weniger Regulierung,
weniger Eingriffen und dem freien,
(03:21):
wilden Westen, wo dann eben auch Shoot first, ask
when stattfindet. Das ist der Trend, glaube ich, der
eben da gesehen werden muss. Und das bildet sich natürlich
auch danach ab, wie der Wechsel eben in
der Präsidentschaft erfolgt. Vorher eben tatsächlich der Einsatz für
jeden Einzelnen und jetzt eben ein anderer Ton, der mit Trump
(03:43):
kommt, der eben tatsächlich das Recht des Stärkeren letztendlich
etwas mehr betont und weniger staatliche Eingriffe. Das ist, glaube ich,
so der Gesamtkontext, in dem das zu sehen ist. Wir
haben im Vorgespräch gerade schon kurz darüber gesprochen, Sie sind ja nicht die Ersten.
X, ehemals Twitter, hat es ja vorgemacht Und jetzt ziehen Sie so ein bisschen
hinterher. Ja, also Elon Musk ist natürlich da
(04:05):
der Disruptor, der in vielen Bereichen vorangeht
und alles eben auf links drehen möchte. Das möchte er jetzt auch mit
seiner neuen Behörde. Und Der hat vorher schon
als Allheilmittel ein
Instrument entwickelt, das nannte sich eben Birdwatch.
Und das basierte letztendlich auf Freiwilligkeit, dass eben Nutzer
(04:28):
Kommentare abgeben können im Hintergrund. Und dann wird aber
eben in so einer Peer Group darüber entschieden, ob das
hilfreich ist, nicht hilfreich ist oder eben zu entfernen
ist. Das heißt, wir haben hier ein
ausgelagertes Faktchecking, was aber eben
gerade nicht die Plattform macht, wo es auch vom Staat keinerlei Grenzen
(04:50):
gibt, sondern letztendlich eine kleine Gruppe an Peers
darüber entscheidet. Und das ist natürlich – die Amerikaner sprechen
von Sporty – das ist natürlich dann eben auch die Frage,
wer ist denn dann in dem Panel? Da geht es nicht absolute
Wahrheiten, sondern eben, worauf einigt man sich, was die Wahrheit
ist. Und das ist sozusagen die Herausforderung hier.
(05:13):
Aber dieses ist sozusagen das Vorbild, Birdwatch,
was jetzt eben Community Notes bei X heißt. Und X hat
für weniger Staat plädiert. Und jetzt mit der Wahl von Trump ziehen eben andere
wie Facebook nach und wollen, dass sozusagen etwas
weniger Eingriffe... Zuckerberg hat ja deutlich
gesagt, eben diese Zensur, die wolle man eben zurückfahren.
(05:37):
Wie muss ich mir vorstellen, vorher hatten Sie ein eigenes Team, Angestellte von
Meta, und die haben geschaut, passt das
so mit der sonstigen Faktenlage überein? Die gibt
es nun nicht mehr, Und jetzt sagt man halt, bestimmte Nutzer sind dazu eingeladen,
zu kommentieren, ob sie glauben, dass diese Angaben korrekt sind oder
nicht. Man muss immer unterscheiden zwischen sozusagen den Meldungen
(06:00):
Und dann, wie wird mit den Meldungen umgegangen? Also natürlich, wie mit den
Meldungen umgegangen wird, da hat Facebook oder hat jede Plattform eine
größere Abteilung, die sich dann die Meldungen anschauen und dann sagen, lehnen wir
runter, lassen wir stehen. Und wie gehen wir damit oder müssen wir das vielleicht auch
mal gerichtlich durchfechten? Und das andere ist, wie diese Meldungen kommen.
Und das macht natürlich nicht die Plattform selbst, sondern ist auf Hinweise
(06:21):
angewiesen. Und das sind die sogenannten Faktchecker. Das
war eine Organisation, aber das hat dann sozusagen auch,
wird dann synonym auch verwendet für andere NGOs oder andere Gruppen, die
sich engagieren und eben Meldungen eingeben, dann sozusagen
Desinformation, Propaganda, Hass und Hetze zur Meldung zu
(06:41):
bringen, damit dann Facebook oder welche Plattform auch immer reagieren
kann. Also es geht die Meldungen, wer macht die Meldungen, das waren
die Faktchecker und da gab es Kooperationen. Aber das
waren auch eben Organisationen, die auch einen gewissen
Codex hatten, die sozusagen
Anspruch hatten und die
(07:04):
sich für besondere Qualität eingesetzt haben. Und da
kommt der Vorwurf, die waren alle woke. Und deswegen müsste man
das jetzt eben abschaffen. Deswegen gibt
es nicht den Faktchecker, aber der Hintergrund ist eben so eine Organisation
gewesen, die sich so genannt hat. Und die Zusammenarbeit wird jetzt
in Amerika und möglicherweise auch in anderen Ländern außerhalb der
(07:27):
EU wohl eingestellt. Jetzt hattest du gerade schon
angedeutet, Mark Zuckerberg, der CEO, hatte von Zensur
gesprochen. Aber Sie hätten es ja eigentlich nie machen müssen, diese
Faktenchecker. Das hat Sie ja, also sagen wir mal, regulativ niemals dazu gezwungen. In
Amerika nicht, in Europa schon. Da kommen wir später
zu. Aber tatsächlich sind diese Faktenchecker ja eigentlich
(07:49):
hilfreich gewesen für Facebook. Die mussten nicht selber danach suchen. Die
haben dazu beigetragen, dass eben eine gewisse Hygiene
stattfindet auf der Plattform. Also eigentlich ist das ja eine
sehr fruchtbare Zusammenarbeit gewesen. Man musste nicht dafür
bezahlen. Natürlich gibt es gewisse Kooperationen. Man muss die vielleicht hier mal
einladen und schulen. Aber im Großen und Ganzen ist das dezentral
(08:11):
gewesen. Und die haben letztendlich die Drecksarbeit für die Plattform
gemacht. Aber natürlich in dem Moment, wo es Meldungen gibt, muss die
Plattform tätig werden. In dem Moment muss sie entscheiden, lasse ich
stehen, gehe ich ins Risiko oder nehme ich es runter. Habt
ihr auch das Risiko, dass geklagt wird auf dem Putback?
Und Deswegen ist natürlich, wie soll ich sagen, je mehr Meldungen,
(08:33):
desto mehr Aufwand, desto mehr Kosten. Wenn es weniger
Meldungen gibt, weniger Beschwerden, dann muss man natürlich weniger
tätig werden und kann die Kosten etwas runterfahren.
Also Deswegen ist das so ein zweischneidiges Schwert. Auf der einen
Seite möchte man natürlich seine Plattform sauber haben und eben nicht
toxisch und auf der anderen Seite möchte man natürlich Kosten einsparen. Und das
(08:55):
ist eben die Entscheidung, in welche Richtung geht man. Muss man sich auch auf
öffentlichen Druck hin eher dafür einsetzen und das Geld in die Hand nehmen
oder ändert sich das Klima und wird das weniger erwartet, dann kann
man diese Kosten natürlich eher einsparen. Klar. An dieser
Stelle ein großes Dankeschön an Agile Content, die diese
Folge des TV-Helden-Podcasts möglich machen. Agile Content ist ein
(09:17):
führender Anbieter von Technologie für die TV-Branche.
Agile Content-Produkte sind in nahezu allen Tier-One-Operatoren im
Dachraum eingesetzt. Während sehr große Plattformen für ihre
individuellen TV-Produkte, zum Beispiel das CDN oder die Backend-Technologie
von Agile Content einsetzen, verlangen andere TV-Anbieter
Best of Breed aus einer Hand. Und für genau die, die eine
(09:40):
Komplettlösung suchen, denen bietet Agile Content eine in
vielen Märkten auf der Welt bewährte White-Label-Plattform
an. Also per One-Stop-Shop auf einen Schlag mit
Tier-One-Technologie auf Augenhöhe mit den
Marktführern. Mehr über Agile Content hörst du übrigens im
TV-Helden-Podcast Folge 62 oder
(10:01):
aber unter agilecontent.com.
Eine weitere sehr gute Möglichkeit ist natürlich die Mediahall vom 2. Bis
3. April 2025 in Frankfurt, wo auch
hier die Vertreterinnen und Vertreter von Agile Content vor
Ort sein werden. Wir haben es schon angedeutet,
das gilt jetzt erst mal für die USA. In Bezug auf Europa hat man sich
(10:23):
da sehr zurückgehalten, hat gesagt, man bleibt erst mal im alten System,
auch weil in Europa eine andere Regulierung besteht,
gerade für Plattformen? Du hattest gerade schon mal angedeutet, DSA ist so das eine
Stichwort. Ja, also in Europa hatten wir schon
einen Haftungsrahmen, der sozusagen das Notice and Take Down
vor. Also eine Plattform haftet grundsätzlich erstmal nicht für den
(10:46):
Inhalt, der auf der Plattform hochgeladen wird von Dritten. Das können die ja gar
nicht wissen und da können die gar nicht
haften. Erst in dem Moment, wo die Meldung kommt, von den Faktcheckern
zum Beispiel, in dem Moment können die in die Haftung geraten. Dann müssen die auf
die Noticing des Unternehmens. Noticing take down. Es gibt sogar noch die
weitere Stufe, Noticing stay down. Teilweise müssen sie auch dafür sorgen,
(11:09):
dass dann diese rechtswidrigen Inhalte auch nicht mehr hochkommen. Das heißt, dann
müssen sie Filter zum Beispiel einsetzen, damit das nicht wieder hochkommt. Das ist
die grundlegende Haftung in Europa gewesen über viele
Jahre, eben solche Plattformen überhaupt zu ermöglichen. Denn ansonsten wären die
ja immer in der Haftung und könnten im Grund und Boden geklagt werden. Das hat
eigentlich auch funktioniert und dann kamen eben diese großen
(11:31):
Plattformen. Wir sprechen von den Very Large Online Plattforms,
die V-Lobs, die so groß sind, dass sie eben auch eine große
Meinungsmacht haben, zum Beispiel Facebook. Und da hat man eben gesagt, da
müssen wir mehr Pflichten schaffen. Und das Ausgangsfall
war sicherlich das Netzwerkdurchsetzungsgesetz in Deutschland, das
NetzDG. Das hat gesagt, Hass und Hetze zu bekämpfen, müssen wir einfach
(11:54):
die Fristen deutlich verkürzen. Das heißt, es muss innerhalb
von 24 Stunden ein offensichtlich rechtswidriger Inhalt runtergenommen
werden. Das war so eine erste Verschärfung und das hat die
Europäische Union aufgegriffen und weitere Pflichten ergänzt.
Das heißt, man bleibt beim Haftungsregime. Plattformen
haften erstmal nicht, aber weil sie so eine
(12:16):
große Verantwortung haben, bekommen sie neue Pflichten. Sorgfaltspflichten, die sie
erfüllen müssen. Wenn sie klein sind, weniger Pflichten. Je größer sie
sind, desto größer die Pflichten. Die meisten Pflichten treffen dann die sogenannten
V-Lobs. Wenn man also in Europa 40 Millionen Nutzer hat, das
sind circa 10 Prozent der Bevölkerung, da fällt ein Facebook
drunter, Instagram, ein X und so weiter, hier fallen da alle drunter, dann hat
(12:39):
man besonders viele Pflichten und da muss man dann eben sicherstellen,
dass das Meldeverfahren läuft, dass das schnell funktioniert
und dass man dann zum Beispiel auch sogenannte Trusted Flagger
zulässt, vertrauenswürdige Hinweisgeber. Das ist sowas wie
die Faktchecker, aber jetzt mit einem gesetzlichen Rahmen.
Das ganze ist letztes Jahr in Kraft getreten Und jetzt
(13:01):
müssen sozusagen, wenn die Mitgliedstaaten, die
dortige Aufsicht, die sogenannten Digital Services Coordinator, so
nennen die sich in den verschiedenen Mitgliedstaaten,
das ist in Deutschland die Bundesnetzagentur, und wenn da eben jemand den Antrag stellt
und sagt, ich möchte vertrauenswürdiger Hinweisgeber sein,
dann haben die eine besondere Rolle bei den Plattformen und dann müssen
(13:23):
diese Meldungen ganz besonders schnell bearbeitet werden. In
Deutschland haben wir bisher erst eine solche, einen so einen Trusted Flagger
zugelassen bekommen. Das war letztes Jahr im Oktober, hat
da der Digital Services Coordinator bei der Bundesnetzagentur
die Plattform Respect dann eben zugelassen. Die ist genau auf
Facebook eben spezialisiert und will da eben Hass und Hetze
(13:46):
bekämpfen. Das heißt, über den DSA haben wir die Factchecker
im Gesetz stehen. Also weil man gesagt hat, das funktioniert
ja gut, dann lasst uns doch diese Pflicht für alle Plattformen
gelten lassen, sodass man jetzt eben diese Fact-Checker,
die vorher freiwillig waren, über den DSA
(14:08):
ins Gesetz zur Pflicht gebracht hat.
Mal im Konstrukt der USA zu bleiben, also
mit dem Wechsel von Fact-Checkern zu Community-Notes,
wäre das dann möglich unter der europäischen Regulierung, dass man sagt, na ja,
ich gebe das an meine Community als Fact-Checker mit diesen
Community-Notes, oder wäre das einfach, ganz kurz gesagt, zu wenig im Rahmen
(14:31):
der DSA-Regulierung? Naja, also die Community
Notes, das ist ja letztendlich freiwillig und wenn die keinen Antrag
stellen, Trusted Flagger zu sein, dann sind die jetzt unter europäischem
Recht zunächst einmal im Gesetz nicht vorgegeben, vollkommen freiwillig. Und
wenn die dann eine Meldung machen, müssen die berücksichtigt werden, wie jeder andere
Hinweisgeber. Dann gibt es da eben gewisse Verfahren,
(14:53):
dass man das schnell beantworten muss, dass es ein Put-back-Mechanismus braucht,
dass dann sichergestellt werden muss, dass dann eine gewisse Transparenz da ist und und und.
Diese Pflichten gelten von Community Notes sowieso. Das heißt
eben, da gibt es keinen besonderen Rahmen. Aber was man nicht
machen kann, ist, dass man eben dann diese Trusted Flagger, wenn sie denn einmal das
Qualitätssiegel haben, das DSC, dass man die dann eben nur so
(15:15):
dilatorisch behandelt und auf die gleiche Stelle stellt,
wie eben diese Community Notes. Das heißt, wir haben hier einfach
ein besonderes Qualitätssiegel. Das zeigt so ein bisschen auch den
Unterschied in der Denke zwischen den USA und
Europa. In den USA überlässt man hier
die Meinungsbildung
(15:38):
dem öffentlichen Raum. Der findet da eben statt zwischen den
Sporty, die sollen die Meinung kämpfen Und da nimmt man
in Kauf, dass dann vielleicht die
Mehrheit, die Minderheit
niederschreit. Oder dass die dann eben untergehen. Da sagt man,
naja, da müssen sich halt Mehrheiten bilden, aber das wird relativ
(16:00):
unreguliert zugelassen. Typisch amerikanisch, wenig
Staat, das soll sich eben finden. Demokratisch von
seiner Ursprungsidee her gedacht. In Europa
hingegen sind wir natürlich deutlich Staatsgläubiger, da muss natürlich eine Aufsicht her,
die dann eben einen Rahmen dem Ganzen gibt, damit wir auch sicher gehen
können, dass alle beteiligt sind, dass niemand untergeht.
(16:23):
Das ist natürlich sicherer und wir haben
natürlich auch einen höheren Qualitätsmaßstab, weil eben
nicht jeder Trusted Flagger werden kann, sondern da muss dann entsprechend
auch eine Kontinuität da sein. Wir müssen eine Expertise haben. Das
heißt, das ist nicht irgendjemand, das hat eine höhere Qualität, kostet
aber mehr und wir sollten die Augen nicht davor verschließen, dass auch
(16:45):
hier natürlich die Gefahr eines Bias stattfinden kann. Auch hier
besteht immer die Gefahr, dass das eben ein Trusted
Flagger zu viel wegblockt oder wegblocken
lässt. In welche Richtung auch immer. Das kann ja einer mit einem
Rechten, einem Linken, einem Islamistischen, Christlichen oder was auch immer Bias
sein. Aber natürlich, jede Organisation
(17:08):
hat ihre Sichtweise und wird dann natürlich bei
ihren Meldungen vielleicht hier und da mal übers Ziel hinausschießen. Ob das jetzt
in Amerika ist oder in Europa, da wird jeder Sicherungsmechanismus
am Ende auch nicht helfen. Klar, da sehe ich auch
immer ein Problem, dass du natürlich immer bestimmte Ausrichtungen hast und dann auch
immer dieses, dass ich es sehr schwierig finde. Du hast eigentlich immer so eine Vermischung
(17:30):
von Meinung und Fakten,
die irgendjemand aufdröseln muss, sage ich mal. Das wird manchmal gern, manchmal
ungern gemacht. Allein schon die Frage, was ist denn eine Meinung
und was ist ein Fakt? Also ist das
jetzt gemeint gewesen, wenn jemand sagt,
Habeck ist ein Dumpfkopf oder ist das ein Fakt? Ist das dann
(17:52):
schon eine Beleidigung? Und da wird das natürlich noch komplizierter,
weil wir in jedem Mitgliedstaat der Europäischen Union und
erst recht zwischen Amerika und Europa unterschiedliche Vorstellungen
davon haben, was ist eine Meinung, was ist ein Fakt, was ist eine
erlaubte Meinung und was ist eine strafbare
Meinung. Und da haben wir in den USA einfach über das First
(18:14):
Amendment ist eben letztendlich jede Meinung
geschützt, also auch die unwahre
Meinung, also auch die Propaganda ist da durchaus zunächst einmal
geschützt, während wir in Europa vor dem Hintergrund
des Zweiten Weltkriegs, des Holocaust und auch den Diktaturen danach,
da etwas vorsichtiger geworden sind. Also zumindest nach der Europäischen
(18:36):
Menschenrechtskonvention wird die Lüge nicht geschützt.
Also die bewusste, unwahre Aussage. Und da haben wir natürlich
schon einen Clash in der Grundkonzeption, wo einfach
Amerika freier ist, ursprünglicher. Die sind eben noch bei ihrer
Verfassung von 1776, 1881. Das
ist einfach über 250 Jahre alt, während hingegen wir in
(18:59):
Europa viele, viele Erfahrungen gemacht haben, da etwas ausgewogener
sind, vorsichtiger vielleicht auch geworden sind, weil wir schlechte
Erfahrungen gemacht haben, während hingegen die Amerikaner in 250
Jahren eigentlich gute Erfahrungen gemacht haben. Und das sind einfach
unterschiedliche Auffassungen zur Meinungsäußerung,
zum Meinungsäußerungsrecht. Was darf man sagen, was darf man nicht sagen?
(19:21):
Jetzt hast du ja gut deutlich gemacht, dass einfach in Europa gerade bei größeren
Plattformen anderer Regulierungsrahmen besteht, ein sehr strikterer Regulierungsrahmen.
Gäbe es denn für META Ansatzpunkte, auch unter dem DSA, zu sagen,
naja, wir fahren es jedenfalls ein bisschen zurück, versuchen es aufzuweichen, versuchen
vielleicht den amerikanischen Ansatz rüber zu ziehen? Sehe
ich nicht. Also wir hatten jetzt vor vor wenigen Tagen ist der
(19:43):
Codex in Kraft getreten zum DSA, wo sich eben
Facebook und auch andere größere Plattformen auch gewisse Standards verpflichtet
haben. Das heißt, in Europa will man natürlich
weiterhin compliant sein, muss man auch in dem Moment, wo man gegen die
Pflichten des DSA verstößt, droht ein Bußgeld bis zu
sechs Prozent des weltweiten Jahresumsatzes.
(20:08):
Das ist sehr schmerzhaft. Wir haben erste Verfahren, jetzt nicht aus dem DSA,
aber in anderen Bereichen, wo die Kommission das tatsächlich auch
entforst und eben auch dreistellige Millionenbeträge
dann eben fällig werden. Das wird man sicherlich vermeiden wollen. Also
deswegen habe ich nicht den Eindruck, dass
Facebook in Europa und schon gar nicht in Deutschland
(20:30):
den Kurs ändern wird. Aber das führt natürlich
dazu, dass wir letztendlich zwei Facebooks
zukünftig haben werden. Eins für Europa, wo wir dann
Factchecker haben oder Trusted Flaggers oder eben
tatsächlich, wo relativ viel weggeblockt
wird oder gemeldet wird und eben ein anderes Facebook für den Rest der
(20:52):
Welt, das wilder, ungezügelter,
vielleicht auch freier ist. Jedenfalls werden wir
unterschiedliche Inhalte da haben. Und Das werden wir wahrscheinlich in
Europa dann relativ bald merken, weil die eine oder andere Meinung uns dann
eben nicht angezeigt wird, die woanders dann aber noch stehen bleibt. Bisher wird das
dann einfach komplett gelöscht. Künftig, technisch muss es ja irgendwie stehen
(21:15):
bleiben, wird dann halt nur in Europa nicht angezeigt. Und damit kriegen wir
natürlich plötzlich zwei verschiedene Meinungsräume.
Und damit wird es natürlich auch schwerer, die
Vorstellungen auszutauschen, sich mit unseren amerikanischen Freunden
zu streiten – im positiven Sinne – und auch darüber zu debattieren,
was darf man sagen, was darf man nicht sagen. Und damit tut sich ein
(21:38):
Graben zwischen Europa und den USA auf. Das
sehe ich einfach, dass hier die Rechtsordnung auseinanderdriften. Das finde ich auch sehr spannend. Vielleicht
noch einmal zum Haftung. Du hast es schon gesagt, man muss einfach sagen, in Europa,
vielleicht wie im Datenschutzrecht schon vorgelebt, jetzt im DSA übernommen, die
Geldstrafen sind unangenehm. Und das war eigentlich natürlich auch das
Ziel, die Geldstrafen unangenehm zu machen, damit jedenfalls die Regulierung beachtet
(22:01):
wird und nicht ein Unternehmen, dass sich das Geld in der Tasche halt
einfach sagen kann, naja, für uns nicht so relevant. Aber der zweite Punkt, den
du ansprichst, den finde ich wirklich sehr spannend, weil ich mich da manchmal auch frage,
wie es dann praktisch aussieht, wenn ich aus Europa mit
jemandem aus den USA diskutiere.
Welches Recht gilt denn dann? Und wie wird dann die Meinung der Fakten
(22:23):
überprüft? Ja, also es gilt grundsätzlich das sogenannte Herkunftslandprinzip
und insofern gilt immer das
Recht des Landes, wo das herkommt, in der Europäischen
Union, sind Meta-Facebook und
so weiter in Irland niedergelassen. Deswegen gilt zunächst einmal
das Recht in Irland. Wenn sie nicht innerhalb der Europäischen
(22:46):
Union wären, dann haben wir eben dieses Herkunftslandprinzip im
Europarecht nicht. Dann könnte eine Empfangsstaatskontrolle stattfinden.
Bei all diesen Plattformen, weil die in der Europäischen Union tätig sind,
haben wir diese Möglichkeit oder die Gefahr, je
nachdem, wie man es sieht, der Empfangsstaatskontrolle in der Regel nicht. Das
heißt, es richtet sich zunächst einmal nach irischen
(23:10):
Recht. Kann durchbrochen werden,
also Jugendschutzrecht, Strafrecht,
aber auch Gesundheitsabwehrrecht, Das sind sozusagen
Gründe, warum das durchbrochen werden darf, wo dann trotzdem eine Empfangsstaatskontrolle
stattfinden darf. Nur in diesen Bereichen. Das heißt, wenn es
Hass und Hetze geht, da ist es in der Regel, wenn es eine Beleidigung
(23:32):
geht, so, dass dann doch das deutsche Recht gilt. Aber
natürlich auch nur für Deutschland. Und das macht es dann
eben schwierig, wie man damit umgeht. Ich habe in meinem Kopf immer so das
Bild, ich sehe so ein X-Thread oder ein Thread bei
Instagram und dann sehe ich ihn anders aus der europäischen
Perspektive und hier sind mir vielleicht zwei, drei Kommentare gelöscht.
(23:55):
Der amerikanische Nutzer sieht ihn aber vollständig mit allen Kommentaren
drin. Ja, So wird das wahrscheinlich laufen. Bisher hat man
das versucht zu verhindern, indem man mit Community
Standards gearbeitet hat. Also Facebook hat Hausregeln
aufgesetzt, und zwar die sozusagen
den höchsten Standard genommen haben, damit man weltweit sicher
(24:17):
sein kann, dass man überall compliant ist.
Im Jugendschutzrecht ist es natürlich immer Deutschland, im Datenschutzrecht wahrscheinlich
auch, im Äußerungsrecht kann das auch durchaus ein anderes Land sein.
Aber nehmen wir das Beispiel klassischerweise
in Europa, haben wir mit Nippeln kein Problem, aber mit Gewalt. In
den USA haben wir mit Gewalt kein Problem, aber mit Nippeln, jetzt mal
(24:41):
grobe Linien zu bringen. Das heißt, hier kann es Sinn machen, dass man dann eben
bei Gewalt europäische Standards als höchsten nimmt und was
Sexualität angeht dann eben den US-Standard. So war es
ja auch, dass man dann bei Facebook keine Nippel sehen konnte. Wo wir
als Europäer sagen, da sind wir vielleicht etwas entspannter.
Also man hat Hausregeln geschaffen, die weltweit gelten
(25:03):
konnten. Und damit hatte man natürlich auch weniger
strafrechtliche Verfahren, hatte man auch weniger jugendschutzrechtliche
Themen, weil man das einfach freiwillig,
untergesetzlich abgeräumt hat.
Das hat natürlich dazu geführt, dass man in den USA
(25:23):
ganz viele Dinge weggeblockt hat, die nach
amerikanischem Recht zulässig wären. Und deswegen ist natürlich die
Behauptung von Zuckerberg, es wäre zu viel zensiert
worden, überspitzt. Aber er hat einen Punkt.
Weil natürlich, wenn wir in den USA europäische
Standards in die Ausregeln integrieren,
(25:46):
mehr weggeblockt wird, als in den USA nötig wäre.
Und bisher war das eben auch eine Möglichkeit, dass wir unsere
europäischen Standards exportieren konnten, weil wir sicher sein
konnten, der Markt ist so groß, Europa ist so groß, dass die großen
Plattformen diese Standards übernehmen, zu ihren Hausregeln machen und
damit weltweit Geltung verschaffen. Das war ja auch der Plan
(26:09):
eigentlich. Das ist sozusagen der Regulierungsansatz der Europäischen Union. Unser
Markt ist so groß, dass wir zwar keine
großen Plattformen aus Europa haben, aber sie sind alle
da und wir regulieren sie und schaffen damit weltweit sozusagen
unseren Recht Geltung. Und das ist man jetzt in Amerika
wohl nicht mehr gewillt mitzuspielen. Und Da kommen jetzt mehrere
(26:31):
Fakten zusammen, dass man wieder etwas wilder sein kann,
dass eben sozusagen vielleicht auch von Trump eine gewisse
Unterstützung da ist, sich wieder freier zu
machen. Aber das sind natürlich auch Tariffs. Für
Trump ist diese Zollpolitik immer ein Thema.
Aber man darf nicht vergessen, dass Regulierung,
(26:54):
rechtliche Grenzen natürlich auch eine Form von Handelshemmnis
sind. Klar, wenn man sein Produkt dafür
anpassen muss. Genau. Und insoweit können natürlich
Regeln wie der DSA oder der Digital Markets Act, das sind
kartellrechtliche Aspekte für größere Plattformen, können
natürlich als Teil eines Handelsstreits gesehen werden, dass die
(27:16):
Europäer hier den amerikanischen Plattformen den Zugang zum
Markt nur erlauben unter gewissen Voraussetzungen und so weiter.
Und das ist ein Aspekt, der sicherlich zumindest
mitschwingt in dieser Diskussion in den USA, dass man sich hier freimacht und
sagt, lieber Europäer, wir sind nicht mehr gewillt, nach euren Standards zu spielen, wir
richten uns jetzt nur noch nach unseren und ihr kriegt dann halt für
(27:38):
Europa eine Sonderversion. Das ist so ein bisschen wie beim Jugendschutz,
wo es in Deutschland früher Spiele mit Hakenkreuzung verboten waren. Da hat man gesagt, na
gut, wenn die Deutschen das nicht wollen, dann kriegt ihr jetzt eine deutsche Version. Dann
könnt ihr ja unter Deutschen gegeneinander spielen im Mehrspieler-Modus und der
Rest der Welt macht es halt mit. Und so ähnlich ist das
jetzt wahrscheinlich zu erwarten für die großen Plattformen wie X,
(28:00):
wie Facebook und so weiter, dass man dann eben zwei
virtuelle Räume nebeneinander hat. Ja, ich denke, das wird sehr
interessant sein zu beobachten, ob es sozusagen auf den, neben
dem wirklich zölle wirtschaftlichen Punkt, auch diesen Druck auf die
Regulierung in Europa geben wird. Sei es im Datenschutz, sei es im Plattformgeschäft,
sei es in sonstiger Regulierung, kann man ja auch Umweltauflagen, ob
(28:22):
es da ein Druck aufgebaut wird, naja, wenn ihr das so wollt, dann
machen wir nicht mehr mit oder wir
versuchen es zu umgehen, sage ich mal. Davon gehe ich eigentlich schon
fast aus. Das ist die Vorbereitung, dass man jetzt eben in den USA schon mal
neue Fakten schafft, also ohne Faktenchecker,
und damit eben schon auf Distanz geht und dann sagt, naja,
(28:45):
lieber Europäer, das kann es doch nicht sein und dann
das in irgendeiner Form verdient. Trump ist ja der große
Dealmaker und mit Musk im Hintergrund, der da doch
sehr, wie soll ich sagen, eine klare
Vision hat. Wenn jetzt
tatsächlich TikTok verkauft würde, ausgerechnet an Musk,
(29:08):
oder wenn tatsächlich Wettbewerber dann eben hier gegängelt
werden oder eben für seine Freiheit sorgt, das ist natürlich eine Vermischung
von Individualinteresse und dem Interesse
der Vereinigten Staaten, aber das wird da eben deutlich
mehr zusammengesehen, als wir das in Europa erkennen.
Aber deswegen ist sehr zu erwarten, dass ein Musk wahrscheinlich und
(29:31):
ein Trump hier Druck aufbauen werden, auf die Europäische Union zumindest
zum Teil die Regulierung zurückzunehmen Und sei es, dass es am
Schluss einfach nicht entforst wird.
Vielen Dank dir schon mal für die ganze, gerade dieser Vergleich USA und Europa.
Ich glaube, dass es vielen auch gar nicht bewusst, wie da die verschiedenen Regulierungen zusammenarbeiten.
Vielleicht zum Abschluss nochmal den Blick auf die europäische DSA-Regulierung.
(29:54):
Gibt es denn im Moment auch aus Europa hinaus nochmal Bestrebungen,
den DSA anzupacken, zu aktualisieren? Hat man gemerkt,
funktioniert vielleicht doch nicht oder funktioniert gerade gut? Ich glaube, dass es viel zu
früh ist. Letztes Jahr im Juni in Kraft getreten der DSA. Jetzt
sind wir dabei, noch die untergesetzlichen Regelungen zu schaffen. Das heißt,
diverse Kodizes. Wie wird das denn umgesetzt? Auch die
(30:16):
Aufsicht muss ja erst noch vollständig eingerichtet werden.
Also die Stelle der Digital Services Coordinator
bei der Bundesnetzagentur, die musste erst noch geschaffen werden
durch das Digitale-Dienste-Gesetz, was eben in Deutschland dann auch mit
Verspätung letztes Jahr erst gekommen ist und die verwaltungsrechtlichen
Grundlagen geschaffen hat. Also da werden jetzt erst mal Behörden aufgebaut,
(30:38):
wie für den Jugendschutz KIT, also eine eigene Stelle bei der Bundeszentrale
für Kinder- und Jugendmedienschutz oder die Landesmedienanstalten, die das jetzt
eben dann noch ausrollen müssen. Das heißt, man ist jetzt gerade
damit beschäftigt, erstmal diesen Digital Services Act zur
Anwendung zu bringen. Und auch dieses Beispiel, dass wir jetzt einen
Faktchecker haben oder einen Trusted Flagger, bisher heißt einen
(31:01):
einzigen, zeigt ja, wir sind da noch ganz am Anfang. Ich glaube,
dass die Europäische Union in der Regel mindestens eine
Legislatur abwartet. Da wird es natürlich einen Bericht geben, wie ist das
gelaufen. Aber wir sind jetzt in der neuen europäischen Legislatur. Die
nächsten vier Jahre sehe ich nicht, dass man da was am Gesetz
ändert. Wir haben das ja auch mit der Anschlussgrundverordnung
(31:23):
erlebt oder mit vielen anderen Verordnungen. Im digitalen Raum ist die
Europäische Union ja in der Zwischenzeit am Vollharmonisieren mit
Verordnungen Und da werden die schon aus Prinzip nicht mehr von
zurückweichen. Also das sehe ich also die
nächsten vier Jahre nicht, dass es da Änderungen gibt, sondern man wird den
DSA jetzt erstmal zur Anwendung bringen. Im Prinzip hat
(31:46):
er sich aber, glaube ich, bewährt, weil es ja auf der
Struktur des Notice and Take Down, der Haftung aufsetzt.
Das läuft seit 25 Jahren und jetzt
eben noch Pflichten ergänzt hat. Und ja, Am Schluss wird
alles nicht so heiß gegessen, wie es gekocht wird. Warten wir
mal ab. Henna, vielen lieben Dank dir für diesen ganz
(32:08):
großen Überblick und das tiefe Reingehen auf die DSA-Regulierung im
Vergleich USA und Europa. Sehr interessant. Vielen Dank für
den Überblick. Vielen Dank, dass du bei uns zu Gast warst. Wenn
euch die Episode und der TV-Helden-Podcast gefällt, dann abonniert uns
gerne bei Spotify oder YouTube oder wo auch immer ihr Podcast hört.
Bewertet uns gerne. Vielen Dank, dass du da warst, Henna. Vielen
(32:30):
Dank fürs Zuhören. Vielen Dank fürs Zuhören. Schön, dass ich da sein durfte.
(32:53):
SWR 2021