Statement zu Chatkontrollen

Picture of Anna Kassautzki

Anna Kassautzki

Am 11.05.2022 hat die Europäische Kommissionen einen Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zu Vorschriften zur Vorbeugung und Bekämpfung sexuellen Missbrauchs von Kindern[1] vorgelegt. Unter dem Schlagwort „Chatkontrollen“ wurde der Vorschlag in den vergangenen Wochen diskutiert. Dieser Vorschlag der Kommission geht mit unverhältnismäßigen und inakzeptablen Grundrechtseinschränkungen einher, ist mit dem Koalitionsvertrag der amtierenden Regierungskoalition nicht vereinbar, ist meines Erachtens weder Grundgesetzkonform, noch mit EU-Recht vereinbar und hinter den Nutzen für die tatsächliche Bekämpfung von Darstellungen von Kindesmissbrauch im Netz würde ich mindestens ein Fragezeichen setzen. Warum das so ist, folgt jetzt:

Doch eins vorweg: der Schutz von Kindern vor sexuellem Missbrauch und das Verbot des Verbreitens von Material von eben solchem Missbrauch muss konsequent umgesetzt werden. Das sind Verbrechen gegen die Schwächsten in unserer Gesellschaft, deswegen besonders verwerflich und der Rechtstaat muss sie mit allen legitimen Mitteln verfolgen und bekämpfen. Ich bin froh, dass Bundesinnenminister Nancy Faeser deswegen mehr Kräfte bei der Bundespolizei einstellen möchte, um die Ermittlungsarbeiten weiter zu beschleunigen. Bei der Bekämpfung steht jedoch der Schutz von Kindern an erster Stelle: Ein vorrangiges Anliegen muss es sein, Kinder davor zu schützen, überhaupt Opfer sexualisierter Gewalt zu werden. Sowohl Intervention, als auch Strafverfolgung bedeuten nämlich, dass Unschuldigen bereits unermessliches Leid geschehen ist.

Darüber hinaus sollten wir im Rahmen der Prävention aber auch die Zugänglichkeit von Angeboten sicherstellen, die es Menschen mit entsprechenden Störungen erlauben sich in Therapie zu begeben, bevor sie zu Täter*innen, zu Kriminellen, werden.

In der Debatte lässt sich bedauerlicherweise ein Muster feststellen: Wer berechtigte Grundrechtsbedenken äußert, der*dem wird schnell vorgeworfen den Missbrauch von Kindern kleinzureden oder in Kauf zu nehmen. Es gibt Menschen, die sich deswegen nicht mehr trauen, sich zu solchen geplanten Grundrechtseinschränkungen zu äußern, weil nicht nur der Gegenwind, sondern der regelrechte Hass so groß ist, dass sie Angst um sich und/oder ihre Familien haben. Das darf in einer Demokratie nicht sein.

DER VORSCHLAG DER KOMMISSION

Der vorliegende Vorschlag der Kommission sieht vor, durch eine Verordnung – also unmittelbar geltendes Unionsrecht, das durch nationale Gesetze nicht beeinflusst werden kann – auf sehr breiter Basis Inhalte auf bekannte und neue Darstellungen sexuellen Missbrauchs von Kindern (Child Sexual Abuse Material, kurz: CSAM) und Anbahnungsversuche von Erwachsenen an Kinder (sog. Grooming) zu scannen. Befunde, die möglicherweise auf dieses Material oder Verhalten hinweisen, sollen demnach an ein EU-Zentrum (EU Centre) gemeldet werden. Das EU-Zentrum soll dann offensichtliche, falsch-positive Befunde (also Material, das als CSAM gekennzeichnet wurde, aber es gar nicht ist) herausfiltern und den Rest in Zusammenarbeit mit Europol und den nationalen Strafverfolgungsbehörden verfolgen.

Dabei sollen jedwede einschlägige Dienste der Informationsgesellschaft („relevant information society services[2]“), also Hostinganbieter*innen, Dienstleister*innen interpersoneller Kommunikation (Chats & Messenger), Software-/App-Stores, und Internetzugangsanbieter*innen, sowie Hersteller*innen und Anbieter*innen jeglicher Softwareprodukte und softwarebasierte Dienstleistungen selbst[3] in die Pflicht genommen werden. Also grob zusammengefasst: alle. Diese sollen sehr vage gefassten Vorgaben nachkommen, CSAM und Grooming automatisiert zu erkennen[4], zu melden[5] und den Zugang von Risikogruppen (also Kindern) zu besonders riskanten Diensten zu unterbinden[6]. Eine entsprechende Risikobewertung soll dabei in Zusammenarbeit mit dem EU-Zentrum und den Anbieter*innen und Dienstleister*innen erfolgen[7].

Die Anbieter*innen sollen die Daten natürlich nicht nur erheben, sondern auch sammeln. Mit Bezug auf potenzielle Missbrauchsfälle oder Versuche von Anbahnung sollen dabei umfangreiche Datensätze[8] erhoben und weitergeleitet werden, die unter anderem folgende Informationen umfassen sollen:

  • alle Inhaltsdaten, einschließlich Bilder, Sprachnachrichten, Videos und Text
  • alle verfügbaren Daten außer den Inhaltsdaten
  • Informationen über den geografischen Standort
  • Informationen über die Identität aller beteiligten Nutzer*innen

Für die Erhebung dieser Daten, sollen nur sehr vage gehaltene technische Mittel zum Einsatz kommen[9], deren Auswahl den Anbieter*innen und Dienstleistern obliegt, die sich dabei aber kostenfrei an einem Pool von Überwachungstechnologien aus dem EU-Zentrum bedienen dürfen sollen[10]. Man sagt also nicht genau, wie die Daten erhoben werden sollen und stellt den Unternehmen zusätzlich steuerfinanzierte Überwachungsinstrumente zur Verfügung.

Neben den Zugangsbeschränkungen, den Verpflichtungen zur Überwachung und der Meldung ist es vorgesehen, dass Anbieter*innen und Dienstleister*innen Inhalte, die unter die Definition von CSAM und Grooming fallen, kurzfristig löschen[11] oder den Zugang dazu blockieren[12] müssen.

PROBLEMATIK DES VORSCHLAGS

UNVERHÄLTNISMÄßIGE GRUNDRECHTSEINGRIFFE

Auch die Kommission sieht große Grundrechtseinschränkungen. Sie führt in ihrer erläuternden Begründung[13] diese sogar auf, um sie aber in der Gewichtung, ohne ausführliche Begründung dem Ziel des Vorschlags, sexualisierte Gewalt an Kindern zu vermindern, unterordnet. Ziel schlägt also Grundrechte.

Die Kommission führt dabei im Bereich der Grundrechtseingriffe insbesondere die in Artikel 7, 8 und 11 der Charta der Grundrechte der Europäischen Union[14] festgeschriebenen Rechte auf. Das sind: das Recht der Nutzer*innen auf Achtung des Privat- und Familienlebens, insbesondere „ihrer Kommunikation“[15], der Schutz der personenbezogenen Daten (also alle Daten, die man auf uns zurückführen kann)[16] und die Informationsfreiheit[17] an.

Da hört es aber nicht auf. Der Vorschlag verletzt die Rechte auf ein digitales Briefgeheimnis[18] (und jetzt überlegt bitte, was ihr in einen Brief schreibt und was in eine Chatnachricht), das Fernmeldegeheimnis[19], das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme[20], sowie das Prinzip der Unschuldsvermutung[21]. Das wäre ein anlassloses Scannen (Achtung: höheres Ziel ist kein konkreter Anlass) aller unserer digitalen Kommunikation.

Dieser Grundrechtseingriff, der nicht nur auf anlasslose Massenüberwachung, sondern auch die Schwächung der technischen Grundlagen sicherer und vertraulicher Kommunikation – und jeglicher datenaustauschender Systeme im Allgemeinen – hinausläuft ist jedoch völlig unverhältnismäßig.

Bereits in den vielen Diskussionen zur Vorratsdatenspeicherung wurde diese Einschätzung, dass eine anlasslose Massenüberwachung der Bevölkerung zur Strafverfolgung Einzelner legitim sei, sowohl vom Bundesverfassungsgericht[22] als auch dem Europäischen Gerichtshof[23] für diesen deutlich beschränkteren Fall der Datenerhebung abgelehnt. Es ist zu erwarten, dass auch der jetzige Vorschlag spätestens vor den entsprechenden Gerichten scheitern wird. Chatkontrollen sind wie Vorratsdatenspeicherung auf Speed.

Zu dieser Einschätzung kommt im übrigen auch die ehemalige Richterin am Europäischen Gerichtshof Prof. Dr. Ninon Colneric in einem Rechtsgutachten für die Die Grünen/EFA-Fraktion im Europäischen Parlament[24].

UNZUVERLÄSSIGKEIT ALGORITHMISCHER ERKENNUNG UND GEFAHR FALSCH-POSITIVER ERGEBNISSE

Die Kommission fordert in ihrem Vorschlag, dass die Algorithmen zur Erkennung zu beanstandenden Materials oder Handelns hinreichend zuverlässig sein sollen[25]. Dabei wird nicht beachtet, dass bei der Minimierung von Fehlern zwischen Fehlern erster und zweiter Art wählen muss und die jeweilig andere Fehlerkategorie dadurch gehäuft Auftritt. Ihr wollt wissen, was das genau heißt?

Fehler erster Art sorgen für mehr falsch-positive Befunde, es werden also Inhalte als CSAM gekennzeichnet, gevorratsdatenspeichert und weitergeleitet, die gar keine sind. Wählt man ein System, dass Fehler erster Art begünstigt, um keine Aufnahmen fälschlicherweise zu „verpassen“ flutet man so die Ermittlungsbehörden mit irrelevantem Material. Behörden sind bereits heute mit der Masse an vorhandenem Material überfordert.

Fehler zweiter Art identifizieren zwar genauer, lassen aber auch einige Taten als falsch negativ gewähren. Missbrauchsdarstellungen würden also nicht als solche erkannt. Wählt man ein System mit einem Fehler zweiter Ordnung, verpasst man möglicherweise relevante Aufnahmen.

Beide Arten Fehler sind in diesem besonders sensiblen Bereich – und mit sensibel meine ich sowohl den Straftatbestand des Kindesmissbrauchs, als auch weitreichende Grundrechtseinschränkungen – ein absolutes No-Go!

INAKZEPTABLE TECHNOLOGISCHE IMPLIKATIONEN

Um die umfangreichen Datenerhebungspflichten des Vorschlags der Kommission zu erzwingen, auch wenn diese explizit so nicht genannt werden, gibt es zwei Optionen: Entweder müssen Daten während des Transports entschlüsselt, gescannt, wieder verschlüsselt und weitergeleitet werden oder aber die Daten werden noch auf den Endgeräten, vor oder nach der Transportverschlüsselung gescannt (sogenanntes Client-Side-Scanning, kurz CSS). Eine sichere Verschlüsselung ohne Hintertüren wäre faktisch tot.

Beide Ansätze greifen nämlich massiv in die Integrität vertraulicher Kommunikation ein:

Sollte die technische Grundlage der Verschlüsselung so weit geschwächt werden, dass Vermittlungsstellen Einblick in diese Daten erhalten, so ist jegliche auf diesen Geräten verwendete Technologie grundsätzlich unsicher und nicht integer. Daten könnten in vielen Fällen nicht nur ausgelesen, sondern auch verändert werden, ohne dass die empfangende Stelle eine Möglichkeit hätte dies zu bemerken. Dies beträfe nicht nur private Kommunikationsdaten, sondern auch alle anderen Daten, die unter den Vorschlag fallen, wie z.B. Zahlungsverkehr oder auch Kommunikation von Berufsgeheimnisträger*innen wie Ärzt*innen, Psychotherapeut*innen, Rechtsanwält*innen und auch uns Abgeordneten.

Auch CSS birgt massive Gefahren für Missbrauch. Informationssysteme selbst wären nicht länger sicher, Betreiber*innen und Nutzer*innen würden die Hoheit über ihre eigenen Systeme verlieren. Bürger*innen als Nutzer*innen hätten die „Wanze in der eigenen Tasche“, wie führende Experten aus dem Bereich Verschlüsselung in ihrem Statement gegen CSS[26] erklären.

In beiden Fällen besteht die Gefahr, dass grundrechtsfeindliche Regime die Technologie nutzen um Dissident*innen und unliebsame Mitbürger*innen damit zu identifizieren und zu verfolgen, indem sie z.B. Material von politisch oder weltanschaulich verfolgten Personen oder Gruppen in die Datenbanken zur Erkennung von CSAM einschleusen. Den zugrundeliegenden Algorithmus interessiert es nicht, ob er mit einer Datenbank mit Darstellungen von Kindesmissbrauch, mit einer Datenbank von Oppositionellen oder einer Datenbank mit queeren Menschen oder Symbolen arbeitet. Durch die Einführung der entsprechenden Technologie wäre diesem Angriffsweg Tür und Tor geöffnet.

Beide Herangehensweisen stehen Eklatant im Widerspruch zum derzeitigen Koalitionsvertrag[27] und seinen Versprechen auf die Einführung eines Rechts auf Verschlüsselung, sowie  ein wirksames Schwachstellenmanagement, mit dem Ziel Sicherheitslücken zu schließen, und die Vorgaben „security-by-design/default“[28]. Wir wollen eine sichere und verschlüsselte Kommunikation, bei der niemand mitlesen kann. Darüber hinaus kollidiert er auch mit dessen Ankündigung allgemeine Überwachungspflichten, Maßnahmen zum Scannen privater Kommunikation und eine Identifizierungspflicht abzulehnen[29].

AUSLAGERUNG VON GRUNDRECHTSVERLETZUNGEN AUF PRIVATE AKTEUR*INNEN

Durch den von der EU gewählten Weg, die technische Ausgestaltung weitestgehend den Anbieter*innen und Betreiber*innen informationstechnischer Systeme zu überlassen, stoßen wir auf das nächste Problem. Die EU möchte die Vorgaben machen welche Daten erhoben werden sollen und zwingt dadurch die Anbieter*innen und Betreiber*innen in eine Situation, in der sie keine Wahl haben als, um das Recht dieser Verordnung nicht zu brechen, ethisch unvertretbar und ggf. illegal zu handeln.

Diese Herangehensweise ist abzulehnen.

KRITIK DRITTER AM VORSCHLAG

Inzwischen haben sich zahlreiche Organisationen gegen den Vorschlag der EU-Kommission ausgesprochen, mit ganz interschiedlichen Argumenten, die allerdings in ihrer Gesamtheit eine klare Botschaft übermitteln: Dieser Vorschlag geht zu weit. Hier eine Auswahl, diese Liste wird weiter ergänzt!

  • Reporter ohne Grenzen befürchtet die Schaffung eines „Nachschlüssels“ für sämtliche private Kommunikation, nicht nur für „zuständige“ Behörden.[30]
  • Der deutsche Journalistenverband befürchtet gravierende Einschnitte in die Pressefreiheit.[31]
  • Datenschutzbeauftragter der Bundesrepublik Deutschland Ulrich Kelber: „Geplante „Chatkontrolle“ der Kommission aus Sicht des Datenschutzes – ein Thread nach erster Prüfung: Der Entwurf der Kommission ist nicht vereinbar mit unseren europäischen Werten und kollidiert mit geltendem Datenschutzrecht“[32]
  • EDRi und 50 andere Organisationen sagen: „Privacy and safety are mutually enforcing rights. People’s ability to communicate without unjustified intrusion – whether online or offline – is vital for their rights and freedoms, as well as for the development of vibrant and secure communities, civil society and industry.“[33]
  • Kryptografie-Professor Matthew Greene bezeichnet den Vorschlag als das ausgefeilteste Überwachungssystem, das je außerhalb von China und der UDSSR auf den Weg gebracht wurde.[34]
  • Wissenschaftler aus aller Welt schlagen Alarm mit ihrem Papier „The bugs in our pockets“ – „Die Abhörwanzen in unseren Taschen“[35]
  • Der Chaos Computer Club weist darauf hin, dass vertrauenswürdige Kommunikation ein Grundrecht ist, dass insbesondere Whisteblower*innen und Journalist*innen brauchen, um ihre Arbeit zu machen. Zudem sorgt die Flut an Falsch-Meldungen für ein weiteres Lahmlegen der Strafverfolgungsbehörden.[36]
  • Der deutsche Anwaltsverein sieht Berufsgeheimnisträger in der Gefahr, diese Geheimnisse nicht mehr wahren zu können.[37]
  • Die Missbrauchsbeauftragte der Bundesregierung äußert sich kritisch zu dem Vorschlag: Sie argumentiert für einen stärkeren Fokus auf Prävention und bedauert, dass Datenschutz und Kinderschutz gegeneinander ausgespielt werden.[38]

Auch aus der Politik gibt es kritische Stimmen:

  • Bundesinnenministerin Nancy Faeser hat sich bereits gegen Chatkontrollen ausgesprochen.[39]
  • Bundesjustizminister Marco Buschmann sagt: „Das Bundesverfassungsgericht hat immer wieder die strenge Verhältnismäßigkeit heimlicher Ermittlungsmaßnahmen vor dem Hintergrund des besonders geschützten Brief- und Fernmeldegeheimnisses angemahnt.“[40]
  • Bundesverkehrsminister Volker Wissing ist ebenfalls nicht glücklich mit dem Vorschlag der EU-Kommission: „Die allgemeine Kontrolle von Chatverläufen und das Unterlaufen von Verschlüsselungen gehen zu weit.“[41]

WAS DIE DISKUSSION FÜR DIE SPD BEDEUTET

Das freie Internet ist die Lebensrealität nicht nur, aber vor allem auch junger Menschen in Deutschland, Europa und auf der ganzen Welt. Es bietet ihnen einen Entfaltungsraum und die Möglichkeit sich über Grenzen hinaus zu informieren und kommunizieren. Für sie ist das Internet kein „Neuland“ – nichts wovor man Angst hat, sondern das wichtigste Werkzeug im digitalen Werkzeugkasten des 21. Jahrhunderts.

Wir als SPD sollten diesen Raum schützen und die Wünsche nach einem freien und privaten Raum im Netz achten, um nicht weiterhin netzaffine Menschen vor den Kopf stoßen und für das sozialdemokratische Projekt zu verlieren, denn auch die digitale Welt ist besser, wenn sie frei, gerecht und solidarisch ist.

Die neuere deutsche Geschichte hat uns darüber hinaus bedauerlicherweise in den letzten hundert Jahren gleich zweimal gelehrt, wie gefährlich und unterdrückerisch es enden kann, wenn der Staat zu viele Daten sammelt und nutzt. Sowohl die nationalsozialistische Verfolgungs- und Gewaltherrschaft als auch die Überwachungs- und Bespitzelungserfahrungen aus der DDR sollten uns eine Mahnung sein, das Recht auf Privatsphäre zu verteidigen und nicht nur dem Staat und seinen Datensammel- und -auswertungsfähigkeiten, sondern auch denen der Konzerne enge Grenzen setzen – gerade in Zeiten stark gestiegener Leistungsfähigkeit von Datenverarbeitungssystem.

FAZIT

Der vorliegende Vorschlag steht mit seinem Ansatz der anlasslosen Massenüberwachung, analog zur bereits mehrfach vor höchsten Gerichten gescheiterten Vorratsdatenspeicherung, im Widerspruch zu in der Grundrechtecharta der Europäischen Union und dem Grundgesetz verankerten Grundrechten, ist als unvereinbar mit digitalen Bürger*innenrechten und den Grundwerten der Sozialdemokratie einzustufen und abzulehnen.

Die Europäische Kommission hat nach zuletzt Vorratsdatenspeicherung und Uploadfiltern bedauerlicherweise einmal mehr gezeigt, dass sie im Bereich der Digitalpolitik nicht die technologischen Folgen ihres Handels versteht oder aber – schlimmer noch – diese willentlich in Kauf nimmt. Sie spielt damit weiterhin fahrlässig mit der Glaubwürdigkeit der Europäischen Union, insbesondere gegenüber ihren internet- und digitalaffinen Generationen und läuft Gefahr allen Unionsbürger*innen als auch dem digitalen Wirtschaftsstandort Europa schweren und nachhaltigen Schaden zuzufügen.

Selbstkritisch muss man zugeben: auch die SPD hat sich in der Vergangenheit bei ähnlich gelagerten digital- und innenpolitischen Themen, besonders in Zeiten der letzten großen Koalitionen, wiederholt auf Irrwege begeben und sie tut gut daran, hier Glaubwürdigkeit zurückzugewinnen.

Im Koalitionsvertrag haben wir uns deshalb diesmal darauf geeinigt, dass wir das freie Internet stärken wollen: Mit einem Recht auf starke Verschlüsselung, dem Fokus auf Security-by-Design und Security-by-Default, der Ablehnung von allgemeinen Überwachungspflichten, Maßnahmen zum Scannen privater Kommunikation und Identifizierungspflichten. Auch damit ist der vorliegende Vorschlag unvereinbar.

Wir sind solidarisch mit den Opfern von Gewalt – das widerspricht sich nämlich nicht – und unterstützen unsere Justiz und Strafverfolgungsbehörden auch im digitalen Raum dabei Gerechtigkeit herzustellen, das hat auch unsere Innenministerin Nancy Faeser in den letzten Tagen klargestellt, wir dürfen dabei aber nicht die Freiheit opfern. Genau das würden wir mit der Zustimmung zum vorliegenden Vorschlag der Kommission aber tun.

Und deshalb sollten und dürfen wir ihm nicht zustimmen.


[1] Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL laying down rules to prevent and combat child sexual abuse (COM/2022/209 final) [Offizielle Übersetzung liegt noch nicht vor], Rev. 17. Mai 2022

[2] COM/2022/209 final, Art. 2 lit. f

[3] COM/2022/209 final, Art. 2 lit. c

[4] COM/2022/209 final, Art. 10

[5] COM/2022/209 final, Art. 12

[6] COM/2022/209 final, Art. 6 Abs. 1 lit. b

[7] COM/2022/209 final, Art. 3

[8] COM/2022/209 final, Art. 13 Abs. 1

[9] COM/2022/209 final, Präambel Abs. 16, 17 & 18

[10] COM/2022/209 final, Präambel Abs. 27

[11] COM/2022/209 final, Art. 14

[12] COM/2022/209 final, Art. 16

[13] COM/2022/209 final, Explanatory Memorandum Art 3. under “Fundamental Rights”

[14] Charter of Fundamental Rights of the European Union (2012/C 326/02), Rev. 30.5.2022

[15] 2012/C 326/02, Art. 7

[16] 2012/C 326/02, Art. 8

[17] 2012/C 326/02, Art. 11

[18] Art. 10 GG

[19] Art. 10 GG

[20] Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG (vgl. 1 BvR 370/07, 1 BvR 595/07)

[21] Allgemeine Erklärung der Menschenrechte, UN A/RES/217 A (III), Art. 11 Abs. 1

[22] https://www.bundesverfassungsgericht.de/SharedDocs/Pressemitteilungen/DE/2010/bvg10-011.html, Rev. 30.5.2022

[23] https://curia.europa.eu/jcms/upload/docs/application/pdf/2022-04/cp220058de.pdf, Rev. 30.5.2022

[24] Prof. Dr. Ninon Colneric “Legal opinion commissioned by MEP Patrick Breyer, The Greens/EFA Group in the European Parliament”, March 2021

[25] COM/2022/209 final, Präambel Abs. 28

[26] Abelson et al. “Bugs in our Pockets: The Risks of Client-Side Scanning”, arXiv:2110.07450 [cs.CR]

[27] „Mehr Fortschritt wagen“ – Koalitionsvertrag 2021— 2025 zwischen der Sozialdemokratischen Partei Deutschlands (SPD), BÜNDNIS 90 / Die Grünen und den Freien Demokraten (FDP) (KoaV)

[28] KoaV, S. 13

[29] KoaV, S. 14

[30] https://www.reporter-ohne-grenzen.de/fileadmin/Redaktion/Downloads/Berichte/2020/201117_offener_Brief_an_den_Ministerrat_Verschluesselung.pdf)

[31] https://www.djv.de/startseite/profil/der-djv/pressebereich-download/pressemitteilungen/detail/news-keine-massenueberwachung

[32] https://twitter.com/UlrichKelber/status/1524738280171913218?t=wwt-HG_ucVeBCPxRAjxWeA&s=09

[33]  https://edri.org/our-work/eu-rules-on-scanning-private-online-communications-document-pool/

[34] https://twitter.com/matthew_d_green/status/1524107553248100355

[35] https://arxiv.org/pdf/2110.07450.pdf

[36] https://www.ccc.de/de/updates/2022/eu-kommission-will-alle-chatnachrichten-durchleuchten

[37] https://anwaltverein.de/de/newsroom/pm-12-21-kinderschutz-und-mandatsgeheimnis-nicht-gegeneinander-ausspielen

[38] https://netzpolitik.org/2022/digitalminister-wissing-chatkontrolle-nicht-hinnehmbar/

[39] https://www.tagesschau.de/inland/faeser-sexualisierte-gewalt-verfolgen-101.html

[40] https://www.fdp.de/buergerrechte-gelten-auch-im-digitalen-raum

[41] https://www.bmvi.de/SharedDocs/DE/Pressemitteilungen/2022/019-statement-chatkontrolle.html