1 00:00:00,000 --> 00:00:15,530 *34C3 Vorspannmusik* 2 00:00:15,530 --> 00:00:21,210 Herald: Es ist einiges los in der politischen Arena der EU in Sachen 3 00:00:21,210 --> 00:00:26,669 Datenschutz. Wie ja einige von euch wissen, wird nächstes Jahr die 4 00:00:26,669 --> 00:00:33,270 Datenschutz-Grundverordnung wirksam werden und das ist bei Weitem noch nicht alles: 5 00:00:33,270 --> 00:00:40,579 Momentan findet eine Lobbyschlacht statt zu der ePrivacy-Verordnung und was da so 6 00:00:40,579 --> 00:00:44,540 alles gerade im Moment passiert, das wird uns heute Ingo erzählen. Ingo ist 7 00:00:44,540 --> 00:00:54,259 Redakteur bei Netzpolitik und ist auch dazu noch im Verein Digitale Gesellschaft 8 00:00:54,259 --> 00:00:58,940 und damit wünsche ich Euch einen wunderschönen ersten Talk und bitte helft 9 00:00:58,940 --> 00:01:09,640 mir mit Applaus für Ingo. Ingo Dachwitz: Guten Morgen oder Moin 10 00:01:09,640 --> 00:01:16,060 Moin, wie man in Hamburg sagt - Leipzig nich - glaub ich. Ganz schön früh ist es. 11 00:01:16,060 --> 00:01:20,500 Ich bin ganz überrascht, dass so viele hier sind, freut mich sehr. Ich glaube, 12 00:01:20,500 --> 00:01:23,560 ich bin noch nie so früh auf dem Kongress gewesen. Aber es ist sehr gut, dass es 13 00:01:23,560 --> 00:01:27,490 noch so früh ist, weil ich dazu neige meine Vorträge und Präsentationen immer so 14 00:01:27,490 --> 00:01:30,820 voll mit Inhalten zu packen, dass es eigentlich immer viel zu viel ist. Gut, 15 00:01:30,820 --> 00:01:34,820 dass ihr noch aufnahmefähig seid. Ich darf heute also über ein Stück Politik 16 00:01:34,820 --> 00:01:40,080 sprechen, das ich auf netzpolitik.org seit gut anderthalb Jahren begleite. Ziemlich 17 00:01:40,080 --> 00:01:44,490 von Anfang an - das politische Ringen um die ePrivacy-Verordnung oder auch 18 00:01:44,490 --> 00:01:47,680 „Verordnung über die Achtung des Privatlebens und den Schutz 19 00:01:47,680 --> 00:01:51,740 personenbezogener Daten in der elektronischen Kommunikation“, wie sie 20 00:01:51,740 --> 00:01:57,140 offiziell und handlich heißen soll. Eine Verordnung, die die eben schon 21 00:01:57,140 --> 00:02:02,660 angesprochene Datenschutzgrundverordnung, die ja ab Mai 2018 wirksam ist - oder 22 00:02:02,660 --> 00:02:06,750 wirksam wird - ergänzen soll und zwar eben für den Bereich der elektronischen 23 00:02:06,750 --> 00:02:11,560 Kommunikation und insgesamt ein Thema, das in den Medien - in den klassischen Medien, 24 00:02:11,560 --> 00:02:15,830 aber auch in den sozialen Medien - so wenig Aufmerksamkeit erfährt, dass ich 25 00:02:15,830 --> 00:02:19,720 mich zwischendurch einmal gezwungen sehe zu solchen Überschriften zu greifen, um 26 00:02:19,720 --> 00:02:23,630 irgendwie zu versuchen das Thema an den Mensch zu bringen. Deshalb vielleicht mal 27 00:02:23,630 --> 00:02:31,160 die Frage, damit ich weiß, sozusagen auf was ich mich einstellen kann. Wer von euch 28 00:02:31,160 --> 00:02:36,130 hat von der ePrivacy-Verordnung oder von dem Thema schon mal gehört, zumindest? 29 00:02:36,130 --> 00:02:41,780 Okay, fast alle, sehr gut. Congress ist eben doch ein tolles Publikum. Wer würde 30 00:02:41,780 --> 00:02:49,270 sagen, er oder sie weiß, worum es genau geht? Okay, okay, so hatte ich es mir in 31 00:02:49,270 --> 00:02:53,880 etwa erhofft. Also eine ganz gute Ausgangsbasis. Und ich nenne dieses 32 00:02:53,880 --> 00:02:57,720 politische Ringen um die ePrivacy- Verordnung, über das ich heute spreche, 33 00:02:57,720 --> 00:03:01,000 wirklich ganz bewusst Lobbyschlacht. Auch wenn es natürlich ein bisschen martialisch 34 00:03:01,000 --> 00:03:05,459 klingt, weil die Auseinandersetzung um diese Verordnung echt heftig ist und die 35 00:03:05,459 --> 00:03:09,340 politischen Fronten doch ziemlich starr verlaufen. Deshalb auch dieses 36 00:03:09,340 --> 00:03:13,959 Hintergrundbild, das die damalige Lobby im englischen House of Commons zeigt, wo die 37 00:03:13,959 --> 00:03:19,020 Interessenvertreter eben herumlungerten. Ich hab das Originalbild von 1886 nur 38 00:03:19,020 --> 00:03:23,021 leicht modifiziert. Also eine der „schlimmsten Lobby-Kampagnen, die ich je 39 00:03:23,021 --> 00:03:27,290 gesehen habe“, zitiert die Transparenz- Organisation Corporate Europe einen 40 00:03:27,290 --> 00:03:33,330 Parlaments-Insider über den industriellen Gegenwind gegen die Verordnung. Ich habe 41 00:03:33,330 --> 00:03:37,930 gedacht, wir fangen einfach mal mit ein paar Beispielen dafür an. Mit nichts 42 00:03:37,930 --> 00:03:46,090 Geringerem als einem Atompilz visualisiert die Organisation Werbung Treibende im 43 00:03:46,090 --> 00:03:51,630 Markenverband die ePrivacy-Verordnung und ihre Konsequenzen. Also so viel zur 44 00:03:51,630 --> 00:03:56,870 martialischen Rhetorik. Die OWM, das ist ein Branchenverband, in dem von Adam A wie 45 00:03:56,870 --> 00:04:02,180 Adam Ritter oder Alfred Ritter GmbH oder Adam Opel GmbH über D wie Deutsche Telekom 46 00:04:02,180 --> 00:04:06,510 bis zu VW Volkswagen, W wie Wüstenrot, so ziemlich viele große deutsche Unternehmen 47 00:04:06,510 --> 00:04:14,709 vertreten sind. Also eine ePrivacy- Verordnung als Atomeinschlag oder dieses 48 00:04:14,709 --> 00:04:19,410 Statement von Thomas Duhr, Vizepräsident des Bundesverbandes Digitale Wirtschaft 49 00:04:19,410 --> 00:04:25,050 BVDW. Der sagt, die Verordnung negiere fundamentale Prinzipien der digitalen 50 00:04:25,050 --> 00:04:31,590 Wirtschaft. „Das Internet wie wir es heute kennen wird es damit nicht mehr geben“ Und 51 00:04:31,590 --> 00:04:35,060 ich habe noch ein drittes Beispiel zum Einstieg mitgebracht. Diesmal ein Film, 52 00:04:35,060 --> 00:04:38,220 produziert von einem breiten Bündnis europäischer Handels-, Verlags- und 53 00:04:38,220 --> 00:04:45,390 Werbeverbände, und ich hoffe das funktioniert jetzt. Das Video läuft... 54 00:04:45,390 --> 00:04:52,090 aber der Ton nicht. Video: "2018. Europe is the tech mecca. 55 00:04:52,090 --> 00:05:01,640 Startups are flourishing, consumers are enjoying the best apps avail... 2018..." 56 00:05:01,640 --> 00:05:05,630 ID: Nö, daran kann's nicht liegen. Video: "Europe is the tech mecca. Startups 57 00:05:05,630 --> 00:05:11,440 are flourishing, consumers are enjoying the best apps available and revenue from 58 00:05:11,440 --> 00:05:18,550 data-driven ads helps make that possible. Until one day, the apps go dark. Data- 59 00:05:18,550 --> 00:05:25,980 driven advertising is... 2018. Europe is the tech mecca. Startups are flourishing, 60 00:05:25,980 --> 00:05:31,360 consumers are enjoying the best apps available and revenue from data-driven ads 61 00:05:31,360 --> 00:05:38,293 helps make that possible. Until one day, the apps go dark. Data-driven advertising 62 00:05:38,293 --> 00:05:45,773 is no more. Less revenue, fewer startups, fewer apps. An app-less future consumers 63 00:05:45,773 --> 00:05:53,990 never saw coming. from tech mecca to tech wasteland. Enter the App-ocalypyse. Coming 64 00:05:53,990 --> 00:06:12,750 soon to cinemas." *dramatische Musik* 65 00:06:12,750 --> 00:06:15,770 ID: Ja, habt Ihr auch schon alle Angst, dass eure Apps plötzlich ausfallen? 66 00:06:15,770 --> 00:06:21,910 *Lachen* ..., weil der Datenschutz das Internet kaputt macht? Das soll es an 67 00:06:21,910 --> 00:06:24,700 Schauermärchen dann zum Einstieg aber auch schon mal gewesen sein. Stattdessen will 68 00:06:24,700 --> 00:06:27,770 ich euch jetzt erst mal kurz erzählen, was euch erwartet in den nächsten hoffentlich 69 00:06:27,770 --> 00:06:30,420 fünf Minuten. Timing ist nicht ganz so meine Stärke, aber ich versuche es mal 70 00:06:30,420 --> 00:06:34,520 hinzubekommen. Ich will heute zeigen warum das Internet, wie wir es kennen... 71 00:06:34,520 --> 00:06:37,040 *parallel laufende Musik* Video: "Within its digital single market 72 00:06:37,040 --> 00:06:39,320 the European Union..." *Lachen* 73 00:06:39,320 --> 00:06:43,560 ID: Okay, ich will zeigen, warum sich das Internet, wie wir es kennen - um das Zitat 74 00:06:43,560 --> 00:06:48,620 mal aufzugreifen - durch die ePrivacy- Verordnung tatsächlich etwas grundsätzlich 75 00:06:48,620 --> 00:06:52,150 verändern könnte. Wieso das aber eigentlich etwas Begrüßenswertes ist und 76 00:06:52,150 --> 00:06:56,400 was Martin Sonneborn mit der ganzen Geschichte zu tun hat. Dazu werde ich in 77 00:06:56,400 --> 00:06:59,340 meinem Vortrag heute primär zwei Dinge machen. Zum einen möchte ich verständlich 78 00:06:59,340 --> 00:07:02,680 machen, worum es eigentlich geht in der ePrivacy-Verordnung, und zum anderen 79 00:07:02,680 --> 00:07:06,479 möchte ich über den Entstehungsprozess und den aktuellen Stand des Verfahrens 80 00:07:06,479 --> 00:07:09,500 sprechen und auf das Lobbying und die schlimmsten Mythen eingehen, die über 81 00:07:09,500 --> 00:07:15,980 diesen Verordnungsvorschlag in Umlauf gebracht werden. Um das zu machen, will 82 00:07:15,980 --> 00:07:19,520 ich allerdings zuerst nochmal, bevor ich in die Details schaue, kurz auf den 83 00:07:19,520 --> 00:07:25,860 Kontext sozusagen eingehen, über den ich heute sprechen... ..., indem wir über 84 00:07:25,860 --> 00:07:29,239 Datenschutz und Privatsphäre in der digitalen Kommunikation sprechen. Und 85 00:07:29,239 --> 00:07:34,710 dieser Kontext, das ist für mich der gesellschaftliche Konflikt um die 86 00:07:34,710 --> 00:07:39,210 Kontrolle von personenbezogenen Daten. „Data Wars“, um mal im Bild zu bleiben 87 00:07:39,210 --> 00:07:44,960 könnte man quasi sagen und die ePrivacy- Verordnung ist eben nur ein Schlachtfeld 88 00:07:44,960 --> 00:07:47,820 oder ein Ort, an dem die Auseinandersetzung stattfindet, denn was 89 00:07:47,820 --> 00:07:52,050 wir derzeit erleben, ist, wie ein neues Wirtschaftsmodell etabliert wird, bei dem 90 00:07:52,050 --> 00:07:55,830 es nicht mehr in erster Linie darum geht gute Produkte oder gute Dienstleistung 91 00:07:55,830 --> 00:08:00,550 herzustellen, sondern eben möglichst viel Wissen in Form von Daten anzuhäufen. Ein 92 00:08:00,550 --> 00:08:04,340 Wirtschaftsmodell, in dem auch persönliche Informationen eben nicht mehr in erster 93 00:08:04,340 --> 00:08:09,930 Linie schützenswerte Güter sind, sondern handelbare Waren. Das Öl oder der Rohstoff 94 00:08:09,930 --> 00:08:13,860 der Zukunft, wie es viele - nicht zuletzt Bundeskanzlerin Angela Merkel - eben 95 00:08:13,860 --> 00:08:18,220 nennen. Und wir erleben derzeit ja eine andauernde Auseinandersetzung darum, wer 96 00:08:18,220 --> 00:08:23,550 diese persönlichen Daten kontrolliert, wer sie erzeugen und sammeln, handeln, 97 00:08:23,550 --> 00:08:28,960 verknüpfen, auswerten, nutzen und verwerten darf. Wenn wir zum Beispiel 98 00:08:28,960 --> 00:08:33,560 Datenskandale erleben derzeit, all die Gerichtsverfahren... Max Schrems spricht 99 00:08:33,560 --> 00:08:40,630 heute oder morgen, glaube ich. Die politischen Kämpfe um Datenschutz, da wird 100 00:08:40,630 --> 00:08:47,249 es sozusagen greifbar, der Konflikt um dieses neue Wirtschaftsmodell. Und ich 101 00:08:47,249 --> 00:08:50,860 will, bevor ich eben auf diese Verordnung gucke, mir dieses zugrunde liegende 102 00:08:50,860 --> 00:08:55,170 Geschäftsmodell noch mal kurz als Kontext, als Horizont quasi für heute in Erinnerung 103 00:08:55,170 --> 00:08:58,040 rufen. Das ist wahrscheinlich den meisten hier schon bekannt, kann aber nicht 104 00:08:58,040 --> 00:09:01,200 schaden, das vielleicht nochmal zu hören. Allen, die sich stärker damit 105 00:09:01,200 --> 00:09:03,550 auseinandersetzen wollen, mit diesem Geschäftsmodell der kommerziellen 106 00:09:03,550 --> 00:09:08,910 Überwachung, kann ich nur den Talk von Wolfie Christl vor einem Jahr empfehlen, 107 00:09:08,910 --> 00:09:12,510 auf den und dessen Studien und Erhebungen werde ich mich auch im Folgenden so ein 108 00:09:12,510 --> 00:09:16,550 bisschen stützen. Und ich versuche mal dieses Geschäftsmodell in 4 Phasen oder 109 00:09:16,550 --> 00:09:21,810 anhand von 4 Phasen zu beschreiben und mal kurz in diese Phasen rein zu gucken. Das 110 00:09:21,810 --> 00:09:27,020 erste ist quasi die Datafizierung von fast allem. Inzwischen lässt sich fast das 111 00:09:27,020 --> 00:09:32,790 ganze komplette Leben in Datenform eben aufzeichnen: Vom Konsum, also Online- 112 00:09:32,790 --> 00:09:37,970 Shopping, Kreditkarten-Daten bis zu Bonus-Systemen, über das vernetzte Zuhause 113 00:09:37,970 --> 00:09:41,670 von Sprach-Assistenzsystem wie Alexa und Co, über smarte Zahnbürsten bis zum 114 00:09:41,670 --> 00:09:46,070 vernetzten Sexspielzeug, das Thema Gesundheit vom Fitness-Armband bis zur 115 00:09:46,070 --> 00:09:49,820 App, für das Tracking von Menstruationszyklen und natürlich der 116 00:09:49,820 --> 00:09:54,040 Bereich Kommunikation von Suchmaschinen und Nachrichten-Webseiten über Messenger, 117 00:09:54,040 --> 00:09:59,580 soziale Netzwerke, Dating-Anwendungen bis hin zu Smart-TVs und einem Großteil aller 118 00:09:59,580 --> 00:10:05,710 Anwendungen für mobile Geräte. Und hier greife ich einfach mal auf eine Grafik von 119 00:10:05,710 --> 00:10:11,760 Wolfe Christl zurück, der auf dem Feld wirklich sehr lesenswerte Arbeit gemacht 120 00:10:11,760 --> 00:10:15,670 hat, um dieses Geschäfts-Modell und dieses Wirtschafts-Modell eben anschaulich zu 121 00:10:15,670 --> 00:10:20,930 machen und dessen Konsequenzen einmal visualisiert, welche Daten sind eigentlich 122 00:10:20,930 --> 00:10:25,480 über Konsumenten, Verbraucher, Nutzer früher angefallen und welche sind es 123 00:10:25,480 --> 00:10:33,940 heute, eigentlich eben ein umfassendes Bild. Und es wird eben deutlich, 124 00:10:33,940 --> 00:10:39,460 es geht dabei nicht nur um Daten, klassische, also einfache Daten 125 00:10:39,460 --> 00:10:43,181 wie Geburtsdaten oder Ähnliches, sondern es ist... 126 00:10:43,181 --> 00:10:46,820 sind auch die fluiden Dinge, sind Emotionen, Identitäten, Verhalten, 127 00:10:46,820 --> 00:10:51,570 Eigenschaften, die in Daten aufgegriffen werden und ich geh hier an der Stelle, 128 00:10:51,570 --> 00:10:54,650 weil wir heute über den Bereich der elektronischen Kommunikation sprechen, 129 00:10:54,650 --> 00:10:59,750 noch mal ein bisschen stärker auf das Feld ein. Studien zufolge oder einer Studie 130 00:10:59,750 --> 00:11:04,870 zufolge sind es zwischen 85 und 95 Prozent der beliebten Apps in Australien, 131 00:11:04,870 --> 00:11:09,800 Brasilien und Deutschland, die Daten an Drittparteien senden, selbst 60 Prozent 132 00:11:09,800 --> 00:11:16,860 der bezahlten Apps. Und wenn man mal nicht in den App-Bereich guckt, sondern ins Netz 133 00:11:16,860 --> 00:11:21,530 dann haben wir natürlich die omnipräsenten Cookies. Aber wenn wir eben über Web- 134 00:11:21,530 --> 00:11:25,109 Tracking sprechen, also das Nachverfolgen und Mitschneiden unseres Surfverhaltens, 135 00:11:25,109 --> 00:11:29,430 dann geht es eben schon lange nicht mehr nur um einfache Cookies, denn seitdem das 136 00:11:29,430 --> 00:11:33,110 Bewusstsein bei den Nutzerinnen und Nutzern dafür gestiegen ist, dass sie mit 137 00:11:33,110 --> 00:11:37,460 Hilfe von Tracking mit Cookies verfolgt werden, haben sich ja sozusagen 138 00:11:37,460 --> 00:11:41,940 Abwehrmaßnahmen entwickelt. Cookies löschen lassen nach jeder Session und so 139 00:11:41,940 --> 00:11:47,770 weiter. Aber Firmen entwickeln eben entsprechend neue Methoden, um das 140 00:11:47,770 --> 00:11:51,040 Verhalten aufzuzeichnen, Tracking, online- Tracking durchzuführen, von Zombie 141 00:11:51,040 --> 00:11:55,390 Cookies, die sich selbst der wiederherstellen, bis zum Fingerprinting- 142 00:11:55,390 --> 00:11:59,450 Device oder Browser Fingerprinting, bei dem Nutzer_innen von Webseiten mitten... 143 00:11:59,450 --> 00:12:03,060 mittels der Einstellungen der verwendeten Software oder des Gerätes wiedererkannt 144 00:12:03,060 --> 00:12:11,160 werden, ohne dass dafür Cookies benötigt werden müssen. Und eine Studie aus 2015, 145 00:12:11,160 --> 00:12:14,750 eine Erhebung aus 2015 ist zu der Erkenntnis gekommen, dass 90 Prozent der 146 00:12:14,750 --> 00:12:20,080 eine Million meistbesuchten Webseiten Nutzerdaten an Drittparteien weiterleiten. 147 00:12:20,080 --> 00:12:25,160 Und das gilt insbesondere auch für den Bereich der Nachrichten und Informationen, 148 00:12:25,160 --> 00:12:29,420 also nicht nur wir lesen, was auf den Nachrichtenseiten passiert, sondern die 149 00:12:29,420 --> 00:12:33,500 Nachrichtenseiten lesen uns, jedenfalls die meisten Nachrichtenseiten, 150 00:12:33,500 --> 00:12:38,160 netzpolitik.org nicht. Kann man an der Stelle ja mal kurz sagen. Aber das Tech 151 00:12:38,160 --> 00:12:42,769 Collective hat ein Tool bereitgestellt, trackography, mit dem man eben 152 00:12:42,769 --> 00:12:46,410 nachvollziehen kann, auf welchen Nachrichtenseiten man verfolgt wird und 153 00:12:46,410 --> 00:12:51,270 von wem. Und sind eben darauf gekommen, dass alleine wenn man auf Spiegel, Heute, 154 00:12:51,270 --> 00:12:56,220 Zeit, Bild und taz geht, es über 108 Verbindungen mit Drittparteien gibt, die 155 00:12:56,220 --> 00:13:00,610 eigentlich nichts mit dem Service zu tun haben. Also der erste Schritt, die erste 156 00:13:00,610 --> 00:13:05,950 Phase, die Datafizierung von Allen. Die zweite Phase ist die Kommodifizierung von 157 00:13:05,950 --> 00:13:12,900 Daten, also Daten werden Waren, handelbare Waren. Waren, die von spezialisierten 158 00:13:12,900 --> 00:13:17,630 Händlern, Data Brokern, verknüpft werden, veredelt werden , ausgewertet werden und 159 00:13:17,630 --> 00:13:21,840 eben gehandelt werden. Diese führen Informationen über Menschen aus 160 00:13:21,840 --> 00:13:24,930 unterschiedlichen Quellen zusammen in Profilen und bieten diese zum Kauf an. 161 00:13:24,930 --> 00:13:29,750 Hier mal zwei Beispiele, auch wieder aus der Arbeit von Wolfie Christl. Der 162 00:13:29,750 --> 00:13:33,530 Datenhändler Acxiom zum Beispiel verfügt nach eigenen Angaben über Informationen 163 00:13:33,530 --> 00:13:38,970 über 700 Millionen Menschen in den USA und Europa mit bis zu 3.000 einzelnen 164 00:13:38,970 --> 00:13:44,850 Attributen und Scores pro Person. Dazu zählen dann Informationen wie 165 00:13:44,850 --> 00:13:50,050 Einkaufsverhalten, Gesundheits-Interessen, aber eben auch das Kommunikationsverhalten 166 00:13:50,050 --> 00:13:54,710 und ganz klassische sozio-demografische Daten. Und auch Oracle, ehemals ja ein 167 00:13:54,710 --> 00:13:59,560 Softwarekonzern, inzwischen einer der größten Data Broker, wirbt damit dass sie 168 00:13:59,560 --> 00:14:05,319 Profile über zwei Milliarden Nutzerinnen und Nutzer haben, in denen sie 169 00:14:05,319 --> 00:14:08,710 unterschiedliche Daten aus unterschiedlichen Quellen zusammenführen. 170 00:14:08,710 --> 00:14:12,970 Diese Daten landen dann übrigens wieder bei sozialen Netzwerken, zum Beispiel 171 00:14:12,970 --> 00:14:19,190 Facebook und Snapchat kaufen beispielsweise von Oracle wieder Daten 172 00:14:19,190 --> 00:14:22,290 über ihre Nutzerinnen und Nutzer, um sozusagen das Profil von denen zu 173 00:14:22,290 --> 00:14:26,610 vervollständigen, unter anderem über das Offline-Einkaufsverhalten der 174 00:14:26,610 --> 00:14:30,620 Überwachungsforscher David Lyon spricht von kafkaesken Datenflüssen, die für 175 00:14:30,620 --> 00:14:33,790 Nutzerinnen und Nutzer überhaupt nicht mehr nachvollziehbar sind und wo sie nie 176 00:14:33,790 --> 00:14:37,730 wissen, an welchem Punkt sie von wem jetzt gerade eigentlich bewertet werden. So, die 177 00:14:37,730 --> 00:14:41,950 dritte Phase ist die Auswertung. Da könnte man natürlich jetzt auch viel zu erzählen. 178 00:14:41,950 --> 00:14:47,850 Big Data Mining und Predictive Analytics: hier nur mal ein kurzer Überblick über 179 00:14:47,850 --> 00:14:53,500 3 Studien, die etwas über die Aussagekraft oder die Vorhersagekraft von 180 00:14:53,500 --> 00:15:00,360 personenbezogenen Daten eben aussagen. Beispielsweise die Analyse... Vorhersage 181 00:15:00,360 --> 00:15:03,230 von bestimmten Persönlichkeitseigenschaften anhand von 182 00:15:03,230 --> 00:15:09,320 Facebook-Likes, wo laut dieser Studie beispielsweise in den USA Ethnizität oder 183 00:15:09,320 --> 00:15:14,600 Geschlecht jeweils binär codiert mit extrem hoher Wahrscheinlichkeit 184 00:15:14,600 --> 00:15:21,000 vorhergesagt werden können anhand von nur einer Handvoll Likes. Und Facebook selbst 185 00:15:21,000 --> 00:15:24,740 beispielsweise wurde im vergangenen Jahr dabei erwischt, wie sie bei einer 186 00:15:24,740 --> 00:15:28,870 australischen Bank damit Werbung gemacht haben, dass diese Bank über das targeted 187 00:15:28,870 --> 00:15:35,100 advertising-Tool von Facebook, emotional verletzliche Jugendliche - Zitat, ist das - 188 00:15:35,100 --> 00:15:39,029 ausfindig machen können und sie genau in den Momenten ansprechen können, in denen 189 00:15:39,029 --> 00:15:45,640 sie sich - Zitat - wertlos fühlen, um dann mit ihrer Werbung sie zu erreichen. Also 190 00:15:45,640 --> 00:15:50,529 so viel zur Analyse und dann natürlich, darum geht es am Ende, die Entscheidungen, die 191 00:15:50,529 --> 00:15:56,380 auf Grundlage dieser Datenbasis getroffen werden. Von der Personalisierung 192 00:15:56,380 --> 00:15:59,870 von Nutzungsumgebungen über Targeted Advertising, Customer Relationship 193 00:15:59,870 --> 00:16:02,600 Management - wie lange muss ich in der Warteschlange in der Service-Hotline 194 00:16:02,600 --> 00:16:06,570 warten, kriege ich Gutscheine zugeschickt? Dann natürlich der große Bereich Scoring, 195 00:16:06,570 --> 00:16:11,130 also, wie werde ich bewertet in Hinblick auf meine Kreditwürdigkeit, Handyverträge, 196 00:16:11,130 --> 00:16:17,010 Versicherungen. Natürlich sozusagen sprechen wir hier an der Stelle über 197 00:16:17,010 --> 00:16:21,029 einerseits über Praktiken, die - Scoring im Bankenbereich oder im Kredit-Bereich - 198 00:16:21,029 --> 00:16:26,010 schon seit Jahrzehnten praktiziert werden. Und wenn wir zum Beispiel über den Einsatz 199 00:16:26,010 --> 00:16:29,139 von Scoring im Versicherungsbereich sprechen, über etwas das tendenziell noch 200 00:16:29,139 --> 00:16:34,459 eher in der Zukunft liegt, aber wo die Modelle sozusagen der Auswertung des, oder 201 00:16:34,459 --> 00:16:39,301 der Berechnung des Konsumenten, oder des versicherten Verhaltens und eine 202 00:16:39,301 --> 00:16:43,740 dementsprechend angepasste Versicherungsprämie schon in den 203 00:16:43,740 --> 00:16:48,540 Startlöchern stehen quasi. Und natürlich nicht zu vergessen: staatliche Datenbanken 204 00:16:48,540 --> 00:16:51,600 und Analyse-Systeme, die eben Muster erkennen, Verdächtige generieren, 205 00:16:51,600 --> 00:17:03,000 Verhalten vorhersagen sollen. Genau. Ok, so viel mal zum Kontext, vielleicht nochmal 206 00:17:03,000 --> 00:17:09,390 eben der Blick auf die Risiken, auch das ist eigentlich bekannt und gut diskutiert. 207 00:17:09,390 --> 00:17:16,750 Nur um sie hier als Kontext nochmal mit aufzuführen. Dort wo Daten vorhanden sind, 208 00:17:16,750 --> 00:17:20,459 große Datenbanken, da gibt's natürlich ein Interesse auch von Kriminellen da 209 00:17:20,459 --> 00:17:27,179 ranzukommen oder öffentliche Datenlecks. Es sei nur erinnert an den Fall der... den 210 00:17:27,179 --> 00:17:31,839 Ashley-Madison-Hack, bei dem plötzlich bekannt wurde, wer alles einen 211 00:17:31,839 --> 00:17:39,070 Seitensprung-Service benutzt, staatliche Zugriffe, Fehlinterpretationen, weil 212 00:17:39,070 --> 00:17:43,519 natürlich diese Vorhersage-Modelle auf Datenbasis, die Big Data-Vorhersage- 213 00:17:43,519 --> 00:17:48,450 Modelle auf Korrelationen und nicht auf Kausalität beruhen und man die Realität 214 00:17:48,450 --> 00:17:54,809 eben nur bedingt in Datenform erfassen kann. Die Macht-Asymmetrien und 215 00:17:54,809 --> 00:17:58,580 Manipulations-Potenziale, die damit einhergehen, dass zu einer gewissen 216 00:17:58,580 --> 00:18:02,439 Wahrscheinlichkeit vorhergesagt werden kann, wie lange ich denn beispielsweise in 217 00:18:02,439 --> 00:18:06,289 der Warteschleife einer Telefon-Hotline bleiben würde und wie lange man mich 218 00:18:06,289 --> 00:18:12,130 warten lassen muss, damit ich als nerviger Kunde wieder aufgebe. Diskriminierung, die 219 00:18:12,130 --> 00:18:17,869 reproduziert wird, weil sie in den Daten steckt. Und die sogenannten chilling 220 00:18:17,869 --> 00:18:23,960 effects, dadurch dass Menschen eben die Kontrolle über die kontextuelle Integrität 221 00:18:23,960 --> 00:18:28,149 der von ihnen preisgegebenen und über sie gesammelten Informationen verlieren und 222 00:18:28,149 --> 00:18:31,010 sie gleichzeitig eben wissen, dass ihre Lebenschancen davon abhängen können, was 223 00:18:31,010 --> 00:18:38,660 andere mit und aus diesen Informationen machen. Soviel zum Kontext. Fassen wir 224 00:18:38,660 --> 00:18:42,890 zusammen: Das Internet wie wir es kennen, um das Zitat aufzugreifen, heißt heute 225 00:18:42,890 --> 00:18:47,979 leider eben auch, dass es in weiten Teilen ein kommerziell überwachtes Internet ist, 226 00:18:47,979 --> 00:18:52,479 bei dem die Nutzer entmündigt werden. Der informationelle Kontrollverlust ist fester 227 00:18:52,479 --> 00:18:57,799 Bestandteil dieses Geschäftsmodells, das eben darauf basiert, dass die Einen 228 00:18:57,799 --> 00:19:01,850 durchleuchtet werden und vorhersagbar werden und die sich eben nicht besonders 229 00:19:01,850 --> 00:19:07,730 gut wehren können, dadurch dass die Analyse- und Erhebungsverfahren im Dunkeln 230 00:19:07,730 --> 00:19:12,690 liegen. Nicht verwunderlich ist es, dass eine repräsentative EU-Umfrage 2015 231 00:19:12,690 --> 00:19:18,059 deshalb ergab, dass 32% der Deutschen ihren Internet... dass nur 32% 232 00:19:18,059 --> 00:19:21,249 der Deutschen ihren Internet- und Telefon-Anbietern vertrauen, für den 233 00:19:21,249 --> 00:19:26,899 restlichen Bereich der Internet-Wirtschaft waren es nur 19 Prozent, die Vertrauen 234 00:19:26,899 --> 00:19:32,200 hatten in diese Unternehmen. Und auf diesen informationellen Kontrollverlust 235 00:19:32,200 --> 00:19:35,749 kann man natürlich auf unterschiedliche Arten reagieren. Die einen halten diese 236 00:19:35,749 --> 00:19:40,320 Entwicklung für unaufhaltbar und predigen sozusagen vermeintlich pragmatisch den 237 00:19:40,320 --> 00:19:44,769 Kontrollverlust als Chance. So beispielsweise der Psychologe Michal 238 00:19:44,769 --> 00:19:49,639 Kosinski, der ein bisschen bekanntgeworden ist dadurch, dass er einige der zentralen 239 00:19:49,639 --> 00:19:55,279 so Studien gemacht hat zum Thema Vorhersage durch Big Data und der eben 240 00:19:55,279 --> 00:20:00,159 unfreiwilligerweise das Modell für Cambridge Analytica, das Grundmodell für 241 00:20:00,159 --> 00:20:02,960 Cambridge Analyticas Persönlichkeits-Analysen geschaffen hat. 242 00:20:02,960 --> 00:20:06,470 Der sagte aber eben bei einer Veranstaltung in Berlin in diesem Jahr 243 00:20:06,470 --> 00:20:12,919 im Sommer, dass es ja eine Chance wäre, wenn erst einmal alles bekannt wäre, und 244 00:20:12,919 --> 00:20:16,440 hat sozusagen als Beispiel gebracht, dass auch in autoritär-patriarchalen 245 00:20:16,440 --> 00:20:20,179 Gesellschaften beispielsweise, wenn erst mal bekannt wäre, wer alles homosexuell 246 00:20:20,179 --> 00:20:28,340 ist, dann würde die Diskriminierung aufhören. Okay, andere sehen quasi die 247 00:20:28,340 --> 00:20:31,729 Schwierigkeiten und Risiken, die mit diesen... mit dieser Entwicklung 248 00:20:31,729 --> 00:20:35,790 einhergehen, geben sich aber damit zufrieden, sich selbst zu schützen, 249 00:20:35,790 --> 00:20:39,659 Stichwort "works for me", und wieder andere versuchen, ein gewisses Maß an 250 00:20:39,659 --> 00:20:43,240 Kontrolle wiederherstellen, indem sie Technologie gestalten, die entweder mit 251 00:20:43,240 --> 00:20:47,710 möglichst wenig persönlichen Daten auskommt oder Nutzern, Nutzerinnen und 252 00:20:47,710 --> 00:20:51,669 Nutzern, Informationen und Wahlmöglichkeiten an die Hand gibt, indem 253 00:20:51,669 --> 00:20:55,489 sie andere aufklären und ihnen Mündigkeit ermöglichen oder eben, indem sie politische 254 00:20:55,489 --> 00:20:59,770 Rahmenbedingungen und Grenzen festlegen und für deren Durchsetzung sorgen. Darum 255 00:20:59,770 --> 00:21:03,929 geht es ja beim Datenschutz, letztendlich. Es geht nicht darum, Datenflüsse zu 256 00:21:03,929 --> 00:21:08,059 verhindern, sondern klare Grenzen dafür festzulegen, in welchen Bahnen sie 257 00:21:08,059 --> 00:21:15,519 passieren. Und jetzt nach dem Kontext zur eigentlichen Verordnung. Denn genau darum 258 00:21:15,519 --> 00:21:19,059 geht es bei der ePrivacy-Verordnung: klare Rahmenbedingungen zu schaffen für den 259 00:21:19,059 --> 00:21:24,340 Umgang mit Kommunikations-Daten. Und auch hier nochmal ein paar Zahlen: eine 260 00:21:24,340 --> 00:21:29,279 statistisch repräsentative Umfrage der EU- Kommission hat ergeben aus dem Jahr 2015, 261 00:21:29,279 --> 00:21:33,739 dass etwa 90 Prozent der EU-Bürger für datenschutzfreundliche Voreinstellungen, 262 00:21:33,739 --> 00:21:39,429 beispielsweise gegen Tracking sind und für das Recht auf verschlüsselte Kommunikation 263 00:21:39,429 --> 00:21:43,149 und dass 71 Prozent es ablehnen, dass Unternehmen ihre Daten ohne ihre 264 00:21:43,149 --> 00:21:48,069 Zustimmung verwenden. Und nachdem ich jetzt schon so oft erwähnt habe, schauen 265 00:21:48,069 --> 00:21:52,309 wir uns die Verordnung tatsächlich mal an, beziehungsweise noch ein ganz kurzer Blick 266 00:21:52,309 --> 00:21:56,849 auf ihren Vorgänger: Die ePrivacy- Richtlinie aus dem Jahr 2002 - in der EU 267 00:21:56,849 --> 00:22:01,789 gibt es ja zwei unterschiedliche sozusagen Rechtsinstrumente oder 268 00:22:01,789 --> 00:22:06,509 Gesetzesinstrumente, das eine sind die Richtlinien, das schwächere Instrument, 269 00:22:06,509 --> 00:22:09,610 das von den Mitgliedsstaaten immer noch umgesetzt werden muss in nationales Recht, 270 00:22:09,610 --> 00:22:14,679 und die Verordnungen, die unmittelbare Wirkung entfalten in den Mitgliedstaaten, 271 00:22:14,679 --> 00:22:18,649 die eben das stärkere, verbindlichere Instrument sind - und seit 2002 gibt es 272 00:22:18,649 --> 00:22:21,899 eine ePrivacy-Richtlinie, die jetzt abgelöst werden soll, weil sie nicht mehr 273 00:22:21,899 --> 00:22:26,230 wirklich funktional ist, weil sie beispielsweise den Kommunikationswandel 274 00:22:26,230 --> 00:22:33,609 der letzten Jahre nicht abdeckt. Wenn man sich mal zwei Zahlen vor Augen hält: 2012 275 00:22:33,609 --> 00:22:37,909 haben die Menschen in Deutschland über 160 Millionen SMS-Nachrichten verschickt und 276 00:22:37,909 --> 00:22:43,629 20 Millionen WhatsApp-Nachrichten, 2015 waren es weniger als 40 Millionen SMS, 277 00:22:43,629 --> 00:22:49,229 aber mehr als 660 Millionen WhatsApp- Nachrichten. WhatsApp ist aber als 278 00:22:49,229 --> 00:22:54,519 sozusagen neuer sogenannter over the top- Dienst von der ePrivacy-Richtlinie bisher 279 00:22:54,519 --> 00:22:58,960 nicht umfasst gewesen. Also over the top- Dienste, das sind die 280 00:22:58,960 --> 00:23:03,239 Kommunikations-Dienste, die nicht mit einem eigenen Netz daherkommen, sondern auf dem 281 00:23:03,239 --> 00:23:08,409 Internet aufsetzen. Dazu zählt auch Voice over IP-Telefonie oder irgendwie Webmail, 282 00:23:08,409 --> 00:23:14,519 diese Sachen sind bislang nicht reguliert durch die ePrivacy-Richtlinie, so dass 283 00:23:14,519 --> 00:23:18,609 dafür andere, weniger strenge Regeln gelten als für klassische Telefonie oder 284 00:23:18,609 --> 00:23:24,080 klassische SMS-Nachrichten. Und außerdem sind die Durchsetzungsmöglichkeiten im 285 00:23:24,080 --> 00:23:28,859 Rahmen der ePrivacy-Richtlinie eher so mäßig gewesen, sehr uneinheitlich 286 00:23:28,859 --> 00:23:32,859 umgesetzt worden, in Deutschland zum Teil auch in einem bestimmten Bereich auch gar 287 00:23:32,859 --> 00:23:35,570 nicht. Und in Deutschland ist beispielsweise für den Großteil der 288 00:23:35,570 --> 00:23:38,330 Durchsetzung die Bundesnetzagentur zuständig gewesen und nicht die 289 00:23:38,330 --> 00:23:44,230 Datenschutz-Aufsicht. In vielen anderen Ländern auch. Genau. Hinzu kommt, dass die 290 00:23:44,230 --> 00:23:48,480 Richtlinie in den Mitgliedsstaaten sehr unterschiedlich umgesetzt wurde, 2009 gab 291 00:23:48,480 --> 00:23:51,629 es zum Beispiel eine Ergänzung, die von manchen Cookie-Erweiterung genannte 292 00:23:51,629 --> 00:23:56,039 Ergänzung, die es eigentlich schon festgelegt hat, dass Cookies, also das 293 00:23:56,039 --> 00:23:59,869 Speichern von Informationen oder der Zugriff auf Informationen auf dem Gerät, 294 00:23:59,869 --> 00:24:04,709 nur gestattet ist auf der Grundlage von klaren und umfassenden Informationen. Und 295 00:24:04,709 --> 00:24:08,629 wenn es eine Einwilligung gibt. Das ist in Deutschland anders als beispielsweise in 296 00:24:08,629 --> 00:24:13,399 Frankreich und Spanien aber kaum umgesetzt und dementsprechend auch kaum durchgesetzt 297 00:24:13,399 --> 00:24:19,889 worden. Okay. Jetzt zur ePrivacy- Verordnung. Was steht denn eigentlich 298 00:24:19,889 --> 00:24:23,639 drin? Und ich beziehe mich im Folgenden auf die Fassung der ePrivacy-Verordnung 299 00:24:23,639 --> 00:24:29,579 oder der Position des EU-Parlaments. Das EU-Parlament hat am 26. Oktober seine 300 00:24:29,579 --> 00:24:35,080 Position dazu beschlossen, dass... der Prozess ist noch nicht am Ende, das heißt, 301 00:24:35,080 --> 00:24:38,419 das ist jetzt erstmal nur die Position des Parlaments, aber auf die beziehe ich mich 302 00:24:38,419 --> 00:24:42,519 im Weiteren. Und mit 29 Artikeln ist die ePrivacy-Verordnung in ihrem derzeitigen 303 00:24:42,519 --> 00:24:45,460 Zustand im Vergleich zur Datenschutzgrundverordnung, die sie 304 00:24:45,460 --> 00:24:50,019 ergänzen soll, durchaus schlank und sie enthält auch einige Regeln, die nicht im 305 00:24:50,019 --> 00:24:53,530 engeren Sinne etwas mit digitaler Kommunikation und Datenanalyse zu tun 306 00:24:53,530 --> 00:24:56,649 haben, auf die ich nicht weiter eingehen will, aber nur damit man es mal gehört 307 00:24:56,649 --> 00:25:02,529 hat: Sie enthält auch Regeln zur Rufnummerunterdrückung, zu Notrufen oder 308 00:25:02,529 --> 00:25:07,179 Telefonbüchern, zu Informationspflichten bei von Kommunikationsanbietern bei 309 00:25:07,179 --> 00:25:12,149 Sicherheitsrisiken und Datenlecks und zu Direktmarketing. Ich will mich aber auf 310 00:25:12,149 --> 00:25:15,769 die Regeln zum Umgang mit Kommunikationsdaten im engeren Sinne 311 00:25:15,769 --> 00:25:22,429 konzentrieren. Und da macht die ePrivacy- Verordnung in ihrem aktuellen Stand erst 312 00:25:22,429 --> 00:25:25,820 einmal deutlich: Wir sprechen hier über Grundrechte, wir sprechen nicht über 313 00:25:25,820 --> 00:25:28,119 irgendetwas, sondern es geht um Grundrechte, und zwar nicht nur um das 314 00:25:28,119 --> 00:25:32,619 Grundrecht auf den Datenschutz, EU- Grundrecht auf Datenschutz in Artikel 8 315 00:25:32,619 --> 00:25:37,779 der Grundrechte-Charta, sondern auch auf Artikel 7, die Achtung des Privatlebens. 316 00:25:37,779 --> 00:25:42,479 Und in der Folge dann eben der Schutz diverser weiterer Grundrechte: freie 317 00:25:42,479 --> 00:25:45,409 Persönlichkeitsentfaltung, Menschenwürde, Meinungs-, Informations-, 318 00:25:45,409 --> 00:25:50,809 Religionsfreiheit. Über welche Daten sprechen wir, wenn wir über ePrivacy 319 00:25:50,809 --> 00:25:54,259 sprechen? Um das mal anschaulicher zu machen: Die Verordnung unterteilt in 320 00:25:54,259 --> 00:25:58,979 Inhaltsdaten und Metadaten. Inhaltsdaten sind also Textnachrichten, Sprache, 321 00:25:58,979 --> 00:26:02,359 Bilder, Videos, E-Mails, Ton, die geschützt sind. Und dann gibt's eben den 322 00:26:02,359 --> 00:26:09,190 ganz großen Bereich der Metadaten, also besuchte Webseiten, die Kommunikationsart, 323 00:26:09,190 --> 00:26:13,570 Kommunikationspartner, Browser- Einstellungen, Standortdaten, IP-Adressen, 324 00:26:13,570 --> 00:26:20,389 MAC-Adressen, mobile device identifiers, Datum und Uhrzeit der Kommunikation und 325 00:26:20,389 --> 00:26:26,950 eben Informationen über die verwendete Hard- und Software. Okay, jetzt aber 326 00:26:26,950 --> 00:26:34,919 wirklich: was steht drin? Unter anderem, dass Kommunikationsdienste-Anbieter keine 327 00:26:34,919 --> 00:26:38,070 kommerziellen... also Daten nicht kommerziell verarbeiten... ihrer Kunden 328 00:26:38,070 --> 00:26:42,879 nicht kommerziell verarbeiten dürfen ohne deren Einwilligung. Klingt jetzt erstmal 329 00:26:42,879 --> 00:26:47,719 nicht besonders revolutionär, ist es aber in Anbetracht dessen, was auf dem Tisch 330 00:26:47,719 --> 00:26:54,169 lag an Alternativen sozusagen. Also, natürlich fallen bei den Diensteanbietern 331 00:26:54,169 --> 00:26:59,379 bei unserem Telefon-Provider oder bei WhatsApp oder bei Skype, beim Messenger 332 00:26:59,379 --> 00:27:03,459 fallen natürlich Daten an, wenn wir über die kommunizieren, das geht gar nicht 333 00:27:03,459 --> 00:27:10,840 ohne. Und die dürfen von den Diensteanbietern eben nur genutzt werden, 334 00:27:10,840 --> 00:27:14,940 wenn es eine Einwilligung gibt. Man nennt das Verbot mit Erlaubnisvorbehalt. 335 00:27:14,940 --> 00:27:19,799 Eigentlich ist die Verarbeitung verboten, aber es gibt eben die Möglichkeit, sich 336 00:27:19,799 --> 00:27:25,759 das Einverständnis einzuholen. Ja, ist jetzt leider sehr viel Text. Und als 337 00:27:25,759 --> 00:27:30,179 Alternative zu diesem Prinzip, dass man eine Einwilligung braucht für die 338 00:27:30,179 --> 00:27:34,979 Verarbeitung, lagen auf dem Tisch unter anderem die Formulierung further 339 00:27:34,979 --> 00:27:40,649 processing, also die sehr vage Formulierung further processing, die es 340 00:27:40,649 --> 00:27:44,619 den Kommunikationsdienste-Anbietern ermöglicht hätte, die Daten, nachdem sie 341 00:27:44,619 --> 00:27:47,540 einmal gebraucht wurden, um den Kommunikations-Vorgang herzustellen, noch 342 00:27:47,540 --> 00:27:51,049 weiterverarbeitet werden dürfen unter bestimmten Bedingungen, aber eben 343 00:27:51,049 --> 00:27:54,570 potentiell einfach, ohne dass eine Einwilligung eingeholt werden muss oder 344 00:27:54,570 --> 00:27:58,750 aus der Datenschutz-Grundverordnung das sogenannte legitime Interesse, das eben 345 00:27:58,750 --> 00:28:03,120 auch eine Grundlage nach der Datenschutz- Grundverordnung darstellen kann, für die 346 00:28:03,120 --> 00:28:07,999 kommerzielle Verarbeitung von Daten. Legitimes Interesse von Unternehmen kann 347 00:28:07,999 --> 00:28:11,319 in dem Fall eben auch ein wirtschaftliches Interesse, ein Geschäftsmodell sein. Das 348 00:28:11,319 --> 00:28:15,039 lag auf dem Tisch als Alternative und das EU-Parlament hat sich entschieden hier 349 00:28:15,039 --> 00:28:20,830 dafür zu votieren, dass es bei dem Verbot mit Erlaubnis-Vorbehaltung gibt und 350 00:28:20,830 --> 00:28:25,179 gleichzeitig die Reichweite auszuweiten, also die over the top-Dienste sind jetzt 351 00:28:25,179 --> 00:28:29,329 eingefasst, Messenger, Voice over IP, Webmail, Direktnachrichten in sozialen 352 00:28:29,329 --> 00:28:35,519 Netzwerken und Apps, Dating-Apps und so weiter spielen jetzt dort mit rein, sollen 353 00:28:35,519 --> 00:28:39,769 durch die ePrivacy-Verordnung reguliert werden. Also die Reichweite wird erhöht, 354 00:28:39,769 --> 00:28:44,509 gleichzeitig gibt es eine ganz leichte Absenkung im Vergleich, des Schutzniveaus im 355 00:28:44,509 --> 00:28:49,299 Vergleich zur Datenschutzrichtlinie. Da stand nämlich noch... ePrivacy-Richtlinie, 356 00:28:49,299 --> 00:28:52,820 da stand nämlich noch drin, dass der Verarbeitungszweck einen Mehrwert für 357 00:28:52,820 --> 00:28:58,759 Betroffene haben muss. Diese Formulierung ist jetzt entfallen. Das hat vor allen 358 00:28:58,759 --> 00:29:03,159 Dingen damit zu tun, dass die EU- Kommission es durchaus Unternehmen, gerade 359 00:29:03,159 --> 00:29:09,549 so den europäischen, den TelKos leichter machen möchte, auch an Daten... am 360 00:29:09,549 --> 00:29:14,529 Datenmarkt sozusagen mitzuwirken und da Geld draus zu machen. Das heißt, die 361 00:29:14,529 --> 00:29:18,580 größtenteils amerikanischen Dienste WhatsApp und Co. werden jetzt auch den 362 00:29:18,580 --> 00:29:25,169 strengeren Regeln unterworfen und gleichzeitig werden die Regeln insgesamt, 363 00:29:25,169 --> 00:29:29,600 weil eben auch vor allen Dingen in Hinblick auf die europäischen TelKos, ein 364 00:29:29,600 --> 00:29:34,320 bisschen abgesenkt. Nichts destotrotz gibt es hohe Anforderungen an die Einwilligung, 365 00:29:34,320 --> 00:29:38,159 es gelten die Anforderungen der Datenschutz-Grundverordnung, also die 366 00:29:38,159 --> 00:29:41,820 muss informiert sein, sie darf nicht erzwungen sein, sie muss 367 00:29:41,820 --> 00:29:45,229 freiwillig sein. Da wird zwar noch viel drum gestritten, aber nach 368 00:29:45,229 --> 00:29:49,399 Datenschutz-Grundverordnung darf eine Einwilligung eben nicht... eine 369 00:29:49,399 --> 00:29:52,790 Einwilligung zur Datenverarbeitung eben nicht daran gekoppelt sein eigentlich, 370 00:29:52,790 --> 00:29:59,869 dass man einen Dienst nutzt. Also es darf nicht die Voraussetzung, einen Dienst... 371 00:29:59,869 --> 00:30:01,999 einen Dienst zu nutzen, dafür darf es nicht die Voraussetzung sein, dass man 372 00:30:01,999 --> 00:30:05,039 seine Daten preisgibt laut, Datenschutz-Grundverordnung. Auch das gilt 373 00:30:05,039 --> 00:30:11,649 hier. Und es gibt es relativ strikte Auflagen: Das darf nur passieren, diese 374 00:30:11,649 --> 00:30:14,340 Datenverarbeitung, wenn es ohne die Daten gar nicht geht, sie müssen möglichst 375 00:30:14,340 --> 00:30:18,259 schnell gelöscht oder anonymisiert werden, es muss eine Datenschutz Folgenabschätzung 376 00:30:18,259 --> 00:30:21,510 geben, also das Unternehmen ist dazu verpflichtet, sich hinzusetzen und zu 377 00:30:21,510 --> 00:30:24,769 sagen, okay, welche Daten erhebe ich jetzt hier eigentlich und welche Folgen hat das 378 00:30:24,769 --> 00:30:28,789 womöglich für die Privatsphäre und die Vertraulichkeit der Kommunikation meiner 379 00:30:28,789 --> 00:30:34,339 Nutzer. Und bei besonders Privatsphäre- invasiven Verfahren müssen eben die 380 00:30:34,339 --> 00:30:41,059 Datenschutzbehörden angefragt werden, also auch das eine Neuerung. Und wenn es um die 381 00:30:41,059 --> 00:30:46,869 Verwertung oder Auswertung von Kommunikations-Inhalten geht, müssen beide 382 00:30:46,869 --> 00:30:49,780 Kommunikations-Partner oder alle Kommunikations-Partner zustimmen. Das heißt 383 00:30:49,780 --> 00:30:55,639 Gmail, Google durchleuchtet derzeit ja die E-Mails seiner Nutzer automatisiert, um 384 00:30:55,639 --> 00:30:59,619 auf bestimmte Stichwörter, um eben zielgerichtete Werbung ausspielen zu 385 00:30:59,619 --> 00:31:03,290 können. Dafür bräuchte es in Zukunft dann die Einwilligung aller 386 00:31:03,290 --> 00:31:10,429 Kommunikationsteilnehmer. Und es gibt ein paar Ausnahmen, na klar. Die Daten dürfen 387 00:31:10,429 --> 00:31:14,019 verarbeitet werden zur Durchführung der Kommunikationsübermittlung, dürfen für 388 00:31:14,019 --> 00:31:17,929 Sicherheitsaspekte, zur Behebung von technischen Fehlern, zur 389 00:31:17,929 --> 00:31:22,559 Rechnungsstellung, zur Sicherung der Übertragungsqualität und für die 390 00:31:22,559 --> 00:31:29,210 persönliche Nutzung verarbeitet werden. Also wenn ich zum Beispiel möchte, dass 391 00:31:29,210 --> 00:31:32,360 meine E-Mail automatisiert übersetzt wird von meinem E-Mail-Programm, dann ist es 392 00:31:32,360 --> 00:31:35,879 eine sehr begrenzte personalisierte Nutzung und das ist weiterhin erlaubt, 393 00:31:35,879 --> 00:31:42,089 solche Services. Richtige Neuerungen gibt es im Bereich, also richtig heftige 394 00:31:42,089 --> 00:31:44,839 Neuerungen gibts im Bereich, oder könnte es im Bereich Tracking geben. Das sind die 395 00:31:44,839 --> 00:31:50,309 Artikel 8, 9 und 10, also Web Tracking, Online Tracking, auch da soll's ein Verbot 396 00:31:50,309 --> 00:31:56,870 mit Erlaubnis-Vorbehalt geben. Das ist im Vergleich zur Richtlinie keine, eigentlich 397 00:31:56,870 --> 00:32:00,469 keine Neuerung, wenn es umgesetzt wird, wäre es eben doch eine Neuerung. Da haben 398 00:32:00,469 --> 00:32:07,120 wir eine technikneutrale Formulierung, die dafür sorgen soll, dass auch neuere Formen 399 00:32:07,120 --> 00:32:10,640 des Web Trackings umfasst sind und dass es ausgeschlossen ist, dass jemand 400 00:32:10,640 --> 00:32:15,839 interpretiert, es ginge nur um Cookies, die auf Rechnern gespeichert werden, und 401 00:32:15,839 --> 00:32:20,529 eine echte Neuerung an der Stelle ist, dass do not track quasi rechtsverbindlich 402 00:32:20,529 --> 00:32:25,649 werden würde. Also der Standard, der seit einigen Jahren vorhanden ist, aber von den 403 00:32:25,649 --> 00:32:30,320 meisten Unternehmen ignoriert wird, dass man in seinem Browser einstellen kann: Ich 404 00:32:30,320 --> 00:32:33,229 möchte nicht getrackt werden oder eben auch: Ich bin einverstanden mit einem 405 00:32:33,229 --> 00:32:39,469 Tracking. Das soll rechtsverbindlich werden, das heißt es wäre relativ einfach, 406 00:32:39,469 --> 00:32:44,680 im Browser oder auch, wenn man sich das Smartphone anguckt, im Betriebssystem oder 407 00:32:44,680 --> 00:32:47,519 in Apps einzustellen, ich möchte nicht verfolgt werden, ich möchte nicht, dass 408 00:32:47,519 --> 00:32:52,459 mein Verhalten aufgezeichnet wird. Und gerade in Kombination mit einer echten 409 00:32:52,459 --> 00:32:56,230 Privacy by default, also eine Verpflichtung, die Daten, die 410 00:32:56,230 --> 00:32:58,950 Einstellungen, Datenschutzeinstellungen möglichst datenschutzfreundlich 411 00:32:58,950 --> 00:33:05,979 voreingestellt zu haben, wäre das sozusagen ein großer Schritt. Dass 412 00:33:05,979 --> 00:33:10,529 Nutzerinnen und Nutzer Online-Tracking besser selber kontrollieren können. 413 00:33:10,529 --> 00:33:14,100 Durchaus problematisch an der Stelle ist, dass natürlich die Tracker trotz Do-not- 414 00:33:14,100 --> 00:33:18,789 track-Signal eigentlich weiter fragen dürften, die Nutzerinnen und Nutzer weiter 415 00:33:18,789 --> 00:33:22,229 fragen dürfen sollen, ob sie denn einwilligen, dass sie doch getrackt werden 416 00:33:22,229 --> 00:33:25,309 dürfen, auch wenn sie eigentlich im Browser was anderes gesagt haben. Das ist 417 00:33:25,309 --> 00:33:32,440 so ein bisschen paradox und es birgt eine Gefahr , dass Unternehmen einfach weiter 418 00:33:32,440 --> 00:33:37,039 versuchen, über Cookie-Banner, Tracking- Banner sich das Einverständnis dann 419 00:33:37,039 --> 00:33:42,110 abzuholen. Das dürfte aber eine sehr spannende... wahrscheinlich wird es dann 420 00:33:42,110 --> 00:33:45,340 irgendwann vorm Gericht landen, weil es natürlich die Position gibt, dass 421 00:33:45,340 --> 00:33:50,759 eigentlich die Einwilligung über so ein Cookie-Banner keine richtige informierte 422 00:33:50,759 --> 00:33:58,689 Einwilligung ist. Und gerade in Verbot mit einem neuen Verbot von Tracking-Walls... 423 00:33:58,689 --> 00:34:04,490 ein explizites Verbot von Tracking-Walls fordert das EU-Parlament, also Dienste, 424 00:34:04,490 --> 00:34:08,590 Webseitenbetreiber dürfen es nicht zur Voraussetzung machen dafür, dass Nutzer 425 00:34:08,590 --> 00:34:12,979 ihren Dienst nutzen, auf ihre Webseite gehen, dass sie sich tracken lassen - kein 426 00:34:12,979 --> 00:34:16,379 take it or leave it mehr. Heute ist es ja oft so, man kann - selbst wenn man das 427 00:34:16,379 --> 00:34:19,599 Cookie-Banner anklickt, hat man die Auswahlmöglichkeiten, entweder zu sagen 428 00:34:19,599 --> 00:34:23,070 "Ich stimme zu" oder "Ich möchte mehr Informationen und dann stimme ich zu". 429 00:34:23,070 --> 00:34:27,629 Oder ich geh halt weg von der Webseite. Das ginge nicht mehr. Auch hier gibt es 430 00:34:27,629 --> 00:34:30,811 ein paar Ausnahmen. Vor allen Dingen für das Thema Reichweiten-Messung, da komme 431 00:34:30,811 --> 00:34:36,659 ich später nochmal drauf zu sprechen. Ein weiterer Bereich, der reguliert wird... 432 00:34:36,659 --> 00:34:40,239 werden würde, ist das Offline... sogenannte Offline-Tracking mit WLAN- und 433 00:34:40,239 --> 00:34:45,168 Bluetooth-Signalen. Das kommt auch in Deutschland mehr und mehr, dass sozusagen 434 00:34:45,168 --> 00:34:49,659 Nutzerinnen und Nutzer auch offline in der Innenstadt anhand der Signale getrackt 435 00:34:49,659 --> 00:34:55,840 werden, die ihr Smartphones von sich gibt. Um beispielsweise Besucherströme irgendwie 436 00:34:55,840 --> 00:34:58,819 in der Innenstadt nachverfolgen zu können oder in einem Geschäft, aber es hat 437 00:34:58,819 --> 00:35:04,060 natürlich auch ein hohes Privatsphäre- invasives Potenzial und hier schlägt das 438 00:35:04,060 --> 00:35:08,160 Parlament vor, dass das eben nur mit informierter Einwilligung der Nutzerinnen 439 00:35:08,160 --> 00:35:12,630 und Nutzer passiert oder dann, wenn es lediglich statistisches Zählen ist, also 440 00:35:12,630 --> 00:35:16,170 wenn es wirklich nicht darum geht, Leute zu identifizieren, Profile zu erstellen, 441 00:35:16,170 --> 00:35:22,119 sondern ganz klar ist, es geht darum, einfach nur zu zählen, wie viele Leute 442 00:35:22,119 --> 00:35:25,619 sind an einer bestimmten Uhrzeit zum Beispiel an meinem Laden vorbeigekommen 443 00:35:25,619 --> 00:35:29,609 oder, in welcher Ecke stehen insgesamt statistisch gesehen die meisten Leute in 444 00:35:29,609 --> 00:35:34,039 meinem Laden oder ähnliches. So, jetzt muss ich mal ein bisschen - damit noch über das 445 00:35:34,039 --> 00:35:40,539 Lobbying sprechen kann - auf die Uhr gucken. Eine weitere Neuerung ist der... 446 00:35:40,539 --> 00:35:44,019 wäre die effektive Rechtsdurchsetzung, effektivere Rechtsdurchsetzung. Bislang 447 00:35:44,019 --> 00:35:46,872 ist es ja so, dass Datenschutz vor allen Dingen auch daran krankt, dass er kaum 448 00:35:46,872 --> 00:35:50,250 durchgesetzt wird. Das würde sich... wird sich mit der Datenschutzgrundverordnung 449 00:35:50,250 --> 00:35:55,430 sowieso hoffentlich ändern, weil die Datenschutzbehörden stärkere 450 00:35:55,430 --> 00:36:01,359 Durchsetzungsmittel an die Hand bekommen. Hier an der Stelle, für den Bereich 451 00:36:01,359 --> 00:36:05,049 ePrivacy soll es einerseits eine Vereinheitlichung der Aufsicht geben bei 452 00:36:05,049 --> 00:36:08,700 den unabhängigen Datenschutzbehörden, es wird das Marktort-Prinzip gelten, es soll 453 00:36:08,700 --> 00:36:12,450 keine Schlupflöcher mehr geben durch die Wahl des Firmensitzes. Auch hier soll es 454 00:36:12,450 --> 00:36:16,140 Sanktionen von bis zu 20 Millionen Euro oder 4% des weltweiten Umsatzes 455 00:36:16,140 --> 00:36:20,080 geben, ein Recht auf Schadenersatz und - auch das hat das Parlament sozusagen 456 00:36:20,080 --> 00:36:23,420 reingeschrieben - ein Verbandsklagerecht, dass man sich vertreten lassen kann von 457 00:36:23,420 --> 00:36:31,170 NGOs beispielsweise. Jetzt muss ich mal auf die Zeit gucken. Wie viel hab ich 458 00:36:31,170 --> 00:36:39,870 noch? Ok, wow. Es soll mehr Transparenz über staatliche Zugriffe geben, also auch 459 00:36:39,870 --> 00:36:43,510 die ePrivacy-Verordnung... auch mit dieser ePrivacy-Verordnung würden 460 00:36:43,510 --> 00:36:48,000 Vorratsdatenspeicherung weiter möglich bleiben. Man hat da den Weg gewählt, das 461 00:36:48,000 --> 00:36:51,620 den Mitgliedsstaaten zu überlassen. Es wäre natürlich eine tolle Möglichkeit 462 00:36:51,620 --> 00:36:54,709 gewesen, an der Stelle auf europäischer Ebene zu sagen, okay, 463 00:36:54,709 --> 00:36:59,349 Vorratsdatenspeicherungen gehen eben nicht, ist aber eben nicht durchsetzbar 464 00:36:59,349 --> 00:37:03,109 und deshalb hat das Parlament zumindest entschieden, dass es mehr Transparenz 465 00:37:03,109 --> 00:37:07,730 geben soll an der Stelle, also Diensteanbieter müssen staatliche Zugriffe 466 00:37:07,730 --> 00:37:12,140 umfangreich kontroll... dokumentieren und Datenschutzbehörden zur Verfügung stellen, 467 00:37:12,140 --> 00:37:15,400 müssen selber jährlich statistische Berichte und Statistiken darüber 468 00:37:15,400 --> 00:37:19,589 veröffentlichen, wie viele Anfragen sie hatten. Und auch die 469 00:37:19,589 --> 00:37:22,299 Strafverfolgungsbehörden müssen jährliche... sollen dazu verpflichtet 470 00:37:22,299 --> 00:37:26,640 werden, jährliche Berichte vorzulegen. Und ich glaube, das ist der letzte inhaltliche 471 00:37:26,640 --> 00:37:30,510 Teil dazu: verstärkte Sicherheit. Auch hier gibt es sozusagen durchaus 472 00:37:30,510 --> 00:37:34,539 Fortschritte: Anbieter von Kommunikationsdiensten sollen verpflichtet 473 00:37:34,539 --> 00:37:39,750 werden, die Kommunikation ihrer Nutzer durch modernste technische Vorkehrungen 474 00:37:39,750 --> 00:37:44,299 wie Verschlüsselungsverfahren - explizit eben auch Ende-zu-Ende-Verschlüsselung zu 475 00:37:44,299 --> 00:37:48,409 schützen -, es soll ein explizites Verbot geben, verschlüsselte Kommunikationsdaten 476 00:37:48,409 --> 00:37:51,840 durch jemand anderen als den Nutzer selbst zu entschlüsseln und die EU- 477 00:37:51,840 --> 00:37:55,760 Mitgliedstaaten sollen keine Gesetze erlassen dürfen, die Backdoors 478 00:37:55,760 --> 00:38:01,850 ermöglichen, also ein relativ - gerade im Verhältnis, so habe ich es noch nirgendwo 479 00:38:01,850 --> 00:38:06,470 anders gesehen - dass das Recht auf verschlüsselte Kommunikation eben so stark 480 00:38:06,470 --> 00:38:13,150 auskodifiziert wäre. Den letzten Bereich überspringen wir mal, denn wir wollen ja 481 00:38:13,150 --> 00:38:16,960 noch über die Lobby-Schlacht sprechen. Fassen wir zusammen: also ein höheres 482 00:38:16,960 --> 00:38:21,000 Schutzniveau als das der Datenschutz- Grundverordnung für Kommunikationsdaten, 483 00:38:21,000 --> 00:38:24,819 bessere Kontrolle von Online-Tracking, Privacy by Default und ein Verbot von 484 00:38:24,819 --> 00:38:29,329 Tracking-Walls, klare Grenzen für das Offline-Tracking, bessere Durchsetzung des 485 00:38:29,329 --> 00:38:33,420 Datenschutzes, Klagemöglichkeiten für Verbände und NGOs, mehr Transparenz über 486 00:38:33,420 --> 00:38:37,090 staatliche Überwachung und ein verhältnismäßig stark kodifiziertes Recht 487 00:38:37,090 --> 00:38:41,079 auf Verschlüsselung. Auch wenn nicht alles perfekt ist in dieser Verordnung oder in 488 00:38:41,079 --> 00:38:45,609 dieser Position muss man schon sagen, das ist aus der Sicht von Nutzerinnen- und 489 00:38:45,609 --> 00:38:54,029 Nutzerrechten schon ein echt gutes Brett, was das Parlament da beschlossen hat. Und 490 00:38:54,029 --> 00:38:56,710 gerade wenn man sich anschaut, welchen schweren Stand Datenschutz praktisch und 491 00:38:56,710 --> 00:39:02,240 politisch derzeit hat und wenn man sich den Entstehungsprozess näher anschaut, 492 00:39:02,240 --> 00:39:07,560 muss man eben sagen, das EU-Parlament hat an der Stelle ganze Arbeit geleistet. "Das 493 00:39:07,560 --> 00:39:10,689 Internet, wie wir es kennen, ist in Gefahr." - Ich würde sagen: gut so, weil 494 00:39:10,689 --> 00:39:14,230 eben Nutzerinnen und Nutzer wieder die Möglichkeit bekommen sollen, mündiger zu 495 00:39:14,230 --> 00:39:20,719 entscheiden und stärker selbst zu steuern, was mit ihren Informationen passiert. 496 00:39:20,719 --> 00:39:24,380 Nicht wenige Lobbyisten dürfen sich Ende Oktober gefragt haben, als das Parlament 497 00:39:24,380 --> 00:39:27,360 das beschlossen hat, wie konnte das denn eigentlich passieren und wir können eins 498 00:39:27,360 --> 00:39:31,859 sagen: Am Aufwand, den die Werbe- und Tracking-Industrie betrieben hat, um diese 499 00:39:31,859 --> 00:39:35,069 Verordnung zu verhindern oder zu verwässern, hat es ganz bestimmt nicht 500 00:39:35,069 --> 00:39:39,140 gelegen. Ich hoffe, ihr seid bereit für noch ein paar... und ich hab noch ein paar 501 00:39:39,140 --> 00:39:44,499 Minuten für noch ein paar Schauer- und Weltuntergangsszenarien. Also los gings im 502 00:39:44,499 --> 00:39:48,780 Sommer 2016, erst mal das Verfahren mit einer Konsultation. Die EU-Kommission hat 503 00:39:48,780 --> 00:39:52,849 quasi angekündigt, wir wollen die ePrivacy-Richtlinie reformieren, und hat 504 00:39:52,849 --> 00:39:56,160 eine Konsultation gemacht - da hat sich schon sehr stark offenbart, wie groß die 505 00:39:56,160 --> 00:40:00,880 Spaltung ist. Also 83% der teilnehmenden Bürgerinnen und Bürger und 506 00:40:00,880 --> 00:40:06,080 NGOs waren eben dafür, dass es spezifische ePrivacy-Regelungen gibt zum Schutz der 507 00:40:06,080 --> 00:40:11,420 Kommunikation und nur 31% der Unternehmen waren dafür. Und während 77% 508 00:40:11,420 --> 00:40:14,980 der Zivilgesellschaft für ein Verbot von Tracking Walls beispielsweise 509 00:40:14,980 --> 00:40:21,160 waren, waren 75% der Unternehmen dagegen. Eine krasse Spaltung. Und kurz 510 00:40:21,160 --> 00:40:25,500 nach der Veröffentlichung dieser Konsultationen ist ein bemerkenswertes 511 00:40:25,500 --> 00:40:29,690 Bündnis aus quasi allen Firmen, die irgendwas mit digital zu tun haben, auf 512 00:40:29,690 --> 00:40:35,010 den Plan getreten und hat dafür geworben, die Verordnung, das ePrivacy-Thema einfach 513 00:40:35,010 --> 00:40:39,280 komplett zu streichen, die Verordnung gar nicht... überhaupt keine Reform 514 00:40:39,280 --> 00:40:44,420 vorzunehmen. Es gibt ja die Datenschutz- Grundverordnung, also das ist mal eine 515 00:40:44,420 --> 00:40:52,059 Liste der Unternehmen, die sich quasi... die mit vertreten waren in den Verbänden, 516 00:40:52,059 --> 00:40:55,990 die sich dafür ausgesprochen haben, die Regeln einfach wegzulassen. Also wirklich 517 00:40:55,990 --> 00:41:00,319 von Google, Facebook, Telekom bis hin zu so interessanten Unternehmen wie Airbus 518 00:41:00,319 --> 00:41:08,640 oder Bayer. Und AOL gibt's auch noch. Es gibt einen sehr lesenswerten Bericht der 519 00:41:08,640 --> 00:41:13,469 Transparenz-Organisation Corporate Europe, der sehr minutiös nachzeichnet, wo und wie 520 00:41:13,469 --> 00:41:17,720 das Big Data-Business versucht hat, die Regulierungs-Bestrebungen der EU zu 521 00:41:17,720 --> 00:41:22,570 beeinflussen, der ist sehr lesenswert. Da ist sozusagen der ganze Baukasten des 522 00:41:22,570 --> 00:41:25,860 Lobbyings zum Einsatz gekommen: Einzeltreffen mit hochrangigen Vertretern 523 00:41:25,860 --> 00:41:31,599 der EU-Kommission, Auftragsstudien, Veranstaltungen, Kampagnen... öffentliche 524 00:41:31,599 --> 00:41:36,400 Kampagnen und die Mobilisierung einzelner einflussreicher Unternehmen. Und bei der 525 00:41:36,400 --> 00:41:42,730 EU-Kommission haben sie damit relativ gute Karten gehabt. Von 41 Treffen, die 526 00:41:42,730 --> 00:41:45,829 dokumentiert sind zu diesem Thema - es sind in Wirklichkeit wahrscheinlich 527 00:41:45,829 --> 00:41:52,451 deutlich mehr - fanden 36 statt mit Unternehmensvertretern, nur fünf Treffen 528 00:41:52,451 --> 00:42:03,220 hochrangiger EU-Kommissionsvertreter fanden statt mit NGOs. Dementsprechend hat 529 00:42:03,220 --> 00:42:07,769 sich ein... ist der Entwurf, den die EU- Kommission dann im Frühjahr 20... im 530 00:42:07,769 --> 00:42:11,800 Januar 2017 vorgelegt hat, auch deutlich schwächer ausgefallen, als man das erhofft 531 00:42:11,800 --> 00:42:18,239 hatte und als es noch eine, im Dezember geleakte Version, ihres Entwurfs nahegelegt 532 00:42:18,239 --> 00:42:25,710 hatte, der einigen Firmen bzw. wirklich in dem großen, dem großen Bündnis aus 533 00:42:25,710 --> 00:42:28,861 Tracking- und Daten-Firmen reichte das nicht - den hier hatten wir eben schon - 534 00:42:28,861 --> 00:42:33,839 im Laufe des Jahres ist dann auch die Verlagsbranche auf den Anti-ePrivacy-Zug 535 00:42:33,839 --> 00:42:37,289 aufgesprungen, also "Die ePrivacy- Verordnung ist ein Angriff auf den freien 536 00:42:37,289 --> 00:42:42,310 Journalismus im Netz", sagt der Verband Deutscher Zeitschriftenverleger. Und der 537 00:42:42,310 --> 00:42:47,540 Bundesverband Deutscher Zeitungsverleger. In einem gemeinsamen Statement. Es gab 538 00:42:47,540 --> 00:42:51,519 einen offenen Brief von ganz vielen internationalen Verlagen an das EU- 539 00:42:51,519 --> 00:42:56,420 Parlament, das Thema wegzulassen und die ePrivacy-Verordnung nicht in dieser 540 00:42:56,420 --> 00:43:01,619 strengen Form zu verabschieden. Und natürlich die Filme habe ich euch... oder 541 00:43:01,619 --> 00:43:04,980 den einen Film habe ich euch eben schonmal kurz gezeigt. Es gibt auf der Seite noch 542 00:43:04,980 --> 00:43:09,281 ein paar mehr, Like a bad Movie, wenn ihr euch die anschauen wollt, es lohnt sich. 543 00:43:09,281 --> 00:43:11,700 Sodass am Ende selbst Michael Boni, der Verhandlungsführer der 544 00:43:11,700 --> 00:43:16,890 christdemokratischen Fraktion im Parlament, beklagte, dass der Lobbyismus 545 00:43:16,890 --> 00:43:20,059 übertrieben sei - zwar von beiden Seiten, aber eben deutlich übertriebener von Seiten 546 00:43:20,059 --> 00:43:28,019 der Wirtschaft. Nichts destotrotz hat es am Ende nichts genutzt: mit 318 zu 280 547 00:43:28,019 --> 00:43:31,309 Stimmen hat das Parlament Ende Oktober diese Position beschlossen, die ich eben 548 00:43:31,309 --> 00:43:35,930 erzählt habe. Vorangegangen ist dem wirklich ein sehr krasser politischer 549 00:43:35,930 --> 00:43:41,120 spannender Krimi. Denn kurz vor der entscheidenden Abstimmung im Innen- und 550 00:43:41,120 --> 00:43:46,140 Justizausschuss des Parlaments, wo eben die Hauptverhandlungen stattgefunden 551 00:43:46,140 --> 00:43:50,751 haben, haben die Konservativen sozusagen wirklich zwei Tage vor der Abstimmung die 552 00:43:50,751 --> 00:43:56,730 Verhandlungen über Kompromisse abgebrochen. In dem Wissen, dass 553 00:43:56,730 --> 00:44:01,569 Sozialdemokraten, Liberale, Linke und Grüne alleine in dem Ausschuss nicht über 554 00:44:01,569 --> 00:44:07,400 die absolute Mehrheit verfügen, die notwendig gewesen ist oder wäre, um dieses 555 00:44:07,400 --> 00:44:12,371 starke Verhandlungsmandat zu beschließen. Die Konservativen wollten... oder die 556 00:44:12,371 --> 00:44:18,259 christdemokratische Fraktion wollte darauf bestehen, dass in jedem Falle ein further 557 00:44:18,259 --> 00:44:20,440 processing von Daten ermöglicht wird und hat dann die Verhandlung vorher 558 00:44:20,440 --> 00:44:26,880 abgebrochen. Die Rechnung ist allerdings nicht ganz aufgegangen. Ein bisschen 559 00:44:26,880 --> 00:44:32,259 verzockt an der Stelle: Mit genau 31 Stimmen, also genauso viel wie notwendig 560 00:44:32,259 --> 00:44:38,170 waren, hat dieses pro-Privacy-Bündnis am Ende die Abstimmung im Ausschuss gewonnen. 561 00:44:38,170 --> 00:44:42,650 Denn drei Stimmen fehlten denen eigentlich und zwei Abgeordnete der italienischen 562 00:44:42,650 --> 00:44:50,029 Fünf-Sterne-Bewegung haben mitgestimmt und dieser Spaßvogel hat eben auch mit dafür 563 00:44:50,029 --> 00:44:56,749 gestimmt. *Applaus* 564 00:44:56,749 --> 00:45:00,380 Und das obwohl er eigentlich nicht einmal in diesem Ausschuss sitzt. 565 00:45:00,380 --> 00:45:05,420 Denn er hat es geschafft, den NPD-Mann im diesem Ausschuss, Udo Voigt, zu 566 00:45:05,420 --> 00:45:09,779 überzeugen, dass er sein Stellvertreter sein kann an diesem Tag. 567 00:45:09,779 --> 00:45:19,000 *Lachen, Applaus* Also wir müssen Martin Sonneborn danken, 568 00:45:19,000 --> 00:45:21,959 aber ich will an dieser Stelle auch noch mal explizit wirklich sagen, dass 569 00:45:21,959 --> 00:45:28,670 natürlich die wichtige Vorarbeit an der Stelle ja von den Verhandlungsführern der 570 00:45:28,670 --> 00:45:31,809 Sozialdemokraten, Marju Lauristin aus Estland, natürlich Jan Albrecht und sein 571 00:45:31,809 --> 00:45:37,789 Team, die niederländische Abgeordnete der Liberalen Sophia in 't Veld und auch die 572 00:45:37,789 --> 00:45:42,090 federführende Linke Cornelia Ernst, an der Stelle echt gute Arbeit geleistet haben. 573 00:45:42,090 --> 00:45:51,780 *Applaus* Okay, damit es noch eine kurze Q&A geben 574 00:45:51,780 --> 00:45:57,550 kann, sage ich mal... überspringe ich jetzt mal so ein paar Kleinigkeiten, 575 00:45:57,550 --> 00:46:02,740 allerdings wichtig: der Lobby-Kampf, die Lobby-Schlacht ist eben noch lange nicht 576 00:46:02,740 --> 00:46:08,819 vorbei. Das Parlament hat seine Position beschlossen, bevor die ePrivacy-Verordnung 577 00:46:08,819 --> 00:46:12,450 wirklich verabschiedet wird, muss sich jetzt der Rat, der EU-Rat, also die 578 00:46:12,450 --> 00:46:15,790 Mitgliedsstaaten, die Regierungen der Mitgliedsstaaten positionieren. Das dauert 579 00:46:15,790 --> 00:46:20,719 noch an. Die derzeitige bulgarische Ratspräsidentschaft hat quasi gesagt, es 580 00:46:20,719 --> 00:46:25,280 wird vor Juni 2018 nichts. Eigentlich war mal geplant, dass die ePrivacy-Verordnung 581 00:46:25,280 --> 00:46:34,360 auch im Mai 2018 in Kraft tritt. Das heißt für den weiteren Prozess: besser als das, 582 00:46:34,360 --> 00:46:37,550 was das Parlament beschlossen hat, wird es wahrscheinlich eher nicht mehr. Die 583 00:46:37,550 --> 00:46:41,499 Erfahrungen im Trilog zeigen, und auch das was bisher schon von den Positionierungen 584 00:46:41,499 --> 00:46:49,659 oder von den ersten Stimmen aus dem Rat zu hören war, zeigen, es wird eher 585 00:46:49,659 --> 00:46:55,319 schlechter. Zum Beispiel gibt es eine Idee und einen Vorschlag, die Reichweite der 586 00:46:55,319 --> 00:47:01,200 ePrivacy-Verordnung darauf zu beschränken, dass nur Daten im Transit, im Transport 587 00:47:01,200 --> 00:47:07,690 sozusagen, davon umfasst sind. De facto liegen aber die meisten Daten heute in der 588 00:47:07,690 --> 00:47:11,700 Cloud, liegen auf Servern. Und die wären eben ausgenommen von den ePrivacy-Regeln. 589 00:47:11,700 --> 00:47:17,710 Das heißt der Lobby-Kampf ist noch lange nicht vorbei und jetzt drehen Tracking- 590 00:47:17,710 --> 00:47:21,390 und Daten-Industrie nochmal richtig auf und bekommen auch jetzt sehr breite 591 00:47:21,390 --> 00:47:26,000 Unterstützung, also unter anderem auch von RTL-Chefin Anke Schäferkordt, die sagt, 592 00:47:26,000 --> 00:47:31,950 die EU würde jetzt mit der ganz großen Datenschutz-Keule kommen, den Werbe- 593 00:47:31,950 --> 00:47:35,530 Verband hatte ich eben schonmal genannt, die sagen, lasst uns doch lieber weiter das 594 00:47:35,530 --> 00:47:38,660 Modell der Selbstregulierung machen, hat doch gut funktioniert in den letzten 10 595 00:47:38,660 --> 00:47:43,609 Jahren, dass wir als Tracking-Branche uns selbst regulieren. Ich hab mir das mal 596 00:47:43,609 --> 00:47:46,589 angeguckt, aber dafür ist jetzt leider nicht mehr die Zeit, wie diese 597 00:47:46,589 --> 00:47:49,210 Regulierung... Selbstregulierung eigentlich aussieht. Es gibt einen Code of 598 00:47:49,210 --> 00:47:53,279 Conduct, den man sich mal durchlesen kann, wo unter anderem drinsteht, dass man 599 00:47:53,279 --> 00:47:57,039 Beschwerden auf der wunderhübschen Seite meine-cockies.org, die eher aussieht wie 600 00:47:57,039 --> 00:48:00,440 eine Hobby-Seite aus den frühen Nuller Jahren, irgendwie sich beschweren kann, 601 00:48:00,440 --> 00:48:03,899 falls man ein Problem hat. Und was findet man dort auf der Seite eben nicht? Ein 602 00:48:03,899 --> 00:48:14,779 Formular. OK. Also. OK, ich krieg das Zeichen, ich darf das nicht mehr machen. 603 00:48:14,779 --> 00:48:19,410 Deshalb nur noch einmal kurz durch durchgegangen, ich zeig sie einfach nur an 604 00:48:19,410 --> 00:48:24,670 der Stelle: ePrivacy-Mythen. Es sind extrem viele Mythen im Umlauf. Wir haben 605 00:48:24,670 --> 00:48:27,590 auf netzpolitik.org vor zwei Wochen ein sehr lesenswertes Interview, wie ich 606 00:48:27,590 --> 00:48:30,879 finde, dazu veröffentlicht, wo Florian Glatzner vom Verbraucherzentrale- 607 00:48:30,879 --> 00:48:35,349 Bundesverband einige der zentralen Mythen wirklich mal aus- und vornimmt. Weil 608 00:48:35,349 --> 00:48:38,780 natürlich die Erzählung, die EU übertreibt total beim Datenschutz, die wissen nicht 609 00:48:38,780 --> 00:48:42,390 was sie machen, die machen die Innovationen kaputt in Europa und am Ende 610 00:48:42,390 --> 00:48:45,459 profitieren dann doch nur die bösen Amerikaner, das sind sehr starke 611 00:48:45,459 --> 00:48:49,670 Erzählungen, die irgendwie gut funktionieren in der Öffentlichkeit. 612 00:48:49,670 --> 00:48:56,119 Deshalb. Das Fazit kann natürlich an der Stelle nur lauten "tu wat" oder "tut wat". 613 00:48:56,119 --> 00:49:01,519 Und zwar nicht nur praktisch, sondern eben auch politisch. Datenschutz rockt oder 614 00:49:01,519 --> 00:49:04,740 kann rocken, wenn er denn vernünftig durchgesetzt wird und wenn er denn 615 00:49:04,740 --> 00:49:08,610 vernünftig funktioniert. Und es ist an uns, quasi das einzufordern, das von 616 00:49:08,610 --> 00:49:12,390 Unternehmen einzufordern, die aber auch zu beraten und es ihnen möglich zu machen, 617 00:49:12,390 --> 00:49:15,989 selber technische Lösungen zu entwickeln, und vor allen Dingen dem Datenschutz den 618 00:49:15,989 --> 00:49:22,390 gesellschaftlichen Stellenwert zu besorgen, den er verdient hat, und gerade 619 00:49:22,390 --> 00:49:28,200 auch in den Medien. Also ich kann immer noch nicht fassen, dass im Jahr 2017 noch 620 00:49:28,200 --> 00:49:31,579 die meisten... noch den meisten Nachrichtenredaktionen das Thema Datenschutz 621 00:49:31,579 --> 00:49:36,030 zu trocken oder zu kompliziert ist, um darüber zu berichten. Ich hab - nicht nur 622 00:49:36,030 --> 00:49:39,620 weil ich unsere Texte am besten finde - sozusagen die ganzen Artikel von uns immer 623 00:49:39,620 --> 00:49:43,220 genommen, wenn ich was gezeigt habe. Es hat einfach kaum jemand außer noch ein, 624 00:49:43,220 --> 00:49:49,639 zwei Fachmedien darüber berichtet über das Thema und das kann eigentlich im Jahr 2017 625 00:49:49,639 --> 00:49:53,850 nicht mehr sein. Genau. An der Stelle sage ich einfach mal Punkt. 626 00:49:53,850 --> 00:50:01,200 *Applaus* 627 00:50:01,200 --> 00:50:03,099 Wir werden bei netzpolitik.org natürlich 628 00:50:03,099 --> 00:50:05,720 das machen, was wir weiter... was wir immer machen, wir werden versuchen, alle 629 00:50:05,720 --> 00:50:09,529 Leute mit den Informationen zu versorgen, die sie brauchen, um selbst mündig sich 630 00:50:09,529 --> 00:50:12,679 mit dem Thema auseinanderzusetzen. Wir freuen uns über Spenden genauso wie EDRi 631 00:50:12,679 --> 00:50:18,029 und Digitale Gesellschaft, das schiebe ich nochmal hinterher, die eben im politischen 632 00:50:18,029 --> 00:50:22,579 Prozess wirklich mit Politikerinnen und Politikern, Verantwortungsträgern sprechen 633 00:50:22,579 --> 00:50:26,530 und dafür sorgen, dass Nutzerinnen- und Nutzer-Positionen vertreten werden. Also 634 00:50:26,530 --> 00:50:30,540 die alle können unsere... eure Unterstützung gebrauchen. Vielen Dank. 635 00:50:30,540 --> 00:50:38,710 *Applaus* 636 00:50:38,710 --> 00:50:40,619 Herald: Danke, Ingo. Ich glaube, wir haben 637 00:50:40,619 --> 00:50:44,870 Zeit für eine Frage. Wenn ihr eine Frage habt für Ingo, dann nehmt euch bitte eins 638 00:50:44,870 --> 00:50:56,970 dieser Mikrofone in den Gängen, da haben wir vier Mikrofone ausgestellt. Oh, da ist 639 00:50:56,970 --> 00:51:03,340 jemand ganz schnell am Mikrofon Nummer 2. Und bitte ganz deutlich ins Mikrofon 640 00:51:03,340 --> 00:51:06,119 reinsprechen, damit wirs auch im Stream hören können. 641 00:51:06,119 --> 00:51:11,760 M2: Ich versuchs mal ohne sächsischen Akzent - hallo. Ich hätt ne Frage zu den 642 00:51:11,760 --> 00:51:16,609 Strafen. Ob da auch was reguliert wurde oder ob da die Lobby Bezug drauf genommen 643 00:51:16,609 --> 00:51:20,840 hat und das ein bisschen runterregulieren konnte, oder ob sie sich da nicht 644 00:51:20,840 --> 00:51:26,400 durchsetzen konnten. ID: Nach dem, was ich von außen sozusagen 645 00:51:26,400 --> 00:51:31,179 sagen kann, ist das nicht runter, ist an der Stelle zumindest das Parlament hat 646 00:51:31,179 --> 00:51:35,750 sich da nicht runterregulieren lassen. Das ist analog zu dem, was in der Datenschutz- 647 00:51:35,750 --> 00:51:39,440 Grundverordnung steht, und das ist quasi eine Verhundertfachung, Vertausendfachung 648 00:51:39,440 --> 00:51:43,859 von dem, was heute an Strafen möglich ist. Also 4% des weltweiten Umsatzes, 649 00:51:43,859 --> 00:51:48,710 das ist eben für einen global agierenden Konzern dann wirklich so, dass endlich mal 650 00:51:48,710 --> 00:51:53,790 ein empfindliches Maß bekommt. Von daher, mehr wäre natürlich immer noch möglich, im 651 00:51:53,790 --> 00:51:59,010 Wettbewerbsrecht sind es bis zu 10% des Konzernumsatzes. Also, da geht noch 652 00:51:59,010 --> 00:52:03,650 was. H: Gibts es weitere Fragen? Wir haben noch 653 00:52:03,650 --> 00:52:11,340 Zeit für eine weitere oder zwei weitere Fragen, das war sehr kurz. Oh, am Mikrofon 654 00:52:11,340 --> 00:52:15,380 Nr. 1. M1: Was würde passieren, wenn ich bei der 655 00:52:15,380 --> 00:52:30,010 Schufa meine Datenlöschung beantrage? ID: Äääähm... gute Frage. Warte mal, bis 656 00:52:30,010 --> 00:52:35,010 die Datenschutz-Grundverordnung im Mai 2018 in Kraft tritt oder wirksam ist - in 657 00:52:35,010 --> 00:52:38,239 Kraft ist sie ja schon - und dann mach das mal bitte und dann gib mir Bescheid. Dann 658 00:52:38,239 --> 00:52:39,729 begleiten wir das, dann gucken wir uns das an. 659 00:52:39,729 --> 00:52:42,130 *Lachen* 660 00:52:42,130 --> 00:52:49,510 H: Gute Antwort. *lacht* Und Mikrofon Nr. 2. M2: Ingo, könntest du bitte nochmal kurz 661 00:52:49,510 --> 00:52:53,519 erläutern, warum diese ePrivacy-Verordnung zusätzlich zur EU- 662 00:52:53,519 --> 00:52:57,750 Datenschutzgrundverordnung nötig ist. Es sind sehr viele Sachen, die sind in der 663 00:52:57,750 --> 00:53:02,130 EU-Datenschutzgrundverordnung sehr ähnlich oder genau identisch geregelt. 664 00:53:02,130 --> 00:53:10,059 ID: Also, der zentrale Punkt ist, dass es... weil Kommunikationsdaten, Metadaten, 665 00:53:10,059 --> 00:53:14,240 Inhaltsdaten eben besonders sensibel sind, weil sie eben besonders viel aussagen, 666 00:53:14,240 --> 00:53:18,730 dass es eben ein höheres und ein konkreteres Schutzniveau bedarf. Also wenn 667 00:53:18,730 --> 00:53:22,790 wir zum Beispiel uns anschauen, was die Diensteanbieter machen dürfen mit den 668 00:53:22,790 --> 00:53:27,330 Daten von ihren Kunden, dann bietet eben die ePrivacy-Verordnung die Möglichkeit, 669 00:53:27,330 --> 00:53:30,920 da eine klarere Grenze zu ziehen als das über die Datenschutzgrundverordnung der 670 00:53:30,920 --> 00:53:35,520 Fall ist. Da gibt es ja leider dieses legitime Interesse als Verarbeitungsgrund, 671 00:53:35,520 --> 00:53:40,269 das alles heißen kann. Und da ist es einfach eine klarere, eine striktere 672 00:53:40,269 --> 00:53:46,769 Grenze gezogen, wenn man sagt, nur auf Basis von Einwilligung. Und sowas wie 673 00:53:46,769 --> 00:53:53,459 privacy by default und Tracking-Schutz durch Browser ist eben etwas, das über die 674 00:53:53,459 --> 00:53:57,890 Datenschutzgrundverordnung nicht reguliert ist. Also von daher ist die Antwort, es 675 00:53:57,890 --> 00:54:01,159 ist an der Stelle einerseits eine Ergänzung, weil bestimmte Sachen einfach 676 00:54:01,159 --> 00:54:03,849 nicht abgedeckt sind durch die Datenschutzgrundverordnung, die ist ja 677 00:54:03,849 --> 00:54:08,359 sehr allgemein, die ist ja für alles vom Bäcker eben bis zum Big-Data-Unternehmen, 678 00:54:08,359 --> 00:54:13,139 und eigentlich aus einer Perspektive eines progressiven Datenschutzes müsste man 679 00:54:13,139 --> 00:54:17,179 sagen, genauso wie es mit der ePrivacy- Verordnung jetzt für den Bereich 680 00:54:17,179 --> 00:54:19,329 der elektronischen Kommunikation passiert ist, 681 00:54:19,329 --> 00:54:22,150 müsste man es vielleicht auch noch für bestimmte andere Bereiche 682 00:54:22,150 --> 00:54:25,240 machen, dass man eben diese sehr grundsätzlichen, allgemeinen Regelungen, 683 00:54:25,240 --> 00:54:29,689 die es gibt für den Datenschutz insgesamt, ergänzt durch etwas Spezifisches. 684 00:54:29,689 --> 00:54:32,869 Weil einfach der Datenschutz im Gesundheitsbereich etwas ganz anderes ist 685 00:54:32,869 --> 00:54:39,490 als jetzt beim Verkauf von Autos. H: Okay, dann noch die letzte Frage, die 686 00:54:39,490 --> 00:54:42,080 müssten wir auch kurz halten und dann geb ich das Wort... 687 00:54:42,080 --> 00:54:45,460 ID: Wir haben auch später angefangen. H: ... an Mikrofon Nummer 1 bitte. 688 00:54:45,460 --> 00:54:49,300 M1: Ja, ganz kurz: Die Lebensmittel-Mafia hat ja ungefähr 2 Millarden dafür 689 00:54:49,300 --> 00:54:52,989 ausgegeben für Lobby-Arbeit gegen die Ampel. Ist jetzt schon bekannt, was die 690 00:54:52,989 --> 00:54:56,060 Datenhehler ungefähr monetär an den Start gebraucht haben? 691 00:54:56,060 --> 00:54:59,420 ID: Kann ich nicht sagen, keine Ahnung. Aber es ist eben klar, dass die spätestens 692 00:54:59,420 --> 00:55:07,330 seit der Datenschutzgrundverordnung deutlich besser aufgestellt sind. Also ich 693 00:55:07,330 --> 00:55:13,580 kann es dir nicht monetär sagen, aber der Aufwand ist enorm und auch allein das 694 00:55:13,580 --> 00:55:19,380 Zahlenverhältnis, wie viele Leute sind vor Ort und können mit Kommissionsvertretern 695 00:55:19,380 --> 00:55:22,789 sprechen, steht eben in keinem Verhältnis zu dem, was die digitale Zivilgesellschaft 696 00:55:22,789 --> 00:55:28,510 da auf die Beine kriegen kann derzeit. H: Okay und damit beenden wir den Talk. 697 00:55:28,510 --> 00:55:29,920 Vielen Dank, Ingo! 698 00:55:29,920 --> 00:55:36,920 *Applaus* 699 00:55:36,920 --> 00:55:42,275 *Abspannmusik* 700 00:55:42,275 --> 00:55:59,000 Untertitel erstellt von c3subtitles.de im Jahr 2018. Mach mit und hilf uns!