Letztes Update:
20210610135745

Wie gut sieht die Erkennung jetzt aus?

13:54
10.06.2021
Nach allem, was Sie bisher gehört haben: Wie gut ist Erkennung von Hate Speech durch KI in Ihrer Einschätzung nach aktuell?

A) fast perfekte Erkennung
B) mittelmäßige Erkennung
C) sehr schlechte Erkennung

73% sehen hier eine mittelmäßige Erkennung. 

Dr. Diana Mantel

Blick in die Zukunft

13:53
10.06.2021
Und ein Blick in die Zukunft: Wie wird sich das Problem von Hate Speech in Sozialen Netzwerken in 10 Jahren darstellen:

A) sehr viel schlimmer
B) ähnlich wie heute
C) weitgehend gelöst

Auch hier sind es gute 60 Prozent, die sich für B entscheiden.

Dr. Diana Mantel

Fragerunde an alle

13:49
10.06.2021
Noch eine Fragerunde - mit Fragen an Sie. Wie geht es Ihnen bei dieser Frage:

Sofern verfügbar und technisch ausgereift, sollten KI und automatisierte Detektionsverfahren standardmäßig auf user-generated content etwa in sozialen Netzwerken angewandt werden?

A) Ja
B) nur unter engen gesetzlich definierten Bedingungen und bei Verdachtsfällen
C) gar nicht

Zwei Drittel der Teilnehmenden stimmen für B ab. 

Dr. Diana Mantel

Arbeit der EU

13:37
10.06.2021
Große Betreiber sozialer Netzwerke müssen illegale Postings binnen 24 Minuten entfernen, bei Unsicherheit haben sie sieben Tage zur Prüfung. Die EU tut hier sehr viel, viele Entscheidungen stehen aber noch aus. Es wird kein inhaltlicher Katalog vorgegeben oder eine Inhalteüberwachung gefordert, eher notice-and-action. Plattformen stehen hier im Mittelpunkt, weil sie Ansatzpunkte für Content-Regulierung sind. Zuckerberg beispielsweise sieht KI als klares Mittel zur Bekämpfung an: "AI will fix this!" Gerade aber KI wird Regulierungsinstrument und Regulierungsgegenstand gleichzeitig, und nimmt so eine Doppelstellung in der Regulierung ein. 

Dr. Diana Mantel