Letztes Update:
20210610131234

Das Trainingsmaterial im Fokus

12:48
10.06.2021
Schäfer zeigt den Verlauf der Untersuchungen an. Bis zu 72% Erkennung von Hate Speech ist möglich, mit Metadaten wird es noch etwas mehr. "Wenn man sinnvoll Zusatzmerkmale hinzufügt, kann das System lernen, welche wichtig sind", so Schäfer. 

Auch Schäfer betont noch mal, dass es nicht einzelne Merkmale gibt, sondern dass die Kombination hier entscheidend ist. Wichtig ist außerdem, dass man nicht nur am System arbeitet, sondern auch am Trainingsmaterial. Je besser das Trainingsmaterial ist, je stärker es weiterentwickelt wird und auf hohe Qualität geachtet wird, desto besser funktioniert alles. Manuelle Nachkontrolle ist aber wichtig, ebenso der Blick auf den Kontext, denn gerade der Erfindungsreichtum der Verfasser:innen ist hoch. Und die automatischen Entscheidungen müssen immer nachvollzogen werden - nur so bleibt die KI erklärbar.

Dr. Diana Mantel

Das System trainieren

12:35
10.06.2021
Prof. Ulrich Heid und  Johannes Schäfer sprechen jetzt über die Erkennung von Hassrede durch KI und welche Aufgaben, Verfahren und aktuelle Ereignisse hier zentral stehen. Wie gut kann ein System solche Hassrede erkennen? Denn wie schon im Eröffnungsvortrag von Jaki deutlich wurde, ist nicht jede Hate Speech klar zu erkennen. Heid betont, dass zudem der Umfang von Posts (lange Posts vs. kurze Stellen) Schwierigkeiten bringen kann. Wenn nur ein Abschnitt problematisch ist, ist dann der ganze Post Hate Speech?

Maschinelles Lernen spielt hier eine große Rolle. Sie trainiert Systeme auf typische Merkmale und trainiert durch "Selbstlernen" mittels Beispiele. Das System lernt dann Merkmale und ihre Kombination, wichtig sind die Trainingsdaten - und davon braucht man viele. Wichtig ist außerdem, die Qualitätskontrolle immer durchzuführen, um das Ganze zu überprüfen. Accuracy/Precision ist hier wichtig, also wie viele Fälle wirklich stimmen, und der Recall, wie viele der eingebauten Fälle wirklich entdeckt wurden. 

Dr. Diana Mantel