S2#6 KI contra digitale Gewalt (zu Gast Penemue)

Shownotes

Die Effekte von digitaler Gewalt sind nicht nur digital, sondern auch im Analogen spürbar. Psychische und körperliche Schäden sind die Folge, und auch der öffentliche Diskurs leidet darunter. Sarah Boukal und Jonas Alnemri haben eine KI erfunden, die Hasskommentare erkennt und hilft mit diesen umzugehen. Technologische Lösungen sind für sie nicht nur eine Erleichterung für Betroffene, sondern auch eine Antwort im Kampf gegen organisierte Bots, die gezielt durch Hasskommentare Einfluss nehmen.

In dieser Folge sprechen wir über die Grenzen zwischen Meinungsfreiheit und digitaler Gewalt, die Effekte und den Umgang mit Hasskommentaren und die Rolle der Medien.

Verweis Drachenlord: Die Geschichte des Drachenlords: Podcast Wer hat Angst vorm Drachenlord.

Mehr zu Penemue: https://www.penemue.ai/

Du hast auch Lust auf Medien oder möchtest eine spannende Innovation vorstellen? Dann besuche uns auf https://www.media-lab.de/de/ und schreib uns!

Transkript anzeigen

00:00:00: Wir haben normalerweise Betroffene, mit denen wir zu tun haben, dass sie so ungefähr 10% aller Kommentare und Nachrichten ist "Hate" und 90% ist okay.

00:00:08: Und wir hatten aber jetzt kürzlich auch eine Influencerin, da war es genau andersrum.

00:00:11: Also die hatte 90% Hate auf ihrem Kanal und 10% unterstützende, wohlwollende, gute Kommentare.

00:00:18: Und das hat sie vor allem den Algorithmen zugeschrieben.

00:00:29: Herzlich willkommen bei den Innovation Minutes.

00:00:31: Ich bin Sabrina Harper und heute geht es um ein ernstes Thema, nämlich Medien und digitale Gewalt.

00:00:37: Wenn ich zum Beispiel sehe, dass dieser Podcast kommentiert wurde, dann habe ich als erstes immer so einen Impuls und denke mir "Oh je, wer hat da was drunter geschrieben?"

00:00:47: Und damit bin ich bestimmt nicht alleine.

00:00:49: Jeder Community Manager, jeder Community Managerin kennt das bestimmt auch, dass da irgendwelche bösartigen Kommentare unter einem Posting auftauchen können.

00:00:59: Oder so eine Art Troll.

00:01:01: Ein Paradebeispiel, wohin digitale Gewalt führen kann, ist zum Beispiel die Geschichte rund um den Drachenlord.

00:01:08: Das war ja ziemlich präsent.

00:01:10: Und auch Journalisten und Journalistinnen können direkt betroffen sein.

00:01:13: Das ist alles tatsächlich sehr, sehr schade, weil dadurch die konstruktive und positive Debatte kleiner wird.

00:01:20: Doch was können wir dagegen tun?

00:01:22: Und wer trägt die Verantwortung?

00:01:24: Und wie geht man am besten mit solchen Kommentaren um?

00:01:28: Darüber spreche ich mit Sarah und Jonas.

00:01:30: Die haben ein Startup gegründet, das mit Hilfe von KI Hate Speech identifiziert und sie kennzeichnet.

00:01:37: Wie das genau funktioniert, haben sie mir im Gespräch erklärt.

00:01:40: Und natürlich erfährst du, wie du am besten mit Hasskommentaren umgehst.

00:01:45: Und das sind sie schon.

00:01:48: Sarah Bukall und Jonas Al-Nemri habe ich heute zu Gast.

00:01:52: Sie sind Experten für digitale Gewalt.

00:01:55: Unter anderem, weil sie ein Startup gegründet haben, das mit Hilfe von KI destruktive Kommentare herausfiltern kann.

00:02:03: Wie das genau funktioniert, erzählt ihr uns gleich. Und wir gehen auch auf weitere Maßnahmen ein, wie man am besten Kommentar spalten managt, damit sie nicht von Hate geflutet werden.

00:02:13: Ich freue mich, dass ihr Zeit für mich gefunden habt.

00:02:16: Bevor wir ins Gespräch so richtig rein starten, brauchen wir, glaube ich, erstmal Definitionsklarheit.

00:02:22: Von daher, was bedeutet denn Hate Speech für euch?

00:02:25: Also von Hate Speech spricht man tatsächlich immer dann, wenn es um eine Beleidigung oder Defamierung geht,

00:02:32: die eine Person angreift aufgrund von der Gruppenzugehörigkeit.

00:02:35: Also das sind rassistische Äußerungen, antisemitische Äußerungen oder Sexismus.

00:02:40: Das heißt, wenn ich immer aufgrund meiner Zugehörigkeit zu irgendeiner Gruppe, aufgrund meines Geschlechts und so weiter beleidigt werde.

00:02:47: Und das ist aber sozusagen die Fachdefinition.

00:02:51: Tatsächlich meinen viele Menschen damit einfach alles, was im Netz passiert, was einfach beleidigend, angreifend, drohend und so weiter ist.

00:03:00: Also alles, was wir nicht haben wollen, sagen wir es mal so.

00:03:03: Also kann man sagen, Hate Speech ist eine Untergruppe von digitaler Gewalt.

00:03:09: Genau, absolut.

00:03:10: Und digitale Gewalt selber ist natürlich nochmal eine sehr viel größere Kategorie.

00:03:14: Deshalb reden wir auch gerne davon, weil Hate Speech eigentlich zu eng gefasst ist.

00:03:17: Also es sind ja auch Desinformationen, letztlich geht oft Hand in Hand mit digitaler Gewalt,

00:03:23: weil mit Desinformation mobilisiert wird gegen bestimmte Gruppen oder Personen.

00:03:27: Aber auch wenn ich einfach gestorkt werde oder wenn jemand meine Adresse veröffentlicht, ist das eine Form von digitaler Gewalt.

00:03:33: Habt ihr dazu so ein bisschen zahlendaten Faktenmaterial, damit wir uns so eine Vorstellung machen können, wie groß ist dieses Problem?

00:03:43: Ja voll.

00:03:44: Also das Problem ist tatsächlich eigentlich ein sehr, sehr großes gesellschaftliches Problem.

00:03:48: Also wir haben, wenn wir uns einfach nur toxische Inhalte oder Beleidigungen allgemein anschauen,

00:03:53: sind das 8 von 10 Menschen, die damit schon mal in Kontakt gekommen sind, sei es selbst betroffen oder eben bei anderen miterlebt.

00:04:00: Wir haben eine unheimliche große Zahl, die nimmt auch immer mehr zu.

00:04:04: Also wir haben ein paar Wachstum in den verschiedenen Alterskorrektionen von 80 Prozent, wächst das jährlich an.

00:04:09: Was für uns auch immer ein ganz großer Punkt ist, dass sich das nicht nur im digitalen Raum widerspiegelt,

00:04:16: sondern es gab eine Erhebung vor drei Jahren ungefähr, dass bereits 54 Prozent der Menschen, die das erlebt haben oder die konfrontiert haben,

00:04:25: waren auch im Offline-Bereich dann Angst hatten, sich zu äußern oder am Diskurs zu beteiligen.

00:04:29: Das heißt, wir haben das Problem, es ist nicht nur digital an sich, sondern es hat tatsächlich auch einen Schlag auf den Offline-Bereich, also auf das normale Leben im Alltag.

00:04:38: Wenn ich da so an Schlagzeilen aus den letzten Wochen denke, dann denke ich viel an Politik.

00:04:46: Also keine Ahnung, man wollte ja Karl Lauterbach entführen, zum Beispiel, es ging ja online los,

00:04:53: oder zum Beispiel Claudia Roth ist so jemand, der häufig mit digitaler Gewalt verknüpft wird.

00:05:00: Wie ist es denn so? Welche Verantwortung tragen denn Medien? Klassisch als auch Social Media, wenn es um digitale Gewalt geht?

00:05:10: Also du hast es gerade schon richtig gesagt, dass vor allem Menschen ja betroffen sind, die aufgrund ihres Berufes in der Regel, in der Öffentlichkeit stehen.

00:05:19: Oft denkt man, na ja, die müssen das halt aushalten, die müssten halt ein dickes Fell haben.

00:05:24: Das ist so die Antwort, wenn Menschen das Gefühl haben, da gibt es keinen, der jetzt eine Verantwortung trägt,

00:05:30: dafür die müssen das damit halt klar kommen, weil sie in der Öffentlichkeit stehen.

00:05:34: Und was aber eine sehr erfreuliche Entwicklung ist, die wir jetzt so beobachten, in letzter Zeit ist,

00:05:38: dass eben sehr wohl immer mehr Menschen sagen, doch, wir müssen diese Menschen besser schützen.

00:05:42: Das hören wir von Medienschaffenden.

00:05:44: Wir arbeiten ja auch mittlerweile mit News-Sendern zusammen, die sehr wohl ihre Redakteur*innen auch zum Beispiel schützen wollen.

00:05:55: Journalismus etc. ist ja auch ein großer Bereich, der betroffen ist.

00:05:59: Aber wir sehen eben auch in ganz anderen Bereichen, also sowohl jetzt Politik, dass die Parteien anfangen, sich verantwortlich zu fühlen,

00:06:05: oder im Bereich der Wissenschaftskommunikation, dass Wissenschaftsverbände sich verantwortlich fühlen,

00:06:10: oder im Bereich Profisport, dass Vereine sich verantwortlich fühlen.

00:06:14: Also das finde ich eigentlich sehr, sehr schön, dass man langsam davon weg kommt,

00:06:18: immer nur zu denken, die Betroffenen selber müssen halt damit klarkommen,

00:06:22: weil sie eine Person des öffentlichen Lebens sind, hinzu, na ja, eigentlich können wir alle mehr dafür tun, diese Menschen zu schützen.

00:06:28: Ich finde es super spannend, dass du jetzt gerade gesagt hast, auch Medien und ihre Journalisten, Journalistinnen,

00:06:35: sehen sich in der Verantwortung.

00:06:37: Da musste ich auch ein konkretes Beispiel denken, dass ich kürzlich gelesen habe,

00:06:42: dass immer mehr Wetter-Moderatoren und Moderatorinnen Hassbriefe bis Morddrohungen erhalten, weil das Wetter schlecht ist.

00:06:52: Oh wow, das ist jetzt auch nicht so gut durchgetrunnt.

00:06:54: Ja, das ist gut.

00:06:55: Man hast du nicht gelesen, da habe ich auch gedacht, nun ja, ich habe den Winter auch satt,

00:06:59: aber dass ich jetzt irgendwie dem Wetter-Moderator oder der Moderatorin schreibe,

00:07:04: dass sie mich jetzt nervt, weil Winter ist, keine Ahnung.

00:07:08: Ja, es ist schon teilweise absurd, was da passiert.

00:07:10: Und ich glaube, das trägt eben auch dazu bei, dass je mehr wir das sehen,

00:07:14: dass andere Menschen eigentlich immer mehr Grenzverletzen kommunizieren,

00:07:17: umso mehr Menschen denken auch, dass wir in Ordnung das so tun.

00:07:20: Oder das ist ja auch ein Grund, warum wir sagen, das muss teilweise auch einfach gelöscht werden,

00:07:25: damit nicht so eine Art Kultur entsteht, dass man denkt, das sei eben in Ordnung,

00:07:31: andere Leute wahrlos zu beleidigen, weil einem etwas nicht gefällt.

00:07:35: Okay, also ihr sagt, eine Maßnahme ist Kommentare löschen auf Social Media.

00:07:40: Absolut, ja.

00:07:42: Weil wir natürlich sehen, dass, wenn diese Kommentare einfach stehen bleiben,

00:07:45: dass einfach ein Einfluss hat auf Menschen.

00:07:48: Das ist nicht nur die Person, die betroffen ist, sondern dass sie auch Leute, die mitlesen.

00:07:52: Also man hat das auch in Erhebung gezeigt, dass vor allem Jugendliche sich an diesen rauen Tonen,

00:07:57: nennen wir es mal so, gewöhnt haben und das quasi als die normale Sprache wahrnehmen.

00:08:02: Das ist es aber tatsächlich nicht.

00:08:03: Also toxische Inhalte, Beleidigung sind nicht angemessen und sind auch nicht normal

00:08:08: und fördern auch keinen demokratischen Diskurs tatsächlich.

00:08:10: Und sind auch nicht legal.

00:08:11: Das sowieso, ja.

00:08:13: Und wenn man sie stehen lässt oder auch unkompetiert teilweise,

00:08:17: weil sich Menschen dann auch nicht damit befassen, hat das einfach einen großen Effekt auf demokratische Diskurs.

00:08:22: Und das ist halt die Gefahr.

00:08:23: Und da sehe ich persönlich auch die Verantwortung gerade bei den Medien.

00:08:26: Und da würde ich tatsächlich die klassischen Medien mit anschließend,

00:08:29: weil die eben gerade durch ihre Rolle, die sie in der Gesellschaft einnehmen,

00:08:33: für Presseverhalt, für Meinungsverhalt stehen und damit auch eine Verantwortung dran für den Raum, den sie öffnen.

00:08:38: Das ist ja nicht nur der redaktionelle Inhalt, den ich irgendwie publiziere, sei es im Print oder sei es digital,

00:08:44: sondern auch was passiert dann danach, welche Diskurs wird, quasi welche Diskursraum wird geöffnet

00:08:49: und wie verhalten sich die Menschen dann innerhalb dieses Raumes?

00:08:53: Vielleicht können wir da gleich nochmal auf weitere Maßnahmen eingehen.

00:08:56: Ich möchte hier aber nochmal nachhaken, weil ich glaube, das fällt,

00:08:59: müssen wir nochmal ein bisschen aufrollen und auch die Möglichkeit zum Dialog geben.

00:09:04: Ihr sagt ja löschen.

00:09:05: Und das ist ja auch, was hat was mit Meinungsfreiheit zu tun.

00:09:08: Ist es nicht eine Beschneidung der Meinungsfreiheit, Hate Speech zu löschen?

00:09:12: Also das sind wir erstmal wieder bei der Frage, wie wird das definiert?

00:09:15: Sagen wir kritische Kommentare.

00:09:17: Kritische Kommentare zu löschen oder Beleidigungen zu löschen oder was löschen wir?

00:09:22: Also erstmal in erster Linie geht es darum, Dinge, die nicht legal sind, auch zu entfernen.

00:09:27: Das ist ja schon ganz vielen Stellen nicht gegeben aus unterschiedlichen Gründen,

00:09:32: weil es keine Kapazitäten gibt, weil niemand sich darum kümmert, etc.

00:09:36: Und das führt aber auch dazu, dass Menschen oft gar nicht wissen, wie denn die Rechtslage ist

00:09:42: und viele nehmen das Internet als einen rechtsfreien Raum wahr, aber das ist es natürlich nicht.

00:09:46: Also wir haben nicht das Problem, dass nicht klar definiert wäre, was legal ist und was nicht,

00:09:51: sondern wir haben ein Problem der Rechtsdurchsetzung.

00:09:53: Es ist eigentlich klar, dass bestimmte Dinge nicht online stehen bleiben dürfen.

00:09:58: Es wird nur nicht durchgesetzt.

00:10:01: Okay, wir sprechen hier von Mordrungen, Nötigungen, üble Nachrede.

00:10:07: Genau, Verleumdung, aber auch Beleidigung, Volksverhetzung, solche Dinge, Homophobie, etc.

00:10:16: Also der Katalog ist lang.

00:10:17: Eigentlich ist es in den meisten Fällen relativ klar.

00:10:20: Dann gibt es natürlich im Graubereich.

00:10:22: Solche Dinge kommen ja auch gerade regelmäßig immer wieder vor Gericht.

00:10:26: Darf ich jemanden so und so nennen, ist es noch abgedeckt von der freien Meinungsäußerung oder nicht?

00:10:30: Ich finde wichtig, dass man versteht, wir sind ja absolute Verfechter der freien Meinungsäußerung

00:10:36: und sagen aber, um die überhaupt wieder zu gewährleisten, also dass Menschen sich sicher genug fühlen,

00:10:41: sich trauen, ihre Meinung zu äußern, braucht es einfach einen gewissen Rahmen, der auch durchgesetzt wird,

00:10:47: damit es überhaupt wieder dazu kommen kann.

00:10:50: Weil wie Jonas gerade gesagt hat, jede zweite Person traut sich jetzt schon nicht mehr,

00:10:55: sich an öffentlichen Diskursen zu beteiligen, genau aus dem Grund,

00:10:58: weil ja auch immer gegen Minderheiten, immer gegen marginalisierte Gruppen dann angegangen wird.

00:11:04: Und das ist ja bereits, das ist eigentlich die Beschneidung der Meinungsfreiheit.

00:11:09: Nicht, wenn ich böse Kommentare, das schon.

00:11:11: Okay, also wenn wir unterschiedlicher Meinungsinn ist alles da core,

00:11:17: wenn ich euch jetzt beleidige oder ihr mich dann, dann müssen wir da nochmal drüber sprechen.

00:11:22: Also ich glaube, das was wir auch sonst lernen, was macht ein demokratischen Diskurs aus?

00:11:26: Es geht um Respekt vor anderen Meinungen, vor anderen Haltungen,

00:11:30: es geht aber auch darum, konstruktiv diese verschiedenen Meinungen miteinander austragen zu können.

00:11:35: Und sobald ich auf einer persönlichen Ebene versuche, jemanden zu diskreditieren,

00:11:38: nutzt das ja auch der Diskussion und der Meinung nichts mehr.

00:11:41: Also ich glaube, da machen wir uns was vor, wenn wir denken,

00:11:43: dass die Meinungsfreiheit irgendwie besser darstünde,

00:11:46: wenn man sich wild beleidigen dürfte, ohne Ende.

00:11:49: Wir hatten es vorhin kurz angesprochen.

00:11:53: Also eine Sache, die ihr empfehlen würdet, wäre Kommentare löschen.

00:11:58: Gibt es einen weiteren Maßnahmen, die ihr einem Medienschaffenden empfehlen würdet,

00:12:03: wie er zum Beispiel auf Social Media mit Hasskommentaren umgeht?

00:12:07: Also tatsächlich sind wir in großer Fahren von "Counterspeech".

00:12:11: Also das ist quasi die Gegenrede, die in starken Communities auch stattfindet.

00:12:16: Das heißt, wenn sich jemand irgendwie im Ton vergreifen würde,

00:12:20: gibt es viele Nutzerinnen und Nutzer, die dann darauf reagieren

00:12:23: und dann auch auf fairerweise reagieren.

00:12:26: Und damit quasi wird gesteuert, dass es dann auch wirklich nicht ausartet.

00:12:30: Also so eine Kultur zu schaffen und dafür auch einzustehen,

00:12:33: ich glaube, das ist relativ wichtig, dass man als Medium,

00:12:35: und da kommt es jetzt wieder auf die Verantwortung an,

00:12:38: wie man sich präsentiert und auch welche Verantwortung man übernimmt

00:12:41: und dass man dafür auch steht, dass wir sagen, in diesem Raum, den wir hier eröffnen,

00:12:45: sind bestimmte Regeln und an die müssen wir uns alle halten,

00:12:48: weil das ist wichtig, um freie Meinungsäußerung zu erhalten,

00:12:51: um Vielfalt zu erhalten, ein ganz uns wichtiger Punkt,

00:12:53: dass wir wirklich viele Meinungen auch überzulassen können

00:12:56: und dafür braucht es einen guten rechtssicheren Rahmen,

00:12:59: wo Leute dann auch Vertrauen haben, sich zu äußern.

00:13:03: Also das würde ich als zweiter Punkt noch sagen.

00:13:05: Also die Regeln festsetzen, klare Strukturen schaffen,

00:13:08: wie ich diesen Raum gestalten will.

00:13:10: Vielleicht kann ich da gerade auch noch sagen, du hast es gerade gesagt,

00:13:12: wenn transparent ist, nach welchen Regeln irgendwo moderiert wird,

00:13:15: das hilft natürlich allen.

00:13:17: Das machen ja auch in der Regel viele immer wieder,

00:13:19: dass sie ihre nette Kette quasi kommunizieren

00:13:22: und dann kann man sich darauf auch immer wieder berufen.

00:13:24: Das macht auf jeden Fall Sinn, dass man einfach sagt,

00:13:26: okay, auch intern sich als Moderationsteam zu einigen,

00:13:29: was wollen wir denn löschen oder was wollen wir beantworten,

00:13:32: was wollen wir melden, das ist natürlich ein weiterer Weg,

00:13:35: ist das Ganze zu melden, schafft einfach Transparenz

00:13:38: sowohl intern als auch nach außen.

00:13:40: Und natürlich ist es ein ganz wichtiger Weg,

00:13:42: der noch viel zu wenig gegangen wird,

00:13:44: ist auch strafbare Inhalte anzuzeigen.

00:13:46: ganz spannende Effektien, wie auch merken wir mit Menschen zusammenarbeiten, dass ihnen erst bewusst

00:13:51: wird, dass sie eigentlich gerade eine Straftat begangen wurde und dass sie das Recht haben,

00:13:56: das auch bei der Polizei anzuzeigen. Schön ist natürlich dann auch, wenn das dort auch gut

00:14:01: nachverfolgt wird. Da haben wir jetzt zum Glück aber auch schon sehr gute Erfahrungen gemacht,

00:14:05: wo wirklich darauf geschaut wird, auch wer ist alles geschädigte Person. Also wer hat das alles

00:14:09: gelesen, weil es ja oft dann auch mehrere Leute sind, wenn Accounts gemeinsam gemanagt werden.

00:14:13: Und das ist auch Teil der Sensibilisierung, die wir natürlich machen. Das uns wichtig ist,

00:14:17: dass Menschen auch wissen, sie müssen sich eben nicht alles gefallen lassen, sondern können

00:14:20: Dinge auch zur Anzeige bringen. Dafür ist es dann natürlich wichtig, dass man nicht nur löscht,

00:14:24: sondern vorher auch ein Screenshot sichert. Okay, erst Screenshot machen und dann löschen. Gegebenen

00:14:30: falls ist es denn so, dass unsere örtliche Polizei und digitale Gewalt ein gutes Match sind? Es steht

00:14:40: immer wieder in der Kritik, dass digitale Gewalt noch im haptischen Leben eventuell zu kurz kommt?

00:14:48: Ja, ich finde, es wurde einmal an einer Stelle ganz schön gesagt, dass es so ein bisschen gemein

00:14:54: ist, da die Polizei zu basteln, dafür dass sie halt nicht ausgebildet werden,

00:14:57: bisher dafür sich mit digitalen Vergehen gut auszukennen. Letztlich müsste es da einen

00:15:02: politischen Willen geben, dass Polizei gut ausgestattet ist, sowas auch nachzuverfolgen und

00:15:07: auch, dass die Meldung einfach sehr schnell und einfach und digital im besten Falle erfolgen kann.

00:15:11: Ich weiß aber, dass es verschiedene Staatsanwaltschaften mittlerweile gibt, die da sehr, sehr gut

00:15:15: ausgebildet sind und ich hoffe einfach, dass da die Arbeit, die sehr, sehr fruchtbar von zum

00:15:21: Beispiel Hate Aid gemacht wird, einfach weiter Früchte tragen wird, dass da unser Justizsystem

00:15:26: extrem gut drauf eingestellt sein wird. Und ihr beide, ihr habt ein Start-up gegründet. Wie das

00:15:34: heißt und welche Geschichte hinter dem Namen steckt, das verratet ihr uns am besten selbst. Gerne.

00:15:41: Also es wird ausgesprochen, Panamue. Wer sich das nicht merken kann, ich sag immer wie Music. Und

00:15:47: die Geschichte kannst du im Schenzen erzählen. Ja, also der Name ist aus der hebräischen Mythologie

00:15:52: entlehnt. Da geht es um eine, eigentlich eine zwielichtige Figur, einen Engel, der den Menschen

00:15:59: das schreiben gelehrt hat, allerdings nicht dazu gezeigt hat, wie man das schreiben anwenden kann

00:16:05: und in welcher richtigen Form das dann quasi umgesetzt wird. Und genau das haben wir uns

00:16:11: einfach vorgenommen, dass wir die Welt der digitalen Kommunikation sicher machen. Genau darum geht es

00:16:16: gerade, dass man sagt, die Menschen sind zwar verantwortlich, aber wir zeigen uns ein bisschen

00:16:19: die Richtung an, wie denn Verantwortungsvorlage das Kurs stattfinden kann. Also wir haben ja eine

00:16:24: KI im Kern unseres Unternehmens, die einfach darauf basiert, Sprache sehr gut zu verstehen und

00:16:30: Formen von eben Hass oder digitaler Gewalt zu verstehen. Und die fungiert letztlich wie eine Art

00:16:36: Filter, sodass alles markiert wird, was potenziell strafbar ist, was Hatespitches etc. Und dann ist

00:16:44: die Idee, dass sich selbst entscheiden kann, möchte ich, dass es dann auch automatisiert

00:16:48: gelöscht wird oder möchte ich das einfach nur angezeigt bekommen und dann selber nochmal durchgehen

00:16:53: und halt meine Entscheidung treffen. Also möchte ich antworten, möchte ich blockieren und so weiter.

00:16:57: Das ist im Moment für die sozialen Netze angedacht. Wir wollen es gerne aber auch irgendwann

00:17:02: ausweiten auf egal welche digitalen Kommunikationswege. Und sowohl soll das eingesetzt werden können,

00:17:09: wenn ich bereits ein Moderationstool nutze, also das dann wiederum spannend für größere Medienhäuser

00:17:15: etc. als auch wenn ich nur meinen eigenen Account betreue, wenn ich beispielsweise Künstlerin bin

00:17:20: oder Fußballer, dass ich das dann als App nutzen kann, wo ich einfach alle meine sozialen Kanäle,

00:17:25: die für mich wichtig sind sozusagen einfließen lasse. Das hört man ja immer wieder auch von

00:17:31: bekannten Personen, dass sie es nicht mehr persönlich lesen, sondern vorher nochmal durch

00:17:36: ein Filter geht. Du hattest es kurz erwähnt oder ihr hattet es kurz erwähnt, dass diese Kommentare

00:17:44: oder diese digitale Gewalt eben auch Auswirkungen auf die Psyche haben von Betroffenen, von Menschen,

00:17:52: die damit konfrontiert werden. Was würdet ihr denn sagen, wie geht man denn damit am besten um,

00:17:57: wenn man jetzt ein Content Creator ist oder eine Einzelperson und die von so einer digitalen

00:18:04: Gewalt betroffen ist? Also da ist ein ganz großer Punkt, den wir immer wieder hören,

00:18:09: ist, dass tatsächlich viele schon das Gefühl haben, das gehört wirklich zu meinem Job dazu.

00:18:13: Ich muss einfach ein dickes Fell mir aneignen. Das hören wir sowohl von Betroffenen selber,

00:18:18: die irgendwie keinen Social Media Team um sich herum haben. Das hören wir aber auch von Leuten,

00:18:22: die im Social Media Bereich arbeiten und sagen, ja, ich mache das halt mein ganzen Tag lang und

00:18:27: mir geht es bereits wirklich nah. Also wir haben tatsächlich mit Social Media oder Community Moderatoren

00:18:32: zu tun, die wirklich teilweise von psychischen Problemen einfach mittlerweile sprechen,

00:18:36: weil es so krass ist, was sie da teilweise wegfiltern müssen und wegmoderieren müssen.

00:18:40: Das einfach so hinzunehmen, dass man sagt, ich brauche ein dickes Fell, das sehen wir eben

00:18:44: absolut nicht. Wir sehen es auch nicht als richtig an, Kommentarspalten zu schließen oder

00:18:49: die sozialen Netzwerke zu verlassen, wie man jetzt beim Deutschlandfunk gesehen hat,

00:18:53: die jetzt X verlassen haben, natürlich aus anderen Gründen. Und wir sehen das eher als

00:18:56: Problem an, dass das passieren muss und dass es eher solche Ausweichmaßnahmen sein, dass man

00:19:01: sagt, wir schließen jetzt die Kommentarspalten, weil es einfach zu krass ist. Wir würden dafür

00:19:05: einstellen, dass man tatsächlich eben auf technische Lösungen zurückgreift, die einen dabei unterstützen,

00:19:10: weil es tatsächlich händisch nicht mehr machbar ist, auf der einen Seite, weil es einfach zu viel

00:19:13: wird und weil es tatsächlich auch Menschen belastet, sei es die Person, die einfach alleine dafür

00:19:18: zuständig ist, wie eine Politikerin aus der Kommunalpolitik beispielsweise, oder sei es das

00:19:23: Social Media Team. Ich würde dazu gerne auch noch was sagen, weil viele denken, glaube ich,

00:19:27: noch, dass diese Seite, die auch hast, verbreitet, dass das sehr viele vereinzelte, versprengte

00:19:32: Individuen sind. Und teilweise gibt es natürlich auch das, aber es gibt auch einen sehr organisierten

00:19:37: Bereich, der auch sehr gesteuert und professionellisiert, hast Kampagnen wirklich regelrechtwert,

00:19:44: auch teilweise gezielt, um ganz bestimmte Personen oder Personengruppen aus dem Verkehr zu ziehen.

00:19:48: Und da wäre das natürlich tragisch, wenn das klappen würde und diese Personen sich dann

00:19:52: tatsächlich zurückziehen. Auch wenn man es ihnen nicht verübeln kann, werden sie es dann tun.

00:19:55: Ja, also das will ich damit nicht sagen. Ich sage nur, wenn wir auf der einen Seite so eine hohe,

00:20:00: auch technische, Professionalisierung an treffen, dann ist es doch wichtig, dass auf der Seite,

00:20:05: wo Menschen betroffen sind, einfach auch alles, was technisch möglich ist, genutzt wird. Also,

00:20:09: dass man auch die technologischen Möglichkeiten zum Schutz einsetzt und nicht nur auf der Seite,

00:20:13: wo attackiert wird. Du sprichst zum Beispiel auch von sogenannten Bot-Armys, die zum Beispiel

00:20:19: gezielt, also das deckt ja auch kein Mensch dahinter, sondern das sind Bots, also kleine technologische

00:20:25: Einheiten, die quasi gezielt in eine Richtung lenken, bei einem Menschenlanden, auf den es

00:20:31: einen psychischen Effekt hat. Genau, und da sehe ich dann gar kein Problem damit zu sagen, dann

00:20:36: lass uns doch da auch eine KI hinsetzen, die die KI auch entdeckt und filtert und einfach direkt

00:20:41: rausnimmt. Also, ich kann verstehen, dass man sich gern auseinandersetzen möchte, auch mit

00:20:45: konträren Meinungen und sagt, das Löschen ist keine Lösung. Aber ich glaube, wir müssen einfach

00:20:49: unterscheiden, dass es ja am extremen Ende des Spektrums, wo wirklich einfach nur Hass gesät wird,

00:20:54: um Menschen zu verunsichern, zu verängstigen, da geht es ja der anderen Person, wenn es überhaupt

00:20:58: eine Person ist, gar nicht um einen Diskurs. Und das merkt man ja recht schnell. Ob da ein Mensch ist,

00:21:02: der ja noch gesprächsbereit ist, dann fände ich es auch gut darauf einzugehen. Oder ob das

00:21:07: wirklich Kommentare und Nachrichten sind, die einzig und allein den Zweck haben, jemanden

00:21:10: auszuschalten, dann ist das Löschen und Anzeigen einfach das einzig Sinnvolle.

00:21:14: Jonas, so hat es jetzt X erwähnt. Man sagt immer dazu ehemals Twitter, ich glaube,

00:21:21: jeden ist bewusst, dass es ehemals Twitter ist, aber man hat es schon so drin, X ehemals Twitter.

00:21:25: Das ist ja die bekannte Plattform, der quasi so Hasskommentare und so unterstellt werden. Also

00:21:32: es gibt auch andere Plattformen und ich meine auch, dass es auf anderen Plattformen auch zunimmt. Aber

00:21:38: wenn man über Hasskommentare spricht, dann denkt man als erstes an X. Also warum nicht Facebook,

00:21:45: warum nicht LinkedIn, warum nicht Instagram, warum X? Ich glaube, das hat zwei Gründe. Das eine

00:21:50: ist, dass es tatsächlich auch etwas in der aktuellen Zeit ist. Also seit der Übernahme und der

00:21:55: Umbenennung hat sich das tatsächlich einfach nochmal geändert und gewandelt. Deswegen verlassen

00:22:01: auch so viele die Plattform mittlerweile, weil dort eben auch einfach gesagt wird, dass das eben von

00:22:06: der freien Meinungsäußerung gedeckt sei, dass sich das irgendwie selber regulieren muss und das

00:22:11: findet halt nicht statt. Das ist tatsächlich eher ein Sumf geworden, was das angeht. Also es wird

00:22:15: immer, es wird immer mehr und es zieht auch bestimmte Leute einfach an. Es ist aber so,

00:22:19: dass die anderen Plattformen genauso betroffen sind. Also sei es die Plattform, die unter Meta,

00:22:24: also Instagram und Facebook, erlaufen. Aber eben auch im Gaming-Bereich gibt es viele Plattformen.

00:22:30: Also da ist wirklich die Bandbreite groß und das sind auch immer verschiedene Formen. Also es gibt

00:22:35: verschiedene Ausprägungen von Hate Speech und auch den verschiedenen Bereichen, die zugeordnet sind.

00:22:39: Also welche Form von Diskriminierung findet denn da eine Stadt? Bei Twitter ist es eben interessant,

00:22:43: dass es viel um Politik ging, vor allem Deutschland, viel um Politik und Journalismus. Und das sind auch

00:22:48: im Zweiberreiche, die gerade sehr viel bekommen tatsächlich. Deswegen wird das glaube ich auch

00:22:53: so wahrgenommen. Aber bei LinkedIn zum Beispiel haben Frauen ganz oft das Problem, dass sie

00:22:57: sexistisch angegangen werden. Also es ist schon so, jede Plattform hat auch so ihre eigenen

00:23:01: Schwächen auf jeden Fall. Und es ist auch so, dass wir über die sozialen Netze hinaus ja auch

00:23:07: weitere Kommunikationsnetze haben. Also in den Internet zum Beispiel werden wir auch darauf

00:23:12: angesprochen von Unternehmen. Also eigentlich überall, wo Kommunikation stattfindet, finden

00:23:17: wir dieses Phänomen. Und ich glaube, es hat sich einfach in manchen öffentlichen Netzen so verstärkt,

00:23:24: weil das ja das dann auch wieder anzieht und weil die Algorithmen ja auch einen großen Beitrag

00:23:29: dazu leisten, welche Inhalte werden verstärkt, dann auch wem ausgespielt. Und das ist glaube ich

00:23:34: auch nochmal wichtig zu verstehen, was für einen negativen Effekt das dann auch für so

00:23:38: einzelne Personen oder auch Brands haben kann, wenn das einmal so ein Übermaß nimmt. Also wir haben

00:23:44: normalerweise Betroffene, mit denen wir zu tun haben, dass sie so ungefähr 10 Prozent aller

00:23:48: Kommentare und Nachrichten ist "Hate" und 90 Prozent ist "Okay". Und wir hatten aber jetzt

00:23:52: kürzlich auch eine Influencerin, da war es genau andersrum. Also die hatte 90 Prozent "Hate" auf

00:23:56: ihrem Kanal und 10 Prozent unterstützende, wohlwollende, gute Kommentare. Und das hat sie vor allem

00:24:02: den Algorithmen zugeschrieben. Also dass sie immer mehr rechten Kreisen ausgespielt wird,

00:24:08: eine Queeraktivistin. Und von dort natürlich wahnsinnig viel Interaktion bekommt, weil die melden

00:24:13: sie alle und sie schicken es ihnen freundenweiter und sie schreiben böse Kommentare. Und der Algorithmus

00:24:18: denkt "Ah, viel Interaktion, also spiele ich das noch mehr rechten aus". Und so ist sie in den

00:24:22: Teufelskreis reingeraten, aus denen sie alleine gar nicht mehr rauskommt. Woran man einfach auch

00:24:26: nochmal sieht, dass es super wichtig ist, an irgendeiner Stelle sich auch Hilfe zu holen.

00:24:30: Und da sieht man auch, dass man es eben, das was passiert, wenn man es stehen lässt. Also wenn

00:24:35: man diesen Raum einfach offen lässt und sich das quasi selber dann immer weiter hochschaukelt,

00:24:40: dann hat man am Ende das Problem, dass es kippt und dann kommt man da auch wirklich schwer wieder

00:24:43: raus allein. Da braucht man wirklich technische Lösungen oder der eigene Kanal ist im Grunde

00:24:47: verdorben. Also so, muss man das fast bezeichnen. Wenn ich unser Gespräch zusammenfasse, bitte

00:24:54: korrigiert mich oder redet einfach rein. Aber dann würde ich so ein bisschen zusammenfassen,

00:24:59: die Verantwortung liegt bei den Unternehmen von sozialen Netzwerken, Stichwort Algorithmus. Die

00:25:06: Verantwortung liegt aber auch in den Medienunternehmen, ihre Mitarbeiter und Mitarbeiterinnen zu

00:25:12: schützen, sowie eine Awareness, was diese Kommentare auf meiner Plattform mit einer großen

00:25:18: Reichweite machen. Das kann man so zusammenfassen, wenn wir mal die wirtschaftlichen und menschlichen

00:25:24: Faktoren mit reinnehmen. Ja, und ergänzen würde ich, dass trotzdem ja jede einzelne Person von uns,

00:25:30: wenn sie das sieht, dass jemand anders angegangen wird, ja auch noch etwas tun kann. Also auch da kann

00:25:35: ja jede einzelne Person sozusagen digitale Zivilcourage zeigen. Und wenn man sich nicht traut

00:25:40: gegen Täter oder Täterinnen vorzugehen, kann man immer noch denen, die angegangen werden,

00:25:44: eine aufmutternde Nachricht schreiben und sagen, ich sehe, was dir hier passiert und ich bin an

00:25:49: deiner Seite. Dann bedanke ich mich bei dir, Sarah, dass du noch trotz leichter Erkältung dich hier

00:25:56: zum Interview geschleppt hast. Und Jonas, dir auch vielen Dank für die Insights. Und ich wünsche

00:26:02: euch weiterhin viel Erfolg mit eurem Startup. Vielen Dank. Danke schön, super nett, dass wir dabei sein

00:26:07: durften. Ja, man merkt schon, digitale Gewalt, das hat so viele Ebenen. Das kann persönlich sein,

00:26:15: das kann eben aber auch strategisch sein. Stichwort Bots. So oder so haben wir alle mehr davon,

00:26:22: wenn es weniger Hate Speech gibt. Wir haben besseren Journalismus, wir haben mehr Partizipation und

00:26:28: einfach mehr Leute, die etwas beitragen. Wenn du mehr zum Startup von Sarah und Jonas erfahren

00:26:34: möchtest, ich habe natürlich den Link in die Show Notes gepackt. Und ganz im Sinne dieser

00:26:40: Ausgabe würde ich mich freuen über ein bisschen Love. Schick mir doch einen schönen Kommentar

00:26:44: oder bewerte diesen Podcast mit Sternen oder wie auch immer das auf deiner Plattform aussieht.

00:26:50: Mein Name ist Sabrina Harper. Vielen Dank, dass du heute in den Podcast reingehört hast. Ich wünsche

00:26:56: dir eine schöne Woche viel Liebe und natürlich viel Erfolg bei allem, was du tust. Das waren

00:27:04: deine Innovation Minutes direkt aus dem Media Lab Bayern. Du willst mehr? Dann besuch uns auf

00:27:11: media-lab.de und starte dein eigenes Projekt. Last but not least. Dieser Podcast ist möglich,

00:27:18: weil wir tolle Unterstützer und Unterstützerinnen haben. Besondere Dank geht an die Staatskanzlei

00:27:23: Bayern, die Bayerische Landeszentrale für neue Medien, BLM und natürlich an meine Kollegen und

00:27:29: Kolleginnen in der Medien Bayern.

00:27:31: [Musik]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.