Sonderfolge Best of KI in den Medien

Shownotes

In dieser Special-Folge von "Innovation Minutes" haben wir die spannendsten Erkenntnisse aus unseren bisherigen Episoden zum Thema Künstliche Intelligenz in den Medien zusammenzufassen. Wir werfen einen Blick darauf, wie KI bereits in verschiedenen Bereichen eingesetzt wird: von Monetarisierungsmodellen, über den Einsatz von KI in der Moderation, bis hin zu innovativen Lösungen gegen Hasskommentare im Netz.

Du erfährst zum Beispiel, wie das Startup Penemue eine KI entwickelt hat, die Hasskommentare erkennt und moderiert. Außerdem sprechen wir über KI-basierte Radioshows und wie sie die Medienlandschaft verändern, sowie über neue Erlösmodelle mit KI in der Verlagswelt.

Mehr zu Penemue: https://www.penemue.ai/ Mehr zu Jott Lischka: https://www.jott.de/ Mehr zu Carina Laudage: https://www.linkedin.com/in/carina-laudage-266111ab/

Du hast auch Lust auf Medien oder möchtest eine spannende Innovation vorstellen? Dann besuche uns auf https://www.media-lab.de/de/ und schreib uns!

Transkript anzeigen

00:00:00: Echte Insights aus der Medienbranche.

00:00:03: Hier sind deine Innovation Minutes, direkt aus dem Media Lab Bayern.

00:00:09: Hallo again, ich bin's, deine Host Sabrina Harper.

00:00:12: Heute begrüße ich dich zu unserer ersten Best-of-Folge zum Thema KI.

00:00:17: Denn das Thema treibt die Medienbranche um und wir haben so viel darüber berichtet in verschiedenen Kontexten.

00:00:23: Da dachte ich, lass uns doch da mal was zusammenfassen.

00:00:27: Zum Beispiel geht's heute um Monetarisierungsmodelle, um die Moderation im Radio mit KI oder auch um Hasskommentare.

00:00:35: Bleiben wir doch gerade beim letzten Thema.

00:00:38: Da gab's zum Beispiel ein Vorfall, der mir im Kopf geblieben ist.

00:00:41: Es ging um die aktuelle Miss Germany.

00:00:43: Ihr Name, Apame Schönauer.

00:00:46: Als sie gewählt wurde, gab's eine Menge Hasskommentare im Netz.

00:00:50: Das hat auch das Start-up Panamio mitbekommen.

00:00:53: Die waren schon davor hier im Podcast gewesen, haben von der Sache Wind bekommen und haben sich mit Miss Germany in Verbindung gesetzt.

00:01:01: Jetzt arbeiten sie zusammen gegen Hasskommentare mit der KI von Panamio.

00:01:07: Diese KI erkennt Hasskommentare auch in verschiedenen Kontexten und Sprachen.

00:01:12: Identifiziert diese, markiert diese, man kann die direkt löschen oder man kann Anzeige erstatten.

00:01:18: Dieses ganze Thema Hasskommentare betrifft aber nicht nur die Miss Germany.

00:01:22: Das kann jeden von uns betreffen und Personen, die in der Öffentlichkeit stehen,

00:01:26: sind nochmal im besonderen Fokus.

00:01:29: Und auch Journalisten und Journalistinnen werden öfter Ziel von Hasskommentaren.

00:01:34: Panamio arbeitet auch mit Medienunternehmen zusammen.

00:01:37: Und damals im Interview wollte ich von Ihnen wissen, wie ist das eigentlich mit diesen Hasskommentaren?

00:01:43: Was kann man anzeigen und wohin geht das Ganze und warum ist KI da eine gute Lösung?

00:01:52: Und das sind sie schon. Sarah Bukal und Jonas Al-Nemri habe ich heute zu Gast.

00:01:57: Sie sind Experten für digitale Gewalt.

00:02:00: Bevor wir ins Gespräch so richtig reinstarten, brauchen wir, glaube ich, erst mal Definitionsklarheit.

00:02:06: Von daher, was bedeutet denn Hades Beach für euch?

00:02:10: Also von Hades Beach spricht man tatsächlich immer dann, wenn es um eine Beleidigung oder Diffamierung geht,

00:02:16: die eine Person angreift aufgrund von der Gruppenzugehörigkeit.

00:02:19: Also das sind rassistische Äußerungen, antisemitische Äußerungen oder Sexismus.

00:02:24: Das heißt, wenn ich immer aufgrund meiner Zugehörigkeit zu irgendeiner Gruppe,

00:02:28: aufgrund meines Geschlechts und so weiter beleidigt werde.

00:02:31: Und das ist aber jetzt sozusagen die Fachdefinition.

00:02:35: Tatsächlich meinen viele Menschen damit einfach alles, was im Netz passiert,

00:02:39: was einfach beleidigend, angreifend, drohend und so weiter ist.

00:02:43: Also alles, was wir nicht haben wollen, sagen wir es mal so.

00:02:47: Wie groß ist dieses Problem?

00:02:49: Also das Problem ist tatsächlich eigentlich ein sehr, sehr großes gesellschaftliches Problem.

00:02:54: Also wir haben, wenn wir uns einfach nur toxische Inhalte oder Beleidigung allgemein anschauen,

00:02:58: das sind das acht von zehn Menschen, die damit schon mal in Kontakt gekommen sind,

00:03:02: sei es selbst betroffen oder eben bei anderen miterlebt.

00:03:05: Wir haben eine unheimliche große Zahl, die nimmt auch immer mehr zu.

00:03:08: Also wir haben Wachstum in den verschiedenen Alterskoorten von 80 Prozent, wächst das jährlich an.

00:03:14: Was für uns auch immer ein ganz großer Punkt ist, dass sich das nicht nur im digitalen Raum widerspiegelt,

00:03:21: sondern es gab eine Erhebung vor drei Jahren ungefähr,

00:03:24: dass bereits 54 Prozent der Menschen, die das erlebt haben oder die konfrontiert haben,

00:03:29: mit waren, auch im Offline-Bereich dann Angst hatten, sich zu äußern oder am Diskurs zu beteiligen.

00:03:34: Das heißt, wir haben das Problem, es ist nicht nur digital an sich,

00:03:37: sondern es hat tatsächlich auch einen Schlag auf den Offline-Bereich,

00:03:41: das auf das normale Leben im Alltag.

00:03:43: Wie ist es denn so? Welche Verantwortung tragen denn Medien?

00:03:48: Klassisch als auch Social Media, wenn es um digitale Gewalt geht?

00:03:53: Also du hast es gerade schon richtig gesagt, dass vor allem Menschen ja betroffen sind,

00:03:56: die aufgrund ihres Berufes in der Regel, in der Öffentlichkeit stehen.

00:04:00: Oft denkt man, na ja, die müssen das halt aushalten, die müssten halt ein dickes Fell haben.

00:04:05: Dass so die Antwort, wenn Menschen das Gefühl haben, ne, da gibt es keinen, der jetzt eine Verantwortung trägt,

00:04:11: dafür die müssen das damit halt klar kommen, weil sie in der Öffentlichkeit stehen.

00:04:15: Und was aber eine sehr erfreuliche Entwicklung ist, die wir jetzt so beobachten,

00:04:19: in letzter Zeit ist es eben sehr wohl immer mehr Menschen sagen,

00:04:22: doch, wir müssen diese Menschen besser schützen.

00:04:24: Das hören wir von Medienschaffenden.

00:04:26: Also wir arbeiten ja auch mittlerweile mit News-Sendern zusammen,

00:04:31: die sehr wohl ihre Redakteur*innen auch zum Beispiel schützen wollen,

00:04:36: Journalismus etc. ist ja auch ein großer Bereich, der betroffen ist.

00:04:39: Aber wir sehen eben auch in ganz anderen Bereichen, also sowohl jetzt Politik,

00:04:43: dass die Parteien anfangen, sich verantwortlich zu fühlen,

00:04:45: oder im Bereich der Wissenschaftskommunikation,

00:04:48: dass Wissenschaftsverbände sich verantwortlich fühlen,

00:04:51: oder im Bereich Profisport, dass Vereine sich verantwortlich fühlen.

00:04:55: Also das finde ich eigentlich sehr, sehr schön, dass man langsam davon wegkommt,

00:04:58: immer nur zu denken, die Betroffenen selber müssen halt damit klar kommen,

00:05:02: weil sie eine Person des öffentlichen Lebens sind,

00:05:04: hin zu, na ja, eigentlich können wir alle mehr dafür tun, diese Menschen zu schützen.

00:05:09: Oder das ist ja auch ein Grund, warum wir sagen,

00:05:11: das muss teilweise auch einfach gelöscht werden,

00:05:14: damit nicht so eine Art Kultur entsteht,

00:05:18: dass man denkt, das sei eben in Ordnung, andere Leute wahrlos zu beleidigen,

00:05:22: weil einem etwas nicht gefällt.

00:05:24: Okay, also ihr sagt, eine Maßnahme ist,

00:05:26: Kommentare löschen auf Social Media.

00:05:29: Absolut, ja.

00:05:30: Weil wir natürlich sehen, dass, wenn diese Kommentare einfach stehen bleiben,

00:05:33: dass einfach ein Einfluss hat auf Menschen,

00:05:36: dass es nicht nur die Person, die betroffen ist,

00:05:38: sondern tatsächlich auch Leute, die mitlesen.

00:05:40: Also man hat das auch in Erhebung gezeigt,

00:05:42: dass vor allem Jugendliche sich an diesen rauen Ton, nennen wir es mal so,

00:05:46: gewöhnt haben und das quasi als die normale Sprache wahrnehmen.

00:05:50: Das ist es aber tatsächlich nicht.

00:05:51: Also toxische Inhalte, Beleidigung sind nicht angemessen und sind auch nicht normal

00:05:56: und fördern auch kein demokratischen Diskurs tatsächlich.

00:05:58: Und sind auch nicht legal.

00:05:59: Das sowieso, ja.

00:06:01: Und wenn man sie stehen lässt oder auch unkompetit teilweise,

00:06:05: weil sich Menschen dann auch nicht damit befassen,

00:06:06: hat das einfach einen großen Effekt auf demokratische Diskurs und das ist halt die Gefahr.

00:06:11: Und da sehe ich persönlich auch die Verantwortung gerade bei den Medien.

00:06:14: Und da würde ich tatsächlich die klassischen Medien mit anschließend,

00:06:17: weil die eben gerade durch ihre Rolle, die sie in der Gesellschaft einnehmen,

00:06:21: für Presseverhalt, für Meinungsverhalt stehen

00:06:23: und damit auch eine Verantwortung dran für den Raum, den sie öffnen.

00:06:26: Ja, das ist ja nicht nur der redaktionelle Inhalt,

00:06:29: den ich irgendwie publiziere, sei es im Print oder sei es digital,

00:06:32: sondern auch was passiert dann danach, welche Diskurs wird,

00:06:35: quasi welche Diskursraum wird geöffnet.

00:06:37: Und wie verhalten sich die Menschen dann innerhalb dieses Raumes?

00:06:41: Gibt es einen weiteren Maßnahmen, die ihr eine Medienschaffenden empfehlen würdet,

00:06:46: wie er zum Beispiel auf Social Media mit Hasskommentaren umgeht?

00:06:50: Also tatsächlich sind wir in großer Fahren von Counterspeech.

00:06:54: Also das ist quasi die Gegenrede, die in starken Communities auch stattfindet.

00:06:58: Das heißt, wenn sich jemand irgendwie im Ton vergreifen würde,

00:07:02: gibt es viele Nutzerinnen und Nutzer, die dann darauf reagieren

00:07:05: und dann auch auf fairerweise reagieren.

00:07:07: Und damit quasi wird gesteuert, dass es dann auch wirklich nicht ausartet.

00:07:11: Also so eine Kultur zu schaffen und dafür auch einzustehen,

00:07:14: ich glaube, das ist relativ wichtig, dass man als Medium,

00:07:16: und da kommt es jetzt wieder auf die Verantwortung an,

00:07:19: wie man sich präsentiert und auch welche Verantwortung man übernimmt

00:07:22: und dass man dafür auch steht, dass wir sagen, in diesem Raum, den wir hier öffnen,

00:07:26: sind bestimmte Regeln und an die müssen wir uns alle halten,

00:07:29: weil das ist wichtig, um freie Meinungsäußerung zu erhalten,

00:07:32: um Vielfalt zu erhalten, ein ganz unzu wichtiger Punkt,

00:07:34: dass wir wirklich viele Meinungen auch irgendwie zulassen können.

00:07:37: Und da verbraucht es einen guten rechtssicheren Rahmen,

00:07:40: wo Leute dann auch Vertrauen haben, sich zu äußern.

00:07:43: Wenn transparent ist, nach welchen Regeln irgendwo moderiert wird,

00:07:46: das hilft natürlich allen.

00:07:47: Das machen ja auch in der Regel viele immer wieder,

00:07:49: dass sie ihre nette Kette quasi kommunizieren

00:07:53: und dann kann man sich darauf auch immer wieder berufen.

00:07:54: Das macht auf jeden Fall Sinn, dass man einfach sagt,

00:07:56: okay, auch intern sich als Moderationsteam zu einigen,

00:08:00: was wollen wir denn löschen oder was wollen wir beantworten,

00:08:03: was wollen wir melden?

00:08:04: Das ist natürlich ein weiterer Weg, ist das Ganze zu melden,

00:08:07: schafft einfach Transparenz sowohl intern als auch nach außen.

00:08:10: Und natürlich ist es ein ganz wichtiger Weg,

00:08:13: der noch viel zu wenig gegangen wird, ist auch strafbare Inhalte anzuzeigen.

00:08:16: Okay, erst Screenshot machen und dann löschen.

00:08:20: Und ihr beide, ihr habt ein Startup gegründet.

00:08:24: Wie das heißt und welche Geschichte hinter dem Namen steckt,

00:08:28: das verratet ihr uns am besten selbst.

00:08:31: Gerne. Also es wird ausgesprochen, Panamue.

00:08:35: Wer sich das nicht merken kann, ich sage immer wie Music.

00:08:37: Und die Geschichte kannst du am Schenzen erzählen.

00:08:40: Ja, also der Name ist aus der hebräischen Mythologie entlehnt.

00:08:44: Da geht es um eine, ist eine eigentlich eine zwielichtige Figur,

00:08:48: einen Engel, der den Menschen das Schreiben gelehrt hat,

00:08:51: allerdings nicht dazu gezeigt hat.

00:08:54: Wie man das Schreiben anwenden kann und in welcher richtigen Form

00:08:58: das dann quasi umgesetzt wird.

00:09:00: Und das haben wir uns vorgenommen, dass wir die Welt der digitalen Kommunikation

00:09:05: sicher machen.

00:09:06: Wenn dich das Thema interessiert, dann hört gern die ganze Folge an.

00:09:11: Das war die Folge 6 in der Staffel 2.

00:09:14: Wir sprachen auch über Meinungsfreiheit oder eben, wie dieses Thema strafbar ist.

00:09:20: Mehr zu Panamue habe ich dir natürlich auch in die Show Notes gepackt

00:09:23: und jetzt springen wir zum nächsten Thema, das mindestens genauso spannend ist.

00:09:28: Und zwar KI-Moderation im Radio.

00:09:30: Dazu hatte ich mir J. Lischka eingeladen.

00:09:34: Er hat ein Programm für eine KI getriebene Radio Show

00:09:37: erarbeitet, die zum Beispiel beim Sender Absolute Radio AI zum Einsatz kommt.

00:09:43: Dort gibt es den Moderator Kai.

00:09:46: Kai.

00:09:48: Und seit kurzem gibt es auch eine KI-Moderatorin.

00:09:52: Für J sind KI-Moderationen ein Zugewinnen für die tatsächliche Radio-Vielfalt.

00:09:58: Aber sind sie auch ein Ersatz?

00:10:00: Hallo Sabrina, freut mich, dass ich hier sein kann.

00:10:05: Erzähl doch einfach mal kurz, was da dahinter steht.

00:10:08: Okay, also ich bin zu AI gekommen, wie die Jungfrau zum Kind, kann man ganz ehrlich sagen.

00:10:14: Ich bin eigentlich Radiomoderator gewesen.

00:10:16: 22 Jahre lang habe ich moderiert.

00:10:18: Ich habe die klassischen Sachen durchgemacht, so mit Morgenshow und Drive Time und so weiter.

00:10:22: Und hat mir irgendwann gedacht, ich möchte eigentlich nicht mehr so früh aufstehen.

00:10:26: Ich gehe jetzt hinter die Kulissen.

00:10:27: Und dann habe ich eben die Firma Radio Cloud entdeckt, die eine Software entwickelt für Radio Stationen.

00:10:32: Und dann kam eben letztes Jahr der große Hype mit AI.

00:10:36: Und dann habe ich mich mit meinem Chef Christian Brenner abends nach Feierabend hingesetzt

00:10:41: mit einem weißen Blatt Papier und dann gesagt, was können wir AI-mäßig für Radio Sender machen?

00:10:46: Und er sagte, ja, dann fangen wir jetzt mal an zu Brainstormen.

00:10:49: Und was dabei rausgekommen ist, ist das sogenannte VoiceTrack AI.

00:10:54: Wir haben uns gedacht, wir wollen einen Moderatorn nachbauen.

00:10:57: Also nicht um sie zu ersetzen, sondern vielleicht um Radio Stationen die Möglichkeit zu geben.

00:11:02: Unbeliebte Sendeschichten wie zum Beispiel Nachtsendungen oder alles.

00:11:06: Zum Beispiel nach Silvester am 1. Januar zwischen 6 und 12 Uhr Vormittags zu automatisieren.

00:11:14: Aber da läuft noch das mehr Musik Wochenende.

00:11:17: Natürlich, genau. Jetzt noch.

00:11:18: Aber mit der AI kann man sich da eben noch die eine oder andere Moderation mit abholen.

00:11:23: Ihr habt ja ein bisschen was aufgesetzt.

00:11:25: Das hast du schon gesagt.

00:11:27: Lass uns doch mal ein bisschen hinter die Kulissen gucken.

00:11:29: Also was hat man denn da so für Gedanken?

00:11:31: Was überlegt man sich denn so?

00:11:33: Also außer jetzt diese Gefahren, wenn man sowas aufsetzt.

00:11:38: Also es ist ja jetzt was anderes als Hallo Radio Sender XY.

00:11:42: Hier sind deine Moderationen generiert aus ChatGPT.

00:11:45: Genau. Das war so der Anfang, was viele versucht haben.

00:11:48: Und was wir natürlich auch versucht haben, um ganz ehrlich zu sein.

00:11:51: Aber wir haben dann einen anderen Ansatz gehabt.

00:11:53: Sondern wir haben versucht tatsächlich das, was wir damals als Moderatoren oder Moderatoren im Radio gemacht haben,

00:11:59: der KI beizubringen.

00:12:01: Da sind wir natürlich schnell an die Grenzen gestoßen, weil sie ist einfach schon kreativ.

00:12:06: Sie lässt sich immer was Neues einfallen.

00:12:08: Aber schießt halt sehr oft übers Ziel hinaus.

00:12:10: Das heißt, du kannst sie erst mal loslassen.

00:12:13: Und dann musst du sie komplett einbremsen, weil sie sonst einfach ausrastet.

00:12:16: Und wenn man versteht, wie dieses ChatGPT gebaut ist,

00:12:20: bekommst du tatsächlich immer Standardmoderationen.

00:12:23: Weil die gesamten Daten, die ChatGPT zur Verfügung hat,

00:12:27: besteht ja aus transkribierten...

00:12:29: Alles.

00:12:31: Alles.

00:12:31: Genau. Und da haben wir festgestellt,

00:12:34: anscheinend sind weltweit alle Radiosender tatsächlich irgendwie gleichgeschalten.

00:12:39: Hallo, liebe Hörerinnen und Hörer, schön, dass Sie mit dabei sind.

00:12:41: Das ist tatsächlich das, was GPT glaubt, was moderieren ist.

00:12:45: Man muss ihm das erst mal komplett anders beibringen und sagen,

00:12:48: ist nicht der beste Weg, auch wenn es deine Datenquellen sagen,

00:12:51: hier hast du vielleicht bessere Möglichkeiten, wie du moderieren kannst.

00:12:54: Also experimentiert man da immer rum.

00:12:57: Man hat dann schöne Erlebnisse, wo er dann plötzlich sehr kreativ ist, wo man sich denkt,

00:13:01: boah, das hätte ich gerne selber im Radio gesagt, weil es echt schlau ist.

00:13:03: Aber andererseits kommen da wieder Sachen raus.

00:13:06: Ich hatte ihm zum Beispiel eine Zeit lang verboten, gewisse Wörter herzunehmen,

00:13:09: weil ich einfach nicht mehr hören wollte, dass Kai sagt,

00:13:12: hallo, liebe Hörerinnen und Hörer, hallo, liebe Freunde.

00:13:14: Und das war mir alles zu langweilig.

00:13:17: Er wollte aber die Hörer begrüßen.

00:13:19: Jetzt hat er angefangen, einfach Wörter zu erfinden

00:13:22: und sagte tatsächlich eines Morgens mal, guten Morgen, ihr Hundnasen.

00:13:26: Und wir so, what?

00:13:30: Hundnasen.

00:13:33: Aber er hat es natürlich immer noch auf seine sehr sympathische Art gemacht,

00:13:36: dass man es ihm einfach gar nicht krumm nehmen konnte.

00:13:38: Und ich denke mir, wie zum Teuf entsteht das Wort Hundnasen?

00:13:42: Was ist das für eine Anrede?

00:13:44: Wo kriegst du diese Daten her?

00:13:45: Ich bin zu prima.

00:13:46: Ja, ich auch.

00:13:47: Ich fand es auch gut.

00:13:47: Wir haben es auch gesendet.

00:13:48: Tatsächlich, wir haben es gelassen.

00:13:49: Wir haben gesagt, komm, Kai, wenn du meinst, das sind jetzt Hundnasen,

00:13:53: dann mach doch mal.

00:13:55: Und solche Sachen entstehen halt immer wieder

00:13:57: und die lernst du halt nur im Laufe der Zeit.

00:13:59: Das macht natürlich dann auch Spaß.

00:14:01: Ich frage mich, nimmt das dem Radio keinen USP?

00:14:06: Also als Hörer, Hörerin habe ich ja die Auswahl Radio,

00:14:10: anderes Mediums, Stream-Plattformen oder Go-Cut-Fahren.

00:14:15: Also was ganz anderes.

00:14:16: Und aus meiner Sicht ist ja gerade bei lokalen und regionalen Sendern

00:14:21: gerade die Leute, die Menschen, die Geschichten,

00:14:24: das, was den USP ausmacht. - Ja.

00:14:27: Wie geht das mit einem KI-getriebenen Radius in der Zusammen- ...

00:14:31: Gar nicht. - ... gar nicht.

00:14:33: Du hast völlig recht.

00:14:34: Ich sehe das genauso wie du. Ich komme ja auch vom Radio.

00:14:38: Viele haben mich gefragt, sag mal, schaffst du dich damit nicht selber ab?

00:14:42: Sag ich nicht so, wie wir es verstehen.

00:14:44: Das, was du sagst, ist komplett richtig.

00:14:46: Das wird auch hoffentlich niemals weggehen,

00:14:49: weil man den USP verliert.

00:14:50: Und dieses ursprüngliche Gefühl von Radio,

00:14:53: Menschen, die zu anderen Menschen sprechen,

00:14:55: die wissen, was in deiner Stadt passiert,

00:14:58: die lokal sich auskennen, alle Draßennamen richtig aussprechen,

00:15:02: alle Städtennamen richtig aussprechen usw.

00:15:04: Das wird die AI nicht ersetzen können.

00:15:07: Was wir versuchen mit unserem System, solche Dinge wie ...

00:15:10: so 24/7-Sender, das sind natürlich große Spielwiesen,

00:15:13: die wir jetzt alle seit einem Jahr bespielen und sagen,

00:15:16: das ist doch ein großer Spaß, dass man alles machen kann.

00:15:19: Aber jetzt müssen wir in die Richtung kommen,

00:15:22: wie kann uns das als Mensch unterstützen,

00:15:24: die wir im Radio arbeiten?

00:15:25: Und daran arbeiten wir.

00:15:27: Weil ich möchte auf keinen Fall, dass das Schule macht,

00:15:30: dass alles nur noch von der AI generiert wird.

00:15:32: Unterstützend auf jeden Fall.

00:15:34: Als Sidekick super gerne.

00:15:36: Aber bitte nicht als Vollgas-Hose. Das darf niemals passieren.

00:15:40: Ich würde es auch gerne noch mal von der anderen Seite anschauen,

00:15:44: aber das ist ja gerade schon angerissen.

00:15:46: Die Zukunft der Medien und die Zukunft des Radios und die USPs.

00:15:51: Vielleicht entwickelt sich das Radio auch weg

00:15:54: von den vier Breaks pro Stunde.

00:15:56: Und man hat nur noch vier Lieder pro Stunde.

00:15:59: Und der Rest ist vielleicht Text in irgendeiner Form.

00:16:02: Absolut spannend.

00:16:03: Weil vielleicht das der USP wird.

00:16:06: Da hat ja dann die KI auch irgendwie eine andere Stellung drin.

00:16:09: Richtig.

00:16:10: Also, halte ich für wirklich spannend den Ansatz.

00:16:14: Ich bin der Meinung auch,

00:16:15: dass Radio sich in gewissen Phasen und gewissen Dingen

00:16:19: auch verändern muss.

00:16:21: Weil wenn man ehrlich sind, das Radio, wie es jetzt ist,

00:16:24: das gibt es ja eigentlich seitdem ich denken kann.

00:16:27: Mehr oder weniger gleich so.

00:16:28: Du weißt es auch mit dieser klassische Fachbegriff

00:16:31: der Major Promotions.

00:16:32: Immer wenn Funkanalyse ist oder die Zahlen abgefragt werden,

00:16:35: dann ist euch sicher schon aufgefallen,

00:16:38: dass alle Radiosender sich mit Autos reisen und ...

00:16:40: Konzerttickets. - Konzerttickets und Cash-Songs.

00:16:43: Wenn wir uns das schlagen, hört ihr drei Hits am Stück.

00:16:46: Gibt's 500 Euro.

00:16:47: Ja, und es ist natürlich schön.

00:16:49: Klar, aber irgendwann lassen sich die Leute auch nicht mehr kaufen

00:16:53: und wollen Inhalt haben.

00:16:54: Und ich glaube, dass Inhalte, lokale Inhalte,

00:16:57: Personen, Personalities und eher nach wie vor wahnsinnig wichtig sind,

00:17:01: aber eben nicht mehr in diesem alt hergebrachten Schema F,

00:17:06: das wir seit Gefühl immer haben.

00:17:08: Wäre KI für dich auch ein Einsatzgebiet,

00:17:12: was die Werbung angeht?

00:17:14: Da hab ich ein spannendes Konzept neulich gehört,

00:17:17: dass die ... Das ist wirklich spannend.

00:17:20: Alles ist bisher spannend. - Ja, okay.

00:17:23: Dass die ...

00:17:24: Dass die Werbung abgestimmt wird auf die Playliste,

00:17:27: die gerade gelaufen ist.

00:17:29: Also, das ist natürlich so,

00:17:30: dass die KI analysiert, welche Songs sind gelaufen.

00:17:33: In welcher Stimmung ist jetzt der potenzielle Hörerin gerade im Moment,

00:17:37: weil jetzt hier gerade drei Banger hintereinander gelaufen sind?

00:17:40: Dementsprechend wird die Werbung neu produziert in diesem Moment

00:17:44: und auf diese Stimmung mit angepasst, dass die mitgenommen wird.

00:17:47: Also, ich glaube, dass die KI in vielen Gebieten Einzug halten wird.

00:17:52: Viele experimentieren jetzt aufs Wildeste drauf los.

00:17:55: Haben wir auch wir getan

00:17:56: und haben aber auch ein paar Dinge direkt wieder eingestellt.

00:17:59: Da haben wir gesagt, das ist einfach Schmarrn.

00:18:02: Da kommen wir jetzt in Schmarrn, das machen wir jetzt nicht.

00:18:05: Vor allen Dingen ganz wichtig, wenn es vernünftige Medienhäuser sind,

00:18:08: die sich durch die AI ersetzen lassen,

00:18:11: dann wären sie selber schuld, wenn die irgendwo anders hingehen

00:18:14: und da dann irgendwie tolles Radio machen.

00:18:16: Jot, vielen Dank für deine Meinungen und deine Insights.

00:18:19: (Dynamische Musik)

00:18:20: Ja, das waren sehr konkrete Beispiele, die Jot damals geliefert hat.

00:18:25: Die ganze Folge heißt "KI-Moderation im Radio".

00:18:29: Findest du natürlich hier im Feed.

00:18:31: Wechseln wir das mit je und schauen noch aufs Money.

00:18:34: Wie kann man mit KI eigentlich Geld verdienen?

00:18:37: Was wollte ich von Karina Laut-Dagel von "Gruhner und Ja" wissen?

00:18:41: Was sie mir in der Folge "Erlösmodelle mit KI" erzählt hat,

00:18:44: das hörst du jetzt.

00:18:46: (Dynamische Musik)

00:18:47: Karina, so schön, dass du es zu uns geschafft hast.

00:18:51: Vielen Dank für die Einladung, ich freu mich,

00:18:54: mit dir möchte ich über KI sprechen

00:18:57: und wie man das in "Erlösmodelle" überführt.

00:19:00: Das ist ja ein Thema, das bei euch bei "Gruhner und Ja"

00:19:03: eben auch auf der Agenda steht

00:19:05: und mit dem du dich beschäftigst.

00:19:07: Wollen wir aber erst mal allgemein einsteigen,

00:19:10: bevor wir da ein bisschen näher drauf eingehen?

00:19:13: Und zwar würde ich gerne im Allgemeinen mal wissen,

00:19:15: Technologie und KI-Erlösmodelle.

00:19:18: Wo geht denn da was zusammen?

00:19:20: Wo sind denn da Potenziale überhaupt?

00:19:22: Was bedeutet das für uns?

00:19:24: Also, das fällt uns, glaube ich, extrem groß.

00:19:27: Ich würde es mal einmal versuchen,

00:19:29: für uns als Medienunternehmen zu beantworten

00:19:31: oder unseren Blick darauf zu geben.

00:19:33: Wir betrachten KI in allen Aspekten der Wertschöpfungskette.

00:19:38: Also, wir gucken uns an, gibt es Optionen

00:19:41: in der Content-Produktion, in der Content-Erstellung?

00:19:44: Haben wir Möglichkeiten, weitere Inhalte zu generieren?

00:19:48: Können wir unser User-Engagement ermühen?

00:19:51: Haben wir Möglichkeiten,

00:19:52: effizienter zu arbeiten an unterschiedlichen Stellen?

00:19:55: Und wir schauen uns tatsächlich im Moment alle Stufen

00:19:59: unserer Wertschöpfung an

00:20:00: und schauen, wie wir effizienter werden können

00:20:03: an bestimmten Stellen, wie wir die Möglichkeiten,

00:20:05: die uns technologisch geboten werden,

00:20:07: besser möglichen zu machen?

00:20:09: Was müsste sich denn aus deiner Sicht ändern,

00:20:12: damit man neue Ansätze und Technologie

00:20:15: vorteilhaft miteinander verheiraten kann?

00:20:18: Gibt es denn Dinge, Rahmenbedingungen, zum Beispiel,

00:20:20: wo du sagst, die werden ganz, ganz wichtig,

00:20:23: dass man die mal anfasst und da was macht?

00:20:26: Als Unternehmen ist es wichtig,

00:20:28: erst mal überhaupt diese Ressourcen zu investieren.

00:20:31: Ich glaube, man muss bereit sein, auch wirklich investieren.

00:20:34: Man braucht ein datengetriebenes Unternehmenskonzept,

00:20:37: nur KI zu implementieren,

00:20:39: wenn man sich vorher nicht als Unternehmen

00:20:41: einer Datenstrategie auseinandergesetzt hat,

00:20:44: halte ich nicht beziehführend.

00:20:46: Ich glaube, man braucht auch eine gewisse offene Arbeitskultur,

00:20:49: die eben in Over-Zwimmer- und Transformation ermöglicht.

00:20:52: Und wir bei, ich kann ja jetzt erst mal nur so für uns sprechen,

00:20:56: wir bei RTL Deutschland, bei Gruner & Jahr,

00:20:58: haben das so abgesetzt,

00:20:59: dass wir ein sehr starkes Datenteam haben.

00:21:02: Wir haben 300 Kolleginnen bei RTL Deutschland,

00:21:04: die im Datenbereich arbeiten.

00:21:07: Und wir bei Gruner & Jahr sind der Bereich,

00:21:09: der eben die Produkts-Expertise hat, die Domaine-Expertise.

00:21:13: Und das bringen wir zusammen,

00:21:14: um eben entsprechend auf diesen Themen zu arbeiten.

00:21:17: Ich habe jetzt schon gemerkt, ganz viel ist das Thema,

00:21:20: bei dir auch eben Daten, die man hat,

00:21:24: wirklich zu nutzen und zu implementieren.

00:21:28: Erinnert mich ein bisschen an die Debatte vor vielleicht zehn Jahren

00:21:32: oder so mit Bit-Data und alles kommt und so.

00:21:36: Eigentlich müsste man ja schon in der Lage sein,

00:21:38: diese Dinge eigentlich rüberzubringen, so grundsätzlich.

00:21:41: Aber ich habe schon den Eindruck bei Medienhäusern, die ich kenne,

00:21:46: es ist schon eine bessere Datenlage da,

00:21:48: aber es liegt auch noch vieles ungenutzt rum.

00:21:51: Ist es überhaupt gut so eine Datenkrage?

00:21:54: Also, ich glaube, eine Datenkrage ist es hoffentlich nicht,

00:21:57: aber ich bin ein großer Fan von Datengestützten Entscheidungen,

00:22:02: auch schon länger gewesen, als jetzt KI diese große Relevanz entfaltet hat.

00:22:08: Aber natürlich verschwimmen die Grenzen.

00:22:11: Machine Learning ist als Technologie schon lange verfügbar

00:22:14: und nutzen wir entsprechend auch.

00:22:16: Ich glaube, wir als Medienunternehmen

00:22:20: sollten noch viel mehr versuchen, unseren Datenfundus zu nutzen.

00:22:24: Das bezieht sich ja nicht ausschließlich auf jetzt User-Daten,

00:22:28: wenn man jetzt über Daten spricht,

00:22:30: sondern das sind jetzt zum Beispiel eben auch Metadaten,

00:22:33: die inhaltliche Komponenten ausdrücken, zum Beispiel zu unseren Artikeln.

00:22:37: Und da haben wir, wenn ich jetzt auch unseren Datenschatz und nicht Datenkrage

00:22:43: zu sagen, schaue, haben wir große Möglichkeiten

00:22:46: durch langjährige Inhalte jetzt als Beispiel, die wir verfügbar haben.

00:22:50: Da haben wir mit Tatsächlich KI Möglichkeiten diese Inhalte

00:22:54: auch in Zukunft ganz anders noch Nutzern zur Verfügung zu stellen,

00:22:58: die vielleicht eine höherer Wahrscheinlichkeit haben,

00:23:01: dass genau dieser Inhalt zu ihrem Nutzungsbedürfnis passt.

00:23:04: Also ich glaube, dass wir durch KI in Zukunft

00:23:07: viel mehr in der Lage sein werden,

00:23:08: tatsächlich nicht hyperpersonalisierte Inhalte zur Verfügung zu stellen,

00:23:12: ob wenn das ja immer so ein Ausblicksszenario ist,

00:23:15: aber auf jeden Fall in der Lage sein werden,

00:23:17: besser auf den Nutzer zugeschnittenen Inhalt zur Verfügung zu stellen.

00:23:20: Nicht, dass du dir das Medienhaus

00:23:23: oder die Publisherienplattform der Zukunft vorstellt.

00:23:26: Ja, das ist eine gute Frage.

00:23:29: Ich glaube, in Zukunft wird es einfach verstärkt,

00:23:32: noch darum gehen, Nutzerverhalten besser zu verstehen

00:23:35: und Inhalte optimierter auszuspielen.

00:23:37: Und dann, dass es aber eine große Glaskugel zu wissen,

00:23:42: wie de facto dann die Zukunft aussehen wird.

00:23:44: Also ich glaube, wir haben eine riesige Chance durch KI,

00:23:47: wir müssen uns alle damit beschäftigen.

00:23:49: Ich glaube, es ist wahnsinnig wichtig,

00:23:51: dass wir jeden ermutigen in unseren Teams, sich damit zu beschäftigen.

00:23:56: Ich probiere es auch regelmäßig aus,

00:23:58: damit ich nicht abgehängt bin.

00:24:01: Ich glaube, das wird eine Disruption auch ein Stück weit verursachen,

00:24:06: sodass wir alle in der Lage sein sollten,

00:24:08: es für unser Geschäft bestmöglich evaluieren zu können.

00:24:11: Von daher, ich glaube, es bietet eine große Chance

00:24:14: für diese Publisherienplattform der Zukunft.

00:24:16: Und deswegen sollten wir uns damit jetzt alle Zeit nach beschäftigen.

00:24:19: Meinst du denn, in der Zukunft ist Sales noch so ein eigener Posten?

00:24:25: Ich denke ja.

00:24:27: Wir haben aber bei Grunau und Ja

00:24:29: unsere Transformationsstrategie breiter aufgestellt.

00:24:32: Das hatte ich ja vorhin schon mal kurz angesprochen.

00:24:34: Also die Marken, die bei uns in unserem Portfolio sind,

00:24:38: das ist ja schöner Wohnen.

00:24:40: Also die Living Markencouch, Häuser, die Brigitte, Gala,

00:24:45: Chefkoch ist bei uns.

00:24:46: Wir haben einige Inhouse-Start-ups.

00:24:48: Sie haben mit Eat the World ein Unternehmen,

00:24:50: das kulinarische Städtetrips anbietet.

00:24:52: Und die Klammer, die wir für uns gewählt haben,

00:24:54: ist das Zuhause der großen Lebensthemen.

00:24:56: Und dieses Zuhause der großen Lebensthemen

00:24:58: werden wir in Zukunft nicht monetarisieren,

00:25:00: indem das ausschließlich überreichweite Vermarktungen funktioniert,

00:25:04: sondern wir werden unterschiedliche Modelle anbieten.

00:25:06: Auch je nach Marke, die Marken stehen für ganz unterschiedliche

00:25:09: inhaltliche und strategische Schwerpunkte.

00:25:11: Und das wird sich auch in der Monetarisierung zeigen.

00:25:13: Also wir werden sicherlich per Content-Ansatz ausprobieren,

00:25:17: ob das dann Abo-Modelle sein werden.

00:25:20: Das wird sich zeigen.

00:25:21: Wir werden Lizenzmodelle ausrollen.

00:25:23: Da sind wir schon mit schöner Wohnen sehr gut.

00:25:25: Aber das werden wir noch ausweiten.

00:25:26: Wir werden uns weiter in die Suche kommen, was wir wegen.

00:25:29: Aber wir werden natürlich auch weiter

00:25:30: das ganz klassische Verlagsgeschäft machen.

00:25:32: Also wir werden unsere Printmarken weiter stärken

00:25:36: und werden auch da weiter Vertriebsanzeigen, Anzeigengenerieren.

00:25:39: Und wir werden auch in der klassischen Reichweitenvermarktung

00:25:42: und im Affiliate-Geschäft unterwegs sein.

00:25:44: Ich glaube, es gibt für die Marken, die bei uns in der Verantwortung sind,

00:25:50: gibt es nicht den einen Erlösweg für die Zukunft,

00:25:53: sondern ich glaube, dass unsere Medienmarken breiter aufgestellt sein müssen.

00:25:57: Die haben alle eine hohe Glaubwürdigkeit.

00:25:59: Und das müssen wir nutzen, um sie in die Zukunft zu führen.

00:26:03: Noch einmal zusammenfassend am Ende in diesen ganzen Strategien,

00:26:08: die du uns jetzt eben erläutert hast.

00:26:10: Welche Rolle spielt die KI?

00:26:12: Ist die nochmal Ausschlaggebend für einen richtig großen Schritt?

00:26:16: Ich glaube ja, weil uns die KI auf jeden Fall Effizienzen ermöglichen wird,

00:26:21: die wir nutzen können, um Ressourcen anderweitig zu allokieren.

00:26:24: Das klingt wahnsinnig technokratisch,

00:26:26: aber es bedeutet ja, dass zum Beispiel Redakteurinnen Ressourcen frei haben,

00:26:30: für ihre Artikel noch umfangreicher zu recherchieren,

00:26:34: noch mehr zu verfassen

00:26:37: und sich wirklich auf den wirklichen Kern ihrer Arbeit konzentrieren können.

00:26:41: Ich glaube, dass unsere Produkte sehr davon profitieren werden.

00:26:45: Ich glaube, die werden tatsächlich besser werden durch KI,

00:26:48: nicht weil wir mit KI-Inhalte erstellen,

00:26:50: sondern weil wir die Möglichkeit haben,

00:26:52: die KI-Basisaufgaben machen zu lassen

00:26:55: und eben entsprechend alle mehr Zeit für andere Dinge haben werden.

00:26:59: Und gleichzeitig glaube ich, dass uns die KI dazu bringen wird,

00:27:04: die Nutzerverhalten besser zu verstehen

00:27:07: und auch entsprechend unsere Produktempfehlungen besser auszusteuern.

00:27:10: Ich glaube, dadurch werden die Produkte für den Endnutzer draußen

00:27:14: ein bisschen unverseilen, sich besser anführen,

00:27:17: ein Stück weit personalisierter sein.

00:27:20: Und deswegen glaube ich tatsächlich, dass wir profitieren werden.

00:27:23: Vielen Dank, Marina, dass wir ein bisschen hinter die Kulissen bei Kronern

00:27:27: ja schauen durften.

00:27:28: Vielen Dank für die Einladung.

00:27:32: Das war ein kleiner Ausschnitt aus dem Gespräch damals,

00:27:35: die ganze Folge, Folge einfach den Innovation Minutes

00:27:38: und die findest du bei uns hier im Feed.

00:27:40: Es gab natürlich noch sehr, sehr viel mehr Folgen über KI.

00:27:44: Skroll dich einfach mal durch.

00:27:45: Es ging zum Beispiel auch um ChatGPT

00:27:48: oder wie Redaktionen sich durch KI verändern.

00:27:52: Ich hoffe, diese kleine Best-of-Folge hat dir gefallen.

00:27:55: Lass gerne eine Bewertung da.

00:27:57: Lass einen Kommentar da, zum Beispiel aus Spotify

00:28:00: und Folge diesen Podcast.

00:28:01: Mein Name ist Sabrina Harper.

00:28:03: Wir hören uns ganz bald wieder

00:28:05: und bis dahin wünsche ich dir viel Erfolg bei allem, was du tust.

00:28:09: Das waren deine Innovation Minutes.

00:28:13: Direkt aus dem Media Lab Bayern.

00:28:15: Du willst mehr?

00:28:17: Dann besuch uns auf media-lab.de und starte dein eigenes Projekt.

00:28:22: Last but not least.

00:28:25: Dieser Podcast ist möglich,

00:28:26: weil wir tolle Unterstützer und Unterstützerinnen haben.

00:28:29: Besondere Dank geht an die Staatskanzlei Bayern,

00:28:32: die Bayerische Landeszentrale für neue Medien, BLM

00:28:35: und natürlich an meine Kollegen und Kolleginnen in der Medien Bayern.

00:28:41: [Klopfen]

Neuer Kommentar

Dein Name oder Pseudonym (wird öffentlich angezeigt)
Mindestens 10 Zeichen
Durch das Abschicken des Formulars stimmst du zu, dass der Wert unter "Name oder Pseudonym" gespeichert wird und öffentlich angezeigt werden kann. Wir speichern keine IP-Adressen oder andere personenbezogene Daten. Die Nutzung deines echten Namens ist freiwillig.