KI-Müll flutet das Internet | c’t uplink
Shownotes
Wer Facebook, Tiktok oder Youtube besucht, kommt kaum noch an KI-Generierten Inhalten vorbei: Ob sprechende Tiere, halbnackte Prominente und unglaubliche Sensationsmeldungen – seitdem KI-Modelle für jedermann nahezu kostenlos jedweden Inhalt ausspucken, wächst dieser KI-Müll (englisch AI Slop) explosionsartig. Doch in dieser Lawine drohen andere, reale Inhalte unterzugehen. In der aktuellen Folge von c’t uplink beschreiben wir deshalb die typischen Formen des Slops, damit man nicht seine die wertvolle Zeit darauf verschwendet. Das passiert schnell, denn die Industrie dahinter produziert genau das, was die Algorithmen der Plattformen belohnen.
Weder Politik noch Recht scheinen auf den massenhaften schädlichen Einsatz von bildgebender KI vorbereitet zu sein. Wir besprechen, wie das die Plattformen beeinflusst und die Wahrnehmung oder nicht selten den öffentlichen Diskurs verändert. EU-Gesetze wie der DSA und die KI-Verordnung können dem bislang nur wenig Einhalt gebieten, weshalb wir diskutieren, welche Maßnahmen die Plattformbetreiber ergreifen können und warum sie das manchmal trotzdem nicht machen.
► Unsere Artikel zum KI-Slop lesen Sie bei heise+ (€):
- https://www.heise.de/ratgeber/KI-Slop-Wie-Plattformen-das-dreckige-Geschaeft-mit-der-Muellproduktion-anheizen-11139154.html
- https://www.heise.de/ratgeber/KI-Slop-Welche-Formen-er-annimmt-und-wie-er-Aufmerksamkeit-auf-sich-zieht-11139164.html
- https://www.heise.de/ratgeber/Wie-KI-Slop-die-Glaubwuerdigkeit-des-Journalismus-bedroht-11139176.html
- https://www.heise.de/ratgeber/Warum-KI-Slop-mit-bestehenden-Gesetzen-kaum-zu-bremsen-ist-11139190.html
► sowie in c’t 5/2026 (€):
Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. heise Podcasts | Wonderlink
Transkript anzeigen
00:00:00: Von einem nudelessenen With Miss über trampolinen hüpfende Kaninchen bis hin zu sehr praktisch, richtig nervig und manchmal auch ein bisschen gefährlich.
00:00:09: Heute reden wir über KI im Internet.
00:00:12: Bis gleich!
00:00:17: Hallo und herzlich willkommen bei CT Uplink dem Podcast aus Nerdistan.
00:00:21: Ich bin Stefan Portik.
00:00:22: schön dass ihr da seid Und wir sprechen heute über KI.
00:00:26: Da hat sich in den letzten Monaten ganz schön viel getan.
00:00:30: Ihr kriegt mittlerweile so viele KI-Videos vorgesetzt, dass ihr es teilweise nicht mal mehr selber merkt.
00:00:36: Und warum das unter anderem Problem ist bespreche ich heute mit drei Kollegen aus dem Ressort ... Hilf mir auf die Sprünge haben und Internetanwendung und Datenschutz.
00:00:45: Genau
00:00:45: richtig!
00:00:46: Auf
00:00:46: einer falschen Reihenfolge, ne?
00:00:48: Ihr seid das Rest IDA.
00:00:49: Genau, genau hast du richtig gesagt.
00:00:51: Ihr habt jetzt im aktuellen Heft ein Titelthema zum Thema KI Slop oder AI Slop gemacht Und habt euch ein bisschen angeguckt, wo die Probleme sind?
00:01:03: Wo die Vorteile sind was es rechtlich bedeutet.
00:01:06: Was ist gesellschaftlich bedeutet?
00:01:08: Stellt euch vielleicht erst mal kurz vor!
00:01:11: Ja ich bin Hartmut Gieselmann.
00:01:13: Ich bin seit twenty-fünf Jahren bei CT und in den letzten Jahren beschäftigen wir uns sehr viel mit KI und jetzt aktuell haben den Müll genauer angeguckt.
00:01:23: Also wir waren knietief drin und ich habe mir speziell die Ökonomie dahinter angeschaut, warum denn so viel Müll auf einmal digital produziert wird?
00:01:33: Ich bin Heuger Bleich, ich bin im selben Reservariatmut und war an dem Schwerpunkt auch beteiligt und bin auch aus dem Grund beteilicht weil ich selber unheimlich genervt bin von diesem ganzen Müll der mich, der mir jeden Tag auf Insta und Pinterest und Co begegnet.
00:01:49: Ja, mein Name ist Tomlian Zacharek.
00:01:50: Ich bin Voluntär beim CT-Magazin jetzt sogar gut anderthalb Jahren.
00:01:54: Bin auch gerade im selben Ressort und habe mir so ein bisschen angeguckt wie die Auswüchse aussehen also wie genau KI Slop aussieht und welche Form er annimmt.
00:02:04: Okay, schön dass ihr da seid.
00:02:06: Holger hat eben schon einen ganz wichtigen Punkt genannt in der Begrüßung.
00:02:10: du bist genervt Holger.
00:02:11: ich bin es auch aber nicht mal unbedingt von den Sachen die so offensichtlich KI sind.
00:02:16: Ich bin manchmal genervt wie bei diesem Kaninchen Video wo dir dann nachts so ein Gartentrampolin befölkelt haben gab auch mal eine Serie, wo immer zu sehen war.
00:02:26: Irgendwelche vermeintlichen Nachts-Sicht-Kameraaufnahmen was Katzen alles so nachts ihren Besitzern ins Bett gelegt haben und ich habe am Anfang nicht gerafft dass es KI ist und das hat mich tierisch genervt.
00:02:40: Wie hoch ist denn wohl der Anteil von dem KI Kram den ich da irgendwie auf Insta und Co zu sehen kriege?
00:02:45: Boah, ehrlich gesagt ihr habt euch ein bisschen mit den Zahlen beschäftigt.
00:02:49: also die... Mengenangaben gehen ja sehr weit auseinander, weil es noch nicht so wahnsinnig viel Forensik gibt.
00:02:55: Aber ich glaube also Pinterest da wurde schon gesagt das mehr als die Hälfte der veröffentlichten Bilder KI ist und bei Insta geht's langsam in die gleiche Richtung.
00:03:03: Was wir uns ja auch angeguckt haben, da kann Hartmut sich ja gleich mehr zu sagen sind hier auch Plattformern, die man nicht unbedingt sofort denkt wie Spotify.
00:03:12: Der ganze Audio-Müll, der da auch entsteht und monetarisiert ... die auf Facebook zum Beispiel ist immer noch sehr betroffen.
00:03:20: Und natürlich so meinungsbildende Plattformen wie Blue Sky, also... Wie viel es tatsächlich ist das natürlich unheimlich schwer zu sagen was da nicht so viele Zahlen
00:03:28: gibt?
00:03:28: Aber es ist schon würde ich sagen im Moment am präsentesten im Social Media Umfeld würde ich jetzt mal vermuten oder?
00:03:35: Das ist auch den Social Media Plattform die eben halt von einem zentralen Algorithmus dann kontrolliert werden.
00:03:45: Ja, dazu da sind das die Umsätze der Plattform dann auch maximiert werden sollen und da ist dieser KI produzierte Müll.
00:03:53: Der lässt sich eben halt sehr billig generieren und wird darauf optimiert die Aufmerksamkeit zu maximieren und das ist auch genau, was die Algorithmen der Plattform dann nach oben ziehen.
00:04:05: Also die interessiert nicht die Qualität der Inhalte sondern allein darum klickt es sich für das zu Interaktion wird es kommentiert wird es geliked wird sich darüber aufgeregt und Das lässt sich natürlich automatisiert mit einer Feedback Schleife dann auch optimieren und dadurch wird der ganze kaimüll dann so stark nach oben gespült.
00:04:27: es gibt studien wir haben jetzt welche rausgesucht die haben geguckt welches sind so die hundertstärksten kanäle auf den einzelnen plattformen?
00:04:35: und da war so der anteil der rein kai getriebenen kanälen die also im stunden takt immer ein neues kai generiertes video oder irgendwie einen clip hochgeladen haben bei knapp zehn prozent etwa aber sehr stark steigend und damit werden schon also Millionen Umsätze dann gemacht, die natürlich den menschlichen Content Erzeugern dann auch fehlen.
00:04:58: Und diese dann auch dazu treiben immer mit der Maschine weiter zu konkurrieren.
00:05:02: Genau er hat geschrieben dass die Algorithmen halt nicht wirklich unterscheiden zwischen Qualität und schlecht und auch nicht zwischen Real und KI Und dass das im Prinzip so ein bisschen dazu führt, dass sich bei den KI-Videos zwei Kategorien rauskristallisieren.
00:05:16: Was die bewirken sollen?
00:05:17: Welche waren denn das?
00:05:19: Das eine ist der normales Slop, würde ich mal sagen oder wir nennen ihn als Brieselung-Slop.
00:05:25: Der also einfach glatt durchrutscht, der nicht aufregt und irgendwie so ein bisschen im Hintergrund läuft.
00:05:31: Man kennt es vielleicht aus dem Formatradio der Neunzigerjahre.
00:05:35: Da gab's dann auch immer die gleichen Playlisten mit irgendwelchen seichten Pop-Songs, die störten nicht beim Bügeln.
00:05:40: Ja das läuft eben halt so durch.
00:05:42: und so ähnlich ist es auch Ja, Brieselungslop der KI generiert wird.
00:05:48: Das sind dann irgendwelche Tiervideos.
00:05:50: da werden aber keine konkreten Namen oder Orte oder auch geschiedliche Daten damit verknüpft sondern es soll einfach nur so mitlaufen und... den Mainstream sozusagen befriedigen.
00:06:06: Und dann gibt es einen sogenannten Rage Slop, der legt es darauf an die Leute richtig aufzuregen und richtig auf Zinne zu bringen, dass sie eben halt erboßt dann da drauf reagieren und das vielleicht auch noch weiter teilen usw.
00:06:19: Da kommen wir dann auch zu den Sachen hin, die dann Medien für die Medien sehr problematisch sind.
00:06:26: ja und das sind die beiden Typen, auf Aufmerksamkeit optimiert werden, maschinell optimiert.
00:06:33: Und zwei verschiedene Strategien eigentlich fahren und die Qualität ist dabei vollkommen egal.
00:06:39: Aber was also anders bei dem Rage Slop kann ich mir ja noch vorstellen?
00:06:44: Warum ich das jetzt machen möchte?
00:06:46: Also wenn ich jetzt irgendwie eine politische Agenda verfolge oder irgendein Thema irgendwie im Mainstream halten möchte, dann ist das natürlich ganz leicht da immer KI-Videos rauszuballern.
00:06:58: Vielleicht sogar welche die die Wahrheit ein bisschen verzerren.
00:07:01: Das ist ja noch leicht.
00:07:02: aber was habe ich denn davon wenn ich mir jetzt irgendwie so einen ArschteuresKI-Abo hole und erstelle dann ein Video nach dem anderen wo der Hund das Baby rettet bei einem Erdbeben?
00:07:14: Was bringt mir das?
00:07:15: Also warum machen Leute dieses Glebenunterhaltungs-Slopp.
00:07:18: Du kriegst Aufmerksamkeit und dann immer in Pausen läuft ja die Werbung, dadurch verdienst du richtig Geld!
00:07:24: Und wenn du das im Großen... Das kannst du skalieren.
00:07:27: Ja, du kannst also diesen Content automatisiert von Maschinen erstellen lassen.
00:07:31: Die kriegen dann die Klickzahlen von den Algorithmen der Plattform können sagen, aha diese Variante ne?
00:07:38: Wenn jetzt der Hund keine Rot ist sondern eine blaue Schleife hat, die klickt sich ein bisschen besser.
00:07:44: Also machen wir jetzt in der nächsten Stufe, machen wir Hunde mit blauen Schleifen oder es wird irgendwie was anderes generiert.
00:07:49: das läuft twenty four seven automatisiert durch mit dem Feedback aus dem Algorithmus und lässt sich dadurch so optimieren dass er eben halt nach oben gespült wird.
00:07:58: und die Plattform profitieren auch davon weil dieser Content quasi zum Nullkostenpreis oder ein bisschen Stromkosten generiert wird und somit die Leute bei der Stange hält.
00:08:09: ja also es soll nicht es soll optimieren werden immer dabei bleiben und noch den nächsten Werbeclip dann irgendwie mitnehmen.
00:08:18: Das ist sozusagen die
00:08:19: Optimierungsschleife.".
00:08:20: Also kann man gar nicht so genau sagen, dass die Plattformen da jetzt unter der KI-Schwemme in irgendeiner Form leiden würden.
00:08:28: Profitieren
00:08:28: massiv davon und fördern das auch.
00:08:30: also wenn diese Plattform sind ja nicht dazu da unsere Kommunikation oder unsere Wissen, unsere Bildung zu optimieren sondern allein darauf es kommerziell auszuhören, dass wir ihr Aufmerksamkeit schenken.
00:08:42: Es gibt andere Modelle wie zum Beispiel das Feediverse oder Mastodon Die wachsen aber nicht so explosionsartig Sondern dann haben vielleicht weiß ich nicht, weltweit fünfzigtausend Nutzer und Fünfhundert Server oder so.
00:08:53: Also die krebeln irgendwo da unten herum weil sie eben halt nicht auf Aufmerksamkeit optimiert werden sondern allein auf zwischenmenschliche Kommunikationen.
00:09:01: Und die Plattform wie von Meta wie Instagram wie TikTok Die sind nur darauf optimiert möglichst schnell zu skalieren und dabei hilft ihren KI Content.
00:09:11: und deswegen gibt Meta zum Beispiel auch sein KI Modell Lama kostenfrei weiter Weil das hilft ihnen wenn jeder mit KI irgendwelchen Blödsinn produziert, dann kriegt Meta mehr Klicks und mehr Werbeeinnahmen.
00:09:22: Ja klar!
00:09:23: Also du hast Aufmerksamkeit und du willst dir die Nutzer möglichst lange irgendwie auf der Plattform halten?
00:09:32: Du hast gerade sogar amit haben wolltest du ein... Okay es ging ja sogar so weit ich wär waren das war das nicht sogar OpenAI?
00:09:41: irgendwer hatte ja so einen TikTok Klonen als appneulich mal irgendwie rausgebracht wo sogar nur noch KI Content lief.
00:09:47: Bei mir stellt sich dann immer noch so ein bisschen die Frage.
00:09:53: Die Plattformen riskieren ja auch irgendwie, dass die Nutzer sagen Boah es ist einfach wirklich alles nur noch schlechter KI-Schrott irgendwie ich gehe hier nicht mehr hin.
00:10:01: oder glaubst du das was den Nutzern letztlich egal ist?
00:10:06: Sag mal ehrlich, High Quality Content ist Facebook sowieso nicht.
00:10:10: Nee aber Qualitätscontent skaliert nicht sondern da musst du immer ganz viel Arbeit und Zeit und Geld irgendwie reinstecken um dem zu produzieren.
00:10:18: Kislop skaliert.
00:10:20: wenn ich einmal eine Methode habe wo die Leute drauf abfahren irgendwelche Katzenvideos dann kann ich die mit mir irgendwelches Server und lass das skalieren.
00:10:29: Ja und das kann ich mit Qualitäts auch.
00:10:31: Journalismus, der skaliert nicht.
00:10:33: Da muss sich immer recherchieren.
00:10:34: Ich brauche immer die Zeit.
00:10:35: Das kann ich nicht an eine Maschine auslagern.
00:10:38: Und sobald die Zahlen runtergehen, ja dann merkt ihr Algorithmus ja und dann kann er gegensteuern
00:10:44: Ja okay, ja ich verstehe die problematik.
00:10:46: Ich wundere mich nur weil ich jetzt um links gelesen hatte irgendwie dass das heißt Spotify und YouTube Also zumindest die Medien die ein bisschen seriöseren Konten Content anbieten und dafür auch Geld verlangen.
00:10:58: Bei denen ist es glaube ich nicht ganz so einfach.
00:11:00: da sind durchaus Bestrebungen irgendwie so ein bisschen den KI-Müll von der Plattform fern zu halten.
00:11:06: Also die Plattform haben das ja die alleine Kontrolle und können, dass durch ein Algorithmus können sie dagegen steuern.
00:11:13: Sie können also wenn wenn KI-Content dann das Image der Plattform dann schädigt weil es eben halt strafrechtlich relevant ist oder zu extremer Raidschlob ist oder zubanal Dann kann das dem unitarisiert werden.
00:11:29: Es kann irgendwie nicht so häufig ausgespielt wird.
00:11:32: da könnt ihr einen ganz kleinen Schrauben drehen um das zu optimieren.
00:11:35: Darauf reagieren aber auch wieder die KI Content Produzenten und ja, die machen das nicht an einem Arbeitstag wie so ein Mensch also der dann acht neun Stunden vorm Rechner sitzt sondern die laufen durch.
00:11:48: Und ich kann dann auch noch wenn es auf einem Server läuft dann kann ich eben halt zwanzig weitere mieten und das skalieren lassen.
00:11:56: Ich finde es schon auf Social-Media-Plattformen sehr nervtötend, dass ich teilweise gar nicht mehr erkenne ob's KI ist.
00:12:03: Es gibt ja immer mal wieder so Webseiten wo man so Tests machen kann.
00:12:07: Wo dir zwei Videos vorgespielt werden und man soll dann halt einfach mal einklicken was man glaubt welches Video KI ist und welches ein reales Video gewesen ist.
00:12:16: Und das fällt mir sehr schwer da... an die hundertprozent Trefferquote ranzukommen, das ist ja auf realen Webseiten noch ein viel größeres Problem.
00:12:25: Also wo begegnet uns denn KI im Alltag?
00:12:28: Wo wir es vielleicht gar nicht wissen und vielleicht auch nicht möchten abseits von Facebook &
00:12:33: Co.?
00:12:36: Naja also... Das meiste was wir eben schon gehört haben findet halt auf Instagram statt oder auf TikTok
00:12:42: etc.,
00:12:42: weil die Videos halt einfach zu produzieren sind und die meiste Aufmerksamkeit irgendwie abrufen.
00:12:49: Aber wir haben auch, wie wir eben auch schon gehört haben Musik teilweise bei Spotify oder bei YouTube.
00:12:56: Das ist dann ganz oft einfach so.
00:12:58: ja ich würde sie mal Hintergrundmusik nennen Sachen die mitlaufen können Sachen die irgendwie Ja beim Arbeiten nebenbei laufen während des Workouts solche Sachen Und da kommen halt einfach ganz Ja ... langweilige Sachen, sag ich nenn ich sie mal, zustande.
00:13:20: Die aber ja trotzdem irgendwo dann auch wieder Klickzeigen generieren und Aufmerksamkeit auf sich ziehen.
00:13:25: Und wo dann auch Werbung Geld generieren kann.
00:13:29: Diese Sachen werden halt bei Spotify in die Playlist gespült.
00:13:32: oder das andere was wir auf YouTube haben sind so drei Stunden lange Clips einfach oder Videos von Musik, wo sich im Prinzip aber die Melodie einfach immer und immer wieder holt Und ja, da ist ja keine künstlerische, sage ich mal Präsenz hinter.
00:13:48: Da hat sich keiner Gedanken darum gemacht... ...da wird halt einfach dann mit der KI eine gewisse Melodie erzeugt und die läuft dann halt im Dauerloob.
00:13:56: Ich hab jetzt richtig rausgehört das bei Spotify eigentlich so ein bisschen Sag ich mal ambivalent ist.
00:14:03: so auf der einen Seite filter Spotify den Kram raus oder YouTube wenn es irgendwie zu krass zu blöd ist wird's wird entweder erst gar nicht auf die Plattform gelassen oder dem monetarisiert.
00:14:14: Aber auf der anderen Seite haut Spotify selber so seichte Fahrstuhl Musik KI gezeugt, irgendwie auf die Ohren der Nutzer damit sie weniger Tantemen zahlen müssen.
00:14:23: ein echter Künstler das Geschäftsmodell
00:14:27: Also auf YouTube, auf jeden Fall.
00:14:29: Ich glaube zu Spotify kannst du ein bisschen mehr sagen Hartmut?
00:14:32: Also die Musik wird ja oder es werden... Ausschüttungen vorgenommen, egal ob jetzt das Musikstück von der KI berechnet wurde oder hochgeladen wurde.
00:14:43: Oder von einem echten Künstler.
00:14:46: was die KI-Contemproducer teilweise machen ist dass sie in den Metatext dann angeben, oh!
00:14:51: Das ist irgendwie ein Musikstuck von Madonna von Taylor Swift oder so ohne die dann in den in den Ausschützungen zu beteiligen sondern es führt dazu dass die realen Accounts von den realen Künstlern mit KI Songs zugemacht werden und das muss dann wieder gesäubert werden, also dass es auch so ein Scam wie eben halt mit dem dem Markennamen dieser Künstler dann quasi dann Gelder abgezogen werden.
00:15:19: Und das meiste was aber wozu diese Plattform genutzt werden sind eben halt wie du haben schon sagte nicht wie vielleicht unser eins da noch nach einer bestimmten Band gesucht hat oder jetzt den ganzen Tag weiß ich nicht Pink Floyd hört oder so sondern da geht's darum.
00:15:35: Ich wache morgens auf, ich will gute Laune Musik.
00:15:37: Ich bin abends im Bett und will etwas zum Einschlafen haben.
00:15:40: Beim Training will ich rhythmische Dance-Musik haben.
00:15:46: Diese Gebrauchsmusik hat man früher genannt.
00:15:51: Es gab auch schon zur Kaufhausberieselung.
00:15:54: Die läuft einfach im Hintergrund durch.
00:15:57: Und die kann man mit KI-Generatoren erzeugen.
00:16:05: die Klicks optimieren und dann immer das weiter produzieren.
00:16:08: So schnell kann sich ein Komponist oder Musiker gar nicht irgendwie die Finger an der Gitarre spielen, da ist man einfach im Nachteil.
00:16:15: und die ziehen natürlich dann Gelder und Aufmerksamkeit ab.
00:16:19: was dann junge Bands oder Künstler dann?
00:16:21: was denen dann fehlt?
00:16:24: Das ist vielleicht auch noch bei Spotify ein bisschen anders gelagert als bei den sozialen Medien wie Instagram oder TikTok, denn es gibt ja einen endlichen Pool von Ausschüttungen.
00:16:37: Es wird ja, durch die Abos wird der Geld generiert und das wird ja nach bestimmten Schüsseln ausgeschüttet.
00:16:42: Und Spotify ist Argument zu sagen wir gucken schon dass wir Slop ein bisschen von der Plattform kriegen es halt jeder Slop der durchgeht entzieht halt unseren Künstlern unter den ähnlichen Artists des Geld.
00:16:54: also weil's halt diesen endlichen Pool gibt.
00:16:58: Deswegen haben sie zumindest Eigenangaben zur Folge behauptet letzt im Jahr zweitausendfünfundzwanzig, fünfundsebzig Millionen Musikstücke runtergenommen haben und demunitarisiert haben.
00:17:09: Und auch von der Plattform entfernt haben die eindeutiger Slop erkannt wurden.
00:17:13: also es ist einerseits basiert das dann glaube ich auf einem Meldesystem dass man es melden kann.
00:17:17: andererseits sagen sie halt auch Sie setzen schon KI einen KI zu erkennen um den Slopp selber herauszufiltern Sagen aber auch selber wir sind da aber auch sehr defensiv.
00:17:27: Also wenn wir irgendwas als Lob markieren Dann muss es schon sehr sehr eindeutlich sein.
00:17:32: auch in der Regel behaupten sie zumindest noch mal Mensch drüber, ob das dann immer so ist.
00:17:36: Ein Image, ne?
00:17:38: Also Spotify gibt vor dass sie das tun.
00:17:40: aber sich verdienen natürlich kräftig daran mit.
00:17:42: und man muss jetzt auch sagen.
00:17:43: Das mit den Generatoren wie der Visuno und Audio haben ja die großen Verlage wie Universal Music hat da Verträge abgeschlossen, dass sie eben halt ein bisschen was vom Kuchen dann dann mitbekommen landen dann ganz wenige Krümel dann nur bei den tatsächlichen Grünsländern.
00:17:59: Aber Universal music hat einen Marktanteil von ich glaube über dreißig Prozent weltweit.
00:18:04: Ja und die Ja, verdienen auch an den kis Lob eben halt dann mit.
00:18:12: Ich
00:18:12: denke halt auch.
00:18:13: es ist jetzt die eine Sache ob's irgendwas ist was mich nur im Hintergrund ein bisschen unterhalten soll oder was für Zerstreuung sorgt Das das ist ja noch vergleichsweise harmlos kann ich dann noch verstehen.
00:18:26: wenn man sagt da darf auch billiger KI scheiß laufen.
00:18:31: Schlimmer finde ich's halt, wenn es dann anfängt so in den Bereich des Rage-Slopp hat.
00:18:37: Der hatte dir das glaube ich auch nicht genannt, in eurer Strecke zu gehen?
00:18:41: Weil ich ja schlichtweg einfach dann bestimmte Fälschungen gar nicht mehr erkennen kann und weil es mich natürlich auch manipulieren soll.
00:18:49: also du hast jetzt Oder fast jeder hat jetzt wahrscheinlich vor ein, zwei Wochen dieses Foto gesehen.
00:18:56: Was da vom weißen Haus wieder gepostet wurde.
00:19:00: Wo eine Frau total überzeichnet am Heulen war aufgrund ihrer Verhaftung und dann hatte irgendjemand mal das Originalfoto rausgenommen und hat gesagt ne die hat es eigentlich sehr gefasst aufgenommen und ist da hohen Hauptes in Anstellen lang marschiert.
00:19:15: Wo siehst du oder wo seht ihr denn da die Gefahr wirklich?
00:19:18: Auch für unsere Gesellschaft, wenn ich nichts mehr glauben kann was ich im Internet sehe.
00:19:23: Das ist toll, was wir das ja mit der Regulierung anschauen.
00:19:26: Ich weiß nicht, also gerade was die Medien angeht wirst du mit Sicherheit auch noch einiges sagen können.
00:19:32: Also wir müssen aufpassen da müssen trennschaft zu bleiben.
00:19:37: ich sage es nur noch zum hintergrund Wir reden ja über AI-Slop also KI-Slopp und wir haben für uns auch erst mal die Definitionen klargezogen also diese einzelnen Geschichten wo Bilder manipuliert werden wo vielleicht auch deepfakes erstellt werden.
00:19:50: das würde ich jetzt zb schonmal in der Deepfake Kategorie stellen.
00:19:53: was das Beispiel das du genannt hast Es ist nicht mehr unbedingt in der Definition von Slop mit diesen Massen generierten, aber für sich genommen vielleicht nicht strafrechtig relevanten oder eher harmlosen Inhalt der einfach über die Masse kommt.
00:20:06: Und auch von der... deswegen heißt es ja auch Slop nämlich Müll- oder Schleim oder wie auch immer weil das halt meistens massenbillig produzierte qualitativ nicht besonders hochwertige Massenware ist, die einfach in großen Stückzahlen daherkommt.
00:20:19: und
00:20:19: auch beim Raceslop wird eben halt von den Slopproduzenten produziert, weil sie eine politische Botschaft haben oder was erreichen wollen sondern einfach weil Sie die Leute in Rage versetzen wollen.
00:20:30: Weil das mehr Klicks
00:20:32: gibt
00:20:32: ja?
00:20:33: Das ist einfach für Dienemittel.
00:20:34: die zeigen dann irgendwelche angeblichen Bilder aus Konzentrationslagern sind jetzt aber nicht aus dem rechten Lager sondern einfach nur über die Leute da involviert sind.
00:20:43: deswegen wird das mehr produziert.
00:20:45: und dass es nun genau zu der Gefahr und da können wir beide glaube ich ein bisschen auch noch mal drüber reden Also für die Medien ist das ein Riesenproblem, würde ich so sehen.
00:20:56: Mein Artikel habe ich ein bisschen so beschrieben.
00:20:58: wir können vielleicht gleich noch kurz zur rechtlichen Einordnung aber auf jeden Fall in dem Moment wo diese genau wie du sagst zum Beispiel solche Auschwitzfotos ... die authentisch da herkommen, die aber eindeutig viele
00:21:10: jetzt...
00:21:11: Genau auch hier mit Bergen-Belsen zum Beispiel.
00:21:13: Das gibt dann natürlich einzelne Effectchecker, die dann hingehen z. B. zur Gedenkstätte Bergen Belsen oder auch zu den Gedenksstätten weiter in Auschwitz und Fragen kann sich das so abgespielt haben?
00:21:25: Und dann wird halt in dem konkreten Einzelfall geguckt, nee diesen Weg gab es nicht, diesen Baum gab's da gar nicht und dies und das und jenes ist eine Fälschung.
00:21:32: Aber und dann sind da Figuren abgebildet Zum Beispiel gar nicht mehr so ein abgemagerten Eindruck macht.
00:21:39: Die Fotos haben, genau es hat eigentlich alles... ...hat alles nicht so krass gewirkt wie auf den Originalfotos nur halt so ein bisschen geschönt alles in riesen Massen rausenderhauen.
00:21:50: und wenn solche Bilder dann die Aufmerksamkeit auf sich ziehen.
00:21:57: Aufgrund der schierenden Masse auch.
00:22:00: Übrigens das ist alles clickbait.
00:22:02: Das sind immer Bilder ... massenhaft von Konten gepostet werden, mit einer Uhr dabei.
00:22:09: Wenn du mehr darüber erfahren willst, klicke hier und dann kommt halt... ...wirst du halt auf der Seite um die Folgendes Mitwerbung.
00:22:15: Da geht es nur um Generierung von Einkommen mit Werben.
00:22:18: Aber das noch nebenbei aber... Der gesellschaftliche Schaden ist halt enorm.
00:22:23: Also das haben auch zum Beispiel der Gedenkstättenleiter Bergen Belsen hat es gesagt, wenn die Leute anfangen uns nicht mehr zu glauben und die Originaldokumentation nicht mehr ernstzunehmen weil sie sagen, so schlimm hat's ja gar nicht ausgesehen zb oder andere Dinge.
00:22:37: Oder
00:22:37: das könnt ihr ja auch... ... KI generiert sein.
00:22:39: Du kannst ja nicht mehr, also dann verlieren
00:22:41: die irgendwann einfach... Die sind halt auch so gut gemacht, ne?
00:22:45: Dass sie in einen Massen rausgehauen und dass sie halt nicht mehr von den kaum noch zu uns scheiden sind.
00:22:51: Und irgendwann fängt es den Leuten an, egal zu werden.
00:22:53: Und da sehe ich die große Gefahr.
00:22:55: Das ist Versuch habe ich auch versucht ansatzweise mit meinem Artikel ein bisschen zu beschreiben das echte Information Und da kommen wir zu den Medien, relevante Informationen zunehmend verdrängt werden von diesen Slop.
00:23:06: Wir haben ja vorhin schon die Zahlen genannt, da waren sie mehr als fünfzig Prozent und irgendwann merken die Leute ist es den Leuten eigentlich auch fast egal?
00:23:12: Ist das jetzt Slop?
00:23:13: also ist es jetzt KI generiert oder ist es ein Original?
00:23:17: und irgendwann verliert man das Vertrauen in die Quellen und kein Mensch.
00:23:22: Das ist immer das heeres Ziel von Medienwissenschaftlern und von Kommunikationswissenschaften.
00:23:27: die redaktionelle Gesellschaft Von wegen.
00:23:30: jeder muss dann eigener Redakteur werden und muss halt selber fact-checken betreiben.
00:23:34: Aber wer seine Informationen auf TikTok größtenteils bezieht oder auch auf Insta bezielt, wird das in aller Regel eben nicht mehr tun.
00:23:44: Und da wird eben alles oder nichts für Baremünze genommen – eins von beiden!
00:23:47: Auf jeden Fall ist es ein großer Schaden für die Gesellschaft und auch für die Informationsgewinnung, die für einen verantwortlichen Umgang mit Informationen Antwortlich ist.
00:24:00: Man stumpft ab und wird imprägniert.
00:24:02: dann für die realen Informationen?
00:24:05: Ja, tatsächlich!
00:24:05: Ich muss auch sagen dass ich jetzt gerade stock sauer bin weil ich das in der Vorbereitung so verstanden hatte, dass es halt der Rage-Slop mehr ein bisschen für parteipolitische oder Staatspropaganda eingesetzt wird aber dass man wirklich sagt Wir nehmen jetzt KI-generierten Holocaust Content für Clickbaiting, weil wir damit Geld verdienen sollen.
00:24:29: Also ich meine wie wenig Ethik und Moral kann man haben?
00:24:34: Die Beispiele jetzt konkret sind zum Beispiel was auf Facebook sehr viel läuft.
00:24:39: also wir haben mehrere Kanäle auf Facebook gefunden die halt genauso etwas posten und da ist dann nicht auch nur der Holocaust als eigenes Stück dabei, sondern auch andere Sachen aus dem zweiten Weltkrieg wo dann einfach tatsächlich Geschichten erzählt werden die angeblich so passiert sind und was Heuger gerade schon sagte.
00:24:56: Dann wird man halt weitergeleitet auf eine Seite wo man dann halt nochmal ordentlich Werbung irgendwie angezeigt kriegt und so verdienen die Leute damit halt ihr Geld.
00:25:03: Und es gibt es aber auch in wesentlich sage ich mal harmloser Variante mit Rezepten oder mit irgendwelchen anderen Bildern.
00:25:14: Es ist komplett egal womit die Kohle gemacht wird.
00:25:18: Ob das jetzt Rezeptbild, schöne Fotografies oder ob es KZ-Bilder sind?
00:25:28: Es ist eine Soße weil Hauptsache es kommt Geld dabei rum und ich
00:25:33: geht nicht um Holocaust Leugner aus dem extrem rechten Spektrum sondern einfach... Oh, das generiert Emotion und Reaktion.
00:25:41: Damit kann ich Geld machen also mache ich irgendwas was auch strafrechtlich nicht relevant ist was dann durchrutscht.
00:25:49: Das Problem ist nur dass die Leute dann halt auf diesen Zug ausspringen und sich diese Bilder angucken und sagen hier ne?
00:25:56: Was wir gerade hatten mit die sind ja gar nicht so abgemagert Und da werden dann teilweise sich irgendwelche Sachen zusammengesponnen und Dann wird es halt gefährlich.
00:26:06: Ich glaube die Gefahr ist wahrscheinlich auch, dass das im Prinzip jeder kann.
00:26:09: Also ich meine, ich habe ja eben schon so ein bisschen definitorisch daneben gelegen irgendwie als Holger meinte, dass bestimmte Sachen wenn es um Propaganda oder Meinungsbeeinflussung geht, geht's ja mehr in die Richtung Deep Fakes.
00:26:23: Die hat's ja vorher schon gegeben, aber damals musstest du halt gut mit Photoshop umgehen können.
00:26:27: Und so'n euren Prompt kann ja im Prinzip jeder von uns rausholen und bekommt ein gutes Ergebnis.
00:26:34: Hattet ihr in den Text geschrieben wie fotorealistisch der Kram mittlerweile ist?
00:26:38: Das war ein hoher Prozentwert, mein ich.
00:26:41: Du kannst
00:26:41: es nicht unterscheiden mit den aktuellen Modellen und das wässt dich eben kostenlos... in Massen produzieren, also skaliert.
00:26:47: Und deswegen ist es auch Müll.
00:26:50: Müll ist ja auch in der Industriegesellschaft ein Zeichen der Überproduktionen.
00:26:53: Wir haben so viel Produktionskapazitäten und dann wird eben halt alles rausgeblasen.
00:26:57: Und das Gleiche haben wir jetzt im digitalen Raum.
00:26:59: Ja?
00:27:00: Wir haben Produktionsüberkapaziten und die rechnen in den Vierundzwanzig Sieben immer die neuesten KI-Slop Sachen dann raus, die irgendwelche Klicks bringen und damit Gelder in die Kasse spüren.
00:27:12: Ich finde den Aspekt noch spannend.
00:27:14: Du hattest ja gesagt, ne man stumpft ab.
00:27:16: Tom hatte eben gesagt es kann dann im Prinzip auch zu einer Geschichtsverzerrung kommen.
00:27:21: ich weiß gar nicht wer das von euch in dem Artikel hatte dass es mittlerweile Studien gibt Dass Menschen so visuell sind wenn sie irgendein Bild sehen.
00:27:29: und selbst wenn Sie wissen, dass ist ein Fake ist nimm das Unterbewusstsein das trotzdem für bare Münze.
00:27:36: habe ich es einigermaßen wiedergegeben?
00:27:38: Ja, ungefähr genau
00:27:41: sind doch wirklich alle Medien schaffenden und nur auf die Plattform viel mehr in der Verantwortung sorgsam mit umzugehen.
00:27:50: Ja, aber das ist nicht ihre Aufgabe.
00:27:51: Ihre Aufgabe ist es möglichst schnell zu wachsen und Umsatz zu generieren.
00:27:56: Das ist die Aufgabe oder der Hintergrund der kommerziellen Plattform.
00:28:00: Deswegen skaliert er's auch so schnell.
00:28:01: deswegen ist TikTok innerhalb von wenigen Monaten oder Jahren da Von einem kleinen Unternehmen zur Weltspitze aufgestiegen weil ihr Algorithmus so skaliert.
00:28:09: Und wenn wir das begrenzen wollen dann müssen wir diese kommerzielle Plattform einfach abschalten So dafür kein Weg dran vorbei.
00:28:18: Holger verzieht ein bisschen.
00:28:19: Er hat
00:28:20: gerne für's Radikale raushauen.
00:28:24: Ja, ganz ehrlich ich hab auch immer mal wieder schon gesagt also wir könnten uns von mir aus können wir uns wirklich drauf einigen dass dieses Experiment mit Social Media gescheitert ist.
00:28:35: Ich
00:28:35: glaube nicht das Filter babbeln die Gesellschaft zu einer besseren gemacht hat.
00:28:40: Also soll ich mal ganz kurz ein bisschen rechtlich nochmal versuchen einzuordnen?
00:28:45: Das ist eine schwierige Kiste.
00:28:48: Wir sehen das gleich im Moment, also das was ihr jetzt gesagt habt der Schaden es befindet ja auf vielen Ebenen statt.
00:28:53: Das andere Beispiel ist die Momente aktuelle Diskussion zum Thema wie sehr schadet Social Media insbesondere Minderjährigen?
00:28:59: Da gibt es ja auch ganz viele.
00:29:01: in Deutschland läuft eine Diskussion, Social Media absehend verbieten.
00:29:04: Australien hat's vorgemacht England wirds bald machen, frag ich wahrscheinlich auch.
00:29:07: Die Frage ist ob das die richtige Lösung ist.
00:29:09: da gibt zwei Lager.
00:29:10: in Deutschland setzt sich glaube ich eher das lager durch dass sagt Die Verantwortung tragen die Plattform, wir müssen an die Platformen gehen.
00:29:18: Wir können hier einfach sagen, wir schließen die Kinder von den Plattformen aus und sich ändern.
00:29:21: Wir müssen sich anpassen.
00:29:23: Wir müssten zum Beispiel die Empfehlungsalgorithmen anpassen zumindest gegenüber Minderjährigen.
00:29:28: dann braucht man aber wieder ein Alterskontrolle.
00:29:30: das nur nebenbei dass... ...wir haben bei AIS-Lob ein ganz anderes Problem.
00:29:34: AIS Lob für sich, wir hatten es vorhin schon mal kurz thematisiert ist nicht rechtswidrig Das ist Müll, das ist Schrott Das ist ein großen Massengenerator-Schrott.
00:29:44: Das läuft unter bei der EU zum Beispiel in der Regulierung, es gibt einschlägiges hier vor allem der Digital Services Act also das große Plattformgesetz was Zweiundzwanzig in Kraft getreten ist, was für die Plattformregulierung da ist und da gibts den Begriff illegal Content und potentially harmful Content Und auf jeden Fall läuft's maximal unter Potential Harmful Content.
00:30:10: dann um das noch einzuordnen.
00:30:12: Es gibt die wenigen großen Plattformen, von denen wir sprechen, die die Hauptverbreiter von RSLOB sind.
00:30:17: Das laufen unter sehr große Plattforms, Very Large Online-Plattformes.
00:30:21: Sie sind also in der ganz harten Regulierung dieses Gesetzes und die untersteht auch direkt der Kommission.
00:30:27: Also wenn jemand was dagegen tun könnte dann ist es die EU-Kommission.
00:30:30: soweit mal die Basis.
00:30:32: Die EU-Commission tut im Moment In dem Bereich, weil sie so viele andere Sachen zu tun haben.
00:30:38: Sie haben ja auch gerade einen Ticktenverfahren gegen TikTok eröffnet bzw.
00:30:41: den vollläufigen Untersuchungsbericht sagen hier eindeutig tiktok schadet.
00:30:46: TikTok ist süchtig machend.
00:30:48: TikTok hat viele.
00:30:49: der Algorithmus ist süchthich machen.
00:30:51: Er schade der Gesellschaft.
00:30:53: Das haben sie vorläufig erst mal festgestellt.
00:30:55: Aber das nicht in Richtung AI-Slop, jetzt kommt AI-Slop!
00:30:58: Da tun Sie sich immer noch wahnsinnig schwer weil es einfach nicht hinterherkommt mit der Regulierung.
00:31:02: Also wie sollte man das einstuben?
00:31:04: Meine Ansicht nach, das habe ich auch versucht irgendwie so ein bisschen darzustellen... Es gibt gerade bei diesen großen Online-Plattformen gibt es die Definition der systemischen Risiken.
00:31:15: Die sind dann gegeben bei den Plattformen zum Beispiel Instagram, TikTok und so weiter Wenn die Algorithmen Also wenn die Algorithmen schädlich sind, das was Hartmut am Anfang gesagt hat.
00:31:28: Wir halten sie alle, glaube ich sind wir alle drei in so einer Meinung dass es ein Problem ist gerade weil Slop ebenso im Vordergrund gespült wird, weil die Algoritme so funktionieren dass das befördert wird.
00:31:38: und dann haben wir ein systemisches Risiko.
00:31:40: dann wenn der Slop echte Informationen verdrängt die für eine Demokratie essenziell sind also die Bürgerinnen und Bürger in der EU nicht mehr unterscheiden können, was ist Information?
00:31:56: Was ist Müll.
00:31:57: Und in die Phase treten wir, denke ich gerade.
00:31:59: Ja.
00:32:00: Und dann haben wir ein systemisches Risiko, das auch so definiert wäre im Digital Services Act – und dann müsste die EU-Kommission eigentlich aktiv werden.
00:32:08: Als Folge könnte es geben natürlich erst mal Busgelder klar, aber das dauert alles wieder ewig, aber die können auch... Achso vielleicht noch das ganz kurz….
00:32:17: Die Plattform müssen wenn sie so ein System, die müssen selber sich auditieren und müssen selber einmal im Jahr sagen haben wir dieses systemische Risiko oder nicht.
00:32:25: Bis jetzt meines Wissens ist... AI-Slop in noch keiner Plattform, die müssen in diesen Risikoberichten noch nie aufgetaucht als systemisches Risiko.
00:32:33: Meiner Ansicht nach ist es eins und da müsste die Kommission auch hinterher sein.
00:32:36: Und dann müssten sie nach Artikel thirty-five die ISA Abhilfe verlangen.
00:32:40: Da gibt es elf Maßnahmenvorschläge und da kommen wir genau in den Bereich.
00:32:44: vor allem Die Algorithmen müssen so angepasst werden dass der Slop unterdrückt wird und nicht hochgespült wird.
00:32:49: das wäre eine Maßnahme.
00:32:53: Es gibt noch einige andere Maßnahmen, aber im Wesentlichen geht es um die ganzen Automatisierungsmechanismen auf dem Plattform und auch auf die Meldesysteme.
00:33:00: Die Meldung von SLOP muss sehr einfach sein und übrigens nicht nur weil das immer gesagt wird, ... ist ja in Kraft getreten.
00:33:08: Ab August, sechsundzwanzig gibt es eine Kennzeichnungspflicht für die Anbieter von KI-Systeme... ... also zum Beispiel Open AI müsste dafür sorgen dass in jedem Bild ein Wasserzeichen ist oder irgendwie sichtbar kann.
00:33:24: auch nur Maschinen lesbar sein.
00:33:26: Die Plattform müssen sie auslesen und zeigen!
00:33:28: Das sind dann nicht die Anbieter, sondern die Nutzer der KI.
00:33:33: Das ist kompliziert.
00:33:34: da gibt es einen Anbieder und Nutzerbegriff.
00:33:36: aber worauf ich noch raus wollte in DSA gibt's auch eine Kennzeichnungpflicht.
00:33:39: die ist viel relevanter.
00:33:40: das ist nämlich einer von diesen Maßnahmen die ich gerade genannt habe nach Artikel thirty-fünf.
00:33:44: wenn da synthetische aber täuschend echt Wirkende Inhalt den großen Stil veröffentlicht werden, steht da ausdrücklich drin.
00:33:50: Müssen die gekennzeichnet werden und das passiert halt im Moment überhaupt noch nicht.
00:33:55: Das führt ja dann wirklich auch zu krassen Kollateralschäden.
00:33:57: Ich weiß gar nicht ob ich es jetzt bei dir oder bei Tom und Mattike gelesen habe als die USA neulich in Venezuela zu Besuch gewesen sind?
00:34:05: Das
00:34:05: war ich nicht.
00:34:07: Sind haben seit wirklich KI generierte Fotos von der Verhaftung in wirklich sehr seriöse Nachrichtenbeiträge geschafft.
00:34:19: Ich
00:34:19: weiß gar nicht, wer von den beiden das geschrieben hatte?
00:34:24: Den Punkt hatte, glaube ich, jo irgendwie geschrieben.
00:34:27: Jo noch betätigen wir heute
00:34:29: die Auswirkungen auf die Medienwelt.
00:34:31: aber was sich kurz nochmal sagen wollte zu dem was was Holger gesagt hat Die regulierer sind ja immer nachgeschaltet das heißt sie können immer nur nachträglich
00:34:40: versuchen
00:34:41: zu reagieren und sobald dann eine form von kislop Demunitarisiert wird oder ganz von den plattformen verschwindet wird sich das ganze system natürlich anpassen die nächste Scheiße irgendwie vor die Füße kippen.
00:34:57: Und der Haupthebel ist eben halt das Geschäftsmodell dieser Plattform, wenn wir das nicht ändern dann wird das immer weitergehen und die Alternative habe ich auch im Artikel geschrieben werden so Form wie zum Beispiel die Wikipedia.
00:35:11: in der Wikipedia werden Artikel beschrieben, die werden aber nicht von Klickzahlen hoch bewertet sondern geht es Einfach nur auf die Inhalte.
00:35:19: Die haben aber ein ganz anderes Geschäftsmodell, das ist eine Stiftung und es gibt wie gesagt im Kommunikationsbereich bei den Plattformen gibt's viel Divers wo es eben halt auch nicht darum geht dass Beiträge hoch gewoted werden von einem Algorithmus weil sie sich besonders gut klicken.
00:35:34: Das ist der einzige relevante Mechanismus der eben halt das Geschäfts-Modell von YouTube TikTok Meta Unamed ist Und denen müsste man aufbrechen.
00:35:44: Aber dann sind wir bei anderen Kommunikationplattform.
00:35:48: Ja, aber das ist ja.
00:35:49: also da habe ich ja dann immer so ein bisschen die Hoffnung dass der markt das vielleicht doch noch mal regelt weil Ich finde finde gerade aus dem Grund.
00:35:55: Das fädig war es so viel angenehmer Weil da gibt's halt keinen Algorithmus da irgendwas pushen.
00:36:00: wenn da Sachen viral gehen gehen sie viral was wirklich guter Content isst.
00:36:05: Vielleicht darf dafür auch ein aufreger sein von mir aus aber er wird dann oft geteilt und geht Auf eine natürliche art wiral nicht weil ein algorithmus immer noch nach schiebt.
00:36:15: Es gibt übrigens auf den Meta-Plattformen zum Beispiel sehr versteckt, auch die Einstellungen.
00:36:22: die algorithmische Steuerung des Feeds auszuschalten, dass du ja natürlich das gibt es nur in der EU.
00:36:29: Das schreibt der DSA vor, da musst du nur in drei Unterpunkte gehen.
00:36:34: kannst du irgendwo abstellen.
00:36:35: Das musst du mir zeigen.
00:36:37: Aber könnte man über den Hebel von DSA nicht einfach generell irgendwie sagen ihr müsst damit aufhören mit euren scheiß malungsverstärkenden Algorithmen?
00:36:47: Ja, könnte man machen.
00:36:51: Ja, also der DSA lässt den Plattformen schon Spielraum.
00:36:56: Also es muss ein Schaden nachgewiesen sein wenn sich irgendwas ändert und wir sehen das halt jetzt.
00:37:03: wie Hartmut gesagt hat die Kommission kann nur reagieren sie kann nicht agieren.
00:37:10: Die muss einen Schaden feststellen und allein diesen schadenfestzustellen.
00:37:13: Es hat ja auch schon funktioniert.
00:37:15: zum Beispiel ... ein Schaden ist erzeugt worden, als X irgendwie diesen blauen Haken die Strategie da geändert hat.
00:37:23: Und den anstatt dass es eine Authentifizierung ist, das ist nur noch ne Bezahlung.
00:37:26: und die Leute haben immer geglaubt... Da sind authentifizierte Accounts unterwegs.
00:37:30: dabei waren's nur bezahlte Account die gar nicht authentifiziert waren.
00:37:33: Das hat die EU unterbunden, hundertzwanzig Millionen Euro Bußgeld.
00:37:38: Hat ja die Trump-Regierung wahnsinnig aufgeregt, weil die Vance auch die Parikane am besten die ganze EU abschaffen.
00:37:43: daraufhin so ungefähr Ja, genau das Gleiche passiert jetzt gerade mit TikTok.
00:37:48: Da wird es für meine Vermutung nach wesentlich höherer Strafe geben aber wahrscheinlich erst in einem Jahr bis achtzehn Monaten oder so und eine Untersuchung zu AIS-Lob überhaupt erstmal anläuft?
00:38:01: und der Schaden festgestellt wird.
00:38:02: Wird das schon über ein Jahr dauern?
00:38:04: Und bis dann, bis die einigermaßen rechtssicheren Verfahren abgestoßen haben mit Gegenanhörung... ...und eventuell auch noch Rechtsmittel einlegen?
00:38:11: der Plattform kannst du drei Jahre rechnen.
00:38:13: Ja,
00:38:13: und überleg mal wie viel Geld im Spiel ist.
00:38:16: Wenn mir jetzt TikTok oder X gehören würde!
00:38:19: Dann würde ich sagen,
00:38:21: okay.
00:38:21: In diesen drei Jahren kann nicht mit dem Schrott so viel Geld verdienen.
00:38:25: Du wirst ja auch gerechnet?
00:38:26: Also bei Meta ist es eine interne Geschäftsberichte aufgetaucht wo genau das klar ist.
00:38:31: Genau so rechnen die.
00:38:33: Da wurde ja genau eine Balance errechnet, ab wann lohnt sich's ... Monitär gegen Scam, gegen Betrubswerbung vorzugehen.
00:38:46: Gegen Werbung zum Beispiel die Leute mit Glücksspiel ins Unglück stürzt Stand drin.
00:38:52: Wir verdienen mehr Geld Mit dieser Glückspielwerbung als dass es uns Strafe kosten würde wenn es entdeckt wird.
00:38:57: Also lassen wir's also kontrollieren wir nicht so genau.
00:39:00: Mensch richtig sympathische Firmen alles.
00:39:03: Du hattest vorhin gesagt A-Eislob ist per se erstmal erst mal nicht strafbar Bisher juristisch ein bisschen bewandert.
00:39:14: Die große Diskussion war jetzt nun grock mit seinen Fakebildern.
00:39:19: Ich hätte jetzt ja von dir ein Foto hochladen können und hätte sagen Holger,
00:39:23: das ist die
00:39:23: starfe Stück.
00:39:24: zeigt mir dem bei im Bikini.
00:39:27: Du hast doch einen Recht an deinem eigenen Bild irgendwie.
00:39:32: also
00:39:33: das kann doch nicht sein.
00:39:34: Wir reden wir haben jetzt von den Plattformen gesprochen aber natürlich gibt es noch die Individuelle eben Zivir ins Strafrecht.
00:39:40: Das ist dann wieder nationale Gesetzgebung.
00:39:43: zum Beispiel in den Fällen von Krog Da hatte ich auch mal auf einer auswähllichen Analyse geschrieben, wird es in größten Fällen so sein.
00:39:50: Gerade wenn's um die Nähere geht aber auch... ... nicht ominärige ist meistens auch schon strafrechtig relevant.
00:39:56: Und das geht natürlich auch, da gibt es meistens eine Schadensersatzpflicht... ... weil es geht ja um die Verletzung von Persönlichkeitsrechten und der Umstände noch von Urheberrechten... ...recht am eigenen Bild.
00:40:06: Gerade im Bereich EISLOB kommt auch noch das Wettbewerbsrecht infrage.
00:40:10: also wenn zum Beispiel Markennamen von anderen benutzt werden... ...und das passiert oft genug bei EISLOP dass man dann aus Wettbetwerbs recht raus national gegen ... gegen den Slopper vorgehen kann, wenn man ihm hartpaft wird.
00:40:21: Das ist natürlich immer ein bisschen das Problem in dem Fall.
00:40:24: Aber klar nur... ... mir ist jetzt im Moment ehrlich gesagt in Deutschland kein Fall bekannt wo irgendjemand der durch die Bilder betroffen war?
00:40:34: Die Grog-Bilder, die Bikini-Bilde schon zivilrechtlich ging.
00:40:39: X vorgegangen ist.
00:40:40: Also erst mal musst du da finanziellen Vorleistungen gehen, du kannst das nicht selber machen, du musst den allerregenden Anwalt nehmen weil es natürlich schon sehr komplizierte Rechtsmaterie ist und den Schaden eindeutig nachzuweisen, weil du willst dann eben einen Schadensersatz der ist da nicht so hoch.
00:40:53: meistens machst du damit zum Verfahren wenn du über alles gehst noch Miese und dann ist halt die Frage ob du diesen Stress auf dich nehmen willst gerade als Opfer sexualisierter Gewalt wo die Hemmschwelle glaube ich nochmal ein dicken größer ist.
00:41:05: also sonst.
00:41:06: und dann legst du dich ja auch mit dem großen ... internationalen Konzern an, der dann irgendwie seine fünf Anwälte gegen dich hetzt.
00:41:15: Also es gibt solche Einzelfälle aber du musst dann halt irgendwie da gegen die Plattform vorgehen oder... ...gegen denjenigen, der die Bilder verursacht hat.
00:41:23: Aber ich würde auch diese Fälle bei Grog nicht als Lob bezeichnen.
00:41:30: Das sind die Fakefälle, die jenseits von Slops sind.
00:41:32: Die sind wirklich auf ganz vielen Ebenen rechtlich relevant.
00:41:37: Um das nochmal zu aufzugreifen, was Holger gerade sagte.
00:41:40: Bei KI Slap ist es ja auch... Gerade beim Brise- und Übrungsslopp, den wir vorhin schon angesprochen haben.
00:41:44: Es ist ja auch ganz oft so, dass die Leute, die damit wirklich viel Geld verdienen ... ... bügeln das so glatt, dass es eigentlich gar nicht angreifbar ist.
00:41:50: Also, wir reden dann von irgendwelchen animierten Tierchen, die über den Strand laufen oder sowas.
00:41:54: also da hast du keine Persönlichkeitsrechte, die verletzt werden.
00:41:58: Da hast du auch keine Markennamen drin... ...die im Zweifel irgendwo irgendwas auslösen können.
00:42:04: Das
00:42:04: soll halt einfach wirklich nur mitlaufen!
00:42:08: Es ist halt gerade so interessant, dass sich da, sag ich mal ... kleines Kind vor allem.
00:42:14: Gerade Kinder sind daher sehr empfänglich für.
00:42:16: Aber auch Teenager und teilweise Erwachsener einfach grade so viel unterhalten lassen, dass sie es konsumieren.
00:42:23: Darüber hinaus passiert aber nicht viel.
00:42:26: Da ist kein Narrativ drin oft.
00:42:28: Da wird keine Geschichte erzählt, was ja wirklich guten Qualitätskontent ausmacht.
00:42:33: Fehlt der halt komplett?
00:42:34: Das sagte Hartmut ja schon.
00:42:37: Es soll wirklich einfach nur mitlaufen und dann kommt man halt in dieses Doom-Scrolling, was wir ja alle kennen.
00:42:43: Und so wird mehr davon konsumiert!
00:42:45: Sehr guter Punkt, das ist nämlich genau das.
00:42:47: Nicht auffallen mit dem Content und durch Rechtsverletzungen würdest du dann auffallnen?
00:42:51: Würdest du vielleicht auch in den Fokus von Plattformen geraten?
00:42:53: willst du ja eben nicht.
00:42:54: Du bist da dir ein gutes Geld damit verdienen.
00:42:56: Das ist quasi so dass digitale Mikroplastik was unsere Kanäle irgendwie vergiftet.
00:43:01: und du sagtest am Anfang das ist ja nicht so schlimm wie der Rage Slop.
00:43:04: ich halte ihn fast für noch gefährlicher weil er nämlich Redaktionen und andere Akteure unter Druck setzt.
00:43:10: die müssen dann plötzlich mit den Skalierung- und Klickzahlen mithalten und da wird ein ökonomischer Druck zwangsläufig aufgebaut, ja?
00:43:19: Da können sich die Verlage und so weiter rumdrehen.
00:43:21: Und wenn wie sie wollen.
00:43:22: aber Sie müssen damit ökonomisch... Konkurrieren und deswegen müssen dann auch Inhalte von Menschen zugespitzt werden.
00:43:31: Ein bisschen glatt gespült werden, dass sie auch nicht so viel adägen, nicht soviel aufregen ja weil bei Aufregung da könnte man irgendwie dann auch abschalten oder ein bisschen verdutzt sein.
00:43:41: es wird alles immer glatter und das sehen wir zum Beispiel auch auf den weiß ich nicht streaming Filmplattformen wenn man sich mal die ganzen Serien und Filme die jetzt für Amazon Netflix und so weiter produziert werden Das ist alles auf Abschaltfestigkeit optimiert und nicht mehr eine besonders spannende und intellektuell herausfordernde Story irgendwie so produzieren.
00:44:01: Das ist alles immer gleich für Omega.
00:44:03: Ja, es ist so streamlined.
00:44:05: also das Paradebeispiel, das Ringe der Macht da auf Amazon... Und das
00:44:08: ist eine Folge der Konkurrenz mit diesem Slop?
00:44:13: Ihr weitest zusammensetzt, dass es irgendwann zu einer generellen Medienkritik kommt oder was?
00:44:17: Natürlich habe gewartet schon natürlich!
00:44:20: Es ist doch aber wirklich so, vor allen Dingen Was haben wir gesagt?
00:44:28: Wir sind ja auf mehreren Ebenen persönlich betroffen.
00:44:32: Deswegen fällt es mir dann auch schwer, das so völlig unpersönlich zu diskutieren irgendwie.
00:44:35: Ich meine, wir setzen hier in der Redaktion... Das haben wir ja auch im Artikel-Ich weiß nicht, hättest du das geschrieben oder war das jo?
00:44:41: Wir setzen selber auch KI ein in der redaktion.
00:44:44: Es ist ja auch nicht alles schlecht!
00:44:46: Aber wir kennen Zeichen in Zeit und wir haben halt auch einen Gespür für die Gefahren was andere nicht haben.
00:44:53: Auch wenn es jetzt kein Slop ist, sondern auch mehr wieder in die Richtung Deep Fake geht.
00:44:56: Wir haben
00:45:00: vorgespricht über den Diebfeld gesprochen, den man jetzt vor ein paar Wochen in der Pressemitteilung von einer Polizei finden kann.
00:45:09: Also
00:45:10: wir setzen KI ein um die Qualität der Beiträge zu erhöhen und Fehler auszubügeln um noch einen größeren Blick zu haben.
00:45:17: das ist ein ganz anderer Ansatz als Lob der KI einsetzt um einfach die Aufmerksamkeit zu maximieren.
00:45:23: ja das ist genau der Unterschied.
00:45:25: Das ist aber halt wirklich ein Riesenproblem, weil das hat ja vorher schon gestanden.
00:45:29: Also der ganze Medienwand über den wir natürlich auch Haus intern viel diskutieren, den aber auch jeder selber merkt wenn er mal versucht irgendwie in einer Tankstelle oder am Kiosk noch irgendwie eine Zeitschrift zu kaufen was halt nicht irgendwie so ein goldenes Königshausblatt ist, was meine Oma liest Da gibt's ja nicht mehr viel und das liegt halt einfach daran, dass es mittlerweile ein Aufmerksamkeitsökonomisches Problem ist.
00:45:50: Also die Leute kaufen keine Zeit um mehrweise den Content im Internet umsonst kriegen sondern sie machen es nicht mehr weil wenn du auf einer Straßenbahn wartest oder auf Toilette sitzt Hast du die Möglichkeit, TikTok Doom Scrolling zu machen, Spotify zu hören, Netflix zu gucken?
00:46:08: Also der Tag hat ja nur vierundzwanzig Stunden und davon kann ich höchstens acht irgendwas konsumieren.
00:46:15: Und dann habe ich halt zumindest den Anspruch dass das was ich gucke... Soll dann auch ein bisschen Schöpfungshöhe wenigstens haben.
00:46:23: Also würde ich mir wünschen,
00:46:26: jeder hat seine eigene Timeline.
00:46:27: das ist ja auch das Problem.
00:46:28: wir können alle über unsere Timelines reden.
00:46:30: also mir fällt in meiner timeline zum Beispiel auf insta.
00:46:33: in der letzten Zeit nervt es mich so massiv dass sich keine Ahnung wenn irgendwelche promifotos siehst zum beispiel du weißt nicht mehr ist es jetzt echt oder ist es kaineriert ... egal bei welchem Content.
00:46:44: Ich habe immer das Gefühl, ich kriege jetzt gerade irgendwas untergejubelt.
00:46:47: Mehr geht es auch schon so.
00:46:48: Also auch wenn's echte Fotos sind... Man weiß es einfach nicht mehr.
00:46:53: Es werden völlig unverhältnismäßige Aufwand, dass wir jedem einzelnen Bild dann noch abzuprüfen irgendwie ob das jetzt echt ist oder nicht?
00:46:59: Ich sehe es bei ein paar Wissenschaftskanälen die ich auf YouTube verfolge wo jetzt da auch Content reinkommt wo irgendein KI generierter Professor der so ein bisschen aussieht wie Albert Einstein eine Stunde über das Universum die Zeit oder sonst was diskutiert und immer den gleichen Sermo wiederholt aber keine wissenschaftliche Basis.
00:47:16: dahinter ist also auch solche langen qualitativ hochwertigen Formate werden inzwischen da geklappert.
00:47:22: Das stand auch in der Strecke mit drin, da war ich noch so ein bisschen schockiert.
00:47:26: das ist gerade bei diesem Wissenschafts.
00:47:28: also es wirkt ja wirklich wie so ein Video-Podcast der mir jetzt irgendwas erklären soll und dass es dann teilweise aber auch noch falsch ist weil KI ja nun ständig sich irgendeinen Raum zusammenhaltsiniert.
00:47:39: Ja also es geht vor allem hier umso... Stundlange Videos, die da teilweise einfach Themen aufgreifen.
00:47:46: Ich hab letztens jetzt nochmal geguckt bevor wir den Artikel veröffentlicht haben.
00:47:49: Da war glaube ich ein Thema.
00:47:50: dann gab es eine Stunde zu Kaffee?
00:47:53: Einfach Fakten zum Kaffees und das hören sich die Leute anscheinend mal zum Schlafen an.
00:47:58: also die legen sich dann ins Bett... Das ist auf YouTube!
00:48:02: Also das ist zwar ein Video aber da ist halt so leicht animiertes Bild drin ähnlich wie ein GIF und dann läuft da halt ne Stunde irgendwelche Fakte zur Kaffe.
00:48:11: Aber ob das alles korrekt ist und die Zusammenhänge dazwischen.
00:48:15: Und Kaffee ist ja jetzt noch mal vielleicht ... für den ein oder anderen nicht, aber eigentlich eine Sache, die es nicht so tragisch, wenn da jetzt mal was Falsches drin ist?
00:48:22: Aber da sind dann auch zu Geschichte der Menschheit oder verschiedenen wissenschaftlichen Themen zum ... na?
00:48:33: Psychologische
00:48:34: Artgeber
00:48:34: ganz viel.
00:48:35: Auch das!
00:48:37: Da kommt dann teilweise bei der Karriere einfach ... diese Halluzinationen bei raus, wo sich die KI dann irgendwelche Zusammenhänge zusammenspinden.
00:48:43: Die halt überhaupt nicht stimmen so und das kann man ja auch rein an der Menge gar nicht prüfen.
00:48:50: also du kannst ja jetzt nicht jemandem hinsetzen, der sich am Tag wirklich sieben Stunden diese Videos anhört und einfach guckt ob die Fakten alle richtig sind.
00:48:58: und eine Sache noch dazu...die produzieren es in einer Menge!
00:49:01: Also da kommt jeden Tag bis jeden zweiten Tag kommt ein Video das ist irgendwie zwischen ein und drei Stunden lang und da gibt's einige Kanäle von.
00:49:08: Also da muss man alleine schon stutzig werden, dass das nicht funktioniert.
00:49:12: Die haben keine fünfzehn Leute, da sitzen die solche Sachen ausarbeiten und dann hört man es auch noch an der Stimme und teilweise, dass sie Sachen wiederholen.
00:49:18: aber...
00:49:20: Das ist ein guter Hinweis darauf.
00:49:22: also einfach mal auf die Kanal Info gucken Einmal am Tag da ein drei Stunden Video raushauen und immer der gleiche Typ, das irgendwie ist.
00:49:29: Das kann nur KI generiert sein ne?
00:49:31: Es gibt dann kleine Hinweise von YouTube steht dann irgendwie synthetisch generierte Inhalte oder veränderte Inhalter.
00:49:38: also es wird noch gar nicht mal so als KI-Slop benannt.
00:49:42: aber einfach auf die Frequenz der Kanäle dann gucken, da wird's dann ziemlich offensichtlich was echtes und was nicht?
00:49:48: Ja
00:49:48: und bei YouTube ist natürlich auffällig die Schaltenwerbung davor und dahinter.
00:49:53: Das Problem gibt es ja letztlich dann sogar auf beiden Seiten.
00:49:56: Klar kannst du mit KI haben und hat ja vorhin gesagt, dass das super skaliert irgendwie auch für die Content Producer natürlich.
00:50:03: so viel kann man gar nicht raushauen.
00:50:05: deswegen letzte Frage ziemlich offen Wenn sich jetzt jeder hinstellt und jeden Tag irgendwie zwanzig Stunden eislobbt da irgendwie raus, glaubt ihr das wir vielleicht zu langsam dann auch schon so ein bisschen an einem Scheitelpunkten sind?
00:50:18: Weil irgendwann muss es ja auch noch konsumieren.
00:50:20: Also wenn die Klickzahlen irgendwann nicht mehr stimmen weil sie jeden Tag zehn Milliarden neue Videos gibt Dann gehen ja irgendwann wenn sich die klickzeilen verteilen die erlöse runter.
00:50:32: Glaubt ihr, dass es vielleicht dadurch alleine schon so ein bisschen vorbei ist?
00:50:36: oder hoffen wir wirklich auf DSR und Kennzeichnungspflicht?
00:50:39: Also momentan skaliert das ja weiter.
00:50:42: Und dann gibt's irgendwelche Bots die dann die Klickzahlen hochtreiben.
00:50:47: Ja wenn Geld alles ist wird neues gedruckt.
00:50:51: also Das wird noch ganz schön lange weiter so laufen ist meine Prognose.
00:50:58: Okay das Internet ist nicht mehr so schön wie es mal war.
00:51:03: Nee, es
00:51:05: wird auch viel romantisiert.
00:51:06: sagen wir's mal so.
00:51:07: Aber sagen wir mal... Es ist eine neue Eskalationsstufe in der breiten Problematik mit sozialen Medien und wie sie funktionieren.
00:51:17: also das ist eines von vielen Problemen die wir damit haben und für mich auch gesellschaftlich Sehr sehr problematisch.
00:51:26: Also ich glaube da tatsächlich noch so ein bisschen in das gute Menschen irgendwie, wenn nicht mehr... also es wird natürlich immer wieder irgendwas Neues kommen und da kann natürlich auch wieder viel schundbar sein.
00:51:33: aber wenn ihr die halt wirklich mal anguckt wie Facebook hat Federn lassen müssen und es gab ja auch vor Facebook gab's dann nun wirklich riesige soziale Netzwerke die dann irgendwann auch wieder einer Bedeutungslosigkeit verschwunden sind weil in irgendeiner Form nicht zeitgemäß gewesen ist und ich könnte mir vorstellen Dass es uns so eventuell auch mit einigen Plattformen geht, die uns jetzt noch tierisch nerven.
00:51:59: Also ich komme dann wieder.
00:52:00: alte Kulturtechnik werden genannt.
00:52:02: Wir waren vorgestern im Theater, die Vorstellung war irgendwie ausverkauft.
00:52:07: Die Leute gucken sich nicht mehr Netflix an sondern gehen ins Theater lesenden Buch Kaufen sich eine Schallplatte?
00:52:14: Ja, also das kommt immer mehr.
00:52:16: Aber das wird immer... Das werden Nischen und Randbereiche eben halt sein.
00:52:20: Weiß ich nicht!
00:52:21: Ich habe unlängst gerade alle meine CDs noch mal aus dem Keller geholt und rippe sie ein letztes Mal weil man jetzt genug Speicherheit hat um sie als Flagg zu speichern.
00:52:28: Und da halt ich da fünfzehn Jahre alte MP-Dreis habe.
00:52:33: Ich könnte mir schon vorstellen dass Leute irgendwann wieder Qualität auch zu schätzen wissen.
00:52:39: Aber also der KI-Slop wird jetzt nicht in absehbarer Zeit verschwinden.
00:52:43: Das ist unrealistisch, weil es halt einfach so günstig ist das Ganze zu produzieren.
00:52:47: und was du eben auch sagtest... ...also vielleicht ist irgendwann zu viel?
00:52:49: da glaube ich nicht, weil also ob du jetzt ein oder siebzehn Clips erstellst kostet sich halt kaum Geld.. ..und wenn einer davon genug konsumiert wird reicht es halt auch aus, dann produzierst du halt dreißig oder wie auch immer?
00:53:04: Ich
00:53:05: glaube, wir unterschätzen so ein bisschen den Hebel die wir tatsächlich haben.
00:53:08: Also wir waren jetzt an dem Punkt irgendwie regulieren es schwierig weil die Regulierer hinterherhängen, weil sich die Plattform mit Händen und Füßen wehren, weil das ewig lange dauert.
00:53:20: Ich glaube Einmittel.
00:53:21: was wir aber noch haben ist klickt den Kack einfach nicht an und manche Probleme erledigen sich dann auch wenn's nicht mehr nachgefragt wird.
00:53:29: von selbst
00:53:31: Ich sehe jetzt keine großen Nachfrage.
00:53:35: ... Abspungen bei sozialen Medien, ehrlich gesagt.
00:53:38: Moment
00:53:38: Holger!
00:53:38: Du machst alles kaputt?
00:53:39: Ich
00:53:40: war so positiv aus dieser
00:53:41: Geschichte rauszukriegen.
00:53:42: Vielleicht noch
00:53:43: ganz zum Schluss... Was mich wirklich ärgert an der Sache ist die Plattform hätten es in der Hand.
00:53:46: Sie hätten's wirklich in der hand.
00:53:48: Also sie haben kein Interesse aber sie hätten das in derhand im Gegenteil.
00:53:53: Also Leute wie Almasari von Meta hat ja neuestem großes KI-Manifest gesagt wo er hat gesagt wir müssen in Zukunft mehr aufpassen und es wird halt mehr KI geben.
00:54:01: ich meine ihr nutzt dann sogar selbst KI-Tools in die Hand womit sie noch mehr Slop generieren kann.
00:54:06: Lama und Kohlen.
00:54:07: Nicht nur Lama, sondern die haben ja auch online wirklich direkt zu den Postingsbildgeneratoren, wo du dann der Ja-Klar was raushauen kannst.
00:54:13: Und so gut Meta ist da vorne mit dabei.
00:54:15: aber ich meine die anderen tun auch.
00:54:17: Wir hatten jetzt gerade das ganze Beispiel mit dem Videos, mit YouTube.
00:54:20: YouTube hat im Juli vierundzwanzig seine Monetarisierungsrichtlinien aktualisiert in Richtung AI Slop und sagt dann halt Synthetik Repetitive Content wird abgestraft mit die Monetarisierung ... konsequent wäre jetzt, wenn man sagen würde wir machen zumindest mal an Transpromen in der Stelle großen Meldeparten.
00:54:40: Wenn jemand diesen Synthetik repetitive Content erkennt... ... dass man überhaupt erst mal darauf aufmerksam wird oder man geht eben selber auf die Suche aber nichts davon passiert im großen Stil.
00:54:49: Das läuft ja einfach weiter durch.
00:54:51: also wenn man so was schon sagt dann muss man es auch machen.
00:54:54: Aber ich sehe keine Bemühungen da.
00:54:57: Da
00:54:58: geht's nur um das Image?
00:54:59: Ja ich weiß schon.
00:55:03: Ich bin selber manchmal erstaunt, was für Sachen ich mittlerweile sage.
00:55:06: Aber ich sehe es wirklich wie Harpenhut.
00:55:09: Ich finde dass solche Plattformen wirklich viel stärker an die Kandale genommen und reguliert werden müssen.
00:55:15: Anders scheint es vielleicht nicht zu gehen.
00:55:17: wenn du diesen
00:55:18: Moment machen musst ja verabschuldet.
00:55:20: Achso naja genau!
00:55:21: Also ich werde jetzt noch für den nächsten harmlosere Maßnahme stärker regulieren.
00:55:27: Wenn
00:55:27: man so einen Stufen macht zuerst mal runterfahren und dann abschalten?
00:55:31: Das Geschäftsmodell muss geändert werden.
00:55:32: Wir brauchen eine andere Erwartung auch an Wachstum, ja?
00:55:35: Also...
00:55:37: Ja ich glaube schon dass du diesen Aufmerksamkeit und vor allen Dingen Empörungskomenzialismus einfach so nicht durchlaufen lassen kannst.
00:55:46: Das führt finde ich jedenfalls nicht mehr irgendwie zu einer positiven Social Media Erfahrung sowie die Plattformen bezeichnen würden.
00:55:54: Ich
00:55:55: würde da noch einen Schritt weiter gehen.
00:55:58: grob problematischen gesellschaftlichen.
00:56:03: Also ich glaube ehrlich gesagt, das war vorher auch schon.
00:56:06: Dieses Filter-Wabbel-Problem hat den ganzen Rechtsruck, den wir weltweit sehen und diese Lagerbildung ist maßgeblich begrünzt.
00:56:15: Ich würde vielleicht sogar sagen... Und ich glaube dass KI da jetzt sogar noch als Katalysator so ein bisschen noch mit reinkickt irgendwie am Ende des Tages, aber habe ich ja vorhin schon mal gesagt sind für immer noch alle irgendwie denkende Wesen und da baue ich einfach mal drauf!
00:56:33: Alles wird gut, würde Ingwitzen Peroni jetzt sagen.
00:56:35: Oder bleiben Sie still!
00:56:37: Ich
00:56:38: fand es schön, dass ihr da gewesen seid auf jeden Fall.
00:56:41: Das ist ein super Thema.
00:56:42: wir wollten es eigentlich kurz halten sind ein bisschen ins Blaudeing gekommen aber es ist halt auch spannend.
00:56:47: man könnte da ewig drüber reden insbesondere weil es so neue Probleme mitbringt für dies vielleicht auch heute noch keine Lösungen gibt können uns ja irgendwie in dem Jahr nochmal hier treffen.
00:56:56: Danke dass ihr da wart und vielen Dank, dass ihr zugeschaut habt.
00:57:00: Und der übliche Aufruf wenn ihr Lust habt schreibt wirklich gerne mal in die Kommentare wie sehr euch das Thema KI stört oder ob es euch vielleicht auch gar nicht stört?
00:57:10: Ob sich euer Medienkonsum deswegen schon geändert hat würde uns wirklich interessieren danke.
Neuer Kommentar