Wie uns das Smartphone in den Bann zieht | c’t uplink
Shownotes
Nur noch ein Video, nur noch ein Post – und schon ist eine Stunde vergangen. Social-Media-Plattformen, Online-Shops und Spiele wollen uns möglichst lange am Bildschirm halten. Über die Suchtfalle Smartphone dreht sich diese Folge von c't uplink. Mit welchen Tricks die Anbieter die Aufmerksamkeit der Nutzerinnen und Nutzer einfangen – und was man dagegen tun kann, darüber diskutieren die c’t Redakteure Andrea Trinkwalder, Jo Bager und Holger Bleich mit Moderator Keywan Tonekaboni.
Holger Bleich erklärt, ab wann die Wissenschaft von problematischer Nutzung spricht und warum Jugendliche besonders anfällig sind. Andrea Trinkwalder hat sich den Empfehlungsalgorithmus von TikTok genauer angesehen: Warum spielt die App in Echtzeit so treffsicher Videos aus? Und welche Rolle spielt neben der Belohnung auch gezieltes Enttäuschen der Erwartung? Die sogenannten Dark Patterns – jene Designtricks in Shops, Spielen und Apps, die uns zum Kauf drängen oder im Abo-Hamsterrad halten – nimmt Jo Bager auseinander.
Die Runde diskutiert außerdem, was die EU mit dem Digital Services Act erreichen kann, warum die Verfahren so quälend lange dauern und ob ein Social-Media-Verbot für Jugendliche tatsächlich die Lösung ist. Aber die Vier aus der c’t Redaktion geben auch praktische Tipps, wie man die Tricks und Fallen umschifft oder abmildert.
Hinweis: Dieser Podcast wird von einem Sponsor unterstützt. Alle Infos zu unseren Werbepartnern findet ihr hier. heise Podcasts | Wonderlink
Transkript anzeigen
00:00:00: Heute in CTAplink, Suchtfalle Smartphone.
00:00:03: Welche Mechanismen uns an den Bildschirm fesseln und was wir dagegen machen können?
00:00:11: Hallo!
00:00:12: Mein Name ist Kivan Tunkarboni und ich bin Redakteur bei der CT und begrüße euch zu einer neuen Folge von CTApplink.
00:00:19: Das Problem ist schon länger bekannt.
00:00:20: Social Media Plattform wollen uns möglichst lange auf ihren Seiten halten.
00:00:24: nur noch ein Video Nur noch ein Post.
00:00:27: Je mehr Zeit wir dort verbringen, umso mehr Werbung können wir konsumieren.
00:00:31: Auch Online-Shops und Spiele versuchen uns psychologisch auszutricksen Und die Politik Die will Kids Social Media gänzlich verbieten.
00:00:40: Wie diese Mechanismen funktionieren Was man dagegen machen kann.
00:00:43: Dabei spreche ich heute mit meinen KollegInnen Aus der CT Redaktion.
00:00:47: Bei mir hier im Studio sind Andrea Trinkwalder Jo Bager und Holger Bleich.
00:00:53: Schön dass ihr da seid
00:00:54: Hallo.
00:00:55: Und freut mich nicht besonders, dass Andrea es aus dem Weiten Bayern zu uns geschafft hat!
00:01:01: Zu meiner ersten Frage – was sind die Auswirkungen von Smartphone-Sort oder obermäßigen Medienkonsum?
00:01:09: Also wie macht sich das fest, Holger Flügel?
00:01:12: Das ist tatsächlich immer noch schwer zu sagen, ne?
00:01:14: ... in dem Artikel, den ich geschrieben habe auch um wissenschaftliche Kriterien.
00:01:19: In der Wissenschaft ist da noch nicht ganz so weit.
00:01:21: Also es gibt verschiedene Fragebögen die sich solche Suchtfaktoren abfragen als ich meine die subjektive Suchtes klaren.
00:01:28: du hast das Matto in der Hand.
00:01:30: Es fällt dir schwer, es wegzulegen.
00:01:32: Auch wenn du mit anderen Leuten sprichst und du am Abend zum Abendessen Tisch sitzt... ...dass man übrigens auch.
00:01:37: dafür gibt's ein Begriff, das nennt man Fubbing.
00:01:39: Also wenn man ständig auf sein Handy startet, wenn man mit jemand anderem redet und ihm so keine Aufmerksamkeit schenkt oder sieben im Ziet, ne?
00:01:45: Das ist auch eine Art von Suchtverhalten.
00:01:47: aber also es gibt schon mittlerweile, es gibt verschiedene, es gibts ja solche definitorischen Kriterien, solche den ICD was ihr unbedingt kennst, dass es diese von der WHO da stehen quasi alle Krankheiten drin.
00:02:00: Danach, das sind auch diese Codes die man immer auf den Krankenschreibungen erhält wo dann die Krankenkasse weiß was man hat.
00:02:09: und Da gibt, in dem alten Katalog ist sowas überhaupt noch nicht definiert.
00:02:13: Im neuen ist es schon definierter als heißt das allerdings Mediensucht allgemein.
00:02:16: da kommen wir schon eher zu den ganzen Themen aus Smartphone-Sucht.
00:02:19: Es ist nicht auf Social Media beschränkt sondern geht auch zum Beispiel um Streaming und Netflix-Binchen oder so was.
00:02:25: Das ist da mit umfasst und übrigens auch Paune und Glücksspielsucht.
00:02:29: Das fällt ja alles mit rein.
00:02:30: Allerdings ist das auch noch nicht abgezeichnet also gilt noch nicht.
00:02:34: Es is schwer zu sagen... Ich kann dir aber sagen, was da als pathologisches Verhalten gilt und zwar immer über zwölf Monate beobachtet.
00:02:43: Das sind insgesamt neun Getarien.
00:02:44: zum Beispiel ist es halt, dir fällt es immer schwerer das Handy wegzulegen und es geht dir jetzt zunehmend schlechter.
00:02:51: uns gibt ein Gewöhnungseffekt.
00:02:52: Das heißt du guckst eine halbe Stunde TikTok ... zwei Wochen später werden es schon, wird's schon eine Stunde.
00:02:57: Wieder zwei Wochen spätestens eineinhalb Stunden.
00:02:59: Lass uns da gleich noch mal Detailierter aufhauen.
00:03:01: Du hast jetzt schon ganz schön viel ausgesagt... Sorry!
00:03:03: Aber das ist dich heute TikTok gesagt.
00:03:05: Andrea du hast ja diesen TikTok Empfehlungsalgorithmus anguckt,... ...da wollen wir auch gleich detailliert haben.
00:03:11: Aber kannst du vielleicht erstmal so ganz eigentlich sagen... ...TikTok ist ja auch so ganz oft so als negativ Beispiel genannt und besonders in der Kritik was macht?
00:03:18: Was ist das Besondere daran TikTok?
00:03:22: TikTok hat eben dieses... dieses System perfektioniert.
00:03:28: Also immer wieder Inhalte auszuspielen in sehr kurzer Zeit, es sind sehr kurze Clips die sind so üblicherweise fünf bis sieben Sekunden lang.
00:03:37: Es ist ein Endlostream und es ist ein riesiger Pool an Inhalten aus denen sich der Algorithmus auch bedienen kann.
00:03:48: anderen sozialen Medien, wie zum Beispiel Facebook oder Instagram.
00:03:51: Da hat man eben auch noch diese Follower schafft also dieses Followersystem und TikTok hat sich davon eigentlich komplett verabschiedet oder hat damit gar nicht erst angefangen.
00:04:00: deswegen können die eben auch aus so einem potenziellen riesigen Pool.
00:04:05: erstmal alles haben sie zur Verfügung und können da einfach Videos vorschlagen ohne Ende Und daraus auch sehr gut einfach das Verhalten der Nutzer ablesen, was könnte dann als nächstes passen?
00:04:19: und so weiter.
00:04:20: Also dass es viel mehr auf dieses Endlos schauen optimiert als die anderen, die aber auch schon schlimm genug sind.
00:04:31: Es gibt ja nicht nur Social Media Apps und die versuchen uns irgendwie in ihren Bann zu ziehen sondern... auch absetzt davon, dass du dir angeschaut kennst oder ein paar Beispiele nennen?
00:04:42: Also wir reden auf über Spiele zum Beispiel und über Webshops.
00:04:46: Die zwar jetzt nicht so starke Mechanismen haben wie die Social Media Plattform aber dennoch halt sehr mächtige, wirkmächtige Verfahren einsetzen um die Leute z.B.
00:04:56: zum Kauf zu drängeln oder um ihnen im
00:04:59: Kaufsprozess
00:05:00: Dinge unterzuschieben sie unter Druck zusetzt.
00:05:04: Dark Patterns ist halt der Oberbegriff dafür
00:05:08: Und da kommen wir auch gleich Details zurück.
00:05:11: Gehen wir jetzt noch mal zurück zu dieser Frage Smartphone Sucht oder übermäßiger Konsum?
00:05:17: Das schon beschrieben Holger ist, es ist jetzt in den WHO ICD-Kriterien Medien sucht aufgenommen worden.
00:05:28: Was ist denn also?
00:05:29: du hast gesagt Es gibt so neuen Kriterien oder sowas aber vielleicht kannst Du nochmal ein bisschen detaillierter machen.
00:05:33: Du hast gesagt das geht einem schlechter.
00:05:35: man kann nicht damit aufhören.
00:05:36: was gibt's dann noch für Indizien?
00:05:38: Aufmerksamkeitsdefizite.
00:05:39: Also andere Sachen werden uninteressanter, also zum Beispiel ein Kriterium ist auch bin ich früher gerne rausgegangen oder früher gerne zum Sport gegangen wird das immer für mich uninteressanter und die Priorisierungen verschieben sich im Leben.
00:05:52: Und z.B.
00:05:53: auch geschirrtes Essverhalten gehört dazu, dass auch da z. B. die Priorität der Nahrungsaufnahme singt gegenüber dem Social Media Konsum.
00:06:00: Alles andere im Leben wird immer mehr untergeordnet.
00:06:04: gegen
00:06:05: diese Sucht zum Beispiel Videos zu gucken, aber es geht ja nicht nur darum.
00:06:09: Es geht z.B.
00:06:09: auch im Spiel.
00:06:11: Also in einem Spiel sozusagen geht's nicht auf zu der nächstes Level oder nächste Runde?
00:06:17: Genau in dem Bereich ist das so ein bisschen vergleichbar mit diesen Definitionen von diesen Stoffzüchten sprich Alkohol und Nikotin und vor allem Alkohl.
00:06:24: Bei Alkuhl ist so ein Prozess ja auch beobachtbar Aber da streiten sich halt die Gelehrten noch darüber.
00:06:29: kann man das vergleichen oder nicht?
00:06:31: Wahrscheinlich ist eine Stoffsucht ... ist halt manifester.
00:06:35: Die nennen das Verhaltensucht, keine Stoff sucht sondern Verhaltenzucht.
00:06:40: Und wie wird es wissenschaftlich untersucht?
00:06:45: Es gibt Fragebögen, also danach versuchen sich alle zu richten.
00:06:48: Es gibt zum Beispiel in Deutschland das ist sehr lesenswert kann ich.
00:06:50: nur haben wir auch ein Artikel verlinkt.
00:06:52: kann man aber auch googeln von der DRK zusammen mit dem UKE.
00:06:55: da gibt es einen Suchzentrum als das Universitätsklinikum Eppendorf die ersten diese so langzehnte Schnittstudie gemacht haben.
00:07:02: Das heißt sie verfolgt und beobachten dieses Phänomen schon seit zwei.
00:07:04: tausend.
00:07:05: neunzehn mit jährlichen Fragebögen nutzen da mehrere Fragebürgen die dafür die speziell zum Verhaltensuchtabfrage entwickelt wurden und haben halt auch festgestellt, dass in der Corona-Zeit die Sucht nach deren Kriterien massiv gestiegen ist.
00:07:20: Und die pathologische Social Media Nutzung allerdings auch danach wieder ein bisschen abgenommen hat muss man sagen.
00:07:25: also der Pieck war Zweiundzwanzig.
00:07:28: Das widerspricht halt ein bisschen der subjektiven Wahrnehmung.
00:07:31: im Moment finde ich ja auch in der Politik und in der Debatte die sagen es wird alles immer schlimmer.
00:07:35: Die Wissenschaft kann das so eigentlich nicht bestätigen.
00:07:37: Also es ist im Moment auf einem konstant hohen Niveau.
00:07:42: Aber es war auch schon mal schlimmer, nämlich zur Corona-Zeit.
00:07:44: Als alle dann nur noch zum Handy gegriffen haben weil ab die Sozialkontakte ausgefallen sind, die persönlichen.
00:07:49: Gut das ist ja vielleicht ein bisschen nachvollziehbar.
00:07:51: Man kann ja so dann in Kontakt bleiben oder
00:07:54: man
00:07:54: kann vielleicht auch nicht viele andere Sachen machen.
00:07:56: Genau.
00:07:57: aber du hast gesagt, er hat gerade schon die Politik angeschnitten da geht's ja dann immer... Das Lieblingsargument der Politik ist ja die Kinder.
00:08:05: Aber es stimmt tatsächlich.
00:08:06: also warum sind Vielleicht gerade nicht mal Kinder, sondern Jugendliche besonders stark betroffen.
00:08:11: Da hat sich Andrea ein bisschen mit beschäftigt.
00:08:13: also ich habe das in meinem Artikel mit aufgenommen aber du hast mir das... Du hattest das mal ein bisschen recherchiert wie das warum Kinder und auch Jugendlicher ranwachsende Anfälliger sind für Social Media Süchte?
00:08:26: Ja das ist eigentlich ganz interessant weil das Gehirn ja während der Adoleszenz etwas unterschiedlich reift, also verschiedene Gehirnregionen reifen eben unterschiedlich schnell.
00:08:40: Und bei Jugendlichen ist es eben so dass halt dieses System das sehr auf Belohnung soziale Zugehörigkeit und so weiter anspricht, dass das eben schneller reift während die Impulskontrolle dem gegenüber noch ziemlich unterentwickelt ist.
00:09:04: Das braucht bis Mitte zwanzig, bis es komplett ausgereift ist und bis sich das dann wieder die Waage hält.
00:09:10: Und man hat eben auch herausgefunden dass die Social Media Anbieter Entwicklungsvertögerung dieses Ungleichgewicht auch gezielt ausnutzen, indem sie sehr stark diese auf soziale Zugehörigkeit, dieses Belohnungssystem ansprechen immer.
00:09:30: Likes sammeln irgendwelche... Auf Snapchat werden halt auch...
00:09:39: Dieses
00:09:40: Tweeks gesammelt.
00:09:41: genau Wenn man einfach die Kommunikation am Laufen hält, wenn man vierundzwanzig Stunden lang nicht miteinander kommuniziert hat sind alle weg.
00:09:52: Also das ist schon... ...das hält einen ziemlich auf der Plattform oder das hält vor allem eben die Jugendlichen ziemlich auf den Plattformen und die Kinder.
00:10:02: Im Attacke stand so ein Satz ich weiß nicht von wem von euch da kam mit Jugendliche sind so bisschen wie so ein Auto mit viel PS aber mit schwachen Bremsen ne?
00:10:12: Das heißt man springt halt viel an auf diese... ...Gelohnungssachen, aber hat halt wenig so Impulsekontrolle.
00:10:18: Da kann ich das so... ...weib ich das richtig verstanden?
00:10:22: Der sagt es übrigens von Andrea!
00:10:25: Also wirklich großartig!
00:10:26: Das
00:10:27: ist auch nur ein Zitat aus der Studie eben die dazu gemacht wurde.
00:10:32: ja genau so kann man das eben sehen.
00:10:34: also ich denke mal Es ist jetzt natürlich nicht so, dass das ausschließlich Jugendliche betrifft.
00:10:39: Also auch Erwachsene haben natürlich wahnsinnige Schwierigkeiten ihr Handy zur Seite zu legen und nicht die ganze Zeit zum Beispiel Nachrichten zu lesen.
00:10:46: wo eben früher gab es halt... eine Tageszeitung und wenn man die gelesen hatte, dann ist halt vorbei so ungefähr.
00:10:52: Und jetzt ist natürlich auch ständig kommen irgendwelche Nachrichten rein.
00:10:55: also das kann man jetzt auch nicht unbedingt vielleicht als Hochwertiger ansehen sondern es ist dann ja auch die Sucht immer irgendwie informiert zu sein und dann macht man vielleicht auch von den anderen Dingen zu wenig.
00:11:09: aber bei Jugendlichen ist es halt ausgeprägter also dass man dann vielleicht sagt ja gut dann gehör ich halt mal nicht dazu.
00:11:14: Das ist vielleicht als Jugendlicher Es ist einfach schwerer.
00:11:17: Aber da möchte ich schon noch ergänzen, du hast komplett recht.
00:11:21: Wir dürfen das nicht außer Acht lassen und das fehlt mir im Moment in der Debatte auch ein bisschen weil immer gesagt wird wenn wir jetzt den Social Media Verbot erfitzen haben oder so dann wird alles gut.
00:11:29: also es gibt mittlerweile gerade neuere Studien die sagen die Erwachsenen sind keineswegs auf dem Schneider.
00:11:35: Die trifft das fast genauso.
00:11:36: Die haben eben etwas mehr Bremsen hinter den PS aber trotzdem haben sie nicht die perfekte, also viele zumindest nicht die perfekt in Pulskontrolle.
00:11:45: Und gerade von TikTok und YouTube Reels sind die halt genau ähnlich angezogen wie Jugendliche.
00:11:53: Die PulsKontrolle wird ja auch zum Teil gezielt außer Gefecht gesetzt wenn man so will.
00:12:00: Patterns, wenn wir jetzt mal wieder zu den Dark Patterns kommen.
00:12:03: Also es gibt da etwas, das nennt sich Amygdala-Hacking.
00:12:08: Das ist ja das Zentrum des Angstzentrums im Gehirn, also das auch ein bisschen dafür sorgt dass man in eine potenzielle Gefahrsituation kommt oder so, dass man die schneller erkennt und darauf reagieren kann.
00:12:22: Wenn man jetzt ein komisches Geräusch hört, ist das jetzt ein Löwe der deinem Gebüsch ist oder was anderes?
00:12:27: Und so Patterns... Jetzt verlässe ich mal die sozialen Medien, aber so was wie nur noch drei Artikel dieser Art verfügbar oder siebzehn Leute sehen sich gerade dieses Produkt an.
00:12:40: Das erzeugt dann halt genau eine Gefahrensituation also ein gefühlte Gefahrenssituation, die genau dieses Gehirnzentrum anspricht.
00:12:49: und was passiert?
00:12:52: Dieses Zentrum schüttet dann Adrenalin aus und Cortisol.
00:12:55: Und das Cortisol wiederum, da setzt ein bisschen auch den privantalen Cortex außer Gefecht der halt für die Impulskontrolle zuständig ist.
00:13:04: Das heißt, da werden
00:13:06: gezielt
00:13:07: ältere Gierenzentren angesprochen, die halt ja sofort darauf reagieren und dann halt die Impulskontrolle auch ein Stück weit ausschalten ... und das funktioniert auch bei Erwachsenen.
00:13:22: Ja, also ich kenne das halt so von der Buchungseiten.
00:13:24: So ein Plan jetzt in Urlaube und keine Ahnung kann sich nicht entscheiden... ...und dann die sind nur noch drei Zimmer auf unserer Seite.
00:13:30: Flügezimmern,
00:13:32: ne?
00:13:32: Die ganzen Hotel-Buchungsplattformen ist ja echt...
00:13:35: Und das setzt einen Scheißunterstress.
00:13:37: Wenn wir jetzt schon mal den Dark Patterns sind, jo... ... welcher gibt es denn auch?
00:13:42: als ich meine Das ist bekannt wie kennen das vielleicht auch von diesen Cookie Sachen mit irgendwie...?
00:13:46: Was ist gut lesbar, was nicht?
00:13:49: Das ist ja so relativ einfach aus.
00:13:52: Genau, oder es gibt halt so Dark Patterns die dir halt zum Beispiel in einem Kaufprozess wenn du bist gerade dabei auf dem Kaufen Button zu klicken und guckst nochmal mit einem Auge auf deine Bestelle ist.
00:14:04: Und siehst plötzlich da drei Sachen, die du gar nicht da reingetan hast weil der Shopbetreiber so freundlich war dir noch ein paar Sachen in deinen Einkaufskorb zu werfen oder so.
00:14:14: das ist auch so ein Pattern wo man dann plötzlich was im Einkaufskorb hat was man gar nicht haben wollte oder was man gar nicht bestellt hat.
00:14:23: Es gibt so Patterns... Aber
00:14:24: ist das denn erlaubt?
00:14:25: Also
00:14:27: in der Regel sind viele Dark Patterns nicht erlaubт, aber damit etwas passiert muss ja erst mal einer irgendwie sich irgendwo beschweren bei einer Aufsichtsbehörde oder bei der Polizei irgendwo.
00:14:41: es muss genügend ... ja Leidensdruck da sein, damit überhaupt jemand was macht.
00:14:47: Und wenn dann geklagt wird oder so, dann dauert das oft Jahre.
00:14:50: Also es ist halt immer... Es ist sehr einfach sowas zu implementieren,... ... aber es ist sehr schwer, es aus der Welt zu schaffen.
00:14:56: Aber bei den... also ich mein, ich weiß noch vor zig Jahren oder es ist schon ewig her wo dann wirklich gesagt wurde,... ...online kaufen ist nur, wenn wirklich der Button auch kaufen oder vergleichbar heißt, ne?
00:15:09: So früher... ... gab es ja so Sachen, man hat irgendwo klicken sich hier und dann hat man darauf geklickt.
00:15:14: Und dann hatte man plötzlich was gekauft obwohl man ... ... diese ganz hart betrügerische Lange der verboten aber gibt's da nicht.
00:15:21: also wenn ich das andere als beschrieben habe mit diesem ... ... sind jetzt nur noch drei Sachen hier verfügbar?
00:15:27: Das ist ja so teilweise er dann doch noch erlaubt oder...
00:15:30: Das ist oft auch eine rechtliche Grauzone die dann halt gewissermaßen vor Gericht ausgelotet werden muss oder wenn eine Anzeige zum Beispiel so gestaltet ... wird, wie ein Element der umgebenden Webseite.
00:15:42: Also das hat man früher oft gesehen bei so Download-Seiten,... ... wo dann halt der eigentliche Download-Button irgendwie... ...so ein bisschen am Rand war.
00:15:49: und wenn man auf den großen... ...Download-Buttons geklickt hat, hat man irgendwas ganz anderes runtergeladen,... ...was man gar nicht haben will.
00:15:55: Oder gibt
00:15:56: es einfach Werbebanne?
00:15:58: Aber gibt's da noch irgendwelche so... ...gaffiniertere Dark Pattern sag ich jetzt mal oder sind die alle so...?
00:16:07: Ich weiß, worauf du genau hinaus willst.
00:16:09: Aber ich habe noch ein Beispiel... ...dass sich besonders witzig findet.
00:16:12: Das nennt sich Roach Motel also Kaka-Lakenmotel.
00:16:15: Es ist tatsächlich der Produktname von so einer Kaka Lakenfalle wo die halt gut reinkommen aber nicht wieder raus.
00:16:21: und das ist halt auch dass das Prinzip dieses Patterns... ...das man hat zum Beispiel in einen Abo ziemlich leicht reinkommt und sehr schwer wieder raus.
00:16:30: Der Klassiker für dieses Pattern ist halt das Prime Abo gewesen.
00:16:34: Also es war mal mit einem Klick drin gewesen Und wenn man wieder raus wollte, musste man sich durch vier Seiten klicken.
00:16:42: Sechs Dinge machen und man hatte ganz viele Optionen... ...und der Witz ist irgendwie bei Amazon hatte das den internen Projektnamen Iliad nach Homas, Epos über irgendwelche Kriege.
00:16:55: also der Buchhändler wusste ganz genau hat zum einen seinen Homer gelesen und wüsste zum anderen ganz genau was er da macht.
00:17:03: Also ich meine gut, da war jeder.
00:17:06: Also ich bin diesen Prozess tatsächlich mal durchgegangen und... ...der ist ja auf jeder Seite ein neues Dark Pattern Paradies.
00:17:18: Wo man dann manchmal auch wirklich so einen Quiz, wenn ich jetzt auf Fortsetzen drücke bedeutet das ich setze die Stornierung fort oder letztlich jetzt das Prime Abo fort?
00:17:29: Das ist ja schwieriger als keine Ahnung, die Führerscheinprüfung.
00:17:34: Also dazu kann ich aber vielleicht nochmal sagen also weil du nach der richtigen Situation gefragt hast... Nein, das ist eigentlich nicht erlaubt.
00:17:42: Also wir haben in Europa den Digital Services Act der systemisch nicht auf den einzelnen Händler runtergebrochen.
00:17:48: aber der sagt es eigentlich darf sowas nicht vorkommen.
00:17:52: da gibt's ein Tag Patternverbot allerdings dass dann umzusetzen ist halt schwierig.
00:17:55: und ich kann dazu auch sagen Amazon zum Beispiel ist eine Very Large Online Plattform also unter besonders harte Regulierung genau wie die anderen Plattformen wie TikTok und YouTube und so von denen wir ansonsten gesprochen haben an Instagram also alle unterliegenden ganz harten Regeln dieses Gesetzes.
00:18:10: Aber wir haben zum Beispiel, weil du vorhin Cookies gesagt hast bei den Cookie-Bernards das hat er auch gestrotzt vor Dark Patterns von wegen ganz groß der großen blaue Akzeptieren-Button und ganz klein und rot unten der Ampleen-Butten oder so.
00:18:22: bis ich das durchgesetzt habe bis die Aussichtsbehörden in Deutschland da allein nochmal ein bisschen was getan haben hat sich das über Jahre gezogen.
00:18:29: also die DSG verursacht.
00:18:32: Darum geht es ja um Datenschutzrecht, den Kraft und erst so langsam setzen sich diese ganzen Verbote in der Praxis auch durch.
00:18:38: Die eigentlich alle gelten für die Kokimente.
00:18:40: Ja, Betonung
00:18:41: auf Langsam also weit bei Primus ist mittlerweile auch einfacher das zu kündigen.
00:18:46: aber wie gesagt Es ist leicht sowas umzusetzen Aber dann sehr schwer am Ende auch mit dem entsprechenden Druck oder so, weil dann sagt die EU zum Beispiel was?
00:18:58: Wir wollen dass du das und das änderst.
00:18:59: Und da gibt es einen Einspruchsverfahren und das dauert Monate oder Jahre bis das Ganze dann...
00:19:04: Oder du hast es halt so, dass irgendwelche nationalen Verbände sowie der Bundesverbandsverbrauch zentral macht ganz viel Gegendag.
00:19:10: Patterns mahnt alle mögliche Unternehmen ab gerade Online-Shops und so.
00:19:14: aber bis das durch die Instanzen geht und das sind ja dann nur deutsche Entscheidungen und dann musst du erst mal erreichen Unternehmen, die meistens in Irland sitzen oder in Duchsenburg sich daran auch halten.
00:19:25: Verlassen wir mal die Finstern Gegnern der Dark Patterns und der juristischen Mühlen und kommen zu etwas Fröhlichen.
00:19:31: was mich glücklich macht nämlich ... der TikTok-Empfehlungsalgorithmus, diese Pipeline die mir immer wieder ein tolles Video liefert.
00:19:39: Andrea, du hast jetzt genau angeschaut wie funktioniert das?
00:19:42: Ich finde es sehr spannend.
00:19:43: also vor allem funktioniert es unglaublich schnell.
00:19:45: Ja, es funktioniert unglaublich... schnell!
00:19:47: Es ist auch wirklich faszinierend.
00:19:49: Also einerseits ja eben wie diese Empfehlungen auch funktionieren Ich habe mich schon vor ein paar Jahren mal mit den Amazon-Empfehlungsalgorithmen befasst.
00:20:00: Also diese Produktvorschläge, die eigentlich jeder kennt, Gründen, die diesen Kühlschrank gekauft haben, haben auch dies und jenes gekauft.
00:20:07: Und ganz genauso funktionieren eigentlich diese Social Media Empfehlungsalgorithmen mittlerweile alle.
00:20:12: Also TikTok, YouTube, Instagram gibt es ja auch so einen Teil der Vorschläger aus dem ganzen Inhaltepool macht.
00:20:21: das ist dann die Explorer Page Und die nutzen eben alle dieses sogenannte kollaborative Filtern, das eben Amazon mit dem Amazon groß und erfolgreich geworden ist.
00:20:33: Nur eine Weiterentwicklung weil das muss in Echtzeit funktionieren.
00:20:37: also man muss sich vorstellen dass es nicht so ein vergleichsweise eingeschränktes Produkt Sortiment wie bei Amazon sondern das sind Milliarden User und Milliarden Videos die gemetscht werden müssen.
00:20:51: Kollaborativ klingt erst mal toll zusammenarbeiten, aber warum?
00:20:54: Woher kommt dieser Name?
00:20:56: Ja das kommt eben daher.
00:21:01: Also man hat dieses kollaborative Filtern.
00:21:05: da steckt einfach die Idee dahinter dass man nicht versucht irgendwelche Eigenschaften von Menschen zu messen und Eigenschaft vom Produkten und das dann irgendwie zusammenzubringen oder Interessen mit Produkteigenschaften direkt zusammenzubringen, sondern also das geht viel zu langsam.
00:21:27: Das könnte man machen aber es funktioniert einfach nicht in Echtzeit und deswegen haben sie halt versucht.
00:21:32: so sagen wir haben hier ähnliche Nutzer die alle die etwas Ähnliches gekauft haben sind sich relativ ähnlich in diesem Algorithmus oder in Sicht dieses Algorithmos Und die sind dann irgendwo so zusammengeklustert.
00:21:52: Wenn ich selbst mir irgendwelche Videos anschaue und der Algorithmus stellt fest, jemand anders hat sich auch diese Videos angeschaut... dann werden mir als nächstes auf Videos vorgeschlagen, die dieser anderen Nutzer auch schon angeschaut hat.
00:22:09: Und das kann man relativ schnell matchen.
00:22:11: also dass funktioniert dann auch in Echtzeit und verglichen mit diesem Amazon Produkt Algorithmus haben sich die halt enorm weiter entwickelt diese Empfehlungsalgorithmen also dass sie eben wirklich in Echzeit messen können was sich auch verändert an meinem Verhalten.
00:22:29: Also Interessen werden da auch nicht direkt gemessen, so als die interessiert sich jetzt für Sport oder für Literatur oder irgendwas.
00:22:39: Sondern das geht nur auf Aufmerksamkeit also auf Verweildauer.
00:22:44: Genau, das würde mich interessieren.
00:22:47: Welche Signale werden die aus?
00:22:49: Welche Nutzer-Signale?
00:22:50: Weil da gibt es ja auch ganz viele Wudu und was nutzen sie dann tatsächlich?
00:22:55: Also es ist ganz unterschiedlich.
00:22:56: bei TikTok geht's extrem auf Verwaltdauer.
00:23:00: also
00:23:01: wie lange du so ein Video?
00:23:02: schaue
00:23:02: ich mir dieses Video an, schau ich mir das vor allem bis zum Ende an.
00:23:05: Das ist ein ziemlich wichtiges Kriterium.
00:23:09: Wie lange zögere ich?
00:23:11: zum Beispiel, also bei TikTok ist es ja so.
00:23:14: Mir wird ein Video eingespielt und dann kann ich zum beispiel durch nach oben swipen mir gleich das nächste anzeigen lassen.
00:23:21: Also ich kann dieses aktuelle auch überspringen wenn's mich nicht interessiert Und Dann kann ich gleich doch nach oben swipe mir das nächste.
00:23:29: und dann also das geht relativ schnell.
00:23:31: Das ist eben alles so schön aufeinander abgestimmt und dann wird mir eben gleich das Nächste aus der vorschlagliste präsentiert.
00:23:38: Auch es wird sogar gemessen anscheinend, wie lange ich zögere beim Weiterswipe.
00:23:45: Und das fließt alles... Also diese ganzen kleinen Reaktionen, die fließen alle in diesen Algorithmus mit ein und dann wird auch anhand dieser kleinen Echtzeitreaktionen schon wieder die Vorschlagsliste umsortiert.
00:24:03: Das heißt, ich bekomme vielleicht Etwas, was auf Platz zehn war, kriege ich jetzt vielleicht auf Platz eins.
00:24:09: Ich
00:24:09: glaube aber die hohe Kunst ist ihm dem Nutzer nicht immer nur Dinge zu präsentieren, die er gut findet sondern zumischen auch im Inhalter zu präsentieren die nicht so für ihn geeignet sind.
00:24:23: Irritieren!
00:24:24: Genau und das macht TikTok auch.
00:24:26: Also die mischen auch, sie haben da so einen Explorer Pool.
00:24:30: Also was Sie zum Beispiel eben machen?
00:24:32: Sie haben ja erst mal diesen Pool aus Milliarden-Videos.
00:24:35: Der wird durch diesen Empfehlungsalgorithmus auf ungefähr tausend reduziert und dann wird der nochmal umsortiert, auch durch diesen empfehlungen Algorithmus.
00:24:43: Und dann habe ich halt so eine Rangfolge.
00:24:45: und aus diesem Explorer Pool wo dann halt so Dinge drin sind ... bei denen nicht klar ist, ob sie mir gefallen oder nicht.
00:24:53: Da wird dann immer wieder was reingemischt.
00:24:55: Das ist halt so ein Überraschungseffekt, so eine ... ... ja wie so
00:24:58: einen Schenkel.
00:25:00: Es ist das Slotspot-Maschine-Prinzip.
00:25:02: Also mal
00:25:02: kriege
00:25:04: ich ihn gewinnen und mal krieg' ich ne Niete... Und der Witz ist,... ...das funktioniert am besten!
00:25:09: So bleibe ich am längsten bei der Stange.
00:25:11: wenn ich immer nur Gewinne kriege.... ... bin ich irgendwann wie die Schneller gesättigt oder so.
00:25:15: Und der Witz ist, das funktioniert bei Tauben wenn man die irgendwo auf den Knopf drücken lässt und in manchmal einen Körnchen gibt und manchmal keins... ...und beim Menschen.
00:25:25: wir sind offensichtlich was das betrifft irgendwie nicht besser gestrickt als ja die Luftraten?
00:25:31: Also es geht gar nicht darum jetzt zu sagen
00:25:34: jetzt
00:25:34: nehme ich aus wie ein Explorerpol und hau da mal etwas rein weil vielleicht mag ... mag er das auch oder wie?
00:25:42: Sondern es geht tatsächlich darum, ... ... also quasi dieses zu fühlen.
00:25:47: Dass ich so einen Tal habe um wieder hochzukommen... ... oder so weil ich das dann schon... Es
00:25:51: geht auch um gezieltes Enttäuschen her.
00:25:53: Gezieltes enttäuschend?
00:25:54: Ja, so
00:25:54: richtig gezielt und dann vielleicht die Freude wenn was Gutes kommt ist dann größer.
00:26:01: Also das ist so wie Glücksspiel!
00:26:03: Ich muss gestehen dass ich selber ja... ... relativ wenig TikTok benutze, ich habe die App auch nicht installiert und wenn... ... hab' ich es über ein Browser gemacht wobei das bei Browser ja auch immer schwieriger wird... ...TikTok zu verwenden.
00:26:18: Ich glaube auf dem Handy gar nicht, ne?
00:26:19: So der will dann immer sagt dann, installe die App, installle die App... ... sonst zeig ich dir das Video nicht!
00:26:26: Und deswegen fände ich das sehr spannend.
00:26:28: Ihr habt mich mal in Account bei TikTok.
00:26:30: Du hast gesagt da gibt's überhaupt dieses Freundeding was ja eigentlich so bei all den klassischen... ... OS Social Media Diensten ist.
00:26:39: Ich habe meine Follower, ich will auch vielleicht mehr Followers oder... Das ist überhaupt kein Thema.
00:26:45: Ganz am Rand!
00:26:47: Aber hauptsächlich wird einfach diese For You Page benutzt die eben rein algorithmisch gefüllt wird aus diesem potenziell, aus diesem gesamten Pool und das ist halt eigentlich auch das neue bei TikTok gewesen mit dem TikTok dann auch so erfolgreich geworden ist gerade eben bei jüngeren Jugendlichen oder als Kindern.
00:27:09: Und ja, die mussten natürlich auch keine Rücksicht jetzt nehmen auf irgendwelche Follower-Netzwerke sondern konnten einfach den gesamten Feed algorithmisch rein algorithmisch bespielen.
00:27:23: es gibt zwar schon auch die Möglichkeit da jemandem zu folgen aber das also in bestimmten Kreaturen zu folge.
00:27:30: aber dass ist nicht Die Hauptnutzungsart, also die meisten nutzen einfach diesen Feed, den algorithmisch gefüllten.
00:27:39: Ich habe jetzt...
00:27:41: ich
00:27:42: nehme mal wahr das TikTok besonders kritisiert wird und weil die angeblich oder mutmaßlich weniger in Schutzmechanismen hätten oder das geht jetzt hier auf dem Thema vielleicht ein bisschen raus ist dass die App auch ganz viele Daten sammelt.
00:27:59: Das würde mich auch interessieren ob diese Daten, diese App mutmaßlich sammelt, ob die dann auch sozusagen in diesen Algorithmus reinfließen oder ob sie für anderes genutzt werden.
00:28:12: Für Werbetageting?
00:28:15: Das ist natürlich schwer zu sagen.
00:28:20: also was vor allem ausgewertet wird um die richtigen Videos einzuspielen das sind ja ebenso diese Verhaltensdaten Diese Verweildauer, dieses zu Ende schauen.
00:28:32: Also einfach diese Aufmerksamkeit.
00:28:36: Es wird jetzt nicht direkt gemessen, welche Interessen hat jemand?
00:28:42: Das passiert dann alles indirekt.
00:28:45: Es
00:28:45: macht eben dieser Aufmerksamkeitsalgorithmus oder diese Aufmachsamkeitsmessung die... ... ist dann im Endeffekt dafür verantwortlich, dass mir... ... Dinge eingespielt werden für die ich mich interessiere.
00:29:00: Aber was ich eigentlich fragen wollte war, ich würde eigentlich ... ... sagen, das ist jetzt TikTok böser oder es ist qualitativ noch mal krasser?
00:29:08: Oder macht es einfach nur quantitiv?
00:29:10: Die treibt sich das auf die Spitze?
00:29:15: Oder gibt's da sozusagen zwischen TikTok und Instagram einen qualitativen Unterschied so
00:29:20: in der Art?
00:29:20: Ich würd sagen, dass es halt diesen ... diesen Mechanismus perfektioniert hat, wie man also sozusagen den Algorithmus, diesen Empfehlungsalgorithmus abgestimmt mit den Dark Patterns die Jo auch erklärt hat.
00:29:34: Mit dem App-Design das eben wirklich so an einem Glücksspielautomaten erinnert beim einabigen Banditen zieht nach unten bei TikTok wische ich nach oben.
00:29:45: es geht halt alles so automatisiert zack der nächste Inhalt Überraschen oder nicht.
00:29:55: Kleine Dopaminkicks, die das anscheinend dann auslöst.
00:29:59: Also das ist schon bei TikTok alles sehr perfektioniert.
00:30:03: Das App-Design zusammen mit dem Algorithmus und klar auch auf Instagram und so kann man sich natürlich komplett verlieren.
00:30:10: aber bei TikTok es ist glaube ich schon so dass es noch schwieriger ist sich dem zu entziehen vor allem auch weil diese ganzen Videos Die Clips sind so fünf bis sieben Sekunden lang.
00:30:22: Ich kann viel in einer gewissen Zeit, viel mehr konsumieren.
00:30:28: Der Hersteller kann mehr messen und mehr Daten sammeln.
00:30:31: Also das spielt richtig verzahnt und spielt alles Hand-in-Hand.
00:30:39: Gibt es jetzt noch mal aus diesem Bereich auch ein euch beide Dark-Petant?
00:30:44: oder gibt's da noch was... was ihr noch ergänzen wollt?
00:30:48: oder sonst würde ich nämlich den geben.
00:30:49: Was können wir denn jetzt machen?
00:30:52: Wir haben uns in diesem Schwerpunkt auf das Thema Smartphone beschränkt, aber viele von dem, was wir hier berichten gilt natürlich auch für die ganzen Dienste mit dem Browser auf einem Desktopnutze.
00:31:05: Auf dem Smartphone ist es halt nur nochmal eine Nummer schärfer.
00:31:08: zum einen weil ich das immer dabei habe, zum anderen weil es auch Mechanismen hat... ... mit denen es mich besser ansprechen kann.
00:31:17: Also wenn ich Mitteilung eingeschaltet habe oder so, dann kriegen mich die Plattformen permanent.
00:31:25: Das zählt alles zu den suchtmachtenden Faktoren.
00:31:29: Weil du jetzt gerade gefragt hast wegen Optik-Talk vielleicht noch krasser ist als die anderen... also zum Beispiel die EU-Kommission scheint das so zu sehen?
00:31:36: weil es gibt im Moment nur ein Untersuchungsverfahren wegen suchtmachenden Faktoren gegen eine der Plattformen des TikTok.
00:31:45: Da ist jetzt ein Untersuchsbericht rausgekommen und der sagt nach Digital Services Act, da ist die EU-Kommission schon sehr eindeutig der Meinung Endless Scrolling Also dass eine Webseite oder ein Feed keinen Ende hat, nicht irgendwann mal aufhört.
00:32:00: Dass auch keine Stop-Mechanismen drin sind zum Beispiel zum Jugendschutz.
00:32:04: Keine Bildschirmpzeiteinstellungen so ohne weiteres möglich sind und genau was du gesagt hast, sowas wie Pushmitteilungen.
00:32:10: Und ganz viele Faktoren die einfach wirklich nur dazu dienen um die Leute... auf der Plattform zu halten, dass Teufel kommen raus und die sagen halt auch das ist Jugendschutz.
00:32:24: Das widerspricht unseren Jugendschutz.
00:32:26: Kriterien, die ja auch im Detail Services Act so markiert sind Und es gibt also was deswegen.
00:32:34: wir hatten sehr vorhin.
00:32:34: ganz kurz muss ich noch einmal kurz sagen zum rechtlichen Die Sagen halt.
00:32:38: Tiktok hat die Aufgabe gesellschaftliche Risiken zu identifizieren und die Gesellschaft vor diesen Risiken, zu schützen.
00:32:45: Und das müssen sie auditieren.
00:32:46: Sie müssen ständig ihre Plattform beobachten.
00:32:48: Diese Risiken sind so offensichtlich auf dieser Plattform auch auf anderen Plattformen hier aber ganz besonders.
00:32:54: Die sind aber nicht benannt in den Berichten und da liegt der Fehler.
00:32:57: Jetzt haben wir sie benannt... Und jetzt gibt es zum Beispiel der infiniteScroll Mechanismus, also das endlessScroll muss aufhören.
00:33:04: Buschnachrichten müssen abschaltbar sein.
00:33:07: Der Empfehlungsalgorithmus muss abschalbbar sein, diese ganzen Recommenterfunktionen.
00:33:11: Also alles was suchtfördern ist, muss abscheinbar sein für den Nutzer und idealerweise per die Ford abgeschaltet werden Und insbesondere bei Accounts von Heranwachsenen.
00:33:23: Jetzt haben sie TikTok Zeit gegeben, das zu korrigieren.
00:33:25: TikTok hat aber gesagt wir sind uns keiner Schuld bewusst und jetzt läuft's wie es immer läuft.
00:33:30: Das geht jetzt halt irgendwie vor Gericht und TikTok für Widerspruch anlegen und dann sehen wir uns vor ein paar Jahren am EURGH wieder aus einem europäischen Gerichtshof und dann gibt's irgendwann mal eine Rechtsprechung die sich vielleicht auch auf andere übertragen ist.
00:33:43: Die Kommission hatte eben TikTok genommen ... weil TikTok der glasste Fall ist, bei Weitem.
00:33:47: Also was die Sucht machen in den Faktoren?
00:33:50: Jetzt fällt mir dazu noch eine Frage ein und zwar... ... wir hatten ja eben darüber gesprochen dass jetzt Jugendliche besonders anfällig sind, da gibt es denn auch Studien kennt ihr welche die vielleicht das untersucht haben mit ob das auch langfristige Schäden hat?
00:34:06: also das hätte zum Beispiel wenn ich jetzt als Heranwachsener Darf man das nicht betroffen werden?
00:34:13: Das ist ein ganz großer Knackpunkt gerade.
00:34:16: Diese Studien gibt es nicht, gibt's zumindest nur... also mir sind keine bekannt und deswegen ist auch nämlich schwer nachzuweisen dass Schäden entstehen.
00:34:22: Also in den USA-Lofts gerade im Musterprozess da ist der Schaden schon festgestellt worden.
00:34:27: Das lief gegen YouTube und TikTok.
00:34:32: Was TikTok?
00:34:32: Das war TikTok.
00:34:33: Ich glaube, das war YouTube und TikTok.
00:34:36: Und Snap war auch dabei aber die sind ausgestiegen glaubt.
00:34:39: Nee, TikTok ist ausgestiegelt.
00:34:40: Quatsch!
00:34:41: Entschuldigung, nee es war YouTube in Instagram.
00:34:43: Und TikTok hat sich verglichen vorher mit der Nutzerin, die sagt wir sind Schäden entstanden wegen meiner Social Media Sucht auf euren Plattformen.
00:34:50: ich habe physische Schädende davon getragen und psychischen Schäde.
00:34:53: dann hat versucht sie nachzuweisen.
00:34:55: Die haben das bestritten, die Plattform haben auch gesagt Wir haben überhaupt keine Sucht für deine Mechanismen auf unseren Plattform.
00:35:02: Da gab es eine Geschwörung in der Jury, die hat aber jetzt der Name recht gegeben und jetzt müssen beide Plattformen jeweils drei Millionen Dollar bezahlen.
00:35:09: Wobei ist der Weg der Inzans zu uns noch offen?
00:35:12: Genau!
00:35:13: Die werden natürlich auch dagegen wieder Widerspruch anlegen.
00:35:17: Für diese steht unheimlich viel auf dem Spiel weil das lässt sich erstens weltweit übertragen.
00:35:21: größtenteils und soweitens also bei den Verbraucherrechten sind so unterschiedliche in den westlichen Staaten nicht Und dann könnt ihr das jeder einklagen ... dann könnte das jeder eigentlich.
00:35:30: Könnten wir auch aus Deutschland?
00:35:32: Nein,
00:35:33: hier in Deutschland könnten wir das... ... aber wenn es einmal festgeschrieben
00:35:35: ist... Da gibt's ein paar Euro-Fünfzehn in Deutschland.
00:35:37: Das
00:35:39: stimmt natürlich!
00:35:39: Macht ja keinen Hoffnung, dass du es leider
00:35:40: nicht gut
00:35:42: sagen
00:35:43: kannst.
00:35:43: Ich würde grüße an die VW-Kunden, die das gerade erfahren.
00:35:49: Aber es gab doch auch diese Vistellblowerin von Meta,... ...die hat gesagt, dass eigentlich Facebook, Metafacebook, Instagram weiß.... ... dass, ähm...
00:36:00: Sorry.
00:36:00: Genau hier irgendwelche Übernachrichtungen sind... Das
00:36:02: war ich gerade!
00:36:03: Ich habe eigentlich gedacht, ja aber flug nur das Gestächt, sorry.
00:36:07: Guck mal nach, das ist vielleicht was Spannendes.
00:36:12: Was wollte ich sagen?
00:36:12: Diese Wüsseblowerin die da...
00:36:14: Francis Horne.
00:36:16: Die sagt halt eigentlich weiß der Meta-Konzern wie schädlich das für Jugendliche ist.
00:36:21: Ja, die wissen
00:36:21: das natürlich alles klar.
00:36:24: Ich meine, Mark Zuckerberg war selber in dem Prozess anwesend und ihm ist ja auch vorgeworfen.
00:36:27: Oder es sind Dokumente vorgelegt worden wo er noch sagt hey wir müssen irgendwie die Nutzungszeit von Minerjährigen auf der Plattform hochkriegen.
00:36:35: also solche Mails hat er geschrieben.
00:36:37: Ist echt schwer dagegen so argumentieren dass sie das erhalten.
00:36:41: Okay gut die Betreiber wollen da ging nichts zu tun.
00:36:46: ganz im Gegenteil.
00:36:47: was können wir selber machen?
00:36:49: Das haben sich Christian Robert und Steffen Haggart angeschaut ... könnt ihr so kurz, was sind denn so Mechanismen?
00:36:58: Also ich glaube in deinem Artikel stand auch sowas drin wie... ... wenn man diese Mechanismus und diese Dark Pattern so kennt.
00:37:05: Das ist schon mal der erste Schritt dann weiß man, ah ja, ich lasse mich jetzt von dem Counter da nicht stressen oder so.
00:37:12: Genau,
00:37:12: man hat das schon mal gesehen oder so, man kann das einordnen und ... ... ist dann vielleicht nicht ganz so anfällig dafür.
00:37:19: Ansonsten gibt es natürlich auch technische Maßnahmen zum Beispiel Mitteilung ausschalten Oder das Display heißt es auf Schwarzwalds, also Krossstufen einstellen.
00:37:36: Alleine diese kleine Maßnahme.
00:37:38: Das ist einfach langweiliger aussieht.
00:37:40: Vielleicht sich auch mal häufiger von einem Smartphone entfernen.
00:37:44: Es gibt auch Studien die besagen dass wenn ich das Smartphone hier auf dem Tisch liegen habe ... dass ich dann schon weniger konzentriert bin, als wenn es irgendwie nicht
00:37:54: da ist.
00:37:54: Deswegen wird zum Beispiel auch in Schulen lassen... ...schulen sich Markphones dann oft einsammeln und wirklich einen anderen Raum bringen,... ...weil wenn sie sagen, in der Tasche packst du in deinen Rucksack oder packst in dein Schulrandsen,... Das übt immer noch eine unsichtbare Magie aus, auch wenn es da drin ist und aus ist.
00:38:10: Also ich fand das auch mit den Mitteilungen spannend was die Kollegen da geschrieben haben.
00:38:14: also ich schalte meine habe meine auch ausgeschaltet.
00:38:16: aber die Kollegen meinten ja also gibt's ja dann auch Stimmen die sagen dass man dann deswegen öfters nachschaut ob vielleicht doch irgendwo ne Nachricht reingekommen
00:38:25: ist
00:38:25: und man genau dann nimmt man halt sein Smartphone öfteres und schaut einfach aktiv nach anstatt von irgendwelchen mitteilungen abgelenkt zu werden.
00:38:34: natürlich.
00:38:35: Also am besten ist tatsächlich, man legt es ganz weg in den anderen Raum.
00:38:38: Um jetzt mal in dem Bereich der... wie heißt das?
00:38:42: Subjektiven Evidenzen und wie heißt es, anektronischen Evidenz zu kommen.
00:38:45: ja also ich selber hab halt tatsächlich gemerkt seitdem ich eine Smartwatch habe die mir Benachrichtungen anzeigend war auch erst dachte... Ich hab halt ganz viele Benachrichten ausgeschaltet ein paar hab' ich da, die ich für wichtige Anschufe normalerweise ... entziehe ich auch erst mal immer eine neuen App die Benachrichtigung.
00:39:06: Und, ähm... Ich habe dann festgestellt das wenn ich jetzt hier auf der Smartwatch ... ... dann sehe ich hab jetzt aah da ist ne Nachricht, keine Ahnung.
00:39:13: Holger schreibt mir das auf Signal ... ... kommst du mit in die Kantine oder ich schaff's heute nicht in die ... ... Kantine so ah ja abgefriestückt ... ... fertig während ich aber wenn ich das Handy in die Hand nehme diese ... ... Benachichtigung lese diese wichtige und dann bin ich ja da ... und dann so, ach ich guck noch mal kurz da vorbei.
00:39:32: Und deswegen, das finde ich, so muss man so kontinuitiv zu sagen... ... erst einmal habe ich hier mehr quasi Fläche sozusagen auf der ich irgendwie meine Aufmerksamkeit angezogen wird,... ... aber es kann auch mal in die andere Richtung genutzt werden.
00:39:50: Darüber hinaus gibt's natürlich auch noch so soziale Verhaltensweise, dass wenn man... Gemeinsam als Familie ist, dass man gefälligst die Smartphones irgendwo anders lässt oder so und nicht das jeder dann irgendwie auf sein Gerät guckt.
00:40:05: Oder bei jüngeren Kindern kann man das glaube ich noch durchsetzen, dass das Smartphone außerhalb des Zimmers übernachtet.
00:40:13: Das gucke ich mal.
00:40:14: Piep?
00:40:15: Nein, ich weiß was war!
00:40:17: Genau aber...
00:40:25: Ich kann es dir sagen, das ist wirklich verrückt.
00:40:27: Also ich habe das Handy in Flugmodus gestellt.
00:40:30: Das ist mir noch nie passiert.
00:40:32: und jetzt kommen wir Signal nach.
00:40:33: Flugmodus
00:40:33: auch nicht mal Flugmodos?
00:40:34: Ja scheinbar nicht.
00:40:36: Es kommt Signal
00:40:36: nach, ich weiß
00:40:37: nicht warum Signal nach geht.
00:40:39: Vielleicht kann mir das einer der Techniker später mal...
00:40:42: Die haben früher war Flugmoduss dann wirklich alles aus.
00:40:44: mittlerweile ist WLAN weiter an und teilweise sogar Bluetooth weiter ... oder so, ne?
00:40:49: Also... Jetzt muss ich mal rauskommen.
00:40:53: Aber das genau
00:40:54: in dieser Folge!
00:40:55: Ja, es wird mir echt zu unangenehm.
00:40:57: Wir können
00:40:58: die
00:40:58: Demonstration durch unser Archiv schauen und ich glaube wir haben das... Ich kann mich nicht an eine Folge erinnern, dass wir uns dann quasi fanden.
00:41:08: Das ist aus.
00:41:08: Danke Holger.
00:41:09: Es war auch nicht abgesprochen.
00:41:10: Aber vielleicht kommt's immer noch durch.
00:41:11: Es ist nicht scripted
00:41:12: ja, aber
00:41:14: sehr schön.
00:41:14: Aber
00:41:14: jetzt kannst du ihn mal aus der Hand legen.
00:41:15: ...
00:41:18: die Zeichnen fahren von irgendwas.
00:41:21: Aber genau, ich habe zum Beispiel auch bei mir das da haben ja auch die Kollegen beschrieben... tatsächlich aktiviert, dass also ich meine... Ich bin dann noch total nulli, ne?
00:41:30: Ich benutze einen Omastodon, wo quasi am wenigsten diese Effekte sind.
00:41:34: aber trotzdem habe ich mir das eingestellt, das sage ich schon damals über Twitter, dass nach fünf Minuten oder zehn Minuten einfach die App gekillt wird.
00:41:43: Das ist ja dieses Digital well being, also gibt ja auch den Begriff digital detox oder so.
00:41:49: Aber ich glaube die Hersteller Google und Apple finden das nicht so schön.
00:41:55: Du kannst es ja
00:41:56: schon machen.
00:41:58: Also du hast ja in Android ein iOS, hast dir die Möglichkeit... Ja, ich
00:42:00: meine nur dass sie diesen negativen Begriff nicht
00:42:03: meinen.
00:42:06: Ich weiß auch nicht bin.
00:42:08: Also ich kenne, sagen wir mal so.
00:42:09: Ich kenne niemanden im Erwachsenenbekanntenkreis der irgendwie zum Beispiel Bildschirmpzeiteinschränkungen von iOS nutzt und dann nicht aber wenn er gerade... Du bist jetzt grade irgendwie auf TikTok und guckst ja grad ein Video an, machst Plop!
00:42:21: Und dann kannst du aber sagen, willst du noch fünf Minuten mehr?
00:42:26: Wer klickt da nicht, ich will noch fünf Minuten mehr.
00:42:31: Mir hilft es tatsächlich ein bisschen.
00:42:33: Also ja manchmal drücke ich dann halt auch jetzt nochmal oder ich starte die App dann nochmal.
00:42:40: Eintritt ist tatsächlich wenn man dem Digital Value Being unter Android aber das kann ich jetzt nicht sagen... ...die Berechtigung für Benachrichtigungen entzieht weil das handelt das ganze über Benachrichten ab,... ...dann kriegt man diesen Button nicht.
00:42:52: also da muss man wieder... ... dann kann man nicht sagen nochmal fünf Minuten, sondern... ... die App wird dann einfach abgeschossen.
00:43:01: Und dann muss man so den App-Grow wieder aufmachen,... ...die App suchen und die App starten und dann sagen ja jetzt mach
00:43:06: ich die... ... und
00:43:07: das ist halt quasi.
00:43:10: der Aufwand ist dann einfach höher.
00:43:13: Ist nicht beim Wecker in der Früh oder noch fünf Minuten länger schlafen?
00:43:16: Genau ne!
00:43:18: Also ich mein es sind immer noch besser als kein Weckersteil.
00:43:21: Sonst sag ich mach schon auf.
00:43:23: Also probiert das mal für euch aus, mir persönlich hilft es halt ein bisschen... ...mal besser, mal schlechter so.
00:43:33: Aber das bringe mich auch zu der nächsten Frage nämlich... ...auf der einen Seite Selbstverantwortung und wir haben ja auch darüber geredet... ...so Juki Jugendliche die besonders anfällig sind.
00:43:43: wie sehr kann man diese Selbstverordnung oder wenn es seit... In uns evolutionär bestehende Urtriebe sind.
00:43:53: Und auf der anderen Seite müsste es dann nicht regulieren, haben wir auch ein bisschen schon drüber geredet?
00:43:58: Also wie seht ihr das ist jetzt eine Sache von.
00:44:01: ich muss das mal mich selber ein bisschen in den Griff bekommen.
00:44:05: oder ist da eigentlich schon die Regulierung?
00:44:07: Gesetzgeber, die Betreiber mir gefragt
00:44:11: Ich habe dann eine klare Meinung zu.
00:44:12: Ich finde schon, dass es die Betreiber sind, die in die Pflicht genommen werden sollten und zwar nicht im Sinne von was jetzt ja so hart diskutiert wird – das ist ja die Saudika durchs Dorf getrieben mit Social-Mediaverbot für vierzehn oder sechzehnjährige.
00:44:26: Kommen
00:44:26: wir gleich zu.
00:44:27: Aber eben nicht in der Form meiner Ansicht nach sondern die Plattformen müssen einfach bestärker an die Kantarien genommen werden.
00:44:33: Die
00:44:33: bessere Moderation...
00:44:35: Ja, aber ganz ehrlich.
00:44:38: Also es hat sich halt herausgestellt bei der Digitalgesetzgebung.
00:44:44: das war ehrenwert dieser Digital Service Act und deswegen soll ja deswegen noch ein Gesetz jetzt nachkommen.
00:44:49: Das heißt Digital Fairness Act also quasi Neuauflagesverbraucherschutz ist wo genau diese Themen nochmal adressiert werden aber dann mit Sicherheit, mit einer härteren schnelleren Regulierung als es bis jetzt der Fall ist.
00:45:01: Also da tut sich schon auch was.
00:45:02: Es ist ein europäisches Gesetz.
00:45:06: Das kommt dieses Jahr als erster Aufschlag, das heißt wir warten noch zwei Jahre bis es jetzt überhaupt in Kraft ist und dann warten wir mal noch fünf Jahre bis die Rechtsprechung dazu anläuft.
00:45:15: Und dazwischen puran die Lobbyverbände hoch?
00:45:18: Aber wie seht ihr das denn Andrea und Jo?
00:45:21: Mehr Regulierung?
00:45:22: Ja auf jeden Fall mehr Regulierungen.
00:45:25: also das zum Beispiel halt.
00:45:28: Ja, wirksommere Mechanismen da sind halt um...
00:45:31: Wärst du denn für ein Verbot von Recomender-System?
00:45:35: Ja, Verbot vom Recomendersystem glaube ich.
00:45:39: Also, ich
00:45:40: würde mal sagen ... Recomender-System ist ja ein sehr weit gefasster Begriff, auch Algorithmus ist ein sehr faster Begriff.
00:45:47: Auch wenn du sagst, chronologische Reihenfolge sind genauso ein Algorithmos nur als ein sehr einfacher und ein Recomendersystem an sich ist vielleicht nicht schlecht weil irgendwie muss ich diese ganzen Inhalte... ... filtern und sortieren, ansonsten habe ich ja ein Problem.
00:46:03: Ich finde das so witzig wenn dann Leute sagen wir wollen aber einen chronologischen Algorithmen.
00:46:07: Stellt mir mal TikTok vor weil der Menge an Videos die da pro Sekunde reinlaufen als chronologisch.
00:46:12: Im Sekundenbruchteil tagt es ganz gut.
00:46:14: Du
00:46:14: brauchst eine Vorsortierung bei diesen Massen die da reinlauft?
00:46:16: Du brauchtest
00:46:16: es auf jeden Fall!
00:46:17: Aber was natürlich schon... Was man regulieren muss wahrscheinlich und kann dass ist eben dieses Optimierungsziel also die Aufmerksamkeitssteuerung, dieses Optimieren auf maximale Aufmerksamkeit.
00:46:35: Das muss man einfach in Frage stellen...
00:46:37: Ist aber wahnsinnig schwer ein Gesetz zu geben?
00:46:39: Was ist
00:46:40: wahrscheinlich unheimlich schwer oder
00:46:42: das
00:46:42: ist glaube ich eben der Knackpunkt.
00:46:44: Das ist ein Eingriff ins Geschäftsmodell.
00:46:46: Aber da kann man dann auch nicht argumentieren von wegen Ja es gibt ja einen Recht auf Meinungsfreiheit soziale Kontakte usw.
00:46:57: Aber diese Steuerung über Aufmerksamkeitsparameter, darauf gibt es nun mal auch kein Recht.
00:47:04: Das ist eine rein ökonomische Entscheidung und das ist natürlich alles sehr leicht messbar.
00:47:10: aber da kann man schrauben.
00:47:11: also man kann auf andere Dinge optimieren
00:47:15: Und so ein bisschen zu überschwitzen, also auch Crack verkaufen ist ein Geschäftsmodell und das hat sich auch reguliert.
00:47:20: Natürlich!
00:47:21: Ich kann natürlich auch nicht sagen ich lege jetzt hier die ganzen Drogen hin und jeder kann sich jetzt mal bitte selbst kontrollieren und muss sich ein bisschen... Aber
00:47:29: es
00:47:29: ist genau das was der Regulierer gerade sagt?
00:47:32: Das ist ja richtig.
00:47:33: Ja
00:47:34: aber auch bei den gesellschaftlich hier in bei uns gesellschaftliche ... legalen akzeptierten Drogen, nämlich Nikotin und Alkohol.
00:47:44: Gibt es ja diese Regulierung zu sagen ab dem bis zu dem Alter ... ... ist Tabu und danach geht's?
00:47:50: Es soll jetzt sogar zum Beispiel bei Alkohl noch mal nachgeschärft werden... ...dass Jugendliche auch kein Alkool trinken dürfen wenn irgendwie...
00:47:57: Begleitetes Trinken!
00:47:57: Begleitetes
00:47:58: Trinken weiß
00:47:58: ich
00:47:59: auch.
00:47:59: Ja das gibt ja auch begleitetes Social Media.
00:48:05: Gut.
00:48:05: Aber da weiß man halt auch, dass zum Beispiel Alkohol quasi auf Rannwachsende...
00:48:10: Genau und das ist genau der Punkt.
00:48:12: Es gibt viele und da höre ich auch dazu die sagen du kannst es im Moment noch nicht mit einer stoff-stofflichen Sucht vergleichen.
00:48:19: Dazu fehlt die Evidenz, dazu fehlt einfach die wissenschaftliche Basis im Moment.
00:48:24: Also es hat sehr viel Merkmale von der Sucht.
00:48:26: Zum Beispiel die Übertrieb in Social Media Nutzung zB.
00:48:30: aber Es gibt halt noch diesen harten biologischen Zusammenhang, den gibt es in dem Fall nicht.
00:48:35: Der ist zumindest nicht nachgewiesen worden nur in Teilen.
00:48:38: Und die anderen schädlichen Effekte beim Nikotin und bei
00:48:41: einem Alkohol
00:48:41: oder so?
00:48:42: Das ist
00:48:43: auch
00:48:43: etwas was total ausgeblendet wird.
00:48:45: du hast vorhin der Begriff Meinungsfreiheit genannt also Du würdest den Jugendlichen ihre Plattform nehmen.
00:48:50: Du würdest den jungen ihre Kommunikation wegnehmen.
00:48:53: das hat ja auch als Social Media.
00:48:54: wir können ja nicht weg diskutieren dass Social Media auch positive Aspekte hat zum Beispiel ... für Leute, die Randgruppe angehören.
00:49:02: Das meine ich jetzt in sehr großen Anführungszeichen... ... die dann auf dem Wege wie sie es früher nicht konnten... ... Gleichgesinnte finden und so vielleicht auch gerettet werden oder so.
00:49:11: Also von Desidenten ansonsten.
00:49:13: Es gibt jede Menge positive Eigenschaften auf uns Social Media,... ...die du der Gesellschaft dann auch wegnehmen würdest.
00:49:18: Da steht dagegen.
00:49:18: Ist das eine Interessenabwegung?
00:49:20: Also
00:49:20: für die LGBTQ-Szene ist
00:49:22: ja Internet
00:49:23: quasi wirklich ein Segen gewesen erstmal.... Auch gerade die Leute, die nicht in den oberen Zentren sind.
00:49:28: Die
00:49:29: Leute mit seltenen Krankheiten, die sich das zusammenschließen können und austauschen
00:49:32: können.
00:49:32: Genau geht mir jetzt zum Beispiel... Ich kann dir ein ganz konkretes Beispiel nennen, wenn es Facebook nicht gegeben hätte.
00:49:36: Hätte ich ein größeres Problem als ich es heute habe?
00:49:38: Ich hab nämlich eine Krankheit, die ist Last-Hack-Obschmerz.
00:49:40: Und da über Facebook habe ich damals schon circa Jahre her eine Selbsthilfegruppe gefunden quasi von Leuten, die mich da zusammen geschlossen haben.
00:49:48: Das hat mir sehr geholfen damals erstens in der Bewältigung, zweitens aber auch einfach purer Wissensaustausch.
00:49:53: Da sind alles positive Aspekte dafür, nicht vergessen!
00:49:55: Also
00:49:55: ich meine, diese Diskussion hat man ja in einer gewissen Form auch mit dem... Was du eben gesagt hattest?
00:50:02: Mit dem beim Essen das Smartphone dabei.
00:50:04: Da war früher die Frage ist der Fernsehen an bei einem Abendbrot oder beim Mittagessen?
00:50:10: so ein bisschen wiederholen sich auch die Debatten.
00:50:14: So Fernsehenverbot für Kids plus ist natürlich jetzt das Smartfon was anderes.
00:50:20: ... ist auch eine Kommunikationsplattform, ich kann sie auch selber nutzen.
00:50:24: Ich könnte auch nur mich selber auszudrücken wenn... ...ich jetzt als jugendliche Person halt irgendwelche TikTok-Videos selber mache und so.
00:50:34: ne?
00:50:34: Das hat ja nicht nur diesen Konsum sondern es hat ja auch teilweise oder ein bisschen dieses Produzieren ja auch.
00:50:42: Wie
00:50:43: seht ihr die Gesellschaft in Form der Schulen in der Pflicht irgendwie mit...?
00:50:47: Medienkunde.
00:50:48: Ich weiß nicht in welchen Bundesländern halt der Umgang mit sozialen Medien trainiert wird, ich befürchte nicht so viel.
00:50:57: Du warst
00:50:58: nochmal ein ganz anderes Fahrer.
00:50:59: Ja, aber das
00:51:00: ist
00:51:01: entscheidend irgendwie am Ende.
00:51:03: Aber wenn du es verbieten würdest, willst du in die Möglichkeit nehmen?
00:51:07: Ja,
00:51:08: ich hatte ja im Studium ein bisschen Mediaktik und was ich total spannend fand, war dass mein
00:51:11: Prof.,
00:51:12: der in seiner Einführungsveranstaltung erzählt etwas von quasi Medienpädagogisch in Deutschland teilweise so einen diesen Käseklockenansatz gibt.
00:51:22: Also was also regulatorisch, ich hoffe die sehen jetzt hier nicht falsch aber da ist halt diese Käseglocke dir ein Tritz vor allem und dann mit Achtzehn wird sie aufgemacht.
00:51:35: Und eigentlich was ich daraus mitgenommen habe, das habe ich richtig verstanden, ist halt vernünftiger wäre halt tatsächlich zusammen ... langsam sich sozusagen dem anzunehmen.
00:51:49: Das spricht dafür, dass Medienkunde oder Medienkompetenz in Schulen.
00:51:54: und so die Frage... ... wer bringt wem was rein?
00:51:58: Also ich könnte jetzt auch Jugendlich nix zu TikTok beibringen, weil ich offenbar da keine Ahnung habe.
00:52:05: aber
00:52:07: also... Dass es zumindest mal einen systematischen Austausch gibt oder so.
00:52:10: ... die Gefahren besprochen werden.
00:52:14: Ich glaube, das würde schon vielen helfen und momentan werden sie alle ins Wasser geschmissen... ...und müssen sehen wie sie da klarkommen?
00:52:24: Ja also ist vielleicht auch ein... ich weiß nicht gut los war, dass das nicht aber so bisschen bin ich jetzt auch ratlos weil auf der einen Seite wenn ich frage so wenn es hätte wirklich so krasser Effekt auf Jugendlichkeit macht's vielleicht dann Sinn.
00:52:40: Ich meine, es würde ja sowieso irgendwie unterlaufen werden wie auch das ... ... Grauchverbot unterlaaufen wird oder trotzdem auf irgendwelchen Partys gesoffen wird.
00:52:48: Ja?
00:52:49: Aber ... ... und andererseits denke ich so, ich habe nämlich das Spiel, ich kann ... ... eine Sache erzählen.
00:52:56: da waren wir als Jugendliche hatten wir in so einer Jugendgruppe ... ... so einen ab achtzehnten Actionfilmen Steven Segal, ne?
00:53:04: So!
00:53:04: Und ... Wollten ihn ein heimlich gucken und der erzielt das spitz gekriegt ja und hat dann gesagt so ja So jetzt her mit der vsk sette es ums näher.
00:53:15: Und dann haben wir den zusammengeguckt mit dem erzieher, ne?
00:53:17: Wir waren teilweise drei zehn so und guckt ab achtzehnt filmen mit sehr expliziten gewaltdarstellung.
00:53:26: Und ich fand den ansatz aber total spannend weil er dann nach dem der film zu ende war Er mit uns über den film gesprochen hat.
00:53:33: so und jetzt du hast ihm scherzer begleitetes ... Tick-Docken oder Social Media.
00:53:39: Und ich habe da schon so ein bisschen was damit rausgenommen, das ist jetzt die Frage wie bei den anderen Jugendlichen was hängen geblieben ist und so, aber ich finde es einen interessanten Ansatz zu sagen also, wo wir sich mehr zusammen machen und zu gucken.
00:53:52: Meine Frau hat in Magdeburg damals in einem Jugendtreff, da haben sie dann zusammen ... ... Germany's Next Top Model geguckt.
00:54:00: Das ist ja auch etwas aus Social Media, so mit einer Frau geworden mit irgendwelchen... ... Geschlechterbilder oder auch ... ... das ist eine Schlankheit, ne?
00:54:09: Solche Sachen vermittelt werden.
00:54:11: Also wie kann man vielleicht an der Abplätze von so verboten... ... und vielleicht mit so Reflektionen und so.
00:54:15: Aber ist es leistbar mit dem Output den so TikTok- und Instagram haben also...?
00:54:23: Man kann zumindest mal die Mechanismen versuchen halt, sich zu erarbeiten oder so.
00:54:30: Ich habe jetzt nur das Thema Dark Patterns bearbeitet.
00:54:32: da gibt es Unterrichtsmaterialien vom Verbraucherzentral Gibt es sicher zu den sozialen Medien und auch fürs Online-Shopping, dass man halt zumindest das Thema streifen kann.
00:54:44: Und die Dinge, die da problematisch sind, mal besprechen können?
00:54:49: Macht es denn überhaupt Sinn, wenn die Jugendlichen am Anfang darüber gesprochen, dass solche Sachen ja noch nicht ausgebildet sind... überfordert man die andere vielleicht auch damit, wenn man sagt ich reflektiere das mal mit dir oder ist dann halt die Gehirnlappen da noch nicht so weit?
00:55:05: Ich
00:55:05: glaube es ist besser als halt nichts zu machen.
00:55:09: Also es wird wahrscheinlich schon angenommen und es wird sicherlich reflektiert.
00:55:17: Vielleicht hat das nicht den unmittelbaren Sofoteffekt.
00:55:19: aber Ich denke schon, dass es besser ist das so zu begleiten und immer wieder einfach auch die Mechanismen zu erklären.
00:55:31: Vielleicht hat's jetzt nicht den direkten Effekt, dass alle plötzlich ihr der Handys abschalten und nur noch irgendwie eine Stunde Tiktok gucken.
00:55:38: aber ich glaube schon, wenn man es immer wieder anspricht, wenn das so ein Unterricht vielleicht einzubauen, dass es eben schon einen Effekt hat.
00:55:51: Also ich denke man muss es versuchen.
00:55:54: Ein Problem ist sicherlich auch im Vergleich zu anderen Drogen, dass diese Videos und der Content... Da geht das Material nicht aus!
00:56:05: Es hat halt nie ein Ende.
00:56:07: also wenn man irgendwie raucht und gerade keine Zigaretten mehr hat, dann muss man zum Automaten.
00:56:13: Und die Videos sind halt immer da, dass es immer konsumierbar ist.
00:56:16: Das ist halt schon ein Problem und vielleicht muss man auch da mal ran einfach so einen Ansatz finden wie man das vielleicht eindämmen kann.
00:56:26: diese ewige Verfügbarkeit also.
00:56:31: Habt ihr zum Schluss noch irgendwie ein Tipp oder eine Forderung oder irgendein Gedanken sozusagen mit dem wir jetzt ... und so Leute da draußen mit entlassen können.
00:56:41: Du ja auch lest unser Artikel, da steht noch viel mehr drin!
00:56:45: Ja... dann würde ich quasi tatsächlich mich bei euch bedanken,... dass ihr da wart, das ihr hiermit diskutiert habt.
00:56:53: Jetzt muss ich mal gucken ob ich einmal im Mikrofon vorbeikomme und an die CT.
00:56:56: Vielleicht
00:56:57: kann es mir
00:56:58: helfen,
00:57:00: bitte.
00:57:00: Das üben wir nochmal ein bisschen.
00:57:02: aber genau ich halte jetzt die CT neun Ne Acht, ne Acht.
00:57:07: Entschuldigung komme ich schon durcheinander weil gerade noch die neuen produziert wird aber die acht die ct-Acht da findet ihr Artikel drin.
00:57:14: oder natürlich auf heise plus könnt ihr dann nachlesen und dann im Detail wie dieser Tiktok Algorithmus funktioniert.
00:57:22: das hat Andrea beschrieben die Dark Patterns ausführlich von Jo damit ihr auch wisst wie sie funktionieren und ihnen nicht in die Falle tappt diese ganze Sache mit der Studienlage zu sucht.
00:57:36: Details dazu hat Holger aufgeschrieben und Christian und Steffen haben, wie gesagt auch einfach ein paar praktische Tipps.
00:57:43: Wie man mit diesen Digital Verbientools gucken kann, ob man sich so ein bisschen selber im Zaum halten kann.
00:57:53: Danke, danke euch!
00:57:54: Danke euch da draußen fürs Zuschauen zu hören.
00:57:57: Schreibt wie immer Feedback an ablinkedct.de.
00:58:00: Seid dabei speckvoll im Forum oder auf YouTube.
00:58:06: Sagt uns doch vielleicht, wie geht ihr denn um mit diesem... ...mit der Suchtfall des Smartphones?
00:58:10: Was sind eure Tricks?
00:58:13: Wie handhabt ihr das?
00:58:15: Und da mit dieser Frage verabschiede ich mich bei euch und wünsche euch noch eine schöne Woche.
00:58:22: Ciao!
Neuer Kommentar