Podcast-Empfehlungen
Nach den Rechten geschaut
JFF Institut für Medienpädagogik
Breitband
Deutschlandfunk Kultur
Perspective Daily Podcast
Perspective Daily
18. März 2024
Nach den Rechten geschaut
JFF Institut für Medienpädagogik
Breitband
Deutschlandfunk Kultur
Perspective Daily Podcast
Perspective Daily
Die Zeit: Hinter der Geschichte
Zeit Online
Journalismus von morgen
Universität Hamburg: Journalistik und KW
“Nur wenn man einen gewissen Mut, eine gewisse Hoffnung und gewisse Inspiration spürt, macht man sich ans Werk.”
Nachrichtenmüdigkeit meint die Tendenz, dass immer mehr Menschen sich bewusst dagegen entscheiden, aktuelle Meldungen zu lesen, anzusehen oder anzuhören. Laut dem Reuters Institute Digital News Report 2023 geht das Nachrichteninteresse in Deutschland seit 2017 deutlich zurück, die Tendenz zur Nachrichtenvermeidung bleibt hoch.
Immer mehr Menschen fühlen sich durch traurige Bilder und Negativschlagzeilen erschlagen, erschöpft und deprimiert. Der Negativitätsbias führt dazu, dass wir auf negative Ereignisse stärker als auf neutrale oder positive Nachrichten reagieren. Betroffen seien tendenziell mehr Jüngere und Menschen, die ein geringes Vertrauen in Nachrichtenmedien hätten oder eine extremere politische Orientierung aufweisen. Dieses Gefühl der Überforderung und Hilflosigkeit verstärkt sich durch schwer erträgliche Bilder, Hass und Hetze im Netz, die allgemeine Überlastung der ständigen Informationsflut und der fehlende Bezug der Nachrichten für das eigene Leben.
Einerseits ist es wichtiger denn je, die eigene digitale Resilienz aufzubauen, d.h. eine konstruktive Widerstandskraft im selbstbestimmten Umgang mit Medien. Wir sollten mehr in uns hineinhören, gezielter auswählen und uns nicht von allen News überwältigen lassen. Wie informiere ich mich richtig, ohne mich emotional zu überfordern? Es gilt, Warnsignale ernst zu nehmen und „News Burnout“ vorzubeugen. Einige Strategien sind beispielsweise: konkrete Auszeiten einzuplanen, Social Media nur noch auf dem Desktop zu nutzen, sich von Zeitfressern (bestimmte Apps oder Social-Media-Anwendungen) zu trennen und nur zu bestimmten Zeiten News-Medien zu konsumieren. Es sind häufig wenige einfache Methoden, die unsere digitale Achtsamkeit verbessern können.
Andererseits könnte es helfen, wenn Medien mehr über positive Entwicklungen und Lösungen berichten. In manchen Formaten werden deswegen ausschließlich oder zusätzlich „gute Nachrichten“ vermeldet. Viele Medienhäuser beschäftigen sich außerdem mit so genannten konstruktivem Journalismus. Indem er Lösungsansätze genauso sorgfältig recherchiert wie Probleme wirkt er einer negativen Weltsicht entgegen und stärkt durch das Aufzeigen von Handlungsoptionen bei Mediennutzenden das Gefühl der Selbstwirksamkeit. Beispielsweise beschreibt er die Klimakrise nicht in immer neuen Katastrophenmeldungen, sondern recherchiert auch, wer Ideen hat, um die Erderwärmung zu verlangsamen. Diese Lösungsansätze sollen allerdings nicht einseitig propagiert, sondern faktenbasiert, kritisch und objektiv betrachtet werden. Das bedeutet auch, Hürden und Grenzen aufzuzeigen. Außerdem setzt er bewusst auf Vielfalt und unterschiedliche Perspektiven – und reflektiert dadurch die Welt in ihrer ganzen Komplexität und wirkt übermäßiger Vereinfachung und Polarisierung entgegen. Journalist:innen sollen dem Konzept zufolge zu einem konstruktiven Dialog beitragen, indem sie nicht nur Unterschiede zwischen Konfliktparteien aufzeigen, sondern auch Gemeinsamkeiten darstellen.
zur Diversifizierung des Algorithmus
16. Februar 2024
“Ob toxische Kommentare, Drohungen, beängstigende Kampagnen: Hass im Netz ist allgegenwärtig. Viele Menschen sind davon abgestoßen oder eingeschüchtert, halten sich zurück oder schweigen. Das gibt denen Raum, die laut und aggressiv sind. Es bedroht unsere Demokratie. Wir können gemeinsam etwas dagegen unternehmen.”
Es ist ein trauriger und gefährlicher Trend: Immer mehr Menschen ziehen sich aus dem Netz zurück. Sie trauen sich nicht mehr, ihre Meinung zu äußern. Laut der Studie „Lauter Hass – leiser Rückzug“ vom Kompetenznetzwerk gegen Hass im Netz schränkt jede:r Zweite die eigene Internetnutzung wegen Hass im Netz ein.
Auch wir bei Faktenforschen haben zu spüren bekommen, wie emotional und erschreckend Hasskommentare sein können: Bei unserem Facebook-Post zur Bewerbung unsere Aktionstage wurden wir Ziel eines „Shitstorms“: Kritik, Frust, Hass – ohne die Intention eines konstruktiven Austauschs. Die Kommentare sind zum Nachlesen noch da.
Doch wir alle haben Rechte. Auch online. Es ist unser Recht, dass digitale Gewalt nicht ignoriert wird. Dass unsere Würde auch im Internet zählt. Das ist gerade in heutiger Zeit besonders wichtig: Im Superwahljahr 2024 versuchen Demokratiefeind:innen gezielt durch Hass und Desinformation die Gesellschaft zu spalten. Ihr Werkzeug: Das Internet.
Gerade die AfD hat auf Social Media eine sehr hohe Reichweite – mit Abstand erfolgreicher als andere politische Organisationen. Soziale Netzwerke wie TikTok sind einer der wichtigsten Kommunikationskanäle für politische Akteur:innen, denn nur hier haben sie die Möglichkeit, innerhalb kürzester Zeit ungefiltert Millionen junge Menschen zu erreichen. Dabei werden vor allem jene Inhalte belohnt, die hohe Interaktionsraten hervorrufen – oft, weil sie auf emotionale Reaktionen der Nutzer:innen abzielen.
Die Mehrheit der Befragten der Studie findet, dass Social-Media-Plattformen mehr Verantwortung übernehmen müssten – auch finanzielle Verantwortung für die durch Hass im Netz entstehenden gesellschaftlichen Schäden. Die Herausgeber:innen fordern eine bessere Unterstützung für Betroffene von Hass im Netz.
Außerdem ist es wichtig, solche extremen Äußerungen nicht unwidersprochen bleiben zu lassen. Doch nicht immer muss man sich auf eine Diskussion einlassen. Manchmal reicht auch ein kurzes Statement, um sich zu positionieren oder um andere aufzufordern, etwas zu sagen. Außerdem muss man nicht alleine handeln: Beispielsweise haben wir, durch Hilfe aus unserem Freundeskreis und Instagram-Followern, unseren kleinen „Lovestorm“ in der Kommentarspalte unseres Posts geschaffen.
Wenn wir also gemeinsam unsere Präsenz gegen solche Haltungen und Äußerungen stärken, können wir verhindern, dass das Internet zu einem Ort der wenigen Lauten wird. Wir müssen aber genauso die Politik auffordern, diesen Entwicklungen etwas entgegenzusetzen. Denn Hass im Netz destabilisiert die Grundfesten unserer Demokratie.
17. Januar 2024
“Man muss sich die Frage stellen, wie man selbst die eigenen Werte und Normen vertritt, ohne andere, die plötzlich so irrwitzig nahe gerückt sind, unnötig zu verletzen.”
Ein Vorsatz fürs neue Jahr: Den eigenen Social-Media-Algorithmus kritischer hinterfragen und über die eigene Filterblase reflektieren. Mal absichtlich den eigenen Algorithmus verwirren und die eigene Blase verlassen. Doch wie kann ich selber einen besseren und abwechslungsreichen digitalen Raum für mich schaffen?
In einem Instagram-Post haben wir einige Möglichkeiten, um sich nicht nur in der eigenen Filterblase zu bewegen, sowie einige unterhaltsame und lehrreiche Online-Angebote mitgebracht.
Scheinbar keiner, der sich auf TikTok und Co. herumtreibt, kann sich gegen Social-Media-Algorithmen wehren. Sie analysieren, welche Inhalte man liked, teilt und kommentiert – so wissen sie bald ganz genau, welcher Typ Mensch man ist. So gerät man schnell in eine Filterblase – nur noch umringt von gleichgesinnten Menschen und Weltsichten.
Nun gibt es auch Kritik am Konzept der Filter Bubble aus dem kommunikationswissenschaftlichen Bereich: Beispielsweise hat der Medienexperte Bernhard Pörksen in seinem Buch „Die große Gereiztheit: Wege aus der kollektiven Erregung“ gegen die Filter Bubble geschrieben. Für ihn ist genau das Gegenteil der Fall: Durch das Internet würden wir nicht weniger sehen, sondern deutlich mehr und vor allem viel unterschiedliche Meinungen. Er geht davon aus, dass im Internet „Wirklichkeitsperspektiven“ aufeinanderprallen, die sich vorher nicht begegnet wären – er nennt das einen „Filter Clash“. Wenn wir erkennen, dass es viele verschiedene Meinungen gleichzeitig und nicht die eine, eindeutige Wahrheit gibt, führe das häufig zu einer „Stimmung der Gereiztheit“, die unser gesellschaftliches Kommunikationsklima verändert.
Egal ob man das Konzept der Filterblasen anerkennt oder nicht: Es zeigt, dass man selber dazu beitragen kann – wenn nicht muss – das Online-Klima besser zu gestalten. Nutzer:innen sehen nicht nur isoliert von anderen ihre Sicht auf die Welt bestätigt. Sie müssen ihre Weltsicht hinterfragen, wenn sie noch kompetent an der Online-Kommunikation teilnehmen wollen. Selbst der größte Autofan wird es nicht überhören können, dass sein Lieblingsfahrzeug in der Kritik steht und die Feinstoffbelastung in Großstädten rasant zunimmt. Genau deswegen sollte man – vor allem in den sozialen Medien – möglichst offen diskutieren und Unstimmigkeiten aushalten, statt gleich dagegen zu argumentieren.
Klar, das erfordert viel Zeit, Arbeit und Toleranz, doch das Bewusstsein gegenüber der eigenen Filterblase sowie das Aushalten anderer, ist unabdingbar in der heutigen Social-Media-Welt und für in zukunftorientiertes Miteinander.
15. Dezember 2023
“Fakten können nicht trösten.”
Die Covid-Pandemie, die Klimakrise, der Ukraine-Krieg und mehr: Viele Jugendliche sind entwurzelt und so verunsichert durch die vielen Krisen um sie herum. Der Krieg in Israel und Gaza war dafür nur ein weiterer Auslöser. Fakten können nicht trösten. Die Konflikte sind hochemotional. Deshalb brauchen sie in erster Linie jemanden, der ihnen zuhört.
An vielen Schulen sorgt der Krieg für Gesprächsbedarf. Ein Projekt, was sich dafür einsetzt: Das Berliner Duo bestehend aus der Deutsch-Palästinenserin Jouanna Hassoun, Geschäftsführerin des Bildungsvereins Transaidency, und Shai Hoffmann, Sozialunternehmer mit israelischen Wurzeln besuchen gemeinsam Schulen und lassen Jugendliche zu Wort kommen. Sie sagen: Jede Meinung muss erstmal Platz haben. Das Ziel: Das Miteinanderreden und die Empathie für beide Seiten.
Im Interview mit dem Online-Magazin Krautreporter beschreiben sie, dass gerade in den Schulen die Stimmung sehr einseitig ist. Viele Schüler:innen holen sich ihre Informationen aus den sozialen Medien. Dort herrscht ein Informations- und ein Meinungskrieg, der Hass schürt. Wenn man Menschen nicht trifft, sondern immer nur über sie liest oder von ihnen hört, projiziert man alles Mögliche in sie hinein.
Deswegen plädiert das Duo für das Schaffen und Stärken von „Braver Spaces“. Lana Hailemariam, Leadership Coach in den Bereichen Emotionale Intelligenz, Vielfalt, Gleichberechtigung und Integration sowie Leadership schreibt:
Im Gegensatz zu „Safer Spaces“ sind „Braver Spaces“ darauf ausgelegt, mit Risiken und Unbehagen umzugehen. Safer Spaces sind so konzipiert, dass sie versuchen, niemanden zu beleidigen, verletzten oder aus dem Raum vertreiben. Dahingegen bieten Braver Spaces einen Raum, der Dissens und Unstimmigkeiten zulässt, wo Schüler:innen ihre Meinung äußern und den Mut haben können, auch kontroverse Themen anzusprechen und auszuhalten. Es benötigt qualifizierte Menschen, die an ein hohes Maß an Selbstbewusstsein und Selbstregulierung verfügen, um andere verantwortungsbewusst durch diesen Raum zu führen – und wissen, was zu tun ist, wenn Unbehagen, Wut, Enttäuschung, Missverständnisse oder Stillstand auftreten. Das Ziel besteht darin, alle herauszufordern, ihre Komfortzone zu verlassen und gemeinsam in Richtung einer anderen Zukunft zu gehen.
Auch viele Lehrkräfte sind verunsichert, insbesondere wie sie mit ihren Schüler:innen über kontroverse Themen, wie den Nahostkonflikt, sprechen und wie sie mit ihren Gefühlen umgehen sollen. Braver Spaces sind deshalb auch für Lehrkräfte gebraucht. Wenn eine Krise auf die nächste folgt, müssen auch Lehrkräfte einen Raum haben, in dem sie Gefühle äußern können und Erfahrungen austauschen können.
In Schulen wird die Zukunft gebildet. Und wenn wir den Schüler:innen dort keinen sicheren Raum zum Diskutieren bereiten, haben wir mit den sozialen Medien eine starke Macht, die uns überwältigt.
15. November 2023
“Das Internet von heute fühlt sich leerer an, wie ein hallender Flur, obwohl es mit mehr Inhalten als jemals gefüllt ist.”
Schon seit vielen Jahren führen wir viele negativ besetzte Debatten über Social Media – mittlerweile sind wir aber an einem Tiefpunkt angekommen, an dem soziale Medien ein Thema voller Frustration geworden sind. Social Media fühlen sich unlustiger, mühsamer, weniger relevant als früher an.
Die renommierte Zeitschrift „New Yorker“ publizierte einen Artikel mit dem Titel „Why the internet isn’t fun anymore“. Autor Kyle Chayka – der sich vor allem mit Social Media befasst – meint, dass das altbekannte Social-Media-Web, als Ort, an dem wir gemütlich die Beiträge unserer Mitmenschen konsumierten und im Gegenzug selber etwas posten, nicht mehr existiert.
X (früher „Twitter“) sei mit inhaltlich schwachen Beiträgen überfüllt, die um dieselben wenigen Themen kreisen würden – „wie Wasser, das in einem Abfluss strudelt“. Nutzer:innen, die für Elon Musks blaues Häkchen bezahlen, dominieren jetzt die Plattform, oft mit rechtsextremen Kommentaren und offener Desinformation. Musk belohnt sie monetär auf der Grundlage des Engagements, das ihre Beiträge erzeugen – unabhängig von ihrem Wahrheitsgehalt.
Auch die Autorin Ingrid Brodnig meldet sich zu dem Thema zu Wort:
Facebook sei „uralt“ geworden: Laut dem Digital News Report nutzt in der Altersgruppe der 25- bis 34-Jährigen weniger als jede zweite Person diesen Dienst. Instagram, sei auch nicht mehr die junge, frische Alternative. Der Meta-Konzern ist geschickt darin, innovative Funktionen anderer Apps auf Insta zu kopieren (etwa Storys oder Reels). Der Vorwurf: Die App werde zu einem Abklatsch. Insbesondere die Kommerzialisierung stelle ein großes Problem dar. Man sieht viele Werbeeinblendungen und -bots im Feed und in den Kommentaren, in ihren Beiträgen machen Influencer:innen zusätzlich Werbung. Trotz vieler hilfreicher, unterhaltsamer Profile, verliere man dadurch schlicht und einfach die Freude an der Sache. TikTok sei zu passiv. Die App würde dem Fernsehen ähneln – man sieht sich kurze unterhaltsame Videos an, der Feed läuft ewig weiter.
Die Sozialen Medien zeigen immer verstärkter, hierarchische Strukturen auf. Die Kluft zwischen den Produzierenden und den Konsumierenden wird immer größer. Die Plattformen, die heute bei jungen Nutzern am meisten Anklang finden – YouTube, TikTok und Twitch – funktionieren wie Sendeanstalten, bei denen ein:e Produzent:in ein Video für Millionen von Followern postet; was die Follower einander zu sagen haben, ist nicht so wichtig wie beim alten Facebook oder Twitter. Dialog und Austausch sind nicht mehr erforderlich, stattdessen kann man sich einfach nur von Content berieseln lassen.
Einige alternative Plattformen, darunter Bluesky und Discord, haben versucht, unzufriedene Twitter-Nutzer:innen aufzunehmen. Doch gegen die Macht von X, Instagram, TikTok und Facebook haben diese Online-Räume, die neue Erfahrungen bieten, wenig Chancen und nicht viel Platz um zu wachsen.
17. Oktober 2023
“Manchmal bedeuten diese unangenehmen Gefühle, dass wir etwas Sinnvolles tun oder ein wichtiges Gespräch führen.”
Zahlreiche Videos und Bilder kursieren nach dem Terrorangriff der Hamas und der militärischen Reaktion Israels. Bei kriegerischen Auseinandersetzungen erleben Falschnachrichten und Desinformationen einen Boom.
Neben den grauenvollen Szenen und Nachrichten aus Israel und dem Gaza Streifen, fällt auch auf, wie im Internet und in den sozialen Medien darüber diskutiert wird. Im Zusammenhang mit dem Konflikt ist zu verstehen: Es gibt Grenzen der freien Meinungsäußerung. Verunglimpfungen gegenüber Israel überschreiten diese. Auf Grund der Handlungen der Hamas, Palästinenser:innen die Existenzberechtigung als Volk abzusprechen und sie erniedrigen überschreitet diese ebenfalls.
Immer wieder kommt es zu antisemitischen Äußerungen, offenem Hass gegen Juden und Jüdinnen. Durch die spannungsgeladene Gesprächslandschaft der sozialen Medien besteht auch die Gefahr, dass sich in Deutschland nun antisemitische und ausländerfeindliche Klischees weiter verbreiten könnten.
Doch was kann man gegen diese hassbeladene Atmosphäre in den sozialen Medien machen? Wie spricht man darüber, ohne es noch schlimmer zu machen?
Hier spielt achtsame Kommunikation eine wichtige Rolle: Man muss über die eigene Intention im Gespräch oder beim Kommentieren nachdenken und den Unterschied zwischen der Absicht, zu überzeugen, und der Absicht, zu unterstützen und zuzuhören, bemerken. Es ist beispielsweise auch ein großer Unterschied, ob man sagt: „Ich kann es nicht leiden, was die Juden machen“, wenn man eigentlich sagen will: „Ich unterstütze die Politik der israelischen Regierung nicht.“
Auch eindeutige Schuldzuweisungen gegen die eine oder andere Seite sind bei einer solch komplexen Sachlage nicht mehr als grobe Vereinfachungen. Dieser Konflikt zählt zu viele Opfer und zu viele Verletzungen für vorschnelle Urteile – auf beiden Seiten.
Wir müssen den Humanismus als Gesprächsgrundlage heranziehen. Denn letztendlich ist die Zivilbevölkerung den Konsequenzen der Entscheidung ihrer jeweiligen Regierung ausgeliefert. Mitgefühl für die Opfer ist die Voraussetzung für einen nicht-destruktiven Austausch über das Thema. Die aktuelle Situation erfordert Ambiguitätstoleranz, also das Aushalten eines Nebeneinanders verschiedener Teile von Realität, die trotzdem alle valide sind.
Gerade im Nahost-Konflikt sollte man auch Schuldzuweisungen und Schwarz-Weiß-Denken vermeiden, so unbefriedigend es auch sein mag, wenn am Ende der ehrliche Satz steht: „Ich weiß es nicht. Ich verstehe es selbst nicht so ganz, warum die das tun.“ Doch es ist wichtig, zu versuchen darüber zu reden, denn es gibt nichts gefährlicheres für unsere Zivilgesellschaft, als Schweigen.
14. September 2023
“Algorithmen werden ja von Menschen geschrieben. Alles was mit Menschen zu tun hat, ist nicht neutral.”
Künstliche Intelligenz ist nicht objektiv: Sie übernimmt die Vorurteile von uns Menschen. KI (so wie wir sie heute begegnen) basiert größtenteils darauf, dass komplexe Algorithmen von großen Datenmengen lernen. Wir füttern quasi die KI. Deshalb kann sie aber auch rassistisch, sexistisch oder anderweitig diskrimierend sein. Je nach Einsatzbereich wird das zum Problem.
Studien zeigen beispielsweise, dass KI diskriminierend urteilt: So wurden in einer Untersuchung von US-Basketballern den schwarzen Spielern häufiger negative Emotionen unterstellt, als ihren weißen Kollegen. In einem Bewerbungsverfahren bei Amazon wurden Frauen häufiger aussortiert als männliche Kandidaten.
Geht man davon aus, dass KI in Zukunft noch deutlich häufiger zum Einsatz kommen wird, müssen diese Vorurteile in den Datensätzen abgebaut werden oder man muss sich zumindest dessen bewusst sein, dass auch der Computer diskriminierende Urteile fällen kann.
Deshalb wird gerade über das Gesetz über künstliche Intelligenz, kurz AI Act, debattiert: Der AI Act soll einheitliche Regeln für den Umgang mit KI in der EU festlegen sowie den Schutz von Bürgerrechten und ethischen Grundsätzen gewährleisten.
Neben einem Gesetz, das die KI-Entwicklung reguliert, sollten Daten für maschinelles Lernen zukünftig kritisch hinterfragt und bei Bedarf bereinigt werden. Auch ethische Richtlinien, Diversität in den Entwicklungsteams und transparente Entscheidungsprozesse wären ein Ansatz, um KI neutraler zu gestalten.
Letztendlich liegt es auch an uns als Gesellschaft, unsere Vorurteile gegenüber marginalisierten Gruppen abzubauen, um gerechtere und vorurteilsfreie KI-Systeme mitzugestalten. Schließlich sollen KIs uns das Leben erleichtern, nicht Diskriminierung und Ausgrenzung fördern.
15. August 2023
„Ich glaube, Spiele können dann wertvoll werden, wenn man wirklich Grenzen überschreitet. Wenn man wirklich etwas erlebt im Spiel, was man im Alltag nicht erleben könnte.“
Vor allem junge Menschen sind in den sozialen Medien präsenter und werden schnell zu aktiven Medienproduzent:innen, statt lediglich passive Medienkonsument:innen zu sein. Sie müssen über das Wissen und die Instrumente verfügen, um verschiedene Arten von Fake News und Verschwörungserzählungen zu erkennen, und nicht zuzulassen, dass diese ihr Denken und ihre Entscheidungen beeinflussen.
Das müssen Kinder und Jugendliche aber auch erstmal kennenlernen und verstehen. Doch viele Jugendarbeiter:innen und Pädagog:innen wissen oft nicht, wo sie anfangen sollen und welche Aspekte zu berücksichtigen sind. Deswegen hat das Projekt „Anti-Rumour“ den Leitfaden „Fake News, Verschwörungserzählungen und wie man sie erkennt“ in Kooperation mit vier europäischen Organisationen aus unterschiedlichen Ländern entwickelt.
Der Leitfaden bietet ein beispielnahes und fundiertes Grundwissen über Fake News, Verschwörungserzählungen und Medienkompetenz – insbesondere stellt er die Zusammenhänge und Auswirkungen auf soziale Phänomene, wie Rassismus und Frauenfeindlichkeit dar. Dabei stützt er sich vor allem auf Methoden des Game-Based Learning. Online-Tools und Online-Spiele werden vorgestellt, die in der direkten pädagogischen Arbeit mit Kindern und Jugendlichen genutzt werden können.
Für Jugendorganisationen und -zentren sowie Bildungseinrichtungen, die sich näher mit dem Thema beschäftigen wollen (und sollten!), ist der Leitfaden gleichzeitig eine umfassende Übersicht und Beispiel- bzw. Methodenkatalog.
Der Leitfaden ist auch auf Englisch, Spanisch und Griechisch online und kostenlos erhältlich.
17. Juli 2023
We’re almost in an era where the mainstreaming of extremist ideas has become easier and quicker and there is a bigger demand to fill a vacancy of frustration, anxiety, loneliness […]
Andrew Tate ist die vielleicht polarisierendste Person im Internet. Vor allem mit frauenfeindlichen und homophoben Aussagen hält er seine Community bei Laune. Eine Berühmtheit, aber nicht nach den Kriterien der traditionellen Medienwelt.
Internetbekannt wurde der ehemalige Kickboxer 2016, als er aus der britischen Big-Brother-Show herausgeworfen wurde, nachdem ein Video veröffentlicht wurde, in dem er eine Frau mit einem Gürtel schlägt. Seitdem hat sich Tate gezielt sein Bild als „Alpha-Mann“ und Frauenfeind aufgebaut: Sein Erfolgsmantra predigt harte Arbeit, Entschlossenheit und „keine Ausflüchte – mit dem Ziel ein „Alpha-Male“ bzw. ein „Top-G“ zu werden“ – was für seine Follower, die hauptsächlich junge Männer sind, erstmal sehr verlockend klingt. Dieser Artikel von „der Freitag“ schreibt, wohin das führen kann.
Denn das ist nur die Spitze des Eisbergs: Über 13 Milliarden Mal wurden Videos mit dem Hashtag #AndrewTate bei TikTok angeklickt. Tate nutzt gezielt den Algorithmus, der seinen kontroversen Aussagen mehr Aufmerksamkeit schenkt. Nach dem Motto „bad publicity is still publicity“ schaffte es Tate, auch in den größeren Medien für Schlagzeilen zu sorgen. Manche seiner Aussagen sind so skurril, dass sie wie „Meme Baiting“ funktionieren, also darauf angelegt sind, virale Wellen zu schlagen, um dann von anderen wiedergekäut zu werden.
Die meisten seiner Videos handeln von „der Matrix“. Wie im bekannten Film „Matrix“ würden wir fremdbestimmt in einer Scheinwelt leben. Eine gigantische liberale Verschwörung, die angeblich Frauen bevorzugt und Männer weichspült. „Holt euch zurück, was euch gehört“ – Dieser Narzissmus ist für junge Männer verlockend in einer Zeit, in der die Mainstream-Kultur („woke“ sein) von ihnen verlangt, dass sie ihre Privilegien aus Gründen hinterfragen sollen, die sie nicht ganz verstehen. Und genau für diese verunsicherte Zielgruppe bietet Tate sein „Life-Coaching“ an.
Viele junge Männer lassen sich von Tate beeinflussen und benutzen. Denn genau das ist sein Business-Modell: Seine provokanten Aussagen werden von zahlreichen Fans und Followern geteilt und mit einem Link zu Tates Coaching-Plattform „Hustlers University“ versehen (mehr dazu). Das nennt sich „Affiliate-Marketing“: Wenn sich jemand mit diesem Link bei Tates Plattform anmeldet, bekommt die Person, die das Video gemacht hat, einen Teil der Abogebühren.
Dass seine Profile derzeit bei den großen Social-Media-Plattformen gesperrt sind, zementierte seinen Status als „Retter der Männlichkeit“ für seine Follower nur noch mehr.
Nach einer Untersuchungshaft in Rumänien, aufgrund der Anklage seiner sexuellen Ausbeutung von Frauen, ist der Influencer seit einigen Monaten im Hausarrest.
16. Juni 2023
Fakten sind hartnäckig, aber Statistiken sind nachgiebiger.
„Studie: Ein Drittel der Männer findet Gewalt gegen Frau akzeptabel“: Diese aktuelle Schlagzeile des MDR sah man auch ähnlich in vielen anderen großen Medien, von „Spiegel online“ bis zur „Tagesschau“. In den ARD-„Tagesthemen“ am Sonntagabend war die Meldung sogar der Aufmacher, also das erste Thema der Sendung.
Dahinter steckte die Erhebung „Spannungsfeld Männlichkeit“ der Hilfsorganisation Plan International, die diese als „repräsentative Umfrage“ veröffentlicht hatte. Befragt worden waren knapp 1.000 Männer und 1.000 Frauen zwischen 18 und 35 Jahren zu verschiedenen Aspekten von Männlichkeit, zum Beispiel der Aufgabenverteilung im Haushalt und dem Umgang mit den eigenen Gefühlen. Dazu hatten sie einen längeren Online-Fragebogen ausgefüllt.
Laut einigen Expert:innen, u. a. Katharina Schüller, Vorstandsmitglied der Deutschen Statistischen Gesellschaft, gibt es einige Kritikpunkte, die die Aussage der Umfrage schmälern – außerdem würden sich die Ergebnisse nicht mit ähnlichen anderen Studien decken.
Beispielsweise wären Persönlichkeitsmerkmale und Einstellungen der befragten Personen und ob sie damit repräsentativ für die deutsche Bevölkerung stehen, nicht berücksichtigt worden (weitere Punkte auch in diesem ZDF-Artikel zu lesen). Allgemein sei bei Onlinebefragungen wegen der Panels eine grundlegende Verzerrung in den Daten sehr wahrscheinlich. Ein Panel bezeichnet die Menschengruppe, auf die für Befragungen zurückgegriffen wird.
Die Daten lieferte ein Marktforschungsinstitut aus Düsseldorf, das sich auf Online-Befragungen spezialisiert hat. Es hat ein eigenes Panel, die laut eigener Webseite per Online-Werbung, Mail-Listen, Zeitungsannoncen und Telefon angeworben werden. Für ihre Teilnahme bekämen die Befragten eine kleine Geldsumme.
Das Wort „Studie“ ist zum Sammelbegriff geworden. Sobald zu einem Thema irgendwelche Auswertungen vorliegen, werden sie in manchen Medien schon als „Studie“ hochgeachtet – selbst wenn es nur Zahlen aus einer Online-Umfrage mit wenigen Hundert Teilnehmenden sind. Im Zweifelsfall sollten Medien also differenzieren, z. B. von Umfragen sprechen und Auftraggeber:innen immer transparent machen. Alle möglichen Ergebnisse pauschal als Studien zu labeln, verschleiert, wie aussagekräftig sie tatsächlich sind – und wertet echte Forschung, die oft sehr aufwendig und zeitintensiv ist, ab.
Der Organisation Plan International ist es somit gelungen, einem Thema viel mediale Öffentlichkeit zu verschaffen: mit einer – im Vergleich zu soziologischen, wissenschaftlichen Studien – relativ kleinen Umfrage. Allerdings heißt das nicht, dass die Ergebnisse der Studie völlig missachtet werden sollten. Man muss sie nur mit mehr Bedacht und einer kritischer Haltung aufnehmen – eine kurze Rechereche zur Methodik hilft meistens schonmal sehr viel weiter.
17. Mai 2023
Ich glaube, wir müssen uns daran gewöhnen, dass man eigentlich keinem Bild im Internet trauen kann.
Programme, wie Midjourney, DALL-E und DeepAI, die mithilfe künstlicher Intelligenz fotorealistische Bilder generieren, haben zu einer Flut von Fälschungen in den sozialen Medien geführt.
Noch nie zuvor war es so einfach, täuschend echte Bilder zu generieren. Alles, was benötigt wird, ist eine Internetverbindung und ein Tool, das auf künstlicher Intelligenz basiert. Innerhalb von Sekunden können realistisch wirkende Bilder erstellt werden, die von vielen Menschen als authentisch wahrgenommen werden. Diese Bilder verbreiten sich dann rasend schnell in den sozialen Netzwerken und werden deswegen oft gezielt für Desinformationszwecke verwendet.
Hier sind einige Tipps, die helfen, KI-generierte Bilder zu erkennen (Stand April 2023):
1. Auf manchen KI-Bildern sind einzelne Körperteile wie Kopf oder Füße unverhältnismäßig groß. Deswegen sollte man immer auf die Körperproportionen achten.
2. Bestimmmt Details, wie etwa Hände, Brillengestell, Zähne und Ohren zeigen häufig Fehler, z. B. einen sechsten Finger oder eine Deformierung
3. Manchmal enthält der Hintergrund unrealisitische Elemnte oder Klone. Man erkennt diese Unstimmigkeiten besser, wenn man genauer hinschaut oder ranzoomt.
Das Beste, was man machen kann, ist eine Bilderrückwärtssuche, z.B. über Google Images, Yandex oder Tineye zu starten. Vor allem bei Bildern, die kontroverse oder emotionalisierende Inhalte haben, lohnt es sich die Herkunft des Bildes zu überprüfen. Meist gibt es schon Faktenchecker-Seiten oder ähnliches, die die Echtheit solcher Bilder überprüft haben. Falls ihr mehr zum Erkennen von KI-Bildern lernen wollt, könnt ihr euch zusätzlich noch dieses Video der DW anschauen.
Es gibt derzeit auch schon KI-trainierte Programme, die KI-generierte Bilder erkennen sollen, z. B. Hugging Face – ihre Nutzung ist aber (noch) von Expert*innen abzuraten, da die Ergebnisse zu unsicher sind. Beispielsweise werden echte Bilder oft als Fake eingestuft.
Mit den Fortschritten in der KI-Technologie wird es immer schwieriger, zwischen echten und generierten Bildern zu unterscheiden. Es ist wahrscheinlich, dass ein Wettlauf zwischen der Entwicklung von KI-generierten Bildern und der Erkennungstechnologie entstehen wird. Für uns heißt das: Wir müssen viel öfter und konsequenter Inhalte hinterfragen und kritisch betrachten.
17. April 2023
Freedom of the press is not just important to democracy, it is democracy.
Weltweit sind die Unabhängigkeit von Medien und die Sicherheit von Journalist:innen in Gefahr. Anhaltende Krisen und Konflikte, wie etwa die Rückeroberung Afghanistans, der Militärputsch in Myanmar und der russische Angriffskrieg schränken die Pressefreiheit weltweit weiterhin ein. Leider ist das nur die Spitze des Eisbergs.
Die Jahresbilanz der internationalen Organisation „Reporter Ohne Grenzen“ zeigt, dass die Zahl inhaftierter Medienschaffender in 2022 ein Rekordhoch erreicht hat. Ende 2022 saßen mindestens 533 Journalist:innen wegen ihrer Arbeit im Gefängnis – so viele wie nie zuvor. Dem UNESCO-Bericht zu weltweiten Trends in der Meinungsfreiheit und Medienentwicklung 2021/22 zufolge, wurden bis zu 400 Journalist:innen im Zeitraum von 2016 bis 2020 aufgrund ihres Berufs getötet.
Der 3. Mai macht auf die Bedeutung einer freien Presse für Demokratie, Menschenrechte und Frieden aufmerksam. Der Tag erinnert Regierungen an ihre Verpflichtungen zur Pressefreheit: Es gilt, die Pressefreiheit aktiv zu fördern, um die Sicherheit sowie die Unabhängigkeit der Medien und Medienschaffenden aufrechtzuhalten. Nur so kann die Informationsfreiheit für alle gewährleistet werden.
Viele Medien- und Bildungsinstitutionen in Deutschland haben sich zum bundesweiten Bündnis „Journalismus macht Schule„ zusammengeschlossen und führen seitdem jedes Jahr zum internationalen Tag der Pressefreiheit, Schülermedientage in verschiedenen Bundesländern durch.
Auch Thüringen ist dabei: Die Thüringer Landesmedienanstalt ruft vom 02. bis 05. Mai erneut zu den Aktionstagen „WIR SIND DAS ORIGINAL! – Aktionstage gegen Fake News, Desinformation und Verschwörungstheorien“ auf. Jeder Beitrag und jede Mitwirkung hilft, um auf die Thematik aufmerksam zu machen – Faktenforschen ist auch mit dabei!
15. März 2023
I do not intentionally spread misinformation.
Seit Wochen ist der Chatbot ChatGPT in aller Munde. Gerade Pädagog:innen wird unterstellt, in Anbetracht der Möglichkeiten der KI panisch auf ihre Schüler:innen, Studierende etc. zu blicken. Das Sprachmodell kann nämlich potentiell Hausarbeiten, Testantworten oder sogar kreative Texte verfassen. (Mehr zu der Entstehung und Funktion hier). Was er jedoch nicht leistet sind aktuelle Quellen – und Quellenangaben.
Natürlich können und sollten Pädagog:innen auch andere Formen der Wissensvertiefung und -abfrage nutzen (und falsch oder nicht zitierte Quellen werden schon seit jeher als Betrugsversuche geahndet). Es eröffnet sich für Fachkräfte hier jedoch eine Möglichkeit, lebensnah und anhand aktueller Beispielen zu thematisieren, wem und was wir vertrauen. Die Texte, die der Chatbot schreibt, wirken formell und inhaltlich hochwertig, sind jedoch ohne Belege versehen. Bittet man den Bot um Literaturlisten stellt man schnell wieder fest, wieviel Unsinn im Internet steht und dass tolle Studientitel oftmals ins Nichts führen.
Der Bot lernt permanent durch die Anfragen und das Feedback seiner Nutzer:innen (deren Anfragen und Interaktionen gespeichert und ausgewertet werden). Auch so strukturiert und bewertet er die enorme Masse an Seiten und Informationen, mit denen er gespeist wurde. Anhand welcher Kriterien wir vertrauenswürdige von irre-leitenden Quellen überprüfen ist ein pädagogischer Ansatz, mit dem die AI auch im Unterricht gewinnbringend thematisiert werden kann. Abgesehen davon, dass es auch viel Spaß machen kann, gemeinsam dem Bot Fragen und Aufgaben zu stellen!