Jeder der im Social Media aktiv ist wird die Problematik mit unerlaubten Inhalten kennen. Meist bekommen wir davon nichts zu sehen, denn die Plattformbetreiber haben ein großes Interesse, dass die Timelines von diesen Inhalten freigehalten werden. Es kann aber auch vorkommen, dass Netzwerke wie Facebook, Instagram oder Twitter kurz zuvor hochgeladene Inhalte wie Fotos wieder löschen, oder erst gar nicht für das Erscheinen freigeben. Gerade wer dabei nichts Böses ahnt, kommt sich bei diesem Vorgehen willkürlicher Bevormundung ausgesetzt vor. Doch was steckt hinter den Prüfungskriterien der Sozialen Netzwerke, entscheiden Algorithmen oder Menschen, was ich als Nutzer veröffentlichen darf und was nicht?
Kommunikation, Geltungsdrang, soziales Verhalten
Der größte Anteil der Social-Media-Nutzer hat ein Interesse daran, etwas aus dem eigenen Leben mit anderen Menschen zu teilen. Das können Erlebnisse aus dem Alltag sein, das Präsentieren von Vorlieben zum Beispiel bei Nahrung, Kleidung, Technik etc. Wie gerne lässt man Daheimgebliebenen am letzten Ausflug oder Urlaub teilnehmen und natürlich, was sagt die Freundin zu der gerade rechtzeitig erlangten Bikinifigur? Bereits bei der Darstellung von nackter Haut schrillen die Alarmglocken der Sittenwächter auf. Obwohl auf den meisten solcher Bilder nicht mehr zu erkennen ist, als ein bei einem Strand- oder Schwimmbadbesuch, gilt hier besondere Obacht beim Veröffentlichen.
Wie sieht es aus mit der Meinungsfreiheit in den Sozialen Netzwerken?
In regelmäßigen Abständen kommt es zum öffentlichen Aufbegehren, immer dann, wenn sich Nutzer ihrer eigenen Freiheitsrechte bevormundet oder beschnitten vorkommen. Ein Indiz dafür, dass Facebook und Co. die Inhalte durch Algorithmen prüfen lassen, ist die Willkür bei dem Entscheid, welche Fotos veröffentlicht werden und welche nicht. Die Computersoftware erkennt nicht immer, was zum Beispiel eine verbotene weibliche Brustwarze ist und was ein Vanillepudding mit mittig positionierter Kirschgarnitur. Es ist nur schwer hinzunehmen, dass Computer über Rechte entscheiden und nicht Menschen, doch ist dem wirklich so?
Computeralgorithmen mögen einen Teil der Filterarbeit übernehmen, dennoch übernehmen auch Menschen die wichtige Aufgabe des Content Managers. Zu großen Teilen sitzen diese Prüfer in Niedriglohnländern und gehen in Großraumbüros dieser Arbeit nach. Was sich diese Menschen dabei ansehen müssen und in welchem Takt das Prüfmaterial über die Bildschirme rauscht, ist kaum vorstellbar und wortwörtlich eine Zumutung. In Bildern und Videos ist zu sehen, wie Menschen enthauptet und gefoltert, Tiere gequält und Kinder missbraucht werden. Mit geschulten Augen entscheiden die Prüfer, ob es sich bei dem Content tatsächlich um verbotenes Material handelt und was doch harmlos erscheint. Wie können diese Leute, die sich über Stunden hinweg solch verstörende Inhalte ansehen müssen, nachts überhaupt schlafen? Lassen sich diese Bilder wieder verdrängen?
Als normal denkender und fühlender Mensch sind einem solche Gräueltaten fremd und nicht nachvollziehbar. Wenn wir Facebook auf unseren Computern und Smartphones nutzen und uns durch die Timeline scrollen, haben wir kaum Vorstellung davon, was scheinbar psychisch gestörte und kranke Menschen so motiviert. Es lässt sich vielleicht so erklären: jeder Nutzer der in den Sozialen Netzwerken tätig ist hat ein Interesse nach Aufmerksamkeit. Alles eine Frage der Motivation. Ein Problem dabei, die nicht vorhandene Entfernung durch die digitale Vernetzung. Es macht keinen Unterschied, ob andere Menschen im Nebenzimmer sitzen oder weit entfernt auf einem anderen Kontinent – die Barriere Entfernung existiert nicht. Schwer zu verstehen, dass unser Gehirn damit womöglich nicht ganz klar kommen könnte. Durch die Masse an Informationen besteht die Gefahr, dass wir innerlich abstumpfen.
Missbrauch und Propaganda im Social Network
Besonders bei der Machtvergrößerung des IS und den vielen Ängsten, die dieser Terror mitgebracht hat, war Social Media ein wichtiges Werkzeug zur Aufmerksamkeitserzeugung. Bei all den begangenen Verbrechen und denen, die immer noch geschehen, ist es eigentlich nicht erheblich, zu hinterfragen, warum solche ultra-fundamentalistischen Vereinigungen moderne Kommunikationswege und Medien wie Twitter nutzen. Die Propaganda kennt scheinbar keine Traditionen. Jedenfalls, der Kurznachrichtendienst Twitter wurde lange von IS-Terroristen und deren Sympathiekanten zur Propaganda missbraucht.
Social Media und Politik
Die Zeiten, in denen die Sozialen Medien fast willkürlich über erlaubte und nicht erlaubte Inhalte frei entscheiden konnten, sind vorbei. Zu viele Datenmissbrauchsskandale erschütterten die westlichen Länder, dabei geht es aber nicht um Gewalt, Missbrauch oder dergleichen, sondern von Wahlmanipulation ist die Rede. Facebook musste sich wie noch niemals zuvor den Gesetzeshütern offenbaren und sich über die Machenschaften mit Unternehmen wie Cambridge Analytica vor Ausschüssen befragen lassen. Diese Vorkommnisse zeigen, wie unsicher Soziale Netzwerke sein können und was mit unseren persönlichen Daten alles geschehen kann. Die eigenen Vorstellungen erreichen dabei kaum die Ausmaße des von anderen Menschen angestrebten Missbrauchs. Das ist traurig, aber kriminelle Energie kennt keine Eindämmung.
Unsere Nutzerdaten sollten den Unternehmen eigentlich nur dazu dienen, das Werbung persönlich zielgerichtet verteilen werden kann. Jeder soll anhand seiner Vorlieben und Interessen, die Werbeinhalte dargestellt bekommen, welche relevant sind. Dass diese Nutzerdaten für psychologische Auswertungen genutzt werden, davon wissen die Nutzer meist nicht das Geringste oder wollen davon nichts wissen.
Ethische Grundsatzfragen im digitalen Leben
Jedenfalls, seitdem die eigenen Datenmissbrauchsskandale publik wurden, wurden auch die Maßnahmen zum Content Cleaning verschärft. Aufgabe spezieller Abteilungen ist es, bildhafte Inhalte wie Fotos, Grafiken oder Videos zu sichten und dann zu entscheiden, was veröffentlicht werden darf und was nicht. Dies nur zur Aufklärung, dass nicht nur Algorithmen über das Veröffentlichen entscheiden, diese Menschen “Cleander“, müssen meist offensichtliche Gewalt ansehen und hoffentlich schnell wieder aus den Augen verlieren. Das Problem kultureller Eigenheiten wie zum Beispiel Kunst und Satire zu verstehen, das bleibt bei diesen Prüfmechanismen zu großen Teilen bestehen. Social Media bleibt also auch weiterhin ein eher kunstfreier virtueller Raum mit Einschränkungen.
Stopp! Wetten, die Artikel interessieren dich auch?
Magazin durchsuchen:
Neue Beiträge
- Ergonomischer Bürostuhl: Unser Review über den Flexispot BS14
- iMac 2024 mit M4: Evolution statt Revolution
- Mobile Gaming: Sicherheit in der Unterhaltung berücksichtigen
- Windows oder MacOS: Welches Betriebssystem eignet sich besser für die Aufgaben eines modernen Studierenden?
- ECM-Software und künstliche Intelligenz
Neue Kommentare