• Deutschlandfunk App
  • ARD Audiothek
  • Spotify
  • Apple Podcasts
  • Abonnieren

Cybermobbing ist ein echtes Problem – auch auf Instagram. Deshalb will das Unternehmen Beleidigungen per Software bekämpfen. Das klappt noch nicht so gut, aber wenn es funktioniert, eignen sich die Tools auch zur Überwachung, sagt unser Netzreporter Andreas Noll.

Der Kampf gegen Mobbing im Netz kostet die Tech-Unternehmen viel Geld, denn man braucht viele Beschäftigte. Deshalb will nicht nur Instagram Beleidigungen automatisiert durch Computer erkennen lassen.

Eine Software soll bestimmte Begriffe erkennen, die beleidigend sind – subtile Beschimpfungen wird sie nicht herausfiltern können. Instagram nutzt bereits Software für die Auswertung von Kommentaren: Dabei identifiziert das Programm mögliche Beleidigungen und alarmiert ein Moderatoren-Team, das abschließend entscheidet. Die Software soll bald aber auch für Bildunterschriften und Fotos genutzt werden.

Künstliche Intelligenz gegen Cybermobbing

Doch ob sich Mobbing automatisiert von Computern erkennen lässt, ist die Frage. Bislang scheitern die Systeme, weil sie die Inhalte falsch entschlüsseln. Dennoch kann die Software natürlich besser werden. Instagram erklärt, dass es in den vergangenen Monaten gute Erfahrungen mit dem Mobbing-Kommentarfilter gemacht habe. Dieser Filter wird nun auch auf Live-Videos angewendet, um auch in den Clips Cybermobbing zu bekämpfen.

Wie können Videos und Fotos geprüft werden?

Bei Kommentaren kann man sich noch vorstellen, wie eine Software Beleidigungen erkennt. Aber wie kann das bei Fotos und Videos funktionieren? Offenbar kann das System das typische Vorgehen beim Mobbing identifizieren, so Andreas Noll. Zum Beispiel, dass Fotos einen negativen Vergleich anstreben. Das passiert oft, wenn in einem Foto zwei Fotos drinstecken – ähnlich einem Split Screen. Unklar ist, wie wichtig für Instagram die Tags sind, mit denen User Fotos beschreiben. "Oder ob die Software tatsächlich in der Lage ist, das was auf dem Foto abgebildet ist, so genau zu erkennen, dass man dann Mobbing-Aspekte erkennt oder nicht", so Andreas Noll. Außerdem entwickelt sich die künstliche Intelligenz natürlich weiter.

"Die künstliche Intelligenz lernt dazu. Vielleicht funktioniert so etwas in drei bis vier Jahren einwandfrei."
Andreas Noll, Deutschlandfunk-Nova-Netzreporter

Die Grenzen, die bislang Software zur Bekämpfung von Cybermobbing hat, könnten überwunden werden. Zugleich bedeutet eine gute Software auch, dass die Überwachung der Posts auch auf andere Themen ausgedehnt werden kann. Eine erfolgreiche Software kann auch für andere Aspekte einer Überwachung genutzt werden.

"Man darf sich nichts vormachen: So lobenswert der Kampf gegen Cybermobbing ist, die Tools dafür lassen sich später auch für andere Dinge verwenden."
Andreas Noll, Deutschlandfunk-Nova-Netzreporter

Aber Instagram versucht noch mehr gegen Cybermobbing: Das Unternehmen will positive Emotionen mit einer App mit "Freundlichkeitskamera-Effekt" verbreiten. Dafür hat Instagram die US-Nachwuchs-Schauspielerin Maddie Ziegler angeworben. Sie gehört in den USA zu den einflussreichsten Teenagern.

Wer Maddie Ziegler auf Instagram folgt, hat automatisch den Kamera-Effekt. Im Selfie-Modus erscheinen dann später Herzen auf dem geknipsten Bild. Außerdem fordert Instagram Nutzer auf, einen Freund zu markieren, den man unterstützen möchte. So soll Freundlichkeit durch Instagram wabern.

Mehr zum Thema auf Deutschlandfunk Nova:

  • Lukas, 13, Mobbingopfer, klärt Politiker auf  |   Lukas Pohland hilft einer Mitschülerin, die gemobbt wird und wird selbst Opfer von Cybermobbing. Aber Lukas wehrt sich: Der 13-Jährige will auch anderen helfen und gründet ein Sorgentelefon.
  • Klamotten nur für Instagram  |   Klamotten bestellen für einen Event und dann zurückschicken, ist schon fragwürdig. Aber nur für einen Post auf Instagram Fummel bestellen?
Shownotes
Instagram
Künstliche Intelligenz gegen Mobbing
vom 12. Oktober 2018
Moderator: 
Till Haase
Gesprächspartner: 
Andreas Noll, Deutschlandfunk Nova