Im heutigen digitalen Zeitalter werden täglich Milliarden von Inhalten auf Online-Plattformen und Websites hochgeladen.
Die Moderation dieses Materials war daher noch nie so kritisch und herausfordernd. Während die meisten dieser hochgeladenen Inhalte positiv sein mögen, sehen wir auch eine wachsende Menge an schädlichem und illegalem Material – von Gewalt und Selbstverletzung bis hin zu extremistischer Rhetorik, sexuell eindeutigen Bildern und Material zum sexuellen Missbrauch von Kindern (CSAM).
Der Umgang mit dieser Flut an schädlichen Inhalten ist mittlerweile eine entscheidende Herausforderung für Unternehmen. Wer dazu nicht in der Lage (oder nicht willens) ist, muss mit erheblichen Strafen rechnen und setzt Kinder einem großen Risiko aus.
Das haben unsere eigenen Untersuchungen ergeben Über ein Drittel (38 %) der Eltern wurden von ihren Kindern angesprochen, nachdem sie schädliche oder illegale Inhalte gesehen hattenViele greifen innerhalb von nur zehn Minuten, nachdem sie online gegangen sind, auf Materialien zu, die so anschaulich und schädlich sind wie CSAM.
Daher ist es an der Zeit, stärkere Anstrengungen zur Inhaltsmoderation zu unternehmen und dass Unternehmen über traditionelle manuelle Moderationsmethoden hinausgehen, die unpraktisch und nicht skalierbar geworden sind. Stattdessen sollten sie die komplementären Fähigkeiten der KI nutzen, die die Landschaft der Inhaltsmoderation durch Automatisierung, verbesserte Genauigkeit und Skalierbarkeit verändern.
Allerdings sollten Unternehmen, die an der Nutzung von KI interessiert sind, wie bei jeder neuen Innovation sicherstellen, dass sie die Technologie so implementieren, dass die Einhaltung gesetzlicher Vorschriften gewährleistet ist. Die Entscheidungen, die Unternehmen heute treffen, werden einen massiven Einfluss auf ihre künftigen Abläufe haben.
Die helfende Hand der KI
KI hat die Content-Moderationslandschaft drastisch verändert, indem sie das automatisierte Scannen von Bildern, vorab aufgezeichneten Videos, Live-Streams und anderen Arten von Inhalten im laufenden Betrieb nutzt. Es kann Probleme wie Aktivitäten von Minderjährigen in der Erwachsenenunterhaltung, Nacktheit, sexuelle Aktivitäten, extreme Gewalt, Selbstverletzung und Hasssymbole auf Plattformen für benutzergenerierte Inhalte, einschließlich sozialer Medien, identifizieren.
Die KI wird auf große Mengen an „Ground-Truth-Daten“ trainiert und sammelt und analysiert Erkenntnisse aus Archiven mit getaggten Bildern und Videos, die von Waffen bis hin zu expliziten Inhalten reichen. Die Genauigkeit und Wirksamkeit von KI-Systemen stehen in direktem Zusammenhang mit der Qualität und Quantität dieser Daten. Einmal trainiert, kann die KI verschiedene Formen schädlicher Inhalte effektiv erkennen. Dies ist besonders wichtig in Live-Streaming-Szenarien, in denen die Moderation von Inhalten auf verschiedenen Plattformen mit unterschiedlichen rechtlichen und Community-Standards möglich sein muss.
Ein automatisierter Ansatz beschleunigt nicht nur den Moderationsprozess, sondern sorgt auch für Skalierbarkeit – ein entscheidendes Merkmal in einer Zeit, in der eine rein menschliche Moderation angesichts der schieren Menge an Online-Inhalten unmöglich wäre.
Eine Synergie aus KI und Menschen
Die KI-Automatisierung bringt erhebliche Vorteile mit sich, da sie es Unternehmen ermöglicht, in großem Maßstab zu moderieren und die Kosten zu senken, da kein großes Moderatorenteam erforderlich ist. Allerdings erfordert selbst die fortschrittlichste Technologie menschliches Urteilsvermögen, und KI ist für sich genommen noch lange nicht perfekt. Spezifische Nuancen und kontextbezogene Hinweise können Systeme verwirren und zu ungenauen Ergebnissen führen. Beispielsweise ist die KI möglicherweise nicht in der Lage, zwischen einem Küchenmesser, das in einem Kochvideo verwendet wird, und einer Waffe, die bei einer Gewalttat verwendet wird, zu unterscheiden, oder sie verwechselt eine Spielzeugpistole in einem Werbespot für Kinder mit einer echten Schusswaffe.
Wenn also die KI Inhalte als potenziell schädlich oder als Verstoß gegen Richtlinien kennzeichnet, können menschliche Moderatoren eingreifen, um den Inhalt zu überprüfen und die endgültige Entscheidung zu treffen. Dieser hybride Ansatz stellt sicher, dass die KI zwar den Umfang der Inhaltsmoderation erweitert und den Prozess rationalisiert, der Mensch jedoch die ultimative Autorität behält, insbesondere in komplexen Fällen.
In den kommenden Jahren wird die Komplexität der KI-Identifizierungs- und Verifizierungstechniken weiter zunehmen. Dazu gehört die Verbesserung der Genauigkeit der Zuordnung von Personen, die in verschiedenen Arten von Inhalten vorkommen, zu ihren Ausweisdokumenten – ein nächster Schritt, um die Einwilligung sicherzustellen und die unbefugte Verbreitung von Inhalten einzudämmen.
Dank ihrer Lernfähigkeit werden die Genauigkeit und Effizienz der KI ständig verbessert, mit dem Potenzial, den Bedarf an menschlichem Eingreifen im Zuge ihrer Weiterentwicklung zu verringern. Der menschliche Faktor wird jedoch weiterhin notwendig sein, insbesondere bei Einsprüchen und Streitbeilegung im Zusammenhang mit Entscheidungen zur Inhaltsmoderation. Den aktuellen KI-Technologien mangelt es nicht nur an einer differenzierten Perspektive und einem differenzierten Verständnis, sondern der Mensch kann auch als Kontrolle gegen mögliche algorithmische Vorurteile oder Fehler dienen.
Die globale KI-Regulierungslandschaft
Da die KI weiter wächst und sich weiterentwickelt, werden sich viele Unternehmen an die Regulierungsbehörden wenden, um ihre Pläne zur Regulierung von KI-Anwendungen darzulegen. Die Europäische Union steht bei dieser Gesetzgebung an vorderster Front, da ihr Gesetz zur künstlichen Intelligenz im August 2024 in Kraft tritt. Das Gesetz gilt als bahnbrechend im Regulierungsbereich und kategorisiert KI-Systeme in drei Typen: solche, die ein inakzeptables Risiko darstellen, und solche, die als solche gelten Hochrisiko und eine dritte Kategorie mit minimalen Vorschriften.
Infolgedessen wurde ein KI-Büro eingerichtet, das die Umsetzung des Gesetzes überwachen soll und aus fünf Einheiten besteht: Regulierung und Compliance; Sicherheit; KI-Innovation und politische Koordinierung; Robotik und KI zum Wohle der Gesellschaft; und Exzellenz in der KI. Das Büro wird auch die Fristen überwachen, die bestimmte Unternehmen für die Einhaltung der neuen Vorschriften einhalten müssen. Diese reichen von sechs Monaten für verbotene KI-Systeme bis zu 36 Monaten für KI-Systeme mit hohem Risiko.
Unternehmen in der EU wird daher empfohlen, die Entwicklungen in der Gesetzgebung genau zu beobachten, um die Auswirkungen auf ihre Geschäftsaktivitäten abzuschätzen und sicherzustellen, dass ihre KI-Systeme innerhalb der festgelegten Fristen konform sind. Auch für Unternehmen außerhalb der EU ist es von entscheidender Bedeutung, darüber informiert zu bleiben, wie sich solche Vorschriften auf ihre Aktivitäten auswirken könnten, da die Gesetzgebung voraussichtlich nicht nur die Politik innerhalb der EU, sondern möglicherweise auch im Vereinigten Königreich, in den USA und in anderen Regionen beeinflussen wird. Die in Großbritannien und den USA ansässigen KI-Vorschriften werden diesem Beispiel folgen. Daher müssen Unternehmen sicherstellen, dass sie am Puls der Zeit sind und dass alle Tools, die sie jetzt implementieren, wahrscheinlich auch in Zukunft den Compliance-Richtlinien dieser Länder entsprechen.
Ein kollaborativer Ansatz für ein sichereres Internet
Allerdings erfordert die erfolgreiche Implementierung von KI in der Inhaltsmoderation auch ein starkes Engagement für kontinuierliche Verbesserung. Es ist wahrscheinlich, dass Tools entwickelt werden, bevor irgendwelche Vorschriften in Kraft treten. Daher ist es wichtig, dass Unternehmen sie proaktiv überprüfen, um mögliche Vorurteile zu vermeiden, Fairness zu gewährleisten und die Privatsphäre der Benutzer zu schützen. Organisationen müssen außerdem in die kontinuierliche Schulung menschlicher Moderatoren investieren, um die nuancierten Fälle, die zur Überprüfung durch KI gekennzeichnet sind, effektiv zu bearbeiten.
Gleichzeitig müssen Lösungsanbieter angesichts der psychologisch anspruchsvollen Natur der Inhaltsmoderationsarbeit der psychischen Gesundheit ihrer menschlichen Moderatoren Priorität einräumen und ihnen solide psychologische Unterstützung, Wellness-Ressourcen und Strategien zur Verfügung stellen, um eine längere Exposition gegenüber störenden Inhalten zu begrenzen.
Durch einen proaktiven und verantwortungsvollen Ansatz bei der KI-gestützten Inhaltsmoderation können Online-Plattformen eine digitale Umgebung schaffen, die Kreativität, Verbindung und konstruktiven Dialog fördert und gleichzeitig Benutzer vor Schaden schützt.
Letztendlich bieten KI-gestützte Content-Moderationslösungen Unternehmen ein umfassendes Toolkit, um die Herausforderungen des digitalen Zeitalters zu meistern. Durch die Überwachung und Filterung riesiger Mengen an benutzergenerierten Inhalten in Echtzeit unterstützt diese hochmoderne Technologie Plattformen bei der Aufrechterhaltung einer sicheren und konformen Online-Umgebung und ermöglicht es ihnen, ihre Moderationsbemühungen effizient zu skalieren.
Allerdings sollten Unternehmen beim Einsatz von KI wichtige Dokumente, Umsetzungstermine und die Auswirkungen kommender Gesetzgebung genau im Auge behalten.
Bei effektiver Umsetzung kann KI als perfekter Partner für den Menschen fungieren und eine Content-Moderationslösung schaffen, die Kinder beim Zugriff auf das Internet schützt und als Eckpfeiler für die Schaffung eines sicheren Online-Ökosystems fungiert.
Lina Ghazal
Leiter Regulatory and Public Affairs bei VerifyMy, spezialisiert auf Online-Ethik, Regulierung und Sicherheit. Zuvor arbeitete er bei Meta (ehemals Facebook) und Ofcom.

