Google will für seine Videoplattform YouTube ein System künstlicher Intelligenz entwickeln, das terroristische Inhalte automatisch entdeckt und Experten vorlegt: In einem Beitrag für die Financial Times hat Kent Walker, der Chefjurist von Google, am Wochenende angekündigt, den Kampf gegen Terrorpropaganda zu verstärken. Der Konzern will dazu KI-Systeme entwickeln, die in der Lage sind, Videos mit terroristischen Inhalten selbsttätig zu identifizieren und zu markieren.
Google will seine modernste Technik bei selbstlernenden Maschinen dafür einsetzen und zugleich die Zahl der Entwickler für diese Systeme erhöhen. Die markierten Filme sollen dann von Experten begutachtet und gegebenenfalls gelöscht werden. Auch die Zahl dieser Experten soll erhöht werden. Google nennt sie „Trusted Flagger“ und versteht darunter Personen und Organisationen, denen das Unternehmen bei der Beurteilung von anstößigen oder rechtswidrigen Inhalten vertraut. In Deutschland sind das beispielsweise jugendschutz.net, das gemeinsame Kompetenzzentrum von Bund und Ländern für den Jugendschutz im Internet, sowie die FSM (Freiwillige Selbstkontrolle Multimedia-Diensteanbieter).
Auch Facebook hatte vor einigen Tagen angekündigt, verstärkt mit KI-Software zu arbeiten, um etwa das erneute Hochladen bereits gelöschter terroristischer Bilder zu verhindern und Texte mit terroristischem Inhalt zu identifizieren.