Medienklassifizierung
Überblick
Die Identifizierung und Klassifizierung sexueller Inhalte in beschlagnahmten Medien steht im Mittelpunkt von Ermittlungen zur Ausbeutung von Kindern. Manuelle Überprüfung ist langsam, traumatisierend für Ermittler und bei großen Mengen inkonsistent.
Die Medienklassifizierungsfähigkeit von Rigr AI verwendet Deep-Learning-basierte Objekterkennung zur Identifizierung sexueller Inhalte, Körperteile, Aktivitäten und kontextueller Indikatoren in Bildern — und ordnet diese Erkennungen einer strukturierten Schweregradklassifizierung zu, die an etablierte Bewertungsrahmen angelehnt ist.
Erkennungsfähigkeiten
Das aktuelle Modell (VisualyzeV2) erkennt 99 verschiedene visuelle Elemente in den folgenden Kategorien:
Körperteile und Anatomie
Genitalien, Brüste, Gesäß, Hände, Füße — jeweils nach Entwicklungsstufe klassifiziert (Säugling bis Erwachsener).
Sexuelle Aktivitäten
Geschlechtsverkehr, Oralsex, Penetration, Masturbation, Posieren und nicht-penetrativer Kontakt — präzise erkannt und klassifiziert.
Altersdemografie
Gesichter und Ganzkörperfiguren nach Entwicklungsstufe klassifiziert: Säugling, Kleinkind, vorpubertär, pubertär und erwachsen.
Kontextuelle Indikatoren
Selfies (Telefon/Kamera), Screenshots, CSAM-Netzwerk-Logos, Kleidung, Schmuck, Fesseln und andere Beweismarker.
Schweregradklassifizierung
Jedem Bild wird eine Schweregradklassifizierung auf Frame-Ebene zugewiesen, basierend auf dem schwerwiegendsten erkannten Inhalt. Die Klassifizierung entspricht einer strukturierten Skala für die Ermittlungstriage:
| Schweregrad | Klassifizierung | Beschreibung |
|---|---|---|
| 0 | Kein sexueller Inhalt | Nichts von ermittlungsrelevantem Interesse erkannt |
| 2 | Ausbeuterisch / suggestiv | Nacktheit, freiliegende Anatomie oder sexualisierter Kontext ohne explizite Aktivität |
| 3 | Offen sexualisiertes Posieren | Absichtliche Genitalpräsentation oder offen sexualisierte Positionierung |
| 4 | Nicht-penetrative sexuelle Aktivität | Masturbation, Lecken oder anderer nicht-penetrativer sexueller Kontakt |
| 5 | Penetrative sexuelle Aktivität | Geschlechtsverkehr, Oralsex, anale oder vaginale Penetration |
Jede Erkennung wird zusätzlich mit kontextuellen Markierungen angereichert — wie Selbst erstellt, Sadomasochismus oder CG-Elemente — die zusätzlichen Ermittlungskontext liefern.
Ausprobieren
Laden Sie ein Bild hoch, um die Medienklassifizierung in Aktion zu sehen. Erwachseneninhalte werden zu Testzwecken akzeptiert.
Adult content is fine for testing — do not upload CSAM.
Processed securely — no images are stored.
Operativer Einsatz
In Ermittlungsabläufen wird die Medienklassifizierung eingesetzt, um:
- Große Mengen beschlagnahmter Medien nach Schweregrad zu triagieren
- Spezifische sexuelle Aktivitäten, Körperteile und kontextuelle Indikatoren zu identifizieren
- Selbst erstellte Inhalte, CSAM-Netzwerk-Logos und andere Beweismarker zu markieren
- Prüfungswarteschlangen zu priorisieren, damit sich Ermittler auf das schwerwiegendste Material konzentrieren
Die Fähigkeit ist auch als eigenständige API oder containerisierte Anwendung verfügbar, die in einer Air-Gapped-Umgebung eingesetzt werden kann.
Bereitstellung und Kontrolle
- Vollständig containerisiert
- On-Premise- und Air-Gapped-Betrieb
- Keine Datenspeicherung
- Der Kunde behält die volle Kontrolle über Ein- und Ausgaben
Für Entwickler
Die Klassifizierungs-API akzeptiert Bilder per Multipart-Upload und gibt eine Schweregradklassifizierung, kontextuelle Markierungen und objektweise Erkennungen mit Begrenzungsrahmen und Konfidenzwerten zurück.
POST /classify curl -X POST https://api.mes.rigr.ai/classify \
-H "X-API-KEY: $API_KEY" \
-F "[email protected]" \
-F "model=VisualyzeV2" {
"classification": {
"key": "rigr-penetrative",
"display_name": "Penetrative sexual activity",
"severity": 5
},
"flags": ["Self-Generated"],
"detections": [{
"class_name": "Male Receive Oral",
"score": 0.87,
"bbox": {"x": 0.12, "y": 0.45, "w": 0.31, "h": 0.62},
"ucs_sexual_content": "Penetrative Sexual Activity"
}]
}