Classificação de media
Visão geral
A identificação e classificação de conteúdo sexual em media apreendida é central nas investigações de exploração infantil. A revisão manual é lenta, traumática para os investigadores e inconsistente em grande escala.
A capacidade de Classificação de Media da Rigr AI utiliza deteção de objetos baseada em deep learning para identificar conteúdo sexual, partes do corpo, atividades e indicadores contextuais em imagens — e mapeia essas deteções numa classificação de gravidade estruturada alinhada com quadros de revisão estabelecidos.
Capacidades de deteção
O modelo atual (VisualyzeV2) deteta 99 elementos visuais distintos nas seguintes categorias:
Partes do corpo e anatomia
Genitais, seios, nádegas, mãos, pés — cada um classificado por estágio de desenvolvimento (lactente a adulto).
Atividades sexuais
Relação sexual, sexo oral, penetração, masturbação, pose e contacto não penetrante — detetados e classificados com precisão.
Demografia por idade
Rostos e figuras de corpo inteiro classificados por estágio de desenvolvimento: lactente, criança pequena, pré-púbere, púbere e adulto.
Indicadores contextuais
Selfies (telefone/câmara), capturas de ecrã, logótipos de redes CSAM, vestuário, joalharia, restrições e outros marcadores probatórios.
Classificação de gravidade
Cada imagem recebe uma classificação de gravidade ao nível do fotograma com base no conteúdo mais grave detetado. A classificação corresponde a uma escala estruturada concebida para triagem investigativa:
| Gravidade | Classificação | Descrição |
|---|---|---|
| 0 | Sem conteúdo sexual | Nada de interesse investigativo detetado |
| 2 | Explorador / sugestivo | Nudez, anatomia exposta ou contexto sexualizado sem atividade explícita |
| 3 | Pose abertamente sexualizada | Apresentação genital deliberada ou posicionamento abertamente sexualizado |
| 4 | Atividade sexual não penetrante | Masturbação, lamber ou outro contacto sexual não penetrante |
| 5 | Atividade sexual penetrante | Relação sexual, sexo oral, penetração anal ou vaginal |
Cada deteção é também enriquecida com marcadores contextuais — como Autogerado, Sadomasoquismo ou Elementos CG — fornecendo contexto investigativo adicional.
Experimente
Carregue uma imagem para ver a classificação de media em ação. Conteúdo adulto é aceite para fins de teste.
Adult content is fine for testing — do not upload CSAM.
Processed securely — no images are stored.
Uso operacional
Nos fluxos de trabalho de investigação, a Classificação de Media é utilizada para:
- Triar grandes volumes de media apreendida por gravidade
- Identificar atividades sexuais específicas, partes do corpo e indicadores contextuais
- Sinalizar conteúdo autogerado, logótipos de redes CSAM e outros marcadores probatórios
- Priorizar as filas de revisão para que os investigadores se concentrem no material mais grave
Esta capacidade também está disponível como API autónoma ou aplicação containerizada que pode ser implementada num ambiente isolado.
Implementação e controlo
- Totalmente containerizado
- Operação on-premise e air-gapped
- Sem retenção de dados
- O cliente mantém o controlo total das entradas e saídas
Para programadores
A API de classificação aceita imagens por carregamento multipart e devolve uma classificação de gravidade, marcadores contextuais e deteções por objeto com caixas delimitadoras e pontuações de confiança.
POST /classify curl -X POST https://api.mes.rigr.ai/classify \
-H "X-API-KEY: $API_KEY" \
-F "[email protected]" \
-F "model=VisualyzeV2" {
"classification": {
"key": "rigr-penetrative",
"display_name": "Penetrative sexual activity",
"severity": 5
},
"flags": ["Self-Generated"],
"detections": [{
"class_name": "Male Receive Oral",
"score": 0.87,
"bbox": {"x": 0.12, "y": 0.45, "w": 0.31, "h": 0.62},
"ucs_sexual_content": "Penetrative Sexual Activity"
}]
}