Classificação de media

Visão geral

A identificação e classificação de conteúdo sexual em media apreendida é central nas investigações de exploração infantil. A revisão manual é lenta, traumática para os investigadores e inconsistente em grande escala.

A capacidade de Classificação de Media da Rigr AI utiliza deteção de objetos baseada em deep learning para identificar conteúdo sexual, partes do corpo, atividades e indicadores contextuais em imagens — e mapeia essas deteções numa classificação de gravidade estruturada alinhada com quadros de revisão estabelecidos.

Capacidades de deteção

O modelo atual (VisualyzeV2) deteta 99 elementos visuais distintos nas seguintes categorias:

Partes do corpo e anatomia

Genitais, seios, nádegas, mãos, pés — cada um classificado por estágio de desenvolvimento (lactente a adulto).

Atividades sexuais

Relação sexual, sexo oral, penetração, masturbação, pose e contacto não penetrante — detetados e classificados com precisão.

Demografia por idade

Rostos e figuras de corpo inteiro classificados por estágio de desenvolvimento: lactente, criança pequena, pré-púbere, púbere e adulto.

Indicadores contextuais

Selfies (telefone/câmara), capturas de ecrã, logótipos de redes CSAM, vestuário, joalharia, restrições e outros marcadores probatórios.

Classificação de gravidade

Cada imagem recebe uma classificação de gravidade ao nível do fotograma com base no conteúdo mais grave detetado. A classificação corresponde a uma escala estruturada concebida para triagem investigativa:

Gravidade Classificação Descrição
0 Sem conteúdo sexual Nada de interesse investigativo detetado
2 Explorador / sugestivo Nudez, anatomia exposta ou contexto sexualizado sem atividade explícita
3 Pose abertamente sexualizada Apresentação genital deliberada ou posicionamento abertamente sexualizado
4 Atividade sexual não penetrante Masturbação, lamber ou outro contacto sexual não penetrante
5 Atividade sexual penetrante Relação sexual, sexo oral, penetração anal ou vaginal

Cada deteção é também enriquecida com marcadores contextuais — como Autogerado, Sadomasoquismo ou Elementos CG — fornecendo contexto investigativo adicional.

Experimente

Carregue uma imagem para ver a classificação de media em ação. Conteúdo adulto é aceite para fins de teste.

Take a photo

or

Upload an image

Adult content is fine for testing — do not upload CSAM.
Processed securely — no images are stored.

Uso operacional

Nos fluxos de trabalho de investigação, a Classificação de Media é utilizada para:

  • Triar grandes volumes de media apreendida por gravidade
  • Identificar atividades sexuais específicas, partes do corpo e indicadores contextuais
  • Sinalizar conteúdo autogerado, logótipos de redes CSAM e outros marcadores probatórios
  • Priorizar as filas de revisão para que os investigadores se concentrem no material mais grave

Esta capacidade também está disponível como API autónoma ou aplicação containerizada que pode ser implementada num ambiente isolado.

Implementação e controlo

  • Totalmente containerizado
  • Operação on-premise e air-gapped
  • Sem retenção de dados
  • O cliente mantém o controlo total das entradas e saídas

Para programadores

A API de classificação aceita imagens por carregamento multipart e devolve uma classificação de gravidade, marcadores contextuais e deteções por objeto com caixas delimitadoras e pontuações de confiança.

Início rápido POST /classify
curl -X POST https://api.mes.rigr.ai/classify \
  -H "X-API-KEY: $API_KEY" \
  -F "[email protected]" \
  -F "model=VisualyzeV2"
Resposta
{
  "classification": {
    "key": "rigr-penetrative",
    "display_name": "Penetrative sexual activity",
    "severity": 5
  },
  "flags": ["Self-Generated"],
  "detections": [{
    "class_name": "Male Receive Oral",
    "score": 0.87,
    "bbox": {"x": 0.12, "y": 0.45, "w": 0.31, "h": 0.62},
    "ucs_sexual_content": "Penetrative Sexual Activity"
  }]
}