Clasificación de medios

Descripción general

La identificación y clasificación de contenido sexual en medios incautados es central en las investigaciones de explotación infantil. La revisión manual es lenta, traumática para los investigadores e inconsistente a escala.

La capacidad de Clasificación de Medios de Rigr AI utiliza detección de objetos basada en aprendizaje profundo para identificar contenido sexual, partes del cuerpo, actividades e indicadores contextuales en imágenes — y luego mapea esas detecciones a una clasificación de gravedad estructurada alineada con marcos de revisión establecidos.

Capacidades de detección

El modelo actual (VisualyzeV2) detecta 99 elementos visuales distintos en las siguientes categorías:

Partes del cuerpo y anatomía

Genitales, pechos, glúteos, manos, pies — cada uno clasificado por etapa de desarrollo (de lactante a adulto).

Actividades sexuales

Coito, sexo oral, penetración, masturbación, posado y contacto no penetrante — detectados y etiquetados con precisión.

Demografía por edad

Rostros y figuras de cuerpo entero clasificados por etapa de desarrollo: lactante, niño pequeño, prepúber, púber y adulto.

Indicadores contextuales

Selfies (teléfono/cámara), capturas de pantalla, logos de redes CSAM, ropa, joyería, ataduras y otros marcadores probatorios.

Clasificación de gravedad

Cada imagen recibe una clasificación de gravedad a nivel de fotograma basada en el contenido más grave detectado. La clasificación se mapea a una escala estructurada diseñada para el triaje investigativo:

Gravedad Clasificación Descripción
0 Sin contenido sexual Nada de interés investigativo detectado
2 Explotador / sugestivo Desnudez, anatomía expuesta o contexto sexualizado sin actividad explícita
3 Posado abiertamente sexualizado Presentación genital deliberada o posicionamiento abiertamente sexualizado
4 Actividad sexual no penetrante Masturbación, lamer u otro contacto sexual no penetrante
5 Actividad sexual penetrante Coito, sexo oral, penetración anal o vaginal

Cada detección se enriquece además con marcadores contextuales — como Autogenerado, Sadomasoquismo o Elementos CG — proporcionando contexto investigativo adicional.

Pruébelo

Suba una imagen para ver la clasificación de medios en acción. Se acepta contenido adulto con fines de prueba.

Take a photo

or

Upload an image

Adult content is fine for testing — do not upload CSAM.
Processed securely — no images are stored.

Uso operativo

Dentro de los flujos de trabajo de investigación, la Clasificación de Medios se utiliza para:

  • Triar grandes volúmenes de medios incautados por gravedad
  • Identificar actividades sexuales específicas, partes del cuerpo e indicadores contextuales
  • Marcar contenido autogenerado, logos de redes CSAM y otros marcadores probatorios
  • Priorizar las colas de revisión para que los investigadores se centren en el material más grave

Esta capacidad también está disponible como API independiente o aplicación containerizada que puede desplegarse en un entorno aislado.

Despliegue y control

  • Totalmente containerizado
  • Operación on-premise y air-gapped
  • Sin retención de datos
  • El cliente mantiene el control total de las entradas y salidas

Para desarrolladores

La API de clasificación acepta imágenes mediante carga multipart y devuelve una clasificación de gravedad, marcadores contextuales y detecciones por objeto con cuadros delimitadores y puntuaciones de confianza.

Inicio rápido POST /classify
curl -X POST https://api.mes.rigr.ai/classify \
  -H "X-API-KEY: $API_KEY" \
  -F "[email protected]" \
  -F "model=VisualyzeV2"
Respuesta
{
  "classification": {
    "key": "rigr-penetrative",
    "display_name": "Penetrative sexual activity",
    "severity": 5
  },
  "flags": ["Self-Generated"],
  "detections": [{
    "class_name": "Male Receive Oral",
    "score": 0.87,
    "bbox": {"x": 0.12, "y": 0.45, "w": 0.31, "h": 0.62},
    "ucs_sexual_content": "Penetrative Sexual Activity"
  }]
}