Mecanismos para proteger a nuestros miembros frente al contenido abusivo

Con el objetivo de garantizar una experiencia segura y fiable a nuestros miembros, nuestro equipo de seguridad y confianza trabaja para cerrar las puertas de LinkedIn a cualquier contenido que vulnere nuestras Políticas para la comunidad profesional. En esta publicación del blog explicamos qué hacemos para que el respeto y la profesionalidad sean la norma en todas las interacciones en nuestra plataforma.

Cada minuto se generan y comparten grandes volúmenes de contenido en LinkedIn, desde artículos y mensajes hasta imágenes y vídeos. En nuestro ecosistema aplicamos tres niveles de protección para identificar los contenidos que incumplen nuestras políticas y evitar que sean visibles para los miembros, tanto en el feed como en mensajes privados. 

El sistema de defensa de LinkedIn contra infracciones de contenido

Primer nivel de protección: Prevención automática

La primera línea de defensa de nuestro sistema es la prevención automática. Cuando un miembro intenta crear contenido en LinkedIn, nuestros servicios de aprendizaje automático se ponen en alerta para identificar posibles contenidos inadecuados a los 300 milisegundos de su creación, por lo que el contenido solo es visible para el autor y no aparece en ninguna otra parte de la plataforma. 

La inteligencia artificial es un recurso clave para aislar los contenidos inaceptables y garantizar que no llegan a ojos de nuestros miembros. Para entrenar nuestros modelos de IA usamos contenidos (como determinadas palabras clave o imágenes) ya clasificados como contrarios a nuestras políticas de contenido y así podemos identificar contenidos similares y evitar su publicación en el futuro. 

En paralelo, nuestro equipo de ciencia de datos aplica un análisis cuantitativo al proceso anterior para saber cuántas infracciones de contenido se han evitado y cuántas siguen siendo visibles en la plataforma. El contenido bloqueado durante su creación se añade a una base de datos y analizamos de forma regular nuestras medidas preventivas para afinar el proceso de filtrado. En este análisis, enviamos algunas muestras positivas a revisores humanos para medir la precisión de nuestro sistema de defensa automatizado y evitar que contenido legítimo termine bloqueado por el filtrado automático.

Indicadores clave para evitar infracciones de contenido:

  1. Volumen de contenido bloqueado = contenido inadecuado bloqueado automáticamente en el momento de su creación.

  2. Precisión = contenido eliminado correctamente dividido por el contenido eliminado automáticamente en el momento de su creación.

  3. % evitado = contenido con infracciones eliminado automáticamente en el momento de su creación dividido por el total de intentos de contenido con infracciones en el sitio. El contenido con infracciones total es fruto de la suma del contenido evitado, el contenido detectado y la estimación del contenido no detectado.

Segundo nivel de protección: Combinación de detección automática y humana

La segunda línea de defensa detecta contenido que puede contener infracciones pero sin que el algoritmo ofrezca una certeza suficiente para eliminarlo de forma automática. En estos casos, nuestros sistemas de IA marcan este contenido para una revisión humana. Si el equipo de revisores determina que el contenido incumple nuestras políticas se elimina de la plataforma. 

Tercer nivel de protección: Detección humana

La tercera y última capa de protección de nuestro sistema se apoya en nuestros miembros, que pueden denunciar el contenido en la plataforma. En este caso, el contenido se envía a nuestro equipo de revisores para su evaluación y se elimina si se determina que vulnera nuestras políticas.

El segundo y el tercer nivel de nuestro sistema de protección forman parte de la categoría de detección. Por tanto, las infracciones de contenido se han detectado y pueden haber causado algún perjuicio si han llegado a ojos de nuestros miembros antes de su eliminación o bloqueo. 

En los diferentes niveles de detección, el contenido identificado a través de la revisión humana se añade a una base de datos que registra las acciones realizadas por los revisores. También realizamos auditorías (o revisiones de las revisiones) de una muestra del contenido ya clasificado para medir la precisión de nuestras revisiones humanas. A partir de la comparación de las decisiones tomadas en las revisiones originales y en las auditorías obtenemos un indicador conocido como puntuación de calidad. Esta puntuación compara las etiquetas y las subetiquetas del contenido auditado y nos permite medir la precisión de nuestra detección de contenidos con más exactitud.

Indicadores clave para detectar infracciones de contenido:

  1. Volumen de detectadas = infracciones de contenido filtradas mediante revisión humana

  2. Puntuación de calidad = contenido correctamente etiquetado dividido por el contenido total etiquetado mediante revisión humana

  3. % de detección = infracciones de contenido filtradas mediante revisión humana divididas por el total de intentos de publicación de contenido con infracción en el sitio

Además del contenido evitado y el contenido detectado, también hay infracciones de contenido no detectadas. Ante la imposibilidad de rastrear estos datos, hacemos una estimación de las infracciones no detectadas extrayendo una muestra a partir de toda la base de contenidos, una muestra que sometemos después a una revisión humana. A partir de ahí realizamos una extrapolación para obtener una estimación del contenido no detectado. Si usáramos muestras aleatorias necesitaríamos una muestra de grandes dimensiones para realizar esta estimación, por lo que aplicamos una técnica de muestreo estratificada: gracias a las puntuaciones otorgadas por nuestros sistemas de clasificación de aprendizaje automático aumentamos las probabilidades de encontrar infracciones de contenido en nuestras muestras. De este modo podemos reducir el tamaño de la muestra sin sacrificar los niveles de precisión en nuestra estimación.

Indicadores clave para las infracciones de contenido no detectadas:

  1. Volumen sin detectar = estimación de infracciones de contenido presentes en el sitio

  2. % sin detectar = estimación de infracciones de contenido no detectadas en el sitio divididas por el total de intentos de publicación de contenido con infracción en el sitio

  3. % de visualizaciones = estimación de visualizaciones de contenido con infracciones no detectado divididas por las visualizaciones totales en la plataforma

Las claves para convertir infracciones no detectadas en infracciones evitadas

Nuestro método basado en los tres niveles de protección (contenido evitado, detectado y no detectado) forma parte del proceso que seguimos para abordar las infracciones de contenido. El porcentaje de infracciones de contenido evitadas y detectadas es lo que determina el nivel de eficacia del proceso. Gran parte de nuestro trabajo consiste en convertir infracciones no detectadas en infracciones detectadas y evitadas.

content-violation-funnel-and-key-metrics

Una mirada al futuro

En nuestra misión por ayudar a profesionales de todo el mundo a conectar para mejorar su productividad y sus resultados, es fundamental poder detectar rápidamente los contenidos que infringen nuestras políticas y actuar enseguida para que nuestra plataforma siga siendo segura para nuestros miembros y clientes. Aunque se trata de un esfuerzo continuo que nunca cesa, merece la pena destacar que, según los indicadores de nuestro último Informe de transparencia, en el primer trimestre de 2021 se eliminaron del sitio casi 66,3 millones de publicaciones con infracciones, el 99,6 % de las cuales gracias a nuestros mecanismos automatizados. 

Porque crear un ecosistema de empleos seguro, eliminar los perfiles inadecuados o evitar contenidos abusivos o inaceptables son solo algunas de las iniciativas que adoptamos para que LinkedIn siga siendo una comunidad segura y fiable. Si quieres más información, no dudes en consultar nuestro último Informe de transparencia aquí

Agradecimientos

En LinkedIn, son muchos los equipos que colaboran para que la plataforma sea siempre un lugar seguro y de confianza para nuestros miembros, equipos como los de IA de confianza, infraestructura de confianza, IA multimedia, confianza y seguridad, confianza en producto, legal, políticas públicas, política de contenidos, ciencia de datos de confianza, experiencia de contenidos o IA de feed. Y todo sin olvidar a nuestra comunidad de miembros, cuyas valiosas aportaciones contribuyen a garantizar la seguridad de nuestra plataforma.


Related articles