YouTube elimina 7.8 millones de videos por incumplimiento de normas
My Press

Martes, 19 de febrero de 2019

YouTube elimina 7.8 millones de videos por incumplimiento de normas

  1.6 millones de canales y 224 millones de comentarios fueron suprimidos por violar su política de contenido

Publicado en: Ciudad de México , el por

La plataforma de video más popular del mundo, Youtube, eliminó 7.8 millones de contenidos visuasles entre julio y septiembre de 2018 por incumplir con las normas de su comunidad, los cuales fueron detectados por su sistema automatizado.

De acuerdo con el informe trimestral de Youtube publicado en su blog corporativo, 1.6 millones de canales y 224 millones de comentarios fueron suprimidos por violar su política de contenido: "La combinación de tecnología y humanos entrenados nos permite aplicar nuestras políticas sobre contenido con gran rapidez", se lee en la publicación.

Según datos de la compañía el 90 por ciento de los canales eliminados en septiembre no cumplía con las normas y eran catalogadas como spam, además fueron vistos menos de diez veces gracias al control de la plataforma.

Asimismo, la compañía retiró en el primer trimestre 9.1 millones de videos, mientras en el segundo fueron 7.1 millones.

Youtube está realizando estos procesos de auditoria para comprobar la legitimidad de las cuentas que integran su comunidad, así como la adquisición de suscriptores, aquellas cuentas que consigan suscripciones por medios artificiales ya no podrán participar en el programa de socios de la compañía.

A partir de 2018 la plataforma de video empezó a emitir de manera trimestral reportes para que los usuarios cumplan con sus normativas y los esfuerzos de cumplimiento tengan frutos. Sin embargo, Youtube enfrenta un gran desafío y es el de erradicar contenidos de odio y comportamientos peligrosos.

"Youtube está comprometido en eliminar contenido inadecuado antes que los usuarios lo puedan ver", asegura la compañía.

Incluso grupos de interés y gubernamentales de Europa, Asia y Estados Unidos han estado presionando a los servicios de redes sociales para que identifiquen el contenido extremista que puede ser un detonante de violencia.

Funcionarios han propuesto a Facebook, Twitter y Youtube implementar el cobro de multas por cada material inapropiado que sea puesto en la red. Gracias a la Inteligencia Artificial la detección de un contenido inapropiado ya se hace de manera automática.

Los usuarios de Youtube deben estar conscientes de las normas y políticas que marca la plataforma. El contenido de odio y los comentarios ofensivos serán eliminados de forma automática al igual que los canales catalogados como spam, así como los 7.8 millones de videos retirados de la red social.

 

 

NOTICIAS DE LA SECCIÓN

SAP ofrece soluciones para los retos de la economía digital, ¿cómo funciona?

Universidad Ibero presenta proyecto para apoyar a las Pymes mexicanas

SAP C/4HANA, solución diseñada para modernizar la economía digital

Piden en Reino Unido a Facebook poner fin a difusión de información falsa

Internet Tecnología Redes Sociales

¿Te gustó el contenido?