YouTube, the Google-owned video streaming platform, believes highly in its community guidelines.
When a user accesses its platform, that user is becoming part of a community. As with any community, users must treat it with respect and responsibility if the goal is to stay around for the long term.
And as with any community, you won’t like everything you see. YouTube understands this. To prevent negative and violent content on its platform, YouTube tells its users: “If you think content is inappropriate, use the flagging feature to submit it for review by our YouTube staff. Our staff carefully reviews flagged content 24 hours a day, seven days a week to determine whether there’s a violation of our community guidelines.”
However, the massive amount of data that’s uploaded each day to YouTube makes it difficult to bulletproof the platform from negative content. On April 23, YouTube announced it had deleted more than 8 million videos between October and December 2017 for violating community guidelines. Most of the deleted videos were spam or people trying to upload “adult content.” But the video streaming giant has more than 1 billion users, and 1 billion hours of videos are watched every day. So how could YouTube possibly “police” this massive amount of activity?
According to the company’s quarterly report, computers are responsible for detecting most of the videos that end up being deleted. In fact, 6.7 million videos out of the 8 million were first flagged for review by machines, not humans. Of those, 76 percent were taken down before receiving any views from users.
This massive effort to delete negative content is likely connected to the large number of public complaints the company has received. For instance, Nicole Perrin, a senior analyst at eMarketer, recently complained to CNN: “For years (YouTube), encouraged creators to put essentially almost anything on the site. That’s led to an explosion of content.”
After multiple complaints were lodged, multiple organizations launched their own investigations to understand the magnitude of the problem. A CNN investigation, for example, found ads from more than 300 companies and organizations promoting white nationalists, Nazis, pedophilia, North Korean propaganda and other controversial or extremist content.
Efforts to monitor YouTube’s content continue. Google has pledged to hire 10,000 employees across the company by year’s end to address “violative” content.
But please keep in mind: YouTube can only do so much to prevent violent or other inappropriate content from being uploaded to its platform. The rest of the responsibility is up to us, the users. We must protect ourselves and our children from inappropriate content, just as we have a responsibility to protect ourselves and our children from real world dangers.
Responsibility, after all, comes with being part of a community.
YouTube está haciendo esfuerzos para proteger su comunidad
YouTube, la plataforma de transmisión de videos de propiedad de Google, cree altamente en sus directrices comunitarias.
Cuando un usuario accede a su plataforma, ese usuario se está convirtiendo en parte de una comunidad. Al igual que con cualquier comunidad, los usuarios deben tratarla con respeto y responsabilidad si la meta es permanecer a largo plazo.
Y como con cualquier comunidad, no te gustará todo lo que ves. YouTube entiende esto. Para evitar contenido negativo y violento en su plataforma, YouTube le dice a sus usuarios: “Si cree que el contenido es inapropiado, use la función de marcar para enviarlo para que lo revise nuestro personal de YouTube. Nuestro personal revisa cuidadosamente el contenido marcado las 24 horas del día, los siete días de la semana, para determinar si hay una violación de las normas de nuestra comunidad “.
Sin embargo, la gran cantidad de datos que se cargan cada día en YouTube hace que sea difícil proteger a la plataforma del contenido negativo. El 23 de abril, YouTube anunció que había eliminado más de 8 millones de videos entre octubre y diciembre de 2017 por violar las normas de la comunidad. La mayoría de los videos eliminados eran spam o personas que intentaban cargar “contenido para adultos”. Pero el gigante de la transmisión de video tiene más de mil millones de usuarios y mil millones de horas de videos se ven todos los días. Entonces, ¿cómo podría YouTube posiblemente “controlar” esta gran cantidad de actividad?
Según el informe trimestral de la compañía, las computadoras son responsables de detectar la mayoría de los videos que terminan siendo eliminados. De hecho, 6.7 millones de videos de los 8 millones se marcaron primero para ser revisados por máquinas, no por humanos. De ellos, el 76 por ciento fueron retirados antes de recibir cualquier opinión de los usuarios.
Este esfuerzo masivo para eliminar contenido negativo probablemente esté relacionado con la gran cantidad de quejas públicas que la compañía ha recibido. Por ejemplo, Nicole Perrin, una analista sénior de eMarketer, se quejó recientemente a CNN: “Durante años (YouTube), animó a los creadores a poner prácticamente cualquier cosa en el sitio. Eso llevó a una explosión de contenido “.
Después de que se presentaron varias quejas, varias organizaciones iniciaron sus propias investigaciones para comprender la magnitud del problema. Una investigación de CNN, por ejemplo, encontró anuncios de más de 300 compañías y organizaciones promoviendo nacionalistas blancos, nazis, pedofilia, propaganda de Corea del Norte y otros contenidos controvertidos o extremistas.
Los esfuerzos para monitorear el contenido de YouTube continúan. Google se ha comprometido a contratar 10.000 empleados en toda la compañía para fines de año para abordar contenido que violen su comunidad.
Pero tenga en cuenta que aunque YouTube hace mucho para evitar que contenido violento u otro contenido inapropiado sea subido a su plataforma. El resto de la responsabilidad depende de nosotros, los usuarios. Debemos protegernos a nosotros mismos y a nuestros hijos del contenido inapropiado, del mismo modo que tenemos la responsabilidad de protegernos a nosotros mismos y a nuestros hijos de los peligros del mundo real.
La responsabilidad, después de todo, viene con ser parte de una comunidad.