Los desarrolladores de la plataforma dieron 30 días para que los creadores de contenido se familiaricen con las nuevas reglas, después de ese plazo comenzará a borrar videos.
En YouTube se sube una cantidad enorme de contenido a diario. Se comparten desde videos inofensivos hasta otros que pueden contener imágenes violentas o "maduras". En el caso de que esos archivos estén dirigidos hacia un público infantil, la compañía los eliminará.
De acuerdo con la plataforma, se borrarán todos aquellos contenidos que contengan temas "violentos o maduros" si es que el público objetivo son niños. Esta medida se tomara si la violencia se sugiere en el título, a través de su descripción o en las etiquetasque lo acompañan.
El cambio de política se realizó hace un par de días, pero la compañía declaró que la implementación de la medida comenzará a darse en la app en los próximos 30 días para darle oportunidad a los creadores que se familiaricen con las nuevas reglas.
Un punto importante sobre la nueva política es que los videos que hayan sido subidos antes del anuncio de los 30 días no serán eliminados. Cabe resaltar que también se instó a los creadores a que revisaran las pautas para cargar su contenido a YouTube.
Algunos ejemplos de lo que la aplicación considera violento o maduro son las actividades perturbadoras como "inyectar agujas" o también canciones en donde se mencionen tópicos como el sexo, la violencia o incluso la muerte.
Esta decisión está enmarcada por una investigación que está llevando a cabo la Comisión Federal de Comerció de Estados Unidos sobre la incapacidad de la plataforma para combatir aquellos videos que explotan, manipulan o dañan a los niños, así como las posibles violaciones a su privacidad.
El centro de la investigación hacia YouTube lo ocupa el algoritmo de recomendación, el cual, según críticos consultados por el portal especializado en tecnología The Verge, es defectuoso, pues no toma en cuenta al usuario, por lo que puede enviarle videos perturbadores a niños pequeños.
Antes de este cambio únicamente se restringía la edad para acceder a los videos, sin embargo, YouTube no pudo hacer cumplir estas reglas de manera convincente y uniforme, por lo que tuvieron que soportar momentos como el Elsagate.
Elsagate sucedió en el año 2017 cuando un grupo de creadores anónimos y con herramientas para que fueran difíciles de rastrear se dedicaron a realizar videos que además de infringir los derechos de autor, presentaban versiones perturbadoras de personajes de Disney y Marvel.
Otro campo de acción sobre el que la aplicación está ejerciendo control es en los canales en vivo en los que haya niños involucrados e incluso ha optado por deshabilitar los comentarios.
Buscan regulación en la publicidad hacia los niños
Con el fin de satisfacer a las autoridades de la Comisión Federal de Comercio, los responsables de YouTube se han puesto en marcha para poner fin a anuncios "específicos" que estén dirigidos o se encuentren en videos que los niños puedan ver.
El problema con esta disposición es que la medida podría afectar las ventas de anunciospara la plataforma. No obstante, el origen de esta regulación se halla en que los anuncios dirigidos se basan en la recopilación de información acerca del usuario.
Según reportes del diario Bloomberg, a manera de defensa en este aspecto, la plataforma de videos ha mencionado durante mucho tiempo que su sitio principal no es para niños. En el caso de que los más pequeños la quieran utilizar, apuntan, deben optar por la aplicación YouTube Kids, la cual no usa anuncios dirigidos.