El material infantil prohibido que se sube al Internet puede ser difícilmente controlado por las gigantes de las redes. Aunque YouTube ha hecho un enorme esfuerzo se escapan de vez en cuando videos en ciertas cuentas y la empresa no alcanza a revisar, pues debería tener miles de millones de empleados para ello.

Imagen referencial Shutterstock

A pesar de los esfuerzos que YouTube está llevando a cabo para limitar el contenido inapropiado, es extraño el mes que la plataforma de vídeos de Google, la más conocida en su especie, no se ve envuelta en una polémica de este tipo.

El diario británico The Times ha calificado de «escaparate para pedófilos» a la compañía, que este mes cerraba la cuenta de un usuario brasileño por compartir archivos con imágenes de niños que se mostraban en situaciones comprometedoras.

Todos estos vídeos tenían una marca de agua en la que aparecía la dirección de correo electrónico del sujeto, con quien conectó The Times haciéndose pasar por otro usuario, y que se jactó de tener cientos de gigas de material que mostraba niños «desnudos».

La misma publicación detectó que otra cuenta ya había sido marcada por las autoridades de abuso infantil de Estados Unidos y Canadá, volvió a crear un canal al que subió cinco vídeos. En su perfil invitaba a compartir contenido a través de Telegram, un sistema de mensajería instantánea encriptada.

La polémica se multiplica cuando estos vídeos «indexan» en el buscador de YouTube; es decir, que se muestran como contenido relacionado cuando se navega por la web de forma automática y a partir de los algoritmos creados por la plataforma -es decir, no actúa la mano humana-.

La responsabilidad de las compañías

En cuanto a legislación, YouTube y cualquier compañía que sirve de plataforma de contenidos en internet, «no es responsable hasta que no se le notifica que éste es inapropiado o ilegal, ya que la autoría es de terceros y estos sistemas son considerados neutrales», afirma Sergio Carrasco, abogado especialista en nuevas tecnologías.

«Es un tema muy discutido, ya que estas empresas obtienen ingresos de contenidos que pueden ser pornográficos o que enaltecen al terrorismo, por ejemplo», continúa Carrasco.

El volumen de archivos, que en el caso de YouTube es inmenso -más de 100 horas de vídeo cada minuto-, es un hándicap a la hora de revisar todo lo que los usuarios suben a la red. «Es imposible contratar a tanta gente para que compruebe cada contenido», afirma el abogado, que además señala que la Directiva de Comercio Electrónico estipula que en ningún caso estas compañías están obligadas a una revisión activa. «No son responsables hasta que no lo saben», concluye.

YouTube dice «Estamos comprometidos en hacerlo bien»

La polémica ha llegado al Parlamento Británico, donde la laborista Yvette Cooper escribió a Google para pedir explicaciones, cuestionando la capacidad de mantener su plataforma libre de material ilegal. Desde el gigante tecnológico se afirmaba que se habían retirado más de 150.000 vídeos en los últimos meses, que estaban llevando a cabo «cambios» en el algoritmo y se condenó el contenido que «pone en peligro a los niños»: «Es aborrecible y no lo queremos en nuestra plataforma», aseguraron.

En la misma línea, un portavoz de YouTube explicó a la ABC que  «Cuando identifican nuevos patrones de abuso, toman medidas rápidas de acuerdo con sus políticas, cancelando canales y denunciando el peligro que implica para los niños cuando corresponda. Por otro lado, afirman que están «totalmente comprometidos con hacerlo bien» y que se está contratando a más personas y trabajando en soluciones tecnológicas «para detectar este tipo de contenido de forma rápida y a escala».