El vigilante de Internet de Australia ha dicho que las firmas de redes sociales más grandes del mundo todavía están “haciendo la vista gorda” al material de abuso sexual infantil en línea en sus plataformas, y dijo que YouTube en particular no había respondido a sus enquiries. En un informe publicado el miércoles, el comisionado de ESAFETY dijo que YouTube, junto con Apple, no logró rastrear el número de informes de usuarios que recibieron abusos de sexo infantil en sus plataformas y que tampoco podía que el gobierno no pudiera tener en cuenta sus plataformas y no pudiera que el gobierno no pudiera tener a sus plataformas que no podía que el gobierno no pudiera a sus plataformas que no pudieron que el gobierno no pudiera a ellos. Decidió la semana pasada incluir YouTube en su primera prohibición del mundo en las redes sociales para los adolescentes, siguiendo el consejo de Esafety para anular su exención planificada para el sitio de intercambio de videos Googl.o de Google, propiedad de un alfabeto. Images/LighTrocket a través de Gett)
“Cuando se dejan a sus propios dispositivos, estas compañías no priorizan la protección de los niños y aparentemente están haciendo la vista gorda a los crímenes que ocurren en sus servicios”, dijo la comisionada de Esafety Julie Inman Grant en un comunicado.
“Ninguna otra industria orientada al consumidor se le daría la licencia para operar permitiendo tales crímenes atroces contra niños en sus instalaciones o servicios”.
Google ha dicho anteriormente que el material de abuso no tiene lugar en sus plataformas y que utiliza una gama de técnicas estándar de la industria para identificar y eliminar dicho material.
Meta – propietario de Facebook, Instagram y Threads, tres de las plataformas más grandes con más de 3 mil millones de usuarios en todo el mundo, dice que prohíbe videos gráficos.
Google ha dicho antes que sus medidas antiabuse incluyen tecnología de combate hash e inteligencia artificial. (Smith Collection/Getty)
El comisionado de Esafety, una oficina creada para proteger a los usuarios de Internet, ha ordenado a Apple, Discord, Google, Meta, Microsoft, Skype, Snap y WhatsApp para informar sobre las medidas que toman para abordar el material de explotación y abuso de niños en Australia.
El informe sobre sus respuestas hasta ahora encontró una “gama de deficiencias de seguridad en sus servicios que aumenta el riesgo de que el material y la actividad de la explotación sexual y el abuso infantil aparezca en los servicios”.
Las brechas de seguridad incluyeron fallas para detectar y evitar la transmisión en vivo del material o los enlaces de bloque al material conocido de abuso infantil, así como mecanismos de informes inadecuados.
Dijo que las plataformas tampoco estaban utilizando tecnología de “hash combinando” en todas las partes de sus servicios para identificar imágenes de abuso sexual infantil al verificarlas contra una base de datos.
El regulador australiano dijo que algunos proveedores no habían realizado mejoras para abordar estas brechas de seguridad en sus servicios a pesar de que los puso en cuenta en años anteriores. (Getty)
Google ha dicho antes que sus medidas antiabuse incluyen tecnología de combate hash e inteligencia artificial.
El regulador australiano dijo que algunos proveedores no habían realizado mejoras para abordar estas brechas de seguridad en sus servicios a pesar de que los puso en cuenta en años anteriores.
“En el caso de los servicios de Apple y YouTube de Google, ni siquiera respondieron nuestras preguntas sobre cuántos informes de usuarios recibieron sobre el abuso sexual infantil en sus servicios o detalles de cuántos personal de confianza y seguridad Apple y Google tienen en el personal”, dijo Inman Grant.