El video del tiroteo en una sinagoga y un restaurante turco incluía un “manifiesto” con comentarios racistas y antisemitas. ataque sinagoga alemania.mp4 “Nos hemos movilizado lo más rápido posible para eliminar este contenido y suspenderemos todas las cuentas que publiquen o compartan imágenes de este abominable acto”, dijo una vocera de Twitch, resaltando que la empresa toma “cualquier acto de violencia” con “extrema seriedad”. Las empresas tecnológicas habían estado tratando de evitar que se repitiera la difusión de un baño de sangre como sucedió en marzo en Christchurch, Nueva Zelanda, donde el atacante transmitió en vivo por Facebook el asesinato de sus 51 víctimas. Twitch, que ha ganado seguidores de la transmisión en directo de videojuegos, fue adquirido en 2014 por Amazon por 970 millones de dólares, y tiene un estimado de 15 millones de usuarios al día” Ese hecho llevó a los gobiernos a presionar a las redes sociales para prevenir que se transmitan actos violentos en sus plataformas. El 23 de septiembre, Facebook anunció en Naciones Unidas esfuerzos adicionales durante un encuentro con la primera ministra de Nueva Zelanda, Jacinda Ardern, quien ha asumido la causa de la lucha contra el extremismo en línea. También el mes pasado, Amazon anunció que se unió al Global Internet Forum to Counter Terrorism, una alianza encargada de abordar los contenidos más peligrosos en las redes sociales. Twitch, que ha ganado seguidores de la transmisión en directo de videojuegos, fue adquirido en 2014 por Amazon por 970 millones de dólares, y tiene un estimado de 15 millones de usuarios al día. Dice que la cuenta que el tirador de Halle utilizó fue creada “unos dos meses antes del tiroteo transmitido en streaming” y sólo había habido un intento de transmisión en vivo antes del ataque de este miércoles. Después de la masacre de Christchurch, Facebook y otras redes señalaron los desafíos que representa prevenir que los contenidos violentos se compartan, a menudo con cambios menores para evitar ser detectados por la inteligencia artificial. “Este video no apareció en ninguna recomendación o directorio; en cambio, nuestra investigación sugiere que la gente estaba coordinando y compartiendo el video a través de otros servicios de mensajería en línea”, dijo Twitch. Facebook también anunció recientemente sus esfuerzos para trabajar con la policía en Londres y en otros lugares para obtener datos y mejorar sus algoritmos de detección. La dificultad viene del hecho de que la inteligencia artificial debe poder saber la diferencia entre un ataque real y una escena de un filme o un videojuego. “Los algoritmos de filtrado no han sido muy buenos hasta ahora para detectar la violencia en directo”, señaló Jillian Peterson, profesora de criminología de la Universidad de Hamline, quien sugirió que las empresas de redes sociales podrían terminar siendo “responsables” por su papel en la difusión de contenido violento y de odio. Las investigaciones de Peterson y otros sugieren que posibles tiradores pueden verse afectados por el contagio cuando ven ataques similares. “En muchos sentidos, estos tiroteos son actuaciones, destinadas a
Read More