
La "eSafety Commission" a constaté qu’Apple et YouTube – qui appartient à Google – ne tenaient pas compte du nombre de signalements de violences sexuelles sur mineurs reçus par leurs utilisateurs, ni ne précisaient le temps nécessaire pour répondre à ces signalements. "Quand elles sont laissées à elles-mêmes, ces entreprises ne donnent pas la priorité à la protection des enfants et semblent fermer les yeux sur les crimes commis sur leurs plateformes", a déclaré la commissaire à la sécurité en ligne Julie Inman Grant. Elle a précisé que ces sociétés n’avaient pas "pris beaucoup de mesures pour intensifier et améliorer leurs efforts" depuis qu’on leur avait demandé de le faire trois ans auparavant. "Aucune autre industrie orientée vers le consommateur ne se verrait accorder l’autorisation d’opérer en permettant de tels crimes odieux contre des enfants", a ajouté Julie Inman Grant.
Le rapport a également révélé que des entreprises telles qu’Apple, Google ou Microsoft n’utilisaient pas d’outils pour détecter de manière proactive les contenus pédopornographiques. Les entreprises technologiques sont tenues de rendre compte tous les six mois à la commission de la manière dont elles luttent contre les contenus pédopornographiques, y compris les images générées par intelligence artificielle (IA).
En novembre 2024, le Parlement australien a approuvé une loi interdisant l’accès aux réseaux sociaux pour les moins de 16 ans, l’une des mesures les plus strictes au monde en la matière pour des plateformes comme X, TikTok, Instagram ou Facebook. En cas de non-respect de cette obligation, des amendes pouvant aller jusqu’à près de plus de 28 millions d’euros (3,3 milliards de francs) doivent être appliquées.
La ministre australienne des Communications, Anika Wells, a annoncé fin juillet que YouTube allait aussi intégrer la liste. Selon elle, deux enfants australiens sur cinq disent avoir visionné des contenus inappropriés sur la plateforme.