Apple reportará a las autoridades fotos de maltrato infantil que sean detectadas en iCloud. Según ha explicado la compañía, esto es parte de sus esfuerzos para proteger a los menores y evitar el uso de sus herramientas de comunicación por parte de depredadores, así como evitar la propagación de material de abuso sexual infantil en Estados Unidos. 

El sistema de detección de Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés) usará un procesado llamado hash, en el cual las imágenes se transforman en un conjunto de números con un patrón único correspondiente a esa imagen, explica Apple, similar a un sistema de categorización de fotos.

El sistema de detección de Material de Abuso Sexual Infantil (CSAM por sus siglas en inglés) usará un procesado llamado hash, en el cual las imágenes se transforman en un conjunto de números con un patrón único correspondiente a esa imagen, explica Apple, similar a un sistema de categorización de fotos.