¿Tu iPhone comparte fotos con Apple de forma predeterminada?

¿Tu iPhone comparte fotos con Apple de forma predeterminada?

Efectivamente, cuando revisé mi iPhone 15 Pro esta mañana, el interruptor estaba activado. Puede encontrarlo usted mismo yendo a Configuración > Fotos (o Configuración del sistema > Fotos en una Mac). La búsqueda visual mejorada le permite buscar puntos de referencia de los que ha tomado fotografías o buscar esas imágenes utilizando los nombres de esos puntos de referencia.

Para ver lo que permite en la aplicación Fotos, deslice hacia arriba una fotografía que haya tomado de un edificio y seleccione «Buscar punto de referencia» y aparecerá una tarjeta que lo identifica idealmente. Aquí hay un par de ejemplos de mi teléfono:

Definitivamente es la Catedral de Santa María de Austin, pero la imagen de la derecha no es un monasterio trapense, sino el edificio del ayuntamiento de Dubuque, Iowa.
Capturas de pantalla: Fotos de Apple

A primera vista, es una expansión conveniente de la función de búsqueda visual de Fotos que Apple introdujo en iOS 15 y que le permite identificar plantas o, digamos, descubrir qué significan esos símbolos en una etiqueta de lavandería. Pero Visual Look Up no necesita un permiso especial para compartir datos con Apple, y este sí lo necesita.

Una descripción debajo del interruptor dice que le estás dando permiso a Apple para «hacer coincidir de forma privada lugares en tus fotos con un índice global mantenido por Apple». En cuanto a cómo, hay detalles en un blog de investigación de aprendizaje automático de Apple sobre la búsqueda visual mejorada al que Johnson enlaza:

El proceso comienza con un modelo de aprendizaje automático en el dispositivo que analiza una fotografía determinada para determinar si hay una «región de interés» (ROI) que pueda contener un punto de referencia. Si el modelo detecta un ROI en el dominio «histórico», se calcula una incrustación de vector para esa región de la imagen.

Según el blog, esa incorporación de vectores se cifra y se envía a Apple para compararla con su base de datos. La compañía ofrece una explicación muy técnica de las incrustaciones de vectores en un artículo de investigación, pero IBM lo expresó de manera más simple, escribiendo que las incrustaciones transforman “un punto de datos, como una palabra, oración o imagen, en un norte-matriz dimensional de números que representan las características de ese punto de datos.”

Al igual que Johnson, no entiendo completamente los blogs de investigación de Apple y Apple no respondió de inmediato a nuestra solicitud de comentarios sobre las preocupaciones de Johnson. Parece que la empresa hizo todo lo posible para mantener la privacidad de los datos, en parte condensando los datos de las imágenes en un formato legible para un modelo de aprendizaje automático.

Aun así, hacer que la opción de alternancia, como aquellas para compartir datos analíticos o grabaciones o interacciones con Siri, en lugar de algo que los usuarios tengan que descubrir, parezca que hubiera sido una mejor opción.

Check Also

Dyson 2014: La élite de los inventores muestra sus mejores proyectos

Dyson 2014: La élite de los inventores muestra sus mejores proyectos

Fuente de la imagen, Dyson pastel de foto, Un proyecto italiano propone hacer barbacoas «verdes» …