Unos días antes del lanzamiento oficial de Apple Intelligence en sus dispositivos, la compañía publica un muy interesante documento sobre la aplicación del cifrado homomórfico (HE) para procesar de forma segura los datos para funciones de inteligencia artificial.
El cifrado homomórfico permite realizar cálculos directamente sobre datos cifrados, sin necesidad de descifrarlos primero. Esto significa que un servidor o un modelo de machine learning puede procesar datos sin siquiera «ver» los datos originales. Cuando el dispositivo de un usuario necesita procesar una consulta, puede cifrar la consulta, enviarla al servidor, y el servidor puede realizar los cálculos necesarios para procesarla mientras los datos permanecen cifrados.
En la implementación que presenta Apple, los dispositivos cifran las consultas de datos antes de enviarlas a los servidores, donde la recuperación de información privada (PIR) y la búsqueda privada del vecino más cercano (PNNS) procesan los datos sin descifrarlos. PIR permite que un usuario recupere datos específicos de una base de datos sin revelar al servidor qué datos se están recuperando. Básicamente, permite realizar consultas privadas: en el contexto de Apple, si un dispositivo está consultando una base de datos de imágenes para identificar un punto de referencia u objeto, PIR le permite recuperar información sin revelar la consulta exacta al servidor, lo que ayuda a mantener la privacidad del usuario con respecto a sus intereses o consultas.
Por su parte, la búsqueda privada del vecino más cercano, o PNNS, permite encontrar la coincidencia más cercana o los vecinos más cercanos a un punto de datos específico en una base de datos cifrada. Esto es especialmente útil para el reconocimiento de imágenes u objetos, donde un servidor puede buscar elementos cifrados similares sin descifrar la consulta ni la base de datos. Apple utiliza esto para que cuando un usuario envía una imagen o un objeto cifrado para identificarlo, PNNS ayuda al servidor a encontrar el punto de referencia u objeto más cercano en su base de datos cifrada, permitiendo brindar resultados pero preservando la privacidad tanto de la consulta como de la fuente de datos.
Combinando estos protocolos, se permiten funciones privadas en el dispositivo aprovechando los datos cifrados y descargando el procesamiento complejo a la nube, pero sin comprometer su privacidad. En conjunto, estos métodos permiten a Apple ofrecer funciones centradas en la privacidad en las que el servidor procesa los datos sin llegar a ver ninguna información del usuario, lo que preserva la privacidad y, al mismo tiempo, permite las capacidades del machine learning. Esto es crucial para funciones centradas en la privacidad, como la búsqueda en el dispositivo, el reconocimiento seguro de imágenes, etc. Como bien dice Varun Mathur en X, estamos hablando de un anuncio verdaderamente relevante, equivalente al momento en que empezamos a utilizar el protocolo HTTPS de cifrado para todas las comunicaciones en internet. En la práctica, es lo que permite a Apple ofrecer capacidades de inteligencia artificial manteniendo un fuerte enfoque de respeto a la privacidad del usuario que se ha convertido en una auténtica seña de identidad de la compañía.
Cuando hablo de inteligencia artificial en mis clases y conferencias, la preocupación por la privacidad y el uso de los datos es sin ninguna duda la más habitual: directivos preguntando qué pasa si incluyen datos de su compañía en sus prompts, si sus prompts o sus RAGs provocan que los datos de contexto de su compañía puedan ser utilizados por las compañías que gestionan los LLMs, o si esa circunstancia, cuando se transmiten datos personales de clientes o de otros actores relacionados con la compañía pueden incluso hacerles incurrir en una ilegalidad. Un desarrollo como este, si se impone en todos los proveedores de LLMs, es una forma muy clara de generar tranquilidad mental a todos los participantes, y de contribuir a reducir la incertidumbre de muchos.
This article is also available in English on my Medium page, «Is AI about to have its HTTPS moment?»
Lo que comentaba ayer de Apple, llega tarde pero pretende hacerlo mejor. No tengo ni remota idea de que es el cifrado homomórfico, pero supongo que es verdad todo lo que me cuentan,
Entiendo que es algo así como «Yo mando . suma 5 y 4 al servidor y no tiene ni idea de lo que esta haciendo, pero me devuelve, un resultado que mi PC descubre que es nueve»
¡¡¡ Lo que inventa Tim Cook !!!
Más bien parece ser «yo te envío dos números. No te digo cuáles. Tú me devuelves 9»
…. En fin.
Mi comentario sobre el Secure Multi-Party Computation (MPC / SMPC) de Apple y el FHE en junio , cuando se presentó en el «Apple Intelligence».
–
Disclaimer
Sealioning
«Like dominoes, no matter how small, ready to fall»
No he sido capaz de enterarme de algo, en el texto, que sepa como usar en mi sistema operativo mental. Pero bien me puedo quedar con esta frase esencial : «generar tranquilidad mental a todos los participantes, y (de) contribuir a reducir la incertidumbre» (Edans).
Es muy anti Musk, porque marca dos objetivos que para él son claramente antagónicos. El busca aumentar la tranquilidad mental aumentando la incertidumbre… y así nos va. O le va al personal que de él depende.
Pero yo, que ni la gepeta me ha desvirgado aún, no soy el indicado para este salto al ruedo. Tampoco «entiendo» las entrañas de un chip (a fondo) y los manejo sin problema.
Tuve una adolescencia donde era incapaz de sacar a una chica en el guateque correspondiente, así que no dudo de mi capacidad para sufrir un desvirgue con la IA «axeitado» (como decimos en Galicia… algunos!!!). Tardé tres añitos en encender el ordenador y aquí estoy.
Pero prometo que seguiré intentándolo, porque me gusta jugar a conseguir lo que afirma esa frase final, que repito versionada : «una tranquilidad mental positiva, en base a delimitar lo más posible la incertidumbre de cualquier fenómeno probable».
Pienso que se llama ciencia.
Reconozco que soy raro, pero a mi la privacidad es un tema que me preocupa poco.
¿Por que?.
Primero por que me temo que todos desde hace mucho la hemos perdido, La recolección de datos empezó hace mucho cundo aun no habíamos perdido el pelo de la dehesa y los dejábamos a lo loco, ya los tienen nos guste o no, (que no me gusta), Por tanto es tarde para hacerse el estrecho. Te han visto y fotografiado en pelotas, de nada vale que ahora púdicamente te cubras
Segundo, la historia demuestra que la muralla siempre ha caído ante los atacantes, Tu defines un amplio recinto, pero ellos atacan con toda su potencia en un solo punto. Un dia si y otro también nos enteramos que han hakeado la base de datos de una compañía eléctrica, de un banco, de la Delegación de Hacienda,… por poner un ejemplo National Public Data sufrió un hackeo que filtró los datos de casi 3.000 millones, pero tambien te los sacan de tu mismo PC o teléfono con un virus que consiguieron instalarte, por ello pienso que es tipo de defensas es poco práctico.
Ante este panorama, sólo veo una solución, llevarlos la confusión y eso es lo que yo trato de hacer. Por experiencia profesional, se lo dificil que es expurgar una base de datos que se te ha contaminado con datos falsos por el motivo que fuera, Mi solución es, ·»Ya que desean mis datos, no solo no pongo trabas , sino al revés, doy todo tipo de «facilidades», pero con datos falsos», de modo que los datos que tengan reales de mi, se llene con toda la mierda que les pueda introducir.
Por eso la ventaja de Apple que lucha por la privacidad de sus usuarios me parece algo de muy escaso valor. ¿Alguien se cree que Enrique Dans, fiel consumidor de productos Apple no tiene una ficha en Google similar a la mía.
Por un lado, te encuentras con estos avances tan interesantes que apuntan a recuperar las paredes de tu casa para poder mear tranquilo. Por otro, ves estos videos sobre como la IA es cada vez mejor para analizar todo lo que haces y donde estás, usada. no solo por empresas privadas si no también gobiernos, que lo ven como algo que o haces, o será un punto débil para el país.
Realmente espero que prevalezca lo primero. Aunque existe concienciación por la privacidad, a la mayoría de la gente le da igual, es realmente preocupante.
Luego dicen que Apple no innova…