¿Hay un resumen de cómo se aplica la privacidad diferencial al aprendizaje automático?

No estoy seguro de lo que significa un resumen, pero intentaré dar una visión general simple. Para obtener más información, hay innumerables trabajos académicos, pero esta encuesta es un buen comienzo [1].

La definición original (y más sólida) de privacidad diferencial se dirige a la siguiente pregunta: dada una pregunta y dos conjuntos de datos que difieren en una sola muestra (generalmente una persona), suponga que la pregunta solo se hace en un único conjunto de datos. ¿Puede usted, al ver la respuesta, distinguir qué conjunto de datos proporcionó la respuesta?

Intuitivamente, esto nos proporciona una herramienta muy sólida que dice que para una consulta específica sobre cualquier conjunto de datos, no hay forma de saber si una persona estaba en el conjunto o no. En consecuencia, se preserva la privacidad ya que ni siquiera importa si sus datos estaban en el conjunto. Piénselo: si nadie puede saber si sus datos estaban en el conjunto que se está consultando o no, ¿cómo puede alguien decir algo sobre usted? Esta es una noción muy fuerte de privacidad.

La forma en que se hace esto es agregando ruido a la salida de la consulta de una manera que garantice que esta propiedad de ser indistinguible se conserve al tiempo que minimiza cualquier pérdida de precisión. Este último es complicado y se han propuesto diferentes mecanismos y definiciones alternativas (más débiles) de DP. Por lo general, se dirigen a tipos específicos de consultas (como conteo, ciertas estadísticas, etc.), ya que se pueden hacer más suposiciones y se pueden diseñar mejores soluciones (más precisas).

Para el aprendizaje automático, esto es fundamental. Tener muchos datos es un riesgo de seguridad y privacidad. Pero lo que realmente le importa al aprendizaje automático es la gran cantidad de datos de los que aprender, no las personas mismas. Con la privacidad diferencial, podemos ejecutar una consulta en forma de ‘entrenar un modelo basado en este conjunto de datos’ y asegurarnos de que el modelo resultante no comprometa la privacidad de ningún individuo.

Además, existe una relación entre algoritmos robustos de aprendizaje automático y privacidad diferencial robusta. Si un algoritmo genera un modelo estable para datos similares, entonces ha tenido éxito en aprender alguna señal verdadera y valiosa que luego puede usarse para la predicción. Esto significa que es robusto frente a pequeños cambios en los datos, de modo que cada individuo no contribuye (en sí mismo) ninguna señal significativa, por lo que, naturalmente, el modelo en sí contiene muy poca información sobre cualquier usuario en el conjunto. Esta es una idea hermosa, ya que muestra que si inviertes tu tiempo en desarrollar un buen aprendizaje automático, la privacidad puede ser (casi) gratis.

Notas al pie

[1] http://research.microsoft.com/pu…

Para agregar la respuesta de Guy Zyskind, existen varios enfoques para crear un algoritmo de aprendizaje automático diferencialmente privado. Estos son algunos enfoques que se han utilizado y compilado en esta encuesta. [1]

  1. Perturbación de salida: Aprenda el modelo utilizando datos limpios, luego aplique un mecanismo laplaciano o exponencial para generar un modelo ruidoso.
  2. Perturbación objetiva: agregue ruido a la función objetivo o función de pérdida y use el mínimo / máximo de la función ruidosa como modelo de salida.
  3. Marco de muestra y agregado: este método está diseñado para consultas que se pueden medir con un pequeño número de muestras. La idea es dividir la base de datos en muchos subconjuntos pequeños, luego agregar los resultados y agregar ruido.

En Deep Learning, Abadi et. Alabama. [2] aplique el Descenso de gradiente estocástico diferencialmente privado (DP-SGD) utilizando el Mecanismo gaussiano y el Contador de momentos para entrenar el modelo DNN y CNN. El algoritmo DP-SGD utilizado por Abadi et. Alabama. se basa en el método de Song et. al. [3] que perturban el gradiente utilizado en la actualización de parámetros SGD por el ruido extraído de la distribución de Laplace.

Notas al pie

[1] una encuesta y revisión

[2] [1607.00133] Aprendizaje profundo con privacidad diferencial

[3] http://cseweb.ucsd.edu/~kamalika