Dos profesores de ciencias de la información han publicado recientemente una pieza en la conversaciónargumentando que la IA podría ayudar a preservar la privacidad de las personas, rectificando algunos de los problemas que ha creado.
Zhiyuan Chen y Aryya Gangopadhyay argumentan que los algoritmos de inteligencia artificial podrían usarse para defender la privacidad de las personas, contrarrestando algunas de las muchas preocupaciones de privacidad que han creado otros usos de la IA. Chen y Gangopadhyay reconocen que muchos de los productos impulsados por IA que usamos por conveniencia no funcionarían sin acceso a grandes cantidades de datos, lo que a primera vista parece contradecir los intentos de preservar la privacidad. Además, a medida que la IA se extiende a más y más industrias y aplicaciones, se recopilarán y almacenarán más datos en bases de datos, lo que hará que las infracciones de esas bases de datos sean tentadoras. Sin embargo, Chen y Gangopadhyay creen que, cuando se usa correctamente, la IA puede ayudar a mitigar estos problemas.
Chen y Gangopadhyay explican en su publicación que los riesgos de privacidad asociados con la IA provienen de al menos dos fuentes diferentes. La primera fuente son los grandes conjuntos de datos recopilados para entrenar modelos de redes neuronales, mientras que la segunda amenaza a la privacidad son los propios modelos. Los datos pueden potencialmente “filtrarse” de estos modelos, y el comportamiento de los modelos revela detalles sobre los datos utilizados para entrenarlos.
Las redes neuronales profundas se componen de múltiples capas de neuronas, con cada capa conectada a las capas que las rodean. Las neuronas individuales, así como los enlaces entre neuronas, codifican diferentes bits de los datos de entrenamiento. El modelo puede resultar demasiado bueno para recordar patrones de los datos de entrenamiento, incluso si el modelo no se ajusta en exceso. Existen rastros de los datos de entrenamiento dentro de la red y los actores malintencionados pueden determinar aspectos de los datos de entrenamiento, como la Universidad de Cornell. encontrado durante uno de sus estudios. Los investigadores de Cornell descubrieron que los atacantes podrían explotar los algoritmos de reconocimiento facial para revelar qué imágenes y, por lo tanto, qué personas se utilizaron para entrenar el modelo de reconocimiento facial. Los investigadores de Cornell descubrieron que incluso si un atacante no tiene acceso al modelo original utilizado para entrenar la aplicación, el atacante aún puede sondear la red y determinar si una persona específica se incluyó en los datos de entrenamiento simplemente usando modelos. fue que fueron entrenados en datos muy similares.
Algunos modelos de IA se están utilizando actualmente para protegerse contra las filtraciones de datos y tratar de garantizar la privacidad de las personas. Los modelos de IA se usan con frecuencia para detectar intentos de piratería al reconocer los patrones de comportamiento que los piratas informáticos usan para penetrar los métodos de seguridad. Sin embargo, los piratas suelen cambiar su comportamiento para intentar engañar a la IA que detecta patrones.
Los nuevos métodos de capacitación y desarrollo de IA tienen como objetivo hacer que los modelos y aplicaciones de IA sean menos vulnerables a los métodos de piratería y las tácticas de evasión de la seguridad. El aprendizaje antagónico se esfuerza por entrenar modelos de IA en simulaciones de entradas maliciosas o dañinas y, al hacerlo, hacer que el modelo sea más resistente a la explotación, de ahí el “adversario” en el nombre. Según Chen y Gangopadhyay, su investigación ha descubierto métodos para combatir el malware diseñado para robar información privada de las personas. Los dos investigadores explicaron que uno de los métodos que encontraron más efectivos para resistir el malware fue la introducción de incertidumbre en el modelo. El objetivo es hacer que sea más difícil para los malos actores anticipar cómo reaccionará el modelo a cualquier entrada dada.
Otros métodos de utilizar la IA para proteger la privacidad incluyen minimizar la exposición de datos cuando se crea y entrena el modelo, así como sondear para descubrir las vulnerabilidades de la red. Cuando se trata de preservar la privacidad de los datos, el aprendizaje federado puede ayudar a proteger la privacidad de los datos confidenciales, ya que permite entrenar un modelo sin que los datos de entrenamiento abandonen los dispositivos locales que contienen los datos, aislando los datos y gran parte de los parámetros del modelo del espionaje.
En última instancia, Chen y Gangopadhyay argumentan que, si bien la proliferación de la IA ha creado nuevas amenazas para la privacidad de las personas, la IA también puede ayudar a proteger la privacidad cuando se diseña con cuidado y consideración.