Tabla de contenido:
- Propiedad de datos y privacidad
- El derecho a ser olvidado
- El derecho a la explicación
- Outsourcing AI
- ¿GDPR obstaculizará la innovación AI?
Video: V. Completa. Las claves educativas en la era de la inteligencia artificial. Kai-Fu Lee, experto IA (Noviembre 2024)
En lo que se puede describir como una especie de carrera armamentista, las compañías tecnológicas han estado acumulando grandes volúmenes de datos de usuarios para perfeccionar los algoritmos de inteligencia artificial que impulsan sus aplicaciones y plataformas. Hasta ahora, en su mayoría han podido evadir la responsabilidad cuando sus prácticas los han empujado a áreas legales y éticamente grises.
Eso puede sonar como una mala noticia para las empresas que utilizan algoritmos de inteligencia artificial, que se han beneficiado de las regulaciones laxas de recopilación de datos (y los documentos de términos de servicio largos, aburridos y ambiguos). Algunos temen que reglas más estrictas dificulten la innovación y el despliegue de inteligencia artificial en muchas aplicaciones y dominios. Otros creen que la nueva directiva creará una base donde las aplicaciones de IA serán más confiables y confiables.
Cualquiera sea el caso, la industria de la IA se encuentra en un gran cambio en la era GDPR.
Propiedad de datos y privacidad
"El RGPD es un gran problema para la inteligencia artificial, porque requiere que pensemos de manera diferente sobre cómo recopilamos y usamos los datos", dice Tim Estes, fundador y presidente de Razonamiento digital. "Durante demasiado tiempo, las compañías tecnológicas han insistido en que para recibir valor de sus productos y servicios, tenía que renunciar a sus datos".
Anteriormente, se requería que las empresas recibieran solo un vago consentimiento de los usuarios para recopilar todo tipo de datos. "La inteligencia artificial ha ayudado a mantener viva la exageración de los grandes datos, proporcionando una razón más por la cual las empresas deberían recopilar y extraer todos los datos disponibles", dice Estes. "Muchas compañías han comenzado a implementar IA para analizar sus datos solo porque piensan que deberían hacerlo, sin pensar en el impacto en la privacidad del usuario o la propiedad de los datos".
La premisa más básica de GDPR es que los datos pertenecen a los usuarios. Según el RGPD, las empresas deberán revelar el alcance completo de la información que recopilan, así como cómo la usan y cómo la protegerán y evitarán el acceso no autorizado. Las nuevas reglas obligarán a las compañías de inteligencia artificial a ser más meticulosas con respecto a los datos que recopilan en lugar de involucrarse en el acaparamiento, el procesamiento y el intercambio de información de los usuarios.
El derecho a ser olvidado
El RGPD brinda a los usuarios el poder de exigir que una empresa borre todos sus datos de sus servidores. Esto no le sentará bien a las compañías de inteligencia artificial, que tienen un interés personal en mantener la mayor cantidad de datos de usuario posible para realizar tareas como predecir tendencias y el comportamiento del usuario.
"Al final del día, GDPR tiene que ver con la forma en que recopila y administra los datos y no necesariamente con la cantidad de datos que tiene", dice Maryna Burushkina, CEO de GrowthChannel. "La principal dificultad a la que se enfrentarán la mayoría de las empresas no se trata tanto de obtener las suscripciones, sino más bien de administrar los datos, comunicar el uso de los datos a los usuarios y darles la oportunidad de eliminarlos".
Las compañías de IA tendrán que dar pasos adicionales para anonimizar sus datos si aún desean tener acceso a estos conocimientos. Pero otros desafíos enfrentan las compañías que ya tienen grandes almacenes de datos de usuarios.
"Bajo GDPR, si una compañía quiere borrar una PII específica, entonces deben asegurarse de que se borre en todas partes", dice Amnon Drori, CEO de Octopai. Esta puede ser una tarea desalentadora para realizar manualmente cuando sus datos están dispersos en diferentes servidores y almacenados en diferentes formatos estructurados y no estructurados.
Por ejemplo, al eliminar el número de tarjeta de crédito de un usuario (ciertamente una información confidencial), las empresas tendrán que examinar cada informe, base de datos, objeto de base de datos y ETL donde se almacena la información. "A veces vemos diferentes nombres de metadatos para el mismo elemento: por ejemplo, 'número de tarjeta de crédito', 'número cc', número c de crédito ', ' número de tarjeta ', ' número de tarjeta de crédito '… la lista continúa y en ", dice Drori. A menudo es imposible saber dónde buscar y el proceso puede llevar semanas o incluso meses, y como muchos procesos manuales, es propenso a errores humanos e inexactitudes, dice Drori.
GDPR también aumentará el costo de los errores humanos en el manejo de datos. "Esta es la razón por la cual tantas empresas hoy buscan una solución automatizada para administrar con precisión sus metadatos", dice Drori. Quizás irónicamente, la IA en sí misma puede ser una solución a este respecto. Las herramientas de administración de metadatos con inteligencia artificial pueden escanear todas las fuentes de datos dentro de una organización y consolidar las relaciones entre diferentes herramientas y fuentes de datos.
El derecho a la explicación
Una de las partes más importantes de GDPR con respecto a la IA es lo que se conoce como el "derecho a la explicación". La directiva establece que las empresas deben notificar a los usuarios sobre "la existencia de una toma de decisiones automatizada" y proporcionarles "información significativa sobre la lógica involucrada, así como la importancia y las consecuencias previstas de dicho procesamiento para el interesado".
Básicamente, esto significa que los usuarios deben saber cuándo están sujetos directa o indirectamente a los algoritmos de IA y deben poder desafiar las decisiones que toman esos algoritmos y solicitar pruebas de cómo se obtuvo la conclusión. Este será uno de los mayores desafíos que enfrentará la industria de IA.
Las redes neuronales profundas, la tecnología principal detrás de los algoritmos de IA contemporáneos, son estructuras de software complejas que crean sus propias reglas de funcionalidad al analizar grandes conjuntos de datos y encontrar correlaciones y patrones. A medida que las redes neuronales se vuelven más complejas, su comportamiento se vuelve cada vez más difícil de descomponer. A menudo, ni siquiera los ingenieros pueden explicar las razones detrás de las decisiones que toman sus algoritmos de IA.
Llamado el problema de la "caja negra", la inexplicabilidad de los algoritmos de IA ha dificultado su implementación en las decisiones de la corte, la aplicación de la ley, las solicitudes de préstamos y créditos, el reclutamiento, la atención médica y otros dominios críticos. Pero sin ninguna influencia legal, las compañías de IA tenían pocos incentivos para hacer que sus algoritmos de IA fueran más transparentes, especialmente cuando estaban estrechamente vinculados a sus secretos comerciales.
Ahora, GDPR hará que las compañías de inteligencia artificial rindan cuentas por las decisiones que toman sus algoritmos.
"Como parte de GDPR, las organizaciones son responsables de describir claramente el método de procesamiento en lenguaje humano al solicitar el consentimiento del sujeto", dice Pascal Geenens, investigador de seguridad de Radware. "A medida que evoluciona el aprendizaje profundo y los científicos de datos no pueden caracterizar una naturaleza determinista detrás del razonamiento de la red neuronal, esta descripción podría volverse más compleja y difícil de explicar".
Básicamente, GDPR se trata de hacer responsables a los humanos que procesan los datos, dice Geenens. Entonces, si está utilizando algoritmos de aprendizaje automático para hacer el procesamiento, debe diseñarlos de manera que le permitan explicar las decisiones que toman en su nombre.
Un puñado de organizaciones está tratando de desarrollar tecnologías para hacer que la IA sea más transparente. Entre ellos destaca la IA explicable de DARPA (XAI), un proyecto de investigación que tiene como objetivo hacer que las decisiones basadas en IA sean comprensibles.
Outsourcing AI
El RGPD también afectará a las organizaciones que ponen sus datos a disposición de terceros. Un ejemplo destacado de tal empresa es Facebook; En su escándalo de Cambridge Analytica, el gigante de las redes sociales no pudo evitar que la empresa de minería de datos recopilara y abusara de los datos de 87 millones de usuarios. Pero el RGPD también tendrá implicaciones para las empresas que externalizan sus funcionalidades de IA y ponen sus datos a disposición de los proveedores de IA.
"Si bien muchos suponen que los proveedores de inteligencia artificial son como otros proveedores de servicios, simplemente ofreciendo su tecnología a cambio de una compensación monetaria, la verdad es que los proveedores de inteligencia artificial también establecen asociaciones comerciales como una forma de desarrollar y desarrollar su tecnología", dice Estes, el jefe ejecutivo de Digital Reasoning. Esto significa que un proveedor de IA podría querer conservar los datos de un cliente para entrenar aún más sus propios algoritmos y usarlos en otros dominios.
Por ejemplo, un proveedor de IA que está ayudando a una organización de atención médica a encontrar patrones en los síntomas y mejorar los diagnósticos podría encontrar un conjunto de datos que mejore sus algoritmos patentados. La compañía de inteligencia artificial podría entonces querer aprovechar los datos para mejorar sus algoritmos para otros tipos de atención al paciente y desarrollar sus capacidades para ayudar a otros proveedores de atención médica. Según el RGPD, la organización de atención médica a cargo de los datos será responsable de cualquier uso no ético por parte del proveedor de IA. Estes cree que la clave es que las empresas busquen proveedores de inteligencia artificial que crean en poseer los algoritmos, no los datos.
"El RGPD obligará a las empresas a prestar más atención a cómo y cuándo se usan sus datos, dónde se almacenan y qué sucede después de que se completa un proyecto", dice Estes. "Esto significa trabajar con proveedores de inteligencia artificial que ayudan a definir las líneas de propiedad de los datos e implementar estrategias que protegen la información del usuario, sin obstaculizar las formas en que puede ayudar a evolucionar el éxito de los algoritmos de inteligencia artificial".
¿GDPR obstaculizará la innovación AI?
Los expertos con los que hablamos creen que aunque las nuevas regulaciones desafiarán las prácticas y hábitos actuales que las empresas de IA han adoptado, también los obligará a encontrar nuevas formas de innovar y también a mantener el respeto por la privacidad y los estándares éticos.
"Con la entrada en vigencia de la regulación GDPR, todas las principales compañías de software están tomando las medidas necesarias no solo para garantizar el cumplimiento, sino también para innovar y pensar de forma inmediata para encontrar nuevas oportunidades en el mercado", dice Burushkina de GrowthChannel.
"La GDPR no obstaculizará la innovación, sino que la dirigirá y la motivará", dice Drori de Octopai. Mientras tanto, GDPR también dará lugar a nuevas empresas y tecnologías que ayudarán a las organizaciones a lograr y mantener el cumplimiento de GDPR.
De hecho, los estándares establecidos por GDPR podrían ayudar a cerrar la brecha de confianza cada vez mayor entre los proveedores y los usuarios de los servicios impulsados por IA. Estes cree que GDPR hará que tanto los proveedores de inteligencia artificial como los que implementan su tecnología sean más responsables de cómo y dónde usan los recursos de datos y los empujarán a poner a los usuarios antes que las ganancias. "Al final del día", dice, "los proveedores de IA solo deberían ser dueños de los algoritmos, no de los datos, para innovar sus capacidades y soluciones".