Hogar Opiniones El año del juicio ético de la industria ai

El año del juicio ético de la industria ai

Tabla de contenido:

Video: Límites éticos para la inteligencia artificial | DW Documental (Noviembre 2024)

Video: Límites éticos para la inteligencia artificial | DW Documental (Noviembre 2024)
Anonim

Desde que las redes neuronales profundas ganaron la competencia de reconocimiento de imágenes más importante del mundo en 2012, todos han estado entusiasmados con lo que la inteligencia artificial podría desencadenar. Pero en la carrera por desarrollar nuevas técnicas y aplicaciones de IA, los posibles impactos negativos quedaron en segundo plano.

Ahora estamos viendo un cambio hacia una mayor conciencia sobre la ética de la IA. En 2018, los desarrolladores de IA se hicieron más conscientes de las posibles ramificaciones de sus creaciones. Muchos ingenieros, investigadores y desarrolladores dejaron en claro que no construirían tecnologías que dañen o causen daños a la vida de personas inocentes, y mantuvieron sus empresas.

Reconocimiento facial en la aplicación de la ley

En el pasado, crear aplicaciones de reconocimiento facial era arduo, requiere muchos recursos y era propenso a errores. Pero con los avances en la visión por computadora, el subconjunto de IA que permite a las computadoras reconocer el contenido de imágenes y videos, la creación de aplicaciones de reconocimiento facial se volvió mucho más fácil y al alcance de todos.

Grandes compañías tecnológicas como Microsoft, Amazon e IBM comenzaron a proporcionar servicios basados ​​en la nube que permitieron a cualquier desarrollador integrar tecnología de reconocimiento facial en su software. Esto desbloqueó muchos nuevos casos de uso y aplicaciones en diferentes dominios, como la protección y autenticación de identidad, la seguridad del hogar inteligente y el comercio minorista. Pero los activistas de los derechos de privacidad expresaron su preocupación por el potencial de mal uso.

En mayo de 2018, la Unión de Libertades Civiles de Estados Unidos reveló que Amazon estaba comercializando Rekognition, una tecnología de análisis de video en tiempo real, para las agencias policiales y gubernamentales. Según la ACLU, la policía en al menos tres estados estaba utilizando Rekognition para el reconocimiento facial en los videos de vigilancia.

"Con Rekognition, un gobierno ahora puede construir un sistema para automatizar la identificación y el seguimiento de cualquier persona. Si las cámaras de la policía, por ejemplo, estuvieran equipadas con reconocimiento facial, los dispositivos destinados a la transparencia y responsabilidad de los oficiales se transformarían aún más en máquinas de vigilancia dirigidas a público ", advirtió ACLU. "Al automatizar la vigilancia masiva, los sistemas de reconocimiento facial como Rekognition amenazan esta libertad, lo que representa una amenaza particular para las comunidades que ya han sido atacadas injustamente en el clima político actual. Una vez que se construyan e implementen sistemas de vigilancia poderosos como estos, el daño será extremadamente difícil de deshacer ".

Los empleados de Amazon hicieron eco de las preocupaciones de la ACLU, quienes en junio le escribieron una carta a Jeff Bezos, el CEO de la compañía, y le exigieron que dejara de vender Rekognition a las fuerzas del orden público. "Nuestra empresa no debería estar en el negocio de la vigilancia; no deberíamos estar en el negocio de la policía; no deberíamos estar en el negocio de apoyar a quienes vigilan y oprimen a las poblaciones marginadas", decía la carta.

En octubre, un miembro del personal anónimo de Amazon reveló que al menos 450 empleados habían firmado otra carta que pedía a Bezos y otros ejecutivos que dejaran de vender Rekognition a la policía. "No podemos beneficiarnos de un subconjunto de clientes poderosos a expensas de nuestras comunidades; no podemos desviar nuestros ojos del costo humano de nuestro negocio. No construiremos tecnología silenciosamente para oprimir y matar personas, ya sea en nuestro país o en otros, " decía.

Las consecuencias del proyecto de IA militar de Google

Mientras Amazon estaba lidiando con esta reacción interna, Google estaba experimentando luchas similares sobre un contrato para desarrollar IA para el ejército de los EE. UU., Denominado Proyecto Maven.

Según los informes, Google estaba ayudando al Departamento de Defensa a desarrollar tecnología de visión por computadora que procesaría imágenes de video de drones. La cantidad de imágenes de video grabadas por drones todos los días era demasiado para que los analistas humanos la revisaran, y el Pentágono quería automatizar parte del proceso.

Reconociendo la naturaleza controvertida de la tarea, un portavoz de Google estipuló que solo estaba proporcionando API para TensorFlow, su plataforma de aprendizaje automático, para detectar objetos en los videos. Google también enfatizó que estaba desarrollando políticas y salvaguardas para abordar los aspectos éticos de su tecnología.

Pero el Proyecto Maven no se sentó bien con los empleados de Google, de los cuales 3.000, incluidos docenas de ingenieros, pronto firmaron una carta abierta al CEO Sundar Pichai que pedía la finalización del programa.

"Creemos que Google no debería estar en el negocio de la guerra", decía la carta. Pidió que la compañía "redacte, publique y aplique una política clara que establezca que ni Google ni sus contratistas construirán tecnología de guerra".

Los empleados de Google también advirtieron que su empleador estaba poniendo en peligro su reputación y su capacidad para competir por el talento en el futuro. "No podemos externalizar la responsabilidad moral de nuestras tecnologías a terceros", subrayaron los Googlers.

Poco después, una petición firmada por 90 académicos e investigadores pidió a los principales ejecutivos de Google que dejaran de trabajar en tecnología militar. Los firmantes advirtieron que el trabajo de Google prepararía el escenario para el "reconocimiento automatizado de objetivos y los sistemas de armas autónomos". También advirtieron que a medida que la tecnología se desarrolle, se mantendrían "a un paso de autorizar a los drones autónomos a matar automáticamente, sin supervisión humana o control humano significativo".

A medida que crecieron las tensiones, varios empleados de Google renunciaron en protesta.

Cómo respondieron los líderes tecnológicos

Bajo presión, Google declaró en junio que no renovaría su contrato con el Departamento de Defensa en el Proyecto Maven después de que expire en 2019.

En una publicación de blog, el CEO Sundar Pichai (en la foto a continuación) declaró un conjunto de principios éticos que regirían el desarrollo y la venta de tecnología de inteligencia artificial de la compañía. Según Pichai, la compañía considerará a partir de ahora proyectos que son para el bien de la sociedad en su conjunto y evitará el desarrollo de IA que refuerce los prejuicios injustos existentes o socave la seguridad pública.

Pichai también declaró explícitamente que su compañía no trabajará en tecnologías que violen las normas de derechos humanos.

Bezos de Amazon estaba menos desconcertado por la indignación por Rekognition. "Vamos a seguir apoyando al Departamento de Defensa, y creo que deberíamos", dijo Bezos en una conferencia tecnológica en San Francisco en octubre. "Uno de los trabajos del liderazgo superior es tomar la decisión correcta, incluso cuando no es popular".

Bezos también subrayó la necesidad de que la comunidad tecnológica apoye a los militares. "Si las grandes compañías tecnológicas van a darle la espalda al Departamento de Defensa, este país tendrá problemas", dijo.

El presidente de Microsoft, Brad Smith, cuya compañía enfrentó críticas por su trabajo con ICE, publicó una publicación de blog en julio en la que pidió un enfoque medido en la venta de tecnología sensible a las agencias gubernamentales. Si bien Smith no descartó vender servicios de reconocimiento facial a las fuerzas del orden y al ejército, hizo hincapié en la necesidad de una mejor regulación y transparencia en el sector tecnológico.

  • MIT gastará $ 1 mil millones en programa para estudiar ética de AI MIT gastará $ 1 mil millones en programa para estudiar ética de AI
  • ¿AI realmente habla nuestro idioma? ¿AI realmente habla nuestro idioma?
  • Descomponiendo la fábrica de IA imparable de China Descomponiendo la fábrica de IA imparable de China

"Hemos elegido representantes en el Congreso que tienen las herramientas necesarias para evaluar esta nueva tecnología, con todas sus ramificaciones. Nos beneficiamos de los controles y equilibrios de una Constitución que nos ha visto desde la edad de las velas hasta la era de la inteligencia artificial. Como en tantas veces en el pasado, debemos asegurarnos de que los nuevos inventos sirvan a nuestras libertades democráticas de conformidad con el estado de derecho ", escribió Smith.

En 2018, las amenazas distantes de robots asesinos y el desempleo masivo dieron paso a las preocupaciones sobre el impacto ético y social más inmediato de la IA. En muchos sentidos, estos desarrollos indican que la industria está madurando, a medida que los algoritmos de IA se vuelven más prominentes en las tareas críticas. Pero a medida que los algoritmos y la automatización se arraiguen más en nuestra vida cotidiana, surgirán más debates.

El año del juicio ético de la industria ai