Hogar Caracteristicas 10 El algoritmo embarazoso falla

10 El algoritmo embarazoso falla

Tabla de contenido:

Video: Algoritmos 4/10 - Decisiones: ¿Eres Educado? | Algoritmo Vida Cotidiana (Noviembre 2024)

Video: Algoritmos 4/10 - Decisiones: ¿Eres Educado? | Algoritmo Vida Cotidiana (Noviembre 2024)
Anonim

La tecnología no es solo para geeks, es para todos, y eso es mucha gente. Con solo un puñado de compañías controlando la mayoría del hardware y software, desde Apple y Amazon hasta Facebook, Microsoft y Google, solo pueden hacer mucho para controlar su billetera y globos oculares. ¿Qué debe hacer una corporación gigante y pobre? Confíe en algoritmos para tomar algunas de las decisiones importantes.

Oxford Living Dictionaries define el algoritmo como "un proceso o conjunto de reglas a seguir en los cálculos u otras operaciones de resolución de problemas, especialmente por una computadora". Un ejemplo perfecto es el Facebook News Feed. Nadie sabe cómo funciona que algunas de tus publicaciones aparezcan o no en las fuentes de noticias de algunas personas, pero Facebook sí. ¿O qué tal si Amazon te muestra libros relacionados? Búsquedas relacionadas en Google? Todos estos son secretos muy guardados que hacen mucho trabajo para la empresa y pueden tener un gran impacto en su vida.

Pero los algoritmos no son perfectos. Fallan y algunos fallan espectacularmente. Agregue el brillo de las redes sociales, y un pequeño problema puede convertirse en una pesadilla de relaciones públicas muy rápido. Raramente es malicioso; estos tienden a ser lo que el New York Times llama "Frankenstein Moments", donde la criatura que alguien creó se convierte en un monstruo. Pero sucede, y hemos compilado algunos de los ejemplos recientes más atroces a continuación. Háganos saber sus favoritos en los comentarios a continuación.

    1 anuncios cuestionables de Instagram

    Según informó The Guardian , a Facebook le gusta publicar anuncios de su servicio de Instagram con publicaciones de sus propios usuarios. Pero el algoritmo eligió la "foto" incorrecta para presionar a los amigos de Olivia Solón, una periodista de The Guardian , seleccionando una captura de pantalla de un año que tomó de un correo electrónico amenazante.

    2 anuncios racistas dirigidos

    La semana pasada, ProPublica informó que Facebook permitió a los anunciantes apuntar a categorías ofensivas de personas, como "los que odian a los judíos". El sitio pagó $ 30 por un anuncio (arriba) dirigido a un público que respondería positivamente a cosas como "por qué los judíos arruinan el mundo" y "Hitler no hizo nada malo". Fue aprobado en 15 minutos.

    Slate encontró categorías igualmente ofensivas, y se convirtió en otra en la larga lista de artículos por los que Facebook no solo tenía que disculparse, sino que prometía solucionarlo con cierta supervisión humana. Ya sabes, como cuando colocó $ 100, 000 en anuncios electorales para Rusia.

    En una publicación de Facebook, la directora de operaciones Sheryl Sandberg dijo que estaba "disgustada y decepcionada con esas palabras" y anunció cambios en sus herramientas publicitarias.

    BuzzFeed comprobó para ver cómo Google manejaría cosas similares, y descubrió que también era fácil configurar anuncios dirigidos para ser vistos por racistas y fanáticos. The Daily Beast lo revisó en Twitter y encontró millones de anuncios usando términos como "Nazi", "wetback" y la palabra N.

    3 Año de Facebook en revisión Problemas

    Si estás en Facebook, sin duda has visto sus videos generados por algoritmos de fin de año con los mejores momentos de los últimos 12 meses. O para algunos, las luces bajas. En 2014, un padre vio una foto de su difunta hija, mientras que otro vio instantáneas de su casa en llamas. Otros ejemplos incluyen personas que ven a sus mascotas tardías, urnas llenas de cenizas de los padres y amigos fallecidos. Para 2015, Facebook prometió filtrar recuerdos tristes.

  • 4 Accidente de piloto automático de Tesla

    La mayoría de los problemas algorítmicos están lejos de ser fatales, pero el mundo de los autos sin conductor traerá un nuevo nivel de peligro. Eso ya sucedió al menos una vez. Un propietario de Tesla en una carretera de Florida usó el modo semiautónomo (piloto automático) y se estrelló contra un camión con remolque que lo interrumpió. Tesla emitió actualizaciones rápidamente, pero ¿fue realmente culpa del modo piloto automático? La Administración Nacional de Seguridad del Tráfico en Carreteras dice que tal vez no, ya que el sistema requiere que el conductor permanezca alerta ante problemas, como puede ver en el video de arriba. Ahora, Tesla evita que el piloto automático se active incluso si el conductor no responde a las señales visuales primero.

  • 5 Tay el racista Microsoft AI

    Hace un par de años, se suponía que los bots de chat tomarían el mundo por sorpresa, reemplazando a los representantes de servicio al cliente y haciendo del mundo en línea un lugar hablador para obtener información. Microsoft respondió en marzo de 2016 lanzando una IA llamada Tay con la que las personas, específicamente de 18 a 24 años, podían interactuar en Twitter. Tay a su vez haría tuits públicos para las masas. Pero en menos de 24 horas, aprendiendo de las masas malhumoradas, Tay se convirtió en un racista en toda regla. Microsoft derribó a Tay al instante; ella regresó como una nueva IA llamada Zo en diciembre de 2016, con "fuertes controles y contrapesos para protegerla de la explotación".

    ¡6 felicidades por tu bebé (inexistente)!

    Revelación completa: mientras escribo esto, mi esposa está realmente embarazada. Ambos recibimos este correo electrónico de Amazon diciendo que alguien había comprado algo para nosotros de nuestro registro de bebés. Todavía no lo habíamos hecho público, pero no fue tan impactante. Mientras tanto, varios millones de otros clientes de Amazon también recibieron la misma nota, incluidos algunos sin registro… o un bebé en camino. Podría haber sido parte de un esquema de phishing, pero no lo fue. Amazon captó el error y envió un correo electrónico de disculpa de seguimiento. Para entonces, muchos se habían quejado de que esto era inapropiado o insensible. Esto era menos algoritmo que un servidor de correo electrónico con fallas, pero demuestra que siempre es fácil ofender.

    7 Amazon recomienda materiales para bombas

    Todos saltaron a este después de que fue informado por Channel 4 News del Reino Unido, desde Fox News hasta The New York Times . Supuestamente descubrió que la característica de "comprar juntos con frecuencia" de Amazon mostraría a las personas lo que necesitan para construir una bomba, si comenzaran con uno de los ingredientes, que el sitio no nombraría (era nitrato de potasio).

    Lo que realmente hizo el algoritmo de Amazon fue mostrar a los compradores los ingredientes para hacer polvo negro en pequeñas cantidades, lo cual es totalmente legal en el Reino Unido, y se usa para todo tipo de cosas, como fuegos artificiales, como se señaló rápidamente en un pensamiento increíblemente bien pensado. publicación de blog en Idle Words. En cambio, todos los informes son sobre cómo Amazon lo está investigando, porque eso es lo que tienen que decir que están haciendo en un mundo con miedo al terrorismo y la lógica.

    8 Google Maps se vuelve racista

    En 2015, Google tuvo que disculparse cuando Google Maps busca "n ***** king" y "n *** a house", lo que llevó a la Casa Blanca, que todavía estaba ocupada por Barack Obama en ese momento. Este fue el resultado de una "Googlebomb", en la que el motor de búsqueda recoge un término usado una y otra vez y lo marca como "popular", por lo que los resultados van al principio de la búsqueda. Así es como la palabra "Santorum" obtuvo su nueva definición.

    9 Etiquetas de Google Humanos como gorilas

    Google Photos es una aplicación / servicio increíble que almacena todas tus fotos y mucho más. Una de esas cosas es etiquetar automáticamente a las personas y las cosas en las fotos. Utiliza el reconocimiento facial para que las personas los reduzcan a la persona correcta. Incluso tengo una carpeta de todos mis perros, y no etiqueté a ninguno de ellos. Así como funciona, fue atroz cuando en 2015 Google tuvo que disculparse con el programador de computadoras Jacky Alciné cuando él y un amigo, ambos negros, fueron identificados por el servicio como gorilas. "Estamos horrorizados y realmente lamentamos que esto haya sucedido", dijo Google a PCMag.

    10 robot de seguridad golpea a un niño, se suicida

    Knightscope fabrica robots de seguridad autónomos llamados K5 para patrullar escuelas, centros comerciales y vecindarios. Los conos Dalek-esque de 5 pies de altura sobre ruedas, que para su crédito, todavía están en pruebas beta, tienden a ser noticia no por frustrar el crimen sino por las fallas técnicas.

    Por ejemplo, en julio de 2016, el K5 en el Centro Comercial Stanford en Palo Alto atropelló a un joven de 16 meses y Knightscope tuvo que disculparse formalmente. Ese mismo lugar, tal vez el mismo droide, tuvo un altercado en un estacionamiento con un borracho, pero al menos no fue culpa del K5. El jurado aún está en la unidad K5 en Georgetown Waterfront, complejo de oficinas / compras en Washington DC… que supuestamente tropezó por unas escaleras hacia una fuente de agua después de solo una semana en el trabajo. No se ve bien para el ejército de Skynet.

10 El algoritmo embarazoso falla