Hogar Con visión de futuro Conferencia de código: youtube, facebook, twitter ejecutivos para reducir el contenido inadecuado

Conferencia de código: youtube, facebook, twitter ejecutivos para reducir el contenido inadecuado

Tabla de contenido:

Video: Hashtags: #WorstAdviceEver (Noviembre 2024)

Video: Hashtags: #WorstAdviceEver (Noviembre 2024)
Anonim

Siguiendo los pasos de otras conferencias tecnológicas, la Conferencia del Código de este año se centró en las desventajas de la tecnología, y particularmente en las redes sociales, con los líderes de Instagram, Twitter y YouTube en sus políticas para eliminar o no publicar contenido cuestionable.

Todos estos ejecutivos parecían tener alguna variación de la siguiente conversación: Sí, hay cosas malas en nuestra plataforma. Deberíamos haberlo sabido antes. Estamos tratando de mejorar las cosas. Pero es difícil. Lo sentimos si te ofendiste.

Todo tiene sentido, pero no apacigua a todos los críticos ni silencia las voces que piden la ruptura o al menos una mayor regulación de las grandes plataformas tecnológicas. Esto es lo que dijeron algunos de los ejecutivos y algunos de los críticos en el show.

Youtube

La directora ejecutiva de YouTube, Susan Wojcicki, describió los cambios en la política de la plataforma sobre el discurso de odio y dijo que si un video ahora alega que algún grupo (como una raza o religión) es superior, ya no se permitirá; ni tampoco videos que aleguen que otro grupo es inferior. Dijo que la empresa también agregó más grupos a la lista protegida, incluidas las castas en la India y las víctimas de eventos violentos verificados (como el Holocausto). Ella dijo que estos son solo algunos de los muchos cambios de política que la empresa ha realizado durante el año pasado. También habló sobre limitar la distribución del "contenido límite" para que algunos videos que no están bloqueados no se incluyan en las recomendaciones de YouTube y no estén disponibles para ser monetizados. Esto, dice ella, ha reducido su visión en un 80 por ciento.

Pero reconoció que todo esto ha seguido generando controversia, comenzando su entrevista disculpándose con la comunidad LGBTQ y diciendo que entendió que sus decisiones eran perjudiciales para esa comunidad, pero esa no era la intención. La controversia se refiere a la decisión de YouTube de permitir que los videos de Stephen Crowder permanezcan en el sitio, a pesar de las quejas de Carlos Maza de Vox de que Crowder lo estaba acosando a él y a otros con comentarios anti-LGBTQ. (Vox pone la conferencia de Código).

"El contexto realmente importa", dijo Wojcicki, diciendo que antes de que la empresa elimine un video, considera si un video está dedicado al acoso o un video de una hora con un insulto racial, si es una figura pública y si es malicioso en la intención Ella dijo que determinar que algo es malicioso es un gran obstáculo para la empresa, diciendo que necesita hacer cumplir las políticas de manera consistente, porque siempre habrá videos de los que la gente se queja. Ella señaló que puedes encontrar muchos insultos raciales y comentarios sexistas en cosas como canciones de rap, charlas nocturnas y mucho humor. Ella dijo que la compañía quiere trabajar para cambiar las políticas, en lugar de tener una reacción "kneejerk" a una instancia individual.

Al final, dijo que la compañía decidió que estos videos no eran acoso y que no violaban las políticas, y dijo que esa era la decisión correcta. Pero ella dijo que la compañía estaba suspendiendo la monetización, haciendo que el creador del video se beneficiara de los anuncios publicados en el video.

Ella dijo que si YouTube eliminara ese video, habría mucho otro contenido que tendría que eliminar. Pero dijo que la firma eliminará las cosas, y que muchos de los cambios realizados en la política de odio serán realmente beneficiosos para la comunidad LGBTQ y darán lugar a la eliminación de videos. Y repitió una disculpa por el dolor que podría haber causado.

Cuando el anfitrión de la conferencia, Peter Kafka, le preguntó si la escala de YouTube, con 2 mil millones de usuarios y 500 horas de video cargadas cada minuto, significa que nunca puede resolver el problema, Wojcicki dijo: "Definitivamente podemos mejorar la forma en que administramos la plataforma, y ​​veo cómo hemos mejorado mucho ". Señaló que la firma ha visto una reducción del 50 por ciento en la cantidad de contenido violento en los últimos dos años, y tiene más de 10, 000 personas trabajando en el contenido. Pero ella volvió a centrarse en las cosas malas en la plataforma, y ​​señaló que también había un gran contenido excelente. "Toda la preocupación es sobre este uno por ciento fraccional del contenido", dijo. Pero reconoció que hay mucho trabajo por hacer para abordar ese contenido y dijo que la compañía está invirtiendo en herramientas y trabajando arduamente para abordar esto.

Hizo a un lado una sugerencia de que podría haber una barrera para subir videos, diciendo "perderíamos muchas voces". Pero sí habló de tener más "niveles de confianza" de videos para que cualquiera pueda comenzar a subir cosas, pero tendría que cumplir ciertas reglas para obtener una distribución más amplia.

"Vemos todos estos beneficios de la apertura", dijo, pero señaló que YouTube tiene la responsabilidad de comprender el contenido y decidir qué debe recomendarse y qué debe promoverse.

Wojcicki dijo que creía que YouTube y Google enfrentarán más regulaciones, señalando nuevas regulaciones de derechos de autor en Europa, pero dijo que era importante que los reguladores entendieran cómo implementar estas cosas de manera razonable debido al potencial de consecuencias no deseadas.

Cuando Kevin Roose, de The New York Times, le preguntó si YouTube ha contribuido a la radicalización de la política (según una historia reciente que hizo), Wojcicki dijo que el sitio se ha tomado muy en serio las preocupaciones por la radicalización e hizo una serie de cambios en enero que redujeron las recomendaciones del "contenido límite" en un 50 por ciento.

Dijo que YouTube quiere ofrecer una amplia gama de opiniones, con los usuarios eligiendo lo que quieren ver, pero estaba preocupada, y dijo que pensaba que tales cambios en las políticas y en las recomendaciones marcarán la diferencia.

Instagram y Facebook

Dos ejecutivos de Facebook hablaron sobre cómo Facebook, y en particular Instagram, estaba lidiando con las críticas.

Adam Mosseri, quien dirige Instagram, dijo que estamos viendo "un cambio de paradigma hacia formas de comunicación más privadas", y señaló que todo el crecimiento en Instagram provino de historias y mensajes. Señaló que las historias son fugaces, mientras que la alimentación es mejor si quieres cosas que están para siempre. Señaló que las historias no son sobre "mensajes de utilidad" sino más bien sobre "iniciadores de conversación".

Mosseri dijo que la compañía tiene "mucho debate acalorado", ya que existe una tensión real entre la privacidad y la seguridad. Él dijo: "Pusimos en juego el hecho de que los mensajes deberían ser absolutamente privados", pero aceptó que la empresa necesita tiempo para trabajar y tiempo para encontrar soluciones alternativas para la seguridad.

Andrew Bosworth, que supervisa la realidad artificial, la realidad virtual y otros proyectos avanzados para Facebook, señaló que la privacidad a veces significa privacidad de Facebook, pero otros quieren privacidad del gobierno o del dispositivo. Históricamente, dijo que la privacidad de Facebook significaba control sobre los datos y quién podía verlos. Pero señaló que se está desarrollando de diferentes maneras, y dijo que "la conversación global no tendrá una respuesta", ya que los diferentes mercados tenían diferentes puntos de vista sobre el control del gobierno frente a la seguridad.

Cuando se le preguntó a Casey Newton, de Verge , si sería bueno romper Facebook y hacer de Instagram una compañía separada, Mosseri dijo que "podría facilitarme la vida y probablemente sería beneficioso para mí como individuo, pero Simplemente creo que es una idea terrible ". Dijo que en temas como la integridad de las elecciones y el discurso de odio, solo haría exponencialmente más difícil para Instagram mantener seguros a sus usuarios. Dijo que originalmente prometió mantener a Instagram independiente de Facebook, pero rompió esa promesa cuando se trataba de funciones de seguridad porque Facebook tiene más personas trabajando en seguridad e integridad que el número total de personas que trabajan en Instagram.

Mosseri dijo que es fundamental tener en cuenta la solicitud de responsabilidad, y Facebook cometió un error al no centrarse con suficiente atención en las consecuencias imprevistas en los primeros años. "Necesitamos hacer más para nutrir y hacer crecer lo bueno y abordar lo malo", dijo.

Bosworth dijo que cuando un sitio es pequeño, todo el contenido puede revisarse, aunque eso nos trae problemas de privacidad. Cuando crece, no puede revisar manualmente todo el contenido, pero obtiene más recursos y una "economía de escala". Estuvo de acuerdo en que Facebook estaba "masivamente atrasado en esto", pero dijo que la compañía estaba invirtiendo masivamente, diciendo que pensaba que era un problema solucionable y que la empresa estaba trabajando en soluciones técnicas y con reguladores sobre cómo responder. No te acercas a resolverlos dividiéndote en equipos y dando a cada equipo menos recursos, agregó.

Cuando se le preguntó si Facebook no puede resolver estos problemas porque ofrece servicios con publicidad, Bosworth dijo que "nos cuesta mucho más tener este contenido marginal en la plataforma". Dijo que Facebook tenía decenas de miles de personas revisando contenido. Si la empresa fuera despiadada y se deshiciera de todo discurso controvertido, dijo, eso sería más efectivo.

Mosseri dijo que deberíamos estar orgullosos de que pueda utilizar ese servicio de forma gratuita. La compañía dijo que la publicidad es lo que le permite a la compañía proporcionar esto, y que es pagado principalmente por personas que pueden pagarlo. Si cortas la publicidad, cortas a las personas.

Un cambio que Instagram está probando es ocultar "me gusta" en el sistema. Mosseri dijo que no queremos que Instagram sea "un entorno presurizado" y señala que los "me gusta" pueden ser competencia. Era optimista sobre hacer me gusta y cuenta en privado, pero dijo que es solo un experimento.

Mosseri también habló sobre el dispositivo Portal de la compañía, que dijo específicamente "dejó la funcionalidad de la mesa" al eliminar la grabación de conversaciones. Dijo que estamos viendo una generación completamente nueva de hardware con parlantes inteligentes, pero que Facebook quería asegurarse de que "la conexión humana sea un uso propio" pero con privacidad incorporada.

Bosworth señaló que Facebook ve la realidad virtual como "una oportunidad para profundizar" y tener experiencias significativas incluso cuando no puedes estar allí

Gorjeo

Dos ejecutivos de Twitter abordaron problemas similares, confrontando a la copresidenta de la conferencia, Kara Swisher, de que la plataforma es un "pozo negro" construido sobre personas que pueden decir lo que quieran y luego decir cosas terribles.

Twitter "se basa fundamentalmente en dejar que las personas hablen en público", dijo Kayvon Beykpour, líder del producto. Dijo que el propósito del sitio es "servir a la conversación pública", que "ayuda a las personas a aprender, ayuda a resolver problemas y ayuda a las personas a darse cuenta de que estamos todos juntos en esto ". Ese es el punto de partida, pero dijo que hay una" crisis existencial "porque si la conversación no es saludable, la gente no querrá participar.

Beykpour señaló que la mayoría de las personas en Twitter no tienen grandes plataformas, sino que tienen decenas o cientos de seguidores, y que las personas usan el servicio para encontrar personas que tienen intereses afines.

Vijaya Gadde, quien es el líder legal, de políticas públicas y de seguridad de Twitter, dijo que la empresa originalmente presionó por la libertad de expresión, pero ahora era más consciente del impacto que estamos teniendo. Dijo que la firma tiene un marco de políticas centrado en los derechos humanos fundamentales, como la seguridad y la libre expresión.

Señaló que la empresa ahora estaba lidiando con una falta de confianza y desinformación en la plataforma. En abril, en el contexto de las elecciones en India y Europa, dijo que la firma lanzó nuevas políticas diseñadas para frenar la información errónea sobre cómo registrarse para votar o dónde votar. Ella dijo que esto todavía era un proceso de aprendizaje, y señaló, por ejemplo, que algunos chistes fueron eliminados. En otras áreas, dijo que si busca información sobre vacunas, ahora se lo dirigirá a fuentes confiables. El objetivo es particularmente prevenir el "daño fuera de línea" a las personas.

Gadde señaló que Twitter ha tenido una "preferencia histórica de no ser árbitro de la verdad", pero admitió que fue difícil hacerlo a gran escala. En cambio, dijo, la empresa estaba tratando de amplificar el contenido que proviene de fuentes acreditadas. Con el tiempo, dijo, la empresa tendrá que hacer más y dijo que estaba observando lo que están haciendo otras plataformas.

Beykpour dijo que históricamente Twitter ha "girado en exceso" al tratar de resolver a través de políticas y aplicación, no a través de productos y tecnología. Dijo que la compañía ha progresado en temas de salud y que hará más. Señaló que la empresa acaba de emitir una nueva política simplificada que era más fácil de leer y que permitiría una mejor aplicación. Actualmente, dijo, el 40 por ciento de los tweets de las "acciones" firmes se realizan de manera proactiva, en lugar de las quejas.

Dijo que la empresa está des amplificando el contenido y dijo que las nuevas políticas han reducido la cantidad de abuso reportado en un 45 por ciento; y el número de bloqueos de cuentas en un 30 por ciento. Además, señaló que la empresa ahora desafía y bloquea más inicios de sesión para tratar de evitar el registro de cuentas maliciosas; pero aún enfrenta problemas como adivinar la contraseña bruta.

Cuando se le preguntó acerca de los temores de que las plataformas de redes sociales están llevando a una mayor radicalización, Gadde admitió que era una preocupación. "Creo que hay contenido en Twitter y en todas las plataformas que contribuyen a la radicalización", dijo. Pero agregó que la firma tiene muchos mecanismos y políticas para combatir esto. Ella dijo que el 90 por ciento de todo el contenido de terrorismo es eliminado de inmediato y ha prohibido a 110 grupos extremistas violentos.

Gadde dijo que las reglas de Twitter "son un documento vivo", con una nueva investigación que responde a los nuevos daños, y aconseja a la empresa si hay más de lo que podemos hacer. Ella señaló que "cosas malas suceden en plataformas privadas" también. Como Twitter está completamente abierto, dijo, todos pueden ver y responder. Pero sí notó que ser abierto puede ser una desventaja porque le da a las personas una plataforma. Dijo que la compañía estaba tratando de encontrar el equilibrio correcto entre el interés público y la capacidad de ver y responder, y los problemas que podría causar el contenido. Señaló que la empresa necesita trabajar en soluciones globales, ya que el 80 por ciento de sus usuarios no estaban en los EE. UU.

Ella habló sobre la importancia de la transparencia y de ser muy clara acerca de cuáles son las reglas. Pero también mencionó la importancia periodística del contenido, señalando que con las figuras públicas, incluso si Twitter eliminara un tweet, ese contenido llamaría la atención.

En respuesta a una pregunta de la audiencia, Gadde dijo que Twitter estaba "muy, muy centrado en la radicalización", y dijo que si reclama una asociación con grupos extremistas violentos, no puede estar en Twitter. Pero ella dijo que la firma tiene trabajo que hacer para entender cómo hacer más, y que vendrán cambios. Respondiendo a otra pregunta sobre el abuso dirigido a las mujeres, dijo que permitir que Twitter sea más proactivo hará una gran diferencia. Pero ella dijo que le preocupaba mucho silenciar las voces, particularmente las de los grupos minoritarios y las mujeres.

Beykpour dijo que una posible solución era dar a los clientes más control sobre cómo pueden sentirse más seguros en la plataforma, como dar a los autores la capacidad de moderar las respuestas dentro de un hilo de conversación. También habló sobre nuevos tipos de conversaciones, señalando que Twitter actual es solo Tweets públicos que viven para siempre y mensajes directos. Señaló que en el medio, la empresa no apoya, pero está considerando, cosas como una conversación pública que podría limitarse a cuatro personas.

Medio

Ev Williams, CEO de Medium y cofundador de Blogger y Twitter, se centró más en Medium, un servicio de suscripción que, según él, está creciendo a un ritmo saludable, pero no daría cifras. Dijo que las personas se suscriben al servicio por ideas y perspectivas, en temas desde salud hasta JavaScript y escritura literaria.

Discutió cómo agrupar contenido puede ser importante. Dijo que es "muy optimista sobre las suscripciones de contenido editorial", pero que podría ser difícil para muchos sitios web. "No nos suscribimos a programas de televisión o artistas musicales individualmente". En cambio, con Medium, está tratando de construir una plataforma que incluya sitios propios y operados, así como la diversidad de otros sitios. Dijo que Medium tiene cientos de miles de personas escribiendo cada mes.

Estaba convencido de que el contenido agrupado tendrá éxito y dijo que no había competidores directos, aunque cualquier sitio web que tenga una suscripción y algo así como Apple News + con su paquete de revistas, sí compite.

Williams dijo que las políticas de Medium han cambiado con el tiempo y que su moderación de contenido ahora es "bastante agresiva" en lo que está dispuesto a eliminar. En Medium, dijo, "todo lo que recomendamos es aprobado primero por un humano". Reconoció que eso significa que el sitio nunca será tan grande como las redes sociales, pero dijo que el "intercambio de valor" de la empresa que coloca su contenido en un grupo de curación pero detrás de un muro de pago, se ampliará.

Aunque se centró en Medium, Williams habló sobre las redes sociales y los blogs. Dijo que extraña los blogs, como algo entre pensamientos extremadamente casuales en las redes sociales y artículos largos. Dijo que en los blogs las cosas podrían "marinarse" en lugar de la "adicción a la retroalimentación a corto plazo que es perjudicial para el pensamiento".

El problema, dijo, es que "la retroalimentación instantánea probablemente sea confusa para las conversaciones saludables". Señaló que las personas se enganchan a los comentarios a corto plazo, como la exhibición pública de seguidores o me gusta en una publicación. Dijo que es imposible vivir en ese entorno y que no cambie su comportamiento. Otros sistemas con retroalimentación más lenta, como boletines o podcasts, permiten más contexto y mejores conversaciones, dijo. "Si cada comunicación tiene que sostenerse por sí misma, se pierde la capacidad de profundizar", dijo.

Dijo que la conversación política fue "más ruidosa que nunca", y eso lo hace más difícil, incluso si quieres escuchar muchas perspectivas. Pero dijo que hay puntos brillantes.

"La razón por la que me entusiasmé con la web en primer lugar es porque pensé que nos haría más inteligentes", dijo Williams. Pensó que si la gente pudiera poner ideas ahí fuera, el mundo tomaría decisiones más inteligentes. Pero dijo que no ha resultado así debido a los sistemas de retroalimentación e incentivos. "Parte de esto es el límite de la capacidad de atención humana", dijo, y señaló que más información no nos hace más inteligentes si no sabemos cómo digerirlo o cómo contextualizarlo, especialmente si hay industrias que intentan hacerte comprar cosas.

Esa es una razón por la que comenzó a trabajar en Medium hace 7 años. Señaló que con un servicio de suscripción, los clientes pagan, por lo que debe crear un producto que alguien considere lo suficientemente valioso para pagar. Dijo que eso era mejor que la publicidad, que se centró en qué tan barato puede llamar la atención de alguien.

Un panel de críticos

Por supuesto, las grandes plataformas también tuvieron muchas críticas en el programa. En particular, un panel incluyó a Nicole Wong, ex subdirectora de tecnología de EE. UU. Y ex asesora general adjunta de Google; Jessica Powell, ex vicepresidenta de comunicaciones de Google y autora de The Big Disruption ; y Antonio García Martínez, anteriormente de Facebook y autor de Chaos Monkeys.

"Estos no son problemas nuevos, han estado allí desde el principio", dijo Powell, y señaló que le preocupaban las "consecuencias no deseadas" y que el monitoreo del contenido es difícil. Ella dijo que es genial que las plataformas tengan políticas más estrictas "pero deberían haber estado allí mucho antes".

Wong señaló que en la primera era de Internet, "estábamos construyendo tecnología y pensando que cambiaríamos el mundo para siempre". Ella dijo que eso es sorprendente y que todavía existe, y que las personas en tecnología están en gran parte allí para hacer el bien. Pero ella dijo que la gente era perezosa al no reconocer que la tecnología no es inherentemente buena. Ella dijo que ahora sabemos cómo es ver un "internet armado" y que tenemos que construir sistemas para dar cuenta de eso. "Nadie nos debe un Internet gratuito y abierto diseñado para nuestro bien, y tenemos que construirlo".

García Martínez dijo que si alguien va a regular el discurso en Facebook, debería ser el gobierno. "Una democracia es la estructura donde se obtiene responsabilidad, no una corporación", dijo. Pero dijo que pensaba que Facebook debería separarse de todos modos, con Instagram y What's App separados, y dijo que si eleva la barra de moderación de contenido, podría obtener una ventaja competitiva.

Powell dijo que había un argumento creíble de que si tienes más datos, puedes entrenar mejor los modelos de IA, por lo que necesitas menos moderación humana. Pero sugirió que la industria podría encontrar una forma de reunir información para todos los jugadores, diciendo que esto ya se hizo para la explotación infantil y que deberíamos ser capaces de descubrir cómo hacerlo para la intimidación. En general, dijo, cualquier regulación debe abordar los problemas de control y transparencia, y dice que está mal que una startup de hoy tenga que preocuparse por el camino a seguir.

García Martínez dijo que siempre hay una compensación entre privacidad, conveniencia y seguridad, y dijo que está bien si sabes qué compensaciones estás haciendo. Pero sugirió deshacerse de los agregadores de datos de terceros.

En otra sesión, el comediante y crítico Baratunde Thurston impulsó su propia plataforma de "nueve maneras de no arruinar el futuro". Estos elementos incluyen puntajes de transparencia y confianza, cambiando el valor predeterminado para que se cierren las conversaciones; y propiedad y portabilidad de datos. Pero recibió la mayor atención al describir a Facebook como un "servicio de disculpa basado en la nube" que ofrece "Apología como servicio".

Además, el profesor de la Universidad de Nueva York, Scott Galloway, conocido por su libro Los cuatro: el ADN oculto de Amazon, Apple, Facebook y Google , hizo una serie de predicciones para el próximo año. Se incluyen en estas predicciones que un alto funcionario de Facebook será arrestado y detenido en suelo extranjero, y que habrá una mayor regulación de las grandes compañías tecnológicas. Dijo que pensaba que a través de escisiones y rupturas, Big Tech agregará más valor que la capitalización total de Boeing y Airbus en los próximos seis meses.

Conferencia de código: youtube, facebook, twitter ejecutivos para reducir el contenido inadecuado