Hogar Opiniones El accidente automovilístico de Uber: ¿nos falló?

El accidente automovilístico de Uber: ¿nos falló?

Tabla de contenido:

Video: (GONE WRONG) DO NOT RIDE UBER AT 3AM CHALLENGE!! *POLICE RESCUE ME* (Noviembre 2024)

Video: (GONE WRONG) DO NOT RIDE UBER AT 3AM CHALLENGE!! *POLICE RESCUE ME* (Noviembre 2024)
Anonim

El 12 de marzo, MIT Technology Review publicó una historia que comenzó así: "Es el año 2023, y los autos autónomos finalmente están navegando por las calles de nuestra ciudad. Por primera vez, uno de ellos golpeó y mató a un peatón, con gran cobertura mediática. Es probable una demanda de alto perfil, pero ¿qué leyes deberían aplicarse?"

Todo sobre la predicción era correcto, excepto la fecha. Exactamente una semana después de la publicación del artículo, un Uber sin conductor golpeó y mató a un peatón en Tempe, Arizona, mientras funcionaba en modo autónomo.

Aunque el incidente aún se está investigando, la conmoción que siguió es una indicación de cuán lejos estamos de integrar con éxito la inteligencia artificial en nuestras tareas y decisiones críticas.

En muchos casos, el problema no es con la IA, sino con nuestras expectativas y comprensión de la misma. Según Wired , casi 40, 000 personas murieron en incidentes de carretera el año pasado solo en los EE. UU., 6, 000 de los cuales eran peatones. Pero muy pocos (si los hubo) llegaron a los titulares como lo hizo el incidente de Uber.

Una de las razones por las que el accidente de Uber causó tanta conmoción es que generalmente tenemos altas expectativas de las nuevas tecnologías, incluso cuando todavía están en desarrollo. Bajo la ilusión de que la matemática pura impulsa los algoritmos de IA, tendemos a confiar en sus decisiones y nos sorprendemos cuando cometen errores.

Incluso los conductores de seguridad al volante de los autos sin conductor bajan la guardia. Las imágenes del incidente de Uber mostraron que el conductor estaba distraído, mirando hacia abajo segundos antes de que ocurriera el accidente.

En 2016, el conductor de un modelo Tesla S que funcionaba en modo piloto automático murió después de que el vehículo chocara contra un camión. Una investigación encontró que el conductor pudo haber estado viendo una película de Harry Potter en el momento de la colisión.

Las expectativas de perfección son altas, y las decepciones son poderosas. Los críticos se apresuraron a cuestionar todo el proyecto de auto sin conductor de Uber después del incidente; la compañía suspendió temporalmente las pruebas de autos sin conductor luego de esto.

La IA no es humana

Entre las críticas que siguieron al accidente se encontraba que un conductor humano habría evitado fácilmente el incidente.

"No estaba saltando de los arbustos. Ella había estado haciendo un progreso claro en varios carriles de tráfico, lo que debería haber estado en el ámbito del sistema para recoger", dijo un experto a CNN.

Ella está en lo correcto. Un conductor humano experimentado probablemente la habría visto. Pero los algoritmos de IA no son humanos.

Los algoritmos de aprendizaje profundo que se encuentran en los autos sin conductor utilizan numerosos ejemplos para "aprender" las reglas de su dominio. A medida que pasan el tiempo en el camino, clasifican la información que recopilan y aprenden a manejar diferentes situaciones. Pero esto no significa necesariamente que usen el mismo proceso de toma de decisiones que los conductores humanos. Es por eso que podrían funcionar mejor que los humanos en algunas situaciones y fallar en aquellas que parecen triviales para los humanos.

Un ejemplo perfecto es el algoritmo de clasificación de imágenes, que aprende a reconocer imágenes analizando millones de fotos etiquetadas. Con los años, la clasificación de imágenes se ha vuelto súper eficiente y supera a los humanos en muchos entornos. Sin embargo, esto no significa que los algoritmos entiendan el contexto de las imágenes de la misma manera que los humanos.

Por ejemplo, una investigación realizada por expertos de Microsoft y la Universidad de Stanford descubrió que un algoritmo de aprendizaje profundo entrenado con imágenes de gatos blancos creía con un alto grado de convicción de que una foto de un perro blanco representaba un gato, un error que un niño humano podría evitar fácilmente. Y en un caso infame, el algoritmo de clasificación de imágenes de Google clasificó erróneamente a las personas de color de piel oscura como gorilas.

Estos se llaman "casos extremos", situaciones que los algoritmos de IA no han sido entrenados para manejar, generalmente debido a la falta de datos. El accidente de Uber todavía está bajo investigación, pero algunos expertos en inteligencia artificial sugieren que podría ser otro caso marginal.

El aprendizaje profundo tiene muchos desafíos que superar antes de que pueda aplicarse en situaciones críticas. Pero sus fracasos no deberían disuadirnos. Debemos ajustar nuestras percepciones y expectativas y aceptar la realidad de que toda gran tecnología falla durante su evolución. La IA no es diferente.

El accidente automovilístico de Uber: ¿nos falló?