Video: Cómo aumentar o mejorar la seguridad en WordPress (Noviembre 2024)
La importancia del tamaño de la muestra
Es intuitivamente obvio que una prueba como esta obtendrá resultados más precisos con un conjunto de muestras más grande, pero esta vez AV-Comparatives ha explicado claramente las consecuencias de un conjunto de muestras demasiado pequeño. Un simple informe separado presenta las estadísticas, y son un poco sorprendentes.
Supongamos que un producto en particular detecta el 80 por ciento de un conjunto de 10, 000 muestras de malware. Ahora suponga que elige solo diez muestras al azar de esa misma colección. Usando un cuadro de todos los resultados posibles, el informe demuestra que lograr la misma tasa de detección, una tasa de detección más alta o una tasa de detección más baja es casi igualmente probable. Sí, reducir a diez muestras es un caso extremo, pero seguro que es el punto.
Métodos de prueba
Usando métodos de búsqueda automatizados y manuales, el equipo de investigación recopila URL maliciosas del mundo real todos los días. Seleccionan específicamente una combinación de enlaces directos a archivos de malware y sitios de descargas automáticas. Revisando las muestras del día una por una, exponen todos los productos a una URL particular simultáneamente y observan cómo reacciona cada producto. Si algún componente de la suite rechaza el malware, eso es un éxito. Si el malware se desliza y establece la limpieza, eso es un fracaso.
A veces, la suite aparecerá con una notificación de que ha encontrado algo , preguntándole al usuario si bloquearla o permitirla. Para fines de prueba, los analistas de AV-Comparatives siempre eligen permitir la acción. Un producto que defiende con éxito el sistema a pesar de esta acción obtiene crédito completo; un producto que permite que el sistema se vea comprometido debido a una elección incorrecta del usuario obtiene la mitad del crédito.
Una vez que se completa un caso de prueba en particular, todos los sistemas de prueba se vuelven a generar imágenes en un estado anterior al malware, listos para el próximo caso de prueba.
Falsos positivos
Se produce un resultado falso positivo cuando el software de seguridad bloquea erróneamente el acceso a un archivo o sitio web legítimo. Claramente, no desea que su paquete de seguridad elimine archivos válidos o lo mantenga alejado de sitios web inofensivos. AV-Comparatives probó cada producto con alrededor de mil dominios elegidos al azar y alrededor de cien programas nuevos y populares. Para fines de prueba, descargaron cada programa desde el sitio del desarrollador, no desde un portal de descarga.
El informe señala que el análisis de seguridad estadístico y basado en la reputación a menudo bloqueará o advertirá sobre nuevos programas y sitios. Afirma: "Aunque tales técnicas de protección… ayudan a obtener puntajes altos en los productos… esto también puede conducir a la detección / bloqueo de archivos y URL inocentes / limpios solo porque son… demasiado nuevos". Norton, un fuerte defensor de este tipo de detección, no participa en las pruebas AV-Comparatives.
Mucha mejora
Más de la mitad de los productos incluidos en el informe actual obtuvieron mejores resultados que en la edición anterior de este informe. Vipre, McAfee y Fortinet fallaron la última vez, ni siquiera obtuvieron el ESTÁNDAR, la calificación más baja para aprobar. Esta vez Fortinet y McAfee calificaron como AVANZADAS y Vipre llegó a ESTÁNDAR. Los tres tuvieron su calificación reducida debido a falsos positivos; basado solo en la detección, McAfee y Fortinet habrían calificado ADVANCED +, la calificación más alta.
eScan saltó de ESTÁNDAR a AVANZADO +, mientras que avast!, ESET y Trend Micro se movieron de AVANZADO a AVANZADO +. Varios otros que previamente calificaron ESTÁNDAR lograron una calificación AVANZADA esta vez.
Bitdefender regularmente obtiene las mejores puntuaciones en todos los ámbitos en pruebas de laboratorio independientes. Basándose en la detección de malware, habría calificado como AVANZADO +, como lo hizo la última vez, pero los falsos positivos lo redujeron a AVANZADO. Lo mismo le sucedió a F-Secure y BullGuard.
La prueba dinámica del producto completo AV-Comparatives es una de las pruebas más intensivas en mano de obra que he encontrado. No es sorprendente, entonces, que el laboratorio cuente con el apoyo de la Universidad de Innsbruck y del gobierno austriaco. Es mucho trabajo, pero el resultado final es una prueba que se aproxima mucho a lo bien que un producto protegerá a los usuarios del mundo real.