Illustration of a large brain with gears next to it, a hand with a chipped payment card connects to the brain; demonstrating how machine learning latency works

La latencia es un factor crítico en el rendimiento de los sistemas de machine learning en instituciones financieras. Sin embargo, a menudo se malinterpreta o se representa incorrectamente. Este artículo tiene como objetivo aclarar qué es la latencia, cómo afecta sus operaciones de fraude y qué debe buscar al evaluar las afirmaciones de latencia de los proveedores de servicios.

¿Qué es la Latencia?

La latencia se refiere al tiempo de espera entre una solicitud y su respuesta correspondiente dentro de un sistema. En el contexto de transacciones financieras, la latencia de un sistema específico representa el tiempo que toma procesar una transacción en ese sistema, es decir, desde que comienza hasta que termina el procesamiento de la transacción en ese sistema. Entender la latencia es crucial porque impacta directamente en la velocidad y eficiencia de sus operaciones.

Tipos de Métricas de Latencia

Hay dos métricas principales utilizadas para medir la latencia: latencia promedio y latencia percentil.

Latencia Promedio: Es el tiempo promedio que se tarda en procesar todas las solicitudes durante un período determinado. A menudo es baja y puede ser engañosa. Por ejemplo, una latencia promedio de 20 milisegundos (ms) puede parecer impresionante, pero no cuenta toda la historia.

Latencia Percentil: Mide la latencia en percentiles específicos, como el 95% o el 99%. Representa el tiempo dentro del cual se procesa un cierto porcentaje de transacciones. Por ejemplo, una latencia del 99% de 500 ms significa que el 99% de las transacciones se procesan en 500 ms o menos, mientras que el 1% de las transacciones tardan más de 500 ms en procesarse. Utilizar un percentil más bajo resalta que incluso pequeños porcentajes pueden representar un número significativo de transacciones en sistemas de alto volumen.

Por Qué Importa la Latencia Percentil

La latencia percentil proporciona una imagen más precisa del rendimiento del sistema, especialmente en esos momentos raros pero críticos cuando las transacciones toman más tiempo de lo habitual. Algunas transacciones lentas pueden afectar significativamente el rendimiento general del sistema, como se ilustra a continuación:

Imagine un sistema que procesa 1.000 transacciones por segundo en paralelo, manejando 100 millones de transacciones. Si el 99% de estas transacciones se procesan en 20 ms, pero durante un breve período de 50 segundos, 50.000 transacciones toman 500 ms debido a una desaceleración temporal, la latencia promedio aún podría parecer baja (alrededor de 20,2 ms).

Sin embargo, la latencia del 99% ahora reflejaría 500 ms. Esto demuestra que, aunque la latencia promedio pueda parecer buena, un pequeño porcentaje de transacciones puede experimentar un rendimiento significativamente peor. En sistemas que manejan millones de transacciones, incluso el 1% representa un gran número de transacciones afectadas. Por esta razón, es relevante para tales sistemas reportar percentiles de latencia como 99.9% o superiores – por ejemplo, 99.99%.

Cómo Evaluar las Afirmaciones de Latencia

Cuando los proveedores de servicios afirman tener baja latencia, es esencial profundizar:

  • ¿Es Latencia Promedio o Percentil? Las cifras de latencia promedio son más fáciles de lograr y, por eso, pueden ser engañosas. Siempre solicite la latencia del 99.9% o métricas percentiles similares para entender el rendimiento real
  • ¿Incluye Latencia de Red? Algunas mediciones de latencia se centran únicamente en la latencia del servidor, omitiendo factores externos como saltos de red—puntos donde los datos pasan a través de dispositivos como routers o switches a medida que viajan por la red. Esto es especialmente importante en sistemas distribuidos o en la nube, donde los datos pueden pasar por varios saltos, cada uno introduciendo un posible retraso. Más importante aún, los sistemas no pueden medir de manera confiable su propia latencia. Cuando un sistema experimenta una desaceleración o bloqueo, las mediciones internas pueden no capturarlo con precisión. Las mediciones externas de latencia son esenciales para obtener una visión completa, ya que tienen en cuenta estos saltos de red y el rendimiento general de todos los componentes.
  • Servidor Local vs. en la Nube: Verifique si el servidor que procesa las transacciones es local o está en la nube, lo que puede impactar la latencia.

Puntos Clave

Entender e interpretar correctamente las métricas de latencia es vital. Siempre priorice la latencia percentil sobre la latencia promedio y asegúrese de que todos los componentes del proceso de transacción, incluida la latencia de red, se consideren en las métricas. Al hacerlo, podrá evaluar mejor el rendimiento de sus sistemas y tomar decisiones basadas al seleccionar proveedores de servicios.

  • Latencia Promedio: Fácil de lograr pero puede ser engañosa.
  • Latencia Percentil: Proporciona una representación más precisa del rendimiento del sistema.
  • Latencia de Red: Debe incluirse para una visión completa.
  • Ubicación del Servidor: Impacta la latencia y debe considerarse.

Comprender estas particularidades le ayudará a garantizar que sus sistemas sean robustos y capaces de manejar transacciones de manera eficiente, incluso durante picos o desaceleraciones inesperadas.