Las cosas se mueven rápido en el mundo de la tecnología de infraestructura. No hace mucho tiempo, cuando se consideraba que ejecutar una base de datos en Kubernetes era demasiado complicado para que valiera la pena. Pero ese fue el problema de ayer. Los desarrolladores de aplicaciones nativas de la nube se han vuelto buenos para ejecutar cargas de trabajo con estado porque Kubernetes es una forma poderosa de crear centros de datos virtuales de manera rápida y eficiente.
La última vez que escribí sobre esto, amplié un poco la apertura para considerar otras partes de la pila de aplicaciones en el centro de datos virtual, en particular, la transmisión de cargas de trabajo y el análisis.
Con estos dos moviéndose a la corriente principal en Kubernetes, la discusión sobre los casos de uso se vuelve más interesante.
¿Qué haremos con estas herramientas de datos fundamentales si tenemos acceso a ellas? Afortunadamente, no tenemos que investigar demasiado, porque la industria ya ha elegido la dirección: cargas de trabajo de IA/ML .
Lo que impulsa esto es la necesidad de MLOps más rápidos y ágiles para respaldar
La creación y el mantenimiento de modelos de aprendizaje automático (ML, por sus siglas en inglés) están saliendo del back office y acercándose a los usuarios en producción. Un almacén de características actúa como un puente entre los datos y los modelos de aprendizaje automático, proporcionando una forma coherente para que los modelos accedan a los datos tanto en las fases fuera de línea como en línea. Gestiona los requisitos de procesamiento de datos durante el entrenamiento del modelo y proporciona acceso en tiempo real de baja latencia a los modelos durante la fase en línea. Esto garantiza la consistencia de los datos para ambas fases y cumple con los requisitos en línea y fuera de línea.
La función explicativa brinda información sobre por qué se tomó una decisión para cada predicción, ofreciendo la importancia de la función y destacando los factores en el modelo que condujeron a un resultado particular. Esto se puede usar para detectar la deriva y el sesgo del modelo, que son algunas de las partes "importantes pero difíciles" del aprendizaje automático. Estas características reducen el esfuerzo involucrado en MLOps y generan confianza en la aplicación. KServe se separó recientemente del proyecto Google KubeFlow y ha sido
Mejorando las formas tradicionales en que encontramos datos, la búsqueda de similitud de vectores (VSS) es una herramienta de aprendizaje automático que utiliza matemáticas vectoriales para encontrar qué tan "cerca" están dos cosas entre sí. Esto se hace a través del vecino más cercano K (
combinar mi
Las cargas de trabajo de IA/ML pueden ser algo que recién está comenzando a explorar, por lo que ahora podría ser el mejor momento para comenzar con el pie derecho. Las tres áreas mencionadas (servicio de funciones, servicio de modelos y búsqueda de similitud de vectores) están cubiertas en el libro del que soy coautor con Jeff Carpenter, “
También publicado aquí.