5 Machine learning en producción: cuando los algoritmos deciden por nosotros

Palabras clave
aprendizaje automático, productos digitales, personalización, sesgo algorítmico, experiencia de usuario
5.1 Introducción
Pensemos en una mañana cualquiera: abrimos Spotify y la primera canción que suena es exactamente lo que necesitábamos sin saberlo; revisamos el correo y los mensajes importantes ya están separados del resto; pagamos con tarjeta y, en milisegundos, un sistema decidió que esa transacción es legítima. Ninguna de esas cosas ocurren por accidente.
Lo llamativo de todo esto es que hace menos de una década, estas capacidades eran territorio casi exclusivo de grandes laboratorios de investigación. Hoy están en el teléfono de cualquier persona. El machine learning bajó de los papers académicos a las apps de uso diario, y ese salto no fue solo técnico: fue también un salto de responsabilidad.
5.2 Artículo
Del desarrollo a la implementación
Construir un producto que implemente técnicas o algoritmos de machine learning no es lo que normalmente pensamos. El proceso empieza mucho antes de la fase de análisis: hay que entender el problema que se quiere resolver y qué información o estudios previos existen para abordarlo. Un conjunto de datos se convierte en información sin sentido si no se cuenta con el análisis correcto bajo el contexto adecuado. Un modelo supervisado necesita ejemplos etiquetados de calidad; uno no supervisado puede encontrar estructuras sin etiquetas, pero esa estructura hay que interpretarla.
En cuanto al modelo entrenado, la prueba de fuego surge cuando llega a producción: es ahí donde verdaderamente surgen los fenómenos no anticipados, los sesgos se confirman y los datos del entrenamiento parecieran no tener relación con los del “mundo real”. La latencia, que en sistemas de recomendación o detección de fraude puede marcar la diferencia entre una experiencia fluida y una que el usuario abandona.
Del dato al producto
Los sistemas de recomendación son quizás el caso más visible. Plataformas como Netflix o YouTube usan variantes de filtrado colaborativo y modelos de factorización matricial para estimar la probabilidad de que un usuario consuma cierto contenido. El resultado es una experiencia que se siente personalizada, aunque en realidad es probabilística.
El machine learning opera también en ciberseguridad: los sistemas de detección de fraude bancario trabajan con modelos de clasificación en tiempo real sobre millones de registros —monto, ubicación, dispositivo, hora— permitiendo detectar un patrón de gasto histórico que se compara con la transacción sospechosa. Lo mismo ocurre en salud digital, donde modelos de series de tiempo analizan señales de sensores para detectar síntomas antes de que el usuario los note.
Sesgos, explicabilidad y lo que el usuario merece saber
Un 95% de precisión suena bien hasta que te preguntas quiénes componen el 5% restante. Varios estudios han documentado casos donde modelos de reconocimiento facial o de evaluación crediticia cometen errores de forma desproporcionada en ciertos grupos demográficos, no por diseño malicioso, sino porque los datos de entrenamiento ya contenían esos desequilibrios. Este fenómeno, conocido como sesgo algorítmico, es uno de los problemas más estudiados en el campo actualmente.
A esto se suma el problema de la explicabilidad. Los modelos más potentes operan como cajas negras: producen salidas precisas pero difíciles de justificar. Herramientas como SHAP o LIME permiten aproximar explicaciones locales de las predicciones, pero son eso: aproximaciones.

Figura 1: SHapley Additive exPlanation. Fuente: Shap Organization.
5.3 Conclusiones
El machine learning ya no es tecnología del futuro: está en el núcleo de los productos digitales que usamos a diario. Su poder real no está en los algoritmos en sí, sino en la combinación de buenos datos, decisiones de diseño conscientes y equipos dispuestos a hacerse responsables de lo que construyen. Un modelo que aprende rápido pero que nadie puede explicar, corregir o cuestionar, es un riesgo disfrazado de eficiencia. La diferencia entre un buen producto y uno dañino no siempre está en la precisión del modelo, sino en cómo el equipo responde cuando ese modelo se equivoca.
5.4 Bibliografía
“Large-Scale Machine Learning Systems in Real-World Industrial Settings.” 2020. Information and Software Technology. ScienceDirect.
“Fairness Issues, Current Approaches, and Challenges in Machine Learning Models.” 2023. International Journal of Machine Learning and Cybernetics. Springer Nature.
“Best Practices for Real-World ML Deployment.” TechTarget. 2026.
“ML Health: Fitness Tracking for Production Models.” 2019. arXiv Preprint.
“MLOps Challenges.” ScienceDirect. 2026.