You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Pensar en la implementación de magic loop para ser ejecutado en luigi, conservando atomicidad de las tareas en el orquestador (que se ejecute una sola cosa en cada task).
Los tasks de modelo deben guardar todos los hiper-parametros que el modelo utiliza (incluyendo los que están por default en sklearn)
Si se ejecutan varios modelos a la vez, los metadatos de sus combinaciones deben quedar guardados (también sus pickles).
Empezar a ver implementación tanto en sklearn tradicional y también en su versión paralelizada utilizando pyspark.
The text was updated successfully, but these errors were encountered:
Crear un task para cada tipo de modelo entrenado. Esto, con el fin de tener más orden sobre el guardado de los hiper-parametros que utilizan estos por individual. Observación: dato que hay un solo schema modelling que guarda los mismos metadatos en una tabla para todos los tipos de modelos, lo óptimo sería guardar los hiperparametros del modelo como una lista, en una columna correspondiente a dicha variable.
Implementar el loop en bash, aprovechando los parametros de las tareas luigi para probar combinaciones y tener un mejor control atómico del guardado de los metadatos.
Pensar en la implementación de
magic loop
para ser ejecutado enluigi
, conservando atomicidad de las tareas en el orquestador (que se ejecute una sola cosa en cada task).sklearn
)pickles
).sklearn
tradicional y también en su versión paralelizada utilizandopyspark
.The text was updated successfully, but these errors were encountered: