<\/span><\/h2>\nComo ya dijimos en otros art\u00edculos del blog , uno de los pilares fundamentales en aprendizaje autom\u00e1tico o Machine Learning es la comprensi\u00f3n del equilibrio sesgo-varianza, y ver c\u00f3mo podemos gestionarlo en nuestro modelo predictivo. Para entenderlo, tenemos que saber que los datos, por lo general, ser\u00e1n divididos en dos grandes grupos<\/strong>: un conjunto de entrenamiento<\/strong>, usado para entrenar a nuestro modelo para mejorar su rendimiento, y un conjunto de test<\/strong>, destinado a probar c\u00f3mo de bueno es el modelo a la hora de enfrentarse ante datos que no vio cuando fue entrenado (ser\u00e1 nuestro proxy a datos del futuro que est\u00e1n por analizar).<\/p>\n<\/span>\u00a1\u00a1No caig\u00e1is en la tentaci\u00f3n de usar todos los datos para entrenar al modelo, pensando en el \u201ccuantos m\u00e1s mejor\u201d, ni extrapol\u00e9is el error en el entrenamiento al error que se tendr\u00e1 en la realidad, pues es bastante probable que ese no sea el caso!!<\/span><\/h3>\n <\/p>\n
Dicho esto vamos a centrarnos en el error del conjunto de test, ya que no olvidemos el objetivo \u00faltimo del modelo: la aplicaci\u00f3n en casos futuros. Para entenderlo mejor vamos a utilizar la siguiente gr\u00e1fica, extra\u00edda del recomendable libro\u00a0An Introduction to Statistical Learning.<\/em><\/p>\nSi nos fijamos en el error total (l\u00ednea roja), mientras dotamos al modelo de m\u00e1s flexibilidad, va disminuyendo (el modelo es capaz de captar mejor la funci\u00f3n que trata de replicar). Sin embargo, llega un momento en el que la flexibilidad es contraproducente en este conjunto de test, pues empieza a aumentar de nuevo, \u00bfqu\u00e9 quiere decir esto? Que el modelo tiene tanta flexibilidad que se adapt\u00f3 muy bien a los datos de entrenamiento. Tan bien, que lo que obtuvimos fue una soluci\u00f3n ad hoc para ese conjunto, generalizando muy mal ante casos futuros (como vemos en el error de test)<\/p>\n
Podemos intuir que la l\u00ednea roja es la suma del resto de l\u00edneas:<\/p>\n
\nLa l\u00ednea azul indica el error de sesgo, debido a que el modelo carece de la flexibilidad \u00f3ptima para capturar la funci\u00f3n de los datos (pensemos en tratar de explicar una nube de datos en forma circular mediante un modelo lineal).<\/li>\n La l\u00ednea amarilla indica el error de varianza, achacable a cu\u00e1nto var\u00eda el modelo en caso de cambiar el conjunto de entrenamiento (si el modelo se adapta perfectamente al conjunto de entrenamiento, al cambiar el conjunto, cambiar\u00e1 hasta ajustarse al nuevo conjunto, siendo buena soluci\u00f3n para el conjunto de entrenamiento, pero mala generalizaci\u00f3n para datos futuros).<\/li>\n La l\u00ednea continua permanece inalterable a medida que aumenta la flexibilidad. Se refiere al error irreducible, y nos recuerda el desgraciado hecho de que cualquier modelo va a tener un error al aplicarlo en datos futuros, es decir, en la realidad.<\/li>\n<\/ul>\nComo vemos, ser capaces de encontrar el punto donde el error total se minimice ser\u00e1 la tarea primordial del analista<\/strong>, que tendr\u00e1 que buscar en el equilibrio sesgo-varianza aquella soluci\u00f3n que mejor le permita extrapolar su an\u00e1lisis al escenario real.<\/p>\n","protected":false},"excerpt":{"rendered":"EQUILIBRIO SESGO-VARIANZA Como ya dijimos en otros art\u00edculos del blog , uno de los pilares fundamentales en aprendizaje autom\u00e1tico o Machine Learning es la comprensi\u00f3n del equilibrio sesgo-varianza, y ver c\u00f3mo podemos gestionarlo en nuestro modelo predictivo. Para entenderlo, tenemos que saber que los datos, por lo general, ser\u00e1n divididos en dos grandes grupos: un […]<\/p>\n","protected":false},"author":1,"featured_media":1385,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"inline_featured_image":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0},"categories":[111,26],"tags":[],"acf":[],"yoast_head":"\n
El ying y el yang de los modelos anal\u00edticos | LIS Data Solutions<\/title>\n \n \n \n \n \n \n \n \n \n \n \n\t \n\t \n\t \n \n \n \n\t \n\t \n\t \n