Machine Learning: Cómo la potencia sin control no sirve de nada
¿POR QUÉ PAGAR A OTROS, CUANDO PUEDO PUEDO HACERLO YO?
Hoy en día, las organizaciones generan y recopilan una enorme cantidad de datos, muchas con el pretexto de llevar a cabo técnicas de tratamiento de estos mismos datos, a partir de los cuales obtener información y poder llevar a cabo acciones en su entorno.
A su vez, en este momento, existen multitud de soluciones (muchas gratuitas) con las que implementar elaborados algoritmos de predicción, hasta ahora solo accesibles a profesionales con una alto conocimiento de estadística y computación.
¿cuánto tardarías en programar, por ejemplo, una red neuronal con backpropagation, desde cero? ¿y aplicar un algoritmo de Random Forest?
¿cuánto tiempo llevaría diseñar un programa para aplicar herramientas de minería de textos y poder clasificar de forma automática un comentario en un foro como positivo, negativo o neutral?
Gracias a aplicaciones como Rapid Miner, Big ML,Knime,Neural Designer,Weka e incluso Matlab, R, Python, … estamos a pocos clicks de generar un algoritmo muy potente sin apenas tener conocimientos previos (ni siquiera de programación, puesto que muchas soluciones tienen un entorno muy intuitivo y cómodo).
¿POR QUÉ PAGAR A OTROS, CUANDO PUEDO PUEDO HACERLO YO?
Así pues y ante este escenario, ¿quién pagaría a alguien por hacer esto?
¿para qué destinar dinero para desarrollar un análisis predictivo a otra empresa si el becario de la oficina te hace una solución muy “apañá” en dos tardes?
Quizás por eso, por la facilidad de acceder a tal número de herramientas, se hace más visible que nunca la necesidad de “entender” el proceso. Ahora que cualquiera puede hacerlo, serán aquellos quienes posean el conocimiento teórico los que obtendrán la ventaja competitiva.
LA NECESIDAD DEL EXPERTO
Ya la capacidad de programación no será una barrera para la implantación de soluciones analíticas predictivas, pero sin establecer un criterio, sin entender cuándo y por qué utilizar los diferentes tipos de soluciones disponibles, no entenderemos por qué hicimos lo que hicimos y qué podemos hacer para mejorarlo.
¿Has tenido en cuenta el equilibrio sesgo/varianza? ¿y el error de entrenamieto/ error de test? ¿por qué inicializamos pesos de forma aleatoria cercanos a 0 en una red neuronal? ¿podemos usar el error out-of-bag como estimación del error de test? ¿entiendes por qué emplear validación cruzada anidada en la selección de modelos? ¿qué son las curvas ROC? ¿usas el coeficiente de correlación de Mathew? ¿por qué el recocido simulado nos permite salir de mínimos locales? ¿por qué es útil la metaheurística en problemas de optimización combinatoria?
EN RESUMEN
Ahora que la tecnología ha “democratizado” la accesibilidad de todos a la minería de datos y al Machine Learning (incluso en entornos de Big Data), podemos gestionar y analizar enormes cantidades de información, de una variedad enorme, para tratar de encontrar “la aguja en el pajar”, y es en el conocimiento donde obtenemos las ventajas competitivas respecto al resto. Y las ventajas, tanto ahora como antes, se pagan.
“Un hombre lleva su coche al taller. Después de estar un rato mirando, el mecánico finalmente coge su llave inglesa, gira una tuerca y exclama:
– Ya está. Son 300 €.
El hombre, sorprendido, protesta:
-¿300 € por girar una simple tuerca?
-No hombre no- responde el mecánico – por el trabajo y el giro de tuerca te cobro 1€.
Y después añade:
-los otros 299 € te los cobro por saber qué tuerca girar”.