Hoy en día, las empresas comenzaron a buscar candidatos que sean buenos tanto en conceptos de aprendizaje automático como en big data.
SparkR y PySpark son una de las pocas tecnologías populares que cobraron importancia debido a su procesamiento en memoria y su capacidad para manejar un gran volumen de datos.
Además de esto, los casos de uso en análisis de autoservicio, análisis web, análisis de clientes, análisis de la cadena de suministro, sistema de recomendaciones, análisis de precios, predicción de riesgos y detección de fraude tienen un gran potencial.
En términos de algoritmos de aprendizaje automático, las empresas esperan conceptos como SVM, XGB, árbol de decisión, bosque aleatorio, redes neuronales, etc.
- ¿Tener a un grupo de los mejores matemáticos y físicos del mundo trabajando en oficios automatizados (fondos de cobertura y firmas consultoras) es un desperdicio del capital humano del mundo? ¿Avanzaría el mundo más rápido si los persigue activamente en la ciencia?
- ¿Cuál es la derivación correcta de las declaraciones verdaderas en la lógica oracional?
- ¿Cuáles son algunas imágenes icónicas de científicos?
- ¿Cuáles son algunos científicos famosos que tenían una excelente intuición, pero que no eran analíticamente excepcionales?
- ¿Es hora de comenzar a referirse a la prueba T de Student como la prueba T de Gosset?
Con respecto a las herramientas, los candidatos con conocimiento de herramientas estadísticas como R / Python y SAS (principalmente para el dominio financiero solamente) y herramientas de visualización como Tableau, QlikView, Spotfire, Power BI tienen una gran demanda.