Ciencia de Datos: Técnicas analíticas y aprendizaje estadístico
Español | 9.3 Mb | Pdf | Autores: Jesús García, José M. Molina, Antonio Berlanga, Miguel A. Patricio, Álvaro L. Bustamante y Washington R. Padilla | Páginas: 443 | Pass:www.detodopython.com
Descripción:
La ciencia de datos es hoy en día la herramienta fundamental para la explotación de datos y la generación de conocimiento. Entre los objetivos que persigue se encuentra la búsqueda de modelos que describan patrones y comportamientos a partir de los datos con el fin de tomar decisiones o hacer predicciones. Es un área que ha experimentado un enorme crecimiento al extenderse el acceso a grandes volúmenes de datos e incluso su tratamiento en tiempo real, requiriendo de técnicas sofisticadas que puedan tratar con los problemas prácticos como escalabilidad, robustez ante errores, adaptabilidad con modelos dinámicos, etc. Abarca a numerosos grupos de investigación de diferentes áreas (computación, estadística, matemáticas, ingeniería, etc.) que trabajan en la propuesta de nuevos
algoritmos, técnicas de computación e infraestructuras para la captura, almacenamiento y procesado de datos, etc.
La ingente cantidad de datos disponibles, generados de forma continua e incesante por entidades, usuarios, servicios o dispositivos, ha implicado el desarrollo de nuevos métodos científicos e ingenieriles para disponer de sistemas y procedimientos capaces de almacenar, procesar y analizar dichos datos, generando de esta manera información y conocimiento en sectores tan dispares como la industria, banca, finanzas, marketing, seguros, redes sociales, comercio electrónico, salud, gobierno electrónico, ciudades inteligentes, biología, medicina o ciencias de la tierra, por citar algunos.
Big data es un término de origen inglés cuya traducción equivale a “datos masivos”.
Muchas son las definiciones que entidades y organizaciones han dado para el término big data, pero todas ellas se pueden resumir en el conjunto de datos cuyo tamaño supera considerablemente la capacidad de captura, almacenado, gestión y análisis del software convencional de bases de datos.
Sin embargo, el concepto no hace referencia simplemente al tamaño de la información, sino también a la variedad del contenido y a la velocidad con la que los datos se generan, almacenan y analizan. Estas dimensiones son las “3V” con las que la empresa Gartner describió big data, es decir volumen, velocidad y variedad de los datos.
El objetivo del libro es proporcionar una visión general de las principales técnicas de la ciencia de datos y de las aplicaciones que las implementan, permitiendo comprender los conceptos fundamentales sobre los que se basan y los resultados al aplicarlas a problemas reales. Existen muchos libros que se centran en aspectos teóricos de técnicas específicas, y otros que mantienen un nivel introductorio omitiendo detalles para centrarse en las aplicaciones. Este libro busca un equilibrio entre estos extremos: Se lleva a cabo una presentación que permita comprender los fundamentos de cada familia de técnicas y simultáneamente desarrolla ejemplos de datos reales y el análisis de resultados con las diferentes técnicas presentadas.
Contenido:
Capítulo 1: Introducción
Capítulo 2: Análisis estadístico de datos
Capítulo 3: Introducción al lenguaje R. Lectura, procesado y visualización de datos: data wrangling
Capítulo 4: Predicción y clasificación con técnicas numéricas
Capítulo 5: Predicción y clasificación con R
Capítulo 6: Técnicas de minería de datos
Capítulo 7: Técnicas de minería de datos en R
Capítulo 8: Internet de las cosas y análisis de series temporales
Capítulo 9: Análisis de datos espaciales
Bibliografía
No hay comentarios:
Publicar un comentario