Python Machine Learning. Vahid Mirjalili

Чтение книги онлайн.

Читать онлайн книгу Python Machine Learning - Vahid Mirjalili страница 5

Автор:
Серия:
Издательство:
Python Machine Learning - Vahid Mirjalili

Скачать книгу

decisión múltiples mediante bosques aleatorios

       K-vecinos más cercanos: un algoritmo de aprendizaje vago

       Resumen

      Capítulo 4: Generar buenos modelos de entrenamiento: preprocesamiento de datos

       Tratar con datos ausentes

       Eliminar muestras o características con valores ausentes

       Imputar valores ausentes

       Entender la API de estimador de scikit-learn

       Trabajar con datos categóricos

       Características nominales y ordinales

       Crear un conjunto de datos de ejemplo

       Mapear características ordinales

       Codificar etiquetas de clase

       Realizar una codificación en caliente sobre características nominales

       Dividir un conjunto de datos en conjuntos de prueba y de entrenamiento individuales

       Ajustar las características a la misma escala

       Seleccionar características significativas

       Una interpretación geométrica de la regularización L2

       Soluciones dispersas con la regularización L1

       Algoritmos de selección de características secuenciales

       Evaluar la importancia de las características con bosques aleatorios

       Resumen

      Capítulo 5: Comprimir datos mediante la reducción de dimensionalidad

       Reducción de dimensionalidad sin supervisión mediante el análisis de componentes principales

       Los pasos esenciales que se esconden detrás del análisis de componentes principales

       Extraer los componentes principales paso a paso

       Varianza total y explicada

       Transformación de características

       Análisis de componentes principales en scikit-learn

       Compresión de datos supervisada mediante análisis discriminante lineal

       Análisis de componentes principales frente a análisis discriminante lineal

       Cómo funciona interiormente el análisis discriminante lineal

       Calcular las matrices de dispersión

       Seleccionar discriminantes lineales para el nuevo subespacio de características

       Proyectar muestras en el nuevo espacio de características

       ADL con scikit-learn

       Utilizar el análisis de componentes principales con kernels para mapeos no lineales

       Funciones kernel y el truco del kernel

       Implementar un análisis de componentes principales con kernels en Python

       Ejemplo 1: separar formas de media luna

       Ejemplo 2: separar círculos concéntricos

       Proyectar nuevos puntos de datos

       Análisis de componentes principales con kernel en scikit-learn

       Resumen

      Capítulo 6: Aprender las buenas prácticas para la evaluación de modelos y el ajuste de hiperparámetros

       Simplificar flujos de trabajo con pipelines

       Combinar transformadores y estimadores en un pipeline

       Utilizar la validación cruzada de K iteraciones para evaluar el rendimiento de un modelo

       El método de retención

       Validación cruzada de k iteraciones

       Depurar algoritmos con curvas de validación y aprendizaje

       Diagnosticar problemas de sesgo y varianza con curvas de aprendizaje

       Resolver el sobreajuste y el subajuste con curvas de validación

       Ajustar los modelos de aprendizaje automático con la búsqueda de cuadrículas

       Ajustar hiperparámetros con la búsqueda de cuadrículas

       Selección de algoritmos con validación cruzada anidada

       Observar diferentes métricas de evaluación de rendimiento

       Leer una matriz de confusión

       Optimizar la exactitud y la exhaustividad de un modelo de clasificación

       Representar una característica operativa del receptor

       Métricas de calificación para clasificaciones multiclase

       Tratar con el desequilibrio de clases

       Resumen

      Capítulo

Скачать книгу