Python Machine Learning. Vahid Mirjalili
Чтение книги онлайн.
Читать онлайн книгу Python Machine Learning - Vahid Mirjalili страница 5
K-vecinos más cercanos: un algoritmo de aprendizaje vago
Capítulo 4: Generar buenos modelos de entrenamiento: preprocesamiento de datos
Eliminar muestras o características con valores ausentes
Entender la API de estimador de scikit-learn
Trabajar con datos categóricos
Características nominales y ordinales
Crear un conjunto de datos de ejemplo
Mapear características ordinales
Realizar una codificación en caliente sobre características nominales
Dividir un conjunto de datos en conjuntos de prueba y de entrenamiento individuales
Ajustar las características a la misma escala
Seleccionar características significativas
Una interpretación geométrica de la regularización L2
Soluciones dispersas con la regularización L1
Algoritmos de selección de características secuenciales
Evaluar la importancia de las características con bosques aleatorios
Resumen
Capítulo 5: Comprimir datos mediante la reducción de dimensionalidad
Reducción de dimensionalidad sin supervisión mediante el análisis de componentes principales
Los pasos esenciales que se esconden detrás del análisis de componentes principales
Extraer los componentes principales paso a paso
Varianza total y explicada
Transformación de características
Análisis de componentes principales en scikit-learn
Compresión de datos supervisada mediante análisis discriminante lineal
Análisis de componentes principales frente a análisis discriminante lineal
Cómo funciona interiormente el análisis discriminante lineal
Calcular las matrices de dispersión
Seleccionar discriminantes lineales para el nuevo subespacio de características
Proyectar muestras en el nuevo espacio de características
ADL con scikit-learn
Utilizar el análisis de componentes principales con kernels para mapeos no lineales
Funciones kernel y el truco del kernel
Implementar un análisis de componentes principales con kernels en Python
Ejemplo 1: separar formas de media luna
Ejemplo 2: separar círculos concéntricos
Proyectar nuevos puntos de datos
Análisis de componentes principales con kernel en scikit-learn
Resumen
Capítulo 6: Aprender las buenas prácticas para la evaluación de modelos y el ajuste de hiperparámetros
Simplificar flujos de trabajo con pipelines
Combinar transformadores y estimadores en un pipeline
Utilizar la validación cruzada de K iteraciones para evaluar el rendimiento de un modelo
El método de retención
Validación cruzada de k iteraciones
Depurar algoritmos con curvas de validación y aprendizaje
Diagnosticar problemas de sesgo y varianza con curvas de aprendizaje
Resolver el sobreajuste y el subajuste con curvas de validación
Ajustar los modelos de aprendizaje automático con la búsqueda de cuadrículas
Ajustar hiperparámetros con la búsqueda de cuadrículas
Selección de algoritmos con validación cruzada anidada
Observar diferentes métricas de evaluación de rendimiento
Leer una matriz de confusión
Optimizar la exactitud y la exhaustividad de un modelo de clasificación
Representar una característica operativa del receptor
Métricas de calificación para clasificaciones multiclase
Tratar con el desequilibrio de clases
Resumen
Capítulo