Programmation Python Machine Learning Chapitre 2 Problèmes de classification - Résumé de la formation à l'algorithme d'apprentissage automatique
      
      
        
        
        
        
Dernière histoire
Résumé du chapitre 1 de la programmation Python Machine Learning
introduction
- 
Ce qui est traité dans ce chapitre
 
- 
Algorithme d'apprentissage automatique précoce
--Perceptron
- ADALINE
 
- 
contenu de l'étude
--Développer une intuition pour les algorithmes d'apprentissage automatique
 
- 
Chargement, traitement et visualisation des données
 
- 
Algorithme de classification linéaire implémenté en Python
 
- 
Exemple de code
 
2.1 Neurone artificiel
--Histoire
--McCulloch-Pitts Neuron (1943)
-Le but est d'élucider le mécanisme du cerveau biologique
--Premier concept de cellules cérébrales simplifiées
- Le premier concept des règles d'apprentissage de Perceptron (1957)
- Frank Rosenblatt
 
- Après avoir appris automatiquement le coefficient de pondération optimal, il est multiplié par le signal d'entrée pour déterminer si le neurone se déclenche ou non.
--Tâche de classification bivalente
--Mots clés
 
- Entrée totale
 
- Fonction d'activation
 
- Règles d'apprentissage
 
- Initialisez le poids avec 0 ou un petit nombre aléatoire
 
- Effectuez les étapes suivantes pour chaque échantillon d'apprentissage
 
- Calculez la valeur de sortie y
 
- Mettez à jour le poids
 
- Potentiel de convergence de Perceptron
--Conditions
 
- Est-il séparable linéairement?
-Est-ce que le taux d'apprentissage est assez petit?
--S'il ne converge pas
 
- Définir le nombre maximum d'époques et de classifications erronées
 
2.2 Implémenter l'algorithme d'apprentissage de Perceptron en Python
--Référence textuelle
2.3 Formation du modèle Perceptron avec le jeu de données Iris
--Classification bivalente avec les données Iris
- Méthode un contre tous pour la classification multi-classes
--Référence textuelle
 
2.4 ADALINE et la convergence d'apprentissage
- Algorithme Perceptron amélioré
 
- Montrez spécifiquement la définition de la fonction de coût et le concept de sa minimisation
 
- Différence de Perceptron
--Comment mettre à jour les poids
 
- Mise à jour du poids basée sur la fonction d'activation linéaire
--Quantificateur
 
- Prédiction d'étiquette de classe
 
- Utilisé pour calculer l'erreur de modèle et mettre à jour les poids
--Perceptron
 
- Étiquette de classe bivalente
- ADALINE
 
- Sortie de valeur continue de la fonction d'activation linéaire
 
2.5 Minimisation de la fonction de coût par la méthode de descente de gradient
--Fonction objective
- L'un des principaux composants d'un algorithme d'apprentissage automatique supervisé
--Optimisé pendant le processus d'apprentissage
--Fonction de coût
 
- Utilisé pour l'apprentissage du poids
--Somme de l'erreur au carré
--Avantages de cette fonction d'activation linéaire à valeur continue
--Différenciable
--Fonction convexe
 
- Méthode de descente de pente
 
2.5.1 Implémenter ADALINE en Python
--Référence textuelle
--Taux d'apprentissage
- Trop grand
--La somme des erreurs au carré augmente
 
- trop petit
 
- Un nombre considérable d'époques sont nécessaires pour converger
 
- Normalisation
--Une des méthodes de mise à l'échelle des fonctionnalités
 
- La moyenne de chaque fonction est définie sur 0
--Réglez l'écart type à 1.
 
2.6 Apprentissage automatique à grande échelle et méthode de descente de gradient probabiliste
- Méthode de descente de gradient par lots
 
- Ensemble de données d'entraînement global
 
- Si l'ensemble de données est trop volumineux, le coût du calcul sera considérable.
 
- Méthode de descente de gradient probabiliste (méthode de descente de gradient séquentielle, méthode de descente de gradient en ligne)
 
- Basé sur un échantillon de données
--Facile à sortir des valeurs minimales peu profondes
--Trier les données au hasard
 
- Les modèles peuvent être formés sur place lorsque de nouvelles données arrivent (apprentissage en ligne)
--Mini apprentissage par lots
--Appliquer la méthode de descente de gradient par lots à une partie des données d'entraînement (par exemple 50)
 
Livre de référence
Merci beaucoup.