Maths Terminal Bac Pro
Fonction dérivée : Partie 1 Correction Ex.4
Fonction dérivée : Correction
partie.1 : Ex.4
En utilisant le tableau de la fonction dérivée du cours ou de la fiche d’aide.
Calculer :
a. la dérivée de la fonction :
b. le nombre dérivé " f '(xA)" au point A d’abscisse :
xA = -5 ; 3 et 8.
c. le coefficient directeur " a " de la tangente (y = ax+b) point A d’abscisse :
xA = -5 ; 3 et 8 👉 a = f '(xA)
...............................................................................................................
Voir Cours 👉 Cours à trous 👉 Cours complétéVoir Fiche d'aide 👉 Fiche d'aide Revenir à la page de choix de l'exercice 👉 Choix d'un exercicePasser à la partie 1 Ex.5 👉 Sujet partie 1 Ex5
..............................................................................................................
Fonction dérivée en Informatique : Algorithmes de machine learning
Les fonctions dérivées jouent un rôle fondamental en informatique, en particulier dans le domaine du machine learning. Elles sont essentielles pour l'optimisation des modèles, permettant aux algorithmes d'apprendre à partir des données. En machine learning, les dérivées sont utilisées principalement pour ajuster les paramètres des modèles afin de minimiser une fonction de perte, qui quantifie l'erreur entre les prédictions du modèle et les valeurs réelles. Ce processus est souvent réalisé par des techniques d'optimisation telles que la descente de gradient.
La descente de gradient est l'un des algorithmes les plus couramment utilisés en machine learning pour minimiser les fonctions de perte. Elle repose sur l'idée d'utiliser les dérivées pour suivre la pente descendante de la fonction de perte. Supposons que nous avons une fonction de perte qui dépend d'un vecteur de paramètres . La descente de gradient met à jour les paramètres dans la direction opposée au gradient de la fonction de perte par rapport à :
où représente les paramètres à l'itération , est le taux d'apprentissage, et est le gradient de la fonction de perte par rapport aux paramètres. Le gradient est un vecteur de dérivées partielles de par rapport à chaque paramètre de . En ajustant de manière itérative, l'algorithme cherche à trouver les paramètres qui minimisent .
Un exemple classique est la régression linéaire, où l'objectif est de trouver les coefficients qui minimisent la somme des carrés des erreurs entre les prédictions du modèle et les valeurs observées. La fonction de perte pour la régression linéaire est souvent la fonction de coût quadratique :
où est le nombre d'exemples dans le jeu de données, est la prédiction du modèle pour l'exemple donnée par , et est la valeur réelle pour l'exemple . Le gradient de par rapport à chaque paramètre est :
La descente de gradient met à jour chaque paramètre en suivant la direction opposée à ce gradient.
Les réseaux de neurones, qui sont à la base de nombreuses applications modernes de machine learning, utilisent également les dérivées pour l'apprentissage. Un réseau de neurones est composé de couches de neurones, chaque neurone effectuant une transformation linéaire suivie d'une fonction d'activation non linéaire. L'apprentissage dans les réseaux de neurones est généralement réalisé à l'aide de l'algorithme de rétropropagation, qui utilise les dérivées pour ajuster les poids des connexions entre neurones.
où est le poids de la connexion entre le neurone et le neurone , est l'activation du neurone , et est l'entrée pondérée du neurone . En ajustant les poids en fonction de ces gradients, le réseau de neurones apprend à minimiser la fonction de perte.
Les fonctions dérivées sont également essentielles dans les techniques de régularisation, qui visent à améliorer la généralisation des modèles en pénalisant des valeurs de paramètres excessivement grandes. Par exemple, la régularisation L2, également appelée régularisation de Tikhonov ou ridge regression, ajoute une pénalité proportionnelle au carré de la norme des poids à la fonction de perte :
ou y est le paramètre de régularisation. La dérivée de cette fonction de perte régularisée par rapport à chaque paramètre
est :
En ajoutant cette pénalité, la régularisation L2 empêche les poids de devenir trop grands, réduisant ainsi le risque de surapprentissage.
Les dérivées sont également utilisées dans les méthodes de machine learning non supervisées, telles que le clustering et la réduction de dimensionnalité. Par exemple, dans l'algorithme de k-means, qui partitionne les données en clusters, la fonction de perte à minimiser est la somme des distances au carré des points aux centres de leurs clusters respectifs. Les centres des clusters sont mis à jour en calculant les dérivées de cette fonction de perte par rapport aux positions des centres, puis en ajustant les centres pour minimiser la perte.
Dans les techniques de réduction de dimensionnalité comme l'analyse en composantes principales (PCA), les dérivées sont utilisées pour trouver les directions principales qui capturent la plus grande variance des données. PCA maximise la variance projetée des données en calculant les dérivées des vecteurs propres de la matrice de covariance des données.
Enfin, les algorithmes de machine learning bayésiens utilisent également les dérivées pour la mise à jour des croyances et l'estimation des paramètres. Par exemple, dans l'approximation variationnelle bayésienne, on optimise une fonction d'évidence lower bound (ELBO) pour approcher la distribution postérieure des paramètres. Les dérivées de l'ELBO par rapport aux paramètres de la distribution approximante sont utilisées pour ajuster ces paramètres de manière à maximiser l'ELBO.