Video Thumbnail 22:19
Taylor series | Chapter 11, Essence of calculus
4.7M
127.6K
2017-05-07
Taylor polynomials are incredibly powerful for approximations and analysis. Help fund future projects: https://www.patreon.com/3blue1brown An equally valuable form of support is to simply share some of the videos. Special thanks to these supporters: http://3b1b.co/lessons/taylor-series#thanks Home page: https://www.3blue1brown.com/ Full series: http://3b1b.co/calculus Series like this one are funded largely by the community, through Patreon, where supporters get early access as the series is be...
Sous-titres

« Pour moi, les mathématiques sont une série d'exemples ; un théorème est une déclaration à propos d'une série d'exemples et l'objectif de prouver des théorèmes est de classifier et d'expliquer des exemples. » John B. Conway Quand j'ai appris pour la première fois les séries de Taylor, Je n'ai certainement pas apprécié leur importance.

Mais maintes et maintes fois, elles apparaissent en mathématiques, en physique, et dans de nombreux domaines de l'ingénierie, car c'est l'un des outils les plus puissants

que les mathématiques ont à offrir pour approximer les fonctions. L'une des premières fois que le déclic s'est fait pour moi en tant qu'étudiant n'a pas été dans une classe d'analyse,

mais dans une classe de physique. Nous étions en train d'étudier un problème qui a à voir avec l'énergie potentielle d'un pendule, et pour cela vous avez besoin d'une expression de la hauteur

du poids du pendule au-dessus de son point le plus bas, qui s'avère être proportionnelle à un moins le cosinus de l'angle entre le pendule et la verticale.

Les détails du problème que nous essayions de résoudre sont sans importance ici, mais je vais juste dire que cette fonction cosinus rend le problème délicat et difficile à manier.

Et cela rendait moins claire la relation entre les pendules et d'autres phénomènes oscillatoires. Mais en approximant cos(thêta) en 1 - thêta^2/2,

tout devient alors beaucoup plus facile. Si vous n'avez jamais vu quelque chose comme cela avant, une approximation comme celle-ci pourrait vous paraître complètement hors de propos.

Pourtant, si vous tracez les graphiques de cos(thêta) ainsi que de la fonction 1 - thêta^2/2, elles semblent assez proches l'une de l'autre pour les petits angles proche de 0. Mais comment penseriez-vous faire cette approximation ?

Et comment trouver ce polynôme du second degré ? L'étude des séries de Taylor, c'est en grande partie prendre des fonctions non-polynomiales, et trouver des polynômes qui les approximent autour d'une certaine valeur.

La motivation étant que les polynômes ont tendances à être beaucoup plus facile à traiter que d'autres fonctions : elles sont plus faciles à calculer, plus facile à

dériver, plus facile à intégrer... Globalement, elles sont beaucoup plus sympathiques. Alors regardons la fonction cos(x), et prenons un moment pour réfléchir à la façon dont vous pourriez

trouver une approximation quadratique près de x = 0. C'est-à-dire, parmi tous les polynômes pouvant s'écrire comme c0 + c1*x + c2*x^2 avec certaines constantes c0, c1 et c2, comment trouver celui qui ressemble le plus à

cos(x) au voisinage de x = 0 ; dont le graphique s'emboiterait avec le graphique de cos(x) en ce point. Eh bien, tout d'abord, pour la valeur 0, cos(x) est égal à 1, donc si l'on souhaite que notre approximation

ait une quelconque valeur, elle devrait également valoir 1 quand on y met 0. Lorsque l'on met 0, cela nous donne la valeur de c0. On la met donc égale à 1.

Cela nous laisse libre le choix des constantes c1 et c2 pour faire la meilleure des approximation possible. Mais rien de ce que l'on pourrait leur faire ne changera le fait que le polynôme est égal à 1 pour x=0.

Il serait également bien que notre approximation ait la même tangente que cos(x) en ce point particulier. Autrement, l'approximation

dériverai loin de la courbe du cosinus de façon plus rapide qu'elle ne le devrait. La dérivée de cos(x) est -sin(x), et en x=0, cela est égal à 0, ce qui signifie que la tangente est parfaitement plate.

En calculant la dérivée de notre second degré, vous obtenez c1 + 2*c2*x. En x=0, cela est égal à la valeur de c1. Donc cette constante c1 contrôle complétement

la dérivée de notre approximation autour de x=0. La mettre à 0 nous assure que notre approximation a la même dérivé que cos(x), et par conséquent la même tangente.

Cela nous laisse libre de changer c2, mais la valeur et la pente de notre polynôme en x=0 sont verrouillés de telle sorte à correspondre à celles de cos(x).

Le graphique de cosinus se courbe vers le bas pour x=0, elle a une dérivée seconde négative. En d'autres termes, même si le taux de variation est de 0 en ce point, le taux de variation en lui-même

est décroissant autour de ce point. Plus précisément, puisque sa dérivée est -sin(x) sa dérivée seconde est -cos(x). Ainsi, en x = 0, sa dérivée seconde est égale à -1.

De la même manière que nous souhaitions avoir la dérivée de notre approximation qui corresponde à celle du cosinus, de telle sorte que leurs valeurs ne s’éloignent pas trop rapidement, en vous assurant que leurs

dérivées secondes correspondent, vous assurerez qu'elles se courberont à la même vitesse ; que la pente de notre polynôme ne dérive pas loin de la pente de cos(x) plus rapidement que nécessaire.

A partir de la dérivée précédemment calculée, en prenant sa dérivée, nous observons que la dérivée seconde de ce polynôme est exactement 2*c2.

Donc pour s'assurer que cette dérivée seconde soit égale à -1 pour x=0, 2*c2 doit être égale à -1, ce qui signifie que c2 lui-même doit être -½. Cela nous donne l'approximation 1 + 0*x - ½*x^2.

Pour avoir une idée d'à quel point cette approximation est bonne, si l'on estime cos(0,1) avec ce polynôme, vous devriez on obtient 0,995. Et cela est la véritable valeur de cos(0,1). C'est donc très bonne approximation.

Prenez un moment pour réfléchir à ce qui vient de se passer. Vous aviez trois degrés de liberté pour une approximation de degrés 2 : les constantes c0, c1 et c2. c0 était responsable de faire en sorte que la

valeur de sortie de l'approximation corresponde à celle de cos(x) en x=0, c1 était chargé de faire en sorte que les dérivés correspondent en ce point, et c2 était responsable d'assurer que

les dérivées secondes correspondent. Cela garantit que la façon dont votre approximation varie quand vous vous éloignez de x=0, et la façon dont le taux de variation lui même varie,

est aussi similaire que possible au comportement de cos(x), compte tenu de la maîtrise que vous avez. Vous pourriez vous donner plus de contrôle en ajoutant plus de termes dans votre polynôme, et faire correspondre

des dérivées d'ordre supérieur de cos(x). Par exemple, ajouter le terme c3*x^3 avec c3 constant. Dans ce cas, si vous prenez la dérivée troisième d'un polynôme de degrés 3,

tout ce qui est de degrés inférieur ou égal à 2 s’annule. Quant au dernier terme, après trois itérations de la règle des puissances, il ressemble à 1*2*3*c3.

D'autre part, la dérivée troisième de cos(x) est sin(x), qui est égal à 0 en x=0, donc pour que les dérivées troisièmes correspondent, la constante c3 devrait être égal à 0.

Autrement dit, non seulement 1 - ½*x^2 est la meilleure approximation quadratique possible de cos(x) autour de x=0, elle est aussi la meilleure approximation cubique possible.

Vous pouvez néanmoins faire une amélioration en ajoutant un terme du quatrième ordre, c4*x^4. La dérivée quatrième de cos(x) est elle-même, qui est égal à 1 en x=0. Et qu'est-ce que la dérivée quatrième de notre

polynôme avec ce nouveau terme ? Eh bien, quand vous continuez à appliquer la règle des puissances encore et encore, avec les exposants diminuant à chaque fois, on se retrouve avec 1*2*3*4*c4, qui est 24*c4.

Donc, si nous voulons que cela corresponde à la dérivée quatrième de cos(x), qui est 1, c4 doit être égal à 1/24. Et en effet, le polynôme 1 - ½*x^2 + 1/24*x^4

qui ressemble à ceci, est une très proche approximation de cos(x) autour de x=0. En tout problème de physique impliquant le cosinus d'un angle petit, par exemple, les prévisions

serait presque imperceptiblement différente si vous remplacez cos(x) par ce polynôme. Maintenant, retour en arrière : notez quelques petites choses sur ce processus.

Tout d'abord, les termes factoriels apparaissent naturellement dans ce processus. Lorsque vous appliquez n fois la dérivée de x^n, la cascade due à la règle des puissance vous laisse juste

avec 1*2*3 et ainsi de suite jusqu'à n. Donc, vous ne définissez pas simplement les coefficients du polynôme comme étant égaux aux valeurs des dérivées souhaités, vous avez à diviser par

la factorielle appropriée pour annuler cet effet. Par exemple, le coefficient de x^4 est la dérivée quatrième de cosinus, 1, divisé par 4 factoriel, 24.

La deuxième chose à noter est que l'ajout de nouveaux termes, comme ce c4*x^4, ne perturbe pas la valeur des anciens termes, et c'est très important.

Par exemple, la dérivée seconde de ce polynôme en x=0 est toujours égal à 2 fois le second coefficient, même après l'introduction de termes de plus haut degrés au polynôme.

Et c'est parce que nous y mettons x=0, de sorte que la dérivée seconde de tous termes d'ordre supérieur, qui tous comprennent un x, vont se voir balayé. La même chose vaut pour toute autre dérivée,

ce qui est la raison pour laquelle chaque dérivée d'un polynôme en x=0 dépend uniquement d'une seul coefficient. Si, au lieu de cela, vous souhaitiez approximer une fonction près d'un point autre que 0, comme x=pi,

afin d'obtenir le même effet, vous auriez dû écrire votre polynôme en terme de puissances de (x-pi), ou n’importe laquelle des entrées souhaitées. Cela apparaît comme plus compliqué,

mais tout ce cela fait est de rendre le point pi similaire à 0, de sorte que mettre x=pi entraîne beaucoup de belles annulations qui ne laissent qu'une seule constante.

Enfin, sur un plan plus philosophique, remarquez que ce que nous faisons ici est essentiellement prendre des informations sur les dérivées d'ordre supérieures de la fonction en un unique point,

et traduire cela en informations sur la valeur de cette fonction à proximité de ce point. Nous pouvons prendre autant de dérivés de cos(x) que l'on veut, cela suit ce jolie motif cyclique :

cos(x), -sin(x), -cos(x), sin(x), et ainsi de suite. Donc la valeur de la dérivée en x=0 possède aussi un motif cyclique 1, 0, -1, 0, et ainsi de suite. Et connaître les valeurs de toutes ces dérivées d'ordres supérieurs

correspond à beaucoup d'informations sur cos(x), même si elle n'implique de regarder en une seule entrée, x=0. Cette information est mise à profit pour obtenir une approximation

autour de cette entrée en créant un polynôme dont les dérivées d'ordre supérieur sont conçues pour correspondre avec celles de cos(x), suivant le même motif cyclique 1, 0, -1, 0.

Pour ce faire, faites en sorte que chaque coefficient de ce polynôme suive le même motif, mais divisez chacun d'eux par la factorielle appropriée, comme mentionné plus tôt, de façon à annuler

les effets de cascade de l'application multiple de la loi des puissances. Les polynômes que vous obtenez en arrêtant ce processus en n'importe quel point sont appelés « polynômes de Taylor » pour cos(x) autour de l'entrée x=0.

De manière plus générale, et donc plus abstraire, si nous avions affaire à une autre fonction que cosinus, vous devriez calculer sa dérivée, sa dérivée seconde, et ainsi de suite, obtenant ainsi autant

de termes que vous le souhaiteriez, et vous auriez évalueriez chacune en x=0. Ensuite, pour votre approximation polynomiale, le coefficient de chaque terme x^n devrait être

la valeur de la dérivée nième de la fonction en 0, divisé par (n!). Cette formule plutôt abstraite est quelque chose que vous verrez probablement dans n'importe que texte ou cours

à propos des polynômes de Taylor. Et quand vous le voyez, pensez en vous-même que le terme constant assure que la valeur du polynôme corresponde à celle de f(x) au point x=0,

que le prochain terme veille à ce que la pente du polynôme corresponde à celle de la fonction, le terme encore après assure que la vitesse à laquelle cette pente évolue est la même, et ainsi de suite, en fonction de

combien de termes vous souhaitez. Plus vous mettrez de termes, plus votre approximation sera proche, mais le compromis est que votre polynôme est plus complexe.

Et si vous voulez approximer autour d'une valeur différente de 0, vous écrivez votre polynôme en terme de (x-a) à la place, et vous évaluez toutes les dérivés de f en ce point a.

C'est à quoi ressemble les séries de Taylor dans toute leur généralité. Changer la valeur de a, c'est changer où l'approximation embrasse la fonction d'origine ; où les dérivées d'ordre supérieur

seront égales à celles de la fonction d'origine. L'un des exemples les plus significatifs est e^x, autour de l'entrée x=0. Le calcul de ses dérivés

est facile, puisque la dérivée de e^x est elle-même, de sorte que sa dérivée seconde est également e^x, tout comme sa dérivée troisième, et ainsi de suite. Donc, au point x=0, elles valent toutes 1.

Cela signifie que notre approximation polynomiale ressemble à 1 + x + ½ x^2 + 1/(3!) x^3 + 1/(4!) x^4, et ainsi de suite, selon le nombre de termes que vous voulez. Ce sont les polynômes de Taylor pour e^x.

Avec cela comme fondations, et dans l'esprit de vous montrer à quel point les sujets d'analyse sont connectés, laissez moi passer à une manière complètement différente de comprendre ce terme du second ordre géométriquement. C'est lié

au théorème fondamental de l'analyse, dont j'ai parlé dans les chapitres 1 et 8. Comme nous l'avons fait dans ces vidéos, envisagez une fonction qui donne l'aire sous un graphique entre

un point fixe à gauche et un point variable à droite. Ce que nous allons faire est de penser à la façon dont on approxime cette fonction aire, non pas la fonction de la courbe comme nous le faisions avant.

Se concentrer sur ce domaine est ce qui va faire éclater le terme du second ordre. Rappelez-vous, le théorème fondamental de l'analyse nous dit que ce graphe représente la dérivée

de la fonction aire, et, pour rappel, c'est parce que un légère déviation dx du bord droit de la surface nous donne une petite surface approximativement égale à la hauteur du graphique multiplié par dx,

Et cette approximation est d'autant plus précise que dx est petit. Mais si vous voulez être plus précis à propos de l'évolution de la surface

étant donné un changement de x qui n'a pas à tendre vers 0, vous devriez prendre en compte la partie ici, qui est approximativement un triangle.

Appelons l'entrée de départ a, et la déviation au-dessus x, afin que la déviation soit (x-a). La base de ce petit triangle est que cette déviation (x-a),

et sa hauteur est la pente du graphique fois (x-a). Étant donné que ce graphique est la dérivée de la fonction aire, cette pente est la dérivée seconde de la fonction aire,

évaluée en l'entrée a. Ainsi, l'aire de ce triangle, ½ de la base fois la hauteur, est ½ fois la dérivée seconde de la fonction aire, évaluée en a, multipliée par (x-a)^2.

Et c'est exactement ce que nous donne les polynômes de Taylor. Si vous connaissiez les différentes dérivées de la fonction aire au point a,

Comment approximeriez-vous cette aire au point x ? Eh bien, vous avez à inclure toute l'aire jusqu'en a, soit f(a), plus l'aire du rectangle,

qui est la dérivée première fois (x-a), plus l'aire de ce petite triangle, qui est ½ fois la dérivée seconde fois (x-a)^2.

J'apprécie vraiment cela, parce que même si cela semble un peu confus lorsqu'on l'écrit, chaque terme possède une signification propre que l'on peut montrer sur un graphique.

Nous pourrions nous arrêté ici, et avoir un outil phénoménalement utile pour approximer grâce à ces polynômes de Taylor.

Mais si vous pensez comme un mathématicien, une question que vous pourriez vous demander est, est-ce que cela a un sens de ne pas s'arrêter, et d’additionner indéfiniment.

En mathématiques, une somme infinie est appelée une « série », Ainsi, même si l'une de ces approximations avec un nombre fini de termes est appelé « polynôme de Taylor »,

en ajoutant une infinité de termes, cela donne ce qu'on appelle une « série de Taylor ». Mais, vous devez être très prudent avec l'idée d'une une série infinie,

car cela n'a pas de sens d'additionner un nombre infini de choses ; vous ne pouvez taper le bouton plus sur votre calculatrice qu'un nombre fini de fois.

Mais si vous avez une série où l'ajout de plus en plus de termes vous amène de plus en plus près d'une valeur spécifique, vous dites que la série converge vers cette valeur.

Ou, si vous êtes à l'aise pour étendre la définition de l'égalité pour inclure la convergence des séries, vous pourriez dire la série dans son ensemble, cette somme infinie, est égale à la valeur vers laquelle elle converge.

Par exemple, regardez le polynôme de Taylor pour e^x, et mettez-y une certaine entrée comme x=1. Plus vous ajoutez de termes dans votre polynôme, plus la somme totale se rapproche de la valeur e,

donc nous disons que la série infinie converge vers le nombre e. Ou, ce qui est la même chose, qu'elle est égal au nombre e.

En fait, il se trouve que si vous y mettez n'importe quelle autre valeur de x, comme x=2, et regardez la valeur obtenue avec des ordres de plus en plus supérieurs du polynôme de Taylor converge vers e^x, dans ce cas e^2.

Cela est vrai pour toute les entrées, quelle que soit la distance de 0, même si ce polynôme de Taylor est construit uniquement à partir des informations sur les dérivées recueillies pour l'entrée 0.

Dans un cas comme celui-ci, nous disons que e^x est égale à sa série de Taylor pour toutes les entrées x, ce qui est un peu de la magie.

Bien que cela soit vrai aussi pour d'autres fonctions importantes, comme comme sinus et cosinus, parfois ces séries convergent uniquement dans un certain intervalle autour de l'entrée dont les informations

de dérivées sont tirées. Si vous calculez la série de Taylor pour le logarithme naturel de x autour de l'entrée x=1, qui est construite en évaluant les dérivées d'ordre supérieur

de ln(x) en x=1, voilà à quoi cela ressemble. Quand on branche une entrée comprise entre 0 et 2, ajouter de plus en plus de termes de cette série

va en effet vous rapprocher de plus en plus du logarithme naturel de cette entrée. Mais en dehors de cet intervalle, même d'un peu, la série ne parvient pas à approcher quoi que ce soit.

Lorsque vous ajoutez de plus en plus de termes, la sommes fait un va-et-vient violent, il n'approche pas le logarithme naturel de cette valeur, même si le logarithme naturel de x est parfaitement bien défini

pour les entrées au-dessus de 2. Dans un certain sens, les informations sur les dérivées de ln(x) pour x=1 ne se propage pas très loin.

Dans un cas comme celui-ci, où l'ajout de termes de la série ne se rapproche de rien, on dit que la série diverge. Et la distance maximale entre l'entrée

sur laquelle vous approximer et les points où les polynômes convergent, est appelé le « rayon de convergence » pour la série de Taylor.

Il reste beaucoup à apprendre sur les séries de Taylor, leurs nombreux cas d'utilisation, les techniques mises en places pour borner l'erreur de ces approximations, les tests pour comprendre quand ces séries

convergent ou pas. Et d'ailleurs, il reste plus à apprendre au sujet de l'analyse dans son ensemble, et les innombrables sujets non abordés dans cette série.

L'objectif de ces vidéos est de vous donner les intuitions fondamentales qui vous font sentir assez confiant pour apprendre plus efficacement de votre côté, et peut-être même redécouvrir

de ce sujet par vous-même. Dans le cas des séries de Taylor, l'intuition fondamentale à garder à l'esprit quand vous explorez plus est qu'elles traduisent des informations de dérivées

en un point unique en approximation autour de ce point. Merci encore à ceux qui ont sponsorisés cette série.

La prochaine série comme celle-ci sera sur les probabilités, et si vous voulez avoir un accès anticipé à ces vidéos, vous savez où aller.