Differentialrechnung

Graph einer Funktion (blau) und einer Tangente an den Graphen (rot). Die Steigung der Tangente ist die Ableitung der Funktion an dem markierten Punkt.

Die Differential- oder Differenzialrechnung ist ein wesentlicher Bestandteil der Analysis und damit ein Gebiet der Mathematik. Zentrales Thema der Differentialrechnung ist die Berechnung lokaler Veränderungen von Funktionen. Während eine stetige Funktion ihren Eingabewerten kontinuierlich gewisse Ausgangswerte zuordnet, wird durch die Differentialrechnung ermittelt, wie stark sich die Ausgabewerte nach sehr kleinen Veränderungen der Eingabewerte ändern. Sie ist eng verwandt mit der Integralrechnung, mit der sie gemeinsam unter der Bezeichnung Infinitesimalrechnung zusammengefasst wird.

Die Ableitung einer Funktion dient der Darstellung lokaler Veränderungen einer Funktion und ist gleichzeitig Grundbegriff der Differentialrechnung. Anstatt von der Ableitung spricht man auch vom Differentialquotienten, dessen geometrische Entsprechung die Tangentensteigung ist. Die Ableitung ist nach der Vorstellung von Leibniz der Proportionalitätsfaktor zwischen infinitesimalen Änderungen des Eingabewertes und den daraus resultierenden, ebenfalls infinitesimalen Änderungen des Funktionswertes. Eine Funktion wird als differenzierbar bezeichnet, wenn ein solcher Proportionalitätsfaktor existiert. Äquivalent wird die Ableitung in einem Punkt als die Steigung derjenigen linearen Funktion definiert, die unter allen linearen Funktionen die Änderung der Funktion am betrachteten Punkt lokal am besten approximiert. Entsprechend wird mit der Ableitung in dem Punkt eine lineare Näherung der Funktion gewonnen. Die Linearisierung einer möglicherweise komplizierten Funktion hat den Vorteil, dass eine einfacher behandelbare Funktion entsteht als die ursprüngliche Funktion oder überhaupt erst eine Handhabbarkeit.

In vielen Fällen ist die Differentialrechnung ein unverzichtbares Hilfsmittel zur Bildung mathematischer Modelle, die die Wirklichkeit möglichst genau abbilden sollen, sowie zu deren nachfolgender Analyse.

  • Das Verhalten von Bauelementen mit nicht-linearer Kennlinie wird bei kleinen Signaländerungen in der Umgebung eines Bezugspunktes durch ihr Kleinsignalverhalten beschrieben; dieses basiert auf dem Verlauf der Tangente an die Kennlinie im Bezugspunkt.
  • Die Ableitung nach der Zeit ist im untersuchten Sachverhalt die momentane Änderungsrate. So ist beispielsweise die Ableitung der Orts- beziehungsweise Weg-Zeit-Funktion eines Teilchens nach der Zeit seine Momentangeschwindigkeit, und die Ableitung der Momentangeschwindigkeit nach der Zeit liefert die momentane Beschleunigung.
  • In den Wirtschaftswissenschaften spricht man auch häufig von Grenzraten anstelle der Ableitung, zum Beispiel Grenzkosten oder Grenzproduktivität eines Produktionsfaktors.

In der Sprache der Geometrie ist die Ableitung eine verallgemeinerte Steigung. Der geometrische Begriff Steigung ist ursprünglich nur für lineare Funktionen definiert, deren Funktionsgraph eine Gerade ist. Die Ableitung einer beliebigen Funktion an einer Stelle x 0 {\displaystyle x_{0}} kann man als die Steigung der Tangente im Punkt ( x 0 , f ( x 0 ) ) {\displaystyle (x_{0},f(x_{0}))} des Graphen von f {\displaystyle f} definieren.

In der Sprache der Arithmetik schreibt man f ( x ) {\displaystyle f'(x)} für die Ableitung einer Funktion f ( x ) {\displaystyle f(x)} an der Stelle x {\displaystyle x} . Sie gibt an, um welchen Faktor von Δ x {\displaystyle \Delta x} sich f ( x ) {\displaystyle f(x)} ungefähr ändert, wenn sich x {\displaystyle x} um einen „kleinen“ Betrag Δ x {\displaystyle \Delta x} ändert. Für die exakte Formulierung dieses Sachverhalts wird der Begriff Grenzwert oder Limes verwendet.

Einführung

Heranführung anhand eines Beispiels

Fährt ein Auto auf einer Straße, so kann anhand dieses Sachverhalts eine Tabelle erstellt werden, in der zu jedem Zeitpunkt die Strecke, die seit dem Beginn der Aufzeichnung zurückgelegt wurde, eingetragen wird. In der Praxis ist es zweckmäßig, eine solche Tabelle nicht zu engmaschig zu führen, d. h. zum Beispiel in einem Zeitraum von 1 Minute nur alle 3 Sekunden einen neuen Eintrag zu machen, was lediglich 20 Messungen erfordern würde. Jedoch kann eine solche Tabelle theoretisch beliebig engmaschig gestaltet werden, wenn jeder Zeitpunkt berücksichtigt werden soll. Dabei gehen die vormals diskreten, also mit einem Abstand behafteten Daten, in ein Kontinuum über. Die Gegenwart wird dann als Zeitpunkt, d. h. als ein unendlich kurzer Zeitabschnitt, interpretiert. Gleichzeitig hat das Auto aber zu jedem Zeitpunkt eine theoretisch bekannte Strecke zurückgelegt, und wenn es nicht bis zum Stillstand abbremst oder gar zurück fährt, wird die Strecke kontinuierlich ansteigen, also zu keinem Zeitpunkt dieselbe sein wie zu einem anderen.

  • Exemplarische Darstellung einer Tabelle, alle 3 Sekunden wird eine neue Messung eingetragen. Unter solchen Voraussetzungen können lediglich durchschnittliche Geschwindigkeiten in den Zeiträumen 0 bis 3, 3 bis 6 usw. Sekunden berechnet werden. Da die zurückgelegte Strecke stets zunimmt, scheint der Wagen nur vorwärts zu fahren.

    Exemplarische Darstellung einer Tabelle, alle 3 Sekunden wird eine neue Messung eingetragen. Unter solchen Voraussetzungen können lediglich durchschnittliche Geschwindigkeiten in den Zeiträumen 0 bis 3, 3 bis 6 usw. Sekunden berechnet werden. Da die zurückgelegte Strecke stets zunimmt, scheint der Wagen nur vorwärts zu fahren.
  • Übergang zu einer beliebig engmaschigen Tabelle, die nach Eintragung aller Punkte die Gestalt einer Kurve annimmt. Jedem Zeitpunkt zwischen 0 und 60 Sekunden wird ein Punkt auf der Kurve zugeordnet. Regionen, innerhalb derer die Kurve steiler nach oben verläuft, entsprechen Zeitabschnitten, in denen eine größere Strecke pro Zeitspanne zurückgelegt wird. In Regionen mit nahezu gleich bleibender Strecke, zum Beispiel im Bereich 15–20 Sekunden, fährt das Auto langsam und die Kurve verläuft flach.

    Übergang zu einer beliebig engmaschigen Tabelle, die nach Eintragung aller Punkte die Gestalt einer Kurve annimmt. Jedem Zeitpunkt zwischen 0 und 60 Sekunden wird ein Punkt auf der Kurve zugeordnet. Regionen, innerhalb derer die Kurve steiler nach oben verläuft, entsprechen Zeitabschnitten, in denen eine größere Strecke pro Zeitspanne zurückgelegt wird. In Regionen mit nahezu gleich bleibender Strecke, zum Beispiel im Bereich 15–20 Sekunden, fährt das Auto langsam und die Kurve verläuft flach.

Die Motivation hinter dem Begriff der Ableitung einer Weg-Zeit-Kurve oder -Funktion ist, dass nun angegeben werden kann, wie schnell sich das Auto zu einem momentanen Zeitpunkt bewegt. Aus einem Weg-Zeit-Verlauf soll also der passende Geschwindigkeit-Zeit-Verlauf abgeleitet werden. Hintergrund ist, dass die Geschwindigkeit ein Maß dafür ist, wie stark sich die zurückgelegte Strecke im Laufe der Zeit ändert. Bei einer hohen Geschwindigkeit ist ein starker Anstieg in der Kurve zu sehen, während eine niedrige Geschwindigkeit zu wenig Veränderung führt. Da jedem Messpunkt auch eine Strecke zugeordnet wurde, sollte eine solche Analyse grundsätzlich möglich sein, denn mit dem Wissen über die zurückgelegte Strecke Δ s {\displaystyle \Delta s} innerhalb einem Zeitintervall Δ t {\displaystyle \Delta t} gilt für die Geschwindigkeit

v = Δ s Δ t . {\displaystyle v={\frac {\Delta s}{\Delta t}}.}

Sind also t 0 {\displaystyle t_{0}} und t 1 {\displaystyle t_{1}} zwei unterschiedliche Zeitpunkte, so lautet „die Geschwindigkeit“ des Autos im Zeitintervall zwischen diesen

v = s ( t 1 ) s ( t 0 ) t 1 t 0 . {\displaystyle v={\frac {s(t_{1})-s(t_{0})}{t_{1}-t_{0}}}.}

Die Differenzen in Zähler und Nenner müssen gebildet werden, da man sich nur für die innerhalb eines bestimmten Zeitintervalls t 1 t 0 {\displaystyle t_{1}-t_{0}} zurückgelegte Strecke s ( t 1 ) s ( t 0 ) {\displaystyle s(t_{1})-s(t_{0})} interessiert. Dennoch liefert dieser Ansatz kein vollständiges Bild, da zunächst nur Geschwindigkeiten für Zeitintervalle mit auseinander liegendem Anfangs- und Endpunkt gemessen wurden. Eine momentane Geschwindigkeit, vergleichbar mit einem Blitzerfoto, hingegen bezöge sich auf ein unendlich kurzes Zeitintervall. Dementsprechend ist der oben stehende Begriff „Geschwindigkeit“ durch „durchschnittliche Geschwindigkeit“ zu präzisieren. Auch wenn mit echten Zeitintervallen, also diskreten Daten, gearbeitet wird, vereinfacht sich das Modell insofern, als für ein Auto innerhalb der betrachteten Intervalle keine schlagartige Ortsänderung und keine schlagartige Geschwindigkeitsänderung möglich ist. (Auch eine Vollbremsung benötigt Zeit, und zwar länger als die Zeit, in der die Reifen quietschen.) Damit ist auch in der Zeichnung der stillschweigend durchgehend eingetragene Kurvenzug ohne Sprung und ohne Knick gerechtfertigt.

Zum Zeitpunkt 25 Sekunden bewegt sich das Auto momentan mit ca. 7,6 Metern pro Sekunde, umgerechnet 27 km/h. Dieser Wert entspricht der Steigung der Tangente der Weg-Zeit-Kurve an der entsprechenden Stelle. Weitere detailliertere Erklärungen zu dieser geometrischen Interpretation werden weiter unten gegeben.

Soll hingegen zu einem „perfekt passenden“ Geschwindigkeit-Zeit-Verlauf übergegangen werden, so muss der Terminus „durchschnittliche Geschwindigkeit in einem Zeitintervall“ durch „Geschwindigkeit zu einem Zeitpunkt“ ersetzt werden. Dazu muss zunächst ein Zeitpunkt t 0 {\displaystyle t_{0}} gewählt werden. Die Idee ist nun, „ausgedehnte Zeitintervalle“ in einem Grenzwertprozess gegen ein unendlich kurzes Zeitintervall laufen zu lassen und zu studieren, was mit den betroffenen durchschnittlichen Geschwindigkeiten passiert. Obwohl der Nenner t 1 t 0 {\displaystyle t_{1}-t_{0}} dabei gegen 0 strebt, ist dies anschaulich kein Problem, da sich das Auto in kürzer werdenden Zeitabschnitten bei stetigem Verlauf immer weniger weit bewegen kann, womit sich Zähler und Nenner gleichzeitig verkleinern, und im Grenzprozess ein unbestimmter Term „ 0 0 {\displaystyle {\tfrac {0}{0}}} “ entsteht. Dieser kann unter Umständen als Grenzwert Sinn ergeben, beispielsweise drücken

5   M e t e r S e k u n d e    und    5   M i l l i m e t e r M i l l i s e k u n d e    und    5   N a n o m e t e r N a n o s e k u n d e    usw. {\displaystyle {\tfrac {5\ \mathrm {Meter} }{\mathrm {Sekunde} }}\ {\text{ und }}\ {\tfrac {5\ \mathrm {Millimeter} }{\mathrm {Millisekunde} }}\ {\text{ und }}\ {\tfrac {5\ \mathrm {Nanometer} }{\mathrm {Nanosekunde} }}\ {\text{ usw.}}}

exakt dieselben Geschwindigkeiten aus. Nun gibt es zwei Möglichkeiten beim Studium der Geschwindigkeiten. Entweder, sie lassen in dem betrachteten Grenzwertprozess keine Tendenz erkennen, sich einem bestimmten endlichen Wert anzunähern. In diesem Fall kann der Bewegung des Autos keine zum Zeitpunkt t 0 {\displaystyle t_{0}} gültige Geschwindigkeit zugeordnet werden, d. h., der Term „ 0 0 {\displaystyle {\tfrac {0}{0}}} “ hat hier keinen eindeutigen Sinn. Gibt es hingegen eine zunehmende Stabilisierung in Richtung auf einen festen Wert, so existiert der Grenzwert

d s d t ( t 0 ) := lim t 1 t 0 s ( t 1 ) s ( t 0 ) t 1 t 0 = lim Δ t 0 s ( t 0 + Δ t ) s ( t 0 ) Δ t {\displaystyle {\frac {\mathrm {d} s}{\mathrm {d} t}}(t_{0}):=\lim _{t_{1}\to t_{0}}{\frac {s(t_{1})-s(t_{0})}{t_{1}-t_{0}}}=\lim _{\Delta t\to 0}{\frac {s(t_{0}+\Delta t)-s(t_{0})}{\Delta t}}}

und drückt die exakt im Zeitpunkt t 0 {\displaystyle t_{0}} bestehende Geschwindigkeit aus. Der unbestimmte Term „ 0 0 {\displaystyle {\tfrac {0}{0}}} “ nimmt in diesem Fall einen eindeutigen Wert an. Die dabei entstehende Momentangeschwindigkeit wird auch als Ableitung von s {\displaystyle s} an der Stelle t 0 {\displaystyle t_{0}} bezeichnet; für diese wird häufig das Symbol s ( t 0 ) {\displaystyle s'(t_{0})} benutzt. Mit dem Grenzwert wird die Momentangeschwindigkeit zu einem beliebigen Zeitpunkt definiert als

v = d s d t . {\displaystyle v={\frac {\mathrm {d} s}{\mathrm {d} t}}.}

Prinzip der Differentialrechnung

Schaubild der Zeit-Strecke-Funktion s ( t ) = 2 t {\displaystyle s(t)=2t} (in Blau). Verstreicht eine Sekunde (in Rot), so nimmt die zurückgelegte Strecke um 2 Meter zu (in Orange). Daher bewegt sich das Auto mit „2 Meter pro Sekunde“. Die Geschwindigkeit entspricht der Steigung. Das Steigungsdreieck lässt sich beliebig verkleinern, ohne dass sich an der Proportion von Höhe und Grundseite etwas ändert.

Das Beispiel des letzten Abschnitts ist dann besonders einfach, wenn die Zunahme der zurückgelegten Strecke mit der Zeit gleichförmig, also linear verläuft. Dann liegt speziell eine Proportionalität zwischen der Veränderung der Strecke und der Veränderung der Zeit vor. Die relative Veränderung der Strecke, also ihre Zunahme im Verhältnis zur Zunahme der Zeit, ist bei dieser Bewegung immer gleichbleibend. Die mittlere Geschwindigkeit ist zu jedem Zeitpunkt auch die momentane Geschwindigkeit. Beispielsweise legt das Auto zwischen 0 und 1 Sekunden eine gleich lange Strecke zurück wie zwischen 9 und 10 Sekunden und die zehnfache Strecke zwischen 0 und 10 Sekunden. Als Proportionalitätsfaktor über den ganzen Weg gilt die konstante Geschwindigkeit v {\displaystyle v} , wobei sie im nebenstehenden Bild v = 2 m / s {\displaystyle v=2\,\mathrm {m/s} } beträgt. Die zwischen beliebig weit auseinanderliegenden Zeitpunkten t {\displaystyle t} und t + Δ t {\displaystyle t+\Delta t} zurückgelegte Strecke beträgt

Δ s = s ( t + Δ t ) s ( t ) = v ( t + Δ t ) v t = v Δ t {\displaystyle \Delta s=s(t+\Delta t)-s(t)=v\cdot (t+\Delta t)-v\cdot t=v\cdot \Delta t} .

Allgemein bewegt sich das Auto in der Zeitspanne Δ t {\displaystyle \Delta t} um die Strecke Δ s = v Δ t {\displaystyle \Delta s=v\,\Delta t} vorwärts. Speziell bei Δ t = 5 s {\displaystyle \Delta t=5\,\mathrm {s} } ergibt sich ein Wegstück Δ s = v Δ t = 2 m s 5 s = 10 m {\displaystyle \Delta s=v\,\Delta t=2\,\mathrm {{\tfrac {m}{s}}\cdot 5\,s=10\,m} } .

Falls der Startwert bei t = 0 {\displaystyle t=0} nicht s ( 0 ) = 0 {\displaystyle s(0)=0} sondern s ( 0 ) = c 0 {\displaystyle s(0)=c\neq 0} beträgt, ändert dies nichts, da sich in der Beziehung s = v t + c {\displaystyle s=v\,t+c} die Konstante c {\displaystyle c} durch die Differenzbildung aus Δ s {\displaystyle \Delta s} stets heraussubtrahiert. Auch anschaulich ist dies bekannt: Die Startposition des Autos ist unerheblich für seine Geschwindigkeit.

Werden statt der Variablen t {\displaystyle t} und s {\displaystyle s} allgemein die Variablen x {\displaystyle x} und y {\displaystyle y} betrachtet, so lässt sich also festhalten:

  • Lineare Funktionen: Bei Linearität hat die betrachtete Funktion die Gestalt y = f ( x ) = m x + c {\displaystyle y=f(x)=mx+c} . (Für eine lineare Funktion ist nicht notwendig eine Ursprungsgerade erforderlich!) Als Ableitung gilt hieran die relative Veränderung, mit einem anderen Wort der Differenzenquotient Δ y Δ x {\displaystyle {\tfrac {\Delta y}{\Delta x}}} . Sie hat in jedem Punkt denselben Wert  m {\displaystyle m} . Die Ableitung lässt sich aus dem Ausdruck m x + c {\displaystyle mx+c} direkt ablesen. Insbesondere hat jede konstante Funktion f ( x ) = c {\displaystyle f(x)=c} die Ableitung Δ y Δ x = 0 {\displaystyle {\tfrac {\Delta y}{\Delta x}}=0} , da sich mit einer Änderung des Eingabewertes nichts am Ausgabewert ändert.

Schwieriger wird es, wenn eine Bewegung nicht gleichförmig verläuft. Dann ist das Diagramm der Zeit-Strecken-Funktion nicht geradlinig. Für derartige Verläufe muss der Ableitungsbegriff erweitert werden. Denn es gibt keinen Proportionalitätsfaktor, der überall die lokale relative Veränderung ausdrückt. Als einzig mögliche Strategie ist die Gewinnung einer linearen Näherung für die nicht-lineare Funktion gefunden worden, zumindest an einer interessierenden Stelle. (Im nächsten Bild ist das die Stelle x = 1 {\displaystyle x=1} .) Damit wird das Problem auf eine wenigstens an dieser Stelle lineare Funktion zurückgeführt. Die Methode der Linearisierung ist die Grundlage für den eigentlichen Kalkül der Differentialrechnung. Sie ist in der Analysis von sehr großer Bedeutung, da sie dabei hilft, komplizierte Vorgänge lokal auf leichter verständliche Vorgänge, nämlich lineare Vorgänge, zu reduzieren.[1]

x {\displaystyle x} 0,5 0,9 0,99 0,999 1 1,001 1,01 1,1 1,5 2
f = x 2 {\displaystyle f=x^{2}} 0,25 0,81 0,9801 0,998001 1 1,002001 1,0201 1,21 2,25 4
g = 2 x 1 {\displaystyle g=2x-1} 0 0,8 0,98 0,998 1 1,002 1,02 1,2 2 3
g ( x ) f ( x ) {\displaystyle g(x)-f(x)} −0,25 −0,01 −0,0001 −0,000001 0 −0,000001 −0,0001 −0,01 −0,25 −1
| g ( x ) f ( x ) x 1 | {\displaystyle {\Big |}{\tfrac {g(x)-f(x)}{x-1}}{\Big |}} 50 % 10 % 1 % 0,1 % 0,1 % 1 % 10 % 50 % 100 %
Graphische Darstellung der Approximation von f ( x ) = x 2 {\displaystyle f(x)=x^{2}} an der Stelle x = 1 {\displaystyle x=1} durch g ( x ) = 2 x 1 {\displaystyle g(x)=2x-1} . Letztere ist die Gleichung der Tangente von f {\displaystyle f} an dieser Stelle.

Die Strategie soll exemplarisch an der nicht-linearen Funktion f ( x ) = x 2 {\displaystyle f(x)=x^{2}} erläutert werden.[2] Die Tabelle zeigt Werte für diese Funktion und für ihre Näherungsfunktion an der Stelle x = 1 {\displaystyle x=1} , das ist g ( x ) = 2 x 1 {\displaystyle g(x)=2x-1} . Darunter enthält die Tabelle die Abweichung der Näherung von der ursprünglichen Funktion. (Die Werte sind negativ, weil in diesem Fall die Gerade immer unter der Kurve liegt – außer im Berührpunkt.) In der letzten Zeile steht der Betrag der relativen Abweichung, das ist die Abweichung bezogen auf die Entfernung der Stelle x {\displaystyle x} vom Berührpunkt bei x = 1 {\displaystyle x=1} . Diese kann am Berührpunkt nicht berechnet werden. Aber die Werte in der Umgebung zeigen, wie sich die relative Abweichung einem Grenzwert nähert, hier dem Wert null. Diese Null bedeutet: Selbst wenn sich x {\displaystyle x} ein wenig (infinitesimal) vom Berührpunkt entfernt, entsteht noch kein Unterschied zwischen g ( x ) {\displaystyle g(x)} und f ( x ) {\displaystyle f(x)} .

Die lineare Funktion g ( x ) {\displaystyle g(x)} ahmt das Verhalten von f ( x ) {\displaystyle f(x)} nahe der Stelle x = 1 {\displaystyle x=1} gut nach (besser als jede andere lineare Funktion). Die relative Veränderung Δ g Δ x {\displaystyle {\tfrac {\Delta g}{\Delta x}}} hat überall den Wert m = 2 {\displaystyle m=2} . Die nicht so einfach zu ermittelnde relative Veränderung Δ f Δ x {\displaystyle {\tfrac {\Delta f}{\Delta x}}} stimmt aber im Berührpunkt mit dem Wert m = 2 {\displaystyle m=2} überein.

Es lässt sich also festhalten:

  • Nicht-lineare Funktionen: Soll die relative Veränderung einer nicht-linearen Funktion in einem bestimmten Punkt ermittelt werden, so wird sie (wenn möglich) dort linear genähert. Die Steigung der linearen Näherungsfunktion ist die an dieser Stelle vorliegende Steigung der betrachteten nicht-linearen Funktion, und es gilt dieselbe Anschauung wie bei Ableitungen linearer Funktionen. Dabei ist nur zu beachten, dass sich die relative Veränderung einer nicht-linearen Funktion von Punkt zu Punkt ändert.
Während im Beispiel oben (Fahrzeugbewegung) für die durchschnittliche Geschwindigkeit die Zeitspanne Δ t {\displaystyle \Delta t} angemessen willkürlich gewählt werden kann, ist die momentane Geschwindigkeit, wenn sie veränderlich ist, nur für kleine Δ t {\displaystyle \Delta t} angebbar. Wie klein Δ t {\displaystyle \Delta t} gewählt werden muss, hängt ab von der Anforderung an die Qualität der Näherung. In mathematischer Perfektion wird sie infinitesimal. Bei dieser wird für die relative Veränderung (wie schon oben angegeben) anstelle des Differenzenquotienten Δ y Δ x {\displaystyle {\tfrac {\Delta y}{\Delta x}}} der Differenzialquotient d y d x {\displaystyle {\tfrac {\mathrm {d} y}{\mathrm {d} x}}} geschrieben (in vereinfachter Schreibweise y {\displaystyle y'} oder f {\displaystyle f'} ).

Die Gewinnung der linearen Näherung einer nicht-linearen Funktion an einer bestimmten Stelle ist zentrale Aufgabe des Kalküls der Differentialrechnung. Bei einer mathematisch angebbaren Funktion (im Beispiel war das f ( x ) = x 2 {\displaystyle f(x)=x^{2}} ) sollte sich die Ableitung ausrechnen lassen. Im Idealfall ist diese Berechnung sogar so allgemein, dass sie auf alle Punkte des Definitionsbereichs angewendet werden kann. Im Falle von f ( x ) = x 2 {\displaystyle f(x)=x^{2}} kann gezeigt werden, dass an jeder Stelle x {\displaystyle x} die beste lineare Näherung die Steigung m = 2 x {\displaystyle m=2x} besitzen muss. Mit der Zusatzinformation, dass die lineare Funktion mit der Kurve im Punkt ( x 0 , f ( x 0 ) ) {\displaystyle (x_{0},f(x_{0}))} übereinstimmen muss, kann dann die vollständige Funktionsgleichung der linearen Näherungsfunktion aufgestellt werden.

Der Ansatz zur Bestimmung des Differentialquotienten liegt in der Berechnung des Grenzwerts (wie oben bei der momentanen Geschwindigkeit):

lim Δ x 0 f ( x 0 + Δ x ) f ( x 0 ) Δ x = f ( x 0 ) {\displaystyle \lim _{\Delta x\to 0}{\frac {f(x_{0}+\Delta x)-f(x_{0})}{\Delta x}}=f'(x_{0})\quad } oder in anderer Schreibweise lim h 0 f ( x + h ) f ( x ) h = f ( x ) . {\displaystyle \quad \lim _{h\to 0}{\frac {f(x+h)-f(x)}{h}}=f'(x).}

Bei einigen elementaren Funktionen wie Potenzfunktion, Exponentialfunktion, Logarithmusfunktion oder Sinusfunktion ist jeweils der Grenzwertprozess durchgeführt worden. Dabei ergibt sich jeweils eine Ableitungsfunktion. Darauf aufbauend sind Ableitungsregeln für die elementaren und auch für weitere Funktionen wie Summen, Produkte oder Verkettungen elementarer Funktionen aufgestellt worden.

Damit werden die Grenzübergänge nicht in jeder Anwendung neu vollzogen, sondern für die Rechenpraxis werden Ableitungsregeln angewendet. Die „Kunst“ der Differentialrechnung besteht „nur“ darin, kompliziertere Funktionen zu strukturieren und auf die Strukturelemente die jeweils zutreffende Ableitungsregel anzuwenden. Ein Beispiel folgt weiter hinten.

Berechnung von Grenzwerten

Jeder Differenzialquotient an einer vorgesehenen Stelle erscheint als unbestimmter Ausdruck vom Typ „ 0 0 {\displaystyle {\tfrac {0}{0}}} “. Zu seiner Berechnung wird vom Differenzenquotient ausgegangen, und dessen Verhalten in der Umgebung der vorgesehenen Stelle wird untersucht, ob er die Tendenz hat, einen bestimmten Wert anzunehmen. Einige Grenzwerte, die für Ableitungsregeln benötigt werden, werden nachfolgend hergeleitet. Selbstverständlich dürfen dazu keine Regeln der Differenzialrechnung verwendet werden, da diese erst nach der Kenntnis der Grenzwerte aufgestellt werden können.

Ein einfacher Fall 1 f ( x ) = x 2 {\displaystyle \quad f(x)=x^{2}}

Ausgangspunkt ist der Differenzenquotient für die vorgesehene Funktion.

Δ f Δ x = f ( x + h ) f ( x ) ( x + h ) x = ( x + h ) 2 x 2 h {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {f(x+h)-f(x)}{(x+h)-x}}={\frac {(x+h)^{2}-x^{2}}{h}}}

Wird die binomische Formel ( x + h ) 2 = x 2 + 2 x h + h 2 {\displaystyle (x+h)^{2}=x^{2}+2xh+h^{2}} eingesetzt, so kürzt sich ein Summand heraus.

Δ f Δ x = x 2 + 2 x h + h 2 x 2 h = 2 x h + h 2 h {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {x^{2}+2xh+h^{2}-x^{2}}{h}}={\frac {2xh+h^{2}}{h}}}

Für h = 0 {\displaystyle h=0} ist dieser Bruch unbestimmt. Aber für h 0 {\displaystyle h\neq 0} (dann und nur dann!) können Zähler und Nenner durch h {\displaystyle h} dividiert werden.

Δ f Δ x = 2 x + h {\displaystyle {\frac {\Delta f}{\Delta x}}=2x+h}

Für jedes h 0 {\displaystyle h\neq 0} ist dieser Ausdruck bestimmt, auch wenn man dem Wert h = 0 {\displaystyle h=0} nahe kommt. Er strebt im Grenzübergang nach

lim h 0 Δ f Δ x = 2 x {\displaystyle \lim _{h\to 0}{\frac {\Delta f}{\Delta x}}=2x}

Im Weiteren werden hier nur Grenzwerte berechnet, und ihre Einsetzung in Differenzenquotienten erfolgt weiter hinten im Abschnitt Ableitungsberechnung.

Veranschaulichung zur Grenzwertableitung am Einheitskreis
Fall 2 sin h h {\displaystyle \quad {\frac {\sin h}{h}}}

Für h = 0 {\displaystyle h=0} ist dieser Bruch unbestimmt. Zur Berechnung bei h > 0 {\displaystyle h>0} wird die Fläche eines Kreissektors mit dem Bogen h {\displaystyle h} verglichen mit den Flächen eines innen liegenden und eines außen liegenden Dreiecks gemäß der Zeichnung. Im gezeigten Quadranten gilt offensichtlich[3]

1 2 sin h cos h < π h 2 π < 1 2 tan h 1 {\displaystyle {\frac {1}{2}}\sin h\cdot \cos h<\pi \cdot {\frac {h}{2\pi }}<{\frac {1}{2}}\tan h\cdot 1}

Bei sin h 0 {\displaystyle \sin h\neq 0} kann diese Ungleichung mit 2 sin h {\displaystyle {\frac {2}{\sin h}}} multipliziert werden.

cos h < h sin h < 1 cos h {\displaystyle \cos h<{\frac {h}{\sin h}}<{\frac {1}{\cos h}}}

Für h 0 {\displaystyle h\to 0} streben sowohl der linke als auch der rechte Ausdruck gegen eins. Damit muss auch der dazwischen liegende Ausdruck gegen eins streben. Für seinen Kehrwert gilt das ebenfalls. Für h > 0 {\displaystyle h>0} strebt er im Grenzübergang nach

lim h 0 sin h h = 1 {\displaystyle \lim _{h\to 0}{\frac {\sin h}{h}}=1}
Zwischenüberlegung ( 1 + 1 n ) n {\displaystyle \quad \left(1+{\frac {1}{n}}\right)^{n}}

Der Logarithmus dieses Ausdrucks, das ist n log ( 1 + 1 n ) {\displaystyle n\cdot \log(1+{\frac {1}{n}})} , strebt für n {\displaystyle n\to \infty } gegen „ 0 {\displaystyle \infty \cdot 0} “. Dieser Logarithmus ist dort unbestimmt und damit auch der Ausdruck selber. Es ist aber bewiesen, dass

lim n ( 1 + 1 n ) n {\displaystyle \lim _{n\to \infty }\left(1+{\frac {1}{n}}\right)^{n}}

einen bestimmten endlichen Wert annimmt, der als Eulersche Zahl e {\displaystyle \mathrm {e} } bezeichnet wird. Dieses wird unter dem verlinkten Stichwort behandelt und hier als bekannt vorausgesetzt.

Fall 3 a h 1 h {\displaystyle \quad {\frac {a^{h}-1}{h}}}

Für h = 0 {\displaystyle h=0} ist dieser Bruch unbestimmt. Aber für a > 1 {\displaystyle a>1} und h > 0 {\displaystyle h>0} ist die Substitution[4]

a h 1 = 1 z {\displaystyle a^{h}-1={\frac {1}{z}}} , a h = 1 + 1 z {\displaystyle \quad a^{h}=1+{\frac {1}{z}}}

zulässig. Aufgelöst nach h {\displaystyle h} unter Verwendung des natürlichen Logarithmus ergibt das

h = ln ( 1 + 1 z ) ln a {\displaystyle h={\frac {\ln(1+{\frac {1}{z}})}{\ln a}}}
a h 1 h = ln a z ln ( 1 + 1 z ) = ln a ln ( 1 + 1 z ) z {\displaystyle {\frac {a^{h}-1}{h}}={\frac {\ln a}{z\,\ln(1+{\frac {1}{z}})}}={\frac {\ln a}{\ln \left(1+{\frac {1}{z}}\right)^{z}}}}

Für h 0 {\displaystyle h\to 0} streben z {\displaystyle z\to \infty } und der Nenner gegen ln e = 1 {\displaystyle \ln \mathrm {e} =1} . Für jedes h > 0 {\displaystyle h>0} ist dieser Ausdruck bestimmt, auch wenn man dem Wert h = 0 {\displaystyle h=0} nahe kommt. Er strebt im Grenzübergang nach

lim h 0 a h 1 h = ln a {\displaystyle \lim _{h\to 0}{\frac {a^{h}-1}{h}}=\ln a}

Als Voraussetzung für diese Herleitung muss z {\displaystyle z} positiv sein. Für 0 < a < 1 {\displaystyle 0<a<1} ist dieses erfüllt mit negativem h {\displaystyle h} . Nähert man sich bei 0 < a < 1 {\displaystyle 0<a<1} dem Wert h = 0 {\displaystyle h=0} von der Seite h < 0 {\displaystyle h<0} her, so gilt derselbe Grenzübergang.

Fall 4 log ( 1 + h ) h {\displaystyle \quad {\frac {\log(1+h)}{h}}}

Für h = 0 {\displaystyle h=0} ist dieser Bruch unbestimmt. Aber für h > 0 {\displaystyle h>0} ist die Substitution h = 1 z {\displaystyle h={\frac {1}{z}}} zulässig.[5]

log ( 1 + h ) h = z log ( 1 + 1 z ) = log ( 1 + 1 z ) z {\displaystyle {\frac {\log(1+h)}{h}}=z\,\log \left(1+{\frac {1}{z}}\right)=\log \left(1+{\frac {1}{z}}\right)^{z}}

Für h 0 {\displaystyle h\to 0} strebt z {\displaystyle z\to \infty } . Für jedes h > 0 {\displaystyle h>0} ist dieser Ausdruck bestimmt, auch wenn man dem Wert h = 0 {\displaystyle h=0} nahe kommt. Er strebt im Grenzübergang nach

lim h 0 log ( 1 + h ) h = log e {\displaystyle \lim _{h\to 0}{\frac {\log(1+h)}{h}}=\log \mathrm {e} }

Einordnung der Anwendungsmöglichkeiten

Extremwertprobleme

Hauptartikel: Extremwertproblem

Eine wichtige Anwendung der Differentialrechnung besteht darin, dass mit Hilfe der Ableitung lokale Extremwerte einer Kurve bestimmt werden können. Anstatt also anhand einer Wertetabelle mechanisch nach Hoch- oder Tiefpunkten suchen zu müssen, liefert der Kalkül in einigen Fällen eine direkte Antwort. Liegt ein Hoch- oder Tiefpunkt vor, so besitzt die Kurve an dieser Stelle keinen „echten“ Anstieg, weshalb die optimale Linearisierung eine Steigung von 0 besitzt. Für die genaue Klassifizierung eines Extremwertes sind jedoch weitere lokale Daten der Kurve notwendig, denn eine Steigung von 0 ist nicht hinreichend für die Existenz eines Extremwertes (geschweige denn eines Hoch- oder Tiefpunktes).

In der Praxis treten Extremwertprobleme typischerweise dann auf, wenn Prozesse, zum Beispiel in der Wirtschaft, optimiert werden sollen. Oft liegen an den Randwerten jeweils ungünstige Ergebnisse, in Richtung „Mitte“ kommt es aber zu einer stetigen Steigerung, die dann irgendwo maximal werden muss. Zum Beispiel die optimale Wahl eines Verkaufspreises: Bei einem zu geringen Preis ist die Nachfrage nach einem Produkt zwar sehr groß, aber die Produktion kann nicht finanziert werden. Ist er andererseits zu hoch, so wird es im Extremfall gar nicht mehr gekauft. Daher liegt ein Optimum irgendwo „in der Mitte“. Voraussetzung dabei ist, dass der Zusammenhang in Form einer (stetig) differenzierbaren Funktion wiedergegeben werden kann.

Die Untersuchung einer Funktion auf Extremstellen ist Teil einer Kurvendiskussion. Die mathematischen Hintergründe sind im Abschnitt Anwendung höherer Ableitungen bereitgestellt.

Mathematische Modellierung

In der mathematischen Modellierung sollen komplexe Probleme in mathematischer Sprache erfasst und analysiert werden. Je nach Fragestellung sind das Untersuchen von Korrelationen oder Kausalitäten oder auch das Geben von Prognosen im Rahmen dieses Modells zielführend.

Besonders im Umfeld sog. Differentialgleichungen ist die Differentialrechnung zentrales Werkzeug bei der Modellierung. Diese Gleichungen treten zum Beispiel auf, wenn es eine kausale Beziehung zwischen dem Bestand einer Größe und deren zeitlicher Veränderung gibt. Ein alltägliches Beispiel könnte sein:

Je mehr Einwohner eine Stadt besitzt, desto mehr Leute wollen dort hinziehen.

Etwas konkreter könnte dies zum Beispiel heißen, dass bei 1 000 000 {\displaystyle 1\,000\,000} jetzigen Einwohnern durchschnittlich 1 000 000 {\displaystyle 1\,000\,000} Personen in den kommenden 10 Jahren zuziehen werden, bei 1 000 001 {\displaystyle 1\,000\,001} Einwohnern durchschnittlich 1 000 001 {\displaystyle 1\,000\,001} Personen in den kommenden 10 Jahren usw. – um nicht alle Zahlen einzeln ausführen zu müssen: Leben n {\displaystyle n} Personen in der Stadt, so wollen so viele Menschen hinzuziehen, dass nach 10 Jahren weitere n {\displaystyle n} hinzukommen würden. Besteht eine derartige Kausalität zwischen Bestand und zeitlicher Veränderung, so kann gefragt werden, ob aus diesen Daten eine Prognose für die Einwohnerzahl nach 10 Jahren abgeleitet werden kann, wenn die Stadt im Jahr 2020 zum Beispiel 1 000 000 {\displaystyle 1\,000\,000} Einwohner hatte. Es wäre dabei falsch zu glauben, dass dies 2 000 000 {\displaystyle 2\,000\,000} sein werden, da sich mit steigender Einwohnerzahl auch die Nachfrage nach Wohnraum wiederum zunehmend steigern wird. Der Knackpunkt zum Verständnis des Zusammenhangs ist demnach erneut dessen Lokalität: Besitzt die Stadt 1 000 000 {\displaystyle 1\,000\,000} Einwohner, so wollen zu diesem Zeitpunkt 1 000 000 {\displaystyle 1\,000\,000} Menschen pro 10 Jahre hinzuziehen. Aber einen kurzen Augenblick später, wenn weitere Menschen hinzugezogen sind, sieht die Lage wieder anders aus. Wird dieses Phänomen zeitlich beliebig engmaschig gedacht, ergibt sich ein „differentieller“ Zusammenhang. Allerdings eignet sich die kontinuierliche Herangehensweise in vielen Fällen auch bei diskreten Problemstellungen.[6]

Mit Hilfe der Differentialrechnung kann aus so einem kausalen Zusammenhang zwischen Bestand und Veränderung in vielen Fällen ein Modell hergeleitet werden, was den komplexen Zusammenhang auflöst, und zwar in dem Sinne, dass zum Schluss eine Bestandsfunktion explizit angegeben werden kann. Setzt man in diese Funktion dann zum Beispiel den Wert 10 Jahre ein, so ergibt sich eine Prognose für die Stadtbewohneranzahl im Jahr 2030. Im Falle oberen Modells wird eine Bestandsfunktion B {\displaystyle B} gesucht mit B ( t ) = B ( t ) {\displaystyle B(t)=B'(t)} , t {\displaystyle t} in 10 Jahren, und B ( 0 ) = 1 000 000 {\displaystyle B(0)=1\,000\,000} . Die Lösung ist dann

B ( t ) = 1 000 000 e t {\displaystyle B(t)=1\,000\,000\,e^{t}}

mit der natürlichen Exponentialfunktion (natürlich bedeutet, dass der Proportionalitätsfaktor zwischen Bestand und Veränderung einfach gleich 1 ist) und für das Jahr 2030 lautet die geschätzte Prognose B ( 1 ) 2,718 {\displaystyle B(1)\approx 2{,}718} Mio. Einwohner. Die Proportionalität zwischen Bestand und Veränderungsrate führt also zu exponentiellem Wachstum und ist klassisches Beispiel eines selbstverstärkenden Effektes. Analoge Modelle funktionieren beim Populationswachstum (Je mehr Individuen, desto mehr Geburten) oder der Verbreitung einer ansteckenden Krankheit (Je mehr Erkrankte, desto mehr Ansteckungen). In vielen Fällen stoßen diese Modelle jedoch an eine Grenze, wenn sich der Prozess aufgrund natürlicher Beschränkungen (wie eine Obergrenze der Gesamtbevölkerung) nicht beliebig fortsetzen lässt. In diesen Fällen sind ähnliche Modelle, wie das logistische Wachstum, geeigneter.[7]

Numerische Verfahren

Die Eigenschaft einer Funktion, differenzierbar zu sein, ist bei vielen Anwendungen von Vorteil, da dies der Funktion mehr Struktur verleiht. Ein Beispiel ist das Lösen von Gleichungen. Bei einigen mathematischen Anwendungen ist es notwendig, den Wert einer (oder mehrerer) Unbekannten x {\displaystyle x} zu finden, die Nullstelle einer Funktion f {\displaystyle f} ist. Es ist dann f ( x ) = 0 {\displaystyle f(x)=0} . Je nach Beschaffenheit von f {\displaystyle f} können Strategien entwickelt werden, eine Nullstelle zumindest näherungsweise anzugeben, was in der Praxis meist vollkommen ausreicht. Ist f {\displaystyle f} in jedem Punkt differenzierbar mit Ableitung f {\displaystyle f'} , so kann in vielen Fällen das Newton-Verfahren helfen. Bei diesem spielt die Differentialrechnung insofern eine direkte Rolle, als beim schrittweisen Vorgehen immer wieder eine Ableitung explizit berechnet werden muss.[8]

Ein weiterer Vorteil der Differentialrechnung ist, dass in vielen Fällen komplizierte Funktionen, wie Wurzeln oder auch Sinus und Kosinus, anhand einfacher Rechenregeln wie Addition und Multiplikation gut angenähert werden können. Ist die Funktion an einem benachbarten Wert leicht auszuwerten, ist dies von großem Nutzen. Wird zum Beispiel nach einem Näherungswert für die Zahl 26 {\displaystyle {\sqrt {26}}} gesucht, so liefert die Differentialrechnung für f ( x ) = x {\displaystyle f(x)={\sqrt {x}}} die Linearisierung

f ( 25 + h ) f ( 25 ) + h f ( 25 ) = 25 + h 2 25 = 5 + h 10 , {\displaystyle f(25+h)\approx f(25)+hf'(25)={\sqrt {25}}+{\frac {h}{2{\sqrt {25}}}}=5+{\frac {h}{10}},}

denn es gilt nachweislich f ( x ) = 1 2 x {\displaystyle f'(x)={\tfrac {1}{2{\sqrt {x}}}}} . Sowohl Funktion als auch erste Ableitung konnten an der Stelle 25 {\displaystyle 25} gut berechnet werden, weil es sich dabei um eine Quadratzahl handelt. Einsetzen von h = 1 {\displaystyle h=1} ergibt 26 5 + 1 10 = 5 , 1 {\displaystyle {\sqrt {26}}\approx 5+{\tfrac {1}{10}}=5{,}1} , was mit dem exakten Ergebnis 26 = 5,099 01 {\displaystyle {\sqrt {26}}=5{,}09901\dots } bis auf einen Fehler kleiner als 1 1000 {\displaystyle {\tfrac {1}{1000}}} übereinstimmt.[9] Unter Einbezug höherer Ableitungen kann die Genauigkeit solcher Approximationen zusätzlich gesteigert werden, da dann nicht nur linear, sondern quadratisch, kubisch usw. angenähert wird, siehe auch Taylor-Reihe.

Reine Mathematik

Tangentialebene, platziert an einem Punkt einer Kugeloberfläche

Auch in der reinen Mathematik spielt die Differentialrechnung als ein Kern der Analysis eine bedeutende Rolle. Ein Beispiel ist die Differentialgeometrie, die sich mit Figuren beschäftigt, die eine differenzierbare Oberfläche (ohne Knicke usw.) haben. Zum Beispiel kann auf eine Kugeloberfläche in jedem Punkt tangential eine Ebene platziert werden. Anschaulich: Steht man an einem Erdpunkt, so hat man das Gefühl, die Erde sei flach, wenn man seinen Blick in der Tangentialebene schweifen lässt. In Wahrheit ist die Erde jedoch nur lokal flach: Die angelegte Ebene dient der (durch Linearisierung) vereinfachten Darstellung der komplizierteren Krümmung. Global hat sie als Kugeloberfläche eine völlig andere Gestalt.

Die Methoden der Differentialgeometrie sind äußerst bedeutend für die theoretische Physik. So können Phänomene wie Krümmung oder Raumzeit über Methoden der Differentialrechnung beschrieben werden. Auch die Frage, was der kürzeste Abstand zwischen zwei Punkten auf einer gekrümmten Fläche (zum Beispiel der Erdoberfläche) ist, kann mit diesen Techniken formuliert und oft auch beantwortet werden.

Auch bei der Erforschung von Zahlen als solchen, also im Rahmen der Zahlentheorie, hat sich die Differentialrechnung in der analytischen Zahlentheorie bewährt. Die grundlegende Idee der analytischen Zahlentheorie ist die Umwandlung von bestimmten Zahlen, über die man etwas lernen möchte, in Funktionen. Haben diese Funktionen „gute Eigenschaften“ wie etwa Differenzierbarkeit, so hofft man, über die damit einhergehenden Strukturen Rückschlüsse auf die ursprünglichen Zahlen ziehen zu können. Es hat sich dabei häufig bewährt, zur Perfektionierung der Analysis von den reellen zu den komplexen Zahlen überzugehen (siehe auch komplexe Analysis), also die Funktionen über einem größeren Zahlenbereich zu studieren. Ein Beispiel ist die Analyse der Fibonacci-Zahlen 0 , 1 , 1 , 2 , 3 , 5 , 8 , 13 , 21 , {\displaystyle 0,1,1,2,3,5,8,13,21,\dots } , deren Bildungsgesetz vorschreibt, dass eine neue Zahl stets aus der Summe der beiden vorangehenden entstehen soll. Ansatz der analytischen Zahlentheorie ist die Bildung der erzeugenden Funktion

F ( x ) = 0 + 1 x + 1 x 2 + 2 x 3 + 3 x 4 + 5 x 5 + 8 x 6 + 13 x 7 + , {\displaystyle F(x)=0+1x+1x^{2}+2x^{3}+3x^{4}+5x^{5}+8x^{6}+13x^{7}+\dotsb ,}

also eines „unendlich langen“ Polynoms (einer sog. Potenzreihe), dessen Koeffizienten genau die Fibonacci-Zahlen sind. Für hinreichend kleine Zahlen x {\displaystyle x} ist dieser Ausdruck sinnvoll, weil die Potenzen x n {\displaystyle x^{n}} dann viel schneller gegen 0 gehen als die Fibonacci-Zahlen gegen Unendlich, womit sich langfristig alles bei einem endlichen Wert einpendelt. Es ist für diese Werte möglich, die Funktion F {\displaystyle F} explizit zu berechnen durch

F ( x ) = x 1 x x 2 . {\displaystyle F(x)={\frac {x}{1-x-x^{2}}}.}

Das Nennerpolynom 1 x x 2 {\displaystyle 1-x-x^{2}} „spiegelt“ dabei genau das Verhalten f n f n 1 f n 2 = 0 {\displaystyle f_{n}-f_{n-1}-f_{n-2}=0} der Fibonacci-Zahlen f n {\displaystyle f_{n}} „wider“ – es ergibt sich in der Tat F ( x ) x F ( x ) x 2 F ( x ) = x {\displaystyle F(x)-xF(x)-x^{2}F(x)=x} durch termweises Verrechnen. Mit Hilfe der Differentialrechnung lässt sich andererseits zeigen, dass die Funktion F {\displaystyle F} ausreicht, um die Fibonacci-Zahlen (ihre Koeffizienten) eindeutig zu charakterisieren. Da es sich aber um eine schlichte rationale Funktion handelt, lässt sich dadurch die für jede Fibonacci-Zahl f n {\displaystyle f_{n}} gültige exakte Formel

f n = Φ n ( 1 Φ ) n 5 {\displaystyle f_{n}={\frac {\Phi ^{n}-\left(-{\frac {1}{\Phi }}\right)^{n}}{\sqrt {5}}}}

mit dem goldenen Schnitt Φ = 1 + 5 2 {\displaystyle \Phi ={\tfrac {1+{\sqrt {5}}}{2}}} herleiten, wenn f 0 = 0 , f 1 = 1 {\displaystyle f_{0}=0,f_{1}=1} und f n = f n 1 + f n 2 {\displaystyle f_{n}=f_{n-1}+f_{n-2}} gesetzt wird. Die exakte Formel vermag eine Fibonacci-Zahl zu berechnen, ohne die vorherigen zu kennen. Der Schluss wird über einen sog. Koeffizientenvergleich gezogen und nutzt aus, dass das Polynom x 2 + x 1 {\displaystyle x^{2}+x-1} als Nullstellen Φ {\displaystyle -\Phi } und 1 Φ {\displaystyle {\tfrac {1}{\Phi }}} besitzt.[10]

Der höherdimensionale Fall

Die Differentialrechnung kann auf den Fall „höherdimensionaler Funktionen“ verallgemeinert werden. Damit ist gemeint, dass sowohl Eingabe- als auch Ausgabewerte der Funktion nicht bloß Teil des eindimensionalen reellen Zahlenstrahls, sondern auch Punkte eines höherdimensionalen Raums sind. Ein Beispiel ist die Vorschrift

( x y ) ( x 2 + y 2 x 2 2 y ) {\displaystyle \left({x \atop y}\right)\mapsto \left({x^{2}+y^{2} \atop x^{2}-2y}\right)}

zwischen jeweils zweidimensionalen Räumen. Das Funktionsverständnis als Tabelle bleibt hier identisch, nur dass diese mit „vier Spalten“ ( x , y , x 2 + y 2 , x 2 2 y ) {\displaystyle (x,y,x^{2}+y^{2},x^{2}-2y)} „deutlich mehr“ Einträge besitzt. Auch mehrdimensionale Abbildungen können in manchen Fällen an einem Punkt linearisiert werden. Allerdings ist dabei nun angemessen zu beachten, dass es sowohl mehrere Eingabedimensionen als auch mehrere Ausgabedimensionen geben kann: Der korrekte Verallgemeinerungsweg liegt darin, dass die Linearisierung in jeder Komponente der Ausgabe jede Variable auf lineare Weise berücksichtigt. Das zieht für obere Beispielfunktion eine Approximation der Form

f ( x , y ) := ( x 2 + y 2 x 2 2 y ) ( m 1 ( x x 0 ) + m 2 ( y y 0 ) + c 1 m 3 ( x x 0 ) + m 4 ( y y 0 ) + c 2 ) {\displaystyle f(x,y):=\left({x^{2}+y^{2} \atop x^{2}-2y}\right)\approx \left({m_{1}(x-x_{0})+m_{2}(y-y_{0})+c_{1} \atop m_{3}(x-x_{0})+m_{4}(y-y_{0})+c_{2}}\right)}

nach sich. Diese ahmt dann die gesamte Funktion in der Nähe der Eingabe ( x 0 , y 0 ) {\displaystyle (x_{0},y_{0})} sehr gut nach.[11] In jeder Komponente wird demnach für jede Variable eine „Steigung“ angegeben – diese wird dann das lokale Verhalten der Komponentenfunktion bei kleiner Änderung in dieser Variablen messen. Diese Steigung wird auch als partielle Ableitung bezeichnet.[12] Die korrekten konstanten Abschnitte c 1 , c 2 {\displaystyle c_{1},c_{2}} berechnen sich exemplarisch durch c 1 = x 0 2 + y 0 2 {\displaystyle c_{1}=x_{0}^{2}+y_{0}^{2}} bzw. c 2 = x 0 2 2 y 0 {\displaystyle c_{2}=x_{0}^{2}-2y_{0}} . Wie auch im eindimensionalen Fall hängen die Steigungen (hier m 1 , m 2 , m 3 , m 4 {\displaystyle m_{1},m_{2},m_{3},m_{4}} ) stark von der Wahl des Punktes (hier ( x 0 , y 0 ) {\displaystyle (x_{0},y_{0})} ) ab, an dem abgeleitet wird. Die Ableitung ist demnach keine Zahl mehr, sondern ein Verband aus mehreren Zahlen – in diesem Beispiel sind es vier – und diese Zahlen sind im Regelfall bei allen Eingaben unterschiedlich. Es wird allgemein für die Ableitung auch

f ( x 0 , y 0 ) = ( m 1 m 2 m 3 m 4 ) {\displaystyle f'(x_{0},y_{0})={\begin{pmatrix}m_{1}&m_{2}\\m_{3}&m_{4}\end{pmatrix}}}

geschrieben, womit alle „Steigungen“ in einer sog. Matrix versammelt sind. Man bezeichnet diesen Term auch als Jacobi-Matrix oder Funktionalmatrix.[13]

Beispiel: Wird oben ( x 0 , y 0 ) = ( 1 , 0 ) {\displaystyle (x_{0},y_{0})=(1,0)} gesetzt, so kann man zeigen, dass folgende lineare Approximation bei sehr kleinen Änderungen von x {\displaystyle x} und y {\displaystyle y} sehr gut ist:

f ( x , y ) = ( x 2 + y 2 x 2 2 y ) ( 2 x 1 2 x 2 y 1 ) . {\displaystyle f(x,y)=\left({x^{2}+y^{2} \atop x^{2}-2y}\right)\approx \left({2x-1 \atop 2x-2y-1}\right).}

Zum Beispiel gilt

f ( 1,003 ; 0,002 ) = ( 1,006 013 1,002 009 ) {\displaystyle f(1{,}003;0{,}002)=\left({1{,}006013 \atop 1{,}002009}\right)}

und

( 2 1,003 1 2 1,003 2 0,002 1 ) = ( 1,006 1,002 ) . {\displaystyle \left({2\cdot 1{,}003-1 \atop 2\cdot 1{,}003-2\cdot 0{,}002-1}\right)=\left({1{,}006 \atop 1{,}002}\right).}

Hat man im ganz allgemeinen Fall n {\displaystyle n} Variablen und m {\displaystyle m} Ausgabekomponenten, so gibt es kombinatorisch gesehen insgesamt n m {\displaystyle n\cdot m} „Steigungen“, also partielle Ableitungen. Im klassischen Fall n = m = 1 {\displaystyle n=m=1} gibt es wegen 1 1 = 1 {\displaystyle 1\cdot 1=1} eine Steigung f ( x 0 ) {\displaystyle f'(x_{0})} und im oberen Beispiel n = m = 2 {\displaystyle n=m=2} sind es 2 2 = 4 {\displaystyle 2\cdot 2=4} „Steigungen“.[14]

Geschichte

Gottfried Wilhelm Leibniz
Isaac Newton

Die Aufgabenstellung der Differentialrechnung bildete sich als Tangentenproblem ab dem 17. Jahrhundert heraus. Hierunter versteht man die Aufgabe, bei einer beliebigen Kurve in einem beliebigen Punkt die Tangente zu bestimmen.[15] Ein naheliegender Lösungsansatz bestand darin, die Tangente an eine Kurve durch ihre Sekante über einem endlichen (endlich heißt hier: größer als null), aber beliebig kleinen Intervall zu approximieren. Dabei war die technische Schwierigkeit zu überwinden, mit einer solchen infinitesimal kleinen Intervallbreite zu rechnen. Die ersten Anfänge der Differentialrechnung gehen auf Pierre de Fermat zurück. Er entwickelte um 1628 eine Methode, Extremstellen algebraischer Terme zu bestimmen und Tangenten an Kegelschnitte und andere Kurven zu berechnen. Seine „Methode“ war rein algebraisch. Fermat betrachtete keine Grenzübergänge und schon gar keine Ableitungen. Gleichwohl lässt sich seine „Methode“ mit modernen Mitteln der Analysis interpretieren und rechtfertigen, und sie hat Mathematiker wie Newton und Leibniz nachweislich inspiriert. Einige Jahre später wählte René Descartes einen anderen algebraischen Zugang, indem er an eine Kurve einen Kreis anlegte. Dieser schneidet die Kurve in zwei nahe beieinanderliegenden Punkten; es sei denn, er berührt die Kurve. Dieser Ansatz ermöglichte es ihm, für spezielle Kurven die Steigung der Tangente zu bestimmen.[16]

Ende des 17. Jahrhunderts gelang es Isaac Newton und Gottfried Wilhelm Leibniz mit unterschiedlichen Ansätzen unabhängig voneinander, widerspruchsfrei funktionierende Kalküle zu entwickeln. Während Newton das Problem physikalisch über das Momentangeschwindigkeitsproblem anging,[17] löste es Leibniz geometrisch über das Tangentenproblem. Ihre Arbeiten erlaubten das Abstrahieren von rein geometrischer Vorstellung und werden deshalb als Beginn der Analysis betrachtet. Bekannt wurden sie vor allem durch das Buch Analyse des Infiniment Petits pour l’Intelligence des Lignes Courbes[18] des Adligen Guillaume François Antoine, Marquis de L’Hospital, der bei Johann I Bernoulli Privatunterricht nahm und dessen Forschung zur Analysis so publizierte. Darin heißt es:

„Die Reichweite dieses Kalküls ist unermesslich: Er lässt sich sowohl auf mechanische als auch geometrische Kurven anwenden; Wurzelzeichen bereiten ihm keine Schwierigkeiten und sind oftmals sogar angenehm im Umgang; er lässt sich auf so viele Variablen erweitern, wie man sich nur wünschen kann; der Vergleich unendlich kleiner Größen aller Art gelingt mühelos. Und er erlaubt eine unendliche Zahl an überraschenden Entdeckungen über gekrümmte wie geradlinige Tangenten, Fragen De maximis & minimis, Wendepunkte und Spitzen von Kurven, Evoluten, Spiegelungs- und Brechungskaustiken, &c. wie wir in diesem Buch sehen werden.“[19]

Die heute bekannten Ableitungsregeln basieren vor allem auf den Werken von Leonhard Euler, der den Funktionsbegriff prägte.

Newton und Leibniz arbeiteten mit beliebig kleinen positiven Zahlen.[20] Dies wurde bereits von Zeitgenossen als unlogisch kritisiert, beispielsweise von George Berkeley in der polemischen Schrift The analyst; or, a discourse addressed to an infidel mathematician.[21] Erst in den 1960ern konnte Abraham Robinson diese Verwendung infinitesimaler Größen mit der Entwicklung der Nichtstandardanalysis auf ein mathematisch-axiomatisch sicheres Fundament stellen. Trotz der herrschenden Unsicherheit wurde die Differentialrechnung aber konsequent weiterentwickelt, in erster Linie wegen ihrer zahlreichen Anwendungen in der Physik und in anderen Gebieten der Mathematik. Symptomatisch für die damalige Zeit war das von der Preußischen Akademie der Wissenschaften 1784 veröffentlichte Preisausschreiben:

„… Die höhere Geometrie benutzt häufig unendlich große und unendlich kleine Größen; jedoch haben die alten Gelehrten das Unendliche sorgfältig vermieden, und einige berühmte Analysten unserer Zeit bekennen, dass die Wörter unendliche Größe widerspruchsvoll sind. Die Akademie verlangt also, dass man erkläre, wie aus einer widersprechenden Annahme so viele richtige Sätze entstanden sind, und dass man einen sicheren und klaren Grundbegriff angebe, welcher das Unendliche ersetzen dürfte, ohne die Rechnung zu schwierig oder zu lang zu machen …“[22]

Erst zum Anfang des 19. Jahrhunderts gelang es Augustin-Louis Cauchy, der Differentialrechnung die heute übliche logische Strenge zu geben, indem er von den infinitesimalen Größen abging und die Ableitung als Grenzwert von Sekantensteigungen (Differenzenquotienten) definierte.[23] Die heute benutzte Definition des Grenzwerts wurde schließlich von Karl Weierstraß im Jahr 1861 formuliert.[24]

Definition

Sekanten- und Tangentensteigung

Ausgangspunkt für die Definition der Ableitung ist die Näherung der Tangentensteigung durch eine Sekantensteigung (manchmal auch Sehnensteigung genannt). Gesucht sei die Steigung einer Funktion f {\displaystyle f} in einem Punkt ( x 0 , f ( x 0 ) ) {\displaystyle (x_{0},f(x_{0}))} . Man berechnet zunächst die Steigung der Sekante an f {\displaystyle f} über einem endlichen Intervall [ x 0 , x 0 + Δ x ] {\displaystyle [x_{0},x_{0}+\Delta x]} der Länge Δ x {\displaystyle \Delta x} :

Sekantensteigung = f ( x 0 + Δ x ) f ( x 0 ) ( x 0 + Δ x ) x 0 = f ( x 0 + Δ x ) f ( x 0 ) Δ x {\displaystyle {\frac {f(x_{0}+\Delta x)-f(x_{0})}{(x_{0}+\Delta x)-x_{0}}}={\frac {f(x_{0}+\Delta x)-f(x_{0})}{\Delta x}}} .

Die Sekantensteigung ist also der Quotient zweier Differenzen; sie wird deshalb auch Differenzenquotient genannt. Mit der Kurznotation Δ y {\displaystyle \Delta y} für f ( x 0 + Δ x ) f ( x 0 ) {\displaystyle f(x_{0}+\Delta x)-f(x_{0})} kann man die Sekantensteigung abgekürzt als Δ y Δ x {\displaystyle {\tfrac {\Delta y}{\Delta x}}} schreiben. Der Ausdruck Δ x {\displaystyle \Delta x} verdeutlicht also die beliebig klein werdende Differenz zwischen der Stelle, an der abgeleitet werden soll, und einem benachbarten Punkt. In der Literatur wird jedoch, wie auch im Folgenden, in vielen Fällen aus Gründen der Einfachheit das Symbol h {\displaystyle h} statt Δ x {\displaystyle \Delta x} verwendet.

Differentialquotient einer Funktion

Um eine Tangentensteigung zu berechnen, muss man die beiden Punkte, durch die die Sekante gezogen wird, immer weiter aneinander rücken. Dabei gehen sowohl Δ x {\displaystyle \Delta x} als auch Δ y {\displaystyle \Delta y} gegen Null. Der Quotient Δ y Δ x {\displaystyle {\tfrac {\Delta y}{\Delta x}}} bleibt aber in vielen Fällen endlich. Auf diesem Grenzübergang beruht die folgende Definition.

Differenzierbarkeit

Definition der Ableitung über die h-Methode: Zu den jeweiligen h-Werten sind die dazugehörigen Sekanten eingezeichnet. Für h 0 {\displaystyle h\to 0} geht die Sekante in die Tangente und somit die Sekantensteigung (Differenzenquotient) in die Tangentensteigung (Ableitung) über.
Die Sekantensteigungen gehen für x n x ~ {\displaystyle x_{n}\to {\tilde {x}}} in die Steigung der Tangente (und damit in die Ableitung) an der Stelle x ~ {\displaystyle {\tilde {x}}} über. Es gilt lim x n x ~ f ( x n ) f ( x ~ ) x n x ~ = f ( x ~ ) {\displaystyle \lim _{x_{n}\to {\tilde {x}}}{\frac {f(x_{n})-f({\tilde {x}})}{x_{n}-{\tilde {x}}}}=f'({\tilde {x}})} .
Hauptartikel: Differenzierbarkeit

Eine Funktion f : U R {\displaystyle f\colon U\to \mathbb {R} } , die ein offenes Intervall U {\displaystyle U} in die reellen Zahlen abbildet, heißt differenzierbar an der Stelle x 0 U {\displaystyle x_{0}\in U} , falls der Grenzwert

lim x x 0 f ( x ) f ( x 0 ) x x 0 = lim h 0 f ( x 0 + h ) f ( x 0 ) h {\displaystyle \lim _{x\to x_{0}}{\frac {f(x)-f(x_{0})}{x-x_{0}}}=\lim _{h\to 0}{\frac {f(x_{0}+h)-f(x_{0})}{h}}}   (mit h = x x 0 {\displaystyle h=x-x_{0}} )

existiert. Dieser Grenzwert heißt Differentialquotient oder Ableitung von f {\displaystyle f} nach x {\displaystyle x} an der Stelle x 0 {\displaystyle x_{0}} und wird als

f ( x 0 ) {\displaystyle f'(x_{0})}   oder    d f ( x ) d x | x = x 0 {\displaystyle \left.{\frac {\mathrm {d} f(x)}{\mathrm {d} x}}\right|_{x=x_{0}}}   oder    d f d x ( x 0 ) {\displaystyle {\frac {\mathrm {d} f}{\mathrm {d} x}}(x_{0})}   oder    d d x f ( x 0 ) {\displaystyle {\frac {\mathrm {d} }{\mathrm {d} x}}f(x_{0})}

notiert.[25][26] Gesprochen werden diese Notationen als „f Strich von x null“, „d f von x nach d x an der Stelle x gleich x null“, „d f nach d x von x null“ respektive „d nach d x von f von x null“. Im später folgenden Abschnitt Notationen werden noch weitere Varianten angeführt, um die Ableitung einer Funktion zu notieren.

Im Laufe der Zeit wurde folgende gleichwertige Definition gefunden, die sich im allgemeineren Kontext komplexer oder mehrdimensionaler Funktionen als leistungsfähiger erwiesen hat: Eine Funktion heißt an einer Stelle x 0 {\displaystyle x_{0}} differenzierbar, falls eine Konstante L {\displaystyle L} existiert, sodass

lim h 0 f ( x 0 + h ) f ( x 0 ) L h h = 0. {\displaystyle \lim _{h\to 0}{\frac {f(x_{0}+h)-f(x_{0})-Lh}{h}}=0.}

Der Zuwachs der Funktion f {\displaystyle f} , wenn man sich von x 0 {\displaystyle x_{0}} nur wenig entfernt, etwa um den Wert h {\displaystyle h} , lässt sich also durch L h {\displaystyle Lh} sehr gut approximieren. Man nennt deshalb die lineare Funktion g : x f ( x 0 ) + L ( x x 0 ) {\displaystyle g\colon x\mapsto f(x_{0})+L(x-x_{0})} , für die also g ( x 0 + h ) = f ( x 0 ) + L h {\displaystyle g(x_{0}+h)=f(x_{0})+Lh} für alle h {\displaystyle h} gilt, auch die Linearisierung von f {\displaystyle f} an der Stelle x 0 {\displaystyle x_{0}} .[27]

Eine weitere Definition ist: Es gibt eine an der Stelle x 0 {\displaystyle x_{0}} stetige Funktion r {\displaystyle r} mit r ( x 0 ) = 0 {\displaystyle r(x_{0})=0} und eine Konstante L {\displaystyle L} , sodass für alle x {\displaystyle x} gilt

f ( x ) = f ( x 0 ) + L ( x x 0 ) + r ( x ) ( x x 0 ) {\displaystyle f(x)=f(x_{0})+L(x-x_{0})+r(x)(x-x_{0})} .

Die Bedingungen r ( x 0 ) = 0 {\displaystyle r(x_{0})=0} und dass r {\displaystyle r} an der Stelle x 0 {\displaystyle x_{0}} stetig ist, bedeuten gerade, dass das „Restglied“ r ( x ) {\displaystyle r(x)} für x {\displaystyle x} gegen x 0 {\displaystyle x_{0}} gegen 0 {\displaystyle 0} konvergiert.[27]

In beiden Fällen ist die Konstante L {\displaystyle L} eindeutig bestimmt und es gilt f ( x 0 ) = L {\displaystyle f'(x_{0})=L} . Der Vorteil dieser Formulierung ist, dass Beweise einfacher zu führen sind, da kein Quotient betrachtet werden muss. Diese Darstellung der besten linearen Approximation wurde schon von Karl Weierstraß, Henri Cartan und Jean Dieudonné konsequent angewandt und wird auch Weierstraßsche Zerlegungsformel genannt.

Bezeichnet man eine Funktion als differenzierbar, ohne sich auf eine bestimmte Stelle zu beziehen, dann bedeutet dies die Differenzierbarkeit an jeder Stelle des Definitionsbereiches, also die Existenz einer eindeutigen Tangente für jeden Punkt des Graphen.

Jede differenzierbare Funktion ist stetig, die Umkehrung gilt jedoch nicht.[27] Noch Anfang des 19. Jahrhunderts war man überzeugt, dass eine stetige Funktion höchstens an wenigen Stellen nicht differenzierbar sein könne (wie die Betragsfunktion). Bernard Bolzano konstruierte dann als erster Mathematiker tatsächlich eine Funktion, die später Bolzanofunktion genannt wurde, die überall stetig, aber nirgends differenzierbar ist, was in der Fachwelt allerdings nicht bekannt wurde. Karl Weierstraß fand dann in den 1860er Jahren ebenfalls eine derartige Funktion (siehe Weierstraß-Funktion), was diesmal unter Mathematikern Wellen schlug. Ein bekanntes mehrdimensionales Beispiel für eine stetige, nicht differenzierbare Funktion ist die von Helge von Koch 1904 vorgestellte Koch-Kurve.[28]

Ableitungsfunktion

Die Ableitung an verschiedenen Stellen einer differenzierbaren Funktion

Die Ableitung der Funktion f : U R {\displaystyle f\colon U\to \mathbb {R} } an der Stelle x 0 {\displaystyle x_{0}} , bezeichnet mit f ( x 0 ) {\displaystyle f'(x_{0})} , beschreibt lokal das Verhalten der Funktion in der Umgebung der betrachteten Stelle x 0 {\displaystyle x_{0}} . In einigen Fällen ist es möglich, an jedem Punkt des Funktionsgraphen eine Linearisierung vorzunehmen. Dies erlaubt die Definition einer Ableitungsfunktion (oder kurz Ableitung) f : U R {\displaystyle f'\colon U\to \mathbb {R} } , die jedem Element des Definitionsbereichs U {\displaystyle U} der Ausgangsfunktion f {\displaystyle f} die Steigung der dortigen Linearisierung zuordnet. Man sagt in diesem Falle, „ f {\displaystyle f} ist in U {\displaystyle U} differenzierbar“.[29]

Beispielsweise hat die Quadratfunktion f : R R {\displaystyle f\colon \mathbb {R} \to \mathbb {R} } mit f ( x ) = x 2 {\displaystyle f(x)=x^{2}} an einer beliebigen Stelle x 0 {\displaystyle x_{0}} die Ableitung f ( x 0 ) = 2 x 0 , {\displaystyle f'(x_{0})=2x_{0},} die Quadratfunktion ist also auf der Menge der reellen Zahlen differenzierbar. Die zugehörige Ableitungsfunktion f {\displaystyle f'} ist gegeben durch f : R R {\displaystyle f'\colon \mathbb {R} \to \mathbb {R} } mit f ( x ) = 2 x {\displaystyle f'(x)=2x} .

Die Ableitungsfunktion ist im Normalfall eine andere Funktion als die ursprünglich betrachtete. Einzige Ausnahme sind die Vielfachen x k e x {\displaystyle x\mapsto k\cdot e^{x}} der natürlichen Exponentialfunktion mit beliebigem k R {\displaystyle k\in \mathbb {R} } – unter denen, wie die Wahl k = e a {\displaystyle k=e^{-a}} zeigt, auch alle Funktionen x e x a {\displaystyle x\mapsto e^{x-a}} mit beliebigem a R {\displaystyle a\in \mathbb {R} } enthalten sind (deren Graph aus dem der Exponentialfunktion x e x {\displaystyle x\mapsto e^{x}} durch „seitliche“ Verschiebung um a {\displaystyle a} entsteht und zu diesem daher kongruent ist).

Ist die Ableitung stetig, dann heißt f {\displaystyle f} stetig differenzierbar. In Anlehnung an die Bezeichnung C ( U ) {\displaystyle C(U)} für die Gesamtheit (den Raum) der stetigen Funktionen mit Definitionsmenge U {\displaystyle U} wird der Raum der auf U {\displaystyle U} stetig differenzierbaren Funktionen mit C 1 ( U ) {\displaystyle C^{1}(U)} abgekürzt.[30]

Notationen

Geschichtlich bedingt gibt es unterschiedliche Notationen, um die Ableitung einer Funktion darzustellen.

Lagrange-Notation

In diesem Artikel wurde bisher hauptsächlich die Notation f {\displaystyle f'} für die Ableitung von f {\displaystyle f} verwendet. Diese Notation geht auf den Mathematiker Joseph-Louis Lagrange zurück, der sie 1797 einführte.[31] Bei dieser Notation wird die zweite Ableitung von f {\displaystyle f} mit f {\displaystyle f''} und die n {\displaystyle n} -te Ableitung mittels f ( n ) {\displaystyle f^{(n)}} bezeichnet.

Newton-Notation

Isaac Newton – neben Leibniz der Begründer der Differentialrechnung – notierte die erste Ableitung von x {\displaystyle x} mit x ˙ {\displaystyle {\dot {x}}} , entsprechend notierte er die zweite Ableitung durch x ¨ {\displaystyle {\ddot {x}}} .[32] Heutzutage wird diese Schreibweise häufig in der Physik, insbesondere in der Mechanik, für die Ableitung nach der Zeit verwendet.[33]

Leibniz-Notation

Gottfried Wilhelm Leibniz führte für die erste Ableitung von f {\displaystyle f} (nach der Variablen x {\displaystyle x} ) die Notation d f ( x ) d x {\displaystyle {\tfrac {\mathrm {d} f(x)}{\mathrm {d} x}}} ein.[34] Gelesen wird dieser Ausdruck als „d f von x nach d x“. Für die zweite Ableitung notierte Leibniz d 2 f ( x ) d x 2 {\displaystyle {\tfrac {\mathrm {d} ^{2}f(x)}{\mathrm {d} x^{2}}}} und die n {\displaystyle n} -te Ableitung wird mittels d n f ( x ) d x n {\displaystyle {\tfrac {\mathrm {d} ^{n}f(x)}{\mathrm {d} x^{n}}}} bezeichnet.[35] Bei der Schreibweise von Leibniz handelt es sich nicht um einen Bruch. Die Symbole d f ( x ) {\displaystyle \mathrm {d} f(x)} und d x {\displaystyle \mathrm {d} x} werden „Differentiale“ genannt, haben aber in der modernen Differentialrechnung (abgesehen von der Theorie der Differentialformen) lediglich eine symbolische Bedeutung und sind nur in dieser Schreibweise als formaler Differentialquotient erlaubt. In manchen Anwendungen (Kettenregel, Integration mancher Differentialgleichungen, Integration durch Substitution) rechnet man mit ihnen aber so, als wären sie gewöhnliche Terme.

Euler-Notation

Die Notation D f {\displaystyle \mathrm {D} f} oder D x f ( x ) {\displaystyle \mathrm {D} _{x}f(x)} für die erste Ableitung von f {\displaystyle f} geht auf Leonhard Euler zurück. Dabei wird die Ableitung als Operator – also als eine besondere Funktion, die selbst auf Funktionen arbeitet, aufgefasst. Diese Idee geht auf den Mathematiker Louis François Antoine Arbogast zurück. Die zweite Ableitung wird in dieser Notation mittels D 2 f {\displaystyle \mathrm {D} ^{2}f} oder D x 2 f ( x ) {\displaystyle \mathrm {D} _{x}^{2}f(x)} und die n {\displaystyle n} -te Ableitung durch D n f {\displaystyle \mathrm {D} ^{n}f} oder D x n f ( x ) {\displaystyle \mathrm {D} _{x}^{n}f(x)} dargestellt.[36]

Ableitungsberechnung

Das Berechnen der Ableitung einer Funktion wird Differentiation oder Differenziation genannt; sprich, man differenziert diese Funktion.

Um die Ableitung elementarer Funktionen (z. B. x n {\displaystyle x^{n}} , sin ( x ) {\displaystyle \sin(x)} , …) zu berechnen, hält man sich eng an die oben angegebene Definition, berechnet explizit einen Differenzenquotienten und lässt dann h {\displaystyle h} gegen Null gehen. Dieses Verfahren ist jedoch meistens umständlich. Bei der Lehre der Differentialrechnung wird diese Art der Rechnung daher nur wenige Male vollzogen. Später greift man auf bereits bekannte Ableitungsfunktionen zurück oder schlägt Ableitungen nicht ganz so geläufiger Funktionen in einem Tabellenwerk nach (z. B. im Bronstein-Semendjajew, siehe auch Tabelle von Ableitungs- und Stammfunktionen) und berechnet die Ableitung zusammengesetzter Funktionen mit Hilfe der Ableitungsregeln.

Ableitungen elementarer Funktionen

Für die Berechnung der Ableitungsfunktion einer elementaren Funktion an einer vorgesehenen Stelle x {\displaystyle x} wird der zugehörige Differenzenquotient gebildet, der in der Umgebung x + h {\displaystyle x+h} mit h 0 {\displaystyle h\neq 0} gültig ist, und dann wird der Grenzübergang h 0 {\displaystyle h\to 0} vollzogen.

Natürliche Potenzen

Der Fall f ( x ) = x 2 {\displaystyle f(x)=x^{2}} ist bereits weiter oben behandelt worden. Der zugehörige Differenzenquotient ergibt sich zu

Δ f Δ x = f ( x + h ) f ( x ) ( x + h ) x = x 2 + 2 x h + h 2 x 2 h . {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {f(x+h)-f(x)}{(x+h)-x}}={\frac {x^{2}+2xh+h^{2}-x^{2}}{h}}.}

Wenn h 0 {\displaystyle h\neq 0} ist, lässt sich h {\displaystyle h} kürzen,

Δ f Δ x = 2 x + h , {\displaystyle {\frac {\Delta f}{\Delta x}}=2x+h,}

und die Annäherung h 0 {\displaystyle h\to 0} führt auf

f ( x ) = lim h 0 Δ f Δ x = 2 x . {\displaystyle f'(x)=\lim _{h\to 0}{\frac {\Delta f}{\Delta x}}=2x.}

Allgemein für eine natürliche Zahl n {\displaystyle n} mit f ( x ) = x n {\displaystyle f(x)=x^{n}} wird der binomische Lehrsatz herangezogen:

( x + h ) n = k = 0 n ( n k ) x n k h k = x n + n h x n 1 + h 2 g n ( x , h ) . {\displaystyle (x+h)^{n}=\sum _{k=0}^{n}{\binom {n}{k}}x^{n-k}h^{k}=x^{n}+nhx^{n-1}+h^{2}g_{n}(x,h).}
Δ f Δ x = ( x + h ) n x n h = x n + n h x n 1 + h 2 g n ( x , h ) x n h = n x n 1 + h g n ( x , h ) . {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {(x+h)^{n}-x^{n}}{h}}={\frac {x^{n}+nhx^{n-1}+h^{2}g_{n}(x,h)-x^{n}}{h}}=nx^{n-1}+hg_{n}(x,h).}

Wenn ( x + h ) n {\displaystyle (x+h)^{n}} für alle endlichen Werte von h {\displaystyle h} endlich ist, ist auch g n ( x , h ) {\displaystyle g_{n}(x,h)} endlich. Der in der letzten Gleichung vor g n ( x , h ) {\displaystyle g_{n}(x,h)} stehende Faktor h {\displaystyle h} führt auf h g n ( x , h ) h 0 0 {\displaystyle hg_{n}(x,h){\overset {h\to 0}{\longrightarrow }}0} . Damit entsteht

f ( x ) = lim h 0 Δ f Δ x = n x n 1 {\displaystyle f'(x)=\lim _{h\to 0}{\frac {\Delta f}{\Delta x}}=nx^{n-1}}

Zwei Ergänzungen:

  1. Ein konstanter Summand m {\displaystyle m} in f ( x ) = x n + m {\displaystyle \quad f(x)=x^{n}+m\quad } kürzt sich in f ( x + h ) f ( x ) {\displaystyle f(x+h)-f(x)} heraus, noch bevor der Grenzübergang vollzogen wird.
  2. Ein konstanter Faktor m {\displaystyle m} in f ( x ) = m x n {\displaystyle \quad f(x)=m\,x^{n}\quad } kann in f ( x + h ) f ( x ) {\displaystyle f(x+h)-f(x)} ausgeklammert und vor den Bruch gezogen werden.

Exponentialfunktion

Graph der Exponentialfunktion y = e x {\displaystyle y=\mathrm {e} ^{x}} (rot) mit der Tangente (der hellblau gestrichelten Linie) durch den Punkt (0,1)

Mit der Exponentialfunktion f ( x ) = a x = exp a x {\displaystyle f(x)=a^{x}=\exp _{a}x} ergibt sich der Differenzenquotient

Δ f Δ x = f ( x + h ) f ( x ) ( x + h ) x = a x + h a x h {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {f(x+h)-f(x)}{(x+h)-x}}={\frac {a^{x+h}-a^{x}}{h}}}

Für jedes a > 0 {\displaystyle a>0} gilt

a x + h = a x a h . {\displaystyle a^{x+h}=a^{x}\cdot a^{h}.}

Damit kann im Zähler a x {\displaystyle a^{x}} ausgeklammert werden.

Δ f Δ x = a x a h 1 h . {\displaystyle {\frac {\Delta f}{\Delta x}}=a^{x}\,{\frac {a^{h}-1}{h}}.}

Mit dem oben hergeleiteten Grenzübergang

lim h 0 a h 1 h = ln a {\displaystyle \lim _{h\to 0}{\frac {a^{h}-1}{h}}=\ln a}

entsteht

f ( x ) = lim h 0 Δ f Δ x = a x ln a . {\displaystyle f'(x)=\lim _{h\to 0}{\frac {\Delta f}{\Delta x}}=a^{x}\,\ln a.}

Darin ist ln a = log e a {\displaystyle \ln a=\log _{\mathrm {e} }a} der natürliche Logarithmus von a {\displaystyle a} . Speziell für die Eulersche Zahl e {\displaystyle \mathrm {e} } ist ln e = 1 {\displaystyle \ln \mathrm {e} =1} . Damit entsteht die auszeichnende Zusatzeigenschaft

exp e x = exp e x . {\displaystyle \exp '_{\mathrm {e} }x=\exp _{\mathrm {e} }x.}

Logarithmus

Mit der Logarithmusfunktion f ( x ) = log a x {\displaystyle f(x)=\log _{a}x} zur Basis a > 0 ,   a 1 {\displaystyle a>0,\ a\neq 1} ergibt sich der Differenzenquotient

Der Logarithmus von x {\displaystyle x} (hier der natürliche Logarithmus ln x {\displaystyle \ln x} ) existiert nur bei x > 0 {\displaystyle x>0}
Δ f Δ x = log a ( x + h ) log a x ( x + h ) x = log a ( x ( 1 + h x ) ) log a x h {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {\log _{a}(x+h)-\log _{a}x}{(x+h)-x}}={\frac {\log _{a}\left(x\cdot (1+{\frac {h}{x}})\right)-\log _{a}x}{h}}}

Für jedes a > 0 {\displaystyle a>0} gilt

log a ( u v ) = log a u + log a v . {\displaystyle \log _{a}(u\cdot v)=\log _{a}u+\log _{a}v.}
Δ f Δ x = log a x + log a ( 1 + h x ) log a x h = log a ( 1 + h x ) h x x . {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {\log _{a}x+\log _{a}(1+{\frac {h}{x}})-\log _{a}x}{h}}={\frac {\log _{a}(1+{\frac {h}{x}})}{{\frac {h}{x}}\;x}}.}

Mit dem oben hergeleiteten Grenzübergang

lim u 0 log ( 1 + u ) u = log e {\displaystyle \lim _{u\to 0}{\frac {\log(1+u)}{u}}=\log \mathrm {e} }

und mit der Basisumrechnung log a e = 1 log e a {\displaystyle \log _{a}\mathrm {e} ={\frac {1}{\log _{\mathrm {e} }a}}} entsteht

f ( x ) = lim h 0 Δ f Δ x = 1 x log a e = 1 x ln a {\displaystyle f'(x)=\lim _{h\to 0}{\frac {\Delta f}{\Delta x}}={\frac {1}{x}}\,\log _{a}\mathrm {e} ={\frac {1}{x\,\ln a}}}

Dieses existiert nur für x > 0 {\displaystyle x>0} . Für x < 0 {\displaystyle x<0} existiert die Funktion g ( x ) = log a ( x ) {\displaystyle g(x)=\log _{a}(-x)} .[37] Mit der Substitution z ( x ) = x > 0 {\displaystyle z(x)=-x>0} und der Kettenregel ergibt ihre Ableitung

g ( x ) = d g d z d z d x = 1 z ln a ( 1 ) = 1 x ln a . {\displaystyle g'(x)={\frac {\mathrm {d} g}{\mathrm {d} z}}\,{\frac {\mathrm {d} z}{\mathrm {d} x}}={\frac {1}{z\,\ln a}}\cdot (-1)={\frac {1}{x\,\ln a}}.}

Beide Ableitungen können zusammengefasst werden für x 0 {\displaystyle x\neq 0} zu

d log a | x | d x = 1 x ln a . {\displaystyle {\frac {\mathrm {d} \log _{a}|x|}{\mathrm {d} x}}={\frac {1}{x\,\ln a}}.}

Speziell für den natürlichen Logarithmus gilt

ln | x | = 1 x . {\displaystyle \ln '|x|={\frac {1}{x}}.}

Sinus und Kosinus

Mit der Sinusfunktion f ( x ) = sin x {\displaystyle f(x)=\sin x} ergibt sich der Differenzenquotient

Δ f Δ x = sin ( x + h ) sin x ( x + h ) x . {\displaystyle {\frac {\Delta f}{\Delta x}}={\frac {\sin(x+h)-\sin x}{(x+h)-x}}.}

Mit dem Additionstheorem

sin u sin v = 2 cos u + v 2 sin u v 2 {\displaystyle \sin u-\sin v=2\cos {\frac {u+v}{2}}\sin {\frac {u-v}{2}}}

gilt

Δ f Δ x = 2 cos 2 x + h 2 sin h 2 h = cos 2 x + h 2 sin h 2 h 2 . {\displaystyle {\frac {\Delta f}{\Delta x}}=2{\frac {\cos {\frac {2x+h}{2}}\sin {\frac {h}{2}}}{h}}=\cos {\tfrac {2x+h}{2}}\cdot {\frac {\sin {\frac {h}{2}}}{\tfrac {h}{2}}}.}

Mit dem oben hergeleiteten Grenzübergang

lim u 0 sin u u = 1 {\displaystyle \lim _{u\to 0}{\frac {\sin u}{u}}=1}

und mit u = h 2 {\displaystyle u={\tfrac {h}{2}}} entsteht

f ( x ) = lim h 0 Δ f Δ x = cos 2 x 2 1 = cos x . {\displaystyle f'(x)=\lim _{h\to 0}{\frac {\Delta f}{\Delta x}}=\cos {\frac {2x}{2}}\cdot 1=\cos x.}

Für die Kosinusfunktion führt eine entsprechende Rechnung mit

cos u cos v = 2 sin u + v 2 sin u v 2 {\displaystyle \cos u-\cos v=-2\sin {\frac {u+v}{2}}\sin {\frac {u-v}{2}}}

auf Δ f Δ x = cos ( x + h ) cos x ( x + h ) x = sin 2 x + h 2 sin h 2 h 2 . {\displaystyle \quad {\frac {\Delta f}{\Delta x}}={\frac {\cos(x+h)-\cos x}{(x+h)-x}}=-\sin {\tfrac {2x+h}{2}}\cdot {\frac {\sin {\frac {h}{2}}}{\tfrac {h}{2}}}.}

f ( x ) = lim h 0 Δ f Δ x = sin x . {\displaystyle f'(x)=\lim _{h\to 0}{\frac {\Delta f}{\Delta x}}=-\sin x.}

Weitere elementare Funktionen

Mit den vorstehenden Ableitungen können Ableitungsfunktionen für weitere Funktionen aufgestellt werden. Dazu werden zusätzlich die Ableitungsregeln für die Grundrechenarten, die Kettenregel und die Umkehrregel benötigt.

Allgemeine Potenzen

Die Funktion f ( x ) = x n {\displaystyle f(x)=x^{n}} ist bisher nur für n {\displaystyle n} als natürliche Zahl abgeleitet worden. Die Anwendbarkeit der zugehörigen Ableitungsregel lässt sich bei x > 0 {\displaystyle x>0} auf reelle Exponenten erweitern. Mit der Substitution[38]

z ( x ) = n ln x {\displaystyle z(x)=n\,\ln x}

ist f ( x ) = x n = e z . {\displaystyle \;f(x)=x^{n}=\mathrm {e} ^{z}.}

Wird dieses mit der Kettenregel differenziert, so entsteht das bekannte Ergebnis:

f ( x ) = d f d z d z d x = e z n 1 x = n f x = n x n 1 . {\displaystyle f'(x)={\frac {\mathrm {d} f}{\mathrm {d} z}}\,{\frac {\mathrm {d} z}{\mathrm {d} x}}=\mathrm {e} ^{z}\cdot n\;{\frac {1}{x}}=n\;{\frac {f}{x}}=n\,x^{n-1}.}

Eine Anwendung ist die Ableitung der Wurzelfunktion. Für f ( x ) = x m = x 1 m {\displaystyle f(x)={\sqrt[{m}]{x}}=x^{\frac {1}{m}}} gilt mit n = 1 m {\displaystyle n={\tfrac {1}{m}}}

f ( x ) = 1 m f x = 1 m x m x . {\displaystyle f'(x)={\frac {1}{m}}{\frac {f}{x}}={\frac {1}{m}}\;{\frac {\sqrt[{m}]{x}}{x}}.}

Der Fall m = 2 {\displaystyle m=2} betrifft die Quadratwurzel:

Für f ( x ) = x {\displaystyle f(x)={\sqrt {x}}\quad } gilt f ( x ) = 1 2 x . {\displaystyle \quad f'(x)={\frac {1}{2{\sqrt {x}}}}.}

Tangens und Kotangens

Mit Hilfe der Quotientenregel und den Ableitungsfunktionen für Sinus und Kosinus können auch die Ableitungsfunktionen für Tangens und Kotangens aufgestellt werden. Es gilt

tan x = ( sin x cos x ) = sin x cos x cos x sin x cos 2 x = cos 2 x + sin 2 x cos 2 x = 1 cos 2 x = 1 + tan 2 x . {\displaystyle \tan 'x=\left({\frac {\sin x}{\cos x}}\right)'={\frac {\sin 'x\cos x-\cos 'x\sin x}{\cos ^{2}x}}={\frac {\cos ^{2}x+\sin ^{2}x}{\cos ^{2}x}}={\frac {1}{\cos ^{2}x}}=1+\tan ^{2}x.}

Dabei wurde die als „Trigonometrischer Pythagoras“ bezeichnete Formel sin 2 x + cos 2 x = 1 {\displaystyle \sin ^{2}x+\cos ^{2}x=1} verwendet. Ebenso wird gewonnen

cot x = sin 2 x cos 2 x sin 2 x = 1 sin 2 x = 1 cot 2 x . {\displaystyle \cot 'x={\frac {-\sin ^{2}x-\cos ^{2}x}{\sin ^{2}x}}={\frac {-1}{\sin ^{2}x}}=-1-\cot ^{2}x.}

Arkussinus und Arkuskosinus

Arkussinus und Arkuskosinus sind als Umkehrfunktionen von Sinus und Kosinus definiert. Die Ableitungen werden mittels der Umkehrregel berechnet. Setzt man x = sin y {\displaystyle x=\sin y} , so folgt im Bereich | x | < 1 {\displaystyle |x|<1}

arcsin x = 1 sin y = 1 cos y = 1 1 sin 2 y = 1 1 x 2 . {\displaystyle \arcsin 'x={\frac {1}{\sin 'y}}={\frac {1}{\cos y}}={\frac {1}{\sqrt {1-\sin ^{2}y}}}={\frac {1}{\sqrt {1-x^{2}}}}.}

Für den Arkuskosinus ergibt sich mit x = cos y {\displaystyle x=\cos y} ebenso

arccos x = 1 cos y = 1 sin y = 1 1 cos 2 y = 1 1 x 2 . {\displaystyle \arccos 'x={\frac {1}{\cos 'y}}={\frac {1}{-\sin y}}=-{\frac {1}{\sqrt {1-\cos ^{2}y}}}=-{\frac {1}{\sqrt {1-x^{2}}}}.}

Arkustangens und Arkuskotangens

Arkustangens und Arkuskotangens sind als Umkehrfunktionen von Tangens und Kotangens definiert. Setzt man x = tan y {\displaystyle x=\tan y} , so folgt mittels der Umkehrregel

arctan x = 1 tan y = 1 1 + tan 2 y = 1 1 + x 2 . {\displaystyle \arctan 'x={\frac {1}{\tan 'y}}={\frac {1}{1+\tan ^{2}y}}={\frac {1}{1+x^{2}}}.}

Für den Arkuskotangens ergibt sich mit x = cot y {\displaystyle x=\cot y} ebenso

arccot x = 1 cot y = 1 1 cot 2 y = 1 1 + x 2 . {\displaystyle \operatorname {arccot} 'x={\frac {1}{\cot 'y}}={\frac {1}{-1-\cot ^{2}y}}=-{\frac {1}{1+x^{2}}}.}

Zusammengesetzte Funktion

Zusammengesetzte Funktionen lassen sich so weit strukturieren, bis sich zu jedem Strukturelement die jeweils zutreffende elementare Ableitungsregel finden lässt. Dazu gibt es die Summenregel, die Produktregel, die Quotientenregel und die Kettenregel. Da diese in eigenen Artikeln erläutert werden, wird hier nur ein Beispiel vorgestellt.

f ( x ) = ( 1 + sin 2 x ) 2 {\displaystyle f(x)=(1+\sin 2x)^{2}}
f ( x ) = f ( u ) = u 2 {\displaystyle f(x)=f(u)=u^{2}\quad } mit u = 1 + sin 2 x {\displaystyle u=1+\sin 2x\quad } f ( u ) {\displaystyle f(u)} ist ableitbar nach u {\displaystyle u} als Potenz f = 2 u {\displaystyle f'=2u}
u = u ( v ) = 1 + v {\displaystyle u=u(v)=1+v} mit v = sin 2 x {\displaystyle v=\sin 2x} u ( v ) {\displaystyle u(v)} ist ableitbar nach v {\displaystyle v} als Summe mit einer Konstanten u = 1 {\displaystyle u'=1}
v = v ( w ) = sin w {\displaystyle v=v(w)=\sin w} mit w = 2 x {\displaystyle w=2x} v ( w ) {\displaystyle v(w)} ist ableitbar nach w {\displaystyle w} als trigonometrische Funktion v = cos w {\displaystyle v'=\cos w}
w = w ( x ) = 2 x {\displaystyle w=w(x)=2x} w ( x ) {\displaystyle w(x)} ist ableitbar nach x {\displaystyle x} als Potenz mit konstantem Faktor   w = 2 {\displaystyle w'=2}

Nach der Kettenregel ergibt sich

f ( x ) = 4 ( 1 + sin 2 x ) cos 2 x {\displaystyle f'(x)=4\,(1+\sin 2x)\,\cos 2x}

Zusammenfassung

Hier werden die Ableitungsregeln elementarer und zusammengesetzter Funktionen zusammengefasst. Eine ausführliche Liste findet sich unter Tabelle von Ableitungs- und Stammfunktionen.

f ( x ) {\displaystyle f(x)} f ( x ) {\displaystyle f'(x)} Anmerkung
x {\displaystyle x} 1 {\displaystyle 1} Elementares
a x {\displaystyle ax} a {\displaystyle a} konstanter Faktor bleibt erhalten
x + a {\displaystyle x+a} 1 {\displaystyle 1} konstanter Summand verschwindet
x n {\displaystyle x^{n}} n x n 1 {\displaystyle n\,x^{n-1}} Potenzfunktion
e x {\displaystyle \mathrm {e} ^{x}} e x {\displaystyle \mathrm {e} ^{x}} Exponentialfunktion
a x {\displaystyle a^{x}} a x ln a ( a > 0 ) {\displaystyle a^{x}\,\ln a\quad (a>0)}
ln | x | {\displaystyle \ln |x|} 1 x {\displaystyle {\frac {1}{x}}} Logarithmusfunktion
log a | x | {\displaystyle \log _{a}|x|} 1 x 1 ln a {\displaystyle {\frac {1}{x}}\,{\frac {1}{\ln a}}}
sin x {\displaystyle \sin x} cos x {\displaystyle \cos x} Trigonometrische Funktionen
cos x {\displaystyle \cos x} sin x {\displaystyle -\sin x}
tan x {\displaystyle \tan x} 1 cos 2 x = 1 + tan 2 x {\displaystyle {\frac {1}{\cos ^{2}x}}=1+\tan ^{2}x}
cot x {\displaystyle \cot x} 1 sin 2 x = ( 1 + cot 2 x ) {\displaystyle -{\frac {1}{\sin ^{2}x}}=-(1+\cot ^{2}x)}
arcsin x {\displaystyle \arcsin x} 1 1 x 2 ( | x | < 1 ) {\displaystyle {\frac {1}{\sqrt {1-x^{2}}}}\quad (|x|<1)}
arccos x {\displaystyle \arccos x} 1 1 x 2 ( | x | < 1 ) {\displaystyle {\frac {-1}{\sqrt {1-x^{2}}}}\quad (|x|<1)}
arctan x {\displaystyle \arctan x} 1 x 2 + 1 {\displaystyle {\frac {1}{x^{2}+1}}}
arccot x {\displaystyle \operatorname {arccot} x} 1 x 2 + 1 {\displaystyle {\frac {-1}{x^{2}+1}}}
sinh x {\displaystyle \sinh x} cosh x {\displaystyle \cosh x} Hyperbelfunktionen
cosh x {\displaystyle \cosh x} sinh x {\displaystyle \sinh x}
tanh x {\displaystyle \tanh x} 1 cosh 2 x = 1 tanh 2 x {\displaystyle {\frac {1}{\cosh ^{2}x}}=1-\tanh ^{2}x}
coth x {\displaystyle \coth x} 1 sinh 2 x = 1 coth 2 x {\displaystyle {\frac {-1}{\sinh ^{2}x}}=1-\coth ^{2}x}
arsinh x {\displaystyle \operatorname {arsinh} x} 1 x 2 + 1 {\displaystyle {\frac {1}{\sqrt {x^{2}+1}}}}
arcosh x {\displaystyle \operatorname {arcosh} x} 1 x 2 1 ( x > 1 ) {\displaystyle {\frac {1}{\sqrt {x^{2}-1}}}\quad (x>1)}
artanh x {\displaystyle \operatorname {artanh} x} 1 1 x 2 ( | x | < 1 ) {\displaystyle {\frac {1}{1-x^{2}}}\quad (|x|<1)}
arcoth x {\displaystyle \operatorname {arcoth} x} 1 1 x 2 ( | x | > 1 ) {\displaystyle {\frac {1}{1-x^{2}}}\quad (|x|>1)}
u ( x ) + v ( x ) {\displaystyle u(x)+v(x)} u + v {\displaystyle u'+v'} Summenregel
u ( x ) v ( x ) {\displaystyle u(x)\cdot v(x)} u v + v u {\displaystyle u'v+v'u} Produktregel
u ( x ) : v ( x ) {\displaystyle u(x):v(x)} u v v u v 2 {\displaystyle {\frac {u'v-v'u}{v^{2}}}} Quotientenregel
u [ v ( x ) ] {\displaystyle u[v(x)]} f ( u ) u ( v ) v ( x ) {\displaystyle f'(u)\cdot u'(v)\cdot v'(x)}
oder d f d x = d f d u d u d v d v d x {\displaystyle {\frac {\mathrm {d} f}{\mathrm {d} x}}={\frac {\mathrm {d} f}{\mathrm {d} u}}\,{\frac {\mathrm {d} u}{\mathrm {d} v}}\,{\frac {\mathrm {d} v}{\mathrm {d} x}}}
Kettenregel
mit f = f ( u ) , u = u ( v ) , v = v ( x ) {\displaystyle f=f(u),u=u(v),v=v(x)}
f ( x ) {\displaystyle f(x)} 1 ( f 1 ) ( y ) {\displaystyle {\frac {1}{(f^{-1})'(y)}}}
oder d y d x = 1 d x d y {\displaystyle {\frac {\mathrm {d} y}{\mathrm {d} x}}={\frac {1}{\frac {\mathrm {d} x}{\mathrm {d} y}}}}
Umkehrregel
mit y = f ( x ) {\displaystyle y=f(x)} oder nach x {\displaystyle x} aufgelöst
  x = f 1 ( y ) {\displaystyle \quad \ x=f^{-1}(y)}

Höhere Ableitungen

Ist die Ableitung f {\displaystyle f'} einer Funktion f {\displaystyle f} wiederum differenzierbar, so lässt sich die zweite Ableitung von f {\displaystyle f} als Ableitung der ersten definieren. Auf dieselbe Weise können dann auch dritte, vierte etc. Ableitungen definiert werden. Eine Funktion kann dementsprechend einmal differenzierbar, zweimal differenzierbar etc. sein.

Ist die erste Ableitung eines Weges nach der Zeit eine Geschwindigkeit, so kann die zweite Ableitung als Beschleunigung und die dritte Ableitung als Ruck interpretiert werden.

Wenn Politiker sich über den „Rückgang des Anstiegs der Arbeitslosenzahl“ äußern, dann sprechen sie von der zweiten Ableitung (Änderung des Anstiegs), um die Aussage der ersten Ableitung (Anstieg der Arbeitslosenzahl) zu relativieren.

Höhere Ableitungen können auf verschiedene Weisen geschrieben werden:

f = f ( 2 ) = d 2 f d x 2 , f = f ( 3 ) = d 3 f d x 3 , {\displaystyle f''=f^{(2)}={\frac {\mathrm {d} ^{2}f}{\mathrm {d} x^{2}}},\quad f'''=f^{(3)}={\frac {\mathrm {d} ^{3}f}{\mathrm {d} x^{3}}},\quad \ldots }

oder im physikalischen Fall (bei einer Ableitung nach der Zeit)

x ¨ ( t ) = d 2 x d t 2 , x . . . ( t ) = d 3 x d t 3 . {\displaystyle {\ddot {x}}(t)={\frac {\mathrm {d} ^{2}x}{\mathrm {d} t^{2}}},\quad {\overset {...}{x}}(t)={\frac {\mathrm {d} ^{3}x}{\mathrm {d} t^{3}}}.}

Für die formale Bezeichnung beliebiger Ableitungen f ( n ) {\displaystyle f^{(n)}} legt man außerdem f ( 1 ) = f {\displaystyle f^{(1)}=f'} und f ( 0 ) = f {\displaystyle f^{(0)}=f} fest.

Höhere Differentialoperatoren

Hauptartikel: Differentiationsklasse

Ist n {\displaystyle n} eine natürliche Zahl und U R {\displaystyle U\subset \mathbb {R} } offen, so wird der Raum der in U {\displaystyle U} n {\displaystyle n} -mal stetig differenzierbaren Funktionen mit C n ( U ) {\displaystyle C^{n}(U)} bezeichnet. Der Differentialoperator d d x {\displaystyle {\tfrac {\mathrm {d} }{\mathrm {d} x}}} induziert damit eine Kette von linearen Abbildungen

C n ( U ) d d x C n 1 ( U ) d d x C n 2 ( U ) d d x d d x C 0 ( U ) , {\displaystyle C^{n}(U)\,\,\,\,{\overset {\tfrac {\mathrm {d} }{\mathrm {d} x}}{\longrightarrow }}\,\,\,\,C^{n-1}(U)\,\,\,\,{\overset {\tfrac {\mathrm {d} }{\mathrm {d} x}}{\longrightarrow }}\,\,\,\,C^{n-2}(U)\,\,\,\,{\overset {\tfrac {\mathrm {d} }{\mathrm {d} x}}{\longrightarrow }}\,\,\,\,\cdots \,\,\,\,{\overset {\tfrac {\mathrm {d} }{\mathrm {d} x}}{\longrightarrow }}\,\,\,\,C^{0}(U),}

und damit allgemein für k n {\displaystyle k\leq n} :

C n ( U ) d k d x k C n k ( U ) . {\displaystyle C^{n}(U)\,\,\,\,{\overset {\tfrac {\mathrm {d} ^{k}}{\mathrm {d} x^{k}}}{\longrightarrow }}\,\,\,\,C^{n-k}(U).}

Dabei bezeichnet C 0 ( U ) {\displaystyle C^{0}(U)} den Raum der in U {\displaystyle U} stetigen Funktionen. Exemplarisch: Wird ein f C n ( U ) {\displaystyle f\in C^{n}(U)} durch Anwenden von d d x {\displaystyle {\tfrac {\mathrm {d} }{\mathrm {d} x}}} einmal abgeleitet, kann das Ergebnis f {\displaystyle f'} im Allgemeinen nur noch ( n 1 ) {\displaystyle (n-1)} -mal abgeleitet werden usw. Jeder Raum C k ( U ) {\displaystyle C^{k}(U)} ist eine R {\displaystyle \mathbb {R} } -Algebra, da nach der Summen- bzw. der Produktregel Summen und auch Produkte von k {\displaystyle k} -mal stetig differenzierbaren Funktionen wieder k {\displaystyle k} -mal stetig differenzierbar sind. Es gilt zudem die aufsteigende Kette von echten Inklusionen

C n ( U ) C n 1 ( U ) C n 2 ( U ) C 0 ( U ) , {\displaystyle \cdots \,\,\,\,C^{n}(U)\,\,\,\,\subsetneq \,\,\,\,C^{n-1}(U)\,\,\,\,\subsetneq \,\,\,\,C^{n-2}(U)\,\,\,\,\subsetneq \,\,\,\,\cdots \,\,\,\,\subsetneq \,\,\,\,C^{0}(U),}

denn offenbar ist jede mindestens n {\displaystyle n} -mal stetig differenzierbare Funktion auch ( n 1 ) {\displaystyle (n-1)} -mal stetig differenzierbar usw., jedoch zeigen die Funktionen

f n ( x ) = { x n + 1 sin ( 1 x ) , x U { 0 } , 0 , x = 0 , {\displaystyle f_{n}(x)={\begin{cases}x^{n+1}\sin \left({\frac {1}{x}}\right),&x\in U\setminus \{0\},\\0,&x=0,\end{cases}}}

exemplarisch Beispiele für Funktionen aus C n 1 ( U ) C n ( U ) {\displaystyle C^{n-1}(U)\setminus C^{n}(U)} , wenn – was ohne Beschränkung der Allgemeinheit möglich ist – 0 U {\displaystyle 0\in U} angenommen wird.[39]

Höhere Ableitungsregeln

Leibnizsche Regel

Die Ableitung n {\displaystyle n} -ter Ordnung für ein Produkt aus zwei n {\displaystyle n} -mal differenzierbaren Funktionen f {\displaystyle f} und g {\displaystyle g} ergibt sich aus

( f g ) ( n ) = k = 0 n ( n k ) f ( k ) g ( n k ) {\displaystyle (fg)^{(n)}=\sum _{k=0}^{n}{n \choose k}f^{(k)}g^{(n-k)}} .

Die hier auftretenden Ausdrücke der Form ( n k ) {\displaystyle {\tbinom {n}{k}}} sind Binomialkoeffizienten. Die Formel ist eine Verallgemeinerung der Produktregel.

Formel von Faà di Bruno

Diese Formel ermöglicht die geschlossene Darstellung der n {\displaystyle n} -ten Ableitung der Komposition zweier n {\displaystyle n} -mal differenzierbarer Funktionen. Sie verallgemeinert die Kettenregel auf höhere Ableitungen.

Taylorformeln mit Restglied

Hauptartikel: Taylorformel

Ist f {\displaystyle f} eine in einem Intervall I {\displaystyle I} ( n + 1 ) {\displaystyle (n+1)} -mal stetig differenzierbare Funktion, dann gilt für alle a {\displaystyle a} und x {\displaystyle x} aus I {\displaystyle I} die sogenannte Taylorformel:

f ( x ) = T n ( a ; x ) + R n + 1 ( a ; x ) {\displaystyle f(x)=T_{n}(a;x)+R_{n+1}(a;x)}

mit dem n {\displaystyle n} -ten Taylorpolynom an der Entwicklungsstelle a {\displaystyle a}

T n ( a ; x ) = k = 0 n f ( k ) ( a ) k ! ( x a ) k = f ( a ) + f ( a ) 1 ! ( x a ) + f ( a ) 2 ! ( x a ) 2 + + f ( n ) ( a ) n ! ( x a ) n {\displaystyle {\begin{aligned}T_{n}(a;x)&=\sum _{k=0}^{n}{\frac {f^{(k)}(a)}{k!}}(x-a)^{k}\\&=f(a)+{\frac {f'(a)}{1!}}(x-a)+{\frac {f''(a)}{2!}}(x-a)^{2}+\dotsb +{\frac {f^{(n)}(a)}{n!}}(x-a)^{n}\end{aligned}}}

und dem ( n + 1 ) {\displaystyle (n+1)} -ten Restglied

R n + 1 ( a ; x ) = f ( n + 1 ) ( ξ ) ( n + 1 ) ! ( x a ) n + 1 {\displaystyle R_{n+1}(a;x)={\frac {f^{(n+1)}(\xi )}{(n+1)!}}(x-a)^{n+1}}

mit einem ξ = ξ ( x ) ( min { a , x } , max { a , x } ) I {\displaystyle \xi =\xi (x)\in (\min\{a,x\},\max\{a,x\})\subset I} .[40] Eine beliebig oft differenzierbare Funktion wird glatte Funktion genannt. Da sie alle Ableitungen besitzt, kann die oben angegebene Taylorformel zur Taylorreihe von f {\displaystyle f} mit Entwicklungspunkt a {\displaystyle a} erweitert werden:

( T f ) ( a ; x ) := f ( a ) + f ( a ) ( x a ) + f ( a ) 2 ( x a ) 2 + + f ( n ) ( a ) n ! ( x a ) n + = n = 0 f ( n ) ( a ) n ! ( x a ) n . {\displaystyle {\begin{aligned}(Tf)(a;x)&:=f(a)+f'(a)(x-a)+{\frac {f''(a)}{2}}(x-a)^{2}+\dotsb +{\frac {f^{(n)}(a)}{n!}}(x-a)^{n}+\dotsb \\&=\sum _{n=0}^{\infty }{\frac {f^{(n)}(a)}{n!}}(x-a)^{n}.\end{aligned}}}

Es ist jedoch nicht jede glatte Funktion durch ihre Taylorreihe darstellbar, siehe unten.

Glatte Funktionen

Hauptartikel: Glatte Funktion

Funktionen, die an jeder Stelle ihres Definitionsbereichs beliebig oft differenzierbar sind, bezeichnet man auch als glatte Funktionen. Die Menge aller in einer offenen Menge U R {\displaystyle U\subset \mathbb {R} } glatten Funktionen f : U R {\displaystyle f\colon U\to \mathbb {R} } wird meist mit C ( U ) {\displaystyle C^{\infty }(U)} bezeichnet. Sie trägt die Struktur einer R {\displaystyle \mathbb {R} } -Algebra (skalare Vielfache, Summen und Produkte glatter Funktionen sind wieder glatt) und ist gegeben durch

C ( U ) = n N C n ( U ) , {\displaystyle C^{\infty }(U)=\bigcap _{n\in \mathbb {N} }C^{n}(U),}

wobei C n ( U ) {\displaystyle C^{n}(U)} alle in U {\displaystyle U} n {\displaystyle n} -mal stetig differenzierbaren Funktionen bezeichnet.[30] Häufig findet man in mathematischen Betrachtungen den Begriff hinreichend glatt. Damit ist gemeint, dass die Funktion mindestens so oft differenzierbar ist, wie es nötig ist, um den aktuellen Gedankengang durchzuführen.

Analytische Funktionen

Hauptartikel: Analytische Funktion

Der obere Begriff der Glattheit kann weiter verschärft werden. Eine Funktion f : U R {\displaystyle f\colon U\to \mathbb {R} } heißt reell analytisch, wenn sie sich in jedem Punkt lokal in eine Taylorreihe entwickeln lässt, also

f ( x ) = n = 0 f ( n ) ( a ) n ! ( x a ) n {\displaystyle f(x)=\sum _{n=0}^{\infty }{\frac {f^{(n)}(a)}{n!}}(x-a)^{n}}

für alle a U {\displaystyle a\in U} und alle hinreichend kleinen Werte von | x a | {\displaystyle |x-a|} . Analytische Funktionen haben starke Eigenschaften und finden besondere Aufmerksamkeit in der komplexen Analysis. Dort werden dementsprechend keine reell, sondern komplex analytischen Funktionen studiert. Ihre Menge wird meist mit C ω ( U ) {\displaystyle C^{\omega }(U)} bezeichnet und es gilt C ω ( U ) C ( U ) {\displaystyle C^{\omega }(U)\subsetneq C^{\infty }(U)} . Insbesondere ist jede analytische Funktion glatt, aber nicht umgekehrt. Die Existenz aller Ableitungen ist also nicht hinreichend dafür, dass die Taylorreihe die Funktion darstellt, wie das folgende Gegenbeispiel

f ( x ) = { 0 falls  x = 0 e 1 / x 2 falls  x 0 {\displaystyle f(x)={\begin{cases}0&{\text{falls }}x=0\\\mathrm {e} ^{-1/x^{2}}&{\text{falls }}x\neq 0\end{cases}}}

einer nicht analytischen glatten Funktion zeigt.[41] Alle reellen Ableitungen dieser Funktion verschwinden in 0, aber es handelt sich nicht um die Nullfunktion. Daher wird sie an der Stelle 0 nicht durch ihre Taylorreihe dargestellt.

Anwendungen

Kurvendiskussion
Kurvendiskussion

Eine wichtige Anwendung der Differentialrechnung in einer Variablen ist die Bestimmung von Extremwerten, meist zur Optimierung von Prozessen, wie etwa im Kontext von Kosten, Material oder Energieaufwand.[42] Die Differentialrechnung stellt eine Methode bereit, Extremstellen zu finden, ohne dabei unter Aufwand numerisch suchen zu müssen. Man macht sich zu Nutze, dass an einer lokalen Extremstelle x 0 {\displaystyle x_{0}} notwendigerweise die erste Ableitung der Funktion f {\displaystyle f} gleich 0 sein muss. Es muss also f ( x 0 ) = 0 {\displaystyle f'(x_{0})=0} gelten, wenn x 0 {\displaystyle x_{0}} eine lokale Extremstelle ist. Allerdings bedeutet andersherum f ( x 0 ) = 0 {\displaystyle f'(x_{0})=0} noch nicht, dass es sich bei f ( x 0 ) {\displaystyle f(x_{0})} um ein Maximum oder Minimum handelt. In diesem Fall werden mehr Informationen benötigt, um eine eindeutige Entscheidung treffen zu können, was meist durch Betrachten höherer Ableitungen bei x 0 {\displaystyle x_{0}} möglich ist.

Eine Funktion kann einen Maximal- oder Minimalwert haben, ohne dass die Ableitung an dieser Stelle existiert, jedoch kann in diesem Falle die Differentialrechnung nicht verwendet werden. Im Folgenden werden daher nur zumindest lokal differenzierbare Funktionen betrachtet. Als Beispiel nehmen wir die Polynomfunktion f {\displaystyle f} mit dem Funktionsterm

f ( x ) = 1 3 x 3 2 x 2 + 3 x = x 3 ( x 3 ) 2 . {\displaystyle f(x)={\frac {1}{3}}x^{3}-2x^{2}+3x={\frac {x}{3}}(x-3)^{2}.}

Die Abbildung zeigt den Verlauf der Graphen von f {\displaystyle f} , f {\displaystyle f'} und f {\displaystyle f''} .

Horizontale Tangenten

Besitzt eine Funktion f : ( a , b ) R {\displaystyle f\colon (a,b)\to \mathbb {R} } mit ( a , b ) R {\displaystyle (a,b)\subset \mathbb {R} } an einer Stelle x 0 ( a , b ) {\displaystyle x_{0}\in (a,b)} ihren größten Wert, gilt also für alle x {\displaystyle x} dieses Intervalls f ( x 0 ) f ( x ) {\displaystyle f(x_{0})\geq f(x)} , und ist f {\displaystyle f} an der Stelle x 0 {\displaystyle x_{0}} differenzierbar, so kann die Ableitung dort nur gleich Null sein: f ( x 0 ) = 0 {\displaystyle f'(x_{0})=0} . Eine entsprechende Aussage gilt, falls f {\displaystyle f} in x 0 {\displaystyle x_{0}} den kleinsten Wert annimmt.

Geometrische Deutung dieses Satzes von Fermat ist, dass der Graph der Funktion in lokalen Extrempunkten eine parallel zur x {\displaystyle x} -Achse verlaufende Tangente, auch waagerechte Tangente genannt, besitzt.

Es ist somit für differenzierbare Funktionen eine notwendige Bedingung für das Vorliegen einer Extremstelle, dass die Ableitung an der betreffenden Stelle den Wert 0 annimmt:

f ( x 0 ) = 0 {\displaystyle f^{\prime }(x_{0})=0}

Umgekehrt kann aber daraus, dass die Ableitung an einer Stelle den Wert Null hat, noch nicht auf eine Extremstelle geschlossen werden, es könnte auch beispielsweise ein Sattelpunkt vorliegen. Eine Liste verschiedener hinreichender Kriterien, deren Erfüllung sicher auf eine Extremstelle schließen lässt, findet sich im Artikel Extremwert. Diese Kriterien benutzen meist die zweite oder noch höhere Ableitungen.

Bedingung im Beispiel

Im Beispiel ist

f ( x ) = x 2 4 x + 3 = ( x 1 ) ( x 3 ) . {\displaystyle f'(x)=x^{2}-4\cdot x+3=(x-1)\cdot (x-3).}

Daraus folgt, dass f ( x ) = 0 {\displaystyle f^{\prime }(x)=0} genau für x = 1 {\displaystyle x=1} und x = 3 {\displaystyle x=3} gilt. Die Funktionswerte an diesen Stellen sind f ( 1 ) = 4 3 {\displaystyle f(1)={\tfrac {4}{3}}} und f ( 3 ) = 0 {\displaystyle f(3)=0} , d. h., die Kurve hat in den Punkten ( 1 , 4 3 ) {\displaystyle (1,{\tfrac {4}{3}})} und ( 3 , 0 ) {\displaystyle (3,0)} waagerechte Tangenten, und nur in diesen.

Da die Folge

f ( 0 ) = 0 , f ( 1 ) = 4 3 , f ( 3 ) = 0 , f ( 4 ) = 4 3 {\displaystyle f(0)=0,\quad f(1)={\frac {4}{3}},\quad f(3)=0,\quad f(4)={\frac {4}{3}}}

abwechselnd aus kleinen und großen Werten besteht, muss in diesem Bereich ein Hoch- und ein Tiefpunkt liegen. Nach dem Satz von Fermat hat die Kurve in diesen Punkten eine waagerechte Tangente, es kommen also nur die oben ermittelten Punkte in Frage: Also ist ( 1 , 4 3 ) {\displaystyle (1,{\tfrac {4}{3}})} ein Hochpunkt und ( 3 , 0 ) {\displaystyle (3,0)} ein Tiefpunkt.

Kurvendiskussion

Hauptartikel: Kurvendiskussion

Mit Hilfe der Ableitungen lassen sich noch weitere Eigenschaften der Funktion analysieren, wie die Existenz von Wende- und Sattelpunkten, die Konvexität oder die oben schon angesprochene Monotonie. Die Durchführung dieser Untersuchungen ist Gegenstand der Kurvendiskussion.

Termumformungen

Neben der Bestimmung der Steigung von Funktionen ist die Differentialrechnung durch ihren Kalkül ein wesentliches Hilfsmittel bei der Termumformung. Hierbei löst man sich von jeglichem Zusammenhang mit der ursprünglichen Bedeutung der Ableitung als Anstieg. Hat man zwei Terme als gleich erkannt, lassen sich durch Differentiation daraus weitere (gesuchte) Identitäten gewinnen. Ein Beispiel mag dies verdeutlichen:

Aus der bekannten Partialsumme

k = 0 n x k = 1 + x + x 2 + + x n = x n + 1 1 x 1 {\displaystyle \sum _{k=0}^{n}x^{k}=1+x+x^{2}+\dotsb +x^{n}={\frac {x^{n+1}-1}{x-1}}}

der geometrischen Reihe soll die Summe

k = 1 n k x k 1 = 1 + 2 x + 3 x 2 + + n x n 1 {\displaystyle \sum _{k=1}^{n}kx^{k-1}=1+2x+3x^{2}+\dotsb +nx^{n-1}}

berechnet werden. Dies gelingt durch Differentiation mit Hilfe der Quotientenregel:

k = 1 n k x k 1 = k = 0 n k x k 1 = d d x k = 0 n x k = d d x x n + 1 1 x 1 = ( n + 1 ) x n ( x 1 ) ( x n + 1 1 ) ( x 1 ) 2 = n x n + 1 ( n + 1 ) x n + 1 ( x 1 ) 2 {\displaystyle \sum _{k=1}^{n}kx^{k-1}=\sum _{k=0}^{n}kx^{k-1}={\frac {\mathrm {d} }{\mathrm {d} x}}\sum _{k=0}^{n}x^{k}={\frac {\mathrm {d} }{\mathrm {d} x}}{\frac {x^{n+1}-1}{x-1}}={\frac {(n+1)x^{n}(x-1)-(x^{n+1}-1)}{(x-1)^{2}}}={\frac {nx^{n+1}-(n+1)x^{n}+1}{(x-1)^{2}}}}

Alternativ ergibt sich die Identität auch durch Ausmultiplizieren und anschließendes dreifaches Teleskopieren, was aber nicht so einfach zu durchschauen ist.

Zentrale Aussagen der Differentialrechnung einer Variablen

Fundamentalsatz der Analysis

Die wesentliche Leistung Leibniz’ war die Erkenntnis, dass Integration und Differentiation zusammenhängen. Diese formulierte er im Hauptsatz der Differential- und Integralrechnung, auch Fundamentalsatz der Analysis genannt, der besagt:

Ist I R {\displaystyle I\subset \mathbb {R} } ein Intervall, f : I R {\displaystyle f\colon I\to \mathbb {R} } eine stetige Funktion und a I {\displaystyle a\in I} eine beliebige Zahl aus I {\displaystyle I} , so ist die Funktion

F : I R , x a x f ( t ) d t {\displaystyle F\colon I\to \mathbb {R} ,\;x\mapsto \int _{a}^{x}f(t)\,\mathrm {d} t}

stetig differenzierbar, und ihre Ableitung F {\displaystyle F'} ist gleich f {\displaystyle f} .

Hiermit ist also eine Anleitung zum Integrieren gegeben: Gesucht ist eine Funktion F {\displaystyle F} , deren Ableitung F {\displaystyle F'} der Integrand f {\displaystyle f} ist. Dann gilt:[43]

a b f ( x ) d x = F ( b ) F ( a ) . {\displaystyle \int _{a}^{b}f(x)\,\mathrm {d} x=F(b)-F(a).}

Mittelwertsatz der Differentialrechnung

Ein weiterer zentraler Satz der Differentialrechnung ist der Mittelwertsatz, der 1821 von Cauchy bewiesen wurde.[44]

Es sei f : [ a , b ] R {\displaystyle f\colon [a,b]\to \mathbb {R} } eine Funktion, die auf dem abgeschlossenen Intervall [ a , b ] {\displaystyle [a,b]} (mit a < b {\displaystyle a<b} ) definiert und stetig ist. Außerdem sei die Funktion f {\displaystyle f} im offenen Intervall ( a , b ) {\displaystyle (a,b)} differenzierbar. Unter diesen Voraussetzungen gibt es mindestens ein x 0 ( a , b ) {\displaystyle x_{0}\in (a,b)} , sodass

f ( x 0 ) = f ( b ) f ( a ) b a {\displaystyle f'(x_{0})={\frac {f(b)-f(a)}{b-a}}}

gilt – geometrisch-anschaulich: Zwischen zwei Schnittpunkten einer Sekante gibt es auf der Kurve einen Punkt mit zur Sekante paralleler Tangente.[45]

Monotonie und Differenzierbarkeit

Ist a < b {\displaystyle a<b} und f : ( a , b ) R {\displaystyle f\colon (a,b)\to \mathbb {R} } eine differenzierbare Funktion mit f ( x ) 0 {\displaystyle f'(x)\not =0} für alle a < x < b {\displaystyle a<x<b} , so gelten folgende Aussagen:[46]

  • Die Funktion f {\displaystyle f} ist strikt monoton.
  • Es ist f ( ( a , b ) ) = ( c , d ) {\displaystyle f((a,b))=(c,d)} mit irgendwelchen c < d {\displaystyle c<d} .
  • Die Umkehrfunktion f 1 : ( c , d ) R {\displaystyle f^{-1}\colon (c,d)\to \mathbb {R} } existiert, ist differenzierbar und erfüllt ( f 1 ) ( f ( x ) ) = 1 f ( x ) {\displaystyle (f^{-1})'(f(x))={\frac {1}{f'(x)}}} .

Daraus lässt sich herleiten, dass eine stetig differenzierbare Funktion f : ( a , b ) f ( ( a , b ) ) {\displaystyle f\colon (a,b)\to f((a,b))} , deren Ableitung nirgends verschwindet, bereits einen Diffeomorphismus zwischen den Intervallen ( a , b ) {\displaystyle (a,b)} und f ( ( a , b ) ) {\displaystyle f((a,b))} definiert. In mehreren Variablen ist die analoge Aussage falsch. So verschwindet die Ableitung der komplexen Exponentialfunktion z e x p ( z ) {\displaystyle z\mapsto \mathrm {exp} (z)} , nämlich sie selbst, in keinem Punkt, aber es handelt sich um keine (global) injektive Abbildung C e x p ( C ) {\displaystyle \mathbb {C} \to \mathrm {exp} (\mathbb {C} )} . Man beachte, dass diese als höherdimensionale reelle Funktion R 2 exp ( R 2 ) {\displaystyle \mathbb {R} ^{2}\to \mathrm {\exp } (\mathbb {R} ^{2})} aufgefasst werden kann, da C {\displaystyle \mathbb {C} } ein zweidimensionaler R {\displaystyle \mathbb {R} } -Vektorraum ist.

Allerdings liefert der Satz von Hadamard ein Kriterium, mit dem in manchen Fällen gezeigt werden kann, dass eine stetig differenzierbare Funktion F : R n R n {\displaystyle F\colon \mathbb {R} ^{n}\to \mathbb {R} ^{n}} ein Homöomorphismus ist.

Die Regel von de L’Hospital

Hauptartikel: Regel von de L’Hospital

Als eine Anwendung des Mittelwertsatzes lässt sich eine Beziehung herleiten, die es in manchen Fällen erlaubt, unbestimmte Terme der Gestalt 0 0 {\displaystyle {\tfrac {0}{0}}} oder {\displaystyle {\tfrac {\infty }{\infty }}} zu berechnen.[47]

Seien f , g : ( a , b ) R {\displaystyle f,g\colon (a,b)\to \mathbb {R} } differenzierbar und g {\displaystyle g} habe keine Nullstelle. Ferner gelte entweder

lim x a f ( x ) = lim x a g ( x ) = 0 {\displaystyle \lim _{x\to a}f(x)=\lim _{x\to a}g(x)=0}

oder

lim x a f ( x ) = lim x a g ( x ) = ± {\displaystyle \lim _{x\to a}f(x)=\lim _{x\to a}g(x)=\pm \infty } .

Dann gilt

lim x a f ( x ) g ( x ) = lim x a f ( x ) g ( x ) , {\displaystyle \lim _{x\to a}{\frac {f(x)}{g(x)}}=\lim _{x\to a}{\frac {f'(x)}{g'(x)}},}

unter der Bedingung, dass der letzte Grenzwert in R { ± } {\displaystyle \mathbb {R} \cup \{\pm \infty \}} existiert.

Differentialrechnung bei Funktionenfolgen und Integralen

In vielen analytischen Anwendungen hat man es nicht mit einer Funktion f {\displaystyle f} , sondern mit einer Folge ( f n ) n N {\displaystyle (f_{n})_{n\in \mathbb {N} }} zu tun. Dabei muss geklärt werden, inwieweit sich der Ableitungsoperator mit Prozessen wie Grenzwerten, Summen oder Integralen verträgt.

Grenzfunktionen

Bei einer konvergenten, differenzierbaren Funktionenfolge ( f n ) n N {\displaystyle (f_{n})_{n\in \mathbb {N} }} ist es im Allgemeinen nicht möglich, Rückschlüsse auf den Grenzwert der Folge ( f n ) n N {\displaystyle (f_{n}')_{n\in \mathbb {N} }} zu ziehen, selbst dann nicht, wenn ( f n ) n N {\displaystyle (f_{n})_{n\in \mathbb {N} }} gleichmäßig konvergiert. Die analoge Aussage in der Integralrechnung ist hingegen richtig: Bei gleichmäßiger Konvergenz können Limes und Integral vertauscht werden, zumindest dann, wenn die Grenzfunktion „gutartig“ ist.

Aus dieser Tatsache kann zumindest Folgendes geschlossen werden: Sei f n : [ a , b ] R {\displaystyle f_{n}\colon [a,b]\to \mathbb {R} } eine Folge stetig differenzierbarer Funktionen, sodass die Folge der Ableitungen f n : [ a , b ] R {\displaystyle f_{n}'\colon [a,b]\to \mathbb {R} } gleichmäßig gegen eine Funktion g : [ a , b ] R {\displaystyle g\colon [a,b]\to \mathbb {R} } konvergiert. Es gelte außerdem, dass die Folge f n ( x 0 ) {\displaystyle f_{n}(x_{0})} für mindestens einen Punkt x 0 [ a , b ] {\displaystyle x_{0}\in [a,b]} konvergiert. Dann konvergiert f n : [ a , b ] R {\displaystyle f_{n}\colon [a,b]\to \mathbb {R} } bereits gleichmäßig gegen eine differenzierbare Funktion g : [ a , b ] R {\displaystyle g\colon [a,b]\to \mathbb {R} } und es gilt f = g {\displaystyle f'=g} .[48]

Vertauschen mit unendlichen Reihen

Sei f n : [ a , b ] R {\displaystyle f_{n}\colon [a,b]\to \mathbb {R} } eine Folge stetig differenzierbarer Funktionen, sodass die Reihe n = 1 | | f n | | {\displaystyle \textstyle \sum _{n=1}^{\infty }||f_{n}'||_{\infty }} konvergiert, wobei | | f n | | := sup x [ a , b ] | f n ( x ) | {\displaystyle ||f_{n}'||_{\infty }:=\sup _{x\in [a,b]}|f_{n}'(x)|} die Supremumsnorm bezeichnet. Konvergiert außerdem die Reihe n = 1 f n ( x 0 ) {\displaystyle \textstyle \sum _{n=1}^{\infty }f_{n}(x_{0})} für ein x 0 [ a , b ] {\displaystyle x_{0}\in [a,b]} , dann konvergiert die Funktionenreihe g N := n = 1 N f n {\displaystyle \textstyle g_{N}:=\sum _{n=1}^{N}f_{n}} gleichmäßig gegen eine differenzierbare Funktion, und es gilt[49]

( n = 1 f n ) ( x ) = n = 1 f n ( x ) . {\displaystyle \left(\sum _{n=1}^{\infty }f_{n}\right)'(x)=\sum _{n=1}^{\infty }f_{n}'(x).}

Das Resultat geht auf Karl Weierstraß zurück.[50]

Vertauschen mit Integration

Es sei f : [ a , b ] × [ c , d ] R {\displaystyle f\colon [a,b]\times [c,d]\to \mathbb {R} } eine stetige Funktion, sodass die partielle Ableitung

( t , x ) x f ( t , x ) {\displaystyle (t,x)\mapsto {\frac {\partial }{\partial x}}f(t,x)}

existiert und stetig ist. Dann ist auch

g ( x ) := a b f ( t , x ) d t {\displaystyle g(x):=\int _{a}^{b}f(t,x)\mathrm {d} t}

differenzierbar, und es gilt

g ( x ) = a b x f ( t , x ) d t . {\displaystyle g'(x)=\int _{a}^{b}{\frac {\partial }{\partial x}}f(t,x)\mathrm {d} t.}

Diese Regel wird auch als Leibnizsche Regel bezeichnet.[51]

Differentialrechnung über den komplexen Zahlen

Bisher wurde nur von reellen Funktionen gesprochen. Alle behandelten Regeln lassen sich jedoch auf Funktionen mit komplexen Eingaben und Werten übertragen. Dies hat den Hintergrund, dass die komplexen Zahlen C {\displaystyle \mathbb {C} } genau wie die reellen Zahlen einen Körper bilden, dort also Addition, Multiplikation und Division erklärt ist. Diese zusätzliche Struktur bildet den entscheidenden Unterschied zu einer Herangehensweise mehrdimensionaler reeller Ableitungen, wenn C {\displaystyle \mathbb {C} } bloß als zweidimensionaler R {\displaystyle \mathbb {R} } -Vektorraum aufgefasst wird. Ferner lassen sich die euklidischen Abstandsbegriffe der reellen Zahlen (siehe auch Euklidischer Raum) auf natürliche Weise auf komplexe Zahlen übertragen. Dies erlaubt eine analoge Definition und Behandlung der für die Differentialrechnung wichtigen Begriffe wie Folge und Grenzwert.[52]

Ist also U C {\displaystyle U\subset \mathbb {C} } offen, f : U C {\displaystyle f\colon U\to \mathbb {C} } eine komplexwertige Funktion, so heißt f {\displaystyle f} an der Stelle z U {\displaystyle z\in U} komplex differenzierbar, wenn der Grenzwert

lim h 0 f ( z + h ) f ( z ) h {\displaystyle \lim _{h\to 0}{\frac {f(z+h)-f(z)}{h}}}

existiert.[53] Dieser wird mit f ( z ) {\displaystyle f'(z)} bezeichnet und (komplexe) Ableitung von f {\displaystyle f} an der Stelle z {\displaystyle z} genannt. Es ist demnach möglich, den Begriff der Linearisierung ins Komplexe weiterzutragen: Die Ableitung f ( z ) {\displaystyle f'(z)} ist die „Steigung“ der linearen Funktion, die f {\displaystyle f} bei z {\displaystyle z} optimal approximiert. Allerdings ist darauf zu achten, dass der Wert h {\displaystyle h} im Grenzwert nicht nur reelle, sondern auch komplexe Zahlen (nahe bei 0) annehmen kann. Dies hat zur Folge, dass der Terminus der komplexen Differenzierbarkeit wesentlich restriktiver ist als jener der reellen Differenzierbarkeit. Während im Reellen nur zwei Richtungen im Differenzenquotienten betrachtet werden mussten, sind es im Komplexen unendlich viele Richtungen, da diese keine Gerade, sondern eine Ebene aufspannen. So ist beispielsweise die Betragsfunktion z | z | {\displaystyle z\mapsto |z|} nirgends komplex differenzierbar. Eine komplexe Funktion ist genau dann komplex differenzierbar in einem Punkt, wenn sie dort die Cauchy-Riemannschen Differentialgleichungen erfüllt und total differenzierbar ist.[54]

Trotz (bzw. gerade wegen) des viel einschränkenderen Begriffs der komplexen Differenzierbarkeit übertragen sich alle üblichen Rechenregeln der reellen Differentialrechnung in die komplexe Differentialrechnung. Dazu gehören die Ableitungsregeln, also zum Beispiel Summen-, Produkt- und Kettenregel, wie auch die Umkehrregel für inverse Funktionen. Viele Funktionen, wie Potenzen, die Exponentialfunktion oder der Logarithmus, haben natürliche Fortsetzungen in die komplexen Zahlen und besitzen weiterhin ihre charakteristischen Eigenschaften. Von diesem Gesichtspunkt her ist die komplexe Differentialrechnung mit ihrem reellen Analogon identisch.

Wenn eine Funktion f {\displaystyle f} in ganz U {\displaystyle U} komplex differenzierbar ist, nennt man sie auch eine in U {\displaystyle U} holomorphe Funktion.[55] Holomorphe Funktionen haben bedeutende Eigenschaften. So ist zum Beispiel jede holomorphe Funktion bereits (in jedem Punkt) beliebig oft differenzierbar. Die daraus aufkommende Klassifizierungfrage holomorpher Funktionen ist Gegenstand der Funktionentheorie. Es stellt sich heraus, dass im komplex-eindimensionalen Fall der Begriff holomorph äquivalent zum Begriff analytisch ist. Demnach ist jede holomorphe Funktion analytisch, und umgekehrt. Ist eine Funktion sogar in ganz C {\displaystyle \mathbb {C} } holomorph, so nennt man sie ganz. Beispiele für ganze Funktionen sind die Potenzfunktionen z z n {\displaystyle z\mapsto z^{n}} mit natürlichen Zahlen n {\displaystyle n} sowie z e z {\displaystyle z\mapsto e^{z}} , z sin ( z ) {\displaystyle z\mapsto \sin(z)} und z cos ( z ) {\displaystyle z\mapsto \cos(z)} .

Differentialrechnung mehrdimensionaler Funktionen

Alle vorherigen Ausführungen legten eine Funktion in einer Variablen (also mit einer reellen oder komplexen Zahl als Argument) zugrunde. Funktionen, die Vektoren auf Vektoren oder Vektoren auf Zahlen abbilden, können ebenfalls eine Ableitung haben. Allerdings ist eine Tangente an den Funktionsgraph in diesen Fällen nicht mehr eindeutig bestimmt, da es viele verschiedene Richtungen gibt. Hier ist also eine Erweiterung des bisherigen Ableitungsbegriffs notwendig.

Mehrdimensionale Differenzierbarkeit und die Jacobi-Matrix

Richtungsableitung

Hauptartikel: Richtungsableitung

Es sei U R n {\displaystyle U\subset \mathbb {R} ^{n}} offen, f : U R m {\displaystyle f\colon U\to \mathbb {R} ^{m}} eine Funktion, x 0 U {\displaystyle x_{0}\in U} und v R n { 0 } {\displaystyle v\in \mathbb {R} ^{n}\setminus \{0\}} ein (Richtungs-)Vektor. Aufgrund der Offenheit von U {\displaystyle U} gibt es ein ε > 0 {\displaystyle \varepsilon >0} mit x 0 + h v U {\displaystyle x_{0}+hv\in U} für alle | h | < ε {\displaystyle |h|<\varepsilon } , weshalb die Funktion ( ε , ε ) R m {\displaystyle (-\varepsilon ,\varepsilon )\to \mathbb {R} ^{m}} mit h f ( x 0 + h v ) {\displaystyle h\mapsto f(x_{0}+hv)} wohldefiniert ist. Ist diese Funktion in h = 0 {\displaystyle h=0} differenzierbar, so heißt ihre Ableitung Richtungsableitung von f {\displaystyle f} an der Stelle x 0 {\displaystyle x_{0}} in der Richtung v {\displaystyle v} und wird meistens mit D v f ( x 0 ) {\displaystyle D_{v}f(x_{0})} bezeichnet.[56] Es gilt:

D v f ( x 0 ) = lim h 0 f ( x 0 + h v ) f ( x 0 ) h . {\displaystyle D_{v}f(x_{0})=\lim _{h\to 0}{\frac {f(x_{0}+hv)-f(x_{0})}{h}}.}

Es besteht ein Zusammenhang zwischen der Richtungsableitung und der Jacobi-Matrix. Ist f {\displaystyle f} differenzierbar, dann existiert D v f ( x 0 ) {\displaystyle D_{v}f(x_{0})} und es gilt in einer Umgebung von x 0 {\displaystyle x_{0}} :

f ( x 0 + h v ) = f ( x 0 ) + J f ( x 0 ) ( h v ) + o ( | | h v | | ) = f ( x 0 ) + h J f ( x 0 ) v + o ( | h | ) , {\displaystyle f(x_{0}+hv)=f(x_{0})+J_{f}(x_{0})(hv)+o(||hv||)=f(x_{0})+hJ_{f}(x_{0})v+o(|h|),}

wobei die Schreibweise o {\displaystyle o} das entsprechende Landau-Symbol bezeichnet.[57]

Es werde als Beispiel eine Funktion R 3 R {\displaystyle \mathbb {R} ^{3}\to \mathbb {R} } betrachtet, also ein Skalarfeld. Diese könnte eine Temperaturfunktion sein: In Abhängigkeit vom Ort wird die Temperatur im Zimmer gemessen, um zu beurteilen, wie effektiv die Heizung ist. Wird das Thermometer in eine bestimmte Raumrichtung bewegt, ist eine Veränderung der Temperatur festzustellen. Dies entspricht genau der entsprechenden Richtungsableitung.

Partielle Ableitungen

Hauptartikel: Partielle Ableitung

Die Richtungsableitungen in spezielle Richtungen e j {\displaystyle e_{j}} , nämlich in die der Koordinatenachsen mit der Länge | | e j | | = | | v | | = 1 {\displaystyle ||e_{j}||=||v||=1} , nennt man die partiellen Ableitungen.

Insgesamt lassen sich für eine Funktion in n {\displaystyle n} Variablen n {\displaystyle n} partielle Ableitungen errechnen:[58]

f ( x 1 , , x n ) x i = lim h i 0 f ( x 1 , , x i + h i , , x n ) f ( x 1 , , x i , , x n ) h i ; i { 1 , , n } {\displaystyle {\frac {\partial f(x_{1},\dots ,x_{n})}{\partial x_{i}}}=\lim _{h_{i}\to 0}{\frac {f(x_{1},\dots ,x_{i}+h_{i},\dots ,x_{n})-f(x_{1},\dots ,x_{i},\dots ,x_{n})}{h_{i}}};\quad i\in \{1,\dots ,n\}}

Die einzelnen partiellen Ableitungen einer Funktion lassen sich auch gebündelt als Gradient oder Nablavektor anschreiben:[59]

g r a d ( f ) ( x 1 , , x n ) = f ( x 1 , , x n ) = ( f ( x 1 , , x n ) x 1 , f ( x 1 , , x n ) x 2 , , f ( x 1 , , x n ) x n ) . {\displaystyle \mathrm {grad} (f)(x_{1},\dots ,x_{n})=\nabla f(x_{1},\dots ,x_{n})=\left({\frac {\partial f(x_{1},\dots ,x_{n})}{\partial x_{1}}},{\frac {\partial f(x_{1},\dots ,x_{n})}{\partial x_{2}}},\dots ,{\frac {\partial f(x_{1},\dots ,x_{n})}{\partial x_{n}}}\right).}

Meist wird der Gradient als Zeilenvektor (also „liegend“) geschrieben. In manchen Anwendungen, besonders in der Physik, ist jedoch auch die Schreibweise als Spaltenvektor (also „stehend“) üblich. Partielle Ableitungen können selbst differenzierbar sein und ihre partiellen Ableitungen lassen sich dann in der sogenannten Hesse-Matrix anordnen.

Totale Differenzierbarkeit

Hauptartikel: Totale Differenzierbarkeit

Eine Funktion f : U R n R m {\displaystyle f\colon U\subset \mathbb {R} ^{n}\to \mathbb {R} ^{m}} mit ( x 1 , , x n ) ( f 1 ( x 1 , , x n ) , , f m ( x 1 , , x n ) ) {\displaystyle (x_{1},\dots ,x_{n})\mapsto (f_{1}(x_{1},\dots ,x_{n}),\dots ,f_{m}(x_{1},\dots ,x_{n}))} , wobei U {\displaystyle U} eine offene Menge ist, heißt in einem Punkt x 0 U {\displaystyle x_{0}\in U} total differenzierbar (oder auch nur differenzierbar, manchmal auch Fréchet-differenzierbar[56]), falls eine lineare Abbildung L : R n R m {\displaystyle L\colon \mathbb {R} ^{n}\to \mathbb {R} ^{m}} existiert, sodass

lim h 0 f ( x 0 + h ) f ( x 0 ) L ( h ) h = 0 {\displaystyle \lim _{h\to 0}{\frac {f(x_{0}+h)-f(x_{0})-L(h)}{\|h\|}}=0}

gilt.[60] Für den eindimensionalen Fall stimmt diese Definition mit der oben angegebenen überein. Die lineare Abbildung L {\displaystyle L} ist bei Existenz eindeutig bestimmt, ist also insbesondere unabhängig von der Wahl äquivalenter Normen. Die Tangente wird daher durch die lokale Linearisierung der Funktion abstrahiert. Die Matrixdarstellung der ersten Ableitung von f {\displaystyle f} nennt man Jacobi-Matrix. Es handelt sich um eine ( m × n ) {\displaystyle (m\times n)} -Matrix. Für m = 1 {\displaystyle m=1} erhält man den weiter oben beschriebenen Gradienten.

Zwischen den partiellen Ableitungen und der totalen Ableitung besteht folgender Zusammenhang: Existiert in einem Punkt die totale Ableitung, so existieren dort auch alle partiellen Ableitungen. In diesem Fall stimmen die partiellen Ableitungen mit den Koeffizienten der Jacobi-Matrix überein:

L = J f ( x 0 ) = ( f 1 x 1 ( x 0 ) f 1 x 2 ( x 0 ) f 1 x n ( x 0 ) f m x 1 ( x 0 ) f m x 2 ( x 0 ) f m x n ( x 0 ) ) . {\displaystyle L=J_{f}(x_{0})={\begin{pmatrix}{\frac {\partial f_{1}}{\partial x_{1}}}(x_{0})&{\frac {\partial f_{1}}{\partial x_{2}}}(x_{0})&\ldots &{\frac {\partial f_{1}}{\partial x_{n}}}(x_{0})\\\vdots &\vdots &\ddots &\vdots \\{\frac {\partial f_{m}}{\partial x_{1}}}(x_{0})&{\frac {\partial f_{m}}{\partial x_{2}}}(x_{0})&\ldots &{\frac {\partial f_{m}}{\partial x_{n}}}(x_{0})\end{pmatrix}}.}

Umgekehrt folgt aus der Existenz der partiellen Ableitungen in einem Punkt x 0 {\displaystyle x_{0}} nicht zwingend die totale Differenzierbarkeit, ja nicht einmal die Stetigkeit. Sind die partiellen Ableitungen jedoch zusätzlich in einer Umgebung von x 0 {\displaystyle x_{0}} stetig, dann ist die Funktion in x 0 {\displaystyle x_{0}} auch total differenzierbar.[61]

Rechenregeln der mehrdimensionalen Differentialrechnung

Kettenregel

Es seien U R n {\displaystyle U\subset \mathbb {R} ^{n}} und V R m {\displaystyle V\subset \mathbb {R} ^{m}} offen sowie f : U R m {\displaystyle f\colon U\to \mathbb {R} ^{m}} und g : V R {\displaystyle g\colon V\to \mathbb {R} ^{\ell }} in x 0 U {\displaystyle x_{0}\in U} bzw. y 0 := f ( x 0 ) {\displaystyle y_{0}:=f(x_{0})} differenzierbar, wobei f ( U ) V {\displaystyle f(U)\subset V} . Dann ist h : U R {\displaystyle h\colon U\to \mathbb {R} ^{\ell }} mit h ( x ) := g ( f ( x ) ) {\displaystyle h(x):=g(f(x))} in x 0 {\displaystyle x_{0}} differenzierbar mit Jacobi-Matrix

J h ( x 0 ) = J g f ( x 0 ) = J g ( f ( x 0 ) ) J f ( x 0 ) . {\displaystyle J_{h}(x_{0})=J_{g\circ f}(x_{0})=J_{g}(f(x_{0}))J_{f}(x_{0}).}

Mit anderen Worten, die Jacobi-Matrix der Komposition h = g f {\displaystyle h=g\circ f} ist das Produkt der Jacobi-Matrizen von g {\displaystyle g} und f {\displaystyle f} .[62] Es ist zu beachten, dass die Reihenfolge der Faktoren im Gegensatz zum klassischen eindimensionalen Fall eine Rolle spielt.

Produktregel

Mit Hilfe der Kettenregel kann die Produktregel auf reellwertige Funktionen mit höherdimensionalem Definitionsbereich verallgemeinert werden.[63] Ist U R n {\displaystyle U\subset \mathbb {R} ^{n}} offen und sind f , g : U R {\displaystyle f,g\colon U\to \mathbb {R} } beide in x 0 U {\displaystyle x_{0}\in U} differenzierbar, so folgt

J f g ( x 0 ) = f ( x 0 ) J g ( x 0 ) + g ( x 0 ) J f ( x 0 ) {\displaystyle J_{fg}(x_{0})=f(x_{0})J_{g}(x_{0})+g(x_{0})J_{f}(x_{0})}

oder in der Gradientenschreibweise

( f g ) ( x 0 ) = f ( x 0 ) g ( x 0 ) + g ( x 0 ) f ( x 0 ) . {\displaystyle \nabla (fg)(x_{0})=f(x_{0})\nabla g(x_{0})+g(x_{0})\nabla f(x_{0}).}

Funktionenfolgen

Sei U R n {\displaystyle U\subset \mathbb {R} ^{n}} offen. Es bezeichne f k {\displaystyle f_{k}} eine Folge stetig differenzierbarer Funktionen f k : U R m {\displaystyle f_{k}\colon U\to \mathbb {R} ^{m}} , sodass es Funktionen f : U R m {\displaystyle f\colon U\to \mathbb {R} ^{m}} und g : U L ( R n , R m ) {\displaystyle g\colon U\to {\mathcal {L}}(\mathbb {R} ^{n},\mathbb {R} ^{m})} gibt (dabei ist L ( R n , R m ) {\displaystyle {\mathcal {L}}(\mathbb {R} ^{n},\mathbb {R} ^{m})} der Raum der linearen Abbildungen von R n {\displaystyle \mathbb {R} ^{n}} nach R m {\displaystyle \mathbb {R} ^{m}} ), sodass Folgendes gilt:

  • ( f k ) {\displaystyle (f_{k})} konvergiert punktweise gegen f {\displaystyle f} ,
  • ( J f k ) {\displaystyle (J_{f_{k}})} konvergiert lokal gleichmäßig gegen g {\displaystyle g} .

Dann ist f {\displaystyle f} stetig differenzierbar auf U {\displaystyle U} und es gilt J f ( x ) = g ( x ) {\displaystyle J_{f}(x)=g(x)} .[64]

Implizite Differentiation

Hauptartikel: Implizite Differentiation

Ist eine Funktion x y ( x ) {\displaystyle x\mapsto y(x)} durch eine implizite Gleichung F ( x , y ( x ) ) = 0 {\displaystyle F(x,y(x))=0} gegeben, so folgt aus der mehrdimensionalen Kettenregel, die für Funktionen mehrerer Variablen gilt,

F x + F y y = 0. {\displaystyle F_{x}+F_{y}y'=0.}

Für die Ableitung der Funktion y {\displaystyle y} ergibt sich daher

y = F x F y {\displaystyle y'=-{\frac {F_{x}}{F_{y}}}}

mit F x = F x , F y = F y {\displaystyle F_{x}={\frac {\partial F}{\partial x}},F_{y}={\frac {\partial F}{\partial y}}} und F y 0. {\displaystyle F_{y}\neq 0.}

Zentrale Sätze der Differentialrechnung mehrerer Veränderlicher

Satz von Schwarz

Hauptartikel: Satz von Schwarz

Die Differentiationsreihenfolge ist bei der Berechnung partieller Ableitungen höherer Ordnung unerheblich, wenn alle partiellen Ableitungen bis zu dieser Ordnung (einschließlich) stetig sind. Dies bedeutet konkret: Ist U R n {\displaystyle U\subset \mathbb {R} ^{n}} offen und die Funktion f : U R {\displaystyle f\colon U\to \mathbb {R} } zweimal stetig differenzierbar (d. h., alle zweifachen partiellen Ableitungen existieren und sind stetig), so gilt für alle 1 j , k n {\displaystyle 1\leq j,k\leq n} und x U {\displaystyle x\in U} :

x j x k f ( x 1 , , x n ) = x k x j f ( x 1 , , x n ) . {\displaystyle {\frac {\partial }{\partial x_{j}}}{\frac {\partial }{\partial x_{k}}}f(x_{1},\dots ,x_{n})={\frac {\partial }{\partial x_{k}}}{\frac {\partial }{\partial x_{j}}}f(x_{1},\dots ,x_{n}).}

Der Satz wird falsch, wenn die Stetigkeit der zweifachen partiellen Ableitungen weggelassen wird.[65]

Satz von der impliziten Funktion

Der Satz von der impliziten Funktion besagt, dass Funktionsgleichungen auflösbar sind, falls die Jacobi-Matrix bezüglich bestimmter Variablen lokal invertierbar ist.[66]

Mittelwertsatz

Über den höherdimensionalen Mittelwertsatz gelingt es, eine Funktion entlang einer Verbindungsstrecke abzuschätzen, wenn die dortigen Ableitungen bekannt sind. Seien U R n {\displaystyle U\subset \mathbb {R} ^{n}} offen und f : U R m {\displaystyle f\colon U\to \mathbb {R} ^{m}} differenzierbar. Gegeben seien zudem zwei Punkte x , y U {\displaystyle x,y\in U} , sodass die Verbindungsstrecke { x + t ( y x ) 0 t 1 } {\displaystyle \{x+t(y-x)\mid 0\leq t\leq 1\}} eine Teilmenge von U {\displaystyle U} ist. Dann postuliert der Mittelwertsatz die Ungleichung:[67]

| | f ( y ) f ( x ) | | sup 0 t 1 | | J f ( x + t ( y x ) ) | | | | y x | | . {\displaystyle ||f(y)-f(x)||\leq \sup _{0\leq t\leq 1}||J_{f}(x+t(y-x))||\cdot ||y-x||.}

Eine präzisere Aussage ist indes für den Fall reellwertiger Funktionen in mehreren Veränderlichen möglich, siehe auch Mittelwertsatz für reellwertige Funktionen mehrerer Variablen.

Höhere Ableitungen im Mehrdimensionalen

Auch im Fall höherdimensionaler Funktionen können höhere Ableitungen betrachtet werden. Die Konzepte haben jedoch einige starke Unterschiede zum klassischen Fall, die besonders im Falle mehrerer Veränderlicher in Erscheinung treten. Bereits die Jacobi-Matrix lässt erkennen, dass die Ableitung einer höherdimensionalen Funktion an einer Stelle nicht mehr die gleiche Gestalt wie der dortige Funktionswert haben muss. Wird nun die erste Ableitung x J f ( x ) {\displaystyle x\mapsto J_{f}(x)} erneut abgeleitet, so ist die erneute „Jacobi-Matrix“ im Allgemeinen ein noch umfangreicheres Objekt. Für dessen Beschreibung ist das Konzept der multilinearen Abbildungen bzw. des Tensors erforderlich. Ist 0 f := f {\displaystyle \partial ^{0}f:=f} , so ordnet f : U L ( R n , R m ) {\displaystyle \partial f\colon U\to {\mathcal {L}}(\mathbb {R} ^{n},\mathbb {R} ^{m})} jedem Punkt eine ( m × n ) {\displaystyle (m\times n)} -Matrix (lineare Abbildung von R n {\displaystyle \mathbb {R} ^{n}} nach R m {\displaystyle \mathbb {R} ^{m}} ) zu. Induktiv definiert man für die höheren Ableitungen

f ( x 0 ) := ( 1 f ) ( x 0 ) L ( R n , L 1 ( R n , R m ) ) = L ( R n , R m ) , {\displaystyle \partial ^{\ell }f(x_{0}):=\partial (\partial ^{\ell -1}f)(x_{0})\in {\mathcal {L}}(\mathbb {R} ^{n},{\mathcal {L}}^{\ell -1}(\mathbb {R} ^{n},\mathbb {R} ^{m}))={\mathcal {L}}^{\ell }(\mathbb {R} ^{n},\mathbb {R} ^{m}),}

wobei L ( R n , R m ) {\displaystyle {\mathcal {L}}^{\ell }(\mathbb {R} ^{n},\mathbb {R} ^{m})} der Raum der {\displaystyle \ell } -multilinearen Abbildungen von R n × × R n m a l {\displaystyle \underbrace {\mathbb {R} ^{n}\times \cdots \times \mathbb {R} ^{n}} _{\ell -\mathrm {mal} }} nach R m {\displaystyle \mathbb {R} ^{m}} bezeichnet. Analog wie im eindimensionalen Fall definiert man die Räume der {\displaystyle \ell } -mal stetig differenzierbaren Funktionen auf U R n {\displaystyle U\subset \mathbb {R} ^{n}} durch C ( U , R m ) {\displaystyle C^{\ell }(U,\mathbb {R} ^{m})} , und die glatten Funktion via[68]

C ( U , R m ) := = 1 C ( U , R m ) . {\displaystyle C^{\infty }(U,\mathbb {R} ^{m}):=\bigcap _{\ell =1}^{\infty }C^{\ell }(U,\mathbb {R} ^{m}).}

Auch die Konzepte der Taylor-Formeln und der Taylorreihe lassen sich auf den höherdimensionalen Fall verallgemeinern, siehe auch Taylor-Formel im Mehrdimensionalen bzw. mehrdimensionale Taylorreihe.

Anwendungen

Fehlerrechnung

Ein Anwendungsbeispiel der Differentialrechnung mehrerer Veränderlicher betrifft die Fehlerrechnung, zum Beispiel im Kontext der Experimentalphysik. Während man im einfachsten Falle die zu bestimmende Größe direkt messen kann, wird es meistens der Fall sein, dass sie sich durch einen funktionalen Zusammenhang aus einfacher zu messenden Größen ergibt. Typischerweise hat jede Messung eine gewisse Unsicherheit, die man durch Angabe des Messfehlers zu quantifizieren versucht.[69]

Bezeichnet zum Beispiel V : R > 0 3 R {\displaystyle V\colon \mathbb {R} _{>0}^{3}\to \mathbb {R} } mit ( l , b , h ) l b h {\displaystyle (l,b,h)\mapsto lbh} das Volumen eines Quaders, so könnte das Ergebnis V {\displaystyle V} experimentell ermittelt werden, indem man Länge l {\displaystyle l} , Breite b {\displaystyle b} und Höhe h {\displaystyle h} einzeln misst. Treten bei diesen die Fehler Δ l {\displaystyle \Delta l} , Δ b {\displaystyle \Delta b} und Δ h {\displaystyle \Delta h} auf, so gilt für den Fehler in der Volumenberechnung:

Δ V = b h Δ l + h l Δ b + l b Δ h . {\displaystyle \Delta V=bh\Delta l+hl\Delta b+lb\Delta h.}

Allgemein gilt, dass wenn eine zu messende Größe funktional von einzeln gemessenen Größen x 1 , , x n {\displaystyle x_{1},\dots ,x_{n}} durch f : R n R {\displaystyle f\colon \mathbb {R} ^{n}\to \mathbb {R} } abhängt und bei deren Messungen jeweils die Fehler Δ x k {\displaystyle \Delta x_{k}} entstehen, der Fehler der daraus errechneten Größe ungefähr bei

Δ f = k = 1 n | f x k ( m ) | Δ x k {\displaystyle \Delta f=\sum _{k=1}^{n}\left|{\frac {\partial f}{\partial x_{k}}}({\boldsymbol {m}})\right|\Delta x_{k}}

liegen wird. Dabei bezeichnet der Vektor m {\displaystyle {\boldsymbol {m}}} die exakten Terme der einzelnen Messungen.[69]

Lösungsnäherung von Gleichungssystemen

Viele höhere Gleichungssysteme lassen sich nicht algebraisch geschlossen lösen. In manchen Fällen kann man aber zumindest eine ungefähre Lösung ermitteln. Ist das System durch f ( x ) = 0 {\displaystyle f({\boldsymbol {x}})={\boldsymbol {0}}} gegeben, mit einer stetig differenzierbaren Funktion f : R m R m {\displaystyle f\colon \mathbb {R} ^{m}\to \mathbb {R} ^{m}} , so konvergiert die Iterationsvorschrift

x n + 1 := x n J f ( x n ) 1 f ( x n ) {\displaystyle {\boldsymbol {x}}_{n+1}:={\boldsymbol {x}}_{n}-J_{f}({\boldsymbol {x}}_{n})^{-1}f({\boldsymbol {x}}_{n})}

unter gewissen Voraussetzungen gegen eine Nullstelle. Dabei bezeichnet J f ( x n ) 1 {\displaystyle J_{f}({\boldsymbol {x}}_{n})^{-1}} das Inverse der Jacobi-Matrix zu f {\displaystyle f} . Der Prozess stellt eine Verallgemeinerung des klassischen eindimensionalen Newton-Verfahrens dar. Aufwendig ist allerdings die Berechnung dieser Inversen in jedem Schritt. Unter Verschlechterung der Konvergenzrate kann in manchen Fällen die Modifikation J f ( x 0 ) 1 {\displaystyle J_{f}({\boldsymbol {x}}_{0})^{-1}} statt J f ( x n ) 1 {\displaystyle J_{f}({\boldsymbol {x}}_{n})^{-1}} vorgenommen werden, womit nur eine Matrix invertiert werden muss.[70]

Extremwertaufgaben

Auch für die Kurvendiskussion von Funktionen f : R m R {\displaystyle f\colon \mathbb {R} ^{m}\to \mathbb {R} } ist die Auffindung von Minima bzw. Maxima, zusammengefasst Extrema, ein wesentliches Anliegen. Die mehrdimensionale Differentialrechnung liefert Möglichkeiten, diese zu bestimmen, sofern die betrachtete Funktion zweimal stetig differenzierbar ist. Analog zum Eindimensionalen besagt die notwendige Bedingung für die Existenz für Extrema, dass im besagten Punkt x {\displaystyle {\boldsymbol {x}}} alle partiellen Ableitungen 0 sein müssen, also

f x j ( x ) = 0 {\displaystyle {\frac {\partial f}{\partial x_{j}}}({\boldsymbol {x}})=0}

für alle 1 j m {\displaystyle 1\leq j\leq m} . Dieses Kriterium ist nicht hinreichend, dient aber dazu, diese kritischen Punkte als mögliche Kandidaten für Extrema zu ermitteln. Unter Bestimmung der Hesse-Matrix, der zweiten Ableitung, kann anschließend in manchen Fällen entschieden werden, um welche Art Extremstelle es sich handelt.[71] Im Gegensatz zum Eindimensionalen ist die Formenvielfalt kritischer Punkte größer. Mittels einer Hauptachsentransformation, also einer detaillierten Untersuchung der Eigenwerte, der durch eine mehrdimensionale Taylor-Entwicklung im betrachteten Punkt gegebenen quadratischen Form lassen sich die verschiedenen Fälle klassifizieren.[72]

Optimierung unter Nebenbedingungen

Häufig ist bei Optimierungsproblemen die Zielfunktion f : R m R {\displaystyle f\colon \mathbb {R} ^{m}\to \mathbb {R} } lediglich auf einer Teilmenge D R m {\displaystyle D\subset \mathbb {R} ^{m}} zu minimieren, wobei D {\displaystyle D} durch sog. Nebenbedingungen bzw. Restriktionen bestimmt ist. Ein Verfahren, das zur Lösung solcher Probleme herangezogen werden kann, ist die Lagrangesche Multiplikatorregel.[73] Diese nutzt die mehrdimensionale Differentialrechnung und lässt sich sogar auf Ungleichungsnebenbedingungen ausweiten.[74]

Beispiel aus der Mikroökonomie

Neoklassische Produktionsfunktion
Neoklassische Produktionsfunktion

In der Mikroökonomie werden beispielsweise verschiedene Arten von Produktionsfunktionen analysiert, um daraus Erkenntnisse für makroökonomische Zusammenhänge zu gewinnen. Hier ist vor allem das typische Verhalten einer Produktionsfunktion von Interesse: Wie reagiert die abhängige Variable Output y {\displaystyle y} (z. B. Output einer Volkswirtschaft), wenn die Inputfaktoren (hier: Arbeit und Kapital) um eine infinitesimal kleine Einheit erhöht werden?

Ein Grundtyp einer Produktionsfunktion ist etwa die neoklassische Produktionsfunktion. Sie zeichnet sich unter anderem dadurch aus, dass der Output bei jedem zusätzlichen Input steigt, dass aber die Zuwächse abnehmend sind. Es sei beispielsweise für eine Volkswirtschaft die Cobb-Douglas-Funktion

F ( K , L ) = T K α L 1 α {\displaystyle F(K,L)=T\cdot K^{\alpha }L^{1-\alpha }} mit α ( 0 , 1 ) {\displaystyle \alpha \in (0,1)}

maßgebend. Zu jedem Zeitpunkt wird in der Volkswirtschaft unter dem Einsatz der Produktionsfaktoren Arbeit L {\displaystyle L} und Kapital K {\displaystyle K} mithilfe eines gegebenen Technologielevels T {\displaystyle T} Output produziert. Die erste Ableitung dieser Funktion nach den Produktionsfaktoren ergibt:

F ( K , L ) L = ( 1 α ) T K α L α {\displaystyle {\frac {\partial F(K,L)}{\partial L}}=(1-\alpha )\cdot T\cdot K^{\alpha }L^{-\alpha }}
F ( K , L ) K = α T K ( 1 α ) L 1 α {\displaystyle {\frac {\partial F(K,L)}{\partial K}}=\alpha \cdot T\cdot K^{-(1-\alpha )}L^{1-\alpha }} .

Da die partiellen Ableitungen aufgrund der Beschränkung α ( 0 , 1 ) {\displaystyle \alpha \in (0,1)} nur positiv werden können, sieht man, dass der Output bei einer Erhöhung der jeweiligen Inputfaktoren steigt. Die partiellen Ableitungen 2. Ordnung ergeben:

2 F ( K , L ) L 2 = α ( 1 α ) T K α L ( 1 + α ) {\displaystyle {\frac {\partial ^{2}F(K,L)}{\partial L^{2}}}=-\alpha (1-\alpha )\cdot T\cdot K^{\alpha }L^{-(1+\alpha )}}
2 F ( K , L ) K 2 = α ( 1 α ) T K ( 2 α ) L 1 α {\displaystyle {\frac {\partial ^{2}F(K,L)}{\partial K^{2}}}=-\alpha (1-\alpha )\cdot T\cdot K^{-(2-\alpha )}L^{1-\alpha }} .

Sie werden für alle Inputs negativ sein, also fallen die Zuwachsraten. Man könnte also sagen, dass bei steigendem Input der Output unterproportional steigt. Die relative Änderung des Outputs im Verhältnis zu einer relativen Änderung des Inputs ist hier durch die Elastizität η i f ( x ) x i x i f ( x ) {\displaystyle \eta _{i}\equiv {\tfrac {\partial f(x)}{\partial x_{i}}}{\tfrac {x_{i}}{f(x)}}} gegeben. Vorliegend bezeichnet η K F ( K , L ) K K F ( K , L ) {\displaystyle \eta _{K}\equiv {\tfrac {\partial F(K,L)}{\partial K}}{\tfrac {K}{F(K,L)}}} die Produktionselastizität des Kapitals, die bei dieser Produktionsfunktion dem Exponenten α {\displaystyle \alpha } entspricht, der wiederum die Kapitaleinkommensquote repräsentiert. Folglich steigt der Output bei einer infinitesimal kleinen Erhöhung des Kapitals um die Kapitaleinkommensquote.

Weiterführende Theorien

Differentialgleichungen

Hauptartikel: Differentialgleichung

Eine wichtige Anwendung der Differentialrechnung besteht in der mathematischen Modellierung physikalischer Vorgänge. Wachstum, Bewegung oder Kräfte haben alle mit Ableitungen zu tun, ihre formelhafte Beschreibung muss also Differentiale enthalten. Typischerweise führt dies auf Gleichungen, in denen Ableitungen einer unbekannten Funktion auftauchen, sogenannte Differentialgleichungen.

Beispielsweise verknüpft das newtonsche Bewegungsgesetz

F ( t ) = m a ( t ) = m r ¨ ( t ) = m d 2 r ( t ) d t 2 {\displaystyle {\vec {F}}(t)=m{\vec {a}}(t)=m{\ddot {\vec {r}}}(t)=m{\frac {\mathrm {d} ^{2}{\vec {r}}(t)}{\mathrm {d} t^{2}}}}

die Beschleunigung a {\displaystyle {\vec {a}}} eines Körpers mit seiner Masse m {\displaystyle m} und der auf ihn einwirkenden Kraft F {\displaystyle {\vec {F}}} . Das Grundproblem der Mechanik lautet deshalb, aus einer gegebenen Beschleunigung die Ortsfunktion eines Körpers herzuleiten. Diese Aufgabe, eine Umkehrung der zweifachen Differentiation, hat die mathematische Gestalt einer Differentialgleichung zweiter Ordnung. Die mathematische Schwierigkeit dieses Problems rührt daher, dass Ort, Geschwindigkeit und Beschleunigung Vektoren sind, die im Allgemeinen nicht in die gleiche Richtung zeigen, und dass die Kraft von der Zeit t {\displaystyle t} und vom Ort r {\displaystyle {\vec {r}}} abhängen kann.

Da viele Modelle mehrdimensional sind, sind bei der Formulierung häufig die weiter oben erklärten partiellen Ableitungen sehr wichtig, mit denen sich partielle Differentialgleichungen formulieren lassen. Mathematisch kompakt werden diese mittels Differentialoperatoren beschrieben und analysiert.

Differentialgeometrie

Hauptartikel: Differentialgeometrie

Zentrales Thema der Differentialgeometrie ist die Ausdehnung der klassischen Analysis auf höhere geometrische Objekte. Diese sehen lokal so aus wie zum Beispiel der euklidische Raum R n {\displaystyle \mathbb {R} ^{n}} , können aber global eine andere Gestalt haben. Der Begriff hinter diesem Phänomen ist die Mannigfaltigkeit. Mit Hilfe der Differentialgeometrie werden Fragestellungen über die Natur solcher Objekte studiert – zentrales Werkzeug ist weiterhin die Differentialrechnung. Gegenstand der Untersuchung sind oftmals die Abstände zwischen Punkten oder die Volumina von Figuren. Beispielsweise kann mit ihrer Hilfe der kürzestmögliche Weg zwischen zwei Punkten auf einer gekrümmten Fläche bestimmt und gemessen werden, die sogenannte Geodätische. Für die Messung von Volumina wird der Begriff der Differentialform benötigt. Differentialformen erlauben unter anderem eine koordinatenunabhängige Integration.

Sowohl die theoretischen Ergebnisse als auch Methoden der Differentialgeometrie haben bedeutende Anwendungen in der Physik. So beschrieb Albert Einstein seine Relativitätstheorie mit differentialgeometrischen Begriffen.

Verallgemeinerungen

In vielen Anwendungen ist es wünschenswert, Ableitungen auch für stetige oder sogar unstetige Funktionen bilden zu können. So kann beispielsweise eine sich am Strand brechende Welle durch eine partielle Differentialgleichung modelliert werden, die Funktion der Höhe der Welle ist aber noch nicht einmal stetig. Zu diesem Zweck verallgemeinerte man Mitte des 20. Jahrhunderts den Ableitungsbegriff auf den Raum der Distributionen und definierte dort eine schwache Ableitung. Eng verbunden damit ist der Begriff des Sobolew-Raums.

Der Begriff der Ableitung als Linearisierung lässt sich analog auf Funktionen f {\displaystyle f} zwischen zwei normierbaren topologischen Vektorräumen X {\displaystyle X} und Y {\displaystyle Y} übertragen (s. Hauptartikel Fréchet-Ableitung, Gâteaux-Differential, Lorch-Ableitung): f {\displaystyle f} heißt in ξ {\displaystyle \xi } Fréchet-differenzierbar, wenn ein stetiger linearer Operator L ξ L ( X , Y ) {\displaystyle L_{\xi }\in {\mathcal {L}}(X,Y)} existiert, sodass

lim h 0 f ( ξ + h ) f ( ξ ) L ξ h h = 0 {\displaystyle \lim _{h\to 0}{\frac {\|f(\xi +h)-f(\xi )-L_{\xi }h\|}{\|h\|}}=0} .

Eine Übertragung des Begriffes der Ableitung auf andere Ringe als R {\displaystyle \mathbb {R} } und C {\displaystyle \mathbb {C} } (und Algebren darüber) führt zur Derivation.

Siehe auch

Literatur

Differentialrechnung ist ein zentraler Unterrichtsgegenstand in der Sekundarstufe II und wird somit in allen Mathematik-Lehrbüchern dieser Stufe behandelt.

Lehrbücher für Mathematik-Studierende

  • Henri Cartan: Differentialrechnung. Bibliographisches Institut, Mannheim 1974, ISBN 3-411-01442-3.
  • Henri Cartan: Differentialformen. Bibliographisches Institut, Mannheim 1974, ISBN 3-411-01443-1.
  • Henri Cartan: Elementare Theorien der analytischen Funktionen einer und mehrerer komplexen Veränderlichen. Bibliographisches Institut, Mannheim 1966, 1981, ISBN 3-411-00112-7.
  • Richard Courant: Vorlesungen über Differential- und Integralrechnung. 2 Bände. Springer 1928, 4. Auflage 1971, ISBN 3-540-02956-7.
  • Jean Dieudonné: Grundzüge der modernen Analysis. Band 1. Vieweg, Braunschweig 1972, ISBN 3-528-18290-3.
  • Gregor M. Fichtenholz: Differential- und Integralrechnung I–III. Verlag Harri Deutsch, Frankfurt am Main 1990–2004, ISBN 978-3-8171-1418-4 (kompletter Satz).
  • Otto Forster: Analysis 1. Differential- und Integralrechnung einer Veränderlichen. 7. Auflage. Vieweg, Braunschweig 2004, ISBN 3-528-67224-2.
  • Otto Forster: Analysis 2. Differentialrechnung im R n {\displaystyle \mathbb {R} ^{n}} . Gewöhnliche Differentialgleichungen. 6. Auflage. Vieweg, Braunschweig 2005, ISBN 3-528-47231-6.
  • Konrad Königsberger: Analysis. 2 Bände. Springer, Berlin 2004, ISBN 3-540-41282-4.
  • Wladimir I. Smirnow: Lehrgang der höheren Mathematik (Teil 1–5). Verlag Harri Deutsch, Frankfurt am Main, 1995–2004, ISBN 978-3-8171-1419-1 (kompletter Satz).
  • Steffen Timmann: Repetitorium der Analysis. 2 Bände. Binomi, Springe 1993, ISBN 3-923923-50-3, ISBN 3-923923-52-X.
  • Serge Lang: A First Course in Calculus. Fifth Edition, Springer, ISBN 0-387-96201-8.

Lehrbücher für das Grundlagenfach Mathematik

  • Rainer Ansorge, Hans Joachim Oberle: Mathematik für Ingenieure. Band 1. Akademie-Verlag, Berlin 1994, 3. Auflage 2000, ISBN 3-527-40309-4.
  • Günter Bärwolff (unter Mitarbeit von G. Seifert): Höhere Mathematik für Naturwissenschaftler und Ingenieure. Elsevier Spektrum Akademischer Verlag, München 2006, ISBN 3-8274-1688-4.
  • Lothar Papula: Mathematik für Naturwissenschaftler und Ingenieure. Band 1. Vieweg, Wiesbaden 2004, ISBN 3-528-44355-3.
  • Klaus Weltner: Mathematik für Physiker 1. Springer, Berlin 2011, ISBN 978-3-642-15527-7.
  • Peter Dörsam: Mathematik anschaulich dargestellt für Studierende der Wirtschaftswissenschaften. 15. Auflage. PD-Verlag, Heidenau 2010, ISBN 978-3-86707-015-7.

Weblinks

Commons: Differentialrechnung – Sammlung von Bildern, Videos und Audiodateien
Wikibooks: Mathe für Nicht-Freaks: Ableitung und Differenzierbarkeit – Lern- und Lehrmaterialien
Wiktionary: Differentialrechnung – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen
  • Tool zur Bestimmung von Ableitungen beliebiger Funktionen mit einer oder mehreren Variablen mit Rechenweg (deutsch; benötigt JavaScript)
  • Online-Rechner zum Ableiten von Funktionen mit Rechenweg und Erklärungen (deutsch)
  • Anschauliche Erklärung von Ableitungen
  • Beispiele zu jeder Ableitungsregel

Einzelnachweise

  1. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 316.
  2. Serge Lang: A First Course in Calculus. Fifth Edition. Springer, S. 59–61.
  3. Fritz Wicke: Einführung in die Höhere Mathematik: unter besonderer Berücksichtigung der Bedürfnisse des Ingenieurs. Band 1. Springer, 1927, Seite 103.
  4. Carl Spitz: Erster Cursus der Differential- und Integralrechnung. C. F. Winter’sche Verlagshandlung, 1871, Seite 15
  5. Carl Spitz: Erster Cursus der Differential- und Integralrechnung. C. F. Winter’sche Verlagshandlung, 1871, Seite 16
  6. T. Arens et al.: Mathematik. Spektrum, S. 422.
  7. T. Arens et al.: Mathematik. Spektrum, S. 170.
  8. T. Arens et al.: Mathematik. Spektrum, S. 292.
  9. Serge Lang: A First Course in Calculus. Fifth Edition. Springer, S. 463–464.
  10. John Stillwell: Mathematics and Its History, Third Edition, Springer, S. 192–194.
  11. Serge Lang: Calculus of Several Variables, Third Edition, Springer, S. 439.
  12. Serge Lang: Calculus of Several Variables, Third Edition, Springer, S. 434.
  13. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 161.
  14. Serge Lang: Calculus of Several Variables, Third Edition, Springer, S. 435–436.
  15. Hans Wußing, Heinz-Wilhelm Alten, Heiko Wesemüller-Kock, Eberhard Zeidler: 6000 Jahre Mathematik: Von den Anfängen bis Newton und Leibniz. Springer, 2008, S. 429.
  16. Thomas Sonar: 3000 Jahre Analysis, Springer, S. 247–248.
  17. Thomas Sonar: 3000 Jahre Analysis, Springer, S. 378.
  18. Marquis de L’Hospital: Analyse des Infiniment Petits pour l’Intelligence des Lignes Courbes. Preface, S. ix–x: « L’Étendue de ce calcul est immense: … »; archive.org.
  19. Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung. Springer, S. 87.
  20. John Stillwell: Mathematics and its history, Third Edition, Springer, S. 157.
  21. Thomas Sonar: 3000 Jahre Analysis, Springer, S. 424–425.
  22. Hans Wußing, Heinz-Wilhelm Alten, Heiko Wesemüller-Kock, Eberhard Zeidler: 6000 Jahre Mathematik: Von Euler bis zur Gegenwart. Springer, 2008, S. 233.
  23. Thomas Sonar: 3000 Jahre Analysis, Springer, S. 506–514.
  24. Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung, Springer, S. 91.
  25. T. Arens et al.: Mathematik. Spektrum, S. 284.
  26. Bronstein et al.: Taschenbuch der Mathematik, Verlag Harri Deutsch, S. 394.
  27. a b c Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 318.
  28. Jeremy Gray: The Real and the Complex: A History of Analysis in the 19th Century, Springer, S. 271–272.
  29. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 323.
  30. a b Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 324.
  31. Differentialrechnung. In: Guido Walz (Hrsg.): Lexikon der Mathematik. 1. Auflage. Spektrum Akademischer Verlag, Mannheim/Heidelberg 2000, ISBN 3-8274-0439-8. 
  32. Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung, Springer, S. 90.
  33. Harro Heuser: Lehrbuch der Analysis. Teubner, Wiesbaden 2003, ISBN 3-519-62233-5, S. 269.
  34. Thomas Sonar: 3000 Jahre Analysis, Springer, S. 408.
  35. Lokenath Debnath: The Legacy of Leonhard Euler – A Tricentennial Tribute, Imperial College Press, S. 26.
  36. Ali Mason: Advanced Differential Equations. EDTECH, 1019, ISBN 1-83947-389-4, S. 67. 
  37. Karl Bosch: Mathematik für Wirtschaftswissenschaftler. 14. Auflage, Oldenbourg, 2003, S. 77
  38. Klaus Hefft: Mathematischer Vorkurs zum Studium der Physik. 2. Auflage. Springer, 2018, S. 97.
  39. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 329.
  40. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. S. 358.
  41. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 330–331.
  42. T. Arens et al.: Mathematik. Spektrum, S. 304.
  43. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 32–33.
  44. Ernst Hairer, Gerhard Wanner: Analysis in historischer Entwicklung, Springer, S. 248.
  45. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 335.
  46. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 336.
  47. Herbert Amann, Joachim Escher: Analysis 1. 3. Auflage. Birkhäuser, S. 346.
  48. Terence Tao: Analysis II, Third Edition, Hindustan Book Agency, S. 64.
  49. Terence Tao: Analysis II, Third Edition, Hindustan Book Agency, S. 65.
  50. Jeremy Gray: The Real and the Complex: A History of Analysis in the 19th Century, Springer, S. 201.
  51. Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 89.
  52. Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 16 ff.
  53. Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 35.
  54. Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 42–43.
  55. Eberhard Freitag, Rolf Busam: Funktionentheorie 1, 4. Auflage, Springer, S. 45.
  56. a b Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 157.
  57. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 158.
  58. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 159.
  59. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 165.
  60. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 154–157.
  61. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 158–163.
  62. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 173.
  63. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 175.
  64. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 177.
  65. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 192.
  66. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 230–232.
  67. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 176.
  68. Herbert Amann, Joachim Escher: Analysis 2. 2. Auflage. Birkhäuser, S. 188.
  69. a b T. Arens et al.: Mathematik. Spektrum, S. 794.
  70. T. Arens et al.: Mathematik. Spektrum, S. 803.
  71. T. Arens et al.: Mathematik. Spektrum, S. 811.
  72. T. Arens et al.: Mathematik. Spektrum, S. 812.
  73. T. Arens et al.: Mathematik. Spektrum, S. 1193–1195.
  74. T. Arens et al.: Mathematik. Spektrum, S. 1196.
Dieser Artikel wurde am 18. April 2021 in dieser Version in die Liste der exzellenten Artikel aufgenommen.
Normdaten (Sachbegriff): GND: 4012252-9 (lobid, OGND, AKS)