Ieri pomeriggio ero ad un seminario
informale, in cui il conferenziere parlava degli
spazi di Sobolev. Cito a memoria una sua frase:
Tutti gli studenti del primo anno sanno che una funzione derivabile è necessariamente continua. Al secondo anno insegniamo loro che una funzione di due variabili può essere derivabile ma discontinua.
Ho avuto un momento di agitazione sulla sedia: ma perché tanti colleghi danno ancora così tanta importanza al concetto di derivata parziale? Perché è chiaro che il conferenziere aveva in mente la tipica funzione di due variabili che in un punto possiede le derivate parziali ma non è continua. Se volete un esempio grazioso, eccolo qui:
$$
f(x,y)=\begin{cases}
1 &\text{se $y=x^2$}\\
0 &\text{altrimenti.}
\end{cases}
$$
Penso di essere uno degli studenti privilegiati che hanno imparato fin dal corso di Analisi 2 che quello delle derivate parziali non è il giusto analogo della derivata per funzioni reali di una variabile reale. Bisogna parlare del cosiddetto
differenziale, se vogliamo davvero uno strumento che rappresenti in modo significativo la linearizzazione di una funzione in un punto.
E il contesto giusto per fare ciò non è $\mathbb{R}^N$, bensì uno spazio vettoriale normato $(X,\|\cdot \|)$. L'ambiente euclideo $\mathbb{R}^N$ gode di tante proprietà, anzi di
troppe proprietà: il fatto stesso che il generico elemento sia la $N$-upla $(x_1,\ldots,x_N)$ distoglie l'attenzione dall'obbiettivo finale, che è quello di un oggetto
intrinseco e non dipendente (apparentemente) dalla base scelta per rappresentare i punti.
Ora mi direte che non è ammissibile parlare di analisi funzionale (gli spazi normati) prima del calcolo differenziale. Francamente ho qualche dubbio: prendete il magnifico manuale di Giuseppe De Marco
Analisi Due, possibilmente la prima edizione in due tomi, e scoprirete che si può e magari conviene pure. Se al primo anno si spiegano le strutture algebriche, perché sarebbe scandaloso spiegare gli spazi normati al secondo? Forse non è ortodosso?
In modo altrettanto apodittico, arriverei quasi a dire che le funzioni di più variabili non esistono! Una funzione $f \colon \mathbb{R}^N \to \mathbb{R}$ è solo una funzione della singola variabile di $\mathbb{R}^N$, e questa visione rende molto più naturale l'approccio a discipline avanzate come il calcolo delle variazioni o l'analisi non lineare. Poi, per carità, le derivate direzionali (e dunque quelle parziali) esistono, ma non meritano di stare al primo posto per importanza ed utilità.
Con molto rammarico, devo riconoscere che l'impostazione della Scuola Francese di Jean Dieudonné è stata ancora una volta abbandonata, a favore del solito
Calculus americano.
Commenti
Posta un commento