La mia tesina di liceo scientifico

/**Il contenuto di questa pagina rappresenta una copia della versione word della mia tesina.
*tuttavia non sono presenti nel blog per ragioni di spazio tutti i grafici e le immagini
*necessari per una corretta comprensione degli argomenti esposti. Qualche errore di formato sarà
*presente nella scrittura delle formule sopratutto nella sezione dedicata alla fisica. Del
*lavoro possiedo anche una stesura in pdf. Qualora qualcuno fosse interessato, leggendo questa
*bozza, ad un eventuale approfondimento, la versione originale della tesina "Il crollo della
*fisica classica" è disponibile scrivendo ad "elisamarino790@gmail.com". Buona consultazione*/


Liceo Scientifico Statale “Stanislao Cannizzaro” - Palermo
Esame di Stato – Anno scolastico 2008/2009
Commissione: PAPS00022


Corso Sperimentale bilingue
Classe V Sezione I




TESINA


IL CROLLO DELLA FISICA CLASSICA
Dalla catastrofe ultravioletta alla scienza delle incertezze



Presentata da:
ELISA MARINO









“Gli dei non hanno certo svelato ogni cosa ai mortali fin da principio, ma, ricercando gli uomini trovano a poco a poco il meglio… Nessun uomo ha mai scorto la verità, né ci sarà mai chi sappia veramente intorno agli dei ed a tutte le cose ch’io dico: ché anche qualcuno arrivasse ad esprimere una cosa compiuta al più alto grado, neppur lui ne avrebbe tuttavia vera conoscenza, poiché di tutto vi è solo un sapere apparente” SENOFONTE



1. Introduzione 2
2. Fisica 4
2.1. Esperimenti di Millikan e Thomson 4
2.2. Meccanica quantistica e relatività einsteiniana 6
2.2.1. Il corpo nero e la catastrofe ultravioletta 6
2.2.2. La soluzione di Planck 9
2.2.3. Il continuo classico e il discreto quantistico 10
2.2.4. Il Principio di indeterminazione di Heisenberg ed i sistemi dinamici di Poincarè 11
3. SCIENZE: temperatura, indice di colore BV, magnitudine stellare 12
3.1. Colore e temperatura di una stella 12
3.2. Classificazione spettrale delle stelle 12
3.3. Magnitudine 14
4. INGLESE: The theory of relativity 16
4.1. Introduction 16
4.2. The theory of relativity 16
4.3. Philosophical revolution. 17
5. ARTE 19
5.1. Il mutamento della concezione del tempo distrugge i canoni naturalistici di rappresentazione della realtà 16
5.2. Breve excursus di alcune delle avanguardie artistiche del ‘900 16
5.2.1 ESPRESSIONISMO…………………………………………………………… 19
5.2.2 CUBISMO……………………………………………………………………… 20
5.2.3 FUTURISMO………………………………………………………………… 21
5.2.4 SURREALISMO……………………… …………………………………….. 22

6. LETTERATURA ITALIANA 23
6.1. Luigi Pirandello 23
6.2. Italo Svevo 25
7. FILOSOFIA 27
7.1. Premessa 27
7.2. Crollo del principio di causalita’ 27
7.3. Che cos’e’ oggi la scienza?............................................................................................ 29.






1. Introduzione

L’uomo fin dalle sue origini è andato sempre alla ricerca della verità. In risposta ad una esigenza ancestrale, ad una sete inappagabile di conoscenza egli ha sempre cercato di capire la molteplicità dei fenomeni naturali, di risolvere il mistero della vita, interrogandosi sul destino umano.

I greci sono i primi a scoprire il potere della ragione. Sono i primi, cioè, a rendersi conto che l’intelligenza umana, se aiutata dall’osservazione e dalla sperimentazione, può far luce sul caos di eventi dell’universo.
I pensatori della Grecia classica adottano un atteggiamento del tutto nuovo nei confronti della natura, critico, razionale, attento alla realtà fisica intesa come una struttura precisa, coerente e intellegibile che agisce secondo un grandioso ed armonico disegno. Essi dimostrano per primi l’esistenza di un’identità tra il modo in cui il soggetto legge la realtà ed il modo in cui la realtà si rappresenta.

I risultati sono sorprendenti: il vasto corpo di teoremi su numeri, figure geometriche, principi fisici, sembrano aprire un orizzonte quasi illimitato di certezze.

Anche i grandi protagonisti del pensiero scientifico rinascimentale come Copernico, Galileo, Newton, hanno speso la propria vita nella contemplazione di tale orizzonte infinito, con l’audace obiettivo di tradurre in linguaggio matematico i meccanismi del mondo naturale.

Il modello matematico è infatti l’unico che, basandosi sulla dimostrazione deduttiva costruita su principi auto evidenti (assiomi) offre la possibilità allo scienziato di pervenire a conclusioni indubitabili e inconfutabili.

Nell’illuminismo il metodo matematico è applicato infine all’ambito umano, divenendo arbitro del pensiero e dell’azione in campo etico, filosofico, teologico, sociale.
La settorializzazione del sapere produce ottimismo sul dominio dell’uomo sulla natura e contemporaneamente rende credibile quell’ideologia del progresso che diverrà una costante nel mondo contemporaneo.

La matematica ha sostenuto fino ad ora l’ascensione della ragione umana sul mondo dei fenomeni, ha dimostrato le capacità, le risorse e la forza dell’intelligenza umana.

Le scoperte scientifiche del primo ottocento, “strane geometrie, strane algebre” costringono gli scienziati a rendersi conto che né la matematica in senso stretto, né le leggi newtoniane della scienza classica sono verità. Più geometrie differenti si adattano all’esperienza dello spazio, né possono essere tutte vere. La chiave per comprendere la realtà è andata perduta e la consapevolezza di questa perdita è stato il primo violento fra i numerosi colpi che scuoteranno l’edificio scientifico accusato d’incoerenza e nonostante ciò ancora ritenuto unico strumento di approccio alla realtà.

Godel agli inizi del novecento enuncia i difetti del metodo assiomatico deduttivo, abbattendo definitivamente la visione meccanicistica deterministica ad esso conseguente prima ancora che Einstein parli di relatività.

L’incertezza e il dubbio intorno alla verità della scienza sostituiscono completamente le certezze e le soddisfazioni del passato.

Il vero problema attuale è che non si può più parlare di un’unica scienza, universale, matrice di ogni conoscenza come intrepidamente avevano inteso i pensatori della Grecia classica.

Il problema dei fondamenti della scienza è tutt’oggi aperto: non sappiamo in che direzione troveremo una soluzione definitiva e nemmeno se ci si possa aspettare una risposta oggettiva.

Ma tenendo conto della sua enorme estensione attuale, della crescita quasi frenetica dell’attività scientifica, delle migliaia di studi pubblicati ogni anno, dell’interesse crescente per la tecnologia, l’informatica, la chimica in tutti i suoi ambiti, per la fisica, per ogni forma di sapere scientifico, in un’epoca dominata dai computer, come si può parlare di crisi scientifica?

Vale la pena quindi scoprire perché, malgrado l’incertezza intorno ai suoi fondamenti, il sapere scientifico sia ancora indispensabile per lo sviluppo della società, per il futuro stesso dell’umanità.


2. Fisica
“Quando in un lontano avvenire verrà scritta la storia della scienza dei nostri tempi, la prima metà del XX secolo apparirà come un periodo particolarmente notevole non solo per la scoperta di molti nuovi fatti e lo sviluppo di nuove concezioni, ma anche per la loro diretta e indiretta influenza sull’organizzazione della vita umana.
È proprio tra la fine del XIX secolo e l’inizio del XX secolo che alcune osservazioni sperimentali pongono in crisi le concezioni classiche del mondo fisico: da un lato il comportamento della luce rispetto a diversi sistemi di riferimento in moto fra loro, dall’altro i primi indizi sulla struttura granulare dell’energia emessa o assorbita dai vari corpi sotto forma di radiazione. È nel XX secolo che questi primi quesiti, e molti altri da essi derivati trovano la loro risposta, gli uni nella teoria della relatività einsteiniana, gli altri nella teoria quantistica della materia e della radiazione.”
Edoardo Amaldi, 1955

Queste brevi righe rappresentano una perfetta sintesi degli avvenimenti che hanno costruito una rivoluzione del pensiero scientifico paragonabile solo a quella che diede inizio nel XVII secolo alla scienza moderna, con Galilei e Newton.

Verso la fine nel XIX secolo la maggior parte degli studiosi era convinta che le leggi fondamentali della fisica fossero state ormai scoperte.

Le equazioni della meccanica newtoniana spiegavano con successo il moto degli oggetti sulla terra e nei cieli, costituivano la base per lo studio dei fluidi, delle onde meccaniche, fornivano attraverso la teoria cinetica nella materia una logica meccanica ai fenomeni termici.

L’interpretazione teorica dei principali aspetti fisici del mondo macroscopico era poi completata dalle equazioni di Maxwell, che avevano riunito sotto un’unica teoria i fenomeni elettrici e magnetici consentendo fra l’altro il riconoscimento della natura elettromagnetica della luce.

I due gruppi di equazioni (della meccanica newtoniana e di Maxwell) presentavano tuttavia una contraddizione di fondo, una prima faglia della voragine entro cui precipiterà la fisica classica.
Mentre nella meccanica newtoniana ogni mutua azione si manifesta istantaneamente indipendentemente dalla distanza fra i due corpi interagenti, le forze elettromagnetiche descritte dalle equazioni di Maxwell si propagano con velocità finita pari a circa 3 ∙ 108m/s, ovvero corrispondente alla velocità di propagazione della luce nel vuoto.

Proprio a partire da questa incongruenza la comunità scientifica mise in evidenza la necessità di elaborare una teoria che riunisse sotto una stessa logica i principi della meccanica classica e dell’elettromagnetismo.

Un contributo decisivo in questa direzione venne dato dalle nuove scoperte riguardanti l’atomo e la radioattività.

2.1. Esperimenti di Millikan e Thomson
Di particolare importanza furono la scoperta della carica dell’elettrone operata da Robert Millikan, nobel per la fisica nel 1923, grazie al celebre esperimento della goccia d’olio, e prima ancora la determinazione della carica specifica dell’elettrone data dal rapporto e/m da parte del fisico inglese Joseph John Thomson, anch’egli insignito del prestigioso titolo del 1906, o ancora la scoperta, ad opera dello scienziato tedesco Rӧentgen, dei raggi X la cui natura ondulatoria verrà sperimentata solo nel 1912 da Max von Laue.


Esperimento di Millikan
Calcolo della carica dell’elettrone Esperimento di Thomson
Calcolo della carica specifica dell’elettrone (e/m)
Con questo esperimento fu dimostrato per la prima volta che la carica elettrica era quantizzata e ne fu misurato il valore minimo, ossia la carica dell'elettrone.
Millikan sfruttò il moto di piccole goccioline di olio (emulsioni, sospensioni) immesse mediante uno spruzzatore in una camera, sostanzialmente costituita dalle due armature di un condensatore caricato ad un potenziale regolabile. La camera è illuminata per rendere le goccioline osservabili tramite un microscopio con oculare munito di una scala graduata.
Scelta una gocciolina se ne può misurare la velocità di deriva (a condensatore scarico) dovuta all'equilibrio fra la forza di gravità e quella di attrito viscoso con l'aria della camera. La gocciolina possiede delle cariche elettriche superficiali, indotte dallo sfregamento con il condotto che la immette nella camera (in alternativa le goccioline possono essere elettrizzate anche per esposizione a radiazioni ionizzanti). Applicando una differenza di potenziale alle armature del condensatore si può allora esercitare una forza elettrica sulla goccia in modo da fermarla, riportarla in alto, farla ricadere etc.
Ripetendo l’esperienza più volte e con diverse gocce, si osserva che valori del campo elettrico che fermano le gocce sono tutti multipli di un valore unico, appunto proporzionale alla carica dell'elettrone.


Consideriamo quindi le forze a cui è soggetta la goccia:
1. forza peso: F = m g
2. forza elettrostatica: F = q •V/d
3. forza di attrito viscoso con l'aria: F = 6ρηvR
con m = massa della goccia, g = accelerazione di gravità, q = carica sulla goccia, V = potenziale elettrico, d = distanza tra le armature del condensatore, η = coefficiente di viscosità dell'aria, R = raggio della goccia, v = velocità della goccia, ρ = densità della goccia.

La forma della goccia è approssimata a quella di una sfera. A causa della viscosità dell’aria, il suo moto può essere considerato laminare essendo R e v sufficiente piccoli. Se si applica un’opportuna differenza di potenziale V tra le armature del condensatore, tale che la forza elettrica eguagli la forza peso, la gocciolina resta sospesa in equilibrio. In queste condizioni abbiamo:

Per ricavare la quantità di carica q sulla goccia occorre quindi conoscerne la massa. Per misurare la massa m, si azzera il potenziale e si registra la velocità di caduta della goccia sotto l'azione della sola forza peso e della forza viscosa; tale velocità è data dalla formula:

dalla quale, misurando v (tramite l'uso della scala graduata dell'oculare e di un cronometro), si può ricavare il raggio R della goccia supposta sferica. Conoscendo la densità dell'olio e calcolando il volume della sfera si ricava la massa m
Infine, si ricava la carica q sostituendo
il valore della massa nella formula

Poiché le goccioline sono molto piccole, la quantità di carica presente su di esse può essere dell’ordine di una decina di cariche elementari; misurando allora tale carica in un grande numero di casi si può verificare, nei limiti degli errori sperimentali, che i valori trovati sono tutti multipli interi di un certo valore che può essere assunto come la carica elementare e.
Il valore della carica elementare ottenuto con l'esperimento di Millikan è



Nel tubo a raggi catodici costruito dal fisico gli elettroni emessi dal catodo C sono accelerati da una differenza di potenziale e attraversando le due fenditure A1 e A2 vanno a colpire lo schermo fluorescente S, dopo essere stati deflessi da un campo elettrico generato tra gli elettrodi P1 e P2 e da un campo magnetico perpendicolare sia al campo elettrico sia alla velocità degli elettroni emessi dal catodo.

Regolando il campo magnetico in modo tale che il fascio di particelle non sia deflesso è possibile calcolare il rapporto e/m considerando:

forza elettrica che agisce sul singolo elettrone (che si muove quindi su una traiettoria parabolica di moto uniformemente accelerato con accelerazione a= Ee/m ) è: F = Ee

l’equazione del moto risulta perciò: y= ½ e/m Et2

detta l la lunghezza del condensatore e t il tempo che l’elettrone impiega ad attraversare il condensatore è t = l/v
perché scomponendo il moto nelle direzioni x e y, lungo la direzione orizzontale esso risulta essere rettilineo uniforme quindi.

La variabile y rappresenta la deviazione causata dal solo campo elettrico E

Per determinare la velocità v introduciamo campo magnetico B, uniforme e perpendicolare al piano in cui si muovono gli elettroni, lasciando invariato il campo elettrico E. Utilizzando un opportuno campo B la risultante delle forze applicate agli elettroni risulta nulla e il fascio di elettroni colpisce il centro dello schermo fluorescente.
L’equilibrio fra la forza elettrica e la forza magnetica si ottiene quando v=E/B. Possiamo dunque sostituire nell’equazione di cui sopra al posto di v, il rapporto E/B per risolve infine tutto rispetto a e/m:

e/m = 2Ye/B2l2

e/m = 1,7589 1011 C/kg
2.2. Meccanica quantistica e relatività einsteiniana
All’inizio del XX secolo la meccanica quantistica e la relatività einsteiniana segnano, come già accennato, la nascita della fisica moderna.

Le basi della fisica quantistica risalgono ai primi anni del ‘900 quando alcuni dei fisici più importanti di tutti i tempi, come Max Planck, Albert Einstein e Niels Bohr, introdussero e utilizzarono il concetto di quantizzazione delle grandezze fisiche per spiegare alcuni risultati sperimentali riguardanti la radiazione e il mondo microscopico degli atomi. La fisica quantistica ebbe uno sviluppo relativamente rapido nei decenni successivi, principalmente grazie ai lavori di Heisenberg, Schroedinger, de Broglie e Born, oltre ai tre scienziati citati precedentemente. Negli anni ’30 del secolo scorso la meccanica quantistica aveva già un’impalcatura coerente, sebbene non ancora completa, tanto da poter essere applicata con successo allo studio dei nuclei degli atomi. Questa strada fu aperta dalla scoperta del neutrone, nel 1932, ad opera dell’inglese Chadwick. Nel 1942, a Los Alamos (USA), Enrico Fermi otteneva la prima reazione nucleare controllata, e qualche anno dopo, poco prima della fine della seconda guerra mondiale, gli americani terminavano la costruzione delle bombe atomiche, poi sganciate in territorio giapponese.

Al crollo della validità della fisica classica nella spiegazione dei fenomeni microscopici concorrono tre elementi principali:
1. La definitiva dimostrazione che la materia è fatta da atomi e che a loro volta gli atomi non sono indivisibili ma costituti da un nucleo e da particelle esterne ad esso, gli elettroni.
2. La scoperta che i costituenti più piccoli della materia modificano il loro stato dinamico variando la posizione, la quantità di moto e l’energia in maniera discreta, cioè a “scatti”.
3. Il risultato teorico di un particolare studio di termodinamica riguardante i rapporti fra l’emissione o l’assorbimento di energia elettromagnetica e la temperatura dei corpi che assorbono o emettono tale radiazione: si tratta della teoria dello spettro del corpo nero.

2.2.1. Il corpo nero e la catastrofe ultravioletta
Si definisce corpo nero un corpo capace di assorbire tutte e radiazioni elettromagnetiche che lo investono a qualunque frequenza, senza rifletterne alcuna parte.
Un corpo con una proprietà del genere in natura non esiste, è piuttosto una idealizzazione. Tuttavia esistono sistemi fisici che si avvicinano ad avere le sue caratteristiche. Un’ottima approssimazione del corpo nero si può ottenere creando una cavità chiusa e isolata dall’ambiente esterno, le cui pareti interne sono fatte da un materiale scuro e ruvido.
Supponendo di mantenere le pareti della cavità a una temperatura T costante esse emetteranno radiazione elettromagnetica (e quindi energia); inoltre, tutta la radiazione elettromagnetica incidente sulle pareti verrà assorbita dalle pareti stesse, per la proprietà del corpo nero.
Un semplice ragionamento fa comprendere che tutta l’energia che è emessa dalle pareti sotto forma di onde elettromagnetiche deve essere esattamente uguale a tutta l’energia assorbita, se vogliamo mantenere costante la temperatura della cavità. Infatti, se l’energia emessa fosse maggiore di quella assorbita, le pareti nel complesso perderebbero energia e la loro temperatura diminuirebbe. Viceversa, la temperatura aumenterebbe se l’energia assorbita fosse maggiore di quella emessa.

In queste condizioni, si dice che le pareti della cavità sono in equilibrio termico con la propria radiazione.


Sperimentalmente si è osservato che:
(1) Nella cavità sono contenute onde a tutte le frequenze
(2) Tale distribuzione in frequenza dipende solo dalla temperatura T e non dalla forma e dal materiale del corpo nero.

Come determinato sperimentalmente da Josef Stefan e verificato sperimentalmente da Ludwig Boltzmann la quantità di energia emessa da un corpo nell’unità di tempo che indichiamo con U risulta essere proporzionale alla quarta potenza della temperatura assoluta e alla superficie del corpo:

∙ S

Dove σ è la costante di Stefan-Boltzmann che vale:



La legge, in questo enunciato, è valida solo per corpi neri ideali. Ma se invece di considerare la radiazione di un corpo nero prendiamo in esame quella emessa da un corpo qualsiasi troviamo che a parità di condizioni la potenza irraggiata rappresenta solo una frazione di quella espressa dalla relazione sovrascritta.
Per cui per un corpo qualsiasi vale la relazione:

∙ S ∙ e

Dove la costante adimensionale e , detta emissività, è compresa fra zero e uno.
Un corpo ad emissività e=1 è un emettitore ed un assorbitore ideale, cioè un corpo nero. Un corpo con e=0 è un corpo che riflette senza assorbila tutta l’energia che incide su di esso.

Materiale Emissività

Corpo nero 1
Marmo bianco 0.95
Basalto 0.72
Ottone ossidato 0.6
Granito 0.45
Mercurio liquido 0.1
Foglio di alluminio 0.04
Ogni corpo che in condizioni normali di temperatura appare di colore nero si comporta con buona approssimazione come un corpo nero ideale. Un simile corpo infatti assorbe tutte le frequenze della luce incidente; la radiazione emessa invece non è percepita dall’occhio umano perché prevalentemente infrarossa.

Ci chiediamo a questo punto qual è il comportamento all’aumentare della temperatura dello spettro di emissione di un corpo nero.

L’andamento della potenza irradiata per unità di superficie dal corpo nero, ossia l’intensità della radiazione emessa, in funzione della lunghezza d’onda della radiazione è espresso dal seguente grafico:



Osserviamo che a una determinata temperatura della cavità corrisponde una precisa curva, chiamata curva di distribuzione spettrale per la radiazione di corpo nero.

Al variare della temperatura i grafici sperimentali presentano diversi andamenti “a campana” con un valore di potenza massimo in corrispondenza di una particolare lunghezza d’onda.

Questi picchi risultano essere inversamente proporzionali alla temperatura come scoprì W. Wien che espose il risultato nella legge che prese il suo nome:

Legge di Wien: la lunghezza d’onda che corrisponde al valore massimo dell’intensità della radiazione emessa da un corpo nero è inversamente proporzionale alla sua temperatura.


dove T è la temperatura del corpo nero espressa in Kelvin, λmax è la lunghezza d'onda espressa in metri del picco massimo di energia, e b è una costante di proporzionalità, chiamata costante dello spostamento di Wien, il cui valore è



Riscaldando sempre più il corpo nero, il massimo della potenza è situato in corrispondenza di lunghezze d’onda della radiazione sempre minori, cioè ad alte frequenze.

La teoria classica del corpo nero, basata sui principi della termodinamica e sulle leggi dell’elettromagnetismo, non era in grado di riprodurre correttamente la distribuzione spettrale della radiazione emessa.

I fisici che nell’800 ricavavano sperimentalmente le misure per ricavare lo spettro di un corpo nero a una data temperatura, ottenendo solo per frequenze basse i risultati mostrati in figura:


I dati sperimentali erano descritti bene da una funzione del tipo S() = costante ∙ 2
(parabola passante per l’origine)

Tuttavia, era chiaro che questa funzione non poteva descrivere tutto lo spettro del corpo nero. Infatti l’energia totale emessa a tutte le frequenze sarebbe risultata proporzionale all’integrale tra 0 e ∞ di 2. Questo integrale però è uguale a ∞ e ciò è da ritenersi assurdo, in quanto è inconcepibile ritenere una forma di energia infinita.

In effetti, i dati sperimentali di S() all’aumentare della frequenza non proseguivano seguendo la funzione 2, ma arrivavano a un valore massimo e poi diminuivano tendendo a zero per  che tende ad infinito. Questo assicura che l’integrale di S() tra 0 e ∞ resti un valore finito.

Ma come spiegare tale impotenza concettuale passata alla storia come la nuvola nera della fisica classica?

2.2.2. La soluzione di Planck
Il 14 dicembre del 1900 Max Planck, professore dell’università di Berlino, presentò all’accademia delle Scienze una comunicazione con la quale propose per la potenza emessa nell’intervallo unitario di frequenza dall’unità di superficie del corpo S() in funzione della frequenza stessa, e della temperatura assoluta, l’espressione:


In questa equazione compaiono la costante di Boltzmann k e una nuova costante universale, la costante di Planck



Tale espressione riproduce correttamente lo spettro di emissione del corpo nero in quanto essa tende a zero quando la frequenza tende ad infinito.

A Planck fu presto chiaro che la sua formula, ricavata sperimentalmente, aveva come fondamento teorico un’assunzione del tutto nuova, riguardante la modalità di scambio dell’energia fra materia e radiazione.

Secondo la teoria di Maxwell, ogni carica elettrica oscillante emette energia sotto forma di onde elettromagnetiche. Perciò ogni corpo irraggia a causa delle oscillazioni delle cariche elettriche distribuite negli atomi che lo costituiscono.

Nella fisica classica, ognuno di questi microscopici oscillatori scambia energia con continuità, in misura tanto maggiore quanto è più ampia l’oscillazione e indipendentemente dalla sua frequenza.

La distribuzione spettrale di Planck, al contrario, può essere dedotta matematicamente purché si supponga che ogni oscillatore emetta o assorba energia solo per quantità discrete. Si deve ipotizzare in altre parole che ciascun oscillatore modifichi il suo contenuto energetico scambiando “pacchetti di energia” di valore fisso.

CONDIZIONE DI QUANTIZZAZIONE DI PLANK
l’energia associata a un’onda con frequenza  non può assumere un qualsiasi valore (l’ipotesi della fisica classica), ma è quantizzata, può assumere cioè solo valori discreti, multipli interi di un quanto fondamentale. Inoltre, il quanto di energia è proporzionale alla frequenza. Detta h la costante di proporzionalità, l’energia  del quanto fondamentale dell’onda a frequenza  è:

 = h

e quindi le energie permesse associate a un’onda a frequenza  saranno:

En() = n h , con n = 0, 1, 2, 3, …

2.2.3. Il continuo classico e il discreto quantistico
Fra i fenomeni o fra gli stati dei sistemi fisici si ritiene vi sia una relazione di determinazione quando essi sono regolarmente collegati secondo corrispondenze univoche. Determinazione univoca significa che gli elementi di un dato sistema devono essere collegati a quello di un altro sistema da un rapporto uno a uno in tutte le condizioni e senza restrizioni di tempo o di spazio. L’idea che tale tipo di relazione sussista per tutti i possibili fenomeni dell’universo e che pertanto tutti i processi sono rigorosamente necessari, è alla base della concezione deterministica del mondo.

Il determinismo è stata una convinzione diffusa fra i fisici del settecento e dell’ottocento. I grandi successi della meccanica newtoniana autorizzavano la supposizione che ogni sistema fosse rigidamente regolato da leggi necessarie.

Laplace, uno dei più importanti matematici e astronomi del tardo settecento scriveva:

“…dobbiamo considerare lo stato presente dell’universo come effetto del suo stato anteriore e come la causa del suo stato futuro…”

Egli tuttavia continua.

“ …ma l’ignoranza delle diverse cause che concorrono alla formazione degli eventi come pure la loro complessità, insieme con l’imperfezione dell’analisi, ci impediscono di conseguire la stessa certezza rispetto alla maggioranza dei fenomeni. Vi sono quindi cose per noi incerte, cose più o meno probabili, e noi cerchiamo di rimediare all’impossibilità di conoscerle determinando i loro diversi gradi di probabilità “

In questo modo Laplace introduceva la sua trattazione di “una delle più fini e ingegnose fra le teorie matematiche” , LA SCIENZA DEL CASO O DELLA PROBABILITA’.

In questa visione, comprendente anche il dato della probabilità, tutti gli eventi continuano ad essere determinati casualmente, anche quelli che ci appaiono casuali come l’esito di un lancio di dadi, e il determinismo è l’ideale a cui continua a tendere la conoscenza scientifica.

Le prime crepe della visione deterministica della scienza si manifestarono nell’ambito della termodinamica quando la teoria cinetico-molecolare di Boltzmann introdusse la componente statistica.
Secondo Boltzmann infatti i fenomeni termici vanno interpretati come effetto del movimento caotico delle molecole. Gli stati successivi di un sistema di molecole considerato come un tutto vengono rigorosamente previsti in termini di distribuzioni statistiche, mentre gli stati dei singoli elementi del sistema rimangono indeterminabili.

2.2.4. Il Principio di indeterminazione di Heisenberg ed i sistemi dinamici di Poincarè
Lo scacco matto al determinismo tuttavia è mosso solo nel 1927 da Heisenberg con la formulazione del principio indeterminazione secondo il quale è impossibile conoscere con previsione la posizione, e nello stesso tempo, la quantità di moto di una particella microscopica a livello atomico. Infatti quanto più precisa sarà la misurazione di una grandezza, tanto maggiore sarà la perturbazione nella misurazione dell’altra.

Secondo Heisenberg è mediante la meccanica quantistica è viene stabilita definitivamente la non validità del principio di casualità. Non potremmo infatti derivare gli stati futuri di un fenomeno dalla conoscenza esatta del presente per la semplice ragione che non è possibile conoscere il presente di ogni elemento determinante.

Anche i processi macroscopici studiati dalla meccanica classica possono evolvere in modo imprevedibile.

Già all’inizio del novecento lo scienziato ed epistemologico francese Poincaré, approfondendo l’idea di Laplace, osservò che anche se le leggi che regolano lo sviluppo di un sistema sono ben note, le condizioni iniziali dello stesso sistema saranno conosciute con un certo margine di approssimazione perché “può accadere che piccole differenza nelle condizioni iniziali ne producano di grandissime nei fenomeni finali. Un piccolo errore nelle prime produce un errore enorme nei secondi. La previsione diviene impossibile e si ha un fenomeno fortuito”
Si tratta in questi casi di sistemi dinamici non lineari che, se pure determinati da leggi necessarie, hanno un comportamento caotico.

A questo proposito si usa l’espressione apparentemente contraddittoria di caos deterministico.

Lo studio di questi fenomeni ha dato vita in questi ultimi anni a ricerche di particolare interesse, favorite dallo sviluppo delle potenzialità di calcolo delle tecnologie informatiche.

All’origine di questo programma di ricerche si colloca il noto metereologo americano, E. Lorentz che nel 1963 dimostrò che era sufficiente modificare minimamente uno dei molti parametri di un sistema climatico relativamente semplice per avere conseguenze assolutamente inattese: situazione che è stata illustrata con l’efficace metafora secondo la quale basta che una farfalla batta le ali in amazzonia perché dopo qualche giorno si scateni un temporale a Dallas.



3. SCIENZE: temperatura, indice di colore BV, magnitudine stellare
La correlazione fra la lunghezza d’onda corrispondente al massimo dell’intensità della radiazione e la temperatura assoluta trova un’applicazione pratica in astrofisica per la misura delle temperature stellari e in genere ogni volta che si vuole conoscere, attraverso le radiazioni emesse, la temperatura di un ambiente assimilabile a un corpo nero.

3.1. Colore e temperatura di una stella
Sappiamo grazie alla legge di Wien che il colore di una stella dipende dalla sua temperatura superficiale. Infatti premesso che un corpo incandescente emette radiazioni elettromagnetiche di diversa frequenza, la frequenza per la quale si ha il massimo di emissione è direttamente proporzionale alla temperatura assoluta, come si può dedurre dall’osservazione delle curve di Planck.



La legge afferma dunque che al crescere della temperatura il colore del corpo si sposta dal rosso al blu. (si osservi ad esempio il caso di un pezzo di metallo portato ad incandescenza)

Di conseguenza le stelle relativamente fredde sono di colore rossastro mentre quelle molto calde sono azzurrognole, con tutte le possibili gradazioni intermedie.

Alla fine del XIX secolo è stato messo a punto un metodo per determinare la temperatura di una stella, basata sull’indice di colore BV: è la differenza tra la magnitudine blu e la magnitudine gialla della stella (detta anche visibile) misurate facendo passare la luce stellare dapprima attraverso un filtro che seleziona le frequenze del blu, poi attraverso un filtro che seleziona il giallo.

Le stelle molto calde hanno un indice di colore di valore negativo, poiché l’emissione nel campo blu è maggiore che nel giallo (e di conseguenza la magnitudine blu è minore di quella gialla). Il contrario avviene per le stelle meno calde.

3.2. Classificazione spettrale delle stelle
Ulteriori informazioni sulle caratteristiche fisiche e chimiche delle stelle sono fornite dall’analisi degli spettri di assorbimento delle luce stellare.

Teoricamente il tipo e l’intensità delle righe di assorbimento presenti negli spettri dovrebbero indicare quali elementi chimici sono presenti nell’atmosfera stellare e la loro abbondanza relativa.

Tuttavia, poiché è soprattutto la temperatura di un corpo a determinare il modo in cui assorbe la luce, gli spettri forniscono un’indicazione precisa della temperatura superficiale delle stelle, più che della loro composizione interna.

In base alle caratteristiche delle righe dei loro spettri la stelle sono state suddivise in classi (o tipi) spettrali O, B, A, F, G, H, M
Classe O : stelle bianco-azzurre di altissima temperatura, fra 60 mila e 30 mila gradi. Solo poche righe solcano lo spettro continuo e sono più che altro righe dell'elio neutro ed ionizzato, nonché deboli righe dell'idrogeno.
Classe B : stelle bianco-azzurre sui 30 mila - 10 mila gradi. Mostrano righe dell'elio neutro mentre non ci sono più quelle dell'elio ionizzato; le righe dell'idrogeno sono più intense che nella classe O.
Classe A : stelle bianche di temperatura fra 7500 gradi e 6000 gradi. Le righe dell'idrogeno, più deboli che nella classe precedente, sono ancora molto intense. Le righe dei metalli appaiono numerose.
Classe G : stelle biancogiallastre di temperatura fra 6000 e 6000 gradi. Le righe dell'idrogeno sono ancora più deboli che nella classe F, mentre quelle dei metalli sono numerosissime ed intense: calcio neuro ed ionizzato, ferro, magnesio, titanio, ecc. Quelle del calcio ionizzato (CA II), note come righe H e K, che cadono nell'ultravioletto vicino, sono fra le più intense dello spettro. A questa classe spettrale appartiene il Sole.
Classe K : stelle 'fredde' di color rosso-arancio. Essendo la temperatura compresa fra 5000 e 3500 gradi, lo spettro è fitto di righe dovute prevalentemente a metalli. Le righe dell'idrogeno sono assai deboli.
Classe M : stelle ancora più fredde, avendo temperature sui 3000 gradi e quindi colore rossastro. L'atmosfera, cioè gli strati più esterni di queste stelle, contengono non solo elementi ma anche composti chimici e cioè molecole, le quali danno origine nelo spettro a bande fra cui predominano quelle dell'ossido di titanio. Vi appaiono anche molte righe di metalli neutri, come il calcio, ma predominante in questi spettri è la presenza delle bande molecolari.

TIPO
SPETTRALE TEMPERATURA
EFFETTIVA COLORE CARATTERISTICHE PRINCIPALI
O > 25 000 K stella blu È uno stadio caratterizzato dall'osservazione nello spettro fotosferico delle righe dell'elio, dell'ossigeno e dell'azoto (oltre a quelle dell'idrogeno). Corrisponde a stelle estremamente calde, molto luminose, che emettono una radiazione molto intensa alle lunghezze d'onda ultraviolette.
B 11 000 K -
25 000 K stella bianca-blu In questo gruppo, le righe dell'elio raggiungono la massima intensità nel tipo B2, per poi attenuarsi progressivamente. L'intensità delle righe dell'idrogeno aumenta regolarmente in tutte le suddivisioni della classe. Le stelle di tipo B sono rappresentate tipicamente dalla stella Epsilon (e) Orionis.
A 7 500 K -
11 000 K stella bianca Gruppo che comprende le stelle cosiddette a idrogeno, ovvero quelle il cui spettro è dominato appunto dalle righe di assorbimento dell'idrogeno. Una stella tipica di classe A è Sirio, la stella più luminosa della volta celeste.
F 6 000 K -
7 500 K stella bianca-gialla Gruppo che riunisce le stelle il cui spettro mostra un'intensità molto elevata delle righe H e K del calcio e delle righe dell'idrogeno. Una stella tipica di questa categoria è Delta (d) Aquilae.
G 5 000 K -
6 000 K stella gialla di tipo solare Gruppo che comprende stelle il cui spettro mostra righe H e K del calcio ben visibili, mentre meno evidenti sono le righe dell'idrogeno. Sono anche presenti gli spettri di numerosi metalli, in particolare del ferro. Il Sole appartiene a questo gruppo: infatti le stelle di classe G sono spesso chiamate stelle solari.
K 3 500 K -
5 000 K stella arancio-gialla Gruppo che comprende le stelle i cui spettri mostrano righe intense per il calcio e per altri metalli. Al confronto con le altre classi, la luce violetta dello spettro di queste stelle è meno intensa di quella rossa. Questo gruppo è rappresentato tipicamente dalla stella Arturo.
M < 3 500 K stella rossa Gruppo che comprende stelle il cui spettro è dominato da bande dovute alla presenza di molecole di ossidi di metalli, in particolare dell'ossido di titanio. L'estremo violetto dello spettro luminoso è meno intenso che in quello delle stelle di classe K. Tipica di questo gruppo è la stella Betelgeuse, o Alpha Orionis.

3.3. Magnitudine
Appare evidente da quanto scritto sopra che la conoscenza della magnitudine di una stella è un elemento indispensabile al lavoro dell’astronomo finalizzato allo studio dell’evoluzione dei corpi celesti e dell’universo, tramite la moderna fisica quantistica e la teoria della relatività.
Che cos’è e come si definisce dunque la magnitudine di una stella?
La magnitudine è un parametro usato in astronomia per indicare la luminosità, apparente o reale, di un oggetto celeste.

Per quanto riguarda le stelle la loro luminosità dipende da due fattori: La quantità di luce che effettivamente emettono (ossia l’energia che irradiano) e la loro distanza dal nostro pianeta.

La scala delle magnitudini, usata appunto per la misurazione della luminosità, ha origine molto antiche.
Nel II secolo l’astronomo greco Ipparco classificò le stelle visibili a occhio nudo in sei classi di grandezza, dette magnitudini apparenti: alla prima classe appartenevano le stelle più luminose, mentre le più fioche furono classificate come stelle di classe 6 o di magnitudine 6. Ipparco suppose che le stelle di magnitudine 1 avessero un luminosità doppia rispetto a quelle di magnitudine 2 e così via.
Nel XIX l’astronomo inglese Pogson scoprì che l’occhio umano è sensibile alle variazioni di luminosità secondo la scala logaritmica, per cui le stelle di classe 1 sono 100 volte più luminose di quelle di classe 6.
Passando da una classe di grandezza alla successiva, la variazione di luminosa è di circa 2,5 volte, più precisamente:

Oggi la scala delle magnitudini continua ad essere utilizzata per confrontare le luminosità delle stelle.
Di norma si sceglie come stella campione la stella polare la cui magnitudine è convenzionalmente pari a 2.
Si distingue inoltre la magnitudine apparente da quella assoluta.
La magnitudine apparente (o visuale) è una misura della sua luminosità apparente, ovvero quella rilevabile dal punto d'osservazione. Essa è definita tramite la formula di Pogson:

m = m0 -2,5 log10(L/L0)

dove m è la magnitudine della stella presa in esame, m0 è la magnitudine della stella di riferimento, mentre il rapporto (L/L0) è il rapporto delle rispettive luminosità.
Segue che le stelle meno luminose hanno magnitudine maggiori a 6, mentre stelle più luminose la magnitudine può assumere valori negativi. (Sirio, la stella più luminosa nel firmamento boreale, ha magnitudine negativa -1,4)

È importante notare che un oggetto estremamente luminoso può apparire molto debole, se si trova ad una grande distanza, come evidente dalla relazione:



Dove per L s’intende la luminosità apparente e per L0 quella assoluta o intrinseca. La luminosità intrinseca, vera, di un oggetto, a sua volta, per la legge di Stefan dipende solo dal raggio della superficie emittente e dalla temperatura alla quale avviene l’emissione secondo la relazione

L0 = 4 π r2 σ T4

La magnitudine apparente di una stella è dunque notevolmente influenzata dalla distanza della stella.

Così per confrontare stelle poste a diversa distanza dalla terra si è introdotto il concetto di magnitudine assoluta.

La magnitudine assoluta (M, detta anche luminosità assoluta) è la magnitudine apparente (m) che un oggetto avrebbe se si trovasse ad una distanza di 10 parsec (32,616 anni luce), o 3×1014 chilometri dall'osservatore.

Più semplicemente, è una misura della luminosità intrinseca di un oggetto, senza tener conto delle condizioni in cui si trova l'osservatore.

Un'equazione matematica lega la magnitudine apparente con la magnitudine assoluta, usando la parallasse.

Infatti conosciuta la magnitudine apparente (m) è possibile calcolare la magnitudine assoluta (M) con la formula:

dove è la distanza dell'oggetto espressa in parsec.


4. INGLESE: The theory of relativity

4.1. Introduction
The first half of the twentieth century was an age of extraordinary transformations in the fields of science, philosophy, politics, warfare, and technology.
New and faster means of transport and communication were discovered and for the first time psychology gained a scientific importance.
The world, destroyed by the two world wars, renounced definitely to the positivistic faith in progress and to Victorian values. A new sense of frustration, displeasure, attached the men and it opened the doors to the decadent movement in literature whose key words were isolation, alienation, anxiety, sense of doubt.

The sense of dissatisfaction was reflected in every cultural aspect of this period: in art with the absence of perspective, the negation of classical subject, in music with the absence of harmony, in philosophy with a new concept of time, finally in science with the introduction of the concept of relativity by the Jewish physicist Albert Einstein in the early part of the 20th century.

4.2. The theory of relativity
The Theory of Relativity is one of the most important scientific advances of our time. It represented, together with the quantum mechanic new discoveries, the starter of the second scientific revolution. The first was in VII century with Galileo Galilei and his scientific method that now was surmounted by the triumph of sphere of the uncertainty, of the relativism.

Actually the concept of relativity was not introduced by Einstein, his major contribution was the discovery that the speed of light in a vacuum, in an empty space, is constant and it is an absolute physical limit for movement.
Before Einstein, people thought time to be absolute, which is to say that one big clock measures the time for the entire universe. Consequently one hour on Earth would be one hour on Mars, or one hour in another galaxy.

However, there was a problem with this concept. In an absolute time frame the speed of light cannot be constant.

Because if the speed of light is finite and has a certain, quantifiable velocity (usually abbreviated with "c"), which at first implies Galilean relativity, this would mean that while the Earth rotates at a velocity of v, light emitted in the direction of the Earth rotation must be c + v, while light emitted in the opposite direction would travel at c - v, relative to an outside observer.


This new vision does not have a major impact on a person's everyday life since we travel at speeds much slower than light speed.
For objects travelling near light speed, however, the theory of relativity declared that objects will move slower and shorten in length from the point of view of an observer on Earth.

So for the first time with the theory of relativity we can talk about time and space as subjective dimensions.

About the Einstein’s theory of relativity we have to distinguish between special relativity and general relativity.

In particularly Special Relativity is a theory of the structure of Spacetime. It was introduced in Albert Einstein's 1905 paper "On the Electrodynamics of Moving Bodies" and it is based on two postulates which are contradictory in classical mechanics:

1. The laws of physics are the same for all observers in uniform movement relative to one another (Galileo's principle of relativity).
2. The speed of light in a vacuum is constant, or rather it is the same for all observers, regardless of, their relative movement or of the movement of the source of the light.

The resultant theory has many surprising scientific consequences. Some of these are:

3. Relativity of simultaneity: Two events, simultaneous for some observer, may not be simultaneous for another observer if the observers are in relative movement.
4. Time dilation: Moving clocks are measured to tick more slowly than an observer's "stationary" clock. Imagine an observer sitting besides an oval race track. Now imagine a motorcycle driver travelling at the speed of light for several years around the track. The sitting observer will have aged faster because time for the motorcycle driver will be relatively slower.
5. Length contraction: Objects are measured to be shortened in the direction that they are moving with respect to the observer.
6. Mass-energy equivalence: E = mc2, energy and mass are equivalent and transmutable.

4.3. Philosophical revolution.
From a cultural point of view as a consequence of the theory of relativity the world view lost its solidity and the scientific revolution was complemented by the verbal experimentation and the exploration of memory in literature.

Moreover Relativity and Quantum Theory have implications on cosmology, epistemology, and metaphysics. We only begin to understand their impact on our traditional ways of seeing the world. How does God fit into our new picture of the universe? Can the stuff the world is made of be explained by physics alone? What is space and time? Does quantum physics contradict causality? To find out more about these questions and to learn about the findings of Einstein, Heisenberg, and others, take a closer look at the fascinating world of modern physics.

At the beginning of the new XX century the scientific revolution was accompanied by a philosophical revolution.

On one hand Freud with his work “the interpretation of dreams” signed the development of subconscious that controlled human psyche. Freud theory said that man’s action is a result of two complementary parts: the irrational part regulated by internal forces and the rational part regulated by the rigid roles imposed by the society with its institution, first of all by the family.

On the other hand William James and Henry Bergson that proposed a new way to considerer the concept of time.

The first, in his masterwork, The Principles of Psychology , said that every human action is reaction to the external world, and also the thoughts are considered transistor moments, intervals, gaps of action. So the life is continuous flow of moments of action and moments of reflection. In other words the life is on two levels, one external to the human’s mind, the other internal.

Bergson moreover made a distinction between the historical time, or rather the external and linear time and the philological time that was internal, subjective and measured by the relative emotional intensity of a single moment.

The consequence is that the time wasn’t objective but subjective because it didn’t follow a chronological sequence of events but on the contrary a personal series of experiences linked to psychological change.


"In reality, the past is preserved by itself automatically. In its entirety, probably, it follows us at every instant; all that we have felt, thought and willed from our earliest infancy is there, leaning over the present which is about to join it, pressing against the portals of consciousness that would fain leave it outside." (from Creative Evolution)

Henri Bergson’s The Creative Mind is a collection of essays and lectures concerning the nature of intuition, explaining how intuition can be used as a philosophical method.
Intuition is described as a method of 'thinking in duration' which reflects the continuous flow of reality.
In this work Bergson explained how intuition and intellect may be combined to produce a dynamic knowledge of reality.

First of all Bergson distinguishes between the two forms of time. In order to try to understand the flow of time, the intellect forms, concepts of time think the same time not as a real entity, but as a whole of defined moments or intervals. But to try to intellectualize the experience of duration is to falsify it. Real duration can only be experienced by intuition.

At the same time the intellectual representation of time, a succession of distinct states or events is presented as a spatialized form of time. The intellect analyzes time as having measurable duration, but the flow of real time can only be known by intuition.

Bergson says that reality has extension as well as duration. However, space is not a void or vacuum which is filled by reality. Things are not in space, space is in things.

Bergson also said that intellect and intuition are capable of different kinds of knowledge. Scientific principles are intellectual, while metaphysical principles are intuitive. However, science and philosophy can be combined to produce knowledge that is both intellectual and intuitive. Such knowledge can unify divergent perceptions of reality.

The existence of time may explain the indeterminateness of things.
Time as duration may explain why indeterminate things may later be able to be determined. Things that can be determined may also become indeterminate. If time did not exist, all things could (theoretically) be determined simultaneously.



5. ARTE

5.1. Il mutamento della concezione del tempo distrugge i canoni naturalistici di rappresentazione della realtà.

Con la crisi del positivismo e il rinnovamento epistemologico a cavallo fra l’ottocento e il novecento la realtà appare agli artisti ben più complessa di quella quantitativamente misurabile attraverso le leggi del determinismo scientifico.

L’essenza della realtà è ricercata al di là delle apparenze sensibili, in una zona oscura e misteriosa raggiungibile solo attraverso un rapporto irrazionale e di fusione mistica fra l’artista e la natura.

Nella fase iniziale del XX secolo (specialmente negli anni dieci e venti) ha luogo una frattura radicale delle forme della comunicazione estetica e dei linguaggi artistici, che porta all’estremo l’opposizione tra esperienza artistica e società borghese già presentatosi lungo il corso dell’ottocento.

La ricerca di linguaggi che superino i codici tradizionali e rompano le convenzioni borghesi riceve un ulteriore impulso dall’imporsi di nuove tecniche di comunicazione basate sull’uso di macchinari sempre più efficienti, sempre più veloci, voraci divoratori del tempo.

La tendenza è quella di porre i codici artistici all’altezza delle modificazioni intervenute nei rapporti dell’uomo con quanto lo circonda.

Le avanguardie storiche, l’espressionismo, il futurismo, il cubismo, il surrealismo, l’astrattismo intervengono in modo decisivo nella dialettica della comunicazione artistica, in forme spesso aggressive e violente al fine di infrangere le barriere che pesano sulla società.

Si arriva a mettere in discussione il ruolo stesso dell’arte, il suo tradizionale carattere di oggetto assoluto da godere nel distacco della contemplazione estetica. L’arte dunque non è più passiva contemplazione, bensì azione, energia, forza centrifuga e liberatrice, che superando ogni mediazione tra i linguaggi e le cose s’identifica con la vita stessa.

5.2. Breve excursus di alcune delle avanguardie artistiche del ‘900

5.2.1. ESPRESSIONISMO
L’espressionismo è una ben definita tendenza d’avanguardia artistica a cui possiamo attribuire sia una precisa collocazione temporale, nell’arco di anni che va da 1905 al 1925, sia un’altrettanto circoscritta area di localizzazione, l’Europa centro-settentrionale e in particolar modo la Germania

L’etimologia del termine “espressione” (dal latino ex che indica moto da luogo + premere, letteralmente dunque premere fuori) da cui espressionismo sintetizza la volontà da parte degli artisti di questa corrente di comunicare la loro concezione artistica, di rappresentare la sofferta condizione dell’uomo moderno.

Se l’impressionismo poteva essere assimilato ad una sorta di moto dall’esterno verso l’interno poiché era la realtà oggettiva ad imprimersi nella coscienza dell’artista, l’espressionismo rappresenta esattamente il moto inverso dal momento che l’anima dell’artista viene trasposta direttamente nella realtà, senza mediazioni né filtri.
La natura stessa è infatti concepita come proiezione immediata, spesso scomposta di sentimenti e stati d’animo soggettivi e impregnati di dati ideologici e sociali.

Contro l’eleganza dell’art nouveau si pongono le immagini deformate, dai colori violenti e contrastanti. Le linee spezzate e spigolose racchiudono spazi prospettici distorti ed esprimono la tensione dell’artista.

Feroce è la critica verso una società priva di valori morali e spirituali, che sta per precipitare nel caos e nella tragedia della Prima Guerra Mondiale.

Se Matisse, uno dei più arrabbiati esponenti dell’avanguardia espressionista francese manterrà sempre una giocosa serenità di fondo, forse connaturata alla stessa indole mediterranea; in terra tedesca, con Munch, considerato predecessore e contemporaneamente massimo esponente dell’espressionismo, assisteremo a drammatiche trasfigurazioni.

Forme e colori, perdendo qualsiasi rapporto di equilibrio, inizieranno una lotta furiosa che tingerà i cieli di rosso, rappresenterà uomini e donne di scheletrica angolosità, distruggerà ogni sentimento positivo, soffocherà ogni anelito d’amore nell’abbraccio della morte.

5.2.2. CUBISMO
Il Cubismo nasce a Parigi nel primo decennio del '900 a partire dalle innovazioni formali di Picasso e Braque. È il critico Vauxcelles che, recensendo una serie di paesaggi di Braque, riprende un’espressione di Matisse e parla della tendenza del pittore a ridurre tutto a cubi; il termine si diffonde e finisce per indicare il nuovo movimento, il più rivoluzionario del secolo.

I precedenti culturali del Cubismo sono individuati nella ricostruzione della natura e dello spazio per mezzo dei volumi da parte di Cezanne, e nella progressiva ricerca da parte dei postimpressionisti di una rappresentazione in grado di rivelare astraendo dall’apparenza l'essenza delle cose.
A questi fattori si può aggiungere il diffondersi della stilizzazione antinaturalistica della scultura e dell’arte primitiva, dell’arte nera grazie in primo luogo a Matisse e a Gauguin ma anche ai fauves che completano il processo iniziato dagli post impressionisti di distruzione dell’incanto illusorio della prospettiva rinascimentale.

“La natura è una cosa, la pittura è un’altra”: l’affermazione di Picasso racchiude tutto il significato del cubismo che abbandona l’univocità del punto di vista a favore della scomposizione e successiva composizione di ogni piano del reale.

L’occhio dell’osservatore percepisce l’oggetto raffigurato a tela compiuta nella sua interezza pur avendo esso una forma nuova, che non ha più alcuna somiglianza con l’oggetto originario. Del resto scrive lo stesso Braque “bisogna avere il coraggio di scegliere poiché una cosa non può essere al contempo vera e verosimile”.
Segue che i cubisti più che con gli occhi “vedono” con la mente, ricostruendo una realtà diversa da quella conosciuta.

L’intento non è più quello di esprimere l’oggetto nella sua collocazione spaziale, ma quello di costruire una rappresentazione simultanea di successivi momenti visivi inserendo così nel dipinto una quarta dimensione, il tempo, che finisce con fondersi con le altre tre.

Nella ricerca artistica si riflette il senso della relatività della conoscenza seguito alla crisi del positivismo. Il tempo e lo spazio, insegna Einstein non sono entità assolute, ma relative al soggetto che le vive.
Il tempo imprigiona cosi come la vita dell’uomo anche la tela dell’artista, mentre lo spazio da semplice contenitore di oggetti diventa spazio pieno, visibile e materialmente presente e di conseguenza scomposto cosi come gli oggetti che circonda e unisce.

La data d’inizio del cubismo si fa convenzionalmente risalire al 1907, l’anno in cui Picasso dipinge “Les Demoiselles d’Avignon”. A partire da questa data fino al 1909 si considerano gli anni di massimo splendore del movimento, siamo nella prima fase del cosiddetto cubismo formativo alla quale seguirà quella del Cubismo analitico che spezza e scompone le forme in piccoli piani che intersecano lo spazio circostante creando un reticolato ininterrotto. La scomposizione in questa fase è così rigorosa che il soggetto del dipinto spesso risulta indecifrabile anche a causa del fatto che il colore perde tradizionale protagonismo divenendo neutro, monocromo.

Infine il Cubismo sintetico dal 1912 al 1921 semplifica la scomposizione reinserendo piani più ampli che danno respiro ai colori che ritrovano vivacità. Vengono introdotti pezzi di materiale vario (papiers collés di Braque e collages di Picasso) che aiutano il quadro ad acquisire nuova dignità, d’oggetti assolutamente antonomo, nuovo elemento della realtà partorito dalla creatività dell’artista del quale ne esibisce i valori comunicativi, anche gli intenti sociali e politici, le denunce come dimostra la "Guernica" .

5.2.3. FUTURISMO
Il futurismo è l’unico movimento italiano di avanguardia europea, non limitato al solo settore artistico, ma rivolto a un generale e integrale rinnovamento della cultura e della vita, che rifiutando le forme artistiche tradizionali, va alla ricerca di un nuovo linguaggio adeguato agli sviluppi della civiltà delle macchine, proiettato verso un futuro segnato dai ritmi della produzione industriale.

Nel 1909 lo scrittore Tommaso Marinetti pubblica a Parigi sul giornale “Le Figaro” il Manifesto del Futurismo in cui sono elencati i temi e gli obbiettivi fondamentali del gruppo: il culto del progresso tecnico, della macchina, nella velocità, del prodotto industriale, l’amor del pericolo, l’esaltazione e la glorificazione della guerra, genitrice e regina di tutte le cose irrazionalmente considerata sola igiene del mondo, e non per ultimo il rifiuto dell’accademismo e più in generale di ogni forma di moralismo.

In seguito furono pubblicati diversi altri manifesti che preciseranno gli orientamenti nelle loro specifiche forme, e quindi troveremo un Manifesto della scultura futurista, un Manifesto tecnico della pittura futurista, un Manifesto dell’architettura ed uno sull’arte dei rumori.

La macchina è per i futuristi il prolungamento della forza dell’uomo e nella sua forma più clamorosa essa si identifica con l’automobile, il mezzo di trasporto che sconvolge radicalmente il rapporto fra uomo e natura. Quest’ultima viene investita dalla sua potenza, dal suo rumore, dalla sua velocità.

Le fondamenta ideologiche del movimento s’impiantano sul nuovo tessuto urbano industrializzato delle nascenti metropoli europee in un clima generale segnato dalla sempre maggiore spinta operata dal nazionalismo che va saldandosi con una confusa aspirazione al rinnovamento e all’azione.
Dei grandi partiti di destra che si affermano in questo periodo i futuristi copiano la tendenza a fare dell’apparato propagandistico uno dei più saldi punti di forza. Da qui l’importanza delle serate futuriste.

Da un punto di vista esclusivamente artistico per i futuristi il nuovo canone di bellezza è il dinamismo universale, necessario per una rapida trasformazione del mondo e per la rappresentazione visiva del progresso.

La sensazione dinamica è provocata dall’osservatore mediante la scomposizione e la compenetrazione delle cose. “tutto si muove, nulla è fermo” perciò gli oggetti, le forme, gli spazi si incastrano, si sovrappongono, entrano l’uno nell’altro.

Il dinamismo è reso dall’uso della linea curva unito a un ritrovato gusto per i colori accesi.
A questo proposito interessanti appaiono alcune affermazioni tratte dal Manifesto tecnico della pittura futurista.
1. un cavallo in corsa non ha 4 zampe, ma 20
2. un volto è giallo, rosso, verde, blu perché la luce, muovendosi, porta con sé i colori
3. tutto si muove rapidamente, le cose che si muovono si moltiplicano
4. lo spazio non esiste più, il tram entra nelle case, esse si scaraventano e poi si amalgamano con esso.

5.2.4. SURREALISMO
Il surrealismo è un movimento che si propone di costruire nuove forme di esperienze opposte alla logica borghese, scoprendo nuovi mondi, nuovi spazi a misura d’uomo, in cui dominano il sogno, la magia, l’erotismo, l’umorismo, il fantastico. Sviluppatosi in Francia negli anni venti per azione di un gruppo d’intellettuali e artisti guidati da André Breton il movimento si poneva agli antipodi del militarismo futurista, lottava per un’umanità che sapesse reggersi sull’amore, sulla libertà, sulla poesia.
Attraverso una personale lettura della psicoanalisi freudiana il surrealismo mirava a liberare ogni aspetto della vita dell’uomo, dando libero a quanto per secoli era rimesto sepolto nell’inconscio. Per raggiungere tali obbiettivi venivano messe in opera tecniche molteplici, tra cui si imponevano quelle della scrittura automatica basata sull’abbandono delle associazioni automatiche tra le cose e dell’umorismo. O più specificamente l’uso del frottage (strofinamento) o del grattage (raschiamento) o ancora del collage.

Lo stesso Breton definì il movimento automatismo psichico puro che mira a esprimere il funzionamento reale del pensiero.

Viene così raggiunta quella realtà superiore, la surrealtà, in cui veglia e sogno si conciliano e si compenetrano in modo armonico e profondo.





6. LETTERATURA ITALIANA

6.1. Luigi Pirandello
All’inizio del novecento la nascita di una nuova concezione scientifica, del tempo, dello spazio, della materia, confluisce nella necessità, avvertita dagli intellettuali, di reinterpretare il loro ruolo all’interno della società.
Una delle testimonianze più chiare della crisi delle ideologie ottocentesche e dei valori tradizionali è quella offerta da Luigi Pirandello nel 1893 nel suo saggio Arte e Coscienza d’oggi.
Il positivismo ottocentesco, che ha sostenuto l' esistenza di una realtà unica , indipendente dal soggetto e perfettamente conoscibile, crolla e con esso anche l’idea classica di individuo forte e razionale.
Gli intellettuali avvertono la fragilità della condizione umana: l’uomo non è più “animale politico”; egli è ora chiuso in un insormontabile solitudine, incapace di stabilire una qualsiasi relazione con i suoi simili.

Lo scrittore siciliano pone a simbolo della modernità la componente “relatività” derivante dalla rivoluzione scientifica di Einstein e Planck.
Poiché in virtù della relatività, il mondo esterno è vissuto attraverso il filtro della nostra soggettività, risulta impossibile che la conoscenza di esso sia univoca. E' inutile cercare al di fuori di noi una realtà unica, eterna e universale capace di contrastare la fragilità umana, perché la realtà esterna assume una fisionomia diversa per ciascun uomo. Essa è il risultato di un lungo processo graduale, che si sviluppa in stretto rapporto con l'esperienza personale.

Pirandello pone al centro della sua analisi il problema della soggettività.

“Crollate le vecchie norme, non ancora sorte o bene stabilite le nuove; è naturale che il concetto della relatività d' ogni cosa si sia talmente allargato in noi, da farci quasi del tutto perdere l'estimativa [la capacità di esprimere un giudizio]. Il campo è libero ad ogni supposizione [ipotesi]. L'intelletto ha acquistato una straordinaria mobilità. Nessuno riesce più a stabilirsi un punto di vista fermo e incrollabile. I termini astratti han perduto il loro valore, mancando la comune intesa, che li rendeva comprensibili.
Non mai, credo, la vita nostra eticamente ed esteticamente fu più disgregata. Slegata, senz'alcun principio di dottrina e di fede, i nostri pensieri turbinano entro i fatti attuosi [nell'incalzare degli eventi], che stan come nembi sopra una rovina. Da ciò a parer mio, deriva la massima parte del nostro malessere intellettuale. […]
Io non so se la coscienza moderna sia veramente così democratica e scientifica come oggi comunemente si dice. […] A me la coscienza moderna dà l'immagine d'un sogno angoscioso attraversato da rapide larve or tristi or minacciose, d'una battaglia notturna, d'una mischia disperata, in cui s'agitino per un momento e subito scompaiano, per riapparirne delle altre, mille bandiere, in cui le parti avversarie si sian confuse e mischiate, e ognuno lotti per sé, per la sua difesa, contro all'amico e contro al nemico. E' in lei un continuo cozzo di voci discordi, un'agitazione continua. Mi par che tutto in lei tremi e tentenni.”

Nell' “Arte e Coscienza d'oggi” l’autore descrive dunque la crisi intellettuale e morale della sua stessa generazione affetta da “inanismo”, “egoismo”, “spossatezza morale”, e incapace di elaborare nuovi valori, dopo aver scoperto la “relatività di ogni cosa”.

La modernità appare un intreccio contraddittorio di spinte e controspinte, senza vie d'uscita, un “continuo cozzo di voci discordi”, ciascuna delle quali appare condannata alla relatività del proprio punto di vista e perciò incapace di aspirare alla verità.

Per Pirandello una poetica moderna può nascere solo su programmi fondati sulla discordanza e sulla contraddizione.
L’autore tende a risolvere la contraddizione di fondo del nuovo secolo puntando sulla scomposizione critica e sulla dissonanza e cominciando a considerare le possibilità offerte dall’umorismo.
Nel 1908 scrive quindi uno dei suoi saggi più celebri, "L'umorismo", un’analisi dei comportamenti che l'uomo dovrebbe assumere nei confronti della vita .
Per Pirandello l'umorismo nasce dalla riflessione che, concentrandosi su un sentimento e scomponendolo nei suoi aspetti contraddittori, ne fa sorgere un altro opposto, anch' esso autentico, quello che Pirandello chiama sentimento del contrario.

L'uomo osserva il mondo e cerca di farsi di esso idee generali da usare come guida certa, poiché non potrebbe sopportare l'idea di un mondo sempre diverso, in continua mutazione.
La vita, che ha sempre a che fare con queste apparenze, diventa così un’enorme pupazzata, una fantasmagoria meccanica, quasi come il guscio di un lumaca, che si porta sempre dietro a fatica la propria abitazione , la quale può frantumarsi per un nonnulla da un momento all' altro.

Umorista è invece chi si spinge con la riflessione sempre più lontano dalle illusioni di cui è preda l' uomo, si toglie la maschera ed arriva così a scorgere nel mondo quell' abisso profondo che è la mancanza assoluta di un senso.

Umorista è colui che ha compreso questo gioco consolatorio creato fino ad ora dall' uomo per nascondere a se stesso la tragicità della vita, e che quindi cerca di mostrare l'assurdità di tale gioco.

Il primo umorista per Pirandello è stato Copernico , che ha avuto il coraggio di decostruire l'immagine orgogliosa che l'uomo si era fatto di sé, come centro e scopo del cosmo, catapultandolo in un Universo senza confini .

La riflessione dell' umorista va oltre l'apparenza e smonta le nostre certezze: "la riflessione si insinua acuta dappertutto e tutto scompone: ogni immagine del sentimento, ogni finzione ideale , ogni apparenza della realtà, ogni illusione ".

La causa di questo bisogno dell' uomo di ricondurre tutto a un senso rassicurante per quanto illusorio è per Pirandello quella macchinetta infernale che è la logica : "una pompa a filtro che mette in comunicazione cuore e cervello”, trasformando "il povero sentimento" in "un'idea astratta e generale".

Per Pirandello la Natura si è mostrata benevola nei confronti del genere umano perché gli ha concesso in esclusiva la ragione, e di conseguenza la possibilità di "sentirsi vivere". Da questa analisi, l’immagine dell'uomo risulta seriamente compromessa: l'ideologia pirandelliana ha la tendenza a distruggere la forza dell'individuo che si reputa un essere coerente e determinato nei propri propositi. Decostruire è lo scopo di Pirandello e ciò si esprimerà in tutta la sua produzione teatrale e letteraria.

L’arte umoristica è volta continuamente a evidenziare il contrasto fra forma e vita, tra personaggio e persona.

L’uomo ha bisogno di autoinganni: deve cioè credere che la vita abbia un senso e perciò organizza la vita secondo convenzioni, riti, istituzioni, che hanno lo scopo di rafforzare in lui tale illusione.

Gli autoinganni individuali e sociali costituiscono la forma dell’esistenza. La forma blocca la spinta anarchica delle pulsioni vitali, la tendenza a vivere momento per momento al di fuori di ogni scopo ideale, di ogni legge civile: essa cristallizza e paralizza la vita.

La vita è una forza ancestrale, profonda, oscura che fermenta sotto la forma e che riesce ad erompere solo saltuariamente nei momenti di sosta o di malattia, o di pazzia.

Il soggetto, costretto a vivere nella forma, non è più una persona integra, coerente e compatta, fondata sulla corrispondenza armonica fra desideri e realizzazione degli stessi, fra passione e ragione, ma si riduce a una maschera, ad un personaggio che recita una parte autoimposta nel teatro della vita.

Il personaggio ha davanti a se sempre due strade: o sceglie l’ipocrisia, l’adeguamento passivo alle forme, o vive consapevolmente accettando dolorosamente l’estraneità da sé e dalla società con la quale non potrà più neanche fare finta di comunicare.

Nel secondo caso la maschera diverrà nuda, pura, autentica, la persona riconquisterà se stessa ma per la società essa verrà considerata per sempre pazza.
Più che vivere il personaggio che ha scelto l’autenticità si guarda vivere, ponendosi al di fuori dell’esperienza vitale, compatendo gli altri ma prima ancora se stesso.

Tale distacco, pietoso e ironico insieme è il segno distintivo dell’umorismo.

L’umorismo che si distingue dalla comicità poiché non nasce dal semplice e immediato avvertimento del contrario (esempio della vecchia signora imbellettata) ma dalla riflessione su tale sentimento.

6.2. Italo Svevo
Altro autore della letteratura italiana del primo novecento che s’impegna della ricerca e nell’analisi del legame fra le conseguenze della rivoluzione scientifica nella vita dell’uomo è Italo Svevo.
L’analisi dell’evoluzione della società induce l’autore dall’orientamento mitteleuropeo a considerare il destino dell’umanità nella sua evoluzione complessiva, la difficoltà degli uomini a controllare gli ordigni di cui si sono dotati per adattarsi all’ambiente, la possibilità stessa della distruzione dell’umanità: nel saggio incompiuto sulla pace universale, cosi come nella parte conclusiva della Coscienza di Zeno, alla possibilità della distruzione della terra stessa da parte dell’uomo.

È ben nota la conclusione del romanzo se si pensa che essa fu scritta verso il termine della prima guerra mondiale, prima ancora cioè che il consorzio umano conoscesse le esplosioni nucleari né si sospettavano le possibilità sterminatrici delle reazioni a catena.

Per Svevo l’unica possibile catarsi di un mondo che avanza lentamente verso l’autodistruzione, causata dal deterioramento progressivo dell’ambiente e dall’uso irrazionale delle scoperte scientifiche, rimane la distruzione stessa, provocata da un’immane esplosione, che ridurrà la terra allo stadio di nebulosa, da cui ricominciare pazientemente l’evoluzione.

La malattia di Zeno, vera protagonista del romanzo, convertita poi nel successo lavorativo e affettivo dell’uomo, si identifica con la malattia della civiltà moderna, basata sul possesso degli ordigni, cioè la civiltà dei capitali e delle Borse e degli immensi eserciti e della guerra totale e degli stermini di massa.

Essa ha imboccato un percorso inverso rispetto a quello ordinario della natura intesa darwinianamente come luogo della lotta per la sopravvivenza del più forte. Essa, perdendo l’originaria autenticità, si è ridotta ad essere solo lo spazio entro cui l’occhialuto uomo agisce.

Nel finale Zeno predica: "La vita attuale è inquinata alle radici, qualunque sforzo di darci la salute è vano. Questa non può appartenere che alla bestia che conosce un solo progresso, quello del proprio organismo[…]. Ma l’occhialuto uomo, invece, inventa gli ordigni fuori del suo corpo e se c’è stata salute e nobiltà in chi li invento, quasi sempre manca in chi li usa".

La distinzione formulata è netta: agli animali spetta la salute e la felicità, agli uomini lo strano privilegio della malattia.

Questa distinzione torna nel frammento del saggio incompiuto “La corruzione dell’anima” del 1907, in cui Svevo racconta come ogni animale, appena uscito dalle mani del Creatore, rinunciasse all’"anima", l’intelligenza del tempo e della morte: "Da lui col malcontento l’anima era perita e continuò a vivere, ma della vita più bassa, non conoscendo che l’assimilazione e la riproduzione e perdette la vita intensa, quella che segna il tempo.”

L’uomo invece, più debole fisicamente, conservò l’anima, e cioè il desiderio insaziabile, che gli permise di creare degli "ordigni" esterni al proprio corpo; ma, si noti, " alcuni di questi ordigni erano idee": la giustizia, la scienza, la religione, l’ordinamento sociale ed economico.


“…la scienza è espressione più alta dell’anima malcontenta, la religione che dà qualche istante di pace all’anima torva…”

Da questo testo sveviano emerge allora un significato del termine "ordigno" più ampio di quello che sembra assumere nel finale della Coscienza; e soprattutto un atteggiamento ambivalente: "Gli animali ottengono gioia e soddisfazione, e perdono la "vera vita"; gli uomini l’acquistano, ma pagandola col malcontento, l’anima torva ed attiva. Gli ordigni procurano all’ "imperfettissimo" , debole e "disgraziatissimo" animale una forza superiore a quella di ogni altro, e a un tempo una sicurezza e un conforto impensati, ma insieme l’accrescimento della malattia, che condurrà infine alla sua distruzione".

L’ "anima" di cui l’uomo è dotato (che in fondo è la sua malattia) è allora la coscienza del "tempo misto", l’impossibilità di vivere in un "cristallino presente" a causa dell’avvertimento dell’incombere della morte.


L’uomo con le sue idee, gli "ordigni" più pericolosi ha sovvertito la selezione (la "legge") naturale facendo ammalare il mondo. In tale situazione, a cosa può servire la psicanalisi? A nulla più che a conoscere la psiche dell’uomo e i motivi delle sue nevrosi; ma quanto ai suoi obbiettivi terapeutici, Svevo (come Zeno) li rifiuta nettamente.



















7. FILOSOFIA

7.1. Premessa
La crisi della meccanica classica e lo sviluppo della nuova fisica relativistica e quantistica hanno introdotto nel dibattito epistemologico una nuova e complessa generazione di problemi, o anche semplicemente riproposto, sia pure in una nuova prospettiva, tematiche filosofiche che sembravano essere tramontate.
I nuovi concetti della fisica del XX secolo non rappresentano solo una sfida al senso comune, ma mettono in discussione le tradizionali soluzioni epistemologiche intorno alla conoscenza umana, alle sue possibilità, ai suoi limiti.
Due sono i concetti della fisica classica, come della filosofia, a crollare sotto il peso delle nuove scoperte scientifiche: da un lato il principio di casualità, dall’altro i fondamenti del metodo induttivo.

7.2. Crollo del principio di causalita’
Storicamente la causalità, ovvero genericamente la connessione fra due cose in virtù della quale la seconda è univocamente prevedibile a partire dalla prima, ha assunto due forme fondamentali.
1. forma di connessione razionale: la causa è ragione del suo effetto, che è perciò deducibile da essa.
2. forma di connessione empirica o temporale: l’effetto non è deducibile dalla causa, ma tuttavia prevedibile in base ad essa per la costanza e uniformità del rapporto di successione.
In entrambe le forme è comunque presente la nozione di prevedibilità univoca, infallibile dell’effetto rispetto alla causa, e di conseguenza anche la necessità del rapporto causale.

Nella sua prima accezione di causa razionale diversi filosofi hanno fondato la propria filosofia sul principio di causalità, ad esempio Platone e Aristotele, ma anche Copernico, Keplero, Galilei o ancora più avanti nel tempo Cartesio.

Platone per primo considera la causa come principio per il quale una cosa è, o diventa ciò che è. Accanto ad una causa prima, “divina” il filosofo ammise poi le concause che sono le limitazioni che incontra l’opera creativa del demiurgo e che costituiscono gli elementi di necessità del mondo stesso.

Aristotele afferma che la conoscenza e la scienza consistono nel rendersi conto delle cause e non sono nulla fuori di questo.
Allo stesso tempo egli nota come, se chiedersi la causa di una cosa significa chiedersi il perché della stessa, tale perché può essere diverso e ci sono quindi diversi tipi di cause, per la precisione: causa materiale (giustifica ciò di cui una cosa è fatta. il bronzo è causa della statua), causa formale (è forma, essenza di una cosa: la natura razionale è causa dell’uomo), causa efficiente(è ciò che da inizio al mutamento o alla quiete: padre è causa del figlio), causa finale (è il fine: la salute è la causa per cui si passeggia).
Queste 4 accezioni causali non sono per Aristotele sullo stesso piano in quanto c’è una causa prima e fondamentale, è data dall’essenza razionale della cosa ovvero dalla sostanza. La sostanza aristotelica essendo la causa prima di tutte le cose è anche principio d’intelligibilità perché comprendere una causa significa comprendere l’articolazione interna di una sostanza, cioè la ragione per cui una sostanza qualsiasi è quella che è.

La filosofia medievale ha il merito di aver elaborato un concetto di causa prima, diverso da quello aristotelico, parlando per al prima volta di causa prima come primo anello della concatenazione causale necessaria del mondo.

La nozione di un ordine casuale del mondo (spesso ricondotto a dio come causa prima) secondo il concetto neoplatonico e medievale, forma anche il presupposto e lo sfondo del primo organizzarsi della scienza con Copernico, Keplero, Galileo.

Dalla rivoluzione scientifica del seicento in generale e dalla metodologia galileiana in particolare emerge:
1. la concezione della natura come ordine oggettivo e casualmente strutturato di relazioni governate da leggi.
2. la concezione della scienza come sapere sperimentale-matematico e intersoggettivamente valido, avente come scopo la conoscenza progressiva del mondo circostante e del suo dominio a vantaggio dell’uomo.

Di particolare importanza è il metodo scientifico che sue questi due principi si fonda e si sviluppa; quello stesso metodo galileiano della scienza che ha spalancato le porte ai maggiori progressi scientifici dell’umanità, da newton ad Einstein ai nostri giorni.

Il metodo scientifico consta di due momenti, l’uno risolutivo, analitico, delle cosiddette sensate esperienze per cui la scienza attraverso l’attenta ricognizione dei fatti e dei casi particolari induce basandosi sull’osservazione, ad una legge universale; l’altro, il momento compositivo, sintetico, delle necessarie dimostrazioni prevede tutta una serie di ragionamenti logici su base matematica attraverso cui lo scienziato partendo da ipotesi di fondo formula in teorie tali ipotesi, riservandosi di verificarle nella pratica.

Cartesio dirà che la causa si identifica la ragione. La causa infatti è per il filosofo ciò dà ragione all’effetto, ne dimostra o giustifica l’esistenza o le determinazioni. Il che vuol dire che la causa è ciò che consente di dedurre l’effetto a priori.

La convinzione che la causa costituisca il principio di deduzione continua a persistere sia nelle dottrine idealistiche, sia nelle dottrine materialistiche e meccanicistiche.

Per Fichte ad esempio la causa coincide con l’attività creativa dell’io infinito che si dispiega e si realizza secondo un’assoluta necessità razionale.

All’incirca nello stesso periodo gli scienziati elaboravano, sulla base della spiegazione meccanica del mondo, un concetto di causa coincidente nella natura ad un principio di deducibilità.

Laplace (di cui ripropongo una citazione utilizzata riferendomi al crollo del determinismo), nel tardo settecento scriveva:

“…dobbiamo considerare lo stato presente dell’universo come effetto del suo stato anteriore e come la causa del suo stato futuro…”
“ …ma l’ignoranza delle diverse cause che concorrono alla formazione degli eventi come pure la loro complessità, insieme con l’imperfezione dell’analisi, ci impediscono di conseguire la stessa certezza rispetto alla maggioranza dei fenomeni. Vi sono quindi cose per noi incerte, cose più o meno probabili, e noi cerchiamo di rimediare all’impossibilità di conoscerle determinando i loro diversi gradi di probabilità.”

Di fronte all’avvento del caso e della probabilità gli scienziati reagiscono riaffermando la necessità di un principio assoluto delle scienze sperimentali. Tale principio non poteva essere che un determinismo necessario e cosciente nelle condizioni dei fenomeni.
Il determinismo continua ad essere l’ideale a cui tende la conoscenza scientifica.

Sappiamo come nonostante queste affermazioni così recise, la scienza a partire dalla seconda metà dell’800 seguì un altro corso rispetto all’elaborazione e all’uso della nozione di causalità. I progressi del calcolo della probabilità, alcune teorie fisiche prime fra tutte la teoria cinetica dei gas, poi la meccanica quantistica, fecero un posto sempre maggiore alla nozione di probabilità e da ultimo la meccanica quantistica tende a sostituire l’uso di questa nozione a quella di causalità che pareva indispensabile agli scienziati e ai metodologi dell’ottocento.


Le critiche che, a rari intervalli, la nozione di causa ha incontrato nella filosofia antica, tendono a ridurre tale nozione a quella di successione o connessione cronologica costante, base della prevedibilità degli eventi. È questa la seconda accezione classica del principio di causalità.

Il punto fondamentale della critica che consiste nell’indeducibilità dell’effetto dalla causa è espresso per la prima volta dal filosofo inglese David Hume.
Egli respinge qualsiasi possibilità di pervenire partendo dall’esperienza a qualcosa che non sia riducibile ad essa.
La tesi fondamentale della sua critica al concetto di causa è che pur essendo vero che tutti i ragionamenti che riguardano la realtà o fatti si fondano sulla relazione di causa ed effetto, è vero anche che la relazione fra causa ed effetto non può mai essere conosciuta a priori, cioè con il puro ragionamento, ma soltanto tramite l’esperienza.
Nessuno in effetti posto di fronte ad un oggetto completamente nuovo è in grado di scoprirne le cause e gli effetti prima di averli sperimentati, solo ragionando su di essi.
Dirà Hume che la necessità del rapporto causale non è un dato di fatto, ma il frutto di un’aspettativa fondata sull’abitudine. Tutto ciò che sappiamo dall’esperienza è infatti che a cause che ci appaiono simili ci aspettiamo effetti simili. L’abitudine spiega allora la congiunzione che l’uomo stabilisce fra i fatti, ma non la loro connessione necessaria.


Kant credette di aver risposto al dubbio di Hume sul valore della causa facendo della stessa una categoria, cioè un concetto a priori dell’intelletto applicabile ad un contenuto empirico e determinante la connessione e l’ordinamento obiettivo di tale contenuto.
Ma in realtà questa soluzione non poteva che postulare nella forma di un concetto a priori la soluzione del problema proposto da Hume, senza toglierne la difficoltà.
Quando Kant dice che la natura per esser tale deve essere ordinata da rapporti causali, non fa altro che dare una definizione della natura che già include questo rapporto. Pertanto la soluzione kantiana, per quanto ovviamente suggerita dall’esigenza di salvare o garantire la validità della scienza newtoniana fondata sulla nozione di causa, ha il carattere di una soluzione verbale e di un camuffato dogmatismo.

Ad indebolire questo dogmatismo contribuirono tuttavia nell’800 il riconoscimento del carattere antropomorfico del concetto di causa e dalla fine del 800 fino ai giorni nostri le limitazioni crescenti che l’uso di questo concetto ha trovato nel sapere scientifico.

Con la scoperta dovuta ad Heisenberg del principio d’indeterminazione, il principio di causalità subisce un colpo decisivo. L’impossibilità, stabilità da tale principio, di misurare con precisione una grandezza senza scapito della precisione nella misura di altra grandezza collegata, rende impossibile predire con certezza il comportamento futuro di una particella subatomica e autorizza solo a previsioni probabili, fondate su accertamenti statistici.

Chiarito dunque che la scienza attuale non può basarsi sul principio di causalità come accadeva nel passato, e dunque rispetto alla scienza fallisce anche il metodo deduttivo, ci chiediamo a questo punto del nostro percorso di analisi delle cause e delle conseguenze della più grande rivoluzione scientifica operata dall’umanità all’inizio del secolo: qual è oggi la concezione scientifica del mondo? Quale metodo si adopera oggi per fare scienza?

7.3. Che cos’e’ oggi la scienza?

Nel 1620 Francesco Bacone, scienziato e filosofo fra i fondatori della scienza moderna, paragona il metodo per fare buona scienza al sistema di produzione del vino: bisogna raccogliere il maggior numero possibile d’osservazioni, come fossero “moltissime uve, fatte maturare al punto giusto”, e pressarle poi nel torchio, per ottenere il “succo” delle leggi scientifiche.

Quello descritto dal filosofo è il metodo induttivo della scienza, che consiste dunque nel passaggio da un insieme di giudizi empirici particolari a un giudizio universale, che permette di formulare predizioni sui fenomeni osservati.

Gli scienziati secondo Bacone devono imitare il lavoro delle api, che raccolgono il nettare dai fiori ma poi lo trasformano in miele.
Non formiche che si limitano ad accumulare e consumare il cibo come gli empiristi che raccolgono materiale empirico utilizzandolo così com’è.
Non ragni che costruiscono tele con la loro stessa bava come i razionalisti che producono ragionamenti astratti, ragnatele intellettuali.

La scienza non deve basarsi solo sul lavoro dell’intelletto, ma deve trarre dall’esperienza il materiale per poi elaborarlo attraverso l’intelletto.

Il pensiero del filosofo inglese appare quanto mai condivisibile ed attuale.

L’inefficacia del metodo induttivo, come è accaduto per quello deduttivo, verrà portata alla luce solo in seguito alla rivoluzione scientifica del XX secolo.

Prima ancora che Popper parli di falsificabilità e Kuhn di paradigmi della scienza, Bertrand Roussel raccontava la storia del tacchino induttivista:

Un tacchino, in un allevamento statunitense, decise di formarsi una visione del mondo scientificamente fondata e
«Fin dal primo giorno questo tacchino osservò che, nell'allevamento dove era stato portato, gli veniva dato il cibo alle 9 del mattino. E da buon induttivista non fu precipitoso nel trarre conclusioni dalle sue osservazioni e ne eseguì altre in una vasta gamma di circostanze: di mercoledì e di giovedì, nei giorni caldi e nei giorni freddi, sia che piovesse sia che splendesse il sole. Così arricchiva ogni giorno il suo elenco di una proposizione osservativa in condizioni le più disparate. Finché la sua coscienza induttivista non fu soddisfatta ed elaborò un'inferenza induttiva come questa: "Mi danno il cibo alle 9 del mattino". Purtroppo, però, questa concezione si rivelò incontestabilmente falsa alla vigilia di Natale, quando, invece di venir nutrito, fu sgozzato.»

Il racconto di Russell mette in evidenza in primo luogo come ogni giudizio scientifico universale si fondi necessariamente su una credenza e, in secondo luogo, come la probabilità che le nostre predizioni, per quanto cautamente siano state ottenute, si possa avvicinare alla certezza, senza però giungervi mai.

I NEOPOSITIVISTI
I neopositivisti rigettano la posizione di Russell, che ammette una contaminazione inaccettabile tra la scienza e una forma di metafisica, la credenza. I membri del circolo di vienna vedono nella scienza empirica un tipo di sapere chiaro e largamente condivisibile, mentre considerano la metafisica come la “cattiva filosofia”. Per i neopositivisti ciò che giustifica il passaggio dalle osservazioni alla legge scientifica non è una credenza, ma semplice abitudine, che segue dalla ripetizione regolare di fatti, come ad esempio la relazione costante che si misura tra il periodo e la lunghezza di un pendolo.

POPPER
“la scienza non è l’assimilazione di dati sensibili che entrano in noi attraverso gli occhi, le orecchie e così via e che noi poi in qualche modo mescoliamo e trasformiamo in teorie. La scienza consta di teorie, che sono ad opera nostra. Noi facciamo teorie.”

La scoperta di Millikan che le cariche elettriche degli atomi sono multiple di 1,60 x 10 -19 C appare come un risultato puramente sperimentale: una legge generale ottenuta per induzione, a partire da una raccolta di fatti.

Tuttavia si può dire che esista una relazione univoca e diretta fra i fatti (misurazione svolta a partire dall’osservazione delle goccioline di olio) e la scoperta della quantizzazione della carica elettrica?

Questo problema ci introduce alla riflessione di Popper, considerato dagli stessi neopositivisti, “l’oppositore ufficiale” del circolo di Vienna, il quale per prima cosa critica la nozione classica di fatto, non più considerato come qualcosa che si presenta alla pura osservazione, perché l’osservazione pura non esiste.
I fatto secondo il fisico non si presentano spontaneamente allo sguardo ma devono essere cercati mediante opportune domande. L’osservazione risulta essere di conseguenza carica di teoria.

La critica del filosofo all’induttivismo riguarda tuttavia principalmente il processo mediante il quale a partire da una raccolta di fatti, si vorrebbe formulare un giudizio universale.

Ad esempio, osservando la seguente interferenza

“Il cigno n°1 è bianco”
“Il cigno n°2 è bianco” “tutti i cigni sono bianchi”
“Il cigno n°3 è bianco”
“Il cigno n°100 è bianco”


Giudizio particolare Giudizio universale
Esso rappresenta un errore logico, perché si fonda su un passaggio illecito da un insieme finito di giudizi particolari a un giudizio universale, che vale per un numero illimitato di casi.
L’elaborazione di un giudizio universale, come una legge scientifica, non può essere un procedimento puramente empirico di raccolta e di “spremitura” di tantissime osservazioni, come voleva Bacone.

Per fare una teoria occorre un tocco di genio o per dirla con Popper un’intuizione creativa, che suggerisca alla scienziato una visione più amplia dei fenomeni (caso cannocchiale di galileo)

Popper elabora infine un nuovo criterio per distinguere ciò che è scienza da ciò che non lo è. Il nuovo criterio di demarcazione è il criterio di falsicabilità secondo il quale una teoria è scientifica solo se è possibile confutarla. Segue che ogni teoria per Popper è vera sino a prova contraria. Attraverso la scienza popperiana vengono attaccate dunque anche le pretese di scientificità della psicoanalisi e del materialismo dialettico del marxismo, dal momento che queste teorie non possono essere falsificate.

Quella di Popper continua ad essere oggi una delle visioni della scienza più accreditate e condivise del consorzio scientifico.

Sulla stessa scia si colloca T. Kuhn il quale completa il quadro della nuova scienza parlando di paradigmi e di fasi scientifiche.
Un paradigma è un insieme di modelli esplicativi, teorie e pratiche sperimentali, ai quali la comunità scientifica per un certo periodo riconosce la capacità di costituire il fondamento della propria ricerca. Nella cosiddetta fase della “scienza normale” l’occupazione prevalente degli scienziati è quella di confermare e sviluppare il paradigma vigente.
Kuhn afferma che la scienza normale entra in crisi quando incontra un rompicapo che non si lascia risolvere mediante gli strumenti concettuali offerti dal paradigma. Questa è la fase della rivoluzione scientifica che prelude all’istituzione di un nuovo paradigma.

La scienza è così nella visione moderna un continuo alternarsi di fasi di normalità e di rivoluzione, si tratta solo di aspettare l’emergere della prossima anomalia.