SCIENZA E TECNICA DEL NOVECENTO

 

SCIENZA E TECNICA DEL NOVECENTO

Generalità

Secondo attendibili calcoli statistici, l’85 per cento di tutti gli scienziati che mai siano esistiti, da quando si conosce la storia del mondo, sarebbero contemporanei del Novecento. Basta questo dato per avere un’idea di quale sia stato in questo secolo, o meglio negli ultimi decenni, lo sviluppo delle attività scientifiche. Eppure ciò che colpisce maggiormente non è il fatto che il “mestiere” dello scienziato (un tempo solitario e spesso misconosciuto ricercatore) sia esercitato da un così grande numero di persone, né che queste lavorino in grandi équipe, a stretto contatto con l’economia, l’industria, il potere politico; ciò che impressiona è il fatto che scienza e tecnica sono entrate in mille forme nel nostro modo di vita, condizionando il nostro stesso linguaggio.
Molti degli oggetti che quotidianamente usiamo, testimoniano di una tecnologia avanzatissima, anche se non sempre ne siamo consapevoli. Possiamo non conoscere il funzionamento, l’essenza di un elaboratore elettronico ma sappiamo, disponendo anche solo di un modestissimo bagaglio di cognizioni, che a questi meccanismi, al sistema delle informazioni (e, domani, anche delle decisioni) programmate ed elaborate da macchine, sarà sempre più legato il processo produttivo e quindi la sorte della comunità, il nostro stesso personale destino.

Non vi è purtroppo, in tutto questo, solo un motivo di esaltazione: tutti avvertiamo quanto sia grande l’ipoteca accesa dalla scienza sulla vita degli uomini ed è difficile, ripetiamolo, sfuggire all’interrogativo: come e da chi viene usato lo strumento del sapere scientifico? Come si può ottenere che la scienza, e quindi gli scienziati lavorino solo nel senso del benessere, della salvezza, della felicità del genere umano?

Il meccanismo della ricerca non può né deve essere fermato. Ma il problema della destinazione della scienza resta ed occorre averne coscienza: un errore, una scelta sbagliata nella sua gestione, potrebbe essere, domani, fatale per l’umanità.

La scienza

Sarebbe impossibile, considerati i limiti di questa trattazione, tracciare qui un quadro complessivo delle conquiste della scienza contemporanea e dei problemi che le sono di fronte. Opereremo dunque una scelta, tralasciando di accennare a discipline anche molto importanti per prestare invece attenzione a quelle branche che per la portata dei loro successi e, soprattutto, per le generalizzazioni anche superficiali che se ne possono trarre, ci sembra abbiano caratterizzato – talora clamorosamente – il cammino della scienza in quest’ultimo mezzo secolo: la fisica, la biologia, l’astronomia.
Con una angolazione diversa, ma anche con profonde analogie, queste scienze ripropongono, aggiornati, gli eterni interrogativi sull’essenza della materia e della vita.

La fisica

Nell’estate del 1945, l‘esplosione della prima bomba atomica annunciava, nei termini più crudeli e tragici che si potessero immaginare, che una nuova era stava sorgendo. Quell’atomo, nei cui microscopici recessi era penetrata, un trentennio prima, l’indagine di Rutherford e di Niels Bohr, rivelava tutto il suo incommensurabile potenziale energetico. Dinanzi ai fisici si aprivano nuove “piste” per investigare sulla struttura della materia dell’intero universo. La grande questione a cui oggi si lavora può essere infatti così sintetizzata: che cosa è la materia? La conoscenza delle forze che tengono insieme l’atomo permetterà di risolvere tutti i misteri della realtà materiale che ci circonda? In altre parole, si può passare dall’infinitamente piccolo all’infinitamente grande e indagare sull’universo utilizzando le leggi dell’atomo?
La grande portata dell’ipotesi che la materia fosse costituita da atomi, stava appunto nelle possibilità che essa offriva di trovare una spiegazione unitaria, un denominatore comune, per tutti i fenomeni che si presentavano su scala macroscopica. Ma quando si scoprì che l’atomo era formato, a sua volta, da un nucleo circondato da elettroni; quando si individuarono nello stesso nucleo particelle incredibilmente più piccole, la domanda inevitabile fu questa: ma esiste qualcosa di più minuscolo ancora, che possa finalmente essere riconosciuto come il costituente elementare, non più divisibile, della materia, un punto fermo da cui risalire per spiegare tutti i fenomeni connessi alla materia stessa?

Questo, con una certa approssimazione, è il terreno difficilissimo sul quale si muove la fisica, o più precisamente, la microfisica.

È facile intendere le implicazioni di questa ricerca. Se si pensa che siamo fatti di atomi, ne consegue che dalla fisica potremo avere delle risposte anche per quanto riguarda un campo ancora prevalentemente arato dalla biologia e dalla biochimica: quello della materia organica e, quindi, della vita.

Lo studio delle particelle elementari costituisce dunque uno dei compiti più importanti ai quali attendono i fisici: cerchiamo di vedere, per linee generalissime, in cosa esso consista.

Le “particelle”

Sappiamo che all’interno di un atomo si muovono numerosi corpuscoli, estremamente piccoli. I ricercatori li hanno pazientemente individuati e, a un certo punto del loro straordinario censimento, si sono posti il problema se questi corpuscoli non potessero essere raggruppati, per certe loro caratteristiche, in due grandi “famiglie”: la prima, costituita da particelle longeve e capaci di vivere anche isolatamente, fuori dalla loro abitazione (l’atomo), vale a dire il protone, l’elettrone, il neutrino, il fotone; la seconda, assai più numerosa, formata da corpuscoli la cui esistenza, invece, dura qualche minuto (come i neutroni, ad esempio, che una volta liberi, decadono rapidamente, ognuno di essi dando vita a un protone, un elettrone, un neutrino).

Una volta fatta questa classificazione in “famiglie”, la domanda successiva fu la seguente: non potrebbero le particelle più solide (la prima famiglia, cioè) rappresentare, considerata la loro superiore stabilità, la componente elementare della materia? Se questa domanda avesse avuto una risposta soddisfacente, suffragata da prove, si sarebbe avuta una base di partenza per ricostruire lo “schema” della materia stessa.

Ma questa distinzione in due gruppi non ha retto a più attenti studi: gli esperimenti hanno dimostrato, infatti, che in condizioni determinate tutte le particelle, anche quelle per così dire di “buona famiglia”, possono trasformarsi, cambiare fisionomia, cedendo ad altre la propria e assumendo quella .di altre. Ciò apriva nuove difficoltà nella individuazione della particella elementare, poiché tutte le particelle, senza discriminazione alcuna, dimostravano di avere titoli sufficienti per aspirare all’ambita qualifica di “elementare”.

Per tentar di sbrogliare questa intricatissima matassa, i fisici hanno modificato il loro criterio di indagine, rivolgendo la loro attenzione alle forze che agiscono sulle particelle o, più precisamente, alle forze con le quali le particelle interagiscono (da interazione = scambio di energia, attrazione fra particelle di un atomo).

Sulla base di questo criterio sono stati indicati quattro tipi di interazione: “forte”, “elettromagnetica”, “debole”, “gravitazionale”. Le più forti garantiscono la stabilità del nucleo atomico, quelle più deboli sono responsabili del rapido degenerarsi di particelle come il neutrone. Proprio in rapporto al diverso modo in cui le particelle interagiscono, si è proceduto a una nuova loro classificazione. Poiché si è visto che gran parte di esse si comportavano come il protone, sono state riunite in una nuova famiglia, e battezzate col nome di “adroni” (dal greco “adros” = forte) poiché suscettibili, appunto, alla interazione forte.

Caratteristica molto importante di questa famiglia è quella di presentare notevoli “simmetrie”. Il principio di simmetria, che ha acquistato un ruolo di primo piano nella fisica moderna, stabilisce che un dato sistema fisico si comporta allo stesso modo in due situazioni diverse, che vengono appunto definite simmetriche.

Un esempio di simmetria è dato dalla omogeneità dello spazio: un corpo isolato si comporterà infatti sempre allo stesso modo qualunque sia il punto dello spazio in cui esso venga a trovarsi.

Tra le leggi di simmetria che interessano gli “adroni”, importantissima è quella che vale per la materia e per l’anti materia. Siamo così di fronte a uno dei più affascinanti problemi della fisica e vale la pena tentare di definirlo.

L’antI-materia

Nel 1932 l’americano Carl David Anderson (New York, 3 settembre 1905 – San Marino, 11 gennaio 1991) individuò sperimentalmente, un elettrone che aveva una carica elettrica positiva anziché negativa. Questo singolare e ultramicroscopico oggetto venne battezzato col nome di positone (o positrone). Diciotto anni più tardi, l’italiano Edoardo Amaldi (Carpaneto Piacentino, 5 settembre 1908 – Roma, 5 dicembre 1989) scopriva l’anti—protone, ovvero un protone con carica negativa anziché positiva. Nel 1956, Wolfgang Ernst Pauli (Vienna, 25 aprile 1900 – Zurigo, 15 dicembre 1958), grande fisico tedesco, scoprì con il neutrino anche l’ “anti-neutrino”. In sostanza, era come se elettroni, protoni, neutrini si guardassero allo specchio, in una situazione di perfetta simmetria.
Almeno in laboratorio, l’esistenza dell’anti-materia era provata. Un semplice ragionamento permette infatti di dedurre che l’unione di un anti-elettrone e di un anti-protone produrrà esattamente ciò che produrrebbero un’elettrone è un protone: rispettivamente un atomo di anti-idrogeno e un atomo di idrogeno. Se mettiamo insieme un certo numero di atomi di anti-ossigeno con un numero doppio di atomi di anti-idrogeno, avremo niente altro che anti-acqua, che avrebbe le stesse caratteristiche – anche se “rovesciate” – dell’acqua normale e che sarebbe perfettamente bevibile da un uomo, purché fatto di anti-materia. Condizione, questa, tassativa, perché in caso contrario l’incontro fra materia e anti-materia darebbe luogo a una istantanea annichilazione (con conseguente liberazione di una terrificante energia) che non lascerebbe dell’incauto bevitore che sparse particelle lanciate nello spazio ad altissime velocità.
Nel mondo fisico a noi noto, le anti-particelle sono in nettissima minoranza e hanno vita molto breve. Ma, come accennererno parlando di astronomia, vi sono ipotesi che proprio per la legge di simmetria, contrappongono al nostro universo, un universo fatto di anti-materia.
E tuttavia questa simmetria perfetta che regola il comportamento delle particelle stabili (protone, elettrone) suscettibili alle interazioni forti, sembra non essere più rispettata quando si considerano le interazioni deboli. Il che potrebbe far decadere il principio di simmetria da elemento costitutivo fondamentale dello “schema” della materia.
Come se a un certo punto del gioco, le tessere di un mosaico non si incastrassero più tra di loro. Da qui la ricerca di qualcosa di ancor più fondamentale, che appare oggi ancorato allo studio delle interazioni. A questo scopo lavorano scienziati di tutto il mondo con l’aiuto di potentissime macchine acceleratrici, in funzione negli USA, nell’URSS e anche in Europa. I costi della fisica delle alte energie salgono a livelli da, vertigine e naturalmente ciò comporta una programmazione e un coordinamento economico degli sforzi che tendono sempre più a diventare sovranazionali.

Abbiamo cosi sommariamente – e con inevitabili lacune – accennato al tipo di problemi che la fisica ha oggi di fronte. Un altrettanto sommario sguardo getteremo ora sulle concrete applicazioni che sono state fatte della energia nucleare.

La fissione nucleare

Dalla “Storia delle invenzioni” di Egon Larsen (Ed. Riuniti, Roma), sintetizziamo un capitolo che illustra chiaramente la scoperta ei modi di impiego iniziale dell’energia atomica.

Nel 1938, a Berlino, il professor Otto Hahn (fisico tedesco: premio Nobel nel 1944), scoprì che quando gli atomi di uranio vengono bombardati con neutroni; si spaccano secondo un processo che egli chiamò di “fissione” (un termine usato in biologia per indicare il modo in cui alcune cellule si dividono per formarne delle nuove). I 92 protoni del nucleo dell’uranio si dividono dando origine al bario, che ne ha 56, e al cripton, un gas che ha 36 protoni. Frederic Joliot-Curie (scienziato francese (1900-1958): premio Nobel nel 1935. Scoprì, con la moglie Irene (figlia dei coniugi Curie, scopritori del radio) la radiazione artificiale), il genero di Marie Curie, provò, alcuni mesi più tardi, che nel processo di fissione, per ogni nucleo spezzato veniva emesso più di un neutrone; alcuni dei neutroni liberati andavano a colpire altri nuclei, i quali a loro volta si scindevano, liberando ancora altri neutroni. Enrico Fermi (fisico italiano (1901-1954): premio Nobel nel 1938) sviluppò la teoria degli effetti che la scissione di una considerevole quantità di uranio avrebbe potuto provocare. Si poteva verificare una reazione a catena: i neutroni liberati avrebbero bombardato i nuclei con tale intensità che in un tempo minimo l’intera massa di uranio si sarebbe disintegrata. In questa reazione l‘uranio non si sarebbe quietamente convertito in bario e cripton, come avveniva con l’esperimento di laboratorio del professor Hahn. Avremmo avuto ora due nuclei più piccoli, non più raccolti insieme come prima, ma che si sarebbero respinti per via dell’ugual segno della loro carica elettrica e che avrebbero viaggiato a gran velocità con i neutroni proiettati intorno in tutte le direzioni. A un tale immediato sviluppo di energia – poiché il movimento è energia – avrebbe fatto riscontro, secondo la famosa equazione di Einstein, massa = energia, una perdita di massa. Infatti, se le due parti di un nucleo che ha subito la fissione potessero riunirsi (il che in pratica è impossibile) la nuova massa risulterebbe più piccola di quella del nucleo originario. E in tutto questo qual è il destino dei frammenti perduti? Essi si sono convertiti in energia, cioè in movimento, in calore.
Questa fu la teoria che nel breve giro di quattro anni portò alle prime bombe atomiche.

Dalla “pila atomica” alla fusione nucleare

La drammatica domanda che dopo Hiroshima il mondo si pose fu di sapere se gli scienziati sarebbero stati in grado di padroneggiare la tremenda energia che erano riusciti a scatenare; in che modo, cioè, si sarebbero potuti “ingabbiare” e tenere sotto controllo i neutroni in libertà, spezzando la reazione a catena. Fu Enrico Fermi (Roma, 1901 – Chicago, 1954)  a dare una risposta  positiva, mettendo a punto, nel 1942, la prima pila o reattore atomico. Fermi allestì, nel campo di foot-ball dell’Università di Chicago, un’apparecchiatura il cui elemento principale era costituito da una pila di blocchi di grafite, entro la quale venne collocata una sbarra di uranio. Una volta avviata la reazione, la grafite agiva da freno o da “moderatore”. La reazione stessa veniva poi arrestata dalla introduzione, nella pila, di verghe di cadmio, un metallo che ha la proprietà di “catturare” subito i neutroni. Con il primo, anche se rudimentale, “reattore”, si apriva la possibilità di utilizzare l’energia atomica per scopi che non fossero bellici.
Sulla base dell’iniziale schema di Fermi, vennero poi costruiti reattori e centrali atomiche sempre più perfezionati.

Ma la ricerca sulle fonti di energia racchiuse nell’atomo, non si arrestarono: a queste prime realizzazioni; E oggetto della indagine scientifica non fu più l’atomo nel suo insieme, ma il suo nucleo. I risultati non tardarono a venire e ancora una volta essi furono utilizzati per la costruzione di un ordigno esplosivo dalle capacità distruttive mille volte superiori alla atomica di Hiroshima: la bomba H o termonucleare.

La nuova arma si basa su un diverso principio: non si tratta più, infatti, della “fissione”, ovvero della spaccatura di un atomo di uranio, ma della “fusione”. Questo principio venne definito prima di quello della fissione, precisamente attorno al 1930, da due fisici inglesi, allievi di Ernest Rutherford: John Douglas Cockcroft (Todmorden, 27 maggio 1897 – Cambridge, 18 settembre 1967) e Ernest Thomas Sinton Walton (Dungarvan, 6 ottobre 1903 – Belfast, 25 giugno 1995) entrambi Nobel per la fisica. Questi, dopo aver allestito un apparecchio per bombardare il nucleo atomico di elementi leggeri (in particolare il litio), mediante protoni scagliati a grande velocità, scoprirono che il nucleo del litio si trasformava in quello di un elemento diverso e più pesante, l’elio. La trasformazione dava contemporaneamente luogo alla liberazione di una fantastica energia. Ben presto gli studiosi compresero di trovarsi di fronte a un processo analogo a quello che avviene all’interno delle stelle, autentiche fucine nucleari. Nelle stelle, infatti, si verifica continuamente la fusione di elementi leggeri (idrogeno in particolare) che si trasformano in elio. La differenza delle masse si traduce nell’energia irradiata. Perché tale processo si compia occorrono temperature altissime, dell’ordine di dieci milioni di gradi. Si spiega in tal modo il fatto che per ottenere la fusione di una bomba H, occorra impiegare una “normale” bomba atomica come ”accendino”: questa, infatti, disintegrandosi, produce il calore necessario perché la fusione si realizzi.
Inevitabilmente, dopo le prime sperimentazioni (bomba H sovietica nel 1953 e americana nel 1954) questi ordigni sono stati perfezionati, fino a raggiungere una potenza distruttiva superiore di molte migliaia di volte a quella delle atomiche. Per contro, non si è ancora pervenuti, per l’impossibilità di realizzare in laboratorio le temperature necessarie, a controllare i processi di fusione e adoperare l’energia così liberata per scopi pacifici. Questo resta il grande problema: in un mondo che vede progressivamente inaridirsi le fonti energetiche tradizionali, l’impiego dell’energia atomica e nucleare assume importanza vitale per assicurare possibilità di sviluppo – o forse di sopravvivenza – al genere umano.

VEDI ANCHE . . .

INVENZIONI E SCOPERTE

INVENZIONE DELLA LAMPADINA

INVENZIONE DEL TELEFONO

SCIENZA E TECNICA DEL NOVECENTO

BIOLOGIA

ASTRONOMIA

STORIA DEL CALCOLATORE ELETTRONICO

L’AUTOMAZIONE

LA CIBERNETICA

LASER

ALTRE CONQUISTE DELLA SCIENZA E DELLA TECNICA

GRANDI INVENTORI

A – B – CD – E – F – G – H – I – J – K – L – MN – O – PRST – U – VW – X – Y – Z

.