Consiglio Nazionale delle Ricerche
Dipartimento di Fisica Università di Bologna Museo di Fisica Sistema Museale d’Ateneo
Istituto Nazionale di Fisica Nucleare Sezione Bologna
storia e tecnologie della comunicazione ZANDERS
a cura di giorgio dragoni
Ma sopra tutte le invenzioni stupende, qual eminenza di mente fu quella di colui che s’immaginò di trovar modo di comunicare i suoi più reconditi pensieri a qualsivoglia altra persona, benché distante per lunghissimo intervallo di luogo e di tempo?
Galileo Galilei: Dialogo sopra i due massimi sistemi del mondo Tolemaico e Copernicano, Firenze (I giornata, 130)
Volume realizzato dall’Ufficio del Presidente del CNR Immagine e Attività Promozionali Coordinamento generale: Mario Apice Ideazione, Progetto e Cura del Volume: Giorgio Dragoni Progetto grafico: Orfeo Pagnani Impaginazione: om grafica, roma
Finito di stampare nel mese di Giugno 2002 om grafica - via f. luscino 73 - roma
a cura di
Giorgio Dragoni
storia e tecnologie della comunicazione
MOSTRA INTERATTIVA SULLA STORIA E SULLE TECNOLOGIE DELLA COMUNICAZIONE REALIZZATA COL PATROCINIO DI:
Ministero dell'Università e della Ricerca Scientifica e Tecnologica — Università degli Studi di Bologna — Regione Emilia-Romagna — Provincia di Bologna — Comune di Bologna — Consiglio Nazionale delle Ricerche — Accademia Nazionale dei Lincei — Accademia Nazionale delle Scienze detta dei XL — Accademia delle Scienze dell’Istituto di Bologna IN COLLABORAZIONE CON:
Fondazione Guglielmo Marconi
Università degli Studi di Bologna COMITATO SCIENTIFICO
Oreste Andrisano, Mario Apice, Pierangelo Bellettini, Franco Berardi, Paolo Bernardi, Maurelio Boari, Vittorio Boarini, Pier Ugo Calzolari, Rosaria Campioni, Giorgio Celli, Paolo Cortesi, Gian Luigi Costa, Giovanni Cristofolini, Giuliano Della Valle, Giorgio Dragoni (coordinatore della mostra e del volume), Angelo Errani, Gabriele Falciasecca, Attilio Forino, Giordano Gasparini, Antonio Genovese, Giorgio Giacomelli, Paolo Giusti, Roberto Grandi, Roberto Guidorzi, Antonella Huber, Maria Grazia Ianniello, Vivian Lanzarini, Renato Lenzi, Giuseppe Maino, Carmine Marinucci, Vito Monaco, Stelio Montebugnoli, Giovanni Morigi, Antonio Natali, Lucia Padrielli, Giovanni Paoloni, Alessandro Pascolini, Stefano Pirani, Giovan Battista Porcheddu, Mario Rinaldi, Gianluigi Russo, Raffaella Simili, Franco Soresini, Giancarlo Susini, Giorgio Tabarroni, Walter Tega, Angelo Varni, Ettore Verondini, Laura Villani, Romano Volta, Dino Zanobetti. COMITATO ORGANIZZATORE
Roberto Amato, Oreste Andrisano, Sanzio Bassini, Maurizio Bigazzi, Pierangelo Bellettini, Fabio Bisi, Andrea Bosi, Annalisa Bugini, Sonia Camprini, Andrea Conti, Cheti Corsini, Giovanna D'Amia, Franca Di Valerio, Giorgio Dragoni,Cesare Fontana, Barbara Frentzel-Beyme, Giulia Gandolfi, Giordano Gasparini, Luca Ghedini, Giovanni Gottardi, Loretta Gregorini, Stefano Gruppuso, Antonella Guidazzoli, Antonella Huber, Vivian Lanzarini, Giuseppe Maino, Marina Manferrari, Salvatore Mirabella, Vito Monaco, Mauro Nanni, Alessandro Pascolini, Gianni Pasolini, Giuseppe Pavani, Giovan Battista Porcheddu, Valentina Ridolfi, Roberto Roppa, Raffaella Simili, Silvia Sintoni, Franco Soresini, Sergio Tamburini, Piero Todesco, Goliardo Tomassetti, Barbara Valotti, Annelisa Veronesi, Laura Villani. Per la realizzazione informatica e la trascrizione dei testi che compaiono in questo volume si ringraziano, oltre a tutti gli Autori, le seguenti amiche/i e colleghe/i: Annalisa Bugini, Sonia Camprini, Paola Fortuzzi, Magda Giorgi, Barbara FrentzelBeyme Zamboni, Giovanni Lensi e, in particolare e soprattutto, Fabio Bisi. Un ringraziamento, inoltre, per i suoi consigli, si deve a Luigi Prandstraller. Un sincero ringraziamento al personale e ai funzionari delle Teche Rai: Barbara Scaramucci, Sandra Eichberg, Barbara Tafuro, Susanna Mieli. Uno agli amici Umberto Cavezzali, Vito Monaco e Mario Rinaldi. Senza l’appoggio del primo la collaborazione con la Rai sarebbe stata forse impossibile, senza l’aiuto dei secondi la collaborazione con i Dipartimenti di Ingegneria e con il Cineca molto più difficile. Un sentito ringraziamento, all’allora Rettore della nostra Università, Fabio Alberto Roversi Monaco e al Direttore Amministrativo, Ines Laura Fabbro, per il contributo finanziario concesso all’iniziativa. Uno, infine, per avermi offerto un costante sicuro riferimento, al Professor Attilio Forino, allora Direttore del Dipartimento di Fisica. Si ringrazia: Progetto Finalizzato per i Beni Culturali del Consiglio Nazionale delle Ricerche; Istituto e Museo di Storia della Scienza, Firenze; DEIS, Dipartimento di Elettronica, Informatica, Sistemistica, Bologna; CNIT, CSITE - CNR; CeSIA; CITAM; LABNET, Napoli; Istituto Tecnico Commerciale Statale; "Crescenzi - Tanari", Bologna; Biblioteca dell'Archiginnasio, Bologna; Deutsches Museum, Monaco di Baviera; The National Museum of Science & Industry, Londra; Traditionsverein Fernmelde -\Elektronische Aufklärung Luftwaffe e.V., Treviri; Istituzione Cineteca Comunale di Bologna; Museo del Gabinetto di Fisica, Urbino; AIRE, Associazione Italiana per la Radio d'Epoca; Consorzio Università - Città di Bologna; ARI, Associazione Radioamatori Italiani, Bologna; AEI, Associazione Elettrotecnica ed Elettronica Italiana; Siemens AG, SiemensForum, Monaco di Baviera; Collezione Cremona, Colleferro, Roma; Agilent Technologies; ASI, Comsat Laboratories, Eutelsat, Siemens ICN; Sinform; IEEE; Vehicular Technology Communications; Museo della Radio: mille voci… mille suoni, Bologna; IRA, Istituto di Radioastronomia; Istituto di Geologia Marina; Area della Ricerca CNR, Bologna; Koinè Sistemi, Torino; The Exploratorium, San Francisco, Usa; Heureka, Vantaa, Helsinki, Helsinki 2000. i Collezionisti: Francesco Soresini, Filippo Sinagra, Marco Moretti, Nelson Rodriguez, Carlo Pria, Romualdo Gianni, Nerio Neri, Francesco Cremona, Luigi Foschini, Giovanni Pelagalli, Franco e Susanna Govoni, Luca Liberatore, Maurizio Bigazzi, Alberto Camellini, Alberto Dani, Carlo e Giovan Battista Porcheddu, Raimondo Aielli. e i Fotografi: Istituzioni, Enti, Privati che hanno cortesemente contribuito ad arricchire il volume con immagini fotografiche. Per un ringraziamento individuale e specifico si rinvia alle didascalie delle rispettive immagini. Qui si ringraziano, in particolare: Gianfranco Artusi, Fabio Bisi, Gianalberto Cigolini (Studio Fotografico, Milano), Giorgio Dragoni, Antonio Grilli, Carlo Porcheddu, Studio Villani (Bologna), “La Repubblica”, “Il Resto del Carlino”, GEC-Marconi (Chelmsford, Inghilterra), Science Photo Library, Max-Planck Institute für Radioastronomie (Bonn). ORGANIZZAZIONE, SEGRETERIA, UFFICIO STAMPA DELLA MOSTRA
TRAIT–D’UNION • Tel. 051 6486.168 - Fax 051 6486.229 • E-mail:
[email protected] in collaborazione con: Albo Allestimenti Bologna e Viabizzuno Progettiamo la Luce.
FMR TECHE RAI Z A N-
Studio
Arnoldo Mondadori
Franco Maria Ricci Fotografico
Gianalberto Cigolini, Milano
Museo di Fisica - Dipartimento di Fisica - Sistema Museale d’Ateneo - Università degli Studi, Bologna
indice
8 presentazioni
20 evoluzione delle comunicazioni: la storia 22 Dai viaggiatori ai cronisti e ai turisti, L. Andalò ■ 24 Il nascere e lo svilupparsi della comunicazione scritta, P. Bellettini ■ 26 La Bologna curiosa di G.C. Croce, R. Campioni ■ 28 La “chiave del mondo” e la sua ombra, G. D’Amia ■ 30 Onde radio nello spazio, F. Soresini ■ 44 Guglielmo Marconi (1874-1937), B. Valotti ■ 46 Le vie della comunicazione elettrica. Dal telefono alla radio, G.B. Porcheddu ■ 64 Claude Shannon e la teoria dell’informazione, T. Numerico ■ 69 Heureka, il Science Centre finlandese e i “nuovi” centri di diffusione della cultura scientifica e tecnologica, A. Bugini, S. Camprini
74 ricerca nel campo delle telecomunicazioni 76 La Rete informatica dell’Università di Bologna,
M. Boari, F. Delpino ■ 78 La Rete Garr, il progetto GRID e le Reti di Ricerca INFN, A. Pascolini ■ 82 Dynamic System Identification, CITAM, R. Guidorzi ■ 83 La Ricerca presso l’ENEA, S. Gruppuso ■ 86 Gli strumenti della memoria: informatica e diagnostica fisica per i beni culturali, D. Biagi Maino, G. Maino ■ 94 Le ricerche presso il Centro di Studio per l’Informatica e i sistemi di telecomunicazioni del CNR, O. Andrisano ■ 98 Il Radiotelescopio di Medicina, R. Ambrosini, S. Montebugnoli, M. Nanni ■ 102 Il Progetto 2D, 3D, 4D, Progetto Nu.M.E. Consorzio Università-Città, Bologna 2000, Cineca, F. Bocchi ■ 105 Navigazione in 4D del NUovo Museo Elettronico della Città di Bologna, A. Guidazzoli ■ 106 Prima installazione del Baby Reality Center del Cineca, F. Serafini ■ 108 La storia e la ricerca dell’Istituto di Geologia Marina del CNR in Multivisione, M. Ravaioli, F. Giglio, G. Marozzi, N. Bianchi, F. Bentivoglio, D. Martignani ■ 110 La visualizzazione dei fondali marini in realtà virtuale, G. Bortoluzzi, T. Diamanti, G. Stanghellini, L. Calori, A. Guidazzoli ■ 112 Il codice a barre, R. Amato
114 comunicazione e ricerca nelle scienze della vita 116 Il Progetto Genoma,
G. Della Valle, V. Politi, R. Bernardoni, G. Perini, D. Grifoni
■
119
Comunicazione e orientamento nelle api, G. Celli ■ 124 Parlarsi con le molecole disciolte negli oceani, P. Cortesi, O. Cattani, G. Isani, G. Vitali, S. Sintoni ■ 130 Il linguaggio degli ultrasuoni dei delfini, R. Lenzi, L. Bartoletti, S. Sintoni, P. Cortesi ■ 134 Impatto ambientale dei sistemi di comunicazione, P. Bernardi, M. Cavagnaro, S. Pisa, E. Piuzzi ■ 136 Internet e net-culture, F. Berardi
138 ricerca e restauro: il passato parla 140 I metalli: un messaggio dal passato, G.L. Garagnani, V. Imbeni, ■ 141 Una contraffazione antica studiata al SEM,
D. Prandstraller
C. Martini, G. Poli, G. Russo
■
143
Comunicare con il Faraone senza disturbarlo, F. Casali
146 prospettive 148 Una lunga marcia… che continua!,
R. Predi
■
150 Scenari futuri, storia di ieri,
R. Simili
indice
9 Prefazione, L. Bianco ■ 10 Guardando avanti, P.U. Calzolari ■ 11 Bologna 2000: la Città e la cultura, G. Guazzaloca ■ 12 Lista degli autori ■ 13 Address given at the opening ceremony of the Communication Exhibition at the Palazzo Re Enzo, Bologna, P.E. Persson ■ 14 Presentazione e progetto generale della mostra e del volume, G. Dragoni ■ 17 Il veliero, ovvero le linee espositive della mostra, L. Trebbi ■ 18 La comunicazione nella pittura di Benedetta Cappa nel Palazzo delle Poste a Palermo, A. Ferretti
B. Cappa, Sintesi delle comunicazioni aeree, Palazzo delle Poste, Palermo. Per cortesia di: FMR, Franco Maria Ricci.
8
prefazione Il volume che qui presentiamo supera il livello di puro e semplice catalogo che testimonia un’occasione temporanea qual’è quella di una Mostra – compito questo già di per sé dignitoso e necessario – per assumere il ruolo di un documento che all’inizio del 2002 ci consegna un quadro di numerose attività nel settore delle comunicazioni e, per certi aspetti, fa il punto su molte ricerche nel settore delle telecomunicazioni, viste nel loro sviluppo temporale, nella loro evoluzione, nelle loro forme attuali anche più avanzate. Per raggiungere questo ambizioso obiettivo è stato necessario procedere all’attivazione di numerose collaborazioni – e al loro coordinamento – con Enti di Ricerca, Istituti Universitari, Musei, collezionisti e, soprattutto, ricercatori italiani e stranieri. La vasta latitudine culturale dei temi trattati, la poliedricità degli stimoli da essi suggeriti non possono non avere una forte valenza formativa e, in generale, didattica. Ben si comprende, quindi, l’ampio spazio destinato nella Mostra (e,quindi, nel Volume) alla Sezione di Exhibit finlandesi, al Farfare Fisica, ma anche alle Collaborazioni con l’Infn, l’Enea, il Cineca… per citare solo qualche esempio, oltre, naturalmente, allo spazio riservato alle attività di ricerca coordinate dal CNR. Un’esigenza culturale imprescindibile ha fatto sì che l’inquadramento generale della Mostra e del Catalogo fosse di tipo storiografico, ma la parte preponderante è connessa agli aspetti tecnologici contemporanei. È innovativo, crediamo, l’aver voluto avvicinare ai temi delle tecnologie più avanzate l’esigenza di voler confrontare altri e diversi linguaggi e modi del comunicare, quali quelli delle api, dei pesci, dei delfini, oltre al codice dei codici: la mappa del DNA, il progetto Genoma, ma anche di oggetti quali monete, reperti d’arte antichi che, comunque, trasmettono un loro messaggio, che ci giunge dal passato, portandoci, a volte, sorprendenti informazioni. La ricerca non ha confini e, quindi, non può sorprendere come un settore della Mostra/Volume sia dedicato anche alla ricerca di intelligenze extra terrestri. Il comunicare è indispensabile, ma, a volte, si può avere un’esigenza di voler comunicare solo con qualcuno, non con tutti. È un’esigenza imprescindibile della nostra vita privata, ma è anche un obbligo in un universo come il nostro in cui la concorrenzialità è ancora così forte. La sezione che si occupa della crittografia, delle radio spie, del codice Enigma – la cui decrittazione è stata alla base dello sviluppo dei moderni calcolatori – illustra specificamente questa dimensione atipica e, per così dire in negativo – in senso fotografico – del comunicare. È chiaro che, in un contesto come questo, non poteva mancare la presenza del Consiglio Nazionale delle Ricerche, sia a livello istituzionale, sia a livello di Istituti di Ricerca e, in particolare, del Progetto Finalizzato per i Beni Culturali.
Lucio Bianco
p resentazioni
Presidente CNR
9
Insegne Rettorali (XVI sec.) dell’Università di Bologna conservate in Palazzo Poggi, Sede del Rettorato. Tutte le foto di questa pagina sono dovute alla cortesia dell’Università degli Studi di Bologna.
guardando avanti Una Mostra è sempre un’occasione di conoscenza, di stimolo, di creazione di centri di interesse nel pubblico dei visitatori. In particolare ciò è vero per una Mostra come questa in cui si coniuga il passato (la storia e le prime applicazioni della tecnologia delle comunicazioni) con il presente (la straripante diffusione dei sistemi informatici su larga scala) e con il futuro (l’arrembante sviluppo ulteriore della ricerca nel settore delle telecomunicazioni). Rilevante poi ci sembra l’idea di non far prevaricare gli aspetti tecnologici su quelli umani e apprezzabile l’aver tenuto in considerazione i modi di comunicare tra gli insetti, tra i delfini, con un’apertura verso la ricerca di intelligenze extra-terrestri. Una Mostra assolve a molte funzioni di tipo didattico, di interattività culturale, e questa Mostra si è segnalata particolarmente proprio per questi aspetti. Basti pensare al grande numero di studenti e di scolaresche da cui è stata visitata. Purtroppo, essa è un’occasione effimera, di durata temporanea. Questo il suo limite, come quelli precedenti i suoi pregi. Il Libro che sta vedendo la luce ora avrà il pregio di dare all’effimero una sua dimensione permanente. Una riflessione scritta sulle telecomunicazioni. Un’ocGonfalone dell’Università di Bologna fatto eseguire e offerto da un Comitato di Dame bolognesi nel 1888. Palazzo Poggi, Sede del Rettorato dell’Università.
casione per riflettere sui numerosi aspetti connessi alla stessa radice del nostro modo di essere, cioè quello del comunicare. L’occasione è, quindi, importante. Consentirà anche a chi non ha avuto l’occasione di visitare la Mostra di prendere contatto con le sue tematiche. Di riflettere sui suoi sviluppi. Di aggiornarsi sulle sue linee di accrescimento, sulle sue innovazioni più recenti. È già molto. Ma si potrebbe fare persino di più. L’insegnamento, la didattica, la creazione di centri di interesse, la rinascita di un modo di comunicare più immediato, più diretto tra insegnanti e studenti sono, ormai, un obbligo imprescin-
Sigillo dell’Università di Bologna impiegato anche per le Celebrazioni del IX Centenario dell’Università (1088-1988).
dibile della nostra civiltà tecnologica. Il non capire questo punto potrebbe essere pericoloso per la nostra società stessa. E il calo di frequenze nei corsi di laurea scientifici o tecnici testimoniano che non si tratta di un pericolo astratto, puramente teorico. Si tratta di un pericolo reale. L’Università, tra i suoi numerosi compiti non può ignorare questo aspetto sociale. Molto si sta facendo per affrontare il problema e per risolverlo ma, forse, si potrebbe fare qualcosa di più. La creazione di una struttura permanente storicoscientifico-tecnologica, cioè di un museo della scienza e della tecnica innovativo nelle sue forme di promozione didattica e nei suoi modi di presentare al pubblico degli studenti, e a quello più generale, il fascino di discipline che permeano la vita contemporanea, dovrebbe costituire un obiettivo imprescindibile da attuarsi a favore della crescita e della diffusione della cultura scientifica. È un obiettivo in cui crediamo. È un obiettivo che ci proponiamo, e che speriamo di realizzare.
Pier Ugo Calzolari Rettore dell’Università degli Studi di Bologna
10
Tutte le foto di questa pagina sono dovute alla cortesia di: C. Porcheddu.
bologna 2000: la città e la cultura La mostra Communication ritengo abbia occupato nel panorama delle iniziative di Bologna Città Europea della Cultura del 2000 una posizione di estrema rilevanza. Non solo perché il tema che l’Unione Europea ha voluto assegnare a Bologna è proprio quello della Comunicazione, considerando l’impegno che in questi anni l’amministrazione civica ha indirizzato allo sviluppo della comunicazione pubblica, la tradizione di eccellenza della nostra Università nelle scienze della comunicazione e la presenza di un forte tessuto di associazioni e di imprese attive nel campo delle nuove tecnologie. Non solo perché Bologna, grazie alla sua posizione geografica centrale, è stata in passato luogo di transito di culture, merci e uomini, e ora, alle soglie del nuovo millennio, vuole cogliere le opportunità offerte dalle reti informatiche per continuare a svolgere quel ruolo di crocevia della Comunicazione che la tradizione storica le affida. Ma anche e soprattutto perché il tema della comunicazione ricopre oggi una centralità strategica. Lo sviluppo delle nuove tecnologie ha radicalmente modificato il modo di pensare e di apprendere, ha ampliato le possibilità di partecipazione di tutti alla vita culturale e sociale, ha aperto inediti scenari, ma nel contempo ha suscitato interrogativi e ha reso necessarie nuove risposte. Proprio per analizzare a fondo un tema così complesso, Bologna 2000 ha sviluppato in questo ambito un programma di iniziative estremamente ricco ed articolato, che ha visto nella mostra Communication uno dei suoi momenti più alti. Una mostra che, attraverso i più innovativi strumenti elaborati dalla didattica scientifica, ha illustrato l'evoluzione storica dei sistemi di comunicazione e i suoi aspetti socio-culturali, analizzando in particolare l'impatto delle nuove tecnologie e le loro implicazio-
Fontana del Nettuno del Giambologna.
ni sul concetto di comunicazione. Una mostra che ha inoltre dimostrato come, per raggiungere risultati così importanti, sia necessario mettere in campo tutte le forze disponibili attraverso la collaborazione tra istituzioni, enti di ricerca e aziende del settore di livello internazionale. Il fatto poi che una parte dell’esposizione abbia viaggiato per tutte le nove Città Europee della Cultura costituisce il coronamento ideale per questo progetto che si prefigge di dare un contributo all'ampliamento delle conoscenze verso i nuovi
Giorgio Guazzaloca Presidente di Bologna 2000 Sindaco del Comune di Bologna
In alto: Basilica di S. Petronio e Palazzo dei Notai. in Piazza Maggiore, Bologna.
Basilica di S. Luca, Bologna.
11
p resentazioni
strumenti della comunicazione.
p resentazioni
lista degli autori
AMATO, Roberto Communication Supervisor, Datalogic Spa, Bologna AMBROSINI, Roberto Primo Ricercatore, Ist. di Radioastronomia, Resp. Gruppo Controllo Interferenze Radio, Membro del Radio Science Team delle Missioni Cassini, Bologna ANDALO’, Learco Pres. dell’Associazione Culturale Erasmo, Imola ANDRISANO, Oreste Prof. Ord. di Sistemi di Telecomunicazioni, DEIS, Dip. di Elettronica Informatica e Sistematica, Dir. CSITE - CNR, Centro di Studio per l’Informatica e i sistemi di Telecomunicazione – CNR, Univ. di Bologna BARTOLETTI, Luca Resp. Settore Ambiente, Centro per l’Innovazione e lo Sviluppo Economico (C.I.S.E.). Azienda Speciale della Camera di Commercio di Forlì-Cesena BELLETTINI, Pierangelo Dir. della Biblioteca dell’Archiginnasio del Comune di Bologna BENTIVOGLIO, Franco Collab. esterno softwarista dell’IGM, Ist. di Geologia Marina, CNR, Bologna BERARDI, Franco Saggista – Esperto di Telematica, Consorzio Università – Città di Bologna BERNARDI, Paolo Prof. Ord. di Microonde, Univ. di Roma “La Sapienza” BERNARDONI, Roberto Assegnista, Unione Europea, Genetica, Univ. di Bologna BIAGI Donatella MAINO Prof. Ass. di Storia del Restauro, Fac. di Conservazione dei Beni Culturali, Sede di Ravenna, Univ. di Bologna BIANCHI, Nicola Collab. esterno Ist. di Geologia Marina, CNR, Bologna BIANCO, Lucio Pres. del CNR, Consiglio Nazionale delle Ricerche BOARI, Maurelio Prof. Ord. del DEIS, Univ. di Bologna BOCCHI, Francesca Prof. Ord. di Storia Medievale, Univ. di Bologna, Resp. del Progetto NuME, Nuovo Museo Elettronico BORTOLUZZI, Giovanni Tecnico Ist. di Geologia Marina, CNR, Bologna BUGINI, Annalisa Libero professionista, già Borsista CNR, Collab. del Museo di Fisica, Dip. di Fisica, Univ. di Bologna CALORI, Luigi Tecnologo, CINECA, Centro Interuniversitario di Calcolo, Bologna; Ist. di Geologia Marina, CNR, Bologna CALZOLARI , Pier Ugo Rettore dell’Università di Bologna CAMPIONI, Rosaria Soprintendente per i Beni Librari e Documentari della Regione Emilia-Romagna CAMPRINI, Sonia Borsista CNR, Museo di Fisica, Dip. di Fisica, Univ. di Bologna CASALI, Franco Prof. Ass. di Metodi nucleari di analisi tecnologiche, Lab. di Fisica Sanitaria, Univ. di Bologna CATTANI, Otello Ric. Biochimica, Dip. di Biochimica, Univ. di Bologna CAVAGNARO, Marta Ric. di Campi Elettromagnetici, Univ. di Roma “La Sapienza” CELLI, Giorgio Prof. Ord. di Entomologia, Direttore dell’Istituto di Entomologia “G. Grandi”, Univ. di Bologna CORTESI, Paolo Prof. Ass. di Biochimica Dip. di Biochimica, Univ. di Bologna D’AMIA, Giovanna Arch., Dott. di Ricerca in Storia dell’Architettura e dell’Urbanistica, Esperta di Storia dell’Architettura Contemporanea e del Design, Milano – Parigi DELLA VALLE, Giuliano Prof. Ord. di Genetica, Dip. di Biologia Evoluzionistica Sperimentale, Univ. di Bologna DELPINO, Federico Astronomo presso l’Osservatorio Astronomico di Bologna DIAMANTI, Tiziano Collab. del CINECA e dell’Ist. di Geologia Marina, CNR, Bologna DRAGONI, Giorgio Prof. Ass. di Storia della Fisica, Univ. di Bologna FERRETTI, Alessandra Insegnante di Disegno e Storia dell’Arte, Liceo Scientifico “A. Righi”, Bologna GANDOLFI, Giulia Collab. Facoltà di Conservazione dei Beni Culturali, Sede di Ravenna, Università, Bologna, Borsista Archivio Storico, Univ. di Bologna
GARAGNANI, Gian Luca Prof. Ass. di Metallurgia, Dip. di Ingegneria, Università, Ferrara GIGLIO, Federico Assegnista Ist. di Geologia Marina, CNR, Bologna GRIFONI, Daniela Dottorando in Genetica, Univ. di Bologna GRUPPUSO, Stefano Componente Unità Comunicaz. e Informaz., ENEA, Ente per le Nuove Tecnologie, l’Energia e l’Ambiente, Bologna GUAZZALOCA, Giorgio Pres. di Bologna 2000, Sindaco del Comune di Bologna GUIDAZZOLI, Antonella Ing. Resp. del Laboratorio ViS.I.T. (Visual Information Technology Laboratory) CINECA, Centro Interuniversitario di Calcolo, Bologna GUIDORZI, Roberto Prof. Ord. DEIS, Dir. del CITAM, Centro Interfacoltà per le Tecnologie Didattico – Educative Teleaudiovisive “G. Marconi”, Univ. di Bologna IMBENI, Valentina Borsista post doc, Ist. di Metallurgia, Univ. di Bologna ISANI, Gloria Ricerc. di Biochimica, Dip. di Biochimica, Univ. di Bologna, LENZI, Renato Corporate Animal Program Manager, Dolphin Discovery, Cancun, Messico MAINO, Giuseppe Vice Dir. Div. di Fisica Applicata ENEA, Prof. Incaricato di Informatica Generale, Facoltà di Conservazione dei Beni Culturali, Sede di Ravenna, Univ. di Bologna MAROZZI, Gabriele Tecnico fotografico dell’Ist. di Geologia Marina, CNR, Bologna MARTIGNANI, Davide Collab. esterno dell’Ist. di Geologia Marina, CNR, Bologna MARTINI, Carla Ricerc., Istituto di Metallurgia, Univ. di Bologna MONTEBUGNOLI, Stelio Dirigente Tecnologo, Resp. della Stazione Radio - Astronomica di Medicina, Resp. Nazionale del Progetto Italiano Search for Extraterrestrial Intelligence, SETI NANNI, Mauro Primo Tecnologo, resp. del Centro di Calcolo e Rete Informatica dell’Ist. di Radioastronomia del CNR, Bologna NUMERICO, Teresa Borsista post-doc (in Storia della Scienza a Bari) presso l’Università di Salerno. Ex Interactive Manager di Turner Broadcasting System, Italia PASCOLINI, Alessandro Prof. Ass. di Metodi Matematici della Fisica, Dip. di Fisica, Univ. di Padova; Resp. Progetto Speciale Divulgazone Scientifica, INFN, Istituto Nazionale di Fisica Nucleare PERINI Giovanni Ricerc. di Genetica, Univ. di Bologna PERSSON, Per - Edvin Dir. di Heureka, The Finnish Science Centre, Vantaa/ Helsinki PISA, Stefano Ricerc. di Campi Elettromagnetici, Univ. di Roma “La Sapienza” PIUZZI, Emanuele Dott. di Ricerca in Ingegneria Elettronica, Univ. di Roma “La Sapienza” POLI, Giorgio Prof. Ass. di Scienze dei Metalli, Facoltà di Ingegneria, Univ. di Bologna POLITI, Valeria Borsista Unione Europea, Genetica, Univ. di Bologna PORCHEDDU, Giovan Battista Prof. a Contratto di Storia della Scienza e della Tecnica, Facoltà di Conservazione dei Beni Culturali, Sede di Ravenna, Univ. di Bologna, Collab. Museo di Fisica - Dip. di Fisica, Univ. di Bologna PRANDSTRALLER, Daria Collab. Tecnico Laureato, Ist. di Metallurgia, Facoltà di Chimica Industriale, Univ. di Bologna PREDI, Renzo Dir. Sistema Museale d’Ateneo, Univ. di Bologna RAVAIOLI, Mariangela Dir. sostituto dell’Ist. di Geologia Marina, CNR, Bologna RUSSO, Gianluigi Prof. Ass. di Struttura della Materia, Univ. di Bologna SERAFINI, Francesco Collab. esterno del Lab. VIS.I.T. (Visual Information Technology Laboratory) CINECA, Bologna per conto del Consorzio Università-Città di Bologna SIMILI, Raffaella Prof. Ord. di Storia della Scienza, Dip. di Filosofia, Univ. di Bologna; Coord. Sottoprogetto Museologia e Museografia del Progetto Finalizzato Beni Culturali del CNR SINTONI, Silvia Tirocinio post- laurea in Scienze Biologiche, Dip. di Biochimica, Univ. di Bologna SORESINI, Franco Ex Preside Ist. Radiotecnico “Aurelio Beltrami”, Ex Funzionario della Magneti Marelli, Olivetti e Honeywell, Consulente del costituendo Museo della Tecnica Elettrica di Pavia STANGHELLINI, Giuseppe Tecnologo Ist. TESRE (Ist. di Tecnologia e Studio delle Radiazioni Extraterrestri), CNR, Bologna TREBBI, Lucia Architetto, Bologna VALOTTI, Barbara Curatrice del Museo “Marconi” della Fondazione Guglielmo Marconi, Pontecchio Marconi, Bologna VITALI, Giovanni Agente tecnico, Dip. di Biochimica, Univ. di Bologna
12
Per-Edvin Persson Director Heureka the Finnish Science Centre Vantaa / Helsinki
address
Ladies and Gentlemen, On behalf of Heureka, the Finnish Science Centre, it is indeed a great pleasure and honour for me to bring our greetings to the opening of ‘Communication’ here in the beautiful City of Bologna. While Heureka has been responsible for the production of this exhibition, it is very much a joint European project, in which our partners in all European Cities of Culture have participated. I am particularly grateful for the positive and constructive co-operation that we have had from Professor Giorgio Dragoni and his team here at the Museum of Physics in Bologna, and the Bologna 2000 organization. ‘Communication’ has been planned by a network of museums in the Cities of Culture in Europe in 2000. These institutions are the Requien Museum in Avignon, the Bergen Museum, the Museum of Physics here in Bologna, the Royal Belgian Institute of Natural Sciences in Brussels, the Bunkier Sztuki Contemporary Art Gallery in Crakow, Heureka in Vantaa/Helsinki, the National Technical Museum in Prague, Iceland Telecom in Reykjavik, and the Museum of the Galician People in Santiago de Compostela. The exhibition will visit all these nine institutions - in a modular form - before the end of this year. The production process has been led by Heureka with a massive support from Helsinki - European City of Culture. In addition, the Finnish Ministry of Trade and the European Commission have supported this European joint venture. Heureka is very grateful for this co-operation. Communicating is indeed very human. Human culture is based on languages and the ability to transmit a message to another human being. The exhibition deals with communication in a broad sense, to focus on the possibilities and challenges posed by modern communication technologies. These technologies are changing our idea of the world and our behaviour. Use of a new technology is based on a social and psychological learning process. For example, I might mention learning to use the on/off-button of a cell phone. Using the World Wide Web is becoming part of our everyday lives. The
13
focus of the exhibition on the present and the future fits well into the theme of Helsinki as a European City of Culture: Knowledge, technology and the future. About 4000 languages are spoken in the world today. The majority of the languages spoken in Europe belong to the Indo-European family of languages. Most of them use the Latin alphabet, as do the fourteen languages that are used simultaneously in the ‘Communication’ exhibition. Even so, the alphabets of these fourteen languages look quite different: just the number of different letter signs ranges from twenty to thirty-five. This minor detail gives a hint of the challenges involved in making the exhibition available and enjoyable in these fourteen languages. The Communication exhibition has been an important cooperative effort, even partially ground-breaking from a museological point of view. It includes nine partner institutions ranging from national science centres, technical museums and natural history museums to regional museums and contemporary art galleries. It circulates in a modular form, where each partner has had the possibility of influencing the contents of their version. The size of the exhibition varies from 250 square meters to 1000 in the different venues. It operates in fourteen languages everywhere. The planning is progressed through an extranet at the Heureka website, accessible to the partners with a password. Of course, we had direct meetings as well, but an important part of the final communication in the planning process has been through the technology we present in the exhibition. After its tour in the European Cities of Culture, we hope to see three versions of the exhibition tour in Europe, America and Australia in 20012002. Negotiations are under way. I am very grateful for the wonderful co-operative atmosphere that has prevailed in this project. My thanks go to our European partners and today especially to our friends here at the Museum of Physics and the Bologna 2000 office. I thank Helsinki - European City of Culture and its commercial partners for their support. I thank Schenker Stinnes Logistics, who is the main carrier of the exhibition throughout Europe. I thank all those who have participated in the planning process of the exhibition, too numerous to list on this occasion. I wish the exhibition the best of success here in Bologna.
Bologna, Palazzo del Podestà e Palazzo Re Enzo, sedi della Mostra. Foto di: C. Porcheddu.
p resentazioni
given at the opening ceremony of the communication exhibition at the palazzo re enzo, bologna
Un momento dell’Inaugurazione della Mostra, 31 agosto 2000, Bologna. Foto di: C. Porcheddu.
G. Dragoni
presentazione
p resentazioni
e progetto generale della mostra e del volume
Il simpatico cagnolino in ascolto non più della tromba de La Voce del Padrone, ma di un moderno grammofono, splendido esempio del design anni Trenta. Lo stesso grammofono che faceva bella mostra di sé nel film Shanghai Express con Marlene Dietrich. Per cortesia di: C. Pria, Milano. Foto di: F. Bisi.
PREMESSA
La comunicazione è l’essenza stessa della vita. L’esistenza, la sopravvivenza, la vita degli individui non sarebbe pensabile senza la possibilità della comunicazione. La Mostra/il Volume tratterrà e illustrerà i modi, i metodi, gli strumenti e le tecnologie per la trasmissione, registrazione, elaborazione, riproduzione del suono, delle immagini e dei dati. Storia, Scienza e Tecnica? Certo. Ma non solo! La Mostra/il Volume offrirà molto di più. Gli aspetti umani legati ai modi dei comunicare, le rivalità per la priorità delle invenzioni, successi straordinari di alcuni grandi innovatori. La storia, lo scenario attuale e quello futuribile. Una particolare attenzione sarà data alle forme e allo sviluppo della tecnologia della comunicazione: dall’uomo, alle macchine, ai radiotelescopi. Il telegrafo, il telefono, la radio, la televisione fino ai più sofisticati sistemi attuali basati sui computer, sui satelliti, su Intemet. Gli spazi espositivi saranno caratterizzati da immagini, fotografie, pannelli, stampe, strumenti storici e recenti, prototipi, riproduzioni, documenti da giornali d’epoca, musica e sonoro, exhibit interattivi, collage di scene tratte da film, ecc. Un settore speciale della Mostra/del Volume sarà dedicato al ruolo che Bologna ha avuto nella storia della Comunicazione attraverso le grandi figure che ne hanno consentito la straordinaria crescita: primo fra tutti Guglielmo Marconi! Particolare cura sarà data alla possibilità di una profonda comprensione della Mostra da parte del visitatore, attraverso lo studio dei percorsi tematici, la progettazione dell’attività didattica, la scelta delle manifestazioni integrative: proiezioni,
conferenze, ecc. Una Mostra che parlerà le principali lingue internazionali, arricchita con stazioni multimediali interattive e didattiche per capire e partecipare. Realizzata dal Centro di divulgazione scientifica Heureka di Helsinki e dal Museo di Fisica dell’Università di Bologna, grazie ad una grande collaborazione nazionale e internazionale. La Mostra storico-scientifico-tecnologica Communication, e, quindi, il presente Volume si è inserita/inserisce all’interno di un tema generale che l’Unione Europea aveva assegnato per il 2000 a Bologna – insignita del titolo di Capitale europea della Cultura – il tema della Comunicazione. Tema sul quale sono state organizzate importantissime iniziative culturali a cura dei Professori Umberto Eco e Roberto Grandi. METODOLOGIA
La Mostra Communication/il Volume è improntata su un dichiarato intento di superamento di tutte le barriere culturali. Perché, in realtà, comunicare vuol dire proprio questo. Superare gli ostacoli, le barriere linguistiche, culturali, disciplinari frapposte al dialogo, e alla comprensione fra gli individui. Per raggiungere concretamente questo obiettivo e senza volere o potere, peraltro, - visti i limiti di spazio, di tempo, e di supporto finanziario della nostra iniziativa - realizzare L’Enciclopedia Generale delle Comunicazioni, obiettivo questo, evidentemente impossibile metodologicamente - si è deciso di procedere ad una impostazione particolare della Mostra/Volume molto diversa dalle usuali, ma anche solite Mostre Tecnologiche - e che ora illustreremo brevemente. L’allestimento della Mostra pur essendo fondato sui materiali, sugli oggetti, sugli exhibit, sulle nuove tecnologie, tende a superare dichiaratamente questi confini attraverso la collocazione di questi oggetti in un “ambiente” che ne evochi la storia, l’uso, l’impatto sulle società del tempo, la sua influenza sulle epoche successive. Si tende a realizzare questo obiettivo tramite l’inserimento degli “oggetti” nel loro tempo, attraverso la proposizione di affiches pubblicitarie, di stampe o foto dell’epoca, di manifesti, ritagli di giornali. Chiaro esempio dello stile della Mostra, l’apparato iconografico del presente Volume. Si noti, in particolare, il Leit motiv del libro, costituito dalle immagini delle tempere di Benedetta Cappa Marinetti (v. articolo A. Ferretti pp. 18-19) nella Sintesi delle Comunicazioni del Palazzo delle Poste di Palermo, ristampate qui per cortesia di Franco Maria Ricci. L’idea è quella di voler superare il tecnicismo, insito negli oggetti tecnici, attraverso la comprensione dei motivi della loro introduzione, l’ambientamento storico e culturale, la spiega-
14
CONTENUTI DELLA MOSTRA
La Mostra/il Volume si prefigge di fornire una base di riflessione sul Tema vastissimo delle Comunicazioni. Naturalmente, come già indicato, è stato necessario procedere ad opportuni tagli. Queste scelte e l’intero impianto della Mostra verranno presentate qui brevemente. L’impostazione generale e la scelta dei materiali per la Sezione di Telecomunicazioni della Mostra è dovuta a F. Soresini, G.B. Porcheddu e allo scrivente. L’ESPOSIZIONE STORICA
La Prima Sezione si apre facendo riferimento a temi che NON potranno essere sviluppati, ma al cui contesto si accenna con
15
Il professor Pier Ugo Calzolari (a destra), da poco eletto Rettore dell’Università degli Studi di Bologna e il curatore della Mostra/Volume durante l’Inaugurazione. Foto di: “La Repubblica”, Bologna Cronaca, 1 settembre 2000, p. XI.
qualche pannello, per “immagini”, brevi commenti, oggetti “simbolo”. Questo vale per i riferimenti a: I. Comunicazione Orale; 2. Carta e Strumenti di Scrittura; 3. Comunicazione scritta; 4. Mezzi di locomozione; 5. Colombi viaggiatori; 6. Segnalazione ottica; 7. Foto e Cinematografia. Questa Sezione sarà realizzata anche grazie alla Collaborazione di vari Collezionisti, all’aiuto della Mostra Una Città in Piazza, e grazie al progetto “Giano”, che costituirà un vero e proprio approfondimento dei temi brevissimamente indicati in precedenza. In questa Prima Sezione di carattere introduttivo generale - e che rinvia a temi che verranno approfonditi, ma anche a temi che non è possibile sviluppare - il Visitatore potrà avere una prima “immersione” nei modi del Comunicare: dalle forme verbali a quelle scritte, dalla ruota ai mezzi di locomozione tradizionali: velocipede, bicicletta, auto; ad alcuni “mezzi” tecnici di segnalazione: quella ottica tradizionale, per esempio. A questa prima Sezione Introduttiva seguiranno le varie parti o Sezioni Tematiche della Mostra:
Un momento dell’Inaugurazione della Mostra. Foto di: C. Porcheddu.
LA TELEGRAFIA CON I FILI, IL TELEFONO
La Seconda Sezione affronterà il tema della nascita e dello sviluppo della Telegrafia elettrica e della Telefonia trasmesse attraverso i fili. Strumenti e apparecchi originali saranno affiancati da affiches pubblicitarie, documenti, immagini d’epoca che ne consentiranno una contestualizzazione e ne recupereranno il clima dell’epoca.
p resentazioni
zione semplice, breve, chiara delle loro caratteristiche funzionali - attuata attraverso “brevi introduzioni” e le didascalie agli oggetti. Spiegazioni più particolareggiate saranno riportate per temi più difficili o insoliti. Attività didattiche specifiche verranno offerte o saranno a disposizione mediante guide a chi desidererà capire “di più”. La Mostra sarà arricchita da film, filmati didattici, conferenze, seminari. Si tenterà di superare una delle tipiche “divisioni” culturali tra le scienze, le tecniche e la cultura generale attraverso, appunto, questa contestualizzazione storica in cui si fondano insieme i vari aspetti del mondo della comunicazione: dal linguaggio gestuale e verbale, alle soluzioni tecniche della telegrafia, alla telegrafia senza fili, alla radio, alla TV, a Internet, sino alle nuove avveniristiche, futuribili, tecnologie attuali. Si cercherà di colmare questa “divisione” anche proponendo al Visitatore temi riguardanti il linguaggio degli insetti, dei pesci, dei delfini, o addirittura, il linguaggio del passato, o la ricerca degli “extraterrestri”. Questo, sia attraverso l’analisi di reperti antichi e attraverso i messaggi che questi oggetti ci inviano, sia attraverso le onde elettromagnetiche che giungono sulla Terra captate dai radiotelescopi e che decodificate ci parlano di eventi lontanissimi nel tempo, e, forse, di altre Civiltà. È nell’integrazione tra queste diverse realtà che ci auguriamo possa risiedere il fascino della nostra Mostra. Essa parlerà per “esempi”, abbiamo già sostenuto, infatti, che l’enciclopedia dei saperi, seppure in un settore specifico quale è quello della comunicazione è, metodologicamente, impossibile. Come esempio di queste iniziative ricordiamo, solamente, l’allestimento, a Mostra già aperta, dello spazio Baby Reality Center e l’efficacia di una immersione tri-quadridimensionale in uno spazio virtuale, reso quasi “reale” da elaborate e sofisticate tecniche informatiche e matematiche (v. art. F. Serafini, a pp. 106-107). È questo clima che il Volume ha voluto riproporre in maniera però ancor miù meditata e diffusa, più completa, anche più specialistica, ma, comunque, sempre nello spirito di trasparenza didattica e culturale che ha improntato la Mostra. Resta un rammarico, quello di non aver affrontato – né nella Mostra né nel Volume – un tema fondamentale legato alla Comunicazione, e cioè quello della falsificazione dell’informazione, della sua manipolazione, un tema così ampio, generale e diffuso in tutti i settori della vita che meriterebbe un altro Volume – al quale peraltro stiamo lavorando da tempo – e, forse, un’altra Mostra.
LA TELEGRAFIA SENZA FILI
La Terza Sezione è dedicata alla Telegrafia senza Fili e vedrà documentata la nascita di questa importantissima tecnologia. In questo percorso verrà messo in risalto il ruolo innovativo avuto da Guglielmo Marconi nel contesto storico del tempo. La Sezione sarà allestita grazie alla Collaborazione della Fondazione Marconi, del Museo di Fisica, del Museo Mille voci… mille suoni, di vari Collezionisti… Così pure vale per altre successive Sezioni storiche. Carosello. Celebre rubrica della Rai-Tv. Per circa quindici anni (1957-71) l’intermezzo pubblicitario e, quindi, il mezzo per la comunicazione commerciale ma anche delle mode, dei gusti, di forme di persuasione sintetiche ed efficaci.
p resentazioni
A. Bugini, S. Camprini, Catalogo didattico Communication, CNR, Roma, 2000. Un ausilio didattico agli Exhibit finlandesi di Heureka, The Finnish Science Centre.
LA RADIO E LA SUA EVOLUZIONE
Questa Sezione intende documentare l’Evoluzione della Radio, non solo dal punto di vista degli sviluppi tecnologici, ma anche dal punto di vista del design e dell’impatto culturale. Le radio progettate dai Bugatti, Castiglioni, Caccia Dominioni ne costituiranno un esempio, ma non unica testimonianza. Ad esse si aggiunge una bella – forse unica per la sua completezza – raccolta di radio prodotte commercialmente dalle Compagnie Marconi. Una Mostra, nella Mostra, organizzata per merito di N. Neri e dell’AIRE (Associazione Italiana per la Radio d’Epoca). La Sezione si chiude con una serie di apparecchi radio a transistor, anch’essi ambientati tramite manifesti e affiches. All’intemo del percorso della radio saranno allestiti spazi appositi dedicati, in modo specifico, a: • La produzione commerciale delle società Marconi • Registrazione e Riproduzione dei suoni • Le Radio Spie • La Crittografia • La Televisione A queste Sezioni si aggiungeranno Magic-box (spazi appositi, con vari altoparlanti e nastri per la riproduzione sonora di “pezzi” storici dedicati all’ascolto della Radio o alla visione di “episodi” eclatanti delle trasmissioni televisive). I momenti proposti in questo settore renderanno ancora più viva l’immersione in avvenimenti, socio politici e culturali che hanno fatto la nostra Storia. Si prevede l’ascolto e la proiezione di spot pubblicitari intesi, esclusivamente, quali mezzi espressivi di “comunicazione”. HEUREKA THE FINNISH SCIENCE CENTRE
La sezione Finlandese costituirà il “cuore” della Mostra e avrà forte impatto didattico. Per gli specifici exhibit finlandesi si rinvia al volumetto didattico appositamente realizzato per questa occasione (A. Bugini, S. Camprini, Catalogo didattico Communication, Ufficio del Presidente, CNR, Roma, 2000). ALTRI MODI E MONDI DELLA COMUNICAZIONE
Una ampia Sezione sarà dedicata alle ricerche nel mondo della comunicazione degli animali (insetti, pesci, delfini…) e all’individuazione di possibili Extraterrestri. Si vedano le Collaborazioni di Celli, Cortesi, Montebugnoli, Della Valle… La “voce” dal passato: La Ricerca nel campo del Restauro: Garagnani, Casali, Russo… Le ricerche più avanzate: L’evoluzione tecnologica, attualmente in fase di grande sviluppo, è documentata dalla presenza di tutti i più grandi Enti di Ricerca e da Aziende più all’avanguardia nel settore: INFN, CNR, ENEA, UNIVERSITA’ tra cui in primis l’Università degli Studi di Bologna, CINECA,… ITALTEL, DATALOGIC, l’ARI (Associazione Radioamatori Italiani) ha partecipato allestendo una stazione radio che effettue-
rà collegamenti con radioamatori di tutto il mondo. Per non parlare del Progetto Antartide dell’ENEA che illustra le attività dei nostri ricercatori e le modalità di comunicazione in un continente non cablato: l’Atlantide, appunto. La Mostra è stata un’occasione di confronto per i grandi temi dell’International Telecomunication Union: UMTS, cellulari della quarta generazione, Broad Band… La crittografia: Tra tanto comunicare, nasce l’esigenza della riservatezza. In questa sezione, da una esposizione di “pezzi” storici nasce lo spunto per parlare della segretezza della trasmissione dei dati alla quale quotidianamente ci affidiamo (carte di credito, Bancomat, E-mail, acquisti in rete). La sezione viene allestita grazie alla collaborazione di Istituzioni internazionali (Science Museum, Deutsches Museum, Siemens Museum, Luftwaffè Museum) e nazionali. Internet: Sarà riservato uno spazio per le Comunicazioni via Internet. Grazie alla collaborazione con MonrifNet. Sezione Didattica a cura del Museo di Fisica, Farfare Fisica: Modelli didattici, repliche di apparati sperimentali storici, strumenti didattici antichi che da anni fanno parte delle attività di diffusione della cultura scientifica promosse dal Museo di Fisica di Bologna e dall’Aula Didattica (SMA - Sistema Museale d’Ateneo) verranno presentati al pubblico e agli studenti. L’impostazione didattica si fonda sulla base di alcuni principi di tipo interattivo e comunicativo diretto seguiti da anni dal Museo ed esemplificati da alcune mostre e Settimane della Cultura Scientifica quali: “Farfarefisica”, “Vedo, prevedo… stravedo”, “Riflettere per osservare”,… Si veda il volumetto Farfare Fisica, appositamente realizzato (Farfare fisica, Attività didattica al Museo di Fisica di Bologna, a cura di G. Dragoni, Museo di Fisica, Dipartimento di Fisica - Sistema Museale d’Ateneo, Università Bologna, Ufficio del Presidente, CNR, Roma, 2000. Conferenze: Si stanno organizzando Conferenze che prevedono la presenza di personalità del mondo universitario, della ricerca e, in generale, della comunicazione. Seminari: Si prevede l’organizzazione di Seminari tecnici tenuti da: F. Soresini, F. Sinagra, F. Cremona ed altri. Filmati: In Collaborazione con la RAI TV e la Cineteca Comunale di Bologna si sta organizzando una proiezione di filmati inerenti la tematica generale del comunicare. Sia alla realizzazione della Mostra, sia a quella del Volume hanno partecipato numerose Istituzioni, Enti, Ricercatori che si ringraziano sentitamente. Per una loro dettagliata elencazione si veda (a p. 6) il Colophon.
Farfare fisica, Attività didattica al Museo di Fisica di Bologna, a cura di G. Dragoni, uno strumento didattico realizzato per i visitatori della Mostra e del Museo di Fisica.
16
L. Trebbi
il veliero, ovvero le linee espositive della mostra
Palazzo Re Enzo, Bologna. Salone del Trecento. Veduta d’insieme della sezione storica della Mostra. Foto di: F. Bisi.
17
Il viaggio continua nel Salone del Podestà che ospita tutti gli elementi temporali della storia della comunicazione: dalla Fondazione Marconi (il passato) al Punto della Didattica, Farfare Fisica, per una sperimentazione dal vivo (il presente), ai 26 exhibit dalla Finlandia (il futuro). Sull’onda della metafora della navigazione, le salette adiacenti si ergono a scialuppe e svelano i segreti di forme di comunicazione diverse e inedite, tratte dal mondo della flora e della fauna, che completano il ciclo della vita, ricongiungendo l’uomo al mondo che lo circonda e fornendogli ulteriori elementi di studio e di meraviglia.
p resentazioni
Un immenso veliero che naviga sulle onde del tempo, solcando gli oceani del passato, del presente e del futuro. Questo, in sostanza, il filo conduttore dell’allestimento di Communication, un Leitmotiv che percorre, con elementi diversi, tutte le sezioni di cui è composta la mostra. Il grande vascello salpa dal Salone del Trecento di Palazzo Re Enzo dove, su grandi “barcacce” che rievocano le imbarcazioni più primitive della storia della navigazione dell’uomo, trovano posto alcuni degli esemplari più significativi degli esordi della comunicazione. Le barcacce navigano nella notte del passato, e “trasportano”, in armonia dimensionale, i vari oggetti esposti, sottolineando l’incedere lento delle invenzioni che hanno rivoluzionato il mondo, dalla telegrafia alla radio ai telefoni. Al centro, quasi come un faro, l’emblema della comunicazione: antenne a quadro, digradanti nell’altezza e nel diametro, spiegano agli occhi dell’uomo il percorso delle onde elettromagnetiche. Lasciando il passato e approdando nel presente nel Salone del Seicento, la barcaccia si trasforma in un grande veliero, e tra le sue vele schiude i segreti dei risultati di cui è ricco il nostro tempo. Disposte attorno ad una sorta di corte, che funge da ponte della nave, le nuove tecnologie guardano al futuro, giocando sulla trasparenza come simbolo della continuità tra i due estremi, ieri e domani. Qui sono gli spazi degli enti che hanno firmato e firmano il progresso odierno, i computer dimostrativi dell’immensità delle applicazioni che l’evoluzione tecnologica e scientifica ha consentito.
A. Ferretti
p resentazioni
B. Cappa, Sintesi delle Comunicazioni telegrafiche e telefoniche (a sinistra) e radiofoniche (a destra). Per cortesia di: FMR.
la comunicazione nella pittura di benedetta cappa nel palazzo delle poste a palermo Tra le avanguardie artistiche del Novecento, il Futurismo è certamente quella che più ha espresso e rappresentato nei temi proposti, nei materiali, nelle tecniche usate la nuova realtà fornita dai moderni mezzi di comunicazione. In una continua ricerca di fusione tra le arti e le nuove conquiste scientifiche, nell’attuazione concreta dell’idea di totalità dell’arte, l’artista futurista vuole rappresentare una delle caratteristiche della società moderna: il movimento, da quello più tradizionale del cavallo in Boccioni, a quello tecnicomeccanico del particolare della ruota della locomotiva e del treno in Balla, agli effetti delle onde alzate dal motoscafo in uno dei quadri di Benedetta Cappa (1897-1977). A differenza del pittore barocco che dalla terra ha gli occhi puntati in un cielo immaginario dove su vortici di nubi si affacciano e agiscono figure religiose di santi e di angeli, il pittore futurista dall’alto del cielo, su un veloce aeroplano, vincendo quasi la legge di gravità, ha gli occhi puntati sulla terra e così ci rappresenta il paesaggio: terra, mare, e aria in uno spazio cosmico, dove macrocosmo e microcosmo coesistono fondendosi armonicamente in un tutt’uno, come il piccolo villaggio e l’immensità del mare e del cielo nell’aeropittura di Benedetta Cappa Marinetti. La pittrice, scenografa, ceramista e scrittrice (Le forze umane,1924 – Viaggio di Gararà, 1931 – Astra e il sottomarino, 1935) sposa nel 1923 Filippo Tommaso Marinetti, conosciuto a Roma nello studio del pittore Giacomo Balla di cui era giovane allieva. Partecipe e protagonista delle attività del movimento futurista, compie numerosi viaggi in Italia e all’estero, in Argentina,
Brasile, nel Nord Africa, Egitto, Algeria, la trasvolata sugli Appennini e sull’Italia, il viaggio transoceanico in transatlantico dai quali trarrà esperienza diretta per molte immagini dei suoi quadri. Vicina alla pittura del maestro, in particolare per la scelta compositiva, e a volte anche alle esperienze astratte e surrealiste per sintesi e ricerca psicologica, aderisce dal manifesto dell’aeropittura (1929) a questa nuova corrente del Futurismo, caratterizzando sulla base di questa impostazione la sua produzione artistica successiva, in particolare i cinque pannelli dipinti da Benedetta nel 1934 sul tema delle comunicazioni per la sala delle riunioni nel Palazzo delle Poste di Palermo. L’architetto bolognese Angiolo Mazzoni, dirigente dell’Ufficio Tecnico delle Poste e Telegrafi e delle Ferrovie, ci fornisce in questo edificio, alto ventiquattro metri e articolato su quattro piani, un tipico esempio di architettura pubblica del regime fascista. Riscontriamo lo stile nella ripresa di elementi classicistici come la monumentalità del colonnato d’ingresso e dello scalone e nelle linee architettoniche, così pure nella profusione dei rivestimenti murari in marmi policromi, grigi e viola all’esterno, più vivaci all’interno, dove coesistono armonicamente molti materiali diversi. Si nota in modo molto evidente questa fusione di elementi cromatici e materici nelle pareti e negli arredi della Sala riunioni al terzo piano dell’edificio dove spiccano, come finestre aperte sugli infiniti spazi del mondo moderno, i 5 pannelli a tempera ed encausto di Benedetta. Le pareti, il lungo tavolo al centro della stanza, i sedili in muratura rivesti-
B. Cappa, Sintesi delle Comunicazioni marittime. Per cortesia di: FMR.
B. Cappa, Sintesi delle Comunicazioni aeree. Per cortesia di: FMR.
18
Sala Riunioni del Palazzo delle Poste di Palermo. Per cortesia di: FMR.
19
luminoso che le sta accanto, alla forte spinta ascensionale suscitata dall’immagine. La stessa funzione, nelle comunicazioni telegrafiche e telefoniche, ha il traliccio-antenna inclinato, vera e propria diagonale del quadro immerso in una dimensione cosmico-planetaria. E’ però nella sintesi delle comunicazioni radiofoniche dove la ricerca della pittrice, più vicina alla pittura di Prampolini e di Fillia, diventa pura astrazione simbolica nel gioco formale e dinamico degli elementi che costituiscono lo strumento tecnico. “Noi canteremo… i ponti simili a ginnasti giganti che scavalcano i fiumi, balenanti al sole con un luccichio di coltelli; i piroscafi avventurosi che fiutano l’orizzonte,… e il volo scivolante degli aeroplani, la cui elica garrisce al vento come una bandiera…” F.T. Marinetti, Fondazione e manifesto del Futurismo 20 febbraio 1909, Le Figaro, Parigi.
B. Cappa, Sintesi delle Comunicazioni telegrafiche e telefoniche. Per cortesia di: FMR.
BIBLIOGRAFIA
G. Bernabei - G. Gresleri - S. Zagnoni, Bologna Moderna 1860-1980, Patron, Bologna, 1984 AA.VV., Futurismo & Futurismi, a cura di P. Hulten, Bompiani, Milano, 1986 M. de Micheli, Le avanguardie artistiche del Novecento, Feltrinelli, Milano, 1988 AA.VV., Benedetta, fughe e ritorni, presenze futuristiche in Sicilia, Electa, Napoli, 1998 F.M.R., Le poste del Duce, Giugno-Luglio 1999, n°134, pp. 69-104
p resentazioni
ti in marmo rosso fiorito e libeccio di Trapani, le sedie in rame e marocchino rosso, spiccano sul pavimento a mosaico di piccole tessere blu. Nella magia del luogo sembra quasi concretizzarsi il tema espresso dai grandi pannelli abbinati nella scelta cromatica dei materiali, dei rivestimenti e degli arredi nella stessa architettura della stanza. Le comunicazioni aeree nella luce luminosa del sole nel cielo si identificano facilmente con il giallo del soffitto, così le comunicazioni marittime con il colore azzurro del pavimento, quelle terrestri con il rosso dei marmi e le comunicazioni radiofoniche e telegrafiche con gli elementi di rame usati negli arredi. Nella sintesi delle comunicazioni terrestri, gli alti piloni del viadotto in primo piano sono linee-forza che collegano la terra e il cielo in uno spazio luminoso e rosato. Lo spazio aperto, infinito si contrappone al lungo tunnel scavato nella profondità della montagna. Qui troviamo una costante della pittura di Benedetta: la figura umana non compare, ma dell’uomo si “sente” la presenza come invisibile osservatore sospeso nel cielo o tra le onde del mare, quasi travolto dall’incombente massa del gigantesco transatlantico nelle comunicazioni marittime, ed evidente è l’importanza data all’opera dell’uomo e ai nuovi moderni mezzi tecnologici da lui creati. Come le veloci ali dell’aeroplano tagliano l’aria e il cielo, così nelle comunicazioni terrestri la terra è perforata dal tunnel grigio, le verdi colline in alto a destra sono trasformate in ripidi dirupi dal taglio di una tortuosa, segmentata, astratta strada bianca che contribuisce, compositivamente, insieme al raggio
B. Cappa, Sintesi delle Comunicazioni marittime, Palazzo delle Poste, Palermo. Per cortesia di: FMR.
20
e voluzione delle c omunicazioni: la s toria
22 Dai viaggiatori ai cronisti e ai turisti
—
L. Andalò
24 Il nascere e lo svilupparsi della comunicazione scritta 26 La Bologna curiosa di G.C. Croce
—
—
P. Bellettini
R. Campioni
28 La “chiave del mondo” e la sua ombra 30 Onde radio nello spazio
—
—
G. D’Amia
F. Soresini
44 Guglielmo Marconi (1874-1937)
—
B. Valotti
46 Le vie della comunicazione elettrica. Dal telefono alla radio — G.B. Porcheddu 64 Claude Shannon e la teoria dell’informazione
—
T. Numerico
69 Heureka, il Science Centre finlandese e i “nuovi” centri di diffusione della cultura scientifica e tecnologica — A. Bugini, S. Camprini
21
L. Andalò
e voluzione delle c omunicazioni: la s toria
dai viaggiatori ai cronisti e ai turisti
Dietro ai viaggi c’è sempre stato il fascino del mondo, ed una curiosità insaziabile di conoscere e di capire per comunicare. Fin dalle lontananze dei tempi c’è stato chi ha avuto il coraggio di solcare i mari o di varcare le barriere delle montagne, di affrontare terribili durezze e fatiche oggi impensabili: e ciò che per questi era allora un viaggio materiale, per gli abitanti delle città e delle campagne diventava poi informazione. Se si ricordano quei protagonisti non è per provare il sapore storico del passato, ma perché le loro conoscenze sono state alla base di forme primordiali di comunicazione. Anzi, talvolta, le esperienze che ci hanno tramandato fanno parte dell’immaginario metropolitano di oggi. I viaggiatori, i pellegrini, sentivano come propria casa uno spazio fisico che geograficamente andava al di là dell’Europa; cosicché superavano i confini degli Stati per conoscere e poi divulgare abitudini di popoli diversi, lingue, usi, informazioni sugli Stati e sull’organizzazione del potere politico, religioni, ecc.
Contemporaneamente, i cronisti locali, cioè i raccoglitori delle vicende delle loro città e quindi i testimoni più attenti dei loro tempi, erano persone che non scrivevano per sé stessi, ma, attraverso un rapporto con la gente, avevano per obiettivo la comunicazione. Per secoli quei cronisti hanno registrato, interpretato e diffuso piccole e grandi notizie, e, assai spesso, non soltanto quelle della loro città, ma anche le notizie esterne che raccoglievano dai viaggiatori, dai pellegrini, dai commercianti, dagli uomini d’arme. Un esempio di duplice valenza di cronisti e comunicatori la si può trovare nel caso di due autori forlivesi del secolo XV: Leone Cobelli e Andrea Bernardi, detto Novacula. In tali scritti c’erano soprattutto gli eventi di Forlì al centro del mondo, però c’era anche una apertura nel registrare e nel trasmettere le notizie che provenivano dall’esterno. Nonostante che il Cobelli ed il Novacula dovessero tener conto di un potere violento, si può dire che in loro più che una
Acquaforte di G.M. Mitelli, 1692.
22
Acquaforte di G.M. Mitelli, 1690.
23
e voluzione delle c omunicazioni: la s toria
vocazione per una attività diaristica c’era la tendenza per una esposizione giornalistica (il Cobelli si distingue anche sotto il profilo culturale con citazioni persino dalla Divina Commedia). Poi, attraverso i secoli ci fu l’evolversi dei profili dei viaggiatori; la comodità dei viaggi e lo sviluppo della tecnica della stampa rimpicciolirono il ruolo dei cronisti nell’ambito della comunicazione. Nell’epoca dei Grand Tour, ovvero dei turisti ante litteram del Seicento e Settecento, le persone vennero messe in corrispondenza, le une con le altre, specialmente attraverso i resoconti dei viaggi. Oggi, siamo giunti alle alte velocità, alle curiosità postmoderne che offrono spostamenti che fanno cambiare gli aspetti delle immagini e delle emozioni: siamo al gran-turismo di massa. È pur vero che esiste ancora la comunicazione parlata o per immagini casalinghe tra turisti ed amici, ma ci sono, soprattutto, la vivezza e la immediatezza dei filmati e dei documentari televisivi e degli altri mezzi della comunicazione moderna: una informazione assai spesso effimera.
P. Bellettini
e voluzione delle c omunicazioni: la s toria
il nascere e lo svilupparsi della comunicazione scritta
Affrontare il tema della comunicazione scritta nei secoli passati significa normalmente focalizzare l’attenzione sul suo strumento principe, il libro, ignorando i canali alternativi, spesso ingiustamente considerati ‘minori’, che hanno costituito per secoli il mezzo fondamentale di informazione per la maggior parte della popolazione e che meritano di essere analizzati con maggiore attenzione. Fra le principali tipologie di documenti informativi prodotti in Età Moderna si possono ricordare: • i bandi, attraverso i quali veniva assicurata la comunicazione ufficiale del ‘palazzo’ rivolta ai sudditi; • le filastrocche e le operine della tradizione popolare, il cui interprete più efficace fu Giulio Cesare Croce (v. p. 26); • gli avvisi e le gazzette, che rappresentano i primordi della comunicazione ‘giornalistica’. Verso la metà del Cinquecento si afferma, soprattutto a Venezia e a Roma, una nuova modalità di comunicazione degli avvenimenti politico-militari di attualità. Ai tradizionali dispacci e alle relazioni degli ambasciatori vengono ad affiancarsi lettere di avvisi con una periodicità strettamente correlata ad un servizio postale ormai sempre più efficiente e collaudato. Esternamente simili a delle semplici lettere, gli avvisi riportavano, spesso a cadenza bisettimanale, in uno stile scarno e in genere alieno da commenti, le notizie pervenute dai principali centri italiani ed europei. A differenza degli avvisi monografici, che informavano, senza alcuna specifica periodicità, su singoli e rilevanti episodi (battaglie, trattati di pace, nascite
mostruose, fatti criminali inauditi, terremoti, miracoli) e che cominciarono ad essere stampati fin dalla prima metà del XVI secolo, gli avvisi periodici (quelli che noi siamo abituati a chiamare gazzette) ebbero una loro versione a stampa in Italia solo a partire dalla fine degli anni Trenta del Seicento. Gli avvisi settimanali a stampa presero il posto – anche se non integralmente – degli avvisi periodici manoscritti pubblici; rimase comunque, ancora per gran parte del Settecento, un abbondante spazio per la sopravvivenza di avvisi periodici manoscritti segreti, che riportavano per un pubblico elitario e circoscritto di addetti ai lavori (Segreterie di Stato, diplomatici, cardinali, alta nobiltà) le notizie più riservate e piccanti, notizie che non era prudente pubblicare e che comunque difficilmente avrebbero potuto superare la revisione censoria e i controlli a cui le gazzette a stampa erano soggette. Un accenno ai redattori di avvisi è in una singolare opera di Giulio Cesare Croce, Il giocondo, et florido convito fatto nelle sontuose nozze del Raffano, et della Rapa. Elencando coloro che danno ospitalità alla figlia del Raffano e della Rapa, la Carota, coloro quindi che – nel tono ironico e ammiccante del componimento – sono abituati “a piantar gran carrote tutto l’anno” (cioè ad ingannare il prossimo), Croce pone “Quei che scrivono avisi molto grata hanno costei [la Carota], e gli fan gran carezze” (come a dire, sono abituati a buggerare chi si fida di loro). Che l’attività di redattore di avvisi fosse considerata poco onorevole e spesso affine a quella delle spie e dei diffamatori è del resto confermato da più parti. Già nel 1572 un papa bolognese, Gregorio XIII, riprendendo e specificando alcuni provvedimenti dei suoi predecessori, emanava una bolla in cui stigmatizzava l’attività dei menanti, equiparandoli agli scrittori di “libelli famosi” (cioè infamanti, denigratori e lesivi dell’onore delle persone).
Uno strillone con notizie di guerra, in una incisione di G.M. Mitelli datata 1684.
24
La comunicazione giornalistica era legata al servizio postale (incisione di G.M. Mitelli del 1685).
25
battito vivacissimo che doveva inevitabilmente trovare il suo sbocco nel lavoro dei torchi tipografici. All’inizio del 1796, prima dell’arrivo delle truppe francesi, a Bologna veniva pubblicato un solo periodico, il bisettimanale “Gazzetta di Bologna”, che vantava una storia di oltre un secolo e mezzo, potendo risalire senza interruzioni fino al 1642. Poco più di un anno dopo, nel luglio 1797, a Bologna venivano pubblicati contemporaneamente cinque periodici, e cioè due bisettimanali (la “Gazzetta di Bologna” e “L’Osservatore politico”), due trisettimanali (“Il Monitore bolognese” e “L’Abbreviatore degli atti della repubblica italiana e delle novelle politiche degli altri popoli”) e un quadrisettimanale (“Il Democratico imparziale o sia Giornale di Bologna”). Nel breve volgere di pochi mesi si era passati dal monopolio di fatto dell’informazione di attualità detenuto dalla vecchia “Gazzetta di Bologna” ad una situazione in cui l’offerta di informazione era estremamente differenziata, con toni spesso militanti e battaglieri. Nell’ottobre 1797 nacque poi “Il Quotidiano bolognese ossia raccolta di notizie secrete”, il primo foglio quotidiano bolognese, che proseguì fino al 21 settembre 1798 (ultimo giorno dell’anno VI della Repubblica Francese), quando dovette cessare la sua attività per la troppo esosa tassa del bollo. Nel medesimo giorno cessava anche l’altro quotidiano bolognese nel frattempo nato, e cioè il “Giornale de’ patrioti del dipartimento del Reno della Repubblica Cisalpina” (era nato il 1 giugno 1798, meno di quattro mesi prima).
e voluzione delle c omunicazioni: la s toria
«È tanta l’infelicità delle cose umane, che non solo i vizi vecchi contrastano con pertinacia alla solerzia dei legislatori, ed anche repressi con pene severe rinascono, ma addirittura di giorno in giorno ne sopravvengono altri nuovi, sconosciuti ai secoli passati. Talché a noi, per obbligo ingiuntoci da Dio, tocca di operare nel migliore dei modi per reprimerli fin dal loro principio, prima che attecchiscano, e per troncarli, per quanto possiamo, dalle radici. Essendo pertanto, non molto tempo fa, emersa una nuova setta di uomini morbosamente curiosi, i quali propongono, accettano e scrivono ogni cosa riguardante i pubblici o privati affari che venga loro a conoscenza, o che per loro libidine inventino, sì del paese come di fuori, mescolando senza alcun ritegno il falso, il vero e lo incerto; in modo tale che di questo si è già istituita un’arte nuova; e la maggior parte di loro, anche per un compenso vile, fatti certi piccoli commentari con queste notizie raccolte da vani rumori del volgo, senza il nome di chi li scrisse, di qua e di là li spediscono, ed anche come mandati prima da Roma in diversi luoghi, di poi li vendono come ritornati da altri luoghi in Roma; e non solo si fanno lecito di occuparsi delle cose avvenute, ma anche di quelle che debbono avvenire presagiscono stoltamente […]» Ma il lavoro degli ‘scrittori’ di avvisi era ormai troppo funzionale alla diffusione delle notizie, indispensabile per le burocrazie e gli apparati diplomatici, necessario al dispiegarsi dell’azione politica per essere bloccato da una bolla pontificia. La prima gazzetta a stampa bolognese (era un settimanale) comparve nel 1642; mentre il primo quotidiano bolognese è del 1797. Come è risaputo, con l’arrivo delle truppe rivoluzionarie francesi si assistette un po’ ovunque in Italia ad un’esplosione di stampati, opuscoli, pamphlet, periodici di ogni tipo, come non si era mai sperimentato prima. Una situazione geo-politica e militare in velocissimo movimento, il continuo susseguirsi di novità clamorose ed epocali, l’effervescenza con cui fu accolta la libertà di espressione e di stampa, la fine di una atavica costrizione all’autocensura preventiva innescarono un di-
R. Campioni
e voluzione delle c omunicazioni: la s toria
la bologna curiosa di giulio cesare croce
Acquaforte di G.M. Mitelli, circa 1679.
Nel corso del Cinquecento Bologna fu teatro di rilevanti avvenimenti politici, basti citare l’incoronazione di Carlo V da parte di papa Clemente VII, avvenuta il 24 febbraio 1530 nella chiesa di San Petronio cui assistettero i potenti di tutta Europa, come attesta la celebre Cavalcata (da San Petronio alla chiesa di San Domenico) incisa da Nikolaus Hogenberg, mirabile per la ricchezza dei sontuosi costumi e per la precisione degli elementi informativi. In età rinascimentale e barocca la città rappresentava un crocevia strategico non solo dal punto di vista politico, come seconda città dello Stato pontificio, ma anche culturale – in virtù del più antico Studio d’Europa, che ebbe sede nel prestigioso palazzo dell’Archiginnasio allora espressamente costruito – ed economico, coi rinomati prodotti della seta e della canapa. Non sorprende che in un centro di così intense e articolate relazioni vi fosse un forte interesse e consumo di notizie, testimoniato dall’ampia circolazione di lettere, resoconti e avvisi di ogni genere. La curiosità e la voracità dei “novellisti” (Giuseppe Maria Mitelli li ritrarrà poi mirabilmente in ascolto di un lettore ad alta voce di avvisi o in attesa frenetica del corriere recante le notizie di carattere politico-militare dalle maggiori città europee) non potevano lasciare indifferente lo sguardo di un acuto osservatore della vita quotidiana bolognese come il cantastorie Giulio Cesare Croce (San Giovanni in Persiceto 1550 – Bologna 1609). L’intento mimetico-giocoso delle operette, dedicate alle notizie
che giungevano in città da varie parti e che erano recepite dai più con una certa credulità, è evidenziato anche nei titoli. Con gli Avvisi burleschi, venuti da diverse parti del Mondo, cose notabilissime, e degne da essere intese il Croce fa il verso alle notizie di avvenimenti politico-militari che pervenivano manoscritte su fogli portati dai corrieri, con brani di questo tenore: Sono giunti gli avvisi come le Mosche si ritireranno per tutta questa vernata ai Bagni di Lucca e che un gran numero di frittelle si son messe in punto per andare a campare sulla riva dell’Olio, per pigliare la tenuta del Pesce fritto … Con gli Avvisi venuti di quà, di là, di sù e di giù da diverse parti del Mondo, dove dà ragguaglio delle cose più maravigliose, che siano successe dall’Anno, che voi sapete, sino al presente. Portati da Bargalisse corriero del Prencipe Cacapensieri, che è venuto questa notte, ed è smontato alla Fontana di Marforio il cantimbanco fa il verso a un altro genere di notizie che erano diffuse attraverso avvisi a stampa, sovente monografici, e che riguardavano eventi prodigiosi, come la nascita o l’apparizione di mostri, o avvenimenti calamitosi, quali incendi, inondazioni e terremoti. Il “dir burlesco” si esplica in questo caso nella descrizione di un fenomeno ordinario presentato come eccezionale, per il solo fatto di darne notizia: “In Modena, allì 11 del detto [Marzo], venne una nebbia tanto fosca che gli orbi non si vedevano l’un l’altro, ancora che si toccassero insieme”.
26
27
e voluzione delle c omunicazioni: la s toria
Gli avvisi stampati rientravano nel genere delle cosiddette “stampe popolari”, che erano distribuite dai venditori ambulanti a poco prezzo nei mercati e nelle strade, e in gran parte erano rivolte alle stesse fasce di pubblico per le quali erano scritte molte composizioni crocesche. La fortuna degli Avvisi burleschi del Croce può forse essere spiegata anche come un bisogno di alcuni gruppi di lettori e/o ascoltatori di sorridere delle proprie debolezze e sdrammatizzare eventi straordinari che potevano ingenerare paure e incubi. D’altronde il cantimbanco sapeva come conquistare i potenziali acquirenti e la prima attività promozionale per la vendita dei suoi opuscoli è svolta direttamente accompagnando con la lira la recita o il canto dei suoi componimenti poetici nei luoghi di maggiore affluenza di pubblico. L’abilità del Croce nel pubblicizzare le proprie creazioni letterarie è inoltre testimoniata dalla citazione di suoi titoli nel testo di opere successive; ad esempio, nelle Lodi delle pullite et leggiadre caldirane, ricorda tra le arie cantate dalle filatrici di seta proprio alcune sue canzoni. Si può infine rimarcare una discreta strategia comunicativa sul piano tipografico–editoriale, seppure nell’ambito di una pro-
duzione di serie volta a realizzare velocemente libretti e ventarole di largo consumo e a poco prezzo. Sui diversi frontespizi delle centinaia di opuscoli – prodotti in gran parte nell’officina di Bartolomeo Cochi e dei suoi successori attivi in Bologna in vicolo San Damiano, all’insegna del Pozzo rosso – è quasi sempre presente una vignetta silografica che allude al contenuto del libretto. Sul frontespizio della Canzone nova, e ridicolosa in lode de’ sughi (Bologna, Bartolomeo Cochi, 1610) al posto della silografia figura un’ottava dedicata ai lettori con un pressante invito ad acquistare la canzone: Voi, che vi dilettate di mangiare De’ sughi à tira corpo, e pien budello, Quest’operetta venite à comperare Dal vostro suiscerato Darinello, Che impararete come s’han da fare, E di comporli vi darà il modello; Non vogliate restar per cosa alcuna, Che per quattro quattrin n’haurete una. Anche da questi brevi cenni si coglie come la “cornucopia letteraria” di Giulio Cesare Croce costituisca una riserva preziosa cui attingere per abbozzare un vivace ritratto della Bologna di età controriformistica con particolare riguardo al tema della comunicazione nella vita quotidiana. Si tratta dell’obiettivo perseguito con la mostra “Una città in piazza” che è stata visitata (Bologna, estate 2000) da varie migliaia di visitatori non solo italiani.
Acquaforte di G.M. Mitelli, circa 1680.
G. D’Amia
la “chiave del mondo” e la sua ombra
1. 2.
Per l’innata facoltà di parola, che finisce col farne quasi una presenza animata, la radio è una delle invenzioni che hanno maggiormente contribuito a mutare la vita quotidiana nel XX secolo. E la storia della sua evoluzione formale è uno dei capitoli più avvincenti dell’affascinante epopea del design. Nel corso di un secolo, in linea con gli adattamenti tecnici e con lo sviluppo di nuovi processi produttivi, il radioricevitore di uso civile si è infatti adattato ai mutamenti di gusto e ai nuovi rituali di una società in piena trasformazione, cercando di assecondare le aspettative innescate da una campagna pubblicitaria tra le più ricche di suggestioni. Se gli apparecchi della fase sperimentale mantengono il loro carattere prettamente tecnico – con gli elementi circuitali montati a giorno su di un semplice supporto ligneo – l’allargamento dell’utenza e la diffusione della radio nel panorama domestico portano con sè una crescente attenzione per l’aspetto formale del ricevitore. Mentre la tendenza ad accorpare in un unico contenitore gli elementi funzionali prima distinti (antenna, altoparlante, alimentatore) induce l’apparecchio a mimetizzarsi con l’ambiente, assumendo le forme di un mobile “in stile”. La radio è in questo modo “acquattata in un canterano rinascimento, in un credenzone gotico, in un comò Queen Anne o in una libreria Tudor” – come lamenta la rivista ”Domus” nel 1933 – e molte ditte forniscono uno stesso
modello di ricevitore in versione da tavolo o consolle, per non dire di quelle che lo propongono, a scelta, con veste “classica” o “moderna”. Non sono rari, a questo proposito, i casi in cui il disegno esteriore del ricevitore si piega alle mode stilistiche che si sono avvicendate nel corso del Novecento, dal liberty all’art déco, dallo “stile Bauhaus” alle tendenze aerodinamiche degli anni Cinquanta. Talvolta invece il disegno dell’apparecchio è un vero e proprio “pezzo d’autore” affidato alla matita di un celebre designer. Ricordiamo in questo senso – ma gli esempi potrebbero essere più numerosi – la collaborazione di Carlo Bugatti con la Gaumont, quella di Piero Bottoni con la CGE, quella degli architetti Figini e Pollini con La voce del padrone, o ancora l’attività, a tutti nota, di Achille Castiglioni e di Marco Zanuso per la Brion Vega. Se l’aspetto esteriore risulta essenziale al successo commerciale di un ricevitore, non si può non tener conto del ruolo fondamentale che vi gioca una ben mirata campagna promozionale. A cominciare dai primi anni Venti assistiamo infatti alla nascita di una cartellonistica specializzata firmata, in qualche caso, da “persuasori occulti” di indubbia fama. La scelta operata nel messaggio pubblicitario contribuisce alla popolarità di un apparecchio radio, mentre ne sottolinea la semplicità d’uso, la facilità di trasporto o la fedeltà di riproduzione sonora. Accanto al manifesto-oggetto (in tedesco Sachplakat) che esalta le caratteristiche tecniche e formali del ricevitore, assistiamo infatti a una proliferazione di possibili
6.
7.
UN PERCORSO PER IMMAGINI ATTRAVERSO LA STORIA DEL RICEVITORE CIVILE
3.
4.
5.
28
10.
8.
ambientazioni che spaziano dal pic-nic alla crociera, dal safari agli sport invernali, per concludersi con un intero campionario riservato all’ascolto domestico. Presentata come il nuovo focolare della vita familiare, la radio diviene il fulcro dei ricevimenti danzanti e delle serate con gli amici, allieta l’ora del tè ed intrattiene i bambini con le favole della buonanotte.
9.
Inutile dire che lo scenario di queste ambientazioni è spesso quello di una sontuosa dimora aristocratica. Almeno per tutta la prima metà del secolo la “chiave del mondo” – come viene chiamata la radio in più di una locandina pubblicitaria – è infatti uno status symbol prima ancora che un mass-media.
11.
12.
NOTA GENERALE: I manifesti e le cartoline pubblicitarie originali qui riprodotte sono stati cortesemente offerti da un Collezionista privato che si ringrazia.
DIDASCALIE ALLE FOTO 1. Le voci dalla foresta, in una suggestiva immagine dei ricevitori SITI databile ai primi anni Venti. Manifesto pubblicitario. 2. Uno dei primi modelli di radiosveglia (come si evince anche dalla visibilità dell’orologio nel frontale) realizzato in bachelite dalla Philips, 1953. Per cortesia di R. Gianni, Vimercate, Milano. Foto di: Studio Fotografico G. Cigolini, Milano. 3. “La combinazione ideale”: un altoparlante e un ricevitore Philips in una locandina di fine anni Venti. Manifesto pubblicitario. 4. Locandina pubblicitaria per cuffia di ascolto della Telefunken, 1925 ca. Manifesto pubblicitario. 5. Cartolina pubblicitaria dei modelli Musagete, famosi ricevitori della Radiomarelli. 1932 ca.
29
6. Radioricevitore supereterodina Radiola a 5 valvole. Pregevole lo stile. Per cortesia di: R. Gianni, Vimercate, Milano. Foto di: F. Bisi. 7. Anche l’aspetto esteriore della radio e, soprattutto, del suo altoparlante, può farsi strumento di propaganda, come in questo ricevitore tedesco della seconda metà degli anni Trenta. Per cortesia di: N. Rodriguez, Milano. Foto di: F. Bisi. 8. Bella immagine di Mario Gros per il “Giugno radiofonico” del 1937. Manifesto pubblicitario. 9. Locandina della Philips. La diffusione dei radioricevitori civili contribuisce alla moda della home-dance, 1930 ca. Manifesto pubblicitario. 10. La radio al centro del focolare domestico, in una locandina della
RCA per il modello Radiola 17, fine anni Venti. Manifesto pubblicitario. 11. Radioricevitore Excelsior 55 della Sonora, 1955. È un modello in metallo, bachelite e plastiche policrome con un design fiammato tipicamente anni Cinquanta. Per cortesia di: R. Gianni, Vimercate, Milano. Foto di: F. Bisi. 12. Radioricevitore Microwatt 9450 della Philips del 1949. I bordi in cristallo producono, ad apparecchio acceso, un effetto di luminescenza. Per cortesia di: R. Ajelli, Milano. Foto di: G. Cigolini. 13. Radio ricevitore della Emerson di gusto tipicamente americano, realizzato in bachelite. È il classico modello soprammobile (midget) prodotto dal 1935. Per cortesia di: R. Gianni, Vimercate, Milano. Foto di: G. Cigolini.
13.
F. Soresini
onde radio nello spazio PREMESSA
e voluzione delle c omunicazioni: la s toria
Questo breve excursus sulla nascita e lo sviluppo delle radiocomunicazioni si riferisce soprattutto al primo cinquantennio del XX secolo. Considerando che la Mostra “Communication 2000” si è svolta a Bologna, si è preferito limitare l’argomento alle origini ed ai fondamentali sviluppi delle radiocomunicazioni. Ciò, in relazione al fatto che illustri personalità quali Galvani, Righi, Marconi, Majorana che vi hanno contribuito sono legati, in qualche modo tutti, alla “Alma Mater Studiorum”. GALVANI, VOLTA E LE TELECOMUNICAZIONI
Il 1999 ed il 2000 sono gli anni che ricordano il bicentenario della pila di Alessandro Volta. “Communication” si svolge al termine di questa ricorrenza e giunge spontaneo prendere avvio dall’opera di questi due scienziati, che hanno dato il via a esperienze che stanno alla base delle telecomunicazioni. L’elettricità era, al tempo di Volta (1745-1827), oggetto di curiosità e di strano diletto salottiero. Era di moda un gioco di società: l’elettrizzazione delle persone a mezzo di una macchina elettrostatica a strofinio, come ce lo dimostrano alcune stampe dell’epoca. Ma Volta era uno scienziato, e al di là di questi interessi mondani, vedeva nell’elettricità statica l’importanza che era giusto collegarvi. A quel tempo, un altro uomo di fama eccezionale, Benjamin Franklin (1706-1790), stupiva, in America, con i suoi studi e le sue esperienze. Volta, prima di dedicare i suoi studi alla realizzazione della pila (1799), si occupava dell’insegnamento della fisica, in generale, e dell’elettricismo in particolare, presso l’Università di Pavia. La prima delle sue scoperte in questo, per allora, nuovissimo settore della fisica, è stato, nel 1775, l’Elettroforo, che consisteva in uno spesso disco composto da un impasto di cera d’api e trementina che, strofinato con un panno di lana caldo o con una pelliccia, si elettrizzava negativamente. Ponendo, in presenza - senza toccarlo - di questo disco isolante, un disco di ottone fissato ad un manico di vetro, se ne otteneva la elettrizzazione per induzione in verso positivo nella faccia rivolta al disco isolante e in verso negativo dalla par-
te del manico. A questo punto, toccando con un dito questa superficie superiore del disco di ottone, si finiva con lo scaricarlo facendo disperdere a terra, attraverso il corpo, la elettricità che vi era indotta. Infine, l’elettricità positiva, rimasta sulla faccia inferiore del disco di ottone si distribuiva su tutta la superficie di esso. Si otteneva, così, senza bisogno di ricorrere ad una macchina elettrostatica a strofinio, una sorgente di energia elettrica da poter utilizzare in molti modi e per un tempo relativamente lungo. Volta stesso ne fece una interessantissima applicazione per la accensione automatica della sua lampada perpetua ad aria infiammabile. Necessita fare una parentesi per ricordare che Volta è stato anche un precursore dello studio dell’aria nativa infiammabile delle paludi: ossia del gas metano. Per dimostrare la presenza di questo gas, realizzò, nel 1777, la famosa Pistola voltaica che può considerarsi l’embrione del motore a scoppio. Ma soffermiamoci sulla pistola voltaica, in quanto l’utilizzo del suo scoppio, a scopo di segnalazione, è il motivo per cui Volta entra nel campo delle telecomunicazioni. La pistola, realizzata o in ottone, o in vetro, assunse svariate forme, ma solitamente, la più tipica è quella convenzionale di una vera e propria pistola per sparare. In sostanza si tratta di un recipiente da riempirsi di gas, provvisto di una adatta apertura atta a contenere un tappo fungente da proiettile. Facendo scoccare, all’interno della pistola, una scintilla, mediante la chiusura di un circuito elettrico collegato ad una macchina elettrostatica, o ad una bottiglia di Leyda caricata, o ad un elettroforo, la miscela gassosa deflagrava producendo uno scoppio che lanciava lontano il tappo. L’invenzione si diffuse ben presto e ricevette le più svariate applicazioni, da quelle di svago a quelle pratiche. Volta - e qui eccoci al dunque - in una lettera (conservata all’Istituto Lombardo di Scienze e Lettere di Milano) inviata ad un corrispondente, padre Barletti, il 18 Aprile 1777 scrive sulla possibilità di collocare - ad esempio una pistola ad’aria infiammabile a Milano, e da essa fare partire un conduttore che arrivasse fino a Como. In questa città si sarebbe potuto provocare lo sparo della pistola, affidando a questo scoppio un determinato significato prestabilito. Il bello sta che Volta suggerisce di usare, come conduttore di ritorno la terra, facendo pescare, da una parte, un conduttore nell’acqua del Naviglio e l’altro nel lago di Como. Lasciamo parlare Volta: “…se il fil di ferro fosse sostenuto alto da terra da pali di legno qua e là piantati per esempio da Como fino a Milano e quivi interrotto solamente dalla mia pistola, continuasse e venisse infine a pescare nel canale del Naviglio, continuo col mio lago di Como, non credo impossibile far lo sparo della pistola a Milano con una bottiglia di Leyda da me scaricata a Como”. Da questa primitiva idea di utilizzare l’elettricità per trasmettere a distanza un’informazione, prendevano avvio le più svariate proposte. Agli inizi dell’ultimo quarto del secolo XVIII non si parlava ancora nemmeno della telegrafia ottica, che ebbe il battesimo nel1793, in Francia ad opera dei fratelli Chappe. Si trattava di
Sistemi di segnalazione a distanza impiegati dall’antichità al Settecento.
30
un dispositivo di segnalazione a visibilità, base dei successivi sistemi semaforici, usati in marina e nella segnaletica ferroviaria, costituito da braccia meccanicamente posizionabili in diverse combinate angolazioni, così da fare corrispondere alle diverse configurazioni altrettanti significati. Ritornando all’uso dell’elettricità troviamo, dopo la proposta voltiana, i progetti di telegrafi elettrostatici ad opera dello svizzero Lesage e dell’inglese Ronalds. Sono sistemi, piuttosto complicati, atti a determinare effetti elettrostatici a distanza, allo scopo di segnalare convenzionalmente, con la loro combinazione, opportune informazioni. La vera e pratica telegrafia elettrica nascerà solo con l’avvento della pila. Frattanto, Volta attua una ininterrotta successione di novità nel campo dell’elettrostatica e ne discute con accademie scientifiche di tutto il mondo. Abbiamo, così: la citata lampada a gas metano con accensione ad elettroforo, l’eudiometro per l’esame delle acque, il condensatore, quale perfezionamento dell’elettroforo, per citare solo alcune delle realizzazioni voltiane più significative. Ma a Bologna, nel contempo, nel 1789, il medico Luigi Galvani (1737-1798) scopre il fenomeno dell’elettricità animale. Questa esperienza, e la sua diversa interpretazione, conduce Volta a realizzare una svariata serie di prove che, dieci anni dopo, nel 1799, sbocciano nella maggiore delle sue scoperte, la Pila. Galvani propendeva per l’elettricità di origine animale e Volta per l’elettricità metallica di contatto. Ambedue avevano la loro valida ragione. Volta, per dimostrare la sua teoria, crea il “generatore elettrico a corona di tazze”, e poi la “pila a colonna”. Volta, quindi, non pervenne alla sua scoperta in modo casuale, ma, intravisti i fenomeni derivanti dal contatto tra i metalli, ne seguì pazientemente la manifestazione fino a che, aumentando il numero delle coppie metalliche, giunse ad ottenere azioni elettriche di notevole intensità e indiscutibile evidenza. Il nome di “pila” deriva dal fatto che l’apparato elettromotore, come Volta lo chiamava, era costituito da un buon numero di coppie di dischi, uno di rame, l’altro di zinco, posti uno sopra all’altro; le coppie di metallo venivano separate da strati di panno imbevuto in una soluzione acida.
Pontelegrafo realizzato da Giovanni Caselli (1815-1891) per trasmettere scritti e disegni, riprodotti per via elettrochimica (1864).
Questo nella versione verticale della pila. Unendo un filo conduttore a ciascuno dei dischi estremi, l’uno di rame e l’altro di zinco, e chiudendo il circuito, si poteva ottenere il fluire di una corrente elettrica, da cui il nome di elettricità dinamica. A questo punto, siamo nel 1799, si dischiude un nuovo mondo di fenomeni elettrici. I primi fenomeni ad attrarre l’interesse pratico sono quelli elettrochimici. Si scopre l’elettrolisi, ossia la scomposizione dell’acqua nei suoi componenti, la galvanostegia, la galvanoplastica, nonché l’utilizzo dell’elettricità per uso medicale. I primi telegrafi elettrici sfruttano la pila per uso elettrochimico in cui la segnalazione avviene a mezzo della attuazione della scomposizione dell’acqua a distanza.
Ricordiamo i due pionieri in questo settore; John Alexandre (1802) e Samuel Thomas von Sömmering (1811). Ma solo la scoperta dei fenomeni elettromagnetici e il loro studio ad opera di Öersted, Ampère, Arago permette di realizzare dei telegrafi, ad indicazione fugace o scriventi, di pratico utilizzo. Ogni nazione civile annovera un proprio pioniere e difficile è cercare, fra le diverse pretese priorità, la giusta successione dei meriti. Ricordiamo solo alcuni telegrafi che hanno il merito di essere stati i primi ad essere adottati per uso pratico. Il telegrafo ad aghi magnetici di Charles Wheatstone (18021875). In esso, gli aghi si spostano in virtù di una corrente circolante attraverso apposite bobine di filo. Il telegrafo a quadranti indicatori di Louis François Clement Breguet (1804-1883). In questo caso è un indice, comandato da un arpionismo mosso dagli impulsi inviati in una elettrocalamita, che si sposta sulla circonferenza del quadrante su cui sono segnate le cifre e le lettere. Tavola 2 del De Viribus Electricitatis in Motu Muscolari di Luigi Galvani del 1791. Nell’immagine viene rappresentata una rana utilizzata da Galvani come rivelatore di onde elettromagnetiche generate da scariche temporalesche. Si noti la primordiale, ma efficace, applicazione pratica del concetto di “antenna” e di “terra”.
31
Telegrafo a indice ideato da Luis François Clement Breguet (1804-1883).
e voluzione delle c omunicazioni: la s toria
Planche di esperienze galvaniane tratte da L. Galvani, De Viribus Electricitatis in Motu Musculari Commentarius, Tabula V da Opere Edite ed Inedite, Bologna, 1841; Ristampa anastatica A. Forni Ed., Bologna, 1998.
e voluzione delle c omunicazioni: la s toria
Il Telegrafo ad ago ideato da C. Wheatstone (1837). Per cortesia di: Ist. Tecnico Commerciale “Pier CrescenziTanari”, Bologna. Foto di: F. Bisi.
Cassetta telegrafica campale modello 1897. Impiega un classico apparato telegrafico Morse-Hipp in uso presso l’Esercito Italiano fino alla Seconda Guerra Mondiale. Per cortesia di: Museo di FIsica, Dip. Fisica Sistema Museale d’Ateneo, Università di Bologna. Foto di: F. Bisi.
Il Telegrafo di S. Morse (costruzione 1837, brevetto 1854) in cui la ricezione del messaggio avviene per incisione in codice Morse di una banda di carta scorrevole.
Il telegrafo scrivente nel codice di Samuel Morse (1791-1872). È questo l’esempio più pratico di un apparecchio che sarà di grande diffusione. Siamo nel 1837. Gli impulsi, brevi e lunghi di corrente, determinati con un apposito tasto, eccitano un elettromagnete che comanda la registrazione, di diversa durata, degli impulsi elettrici, sopra un nastro di carta. Oramai il telegrafo elettrico è nato. Senza la pila di Volta non avrebbe potuto esistere. Ricordiamo ora alcune esperienze di Galvani e di Volta che preludono alla dimostrazione dell’esistenza delle onde elettromagnetiche. Se per “radioricezione” intendiamo la possibilità di palesare, comunque, ai sensi umani l’esistenza di perturbazioni elettromagnetiche nello spazio, la nostra mente è portata a risalire alle mirabili esperienze eseguite da Luigi Galvani e da Alessandro Volta. Galvani, infatti, usando una rana come “rivelatore” ed un complesso “antenna - terra”, perfettamente rispondente ai criteri radiotecnici, poteva rivelare le perturbazioni elettromagnetiche provocate dalle scariche atmosferiche o dalle scintille scoccanti allo spinterometro di una macchina elettrostatica a strofinio. E ciò avveniva quasi un secolo prima che le radio-onde assumessero forma concettualmente definita per merito di Maxwell. Basta, infatti, talora considerare le cose sotto un diverso punto di vista, per mettere in luce relazioni impensate; la fama di Luigi Galvani deriva dall’avere, egli, per primo, aperto i vasti orizzonti sulle azioni fisiologiche dell’elettricità. Le sue esperienze sulle rane, sia col concorso di una macchina elettrica, sia col semplice contatto di un arco bimetallico, ebbero risonanza mondiale. La confutazione, da parte di Alessandro Volta, dell’interpretazione data da Galvani ai fenomeni da lui scoperti, condusse all’invenzione della pila (1799) . L’interesse suscitato dall’elettricità così detta “galvanica” e le ricerche fisiologiche dei due scienziati hanno sempre prevalso sulla considerazione di alcuni fenomeni concomitanti, della vera natura dei quali Galvani e Volta non si resero, né potevano rendersi, conto, ma che hanno particolare sapore di fortuita e curiosa priorità nel cam-
po della radio. Sarebbe però assurdo pretendere di anticipare di un secolo la nascita teorica (Maxwell) e sperimentale (Hertz) delle onde elettromagnetiche, oppure d’infirmare l’indiscutibile priorità di Marconi nel farne pratica applicazione. Le ricerche di Galvani e di Volta, avevano, infatti, ben diverso indirizzo e se anche queste loro ricerche ebbero come conseguenza collaterale il verificarsi di fenomeni radioelettrici, non è meno vero che, dell’intima essenza di tali fenomeni, i due scienziati rimasero completamente all’oscuro. Se, quindi, non si possono considerare alla stregua di precursori in questo senso, poiché ben lontana dalla loro mente era l’intenzione specifica di ottenere segnalazioni a distanza per mezzo delle onde elettromagnetiche, è tuttavia incontrovertibile ch’essi effettivamente realizzarono tali trasmissioni, sotto veste incognita, per mezzo di una macchina elettrica che funzionava da trasmettitore e di una rana scorticata che fungeva da ricevitore. Dissipato, così, ogni dubbio sulle rispettive posizioni nella scala delle priorità, ed allontanando il più possibile ogni equivoco sulla reale portata delle citate esperienze di Galvani e Volta, le esamineremo dal punto di vista radioelettrico. Nella tavola, riprodotta dal volume di Galvani, “De viribus electricitatis in motu muscolari commentarius”, 1791, è riconoscibile la tecnica seguita nelle sue esperienze d’elettrofisiologia: nella zona 1 sporge, da sinistra, il conduttore d’una macchina elettrica. Sul tavolo, si vedono, in 2, le gambe posteriori di una rana scorticata, con i nervi crurali scoperti. Dalla relazione di Galvani, risulta che, trovandosi disposta la rana sul tavolo nelle condizioni anzidette, un assistente ne toccasse per caso col bisturi i nervi scoperti: con grande meraviglia degli astanti, i muscoli dell’animale vivamente si contraevano. Ma ad un altro assistente del celebre medico sembrò che questa contrazione fosse avvenuta mentre si traeva dal conduttore della macchina elettrostatica una scintilla. Grandemente interessato dallo straordinario fatto, Galvani, che era intento a tutt’altre ricerche, le abbandonava per dedicarsi all’indagine del nuovo fenomeno. Ripetuta l’esperienza col medesimo risultato, gli riuscì di stabilire che per provocare la convulsione della rana, occorreva toccarne i nervi con un corpo conduttore e non con un isolante e che l’effetto veniva magnificato se i nervi crurali terminavano entro un cilindro di ferro dal quale si dipartiva un lungo conduttore. Dotato di mirabile spirito indagatore, Galvani continuò le sue ricerche variandone le condizioni sperimentali e, tra l’altro, pensò di tendere un filo metallico attraverso la stanza, isolandolo mediante una sospensione a cappi di seta. All’estremo del filo appese un gancio in comunicazione metallica con i nervi crurali d’una rana racchiusa nel recipiente di vetro, e le cui zampe erano a contatto di una sostanza buona conduttrice dell’elettricità, ad esem-
32
Il Telegrafo stampante ideato (1854) da David Edward Hughes (1831-1900). Per cortesia di: C. Pria, Bollate, Milano. Foto di: F. Bisi.
esperienze dei due celebri scienziati esiste un’identità sorprendente, la quale autorizza a pensare che se l’essenza vera del fenomeno fosse stata intravista, la radiotelegrafia sarebbe forse nata un secolo prima. LE ONDE ELETTROMAGNETICHE E LA LORO
pio graniglia di piombo. Messa, quindi, in funzione la macchina elettrostatica e trattene le scintille, di nuovo si verificavano vive contrazioni delle gambe della rana, per quanto la macchina eccitatrice fosse lontana dal filo. Senza soffermarci sulle conseguenze teoriche che Galvani trasse dalle sue scoperte, è evidente che ci si trova davanti al complesso di condizioni sperimentali richieste per una trasmissione di segnali a distanza mediante le onde elettromagnetiche. Le scariche, notoriamente oscillanti, ricavate dalla macchina elettrica, generavano delle onde elettromagnetiche, le quali, propagandosi all’intorno, venivano captate dal filo, rappresentante l’antenna del complesso ricevente. Quale rivelatore, straordinariamente originale, funzionavano i sensibilissimi nervi crurali della rana, mentre la graniglia di piombo serviva da “terra” o, meglio, da “contrappeso”. Ma non basta, nella sua celebre monografia già ricordata, e precisamente nella parte seconda, Galvani descrive pure l’effetto delle scariche temporalesche. Preparata nel solito modo la rana, egli ne collega i nervi crurali ad una vera e propria antenna accuratamente isolata e le zampe ad un filo metallico, che fa scendere nel pozzo di casa. Qui, la corrispondenza, dal punto di vista radioelettrico è ancora più appariscente. Ad ogni scarica d’un temporale vicino, la rana accusava, con la contrazione delle sue gambe, il …«parassita» atmosferico, né più, né meno, come un apparecchio radioricevente. Ovviamente, esiste tra quest’ultimo ed una rana scorticata una spiccata differenza; se si deve, però, badare all’essenza delle cose, ogni differenza scompare: nervi crurali, coherer, cristallo di galena, tubo elettronico, transistore, hanno compiuto, in ordine di tempo, il medesimo ufficio. Meno noto è, forse, che, ad un certo momento, Volta fece anche a meno della rana (Ed. Nazionale delle Opere di A.Volta, Vol.1 pag.108) disponendo semplicemente sul tavolo alcuni conduttori uno in fila all’altro, a una certa distanza dalla macchina elettrica, ma non a contatto fra di loro, bensì con un leggerissimo intervallo. Ora, avvenne che, traendo le solite scariche dalla macchina elettrostatica, egli poté osservare, come testimonianza del passaggio del “fluido elettrico” nei conduttori allineati, delle piccole scintille scoccanti nelle interruzioni tra un conduttore e l’altro. Ai nervi crurali della rana, Volta aveva sostituito un altro rivelatore: la scintilla stessa che, circa novant’anni dopo, Hertz vedeva scoccare tra le sferette del “risuonatore elettrico” col quale stabiliva l’esistenza e la propagazione, nello spazio, delle onde elettromagnetiche generate dal suo “oscillatore”. Neppure Volta, che perseguiva il concetto di “atmosfera elettrica”, poteva comprendere di che cosa veramente si trattasse. Perciò non lo si può certo considerare precursore di Hertz; ma tra queste
33
James Clerk Maxwell (1831-1879), nella sua celebre memoria “Una teoria dinamica del campo elettromagnetico”, apparsa nel 1864, espresse matematicamente un possibile modo di concepire il propagarsi degli effetti elettrici e magnetici che rappresenta la base teorica delle radiocomunicazioni. La teoria di Maxwell fu confermata sperimentalmente nel 1887 da Hertz, seguito da Righi nel 1891 e negli anni successivi, nonché dalle preliminari esperienze realizzate da Branly in Francia, nel 1893, da Lodge in Inghilterra, nel 1894, e da Popoff in Russia nel 1895. Ma l’idea di utilizzare onde elettromagnetiche a scopo di comunicare si sviluppò solo, come vedremo, attraverso le esperienze di Guglielmo Marconi (1874-1937), iniziate nel 1895 e proseguite fino alla loro pratica realizzazione. Heinrich Rudolph Hertz (1857-1894), fu uno scienziato nel vero senso della parola: dedicò la sua intera attività alle scoperte scientifiche per puro amore della scienza senza pensare a trarne lucro; e, quantunque abbia avuto vita breve, come l’ebbe anche breve il precursore dei suoi lavori James Clerk Maxwell, aprì alla scienza nuovi, vastissimi, orizzonti. Egli dopo aver conseguito la laurea a Berlino, all’età di 23 anni fu tosto assunto come assistente dal suo professore von Helmholtz; ma dopo 3 anni fu nominato ordinario di fisica sperimentale alla scuola tecnica superiore a Karlsruhe, nel laboratorio della quale fece le sue grandiose scoperte. Vi trovò un paio delle cosiddette “spirali di Riess o di Knochenhauer” che erano due spirali isolate con ceralacca e sostenute l’una sopra l’altra per mezzo di un perno verticale passante per il loro centro. Scaricando in una di esse una bottiglia di Leyda, notò delle scintille in un piccolo intervallo dell’altra. Era la dimostrazione della teoria di Maxwell. Per chiarire meglio la cosa, sostituì alla prima spirale un conduttore rettilineo, con un intervallo di scarica al centro e due sfere metalliche alle estremità per regolarne le capacità; ed all’altra spirale sostituì un semplice anello, provvisto di un intervallo di scarica regolato da un micrometro, e spostabile per poterlo adoperare a diverse distanze. Con tali apparecchi semplicissimi, che chiamò oscillatore l’uno e risuonatore l’altro, egli studiò l’azione elettrica a distanza: la creazione di onde elettromagnetiche e la loro rivelazione fino a 12 metri di distanza, la loro riflessione, rifrazione e polarizzazione, la loro velocità ed identità con le onde luminose. Studiò l’effetto dei dielettrici, la propagazione delle onde nei fili, (argomento a cui si era già dedicato un altro scienziato tede-
Spinterometro per generare onde elettromagnetiche a mezzo della scarica tra le sfere metalliche, ideato da A. Righi (ca. 1891). Per cortesia di: Ist. Tecnico Commerciale ”Pier Crescenzi-Tanari”, Bologna. Foto di: F. Bisi.
e voluzione delle c omunicazioni: la s toria
DIMOSTRAZIONE SPERIMENTALE IN HERTZ
“Telefono che si ascolta a distanza”, ideato e brevettato da A. Righi (1878); nell’immagine l’altoparlante, prototipo degli odierni dispositivi. Per cortesia di: Ist. Tecnico Commerciale “Pier Crescenzi-Tanari”, Bologna. Foto di: F. Bisi.
sco, il von Bezold), le scariche elettriche nei gas rarefatti e descrisse le sue esperienze in notevoli memorie. Nel 1889 fu nominato professore ordinario di fisica all’Università di Bonn, e ripeté i suoi esperimenti perfezionandoli nel laboratorio di fisica, ma poté attendervi per pochi anni, giacché nel 1893 si ammalò, ed il 1 Gennaio 1894 morì. Hertz aveva adoperato in genere onde di 9 metri, ma appena installatosi a Bonn ripeté i suoi esperimenti con onde di 30 cm. Subì allora uno di quei patemi d’animo da cui non possono andare immuni neppure i grandi indagatori, giacché un errore di calcolo nella capacità dell’oscillatore, lo portò per un momento a conseguenze che parevano mettere in dubbio la teoria di Maxwell. Ma fu un dubbio che durò pochi giorni.
e voluzione delle c omunicazioni: la s toria
RIGHI E L’OTTICA DELLE OSCILLAZIONI ELETTRICHE
Le esperienze di Hertz furono immediatamente ripetute nei principali laboratori di fisica, con lo scopo essenziale di convalidarle e riempire qualche lacuna. Chi portò in ciò il massimo contributo è stato il Professor Augusto Righi (1850-1920) dell’Università di Bologna. Egli modificò l’oscillatore di Hertz: adattandovi sfere più piccole, riscontrò che otteneva onde più corte, e giunse fino ad avere onde di 2 cm e 1/2. Per evitare l’inconveniente già riscontrato da Hertz che le sferette dell’intervallo di scarica si ossidavano rapidamente sotto l’azione delle scintille, con conseguente modificazione della loro superficie ed irregolarità negli effetti, le immerse nell’olio di vaselina, ottenendo così onde più uniformi. Migliorò anche il risuonatore, realizzando un rivelatore sotto forma di specchio argentato, rigato da un gran numero di tratti paralleli, vicinissimi, tracciati con una punta di diamante, o costituiti da una sola lastrina argentata con una singola interruzione; e più tardi un rivelatore a gas rarefatto. Righi non ha pensato, sembrerebbe, che le onde che studiava potessero servire come mezzo di comunicazione a distanza; ma l’idea nacque accanto a lui ad opera del giovane Marconi. LA RILEVAZIONE DELLE ONDE ELETTROMAGNETICHE CALZECCHI ONESTI, BRANLY, LODGE
Mentre si attuavano esperienze relative ai fenomeni di propagazione delle onde elettromagnetiche, veniva scoperto e perfezionato un primo rilevatore, il tubetto a limatura, che fu poi chiamato coherer. Il suo funzionamento era basato sulla proprietà delle polveri metalliche, scoperta prima da Munck (1835) e poi riscoperta nel 1878 da Hughes, ed utilizzata prima da Calzecchi Onesti nel 1884 ed in seguito studiata dal fisico francese Branly nel 1893 e dal fisico inglese Lodge, sempre nel 18931894. La forma esterna del coherer era quella di un piccolo tubo di vetro provvisto, alle estremità, di due elettrodi metallici molto ravvicinati, tra i quali era leggermente compresso un sot-
tile strato di polvere metallica. Il tubetto veniva quindi chiuso estraendo l’aria per evitare l’ossidazione della limatura. Nel 1893 Lodge col suo coherer collegato ad un galvanometro nel circuito di una pila e con l’aggiunta di un meccanismo ad orologeria, che con leggeri scuotimenti ripristinava la resistenza elettrica del coherer (decoherizzazione), otteneva la rivelazione delle onde fino a 36 metri di distanza dall’oscillatore. Ed egli stesso affermò, in una sua conferenza del 1894, che coi medesimi mezzi si sarebbero potuti ottenere effetti fino a 700 metri al massimo. Tuttavia, com’ebbe ad ammettere più tardi, non aveva mai pensato di sostituire al galvanometro un apparecchio telegrafico per la ricezione di dispacci. POPOFF
Popoff ripeté, nel 1895, quello che Galvani, più di 100 anni addietro, aveva fatto utilizzando una rana; infatti, facendo uso del coherer, realizzava un dispositivo atto a rivelare perturbazioni elettromagnetiche atmosferiche anche da considerevoli distanze. Il Prof. Popoff dell’Accademia militare di Kronstadt, nell’aprile 1895 fece così conoscere alla Società fisico-chimica russa un apparecchio, per mezzo del quale otteneva la registrazione di scariche elettriche dell’atmosfera. Nel circuito di una pila erano inseriti un coherer e un relé che, al passaggio della corrente, stabiliva un contatto con un circuito comprendente una pila ed un’elettrocalamita che faceva vibrare un’ancora posta tra la campana e il coherer, a piccola distanza. Ora, se un treno d’onde veniva ad influenzare il coherer, per esempio in seguito ad una scarica elettrica atmosferica, la corrente della pila eccitava il relé. Allora, questa attirava l’ancora che, percuotendo la campana, determinava un segnale acustico e ricadendo, poi, verso il coherer, lo colpiva e lo decoherizzava, cosicché tutto era riportato allo stato di partenza. Oltre a questo risultato, Popoff ne raggiunse un altro di ben maggiore importanza. Lo scopo prefissosi, cioè la rivelazione di onde provenienti da scariche elettriche atmosferiche, gli suggerì l’idea di mettere uno degli elettrodi del coherer in comunicazione con la terra e l’altro con l’asta di un parafulmine, o con un filo metallico verticale convenientemente sospeso. Spunta, così, in modo efficace, il concetto dell’antenna ricevente, anche se non finalizzata alla ricezione di segnali trasmessi dall’uomo. La felice idea di applicare l’antenna ad un oscillatore per farne un trasmettitore e ad un rivelatore per farne un apparecchio ricevente, era invece riservata alla geniale intuizione di Guglielmo Marconi, nella cui mente maturavano, proprio in quell’epoca, idee e propositi, che dovevano portare di colpo dalla semplice ricezione di segnali, alla realizzazione di una vera e propria telegrafia senza fili. PRIMA DELLA TELEGRAFIA SENZA FILI
Prima che si realizzasse la telegrafia senza fili, da parte di Marconi nel 1895, le telecomunicazioni erano già nate e si erano notevolmente sviluppate. Portandoci alla fine del secolo XVIII, vediamo nascere in Francia, per merito dei fratelli Chappe, il sistema di telegrafia ottico-semaforica che Napoleone, nel 1805, prolungherà in Italia con la linea Parigi-Torino-MilanoVenezia. Con la caduta di Napoleone, poco più di dieci anni
34
L’OPERA DI MARCONI
Fin dal 1858 l’italiano Sponzilli aveva scritto in una pubblicazione del Genio Militare di Napoli, che un giorno o l’altro si sarebbe potuto adoperare una perturbazione dell’etere, analoga a quella luminosa, per comunicare a distanza. E nel 1892 sir W. Crookes aveva chiaramente espresso in un articolo pubblicato sulla “Fortnightly Review” che si sarebbe potuto un giorno comunicare a distanza con onde hertziane di diversa lunghezza. Nel 1895 pensò all’attuazione di tale idea un giovane ventunenne, di propositi molto tenaci, che abitava a Bologna, Guglielmo Marconi. Marconi per attuare il concetto delle comunicazioni a distanza senza filo, ricorse dapprima ad un oscillatore del tipo usato da Hertz e da Righi che installò nella villa paterna di Pontecchio (a pochi chilometri da Bologna), e per ricevitore adoperò un rivelatore più sensibile di quelli usati in precedenza: un tubetto ripieno di limatura metallica, che era stato oggetto di studio da parte specialmente di Branly e di Lodge. Marconi perfezionò questo tubetto per renderlo ancora più sensibile ottenendo portate di qualche centinaio di metri. Allora pensò di modificare il dispositivo trasmittente, e collegò una delle estremità del circuito secondario della bobina d’induzione dell’oscillatore ad una piastra metallica posata a terra e l’altra estremità ad un bidone metallico sospeso in alto all’estremità di una pertica. Constatò che la distanza di ricezione aumentava rapidamente con l’altezza del bidone e con le sue dimensioni; e finì col sopprimerlo, alzando però molto il filo che
35
lo collegava al trasmettitore. Per la ricezione intercalò il tubo con limatura fra una piastra collegata al suolo ed un conduttore isolato; e cominciò ad ottenere buoni risultati. Celebre il suo esperimento di trasmissione di un segnale elettromagnetico oltre la collina dei Celestini – fuori dalla visibilità ottica – dietro la Villa Griffone (1,5 km ca.) residenza della famiglia Marconi, nel Settembre del 1895. La radiotelegrafia era nata. È stato eccepito, che in sostanza Marconi non ha fatto altro che mettere l’oscillatore di Hertz in posizione verticale, con una delle sfere a terra. Ed infatti a questo semplice concetto si può ridurre il trasmettitore realizzato da Marconi a Pontecchio. È come dire che per andare in America basta veleggiare dall’Europa verso occidente…verissimo, ma dopo che Colombo ha insegnato la strada. È la ormai vecchia storia dell’uovo. Marconi non trovando in Italia gli aiuti necessari per dar sviluppo alla sua invenzione si recò in Inghilterra, patria di sua madre dove presentò tosto, all’inizio del 1896, domanda per il primo brevetto di telegrafia senza fili. Poco dopo essere arrivato a Londra, Marconi fu invitato da sir William Preece, ingegnere capo delle poste inglesi, a dar dimostrazioni della sua invenzione. Egli eseguì esperimenti ad una distanza di circa 100 metri, alla presenza delle autorità governative e poco dopo, ne eseguì delle altre nella piana di Salisbury, riuscendo a stabilire regolari comunicazioni alla distanza di circa 2 miglia. Nel 1897 telegrafò attraverso il canale di Bristol a distanza di oltre 8 miglia. Telegrafò poi anche attraverso il canale di Wimereux (nei pressi di Boulogne-sur-Mer) e durante queste ultime trasmissioni i dispacci furono anche ricevuti a Chelmsford, distante circa 85 miglia. Nel luglio del 1897 Marconi venne in Italia e diede una dimostrazione della sua invenzione al Ministero della Marina, ed altra dimostrazione al Quirinale. Dal 10 al 18 luglio eseguì esperimenti alla Spezia, ove vennero stabilite regolari comunicazioni tra la costa e la corazzata S. Martino alla distanza di 16 km. Durante i mesi di settembre e di ottobre, Marconi, ritornato in Inghilterra fece nuovi esperimenti nella piana di Salisbury, mentre altri ne venivano eseguiti a Dover per cura del Ministero delle Poste inglesi. In tale anno, 1897, Marconi stabilì una delle prime leggi della pratica radioelettrica, affermando che a parità di condizioni “la portata è proporzionale all’altezza dell’aereo”, cioè dell’antenna. Nel 1898 la radiotelegrafia fu impiegata alle manovre navali inglesi con buoni risultati fino alla distanza di 60 miglia; nelle manovre del 1899 tre navi inglesi, munite di apparecchi Marconi, poterono comunicare fra loro fino alla distanza di 74 miglia nautiche. In quell’anno Marconi si recò in America per dimostrazioni sulla sua invenzione. È noto che questa, mentre
e voluzione delle c omunicazioni: la s toria
dopo, tale impianto venne smantellato, ma il Regno di Sardegna lo sostituì tra Torino, Milano e Genova con il sistema ottico Gonella. A metà del secolo XIX il telegrafo elettrico venne a sostituire quelli semaforici. Nel 1799, Volta, con la sua pila, aveva realizzato la prima sorgente di elettricità dinamica che consentì di scoprire, tra gli altri suoi effetti, quelli elettromagnetici, base di diversi sistemi telegrafici via via escogitati. In Italia, spiccano due nomi di illustri fisici: Magrini e Matteucci. Magrini, col suo telegrafo elettromagnetico, ideato nel 1837, del tutto simile a quello contemporaneamente realizzato da Wheatstone in Inghilterra e diffusosi nel pratico uso. Matteucci, che realizza la prima linea telegrafica in Toscana iniziata nel 1847 ed è autore del primo testo italiano sulla telegrafia. Le reti telegrafiche nazionale e mondiale si svilupparono ulteriormente anche per collegamenti a lunga distanza, quali quelli con i cavi cablografici sottomarini. Presto nasce l’idea di poter trasmettere elettricamente la voce. Due italiani, il Manzetti di Aosta nel 1864 e Meucci, il fiorentino profugo all’Avana e poi negli USA, nel 1872 realizzano i primi tentativi, ma sarà Bell, nel 1876, che attuerà praticamente il problema. In Italia, i fratelli Gerosa di Milano ne diverranno i pionieri, dando vita ad una industria (che diverrà la FACE, ora Alcatel) e realizzando la prima rete telefonica di Milano tra il 1881 e il 1883. Anche la telefonia automatica avrà origine italiana, quando nel 1884 Marzi, a Roma, installò presso la Biblioteca Vaticana un impianto a commutazione automatica per 10 utenti. Nel contempo si attuano le prime esperienze sulle onde elettromagnetiche che porteranno alla realizzazione della telegrafia senza fili.
Il famoso detector magnetico ideato da G. Marconi, sperimentalmente realizzato in una scatola di sigari (1902). Copia dell’originale, realizzata da M. Bigazzi. Per cortesia di: Fondazione G. Marconi. Foto di: F. Bisi.
e voluzione delle c omunicazioni: la s toria
Uno dei primi radioricevitori ad una valvola, per radiodiffusione, con ascolto in cuffia, prodotto dalla Società Siti, modello Sitisimplex R9 (1924). Per cortesia di: R. Aielli, Milano. Foto di: Studio Fotografico G. Cigolini, Milano.
Radioricevitore a cristallo di galena, con ascolto in cuffia, prodotto dalla Western Electric Italiana (1922). Per cortesia di: R. Gianni, Vimercate, Milano. Foto di: Studio Fotografico G. Cigolini, Milano.
dapprima aveva suscitato dubbi e diffidenze, in seguito, dinnanzi alla realtà dei fatti, cominciò a trovare numerosi aderenti ed a suscitare le speranze di grandi lucri. Quindi fin dal 1897 si costituirono potenti organismi per sfruttare i brevetti presi da Marconi. La prima di tali Compagnie è stata la Wireless Telegraph and Signal Ltd. che si costituì nel luglio 1897 con un capitale di 100.000 sterline per l’acquisto dei brevetti Marconi per tutti i paesi, salvo l’Italia, avendo voluto Marconi svincolare la sua Patria dalle interessenze straniere. Il 22 novembre 1899 fu costituita la Compagnia Marconi d’America; il 2 ottobre 1901 la Compagnie de Telegraphie sans fil di Bruxelles; il primo novembre 1902 la Wireless Telegraph Company of Canada; il 24 aprile 1903 la Compagnie française maritime et colonial de telegraphie sans fil; il 4 agosto 1906 la Compagnia Marconi argentina; l’8 ottobre 1906 la Russian Company of Wireless telegraph and telephones; il 24 dicembre 1910 la Compagnia Nacional de Telegrafia sin hilos spagnola. È così, mano a mano, la radiotelegrafia sistema Marconi prese piede in tutto il mondo. Ma ciò non avvenne senza lotte, che furono specialmente accanite in Germania e in America. Nel maggio del 1897 aveva assistito agli esperimenti di Marconi in Inghilterra il professore tedesco Slaby, il quale naturalmente fece conoscere al suo governo la possibilità di comunicare a distanza senza fili. L’anno seguente espose chiaramente l’argomento in una conferenza tenuta a Potsdam, alla presenza del Kaiser e del Re di Spagna. È naturale che il Kaiser fattosi un’idea della somma importanza che avrebbe assunto la radiotelegrafia abbia tosto pensato ad aiutare lo Slaby per creare un sistema tedesco onde non essere soggetto agli inglesi. A somiglianza della compagnia Marconi inglese fu così poi costituita la Telefunken, che fu per diversi anni concorrente della Marconi. Negli Stati Uniti d’America avvennero lotte giudiziarie suscitate specialmente dalle compagnie dei cavi sottomarini e dalla compagnia che sfruttava i brevetti De Forest, concorrente americano di Marconi. A parte que-
ste lotte d’interessi è da notarsi che grandi ed imprevisti ostacoli si frapponevano alla radiotelegrafia, quale risultato dopo i primi tempi della sua creazione, perché potesse avere un grande sviluppo. Gli ostacoli provenivano dalle alte montagne, dalla curvatura della terra, dalla luce solare, nonché dalle interferenze, da disturbi atmosferici, dall’evanescenza, dalla radiazione circolare delle onde elettriche. Essi costituivano argomenti potentissimi nelle mani degli avversari, e giustificavano lo scetticismo di molti tecnici e la diffidenza dei capitalisti verso le radiotrasmissioni. Ma bisogna dire che il genio inventivo di Marconi, il valore dei suoi collaboratori, nonché quello di parecchi altri tecnici e scienziati, riuscirono ad eliminare in gran parte tali inconvenienti. Ed i governi cooperarono non poco allo sviluppo della radiotelegrafia, specialmente in considerazione dei grandi vantaggi che essa offriva alle comunicazioni marittime, giacché costituiva il solo mezzo per attuarle. Marconi, fin dal 1898, pensò all’opportunità di realizzare dispositivi sintonici, tali cioè che il ricevitore potesse “rispondere” soltanto a segnali aventi una determinata frequenza corrispondente a quella del trasmettitore. Si trattava, dunque, di realizzare un fenomeno di risonanza analogo a quello acustico, per il quale un diapason eccitato trasmette, attraverso l’aria, le sue oscillazioni ad un altro diapason con esso accordato. Marconi ottenne questo risultato variando il numero delle spire di un’induttanza accoppiata all’antenna o mettendo un condensatore in serie con essa. Il brevetto Marconi che fu rilasciato il 26 aprile 1900 e che porta il numero 7777, rivendica appunto l’uso di circuiti accordati tanto in trasmissione, quanto in ricezione, con un accoppiamento induttivo tra il circuito dell’antenna e quello dell’apparato vero e proprio. Fu con apparecchiature di questo genere che Marconi poté ricevere, il 12 dicembre 1901, i primi segnali trasmessi da oltre 3000 km, da Poldhu, a Terranova. Si può dire che l’impiego della radio nelle comunicazioni marittime ha avuto inizio nel 1900, e la prima compagnia di navigazione che la abbia adottata è stata il Norddeutscher Lloyd. Il 25 aprile di tale anno si costituì anche la “Marconi International Marine Communication Co” con sede in Londra e Bruxelles e con agenzie a Parigi e Roma per lo sviluppo del sistema Marconi sulle navi. Nello stesso anno l’ammiragliato britannico l’adottò per la marina militare e l’esempio fu poi seguito dalle altre Marine. Il battesimo alla radiotelegrafia, per la salvezza della vita umana in mare, si è avuto nel primo impressionante salvataggio compiutosi in occasione della collisione del grande transatlantico inglese “Republic” col transatlantico italiano “Florida” (1909). Circa gli ostacoli naturali, bisogna dire che Marconi, contrariamente all’opinione di molti, non riteneva che fosse insormontabile quello della curvatura della Terra. Perciò, nel 1901, terminato l’impianto in Inghilterra della prima potente stazione radio telegrafica, a Poldhu, decise di servirsene per comunicare con l’America; scelse per queste prove l’isola americana di Terranova, che è la parte occidentale più vicina alla costa inglese, ma distante da questa circa 1800 miglia. Vi si trasferì nel novembre, lasciando a Poldhu il prof. Fleming per dirigere il compito di questa stazione. Dopo ripetuti tentativi, il 12 dicembre, innalzato all’altezza di circa 120 metri un cervo
36
I PRIMI GENERATORI DI OSCILLAZIONI
I generatori di oscillazioni furono dapprima dei derivati degli oscillatori di Hertz e di Righi, cioè degli apparecchi a scintilla. Tali apparecchi tennero a lungo il campo, pur con varie modificazioni e perfezionamenti. Si possono citare i più perfezionati, quelli nei quali si cercò di interrompere o frazionare la scintilla, fra cui il generatore a scintilla interrotta di Balsellie, quello a scintilla rotante di Fessenden, lo scaricatore a disco di Marconi, il sistema a scintilla smorzata di Loewenstein, il sistema a scintilla smorzata Telefunken, l’apparecchio con scin-
37
tilla ad alta frequenza del dott. Chaffèe, ed il sistema De Forest. Ma l’idea di trasmettere oltre ai segnali telegrafici anche la parola, cosa che con la scintilla non era possibile, fece presto pensare a generatori fondati su altri principi. E dapprima vennero i generatori ad arco. I primi a trovare un generatore di tale specie furono gli americani Bell ed Hayes, i quali constatarono che accoppiando induttivamente un circuito contenente una batteria ed un microfono con un arco voltaico a corrente continua, si otteneva da questo la riproduzione della voce; e costruirono il primo apparecchio ad arco, un fotofono, generatore che serviva a trasmettere la parola. Nel 1900 Duddell dimostrò il fenomeno dell’arco musicale: messo in serie in un circuito un condensatore ed un’induttanza e shuntandole con un arco, notò che in tale circuito si producevano oscillazioni elettriche, le quali davano luogo a suoni musicali. Poulsen nel 1902 pose un arco Duddell in un’atmosfera di idrogeno (ed anche di altri gas di alta conduttività termica) e adoperò un elettrodo positivo raffreddato ad acqua ed un soffiamento magnetico attraverso l’arco: creò così un potente generatore di oscillazioni ad alta frequenza. Ebbe in tal modo inizio la radiotelegrafia ad onde continue. De Forest ideò poi un arco simile a quello di Poulsen: la differenza principale era che egli impiegava vapori di alcool in luogo dell’idrogeno. Nel 1914 Fleming brevettò un generatore ad arco, con dischi di carbone in un’atmosfera di acetilene e di idrogeno. Il sistema ad arco parve per un certo tempo aver risolto il problema della trasmissione, e parecchie stazioni lo adottarono. Ma esso aveva un forte concorrente: il sistema ad alternatore. Fin dal 1906 Fessenden aveva costruito un alternatore ad alta frequenza; ed in seguito ne ideò altri. Goldschmidt prese anch’egli brevetti nel 1907 per un alternatore adatto alla produzione di correnti ad alta frequenza. Nel 1908 Alexanderson, della General Electric Company americana, costruì il suo primo alternatore. E ne costruì altri in seguito che furono adottati da diverse stazioni. Al principio della grande guerra (1915-18) alcune nazioni, come l’Italia, si erano date decisamente all’uso del sistema Poulsen; altre, come la Germania, la Francia e l’America avevano adottati gli alternatori ad alta frequenza: la Germania aveva gli alternatori Telefunken, con moltiplicatore di frequenza, la Francia aveva quelli basati sul brevetto Sotour, gli Stati Uniti
e voluzione delle c omunicazioni: la s toria
volante sostenente il filo d’antenna, riuscì a sentire con un ricevitore telefonico il ritmo della scintilla di Poldhu, ripetuta tre volte. L’evento che stupì il mondo intero, annullava dunque l’opinione che la curvatura della Terra costituisse un ostacolo. Alla fine del 1902 fu stabilita una regolare comunicazione fra l’Inghilterra ed il Canadà. Allora il nostro Governo richiese a Marconi l’impianto di una stazione capace di corrispondere con altre consimili di Europa e d’America. Fu scelta nel settembre del 1903 la località di Coltano, presso Pisa. Anche l’ostacolo delle alte montagne fu dimostrato essere superabile, giacché nel 1902 Marconi, durante una crociera che fece a bordo della R. nave “Carlo Alberto” mentre questa stava a Gibilterra riuscì a ricevere da Poldhu attraverso i Pirenei. L’influenza della luce solare sulle radiotrasmissioni a grande distanza fu ben precisata da Marconi nel 1903, e da quell’epoca egli pensò al modo di ovviare agli inconvenienti, che ne derivavano. Da allora si tennero presenti negli studi e nelle realizzazioni le diverse particolarità della propagazione diurna e di quella notturna; ma nel 1905, per opera specialmente del Round, fu constatato che le condizioni notturne e quelle diurne presentavano differenze tanto meno notevoli quanto più lunga era l’onda utilizzata. Si acuì allora la gara nell’allungamento delle onde negli impianti radiotelegrafici. Marconi, nel 1909 usando onde superiori ai 5000 metri arrivò persino ad ottenere segnali diurni più intensi che quelli notturni. La convenienza di adoperare onde molto lunghe per le grandi comunicazioni ricevette un’ulteriore conferma nel 1910, quando l’Austin ed il Cohen, eseguendo esperienze per conto della Marina americana, furono indotti a stabilire la ben nota formula empirica che porta il loro nome, e che ha servito per diversi anni come base per il calcolo di grandi stazioni radiotelegrafiche malgrado che vari scienziati, specialmente il nostro prof. Vallauri, avessero dimostrato che tra i risultati della pratica e quelli dedotti dalla predetta formula esistevano spesso notevoli differenze. Circa la propagazione delle onde va accennato che fin dal 1902 Kennelly in America ed Heaviside in Inghilterra enunciarono l’ipotesi della probabile esistenza di uno strato conduttore nell’alta atmosfera, dal quale le onde potevano essere “riflesse” (in realtà sono ripetutamente rifratte), e stabilirono anche che esso doveva trovarsi a circa 80 km dalla superficie terrestre. Il matematico Watson calcolò poi, fondandosi sull’intensità delle ricezioni, che lo strato ionizzato doveva trovarsi a circa 100 km di altezza. Tale strato è poi stato oggetto di molti altri studi, specialmente dopo le irregolarità riscontrate nella propagazione delle onde corte.
Radioricevitore a due valvole per radiodiffusione, prodotto da Tonyphone, modello Two Valve (1923). Per cortesia di: R. Gianni, Vimercate, Milano. Foto di: Studio Fotografico G. Cigolini, Milano.
e voluzione delle c omunicazioni: la s toria
Radioricevitore supereterodina a 5 valvole (1938), portatile, a valigetta, con custodia di protezione in ferro per uso militare. Marca: Radione. Per cortesia di: R. Gianni, Vimercate, Milano. Foto di: Studio Fotografico G. Cigolini, Milano.
Radioricevitore Brownie (1923). Il ricevitore vero e proprio è a sinistra con la sintonia e il rivelatore a cristallo di galena. Al centro l’amplificatore microtelefonico; a destra l’altoparlante, in questo caso il modello Dinkie della Ditta Sterling. Per cortesia di: R. Gianni, Vimercate, Milano. Foto di: Studio Fotografico G. Cigolini, Milano.
Radioricevitore supereterodina a cinque valvole della Ditta Ansaldo Lorenz, modello 5V3 (1940). Tipica la “scala parlante” con il nominativo delle stazioni emittenti. Per cortesia di: R. Aielli, Milano. Foto di: Studio Fotografico G. Cigolini, Milano.
avevano gli Alexanderson. Marconi era però del parere che l’alternatore non risolvesse completamente il problema, perché non si prestava a rapidi cambiamenti di lunghezza d’onda e serviva soltanto per onde lunghissime; e preconizzava che il problema sarebbe stato risolto dall’uso della valvola termoelettronica. I PRIMI RIVELATORI
Il risuonatore di Hertz e gli apparecchi consimili adoperati dagli scienziati per i primi studi sulle onde elettromagnetiche non erano adatti per la radiotelegrafia. Questa fece i suoi primi passi coll’aiuto di un dispositivo basato sul fatto che un tubo contenente limatura metallica acquista una grande conducibilità per effetto di azioni elettriche e la perde se sottoposto ad un urto. Questo fatto fu posto in evidenza nel 1884 dal prof. Calzecchi Onesti del Liceo di Fermo, che lo descrisse in tre memorie pubblicate dal periodico “Il Nuovo Cimento” dall’ottobre 1884 al marzo 1885. Quantunque tali memorie fossero state citate dalle principali riviste scientifiche, e particolarmente in Francia dal “Journal de Physique” non ne venne a conoscenza il professor Branly dell’Istituto cattolico di Parigi, il quale nel 1890, cioè sei anni dopo, constatò lo stesso fatto e ritenne di essere il primo ad aver fatto tale scoperta. Egli però fu effettivamente il primo a constatare che la limatura di ferro si ammassava anche per effetto di una scarica elettrica che avvenisse nelle sue vicinanze. Diversi fisici studiarono tosto il tubetto a limatura metallica, e specialmente sir Oliver Lodge, che introdusse miglioramenti nel dispositivo del Branly, lo rese più sensibile e lo battezzò col nome di coherer. Egli ideò pure un martelletto che, automaticamente, riportava la limatura metallica alla primitiva condizione di non conduttività, dopo che era stata resa conduttiva. È questo il congegno di cui si servì dapprima Marconi per le sue esperienze. In Francia si è voluto attribuire al professor Branly l’invenzione della radiotelegrafia, per aver creato il coherer; ma tale asserzione è evidentemente priva di fondamento. La primizia della scoperta spetterebbe al Calzecchi Onesti; al Branly, poi, non è mai venuto in mente di servirsi del suo dispositivo per ricevere segnali portati da onde hertziane. E si può anche aggiungere che il coherer non ha avuto un’importanza decisiva nella radiotelegrafia, tanto che fu presto abbandonato: altri principi fisici potevano ben servire per costruire dei rivelatori di onde elettromagnetici. Però Marconi, adoperandolo nei suoi primi tentativi, e cercando di renderlo più sensibile, indusse altri tecnici a fare altrettanto: vennero quindi alla luce
numerosi tipi di coherer: fra essi quello di Robinson oltre a quello del Lodge, un tipo creato dal semaforista della Marina italiana Castelli, ed altro del francese Ferrié, che nel 1897 costruì un coherer a limatura di oro, suscettibile di regolaggio. Per le esperienze eseguite nel 1901 attraverso l’atlantico Marconi adoperò un detector del tipo di quelli che erano allora adoperati nella Marina italiana, e vi aggiunse un ricevitore telefonico, poiché l’orecchio umano è il ricevitore più sensibile. Nel 1902 egli però migliorò il rivelatore magnetico, che Rutherford aveva inventato nel 1895 e prese un brevetto per il suo detector magnetico. Siccome nemmeno i rivelatori magnetici soddisfacevano troppo alle esigenze, si pensò anche a crearne altri di natura diversa. E così vennero alla luce quelli elettrolitici, il primo dei quali è stato ideato dal De Forest. Consisteva in un tubo di rame contenente una pasta di mercurio, glicerina, acqua ed un po’ di limatura metallica, la quale pasta era posta fra due elettrodi metallici. In essa si formavano strutture cristalline quando era attraversata da una corrente continua, strutture che venivano parzialmente distrutte se la pasta era attraversata da correnti pulsanti. Altre forme di rivelatori elettrolitici furono create da Ferrié, Schloemich e Vreeland. È anche meritevole di menzione il rivelatore di S.C. Brown, consistente in una palla di perossido di rame fra elettrodi di rame e platino. Il problema della rivelazione fece poi un notevole passo innanzi nel 1906, quando Dunwoody dimostrò che il carborundum aveva la proprietà di rettificare le piccole correnti ad alta frequenza, ed inventò il rivelatore a carborundum. Esso fu ben presto seguito dal rivelatore a punta di rame e molibdeno del Prof. Pierce, dal detector “Pericon” di Pickard, formato da pirite e zinco, dal detector “Silicon”, da quello del Blake a solfito d’acciaio, da quello formato da un contatto fra tellurio e grafite, chiamato Bronek Cell, da quello inventato da Walter nel 1908 e costituito da un filo di tantalio posato su mercurio, ed infine da quelli classici a galena, inventati dal dr. Eccles, fra il 1909 ed il 1911, ed in seguito da altri perfezionato. Eccles diede anche la teoria del loro funzionamento. Ma tutti questi rivelatori dovevano passare in seconda linea con la scoperta della valvola termoionica. I TUBI ELETTRONICI
La “valvola” è stata il componente che ha fatto fare i più grandi passi alla radio. La sua invenzione si può annoverare fra le più grandi scoperte. L’idea della valvola ionica si può dire abbia avuto principio nel 1884 quando Edison, rinchiusa una lastra metallica entro il bulbo di una lampada elettrica ad incandescenza, fra i due rami del filamento a ferro di cavallo, osservò che lo spazio vuoto dentro di essa conduceva una corrente quando il filamento era reso incandescente, e che la
38
Altoparlante elettromagnetico a spillo degli Anni Venti. Per cortesia di: N. Rodriguez, Milano. Foto di: F. Bisi.
39
pure l’importanza della tensione di griglia. Lavori ulteriori di Schloemich, Round, Tigerstedt ed altri sulla costruzione della valvola a tre elettrodi condussero alla realizzazione di un anodo cilindrico ed una griglia situata tra il filamento e la placca. Nel 1912 un gruppo di case produttrici tedesche, apprezzando i lavori del von Lieben sulla valvola, ne acquistò i brevetti. A partire dal 1913 si nota una precisa differenza fra le prime valvole “molli” e quelle nuove “dure”, messe sul mercato, specialmente in seguito ai lavori del Langmuir sul vuoto. Nel 1914 la Telefunken costruì il primo amplificatore a due valvole di bassa frequenza. Avvenuta nel 1913 la scoperta della “reazione” per merito di Meissner e De Forest, fu anche risolto il problema dell’emissione di onde continue (o persistenti) per mezzo di valvole. Ma la loro costruzione urtò pure contro le difficoltà inerenti alla necessità di un alto vuoto. Esse furono superate in seguito ai citati lavori di Langmuir ed alla scoperta della pompa molecolare a diffusione avvenuta nel 1915. In tale epoca si è cominciato ad ottenere, per mezzo di valvole, trasmissioni con rilevanti portate. Le principali ditte di materiali radio diedero da allora vivo impulso alla costruzione di apparecchi a valvole; ed i principali tecnici e scienziati, quali Irving, Langmuir, Fleming, Round, Lee De Forest, Marius Latour, Abraham, Barkhausen, Moeller, White, Vallauri, Gutton, Armstrong ed altri ne fecero rapidamente progredire la tecnica. Si è diminuita la potenza necessaria all’accensione del filamento, si è abbassata la tensione di placca delle valvole riceventi; si è aumentata la durata di quelle emettenti. E furono create valvole speciali, come quelle a catodo riscaldato dalla corrente alternata.
e voluzione delle c omunicazioni: la s toria
corrente passava dalla lastra metallica al filo incandescente, ma non in senso inverso. Nel 1899 Elster e Geitel osservarono anche che un filo di platino, immerso nell’ossigeno e posto nell’aria rarefatta, scaricava più facilmente elettricità positiva che negativa. Wehnelt nel 1903 utilizzò l’effetto scoperto da Edison per raddrizzare le correnti alternate, e riconobbe che la conducibilità dei tubi a gas rarefatti era dovuta all’uscita di “particelle” dal catodo incandescente, e che specialmente le leghe metalliche erano atte a tale emissione. Il raddrizzatore di Wehnelt ebbe poi successive modifiche e perfezionamenti. La “valvola” è stata inventata l’anno seguente. L’inventore della prima valvola, quella a due elettrodi (o diodo) è stato il Fleming, che studiò l’effetto Edison dal 1885 al 1890 e fu condotto alla conclusione che in una lampadina elettrica vi era emissione di particelle principalmente dal ramo negativo del filamento, le quali erano cariche di elettricità negativa. Egli fece questa scoperta molto tempo prima che Joseph John Thomson facesse l’altra, pur essa molto notevole, dell’esistenza in un tubo a vuoto molto spinto di particelle più piccole degli atomi: infatti questi dimostrò l’esistenza degli elettroni soltanto nel 1899. Fleming non pensando agli elettroni, ritenne dapprima che tali particelle fossero atomi di carbonio. Dal 1900 in poi egli, che già aveva preso servizio nella Compagnia Marconi, pensando alla rettificazione delle deboli correnti alternate ad alta frequenza indotte dalle onde nell’antenna cioè al modo di renderle unidirezionali per poter usare un galvanometro per rilevarle, fece molti esperimenti per sfruttare in tal senso l’effetto Edison, e finì col creare la valvola rettificatrice a due elettrodi, che brevettò in Inghilterra nel dicembre 1904, ed altrove al principio del 1905. La valvola Fleming rassomigliava un po’ ad un tubo Wehnelt. Essa fu in seguito molto migliorata da Brandes, della Telefunken, che vi introdusse una cosa di capitale importanza: il campo anodico generato da una tensione ausiliaria. Brandes prese per questo un brevetto alla fine del 1905. Benché Fleming abbia poi cercato di far prendere sviluppo nella radiotelegrafia alle sue valvole, migliorandone notevolmente i collegamenti, esse vennero inizialmente poco adoperate. Si è che soltanto due anni dopo, cioè nel 1907 veniva realizzata in America un’altra valvola, destinata a rendere servizi molto migliori, perché oltre all’anodo ed al catodo aveva il terzo importantissimo elettrodo, la griglia. La valvola a tre elettrodi fu creata dal De Forest, che prese per essa un brevetto nel febbraio, e la chiamò Audion. Dapprima anche la valvola De Forest fu considerata con diffidenza: si preferiva per la rivelazione l’impiego del cristallo, il quale offriva ugual sensibilità di una delle prime valvole a tre elettrodi, e richiedeva un circuito più semplice. Adottatosi però un alto vuoto nel bulbo di vetro e circuiti adatti, le valvole non tardarono ad affermarsi. La priorità dell’impiego della valvola come amplificatore è attribuita a Robert von Lieben, che ha preso per questo un brevetto nel marzo del 1908. Nel novembre dello stesso anno anche De Forest riconosceva il potere amplificatore dei suoi “Audion” con un brevetto relativo ad un dispositivo per amplificare deboli correnti elettriche, ma non dimostrò di ben valutare l’effetto della griglia, mentre invece questo fu ben riconosciuto dal von Lieben, che dimostrò
LA RADIOTELEFONIA
Ritornando un po’ indietro, si è accennato che nel 1897 Bell ed Hayes in America constatarono che da un arco a corrente continua si poteva avere la riproduzione della voce e, crearo-
Altoparlante elettromagnetico a spillo degli Anni Venti. Per cortesia di: N. Rodriguez, Milano. Foto di: F. Bisi.
e voluzione delle c omunicazioni: la s toria
Fonografo Edison con registrazione su cilindro cerato (1877). Per cortesia di: N. Rodriguez, Milano. Foto di: F. Bisi.
potenze equivalenti a potenze di qualche centinaia di kilowatt. L’uso di nuovi sistemi di modulazione, come quello a soppressione della portante e di una delle due bande laterali, consentì di ottenere ulteriori, notevoli guadagni di potenza. LE ONDE CORTE
Ricevitore telefonico Bell a calamita rettilinea (ca. 1881). Per cortesia di: C. Pria, Bollate, Milano. Foto di: F. Bisi.
Ricevitore telefonico Bell a calamita rettilinea (ca. 1881). Per cortesia di Ist. Tecnico Comm. “Pier CrescenziTanari”, Bologna. Foto di: F. Bisi.
no un fotofono; e che nel 1900 Duddell aveva dimostrato il fenomeno dell’arco musicale. Con tali scoperte si può dire abbia avuto inizio la radiotelefonia. Nel 1902 Ruhmer fece numerosi esperimenti adoperando un arco parlante insieme ad un riflettore parabolico. Nel 1913 Koepsel fece delle prove adoperando un arco Duddell. Fessenden fu il primo ad adoperare un microfono nel circuito antenna. Nel 1906, adoperando un relais telefonico di sua invenzione, dimostrò la possibilità di collegare una linea telefonica terrestre con una stazione radiotelefonica. Nel 1907 riuscì a trasmettere bene la parola dalla sua stazione di Brant Rock alla distanza di 200 miglia. Nel 1906 il prof. Q. Majorana, adoperando un suo microfono a liquido, riuscì a radiotelefonare da Monte Mario (Roma) a Trapani, distante 420 km. Nel 1912 riuscì in altre prove alla stessa distanza. Nell’anno seguente il Prof. Vanni, adoperando un arco del dott. Moretti (giovane medico romano dedicatosi per qualche anno allo studio della radio) e modulando la emissione con un microfono a liquido telefonò soddisfacentemente da Centocelle a Tripoli, distante circa 1000 km. Il dott. Moretti nel 1912 tentò pure la radiotelefonia col suo generatore ad arco ed un originale microfono; ma, per mancanza d’aiuto, non poté perfezionare il dispositivo. Ma la radiotelefonia non è entrata nell’uso pratico che con l’avvento della valvola. Questa le ha poi fatto avere un potentissimo sviluppo, rendendola adatta non soltanto per le trasmissioni relativamente vicine, ma anche per quelle lontanissime. “L’American Telephone and Telegraph Company” tentò nel 1915, mediante l’impiego di valvole, la radiotelefonia transatlantica dalla stazione marittima di Arlington (Stati Uniti) alla Torre Eiffel di Parigi, e quantunque a quell’epoca si potesse disporre soltanto di piccole valvole, e di potenza limitata, si riuscì a parlare attraverso l’Atlantico. La guerra impedì di continuare le esperienze per giungere a risultati pratici. Nel 1923 la predetta compagnia ritentò la prova ed ottenne una comunicazione telefonica abbastanza chiara tra New York e South Gate, presso Londra. Questo felice risultato indusse il Ministero delle poste Inglesi a collegarsi con essa e con la Western Eletric per proseguire negli studi. Altri studi furono fatti dalla Società Marconi e da altre compagnie. I risultati furono così felici, che si è potuto impiantare nel 1927 un collegamento telefonico attraverso gli Oceani. Esso è stato molto favorito dall’adozione delle onde corte per le trasmissioni a grande distanza e dall’esser stata resa possibile una trasmissione in duplex. Da allora in poi i collegamenti si moltiplicarono rapidamente e, presto, circondarono il Globo. In Italia, il primo collegamento radiotelefonico intercontinentale diretto si stabiliva nel 1931 tra Roma e Buenos Aires. La radiotelefonia commerciale a grandissima distanza, quando ancora non esistevano i satelliti artificiali, fu fatta essenzialmente su onde corte, le potenze impiegate in trasmissione arrivano all’ordine di qualche decina di kilowatt; l’uso di antenne direttive rese tali
La gara nell’allungamento delle onde per i servizi radiotelegrafici, si può dire abbia avuto termine nel 1922, quando con varie esperienze eseguitesi si constatò che la ricezione di onde di 40.000 metri era impossibile a grande distanza, che quella di onde di 23.000 era debole, e che invece ottima era la ricezione con onde di 18.000 m. Si venne allora alla conclusione che non convenissero lunghezze d’onda superiori ai 20.000 m. Ma a quell’epoca, le onde corte già cominciavano a dimostrare le loro pregevoli qualità. La loro adozione d’altronde s’imponeva per ottenere un maggior rendimento con l’impiego di minor energia, in maniera da avere un minor costo, e poter lottare contro le compagnie dei cavi; per poter impiantare un maggior numero di stazioni, ed anche per ottenere un certo grado di segretezza. I dilettanti (radioamatori) degli Stati Uniti, costretti dalle leggi vigenti poco prima della guerra mondiale a servirsi solo di onde inferiori ai 200 m cominciarono allora a studiare le onde comprese fra 100 e 200 m. Nel 1920 organizzarono una prova transatlantica tra l’America e l’Inghilterra ed adoperando con tali onde una potenza inferiore al kilowatt riuscirono a trasmettere e ricevere dall’uno all’altro continente. Contemporaneamente, Marconi studiava le onde inferiori ai 100 m, che fu poi dimostrato essere le onde corte più pratiche. Mentre nel 1902 diceva scherzando “occorre fare i passi più lunghi per andare più lontano” nel 1916 diceva “va più rapido e più lontano un piccolo cane a passi rapidi e corti, che un elefante a passi lenti e lunghi”. Nelle sue esperienze degli anni 1916 e 1917 eseguite a Genova ed alla Spezia adoperò onde da 3 metri in su, ed in genere di 15 metri. Nelle prove fatte nel 1923 tra una stazione sperimentale situata a Poldhu e lo yacht Elettra provò la lunghezza d’onda di 97 metri; nelle prove del 1924 utilizzò onde di 92, 60, 47 e 32 m. Le prove eseguite con l’onda di 32 m dall’Inghilterra al Canadà, all’America del Sud ed all’Australia dimostrarono che era possibile trasmettere messaggi a tali distanze, adoperando soli 12 kW o meno al trasmettitore, anche quando l’intero circolo massimo fra tali località e l’Inghilterra era esposto alla luce diurna. Prove con onde superiori ai 100 m e precisamente di 112 metri furono eseguite nel giugno 1923 e mesi seguenti da Adriano Ducati: egli ottenne
Grammofono a manovella con sistema a risonanza “Klingsor”. Funziona come una slot-machine, con una monetina. Risale agli Anni Quaranta. Per cortesia di: C. Pria, Bollate, Milano. Foto di: F. Bisi.
40
L’UTILIZZO DEI TUBI ELETTRONICI TRASMISSIONE
Il triodo, grazie agli studi di Meissner, Armstrong, Hartley, Colpitt, venne generalmente introdotto come generatore di oscillazioni persistenti data la sua caratteristica di costituire, opportunamente impiegato, una resistenza differenziale negativa e quindi in grado, a spese di una sorgente di alimentazione, di mantenere sul circuito oscillazioni elettriche, compensando, sia l’energia irradiata, sia quella dissipata. Con l’avvento del triodo, tutti i vecchi sistemi di generazione passarono in secondo piano, almeno per quanto si riferiva alle ricerche sperimentali, malgrado la limitata potenza e la instabilità di frequenza dei primi tubi. Il primo trasmettitore a valvole entrava in esperimento in Italia (presso la Marina) nel 1915. Nello stesso anno, il triodo venne anche impiegato come amplificatore a radio frequenza e si costruirono radiotrasmittenti di una certa potenza disponendo, dopo il generatore, stadi amplificatori in cui venivano montate decine di triodi in parallelo. I vecchi tubi, a scarso rendimento e di potenza relativamente modesta, vennero sostituiti da tubi a potenza elevata e richiedenti uno stadio pilota driver di più modesta potenza. Con questi nuovi tubi che richiedevano particolari sistemi di raffreddamento a circolazione di liquido, si raggiunsero potenze di centinaia di kilowatt. La modulazione salì al 100 % con distorsioni trascurabili. La stabilità di frequenza venne dapprima ottenuta ricorrendo ad uno stadio pilota completamente indipendente, alimentato da una sorgente autonoma, ed in seguito usando particolari dispositivi stabilizzatori, fra i quali si impose subito l’impiego del quarzo piezoelettrico. RICEZIONE
L’adozione delle oscillazioni persistenti nella trasmissione radiotelegrafica, ottenuta dapprima con l’arco Poulsen, poi con gli alternatori ad alta frequenza ed, infine, coi triodi, portò a nuovi orientamenti nella tecnica dei radioricevitori per rendere percettibile nel telefono la manipolazione del segnale trasmesso. Un primo sistema, già proposto dal Fessenden nel 1902, fu quello ad eterodina, che trovò, nella proprietà del triodo, una eccellente realizzazione. Secondo tale sistema il segnale in arrivo veniva fatto interagire, “battere”, con una oscillazione, generata localmente da un oscillatore a triodo, la cui frequenza differiva da 800 ÷ 1000 Hz da quella dell’oscillazione in arrivo, determinando un battimento intelligibile al telefono in tutte le sue intermittenze dovute alla manipola-
zione telegrafica. Da questo sistema derivò, poi, quello detto di autodina, o endodina, in cui due circuiti oscillatori accordati su frequenze poco diverse, così da produrre battimenti udibili, erano inseriti rispettivamente nei circuiti di placca e di griglia di un unico triodo ed erano tra loro accoppiati induttivamente, come nel sistema Round-Marconi (1913) o capacitivamente, come nel sistema Alexanderson (1914). A questi sistemi può concettualmente ricondursi il circuito “ultraudion” ideato da De Forest nel 1914. NUOVI CIRCUITI
Nei primi tempi, i sistemi a eterodina e derivati, che tanto progresso avevano portato nella ricezione telegrafica, furono pure applicati alla ricezione telefonica mediante i cosiddetti circuiti omodina, in cui la frequenza locale veniva sintonizzata su quella da ricevere così da annullare il battimento. Migliori risultati si ebbero coi ricevitori a super-reazione, proposti dall’Armstrong nel 1916, nei quali, pur valendosi della grande amplificazione ottenibile col triodo utilizzato come resistenza negativa, si eliminava la possibilità del circuito di autoscillare. Sul principio della resistenza negativa si idearono molti tubi e circuiti quali il “dinatron”, il “pliodinatron”, il “negatron”, ecc. Mentre altri circuiti si andavano perfezionando, tra i quali quelli a “neutrodina” dell’Hazeltine (1919), e mentre il collegamento di più triodi in cascata rendeva sempre più sensibili i radioricevitori (ma nel contempo nel complicava le manovre di sintonizzazione) andava sviluppandosi il sistema a cambiamento di frequenza, solitamente detto a “supereterodina”. Questo sistema, le cui basi concettuali già si trovano in brevetti del Meissner e del Round (1913), fu più concretamente studiato e descritto alcuni anni dopo dal Levy (1917), dalla Siemens (1918), e dall’Armstrong (1918). Esso consiste nel trasferimento della conversione dell’onda portante in arrivo ad una frequenza intermedia costante. In tal modo si rese più facile la realizzazione di diversi amplificatori accoppiati con filtri di banda, la cui curva di risonanza offre il miglior compromesso tra le esigenze di selettività e di fedeltà di riproduzione in tutta la banda. L’invenzione del tetrodo (allora noto sotto il nome di valvola schermata), dovuto a Hull nel 1926 e del pentodo, nel 1928, permisero di aumentare la sensibilità dei ricevitori. La successiva realizzazione di adatti tubi per la conversione di frequenza, unitamente alla risoluzione del problema del comando unico, hanno portato, in breve, la supereterodina al più alto grado di perfezione, come radioricevitore classico sia nel campo professionale, sia in quello civile. La radiodiffusione determinò la “rivoluzione elettronica” por-
Apparecchio telefonico campale modello 1915, in dotazione all’Esercito Austroungarico nella Prima Guerra Mondiale. Per cortesia di: Museo di Fisica del Dip. di Fisica e del Sistema Museale d’Ateneo dell’Università degli Studi di Bologna. Foto di: C. Porcheddu. 41
Apparecchio telefonico da muro a batteria locale, con chiamata a generatore mediante manovella. Tipo v. Bailleux. Prodotto dalla S.té Ind.lle des Téléphones, Francia, attorno al 1900. Per cortesia di: F. e G. Govoni, Bologna. Foto di: C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
una chiara ricezione in pieno mezzogiorno alla distanza di 350 km con potenza inferiore ai 10 Watt. Da allora le prove ad onde corte si susseguirono tra dilettanti dei due continenti europeo ed americano ed anche con l’Australia; mentre le grandi compagnie radiotelegrafiche, specialmente la “Marconi” installavano grandi stazioni ad onda corta, o sostituirono gli impianti di vecchie stazioni o vi impiantavano nuovi trasmettitori e ricevitori per onde corte, in aggiunta agli altri già esistenti. Nel 1928, lo sfortunato volo del dirigibile “Italia” al Polo Nord, dimostrò il valore delle onde corte, utilizzate dal famoso radiotelegrafista Biagi, che permisero di collegare i naufraghi sulla banchisa con i mezzi di soccorso.
e voluzione delle c omunicazioni: la s toria
Radio TV Radiomarelli. Modello RV300 (1939). Realizzato nella fase iniziale e ancora sperimentale del nuovo mezzo audiovisivo (analisi tramite iconoscopio di Vladimir Kosma Zworykin, e sintesi mediante cinescopio di Von Ardenne). Tecnologia bloccata poco dopo dall’avvio della Seconda Guerra Mondiale. Per cortesia del: Museo della Scienza e della Tecnica di Milano. Foto di: Museo della Scienza e della Tecnica, Milano.
tando, negli anni ‘20, alla comparsa dei primi radioricevitori commerciali. L’alimentazione era affidata a batterie di accumulatori per il filamento e di pile per la tensione anodica e l’antenna era generalmente del tipo a telaio. Vi fu poi l’avvento dell’alimentazione in alternata e si diffuse l’uso dell’altoparlante, il che favorì, senz’altro in modo cospicuo, lo sviluppo della radiodiffusione. Attorno al 1930 la tecnica costruttiva dei radioricevitori fece passi da gigante. Fu introdotto l’uso degli chassis metallici, l’alimentatore, che già da qualche tempo era in uso, venne incorporato al ricevitore, trovò posto sul medesimo telaio così come l’altoparlante. La modulazione di ampiezza che, fino ad un certo momento, rappresentava l’unico mezzo utilizzabile in dipendenza delle radio frequenze utilizzate, con l’avvento di onde molto corte potè essere sostituita col sistema detto a modulazione di frequenza, con i noti vantaggi di rapporto segnale-disturbo elevato, eliminazione delle interferenze delle stazioni adiacenti, stabilità del livello di riproduzione, grande linearità di modulazione. La modulazione di frequenza prevista già nel 1901 da Fessenden, fu attuata in pratica da Armstrong nel 1936. LA RADIODIFFUSIONE
Tipico esempio di cellulare. Come all’epoca di Marconi, un sistema senza fili ha sconfitto una tecnologia diffusa e collaudata. Per cortesia di: C. e G.B. Porcheddu. Foto di. C. Porcheddu.
Il primo trasmettitore radiofonico a diffusione circolare, della potenza di 2 kW fu installato nel 1914 in Belgio; i concerti emessi con una certa regolarità, furono ricevuti da qualche centinaio di dilettanti radioamatori. La prima guerra mondiale interruppe tale attività, finché, nel 1919, una stazione inglese, installata sulla Marconi House di Londra, iniziò l’emissione di programmi a diffusione circolare. L’idea di radiodiffondere notizie in America fu attuata nel 1920 dalla Compagnia Westinghouse che impiantò una stazione a Pittsburgh della potenza di 100 watt ed operante su onda di 360 metri. Essa aveva essenzialmente lo scopo di annunciare i risultati della elezione del presidente Harding, ma poi fu impiegata per trasmettere notizie varie. Nel 1921 la sua potenza fu aumentata a 1,5 kW ma il favore del pubblico le fu acquistato soltanto in grazia di un’attiva campagna di stampa. Nel 1921 si è anche deciso a Londra, nella conferenza annuale della “Wireless Society”, di impiantare una stazione di grande potenza per dare notizie circolari, e fu inaugurata all’Aia una stazione olandese, che emetteva regolari concerti settimanali con potenza di 100 watt, aumentata successivamente a 200. Tale stazione si potè sostenere per un certo tempo grazie alle sovvenzioni degli amatori inglesi, che si addossarono parte delle spese di esercizio. Nel novembre 1921 vennero fatte trasmissioni sperimentali anche in Francia dalla stazione della Torre Eiffel con onda di
2600 m. Verso la fine del 1921 ed il principio del 1922 in America il broadcasting - come fu colà chiamato - già suscitava l’entusiasmo della popolazione, grandi ditte approfittavano della libertà lasciata dal governo per impiantare stazioni ed i fabbricanti e commercianti cominciavano a fare affari d’oro per la vendita di apparecchi radioriceventi. In Inghilterra, invece le limitazioni imposte dalla legge ostacolavano ancora lo sviluppo della radiodiffusione come del resto in tutti gli altri Stati europei, in cui non era ancora superato il periodo restrittivo imposto dalla guerra. Ma nel 1922 le pressioni dei radioamatori riuscirono anche là a far sorgere un servizio di broadcasting. Si costituiva la Società Radiola e poi la British Broadcasting Company che impiantò dapprima sei stazioni trasmittenti portate poi ad 8 alla fine del 1923. In Francia furono di grande impulso alle radiodiffusioni le emissioni della Torre Eiffel. Nel 1923 iniziò regolari trasmissioni anche una stazione parigina dell’Ecole Superieure des Post et Telegraphe, con onda di 450 m e contemporaneamente venne organizzata l’emissione di concerti dalla Società Radiola con una sua stazione parigina, adoperante onda dapprima di 1560 m e poi di 1780 m. Nell’aprile del 1923 cominciarono a funzionare anche la stazione di Lione con onda di 3100 m e quella belga di Bruxelles con onda di 1200 m. In Germania vi fu dapprima poca liberalità nel concedere il permesso per l’impianto di stazioni radiofoniche, tuttavia in seguito all’esempio francese ed inglese fu promosso nel 1923 un certo movimento – specialmente da parte di ditte costruttrici – per far sorgere le radiodiffusioni. Un certo numero di esse costituì la Rundfunk G.m.b.H. di Berlino, cui poi si aggiunsero altre società. In Italia, come in molti altri Stati la radiodiffusione cominciò a funzionare soltanto nel 1924, quando già in America, Inghilterra e Francia avevano assunto proporzioni grandiose. Sorsero per volere del Governo nazionale e per impulso del Ministro delle comunicazioni: si costituì per esse in Roma la Unione Radiofonica Italiana, che impiantò le stazioni di Milano, Roma e Napoli, e si trasformò poi nella E.I.A.R. la quale aggiunse alle stazioni precedenti quelle di Genova, Torino e Bolzano. Queste stazioni furono l’avvio della grande rete di radiodiffusione nazionale sfociata nel Centro Radio Imperiale di Roma del 1938. Venne poi la seconda guerra mondiale e, alla fine di essa, alla EIAR (Ente Italiano Audizioni Radiofoniche) nel 1945 si sostituì la RAI (Radio Audizioni Italiane). LE MICROONDE
L’avvento delle onde ultracorte doveva essere ovviamente subordinato al progresso tecnico degli apparati relativi. Marconi vi contribuì con le famose esperienze attuate a bordo dell’“Elettra”, e a S. Margherita Ligure, dal 1932 ed anni successivi. Questo periodo è dominato da nuove affermazioni della radio nell’ambito delle comunicazioni a breve distanza aventi importanza nei campi marittimo, aeronautico e civile. Si è trattato per lo più di ottenere collegamenti sicuri e segreti con potenze relativamente modeste, fino a sostituire i cavi telefonici e telegrafici. Nell’ultimo caso, specialmente per il traffico radiotelegrafico e telefonico ordinario, occorreva disporre di antenne di elevato rendimento che potessero concentrare ed orientare l’energia irradiata in un fascio ristretto.
42
43
Società di Fisica di Londra, il fatto che alcuni contatti raddrizzatori di galena, potevano, in certe condizioni, generare delle correnti oscillatorie. La scoperta di Eccles destò, a quel tempo, un grande interesse, ma tosto, essa, fu lasciata cadere in dimenticanza, specialmente quando, pochi anni dopo, vennero scoperte le proprietà dell’ “Audion” (primo nome del triodo), la valvola a tre elettrodi. Il transistore può garantire tutte le funzioni di un tubo a vuoto, amplificazione, oscillazione, e funzioni di commutazione impulsive, è poco costoso, più affidabile, dissipa poco e può essere, mediante l’integrazione, ridotto a dimensioni microscopiche. Esso ha, infatti, permesso la realizzazione dei circuiti integrati. ET ULTRA
Dopo l’avvento della radiodiffusione, che presto si espanse ovunque, anche le radiocomunicazioni a lunga distanza consentirono alla telegrafia e alla telefonia con onde lunghe prima, e onde corte poi, di superare le più grandi distanze. Decolla timidamente anche la televisione, e le microonde consentono di realizzare i primi ponti radio e, quindi, il radar che si aggiunge agli altri mezzi di radioassistenza alla navigazione. L’utilizzo di tubi elettronici si diffonde con l’elettronica in svariatissime applicazioni industriali e medicali. Ma la più eclatante realizzazione sarà quella degli elaboratori elettronici, dal 1945 in poi, che determineranno il nascere dell’informatica. Telecomunicazioni ed informatica, agli inizi della seconda metà del secolo XX, creeranno una nuova tecnologia: la telematica. Dalla semplice telegestione da terminali connessi ad un elaboratore locale, si passa al time-sharing, sistema col quale terminali di utenti lontani, tramite modem telefonico, si collegano ad un grande elaboratore centralizzato, a distribuzione di tempo, che possono utilizzare come fosse al proprio servizio. Ma il colpo di grazia viene dai personal computer diffusisi col classico PC Apple provvisto di video. Il PC prosegue la sua corsa, ed entra, con la diffusione di Internet, nella rete mondiale di intercomunicazione globale. La digitalizzazione della comunicazione e della trasmissione telefonica porta alla digitalizzazione di ogni tipo di informazione, basti pensare al CD e alla fotografia elettronica e alle videocamere che soppiantano la classica pellicola. La facile registrazione di ogni tipo di informazione crea banche dati raggiungibili con Internet. Le vie di comunicazioni satellitari hanno reso possibile immediate connessioni di tutti con tutti e con tutto. La telefonia cellulare non è più soltanto telefonia, ma un mezzo di comunicazione globale che, parallelamente ai sistemi GPS (che hanno mandato in pensione i radiotelegrafisti, sì che l’SOS è divenuto un ricordo) consente di muoversi sulla faccia della terra con facilità e sicurezza. Tutto è ormai legato alla radio: diciamo grazie a Marconi.
e voluzione delle c omunicazioni: la s toria
Nelle comunicazioni “bilaterali” furono usate antenne che, salvo le dimensioni, trasferivano nel campo delle onde ultracorte e cortissime i già noti concetti del riflettore, sia che fosse costituito da cortine piane di dipoli, sia che si applicassero, come nelle esperienze effettuate da Marconi nel Golfo di Genova, dei riflettori a superficie continua come nelle esperienze del 1930 e ‘31 sul canale della Manica (Società Standard), ed in quelle dello stesso Marconi fra Torrechiaruccia e la stazione Vaticana di Castel Gandolfo. Da questa tecnologia nascevano i ponti radio (detti anche “cavi hertziani”) di cui il prof. Vecchiacchi per l’Italia, fu tra i principali studiosi (1939), e il radar, il cui nome è composto con le iniziali dei vocaboli inglesi RA-dio, D-etecting; A-nd, R-anging, che significa radio-localizzazione. L’antenna del radar emette segnali, impulsi brevissimi, a eguali intervalli di tempo, successivamente, secondo tutte le direzioni, nel corso di un rapido giro. Gli echi riflessi dagli ostacoli eventualmente incontrati in questo giro vengono raccolti e trasformati in segnali visibili sullo schermo fluorescente di un tubo a raggi catodici, sul quale si disegna così il profilo circostante al punto di stazione. Il primo radar venne realizzato da Watson Watt intorno al 1936. Il difficile problema venne anche affrontato nei laboratori della Marina Italiana per merito del Prof. Tiberio, e alcune case costruttrici realizzarono i primi modelli intorno al 1940. È nota l’importanza avuta dal radar nel corso della seconda guerra mondiale. Sviluppi impensati deriveranno dalla realizzazione del transistor, che permetterà, fra l’altro, l’evoluzione dell’elettronica da “analogica” a “digitale”. La radio ha trovato infatti nel transistore l’elemento componente attivo che, detronizzando i tubi elettronici, ha permesso di giungere ad un grado di miniaturizzazione e di autonomia imprevedibili. Ideato nel 1947, il transistore è il risultato di 10 anni di ricerche orientate specificamente verso la messa a punto di un amplificatore, per linee telefoniche, allo stato solido allo scopo di cercare di eliminare l’uso dei tubi elettronici. Il 1° luglio del 1948 il “New York Times” diede breve notizia che i “Bell Telephone Laboratories” avevano comunicato l’invenzione di un nuovo componente attivo allo stato solido che avrebbe potuto sostituire i tubi elettronici. Il pubblico non valutò immediatamente l’importanza del ritrovato, mentre il mondo scientifico si rese conto subito dell’enorme valore dell’invenzione che avrebbe determinato una svolta decisiva nella radio e nella elettronica, in generale. Questo nuovo componente attivo allo stato solido era il transistor parola risultante dalla contrazione di Transfer Resistor = resistenza di trasferimento. Erano autori della scoperta W.H. Brattain, J.S. Bardeen e W.B. Shockley che, nel dicembre 1947, erano riusciti a realizzare il primo transistore funzionante come amplificatore costituito da un cristallo di germanio e da due elettrodi a punta di contatto. Questo nuovo componente attivo, che inizialmente era stato definito “triodo a cristallo”, aveva avuto una gestazione durata circa un decennio, ad opera di William Shockley e Alan Holden, sempre dei Bell Laboratories. L’utilizzazione di semiconduttori a scopo di amplificatore ed anche per la generazione di correnti alternate aveva avuto dei precedenti. Fu nell’anno 1910 che W.H. Eccles segnalò per primo, alla
La miniaturizzazione del PC. Uno dei più avanzati esempi di PC palmare. Tra l’altro, consente la digitalizzazione diretta di uno scritto tradizionale sullo schermo senza l’uso di tastiera. Assieme al cellulare rappresenta uno dei più avanzati modi del comunicare. La prossima frontiera? La Telepatia?
B. Valotti
guglielmo marconi (1874-1937)
In alto: Guglielmo Marconi nel 1896 a Londra.
Ci sono stati tre grandiosi momenti nella mia vita di inventore. Il primo, quando i segnali radio da me inviati fecero suonare un campanello dall’altro lato della stanza in cui stavo svolgendo i miei esperimenti; il secondo, quando i segnali trasmessi dalla mia stazione di Poldhu, in Cornovaglia, furono captati dal ricevitore che ascoltavo a S. Giovanni di Terranova, dall’altra parte dell’Oceano Atlantico a una distanza di circa 3000 km; il terzo è ora, ogni qualvolta posso immaginare le possibilità future e sentire che l’attività e gli sforzi di tutta la mia vita hanno fornito basi solide su cui si potrà continuare a costruire. (Guglielmo Marconi, dicembre 1935) La pacifica rivoluzione delle comunicazioni radio, o senza fili come si diceva una volta, ha cambiato radicalmente le società del mondo contemporaneo. Guglielmo Marconi fu l’iniziatore di quella rivoluzione: il suo sistema di telegrafia senza fili realizzato nel 1895 segnò l’inizio delle radiocomunicazioni. Grazie alla sua straordinaria capacità di combinare una singolare abilità tecnologica ed un concreto spirito imprenditoriale, Marconi dedicò tutta la sua vita allo sviluppo della sua invenzione: fu così che, passo dopo passo, Marconi mandò messaggi radio sempre più lontano.
Dopo gli incoraggianti esperimenti realizzati nel 1895 a Villa Griffone (la residenza della Famiglia Marconi situata nella campagna bolognese) il giovane inventore andò in Inghilterra (febbraio 1896), nazione nella quale poté contare sull’appoggio dei parenti irlandesi (in particolare del cugino Henry Jameson Davis) per sviluppare la sua invenzione. Tra i primi contatti, di grande importanza fu quello con William Preece, allora direttore tecnico del General Post Office. In quell’anno, Marconi brevettò il suo sistema di telegrafia senza fili. Nel luglio del 1897 egli formò una società per sviluppare e commercializzare il suo nuovo metodo di comunicazioni senza fili. Il nome iniziale della società, The Wireless Telegraph & Signal Company, fu modificato nel 1900 e divenne Marconi’s Wireless Telegraph Company. La Compagnia Marconi si mantenne a lungo all’avanguardia nella sperimentazione e nella costruzione di impianti per radiocomunicazioni. Sono convinto che il successo della radiotelegrafia transatlantica provò che la telegrafia attraverso lo spazio potesse raggiungere qualsiasi punto del piccolo pianeta in cui viviamo e che ciò avrebbe potuto diventare un’impresa tecnologica abbastanza semplice, sicuramente alla portata delle nostre possibilità pratiche ed economiche. (Guglielmo Marconi)
Villa Griffone e il Mausoleo Guglielmo Marconi.
Ricostruzione eseguita da M. Bigazzi del primo apparato in telegrafia senza fili di Marconi.
Decisi di trasferirmi in Inghilterra con l’intento di lanciare l’invenzione su vasta scala. Scelsi l’Inghilterra per diverse ragioni, principalmente perché avevo numerosi parenti ed amici lì e la Gran Bretagna era a quell’epoca all’apice del proprio sviluppo finanziario ed industriale. (Guglielmo Marconi)
Guglielmo Marconi al tavolo della stazione ricevente di Signal Hill, a S. Giovanni di Terranova, il 12 dicembre 1901.
Secondo la fisica di fine Ottocento le onde elettromagnetiche utilizzate da Marconi potevano propagarsi soltanto in linea retta. Data la curvatura della terra, un’enorme montagna d’acqua avrebbe impedito qualsiasi trasmissione tra le due sponde dell’Atlantico. Marconi - che dava più peso ai suoi esperimenti che alle convinzioni teoriche diffuse - tentò ugualmente. In una giornata storica del dicembre 1901, egli riuscì a ricevere a San Giovanni di Terranova i segnali trasmessi da Poldhu (Cornovaglia), sull’altra sponda dell’Atlantico: per
44
Il panfilo “Elettra”, che fu il laboratorio galleggiante di Guglielmo Marconi negli anni ‘20 e ‘30.
Noi ora abbiamo raggiunto nella scienza ed arte delle radiocomunicazioni uno stadio in cui le espressioni dei nostri pensieri possono essere trasmesse e ricevute pressoché istantaneamente e simultaneamente, praticamente in ogni punto del globo […] La radiodiffusione, tuttavia, con tutta l’importanza che ha raggiunto ed i vasti campi inesplorati che restano ancora aperti, non è - secondo me - la parte più significativa delle comunicazioni moderne, in quanto è una comunicazione a senso unico. Un’importanza assai maggiore è legata, a mio parere, alla possibilità fornita dalla radio di scambiare comunicazioni ovunque i corrispondenti possano essere situati, sia nel mezzo dell’oceano, sia sul pack ghiacciato del polo, nelle piane del deserto oppure sopra le nuvole in aeroplano! […] La peculiarità dell’uomo, la caratteristica che segna la sua differenza da e la sua superiorità sugli altri esseri viventi, a parte
45
la divinità della sua origine e del suo fine ultimo, consiste, penso, nella capacità di scambiare con i suoi simili pensieri, sensazioni, desideri, ideali, preoccupazioni ed anche lamentele! Ogni cosa progettata per facilitare e sviluppare questa capacità veramente superiore deve essere - oso affermare - salutata come il mezzo per il progresso dell’umanità e la via per potenziare la tipica peculiarità dell’uomo. Con tutti i nostri attriti, gelosie ed antagonismi (inevitabile cronica afflizione dell’umanità) e malgrado i sanguinosi sconvolgimenti che di tanto in tanto lo mettono in serio pericolo, l’ideale della pace e della fratellanza rimane sempre vivo in noi […] Nella radio abbiamo uno strumento che ci permette di avvicinare i popoli del mondo, di far sentire le loro voci, le loro necessità e le loro aspirazioni. Il significato di questi moderni strumenti di comunicazione è così totalmente rivelato: un potente mezzo per il miglioramento delle nostre mutue relazioni di cui oggi possiamo usufruire; dobbiamo solo seguirne il corso in uno spirito di tolleranza e comprensione reciproca, solleciti nell’utilizzare le conquiste della scienza e dell’ingegno umano per il bene comune. Tratto da: Guglielmo Marconi, Il significato della comunicazione moderna, radiomessaggio al Chicago Tribune Forum dell’11 marzo 1937.
e voluzione delle c omunicazioni: la s toria
la prima volta, le onde elettromagnetiche avevano attraversato un oceano. Nasceva così l’era delle radiocomunicazioni a grande distanza. L’impresa fece grande scalpore e sebbene restasse ancora moltissimo da scoprire in merito alle leggi di propagazione delle onde radio, essa fu il punto di partenza del vasto sviluppo delle radiocomunicazioni e dei servizi radiomarittimi per la sicurezza in mare verificatosi nei successivi quaranta anni. In tale sviluppo Marconi continuò a svolgere un ruolo importante. Nel 1919 Marconi acquistò il panfilo Elettra che diventò una sua frequente residenza e il suo laboratorio viaggiante. I successi di Marconi nelle comunicazioni a grande distanza erano basati all’inizio del secolo sull’uso di onde sempre più lunghe. Ma a partire dalla prima guerra mondiale egli ricominciò a sperimentare con le onde corte, scoprendone i vantaggi. In particolare, esse permisero l’uso di riflettori attorno all’antenna rendendo meno intercettabile il segnale trasmesso e garantendo una maggiore potenza del segnale nella direzione voluta. In seguito alle importanti esperienze effettuate nel 1923 tra Poldhu e la nave Elettra, si affermò il sistema di collegamenti ad onde corte a mezzo di stazioni a fascio. L’Inghilterra e la Compagnia Marconi firmarono un famoso contratto per la costruzione di una rete di stazioni ad onde corte, del nuovo tipo a fascio dirigibile, collegante i punti principali dell’impero britannico. Nel 1926 venne inaugurato il primo tronco della rete Inghilterra-Canada e l’anno successivo seguirono altre stazioni. Nel 1931 Marconi avviò le sue indagini sulle microonde. L’anno successivo egli fu incaricato dal Papa Pio XI di sistemare un collegamento telefonico sperimentale a microonde fra Città del Vaticano e il Palazzo Apostolico di Castel Gandolfo. Lo sviluppo delle radiocomunicazioni a microonde è alla base della maggior parte dei moderni sistemi radio.
Il Museo Marconi, dedicato alle origini e agli sviluppi delle radiocomunicazioni, è situato all’interno di Villa Griffone nella campagna bolognese. Fu nel solaio di questa Villa che il giovane Guglielmo Marconi realizzò i suoi primi esperimenti di telegrafia senza fili. Il nuovo allestimento del Museo è caratterizzato dall’integrazione di apparati storici, ipertesti, filmati e dispositivi interattivi: attraverso questi diversi strumenti, il visitatore ha la possibilità di ripercorrere le vicende che hanno caratterizzato la formazione e la vita dell’inventore, di comprendere il funzionamento degli apparati più interessanti e di conoscere la dinamica di alcuni fondamentali sviluppi nel settore delle radiocomunicazioni. Si ringrazia per la collaborazione Maurizio Bigazzi, Gabriele Falciasecca, Raffaello Repossi e Tobia Repossi. Il laboratorio del giovane Marconi: la celebre “Stanza dei bachi” di Villa Griffone. Ricostruzione di M. Bigazzi. Per cortesia di: Fondazione Marconi. Tutte le foto di questo articolo sono dovute alla cortesia della Fondazione Marconi.
G.B. Porcheddu
le vie della comunicazione elettrica.
e voluzione delle c omunicazioni: la s toria
dal telefono alla radio
Apparecchio telefonico da tavolo modello AC 110. Svezia; 1892; LM Ericsson. Per cortesia di: C. Pria, Bollate, Milano. Foto di: C. Porcheddu.
In questo contributo ho voluto raccogliere una serie di considerazioni che hanno legato tra loro alcune delle sezioni espositive storiche della mostra Communication. Alcuni dei nostri quotidiani mezzi di comunicazione, il telefono, la radio, il telefonino, grazie alle possibilità offerte dall’elettronica digitale e dalla comunicazione telematica, hanno trovato numerosi punti di incontro tanto da diventare sempre più frequentemente un unico strumento multimediale. Trova quindi ragione anche l’accostamento con la crittografia, una scienza antica quanto l’uomo che, in questa nostra società di comunicazione elettronica, si è trasformata da disciplina misteriosa a diffuso strumento di sicurezza della privacy individuale. LA TELEFONIA FISSA
Come per molte grandi invenzioni anche per il telefono esiste una lunga, ed irrisolta, polemica riguardante la paternità della scoperta che coinvolge principalmente lo scozzese, naturalizzato americano, Alexander Graham Bell (1847-1922) e l’italiano Antonio Meucci (1808-1896), con i quali, ad onor del vero, dovrebbero essere ricordati molti altri scienziati, tecnici ed artigiani che, nel medesimo periodo, ma con minore fortuna postuma, diedero importanti contributi al settore. In questo scritto ho scelto, peraltro, di non analizzare gli aspetti tecnici dello sviluppo del telefono, ma di dare un breve sguardo ad alcuni aspetti legati alla sua diffusione come mezzo di comunicazione. A.G. Bell presentò il suo telefono, nel giugno del 1876, alla Centennial Exposition di Philadelphia dove, malgrado l’interesse dimostrato dall’Imperatore del Brasile, ricevette una scarsa attenzione da parte del pubblico. Le stesse grandi imprese telegrafiche, che ormai avevano creato un servizio che copriva tutta l'America, non credendo in questo nuovo mezzo tecnologico, rifiutarono di acquistare il brevetto loro offerto. Il telefono venne considerato come un oggetto curioso, un giocattolo, e solamente dopo alcuni anni, circa nel 1880, negli Stati Uniti, la Western Electric incominciò a investire massicciamente sullo sviluppo di questo nuovo mezzo di comunicazione, pensando che potesse diventare uno strumento molto utile, soprattutto per gli uffici pubblici e per le imprese. Negli stessi anni il telefono si diffuse anche in Europa dove presto entrò anche nelle famiglie appartenenti alle classi più elevate determinando lo sviluppo di una nuova categoria di regole sociali; ad esempio l'uso dell'apparecchio prevedeva il divieto, alle signore, di rispondere direttamente perché questo avrebbe potuto metterle in contatto con sconosciuti, quindi, nelle case dotate di telefono, che all'epoca erano ancora poche centinaia, soltanto il maggiordomo era tenuto a rispondere ed a filtrare le telefonate. All'inizio della sua diffusione, quando si telefonava e si chiedeva al centralinista di poter parlare con un
Centrale telefonica, modello SB 20+5. Gran Bretagna, 1930, Diag. Per cortesia di: F. Cremona, Collez. “Cremona”, Colleferro, Roma. Foto di: C. Porcheddu.
abbonato era sufficiente fornire il nome dell'interlocutore, perché gli utenti del servizio erano un numero talmente scarso da potersi conoscere singolarmente; nel momento dello sviluppo del servizio ogni abbonato dovette essere identificato con un numero, le società telefoniche dovettero sviluppare un intervento di pubbliche relazioni estremamente delicato, perché gli utenti si rifiutavano di essere associati ad un numero. Fino alla fine del XIX secolo il telefono rimase comunque poco più che una curiosità; molto poco diffuso sia negli uffici che nelle famiglie. È solo dopo il 1900 che anche i governi si posero il problema di rendere pubblico questo servizio ritenendolo importante per lo sviluppo economico nazionale. Particolarmente in Francia e in Italia, si svolse un interessante dibattito parlamentare, imperniato sulle ragioni e le modalità che permettessero allo Stato di acquistare dalle società telefoniche private le infrastrutture per poter trasformare il telefono in un servizio pubblico. In Italia, come in quasi tutte le nazioni, solo a partire dagli anni Sessanta del XX secolo il telefono diventerà uno strumento accessibile anche ai ceti sociali meno privilegiati per poi diffondersi in maniera quasi capillare nel decennio successivo, trasformandosi in un insostituibile strumento di comunicazione che solo in questi anni, con l’avvento del telefono cellulare, vede insidiare la sua posizione di prevalenza. CRONOLOGIA DELLO SVILUPPO DELLA TELEFONIA PUBBLICA IN ITALIA
1878 Prima sperimentazione ufficiale di telefonia interurbana in Italia con un collegamento tra Roma (Quirinale) e Tivoli. 1881 Viene emanato il D.M. che approva il "capitolato per le concessioni del servizio telefonico". Vengono accordate 37 concessioni. Gli abbonati al telefono sono circa 900. 1884 Gli abbonati al telefono sono 8.038. Il servizio interurbano è ancora praticamente inesistente, se si esclude il
tratto a brevissima distanza Genova-Sampierdarena. Viene istituito, tra Monza e Milano, il primo servizio telefonico pubblico. 1907 L'utenza italiana del telefono cresce arrivando ad un totale di 42.734 abbonati. 1913 A Roma viene installata la prima centrale telefonica automatica (che permette cioè di selezionare direttamente il numero desiderato senza passare per l'operatore) con una capacità di 200 numeri. 1924 Viene fissata la ripartizione del servizio telefonico in 5 zone territoriali e vengono approvate le Concessioni alle società Stipel, Telve, Timo, Teti e Stet. 1925 Istituita l'Azienda di Stato per i Servizi Telefonici (ASST) con il compito di gestire il servizio telefonico interurbano a grande distanza, quello internazionale e di esercitare una funzione di controllo sulle 5 Concessionarie. Le Concessionarie iniziano la loro attività con la seguente ripartizione territoriale: 1ª zona: (Piemonte e Lombardia) alla Società Telefonica Piemontese che diventerà Stipel (Società Telefonica Interregionale Piemontese e Lombarda); 2ª zona: (Tre Venezie,Friuli,Zara) alla Telve (Società Telefonica delle tre Venezie); 3ª zona (Emilia Romagna,Umbria,Abruzzi e Molise) alla Timo (Società Telefonica Italia Media Orientale); 4ª zona: (Liguria,Toscana,Lazio e Sardegna) alla Teti (società Telefonica Tirrena); 5ª zona: (Italia Meridionale e Sicilia) alla Set (Società Esercizi Telefonici). 1927 Vengono installati alla Fiera Campionaria di Milano i primi 8 telefoni pubblici a gettone. 1929 La Teti realizza per prima in Italia il servizio automatico celere con il quale l'abbonato può ottenere immediatamente, ma ancora tramite operatore, una conversazione interurbana. Viene effettuata dalla Stipel la prima comunicazione intercontinentale Italia-Usa (via Londra). 1931/32 Viene introdotta in Italia dalla Stipel la teleselezione con l'attivazione delle prime direttrici a breve distanza. 1933 La crisi economica mondiale del 1929/30 si ripercuote anche sulla telefonia italiana, tanto che il Gruppo Sip (Società Idroelettrica Piemontese), al quale fanno capo le tre Concessionarie Stipel,Telve e Timo, si trova di fronte a problemi finanziari. Questi problemi vengono risolti dall'Iri con la creazione della Stet che rileva dalla Sip le tre società telefoniche. 1940 Prima che gli eventi bellici della seconda guerra mondiale distruggano gran parte degli impianti, gli abbonati al telefono in Italia sono 512.661.
47
1940/44 La rete telefonica italiana, in precedenza una delle più moderne del mondo, è quasi completamente distrutta. Le conseguenze della guerra si fanno sentire anche sulla consistenza abbonati che scende a 459.000. 1946/50 L'opera di ricostruzione viene portata avanti a tempo di record. Già nel 1949 la ricostruzione è completa per quanto riguarda sia le 5 Concessionarie che l'Asst, la quale per l'Anno Santo del 1950 può mettere a disposizione del pubblico la rete nazionale totalmente ricostruita ed ampliata del 30% rispetto al periodo prebellico. 1957 Una apposita commissione di studio, istituita su proposta del Consiglio Superiore Tecnico delle Telecomunicazioni, redige il Piano Regolatore Telefonico Nazionale (DM 11.12.57). Il Piano stabilisce le norme fondamentali per l'espletamento dei servizi telefonici ad uso pubblico gestiti sia dall'Asst che dalle Concessionarie. Nello stesso anno vengono stipulate nuove convenzioni che prescrivono, tra l'altro, che il capitale azionario delle Concessionarie sia in maggioranza di proprietà dell'Iri. Stipel, Telve e Timo, già controllate da Stet, il cui azionista di maggioranza è l'Iri, soddisfano queste condizioni. Teti e Set, invece, ottengono il rinnovo della concessione solo dopo l'acquisto dei loro pacchetti di maggioranza da parte dell'Iri, che li trasferisce alla Stet. 1964 Viene firmato l'atto di fusione tra Sip, Vizzola, Pce, Pinerolese di Elettricità, Stipel, Telve, Timo, Teti e Set con incorporazione delle società nella Sip che assume la denominazione di: Sip-Società Italiana per l'Esercizio Telefonico p.a. È l'atto di nascita della Sip che, subentrando alle Concessionarie, gestisce il traffico telefonico sull'intero territorio nazionale. Gli abbonati sono poco più di 4 milioni con una densità di 8 abbonati ogni 100 abitanti. 1968 Viene stipulata la Convenzione aggiuntiva tra Ministero delle Poste e Telecomunicazioni e Sip, che assegna all'Asst il traffico interurbano svolto tra 37 distretti telefonici ed a Sip il restante traffico interurbano, oltre ovviamente, al traffico urbano che gestisce in esclusiva. Il servizio internazionale è invece ripartito tra Asst, con una competenza per il traffico svolto con tutti i Paesi europei e quelli extraeuropei del bacino del Mediterraneo, ed Italcable (costituita nel 1921) 1969 Il nuovo assetto consente a Sip di completare l'automatizzazione delle centrali urbane. 1970 Il 31 ottobre viene completata la teleselezione su tutto il territorio nazionale. L'Italia è il sesto paese nel mondo ad avere il servizio telefonico completamente automatico insieme con Repubblica Federale Tedesca, Repubblica Democratica Tedesca, Olanda, Svizzera e Hong Kong.
e voluzione delle c omunicazioni: la s toria
Apparecchio telefonico campale, modello 1915. Germania, circa 1915, Siemens & Halske. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
Apparecchio telefonico campale, modello 33. Germania, 1933, varie Aziende. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
Apparecchio telefonico automatico da tavolo. Italia, circa 1936, FACE. Per cortesia di: C. e G.B. Porcheddu, Bologna. Foto di: C. Porcheddu.
1973 Attivazione, a carattere sperimentale, nell'area urbana di Roma del Servizio Radiomobile di Conversazione. 1976 La Sip collega il 10 milionesimo abbonato ed il 15 milionesimo apparecchio telefonico. 1985 Il 30 aprile la Sip trasforma la sua denominazione in: Società Italiana per l'Esercizio delle Telecomunicazioni S.p.a. 1986/7 Attivazione di Itapac e della rete Collegamenti Diretti Numerici e offerta dei nuovi servizi di Numero Verde Teleaudioconferenza e Gruppo Chiuso di Utenti. 1988 Sip avvia un massiccio piano di investimenti, denominato "Piano Europa", destinato a portare le telecomunicazioni italiane a livello dei maggiori Paesi europei. Il Piano prevede investimenti per 44.000 miliardi in 4 anni. 1990 A marzo diventa operativo in Italia il Servizio Radiomobile Tacs a 900 Mhz. Gli abbonati ai servizi Sip di Telefonia Mobile passano dai 66.070 del 1989 ai 265.962 di fine 1990. Parte l'offerta dei Servizi Telefonici Supplementari (avviso di chiamata, trasferimento di chiamata, conversazione a tre e telelettura dei contatori) resi possibili dalle nuove centrali numeriche. 1991 Viene attivata da parte di Sip la rete Isdn (Integrated Services Digital Network). Continua il processo di ammodernamento della rete telefonica, con la sostituzione delle centrali elettromeccaniche con le nuove a tecnologia numerica. 1992 Ad ottobre alla rete radiomobile analogica Tacs a 900 Mhz si affianca il sistema digitale paneuropeo Gsm (Global System for Mobile communications). 1993 Sip inaugura la nuova rete commerciale per l'utenza Residenziale e l'utenza Affari minori. Inizia la commercializzazione dei nuovi servizi di Rete Intelligente. Gli abbonati al telefono sono oltre 24 milioni con una densità di 94,8 abbonati residenziali ogni 100 famiglie. Gli abbonati al servizio Radiomobile sono 1.207.000 e la Sip è il primo gestore di servizi di Telefonia Mobile in Europa per numero di abbonati. Gli abbonati collegati a centrali numeriche sono il 56,6% del totale. 1994 Il 18 agosto diventa operativa la fusione per incorporazione in Sip di Iritel, Italcable, Sirm e Telespazio. Nasce Telecom Italia. 1995 Nasce Telecom Italia Mobile. Riportiamo qui di seguito una sintetica scheda descrittiva degli apparati esposti in questa sezione della Mostra.
wer” in USA, “ragno” in Italia. Modello di grande successo, rimase in produzione per circa 40 anni, e venne raffigurato, dal 1894, anche nel marchio di fabbrica dell’Azienda. Questo apparecchio telefonico è il capostipite della seconda generazione di apparecchi telefonici prodotti dalla Ericsson; uno dei primi apparati, in tutto il mondo, ad essere caratterizzato dal fatto di avere la parte ricevente (il telefono) e la parte trasmittente (il microfono) unite tra loro a formare la “cornetta”, un dispositivo che rese più comodo l’impiego dell’apparecchio e che l’Azienda aveva già impiegato, da alcuni anni, esclusivamente nei centralini telefonici. L’esemplare esposto è stato cortesemente messo a disposizione da: Carlo Pria, Bollate, Milano. APPARECCHIO TELEFONICO DA MURO A BATTERIA LOCALE
Francia; circa 1900; S.te Ind.lle des TÉLÉPHONES, Systeme G. Bailleux B.te S.G.D.G. Classico esempio di apparecchio telefonico da muro che per il funzionamento impiegava una coppia di pile a liquido contenute nella cassetta inferiore. Questo tipo di apparecchi, evoluzione dei modelli pionieristici, rimase in servizio per molti decenni, specialmente nelle zone più disagiate dove lunghe linee telefoniche oppure il cattivo isolamento dei conduttori lo fecero preferire al sistema a batteria centrale. Per le telefonate l’utente doveva chiamare l’operatore della centrale, impiegando il generatore a manovella, ed essere quindi messo in comunicazione con l’abbonato desiderato; al termine della conversazione si doveva chiamare nuovamente la centrale affinché la connessione fosse chiusa. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna. APPARECCHIO TELEFONICO CAMPALE
Austria; circa 1915; varie Aziende Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello standard impiegato dalle truppe dell’impero austro-ungarico durante la prima guerra mondiale. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Museo del Dipartimento di Fisica, Sistema Museale d’Ateneo, Università degli Studi, Bologna. APPARECCHIO TELEFONICO CAMPALE, MOD. 1915
Germania; circa 1915; Siemens & Halske Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello standard impiegato dalle truppe germaniche durante la prima guerra mondiale. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna. APPARECCHIO TELEFONICO CAMPALE, MOD. SITI-ANZALONE
APPARECCHIO TELEFONICO DA TAVOLO MOD. AC 110
Svezia; 1892; LM Ericsson Uno dei più famosi telefoni mai prodotti; l’aspetto particolare lo fece ben presto identificare attraverso una serie di nomignoli : “tax” (bassotto) in Svezia, “macchina per cucire” in Danimarca, “scheleton” (scheletro) in Australia, “Eiffel To-
Italia; circa 1915; SITI Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello, tra i più diffusi, impiegato dalle truppe italiane durante la prima guerra mondiale. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Carlo Pria, Bollate, Milano.
48
Apparecchio telefonico modello ERICOFON. Svezia, 1954, LM Ericsson. Per cortesia di: C. e G.B. Porcheddu, Bologna. Foto di: C. Porcheddu.
dalla FACE (oggi Alcatel). Uno dei modelli più diffusi nelle abitazioni italiane che venne sostituito, progressivamente, solo dopo il 1959 con l’introduzione del modello “unificato”. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Carlo Pria, Bollate, Milano.
CENTRALE TELEFONICA, MOD. SB 20+5
Gran Bretagna; 1930; Diag Le centrali telefoniche sono apparecchiature che collegano tra loro i singoli apparecchi telefonici; il modello esposto, di tipo manuale, permette la connessione di 20 linee a batteria locale e 5 linee a batteria centrale, consentendo fino ad 8 conversazioni contemporaneamente. L’apparecchiatura, contenuta in un armadio di legno, è costituita dal pannello degli avvisatori di chiamata e fine conversazione, dal pannello dei connettori per le linee telefoniche, dal tavolo operatore (con i connettori, le spine di chiamata e di risposta, le leve di commutazione) dagli organi di chiamata e di conversazione. Alimentazione : 2 pile da 1,5 V per la conversazione, 1 batteria di accumulatori da 24 V per la chiamata centralizzata. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, Collezione “Cremona”, Colleferro, Roma. APPARECCHIO TELEFONICO CAMPALE, MOD. 33
Germania; 1933; varie Aziende Apparecchio telefonico a batteria locale specificamente progettato per un uso militare. Modello standard, dal caratteristico contenitore in bakelite, impiegato dalle truppe germaniche durante la seconda guerra mondiale. Di particolare significato, la razionalizzazione della produzione attraverso la progettazione e la fornitura di sottounità intercambiabili tra loro, anche se provenienti da Aziende diverse, e la diminuzione dei pesi; il contenitore esterno in bakelite, dalla forma caratteristica, venne utilizzato, sempre nell’ambito della razionalizzazione della produzione e del contenimento dei costi, anche per accogliere altre strumentazioni di comunicazione e di misura. La costruzione dell’apparecchio in subunità determina inoltre una maggiore resistenza dell’apparato alle sollecitazioni dell’uso e una significativa diminuzione dei tempi di riparazione sul campo. Attraverso una serie di accessori poteva essere direttamente connesso a centralini telefonici, ad apparati radio funzionando come controllo a distanza, ad altri telefoni dello stesso modello consentendo anche il reciproco collegamento di linee telefoniche altrimenti indipendenti. Per l’impiego in ambienti rumorosi o per lasciare libere le mani dell’operatore poteva essere corredato anche da cuffia e laringofono. Caratteristiche tecniche: dimensioni: 28X10X21 cm circa; peso: 5,5 Kg circa. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna. APPARECCHIO TELEFONICO AUTOMATICO DA TAVOLO
Italia; circa 1936; FACE Apparecchio telefonico da tavolo prodotto, circa nel 1936,
49
Svezia; 1954; LM Ericsson Progettato da Gösta Thames ed immesso sul mercato nel 1954 fu un modello di immediato successo che, per la sua caratteristica forma, venne soprannominato “ Cobra”. Compatto e leggero, pesa quanto una cornetta di un telefono dell’epoca, venne esibito al Museum of Modern Art di New York come uno dei migliori esempi di design del XX secolo, primo apparecchio telefonico ad essere inserito nelle esposizioni permanenti. La società Ericsson fin dalla seconda metà degli anni ’30 stava studiando un apparecchio telefonico in un unico pezzo; nel 1941 propose un modello verticale (progetto di Hugo Blomberg e Ralph Lysell) e nel 1944 Hans Kraepelin sviluppò un modello orizzontale, l’Unifon. Tuttavia questi apparecchi telefonici, anche se funzionali ed affidabili, non incontrarono il gusto del pubblico tanto da non entrare nella produzione di serie. Fu solo con l’ Ericofon che si raggiunse il successo commerciale tanto da produrlo in oltre 2,5 milioni di esemplari, in diverse versioni tutte caratterizzate da un ampia varietà di colori. I mercati di maggiore esportazione furono, Stati Uniti, Italia, Australia, Brasile e Svizzera. Inizialmente venne commercializzato solo per una clientela istituzionale, tipicamente gli ospedali che, nelle intenzioni della Società, lo avrebbero messo a disposizione dei pazienti allettati, ma divenne ben presto un oggetto ricercato ed ambito tanto da essere posto in vendita ai privati dal 1956. Rimasto in produzione per oltre un ventennio, l’Ericofon subì frequenti adeguamenti dei materiali alle nuove tecnologie e leggeri restyling che però non hanno alterato il progetto originale. Inizialmente la struttura esterna era costituita da due valve incollate tra loro, ma dal 1958, utilizzando la tecnica dell’iniezione, venne prodotto in un’unica conchiglia, acquistando anche una maggiore curvatura del collo; circa nel 1967, venne prodotta la prima versione con il tastierino combinatore e nel 1976 una versione speciale per celebrare il centenario della Ditta. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Carlo Pria, Bollate, Milano. CENTRALE TELEFONICA, MODULO DIDATTICO
Italia; circa 1935; FACE Si tratta di un apparato, funzionante, che raccoglie una sezione degli elementi costitutivi di una centrale telefonica automatica meccanica; connesso ad un apparecchio telefonico consente di seguire i vari eventi che seguono alla composizione di un numero telefonico. Il complesso, racchiuso all’interno di una teca espositiva, venne espressamente prodotto con finalità didattiche. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Museo del Dipartimento di Fisica, Sistema Museale d’Ateneo, Università degli Studi, Bologna (p. 148).
e voluzione delle c omunicazioni: la s toria
APPARECCHIO TELEFONICO “ERICOFON”
LA TELEFONIA MOBILE
Apparato radio ricetrasmittente BC-611-F. USA, 1945, Electrical Research Laboratoires Inc. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
Apparato radio ricetrasmittente AN/PRC-6/6. Germania, primi anni ’60, varie Aziende. Per cortesia di: L. Liberatore, Castel Guelfo, Bologna. Foto di: C. Porcheddu.
La telefonia mobile come oggi la conosciamo può essere considerata il risultato della evoluzione e della integrazione di due mezzi tecnologici, il telefono e la radio, che, solo apparentemente, hanno percorso strade parallele per un lungo periodo di tempo. Nella realtà questi strumenti di comunicazione sono l’uno complementare all’altro e la migliore dimostrazione sta proprio nella diffusione che il “telefonino” ha raggiunto trasformandosi, in pochi anni, da status simbol ad oggetto di uso comune. La telefonia mobile, nelle sue diverse espressioni, trova le sue origini certamente nell'ambito della comunicazione militare che, dopo le drammatiche esperienze del primo conflitto mondiale, si caratterizza come uno dei maggiori motori propulsivi della ricerca in questo settore. Nel 1921 vennero condotte, negli Stati Uniti, alcune delle prime comunicazioni radiomobili sperimentali, inizialmente con collegamenti unidirezionali tra una stazione trasmittente, fissa, e una ricevente, mobile; tra questi degne di un certo rilievo furono quelle effettuate presso il Dipartimento di Polizia di Detroit in cui si utilizzò frequenze vicine ai 2 MHz. Tuttavia solamente in seguito allo scoppio della seconda guerra mondiale si determinò un ulteriore e drammatico avanzamento della ricerca nel campo delle telecomunicazioni che portò alla realizzazione di apparecchiature sempre più compatte ed affidabili. Tra i vari modelli di radiotelefoni, spesso tra loro molto simili, prodotti dalle varie nazioni giova ricordare l’apparato americano BC-611 (v. oltre, foto a fianco) che per il suo aspetto e le caratteristiche di impiego può essere considerato uno dei più diretti predecessori degli attuali “cellulari”; lo stesso nomignolo con cui veniva comunemente identificato “handie-talkie”, che ne sottolinea le elevate caratteristiche di trasportabilità e di impiego, designerà per molti anni a seguire una intera classe di apparecchi radio ricetrasmittenti portatili caratterizzati dal fatto di essere impugnati e comandati con un’unica mano. Agli inizi degli anni '40, sempre negli USA, furono introdotti piccoli sistemi di telefonia mobile, estesi anche ad alcuni settori della vita civile (polizia, vigili del fuoco, trasporti, pronto intervento). Si trattava di sistemi che utilizzavano, come stazione fissa, un singolo trasmettitore FM operante nella banda tra i 30 e i 40 MHz e che coprivano appena il perimetro dei centri abitati consentendo di effettuare chiamate da una automobile o da un qualsiasi altro mezzo anche durante gli spostamenti. La struttura di questi sistemi rendeva il servizio accessibile a pochissimi; le limitate frequenze disponibili, infatti, venivano assegnate direttamente agli utenti, una frequenza (o canale) per ogni utente, saturandone ben presto la disponibilità. Solo in un secondo tempo si introdussero sistemi, cosiddetti di tipo trunked, nei quali tutti i canali sono a disposi-
zione di tutti gli utenti che all'occorrenza ne selezionano uno libero. Negli Stati Uniti il primo sistema di telefonia mobile disponibile ai privati venne inaugurato nel 1945 a St. Louis, Missouri; gli utenti avevano la disponibilità di tre canali operanti sulla frequenza di 150 MHz. In questi periodi un telefono da auto era quasi impossibile da acquistare. L’esiguo numero di canali disponibili per i radiotelefoni, oltre a limitare il numero globale di queste installazioni, consentiva solo poche conversazioni simultanee e se a questo aggiungiamo gli alti costi di acquisto e di gestione è facile intuire come il telefono via radio costituisse un vero e proprio status symbol. Dopo le prime esperienze pionieristiche, la sperimentazione proseguì fino all'inizio degli anni '80 quando, con le mutate condizioni di mercato, vennero introdotte vere e proprie reti di telefonia mobile aperte ad un potenziale e vasto pubblico di utenti. Nei sistemi delle moderne reti radiomobili per rendere disponibile il servizio ad un ampio numero di utenti, solitamente molto superiore al numero delle frequenze disponibili, si impiega la tecnica del riutilizzo delle frequenze che si realizza suddividendo il territorio in “celle”, da cui deriva il nome “cellulare”, cioè in una serie di porzioni di territorio tra loro contigue dotate di stazioni radio che trasmettono su un determinato numero di canali. Le frequenze utilizzate nelle varie celle sono diverse da quelle limitrofe, per evitare reciproche interferenze (interferenza cocanale). Il sistema funziona solo se il trasmettitore di ciascuna cella utilizza una potenza ridotta, in grado di coprire il territorio senza interferire con le altre. L'ampiezza e la forma della cella non sono standard, ma dipendono dalla densità di popolazione, dalla presenza o meno di ostacoli in grado di impedire la propagazione del segnale, dalla posizione geografica del trasmettitore. Quando l'utente, durante gli spostamenti, passa da una cella all'altra, è necessario che il terminale mobile, il telefonino, si sintonizzi su una nuova frequenza, tipicamente quella ricevuta meglio tra le frequenze della nuova cella. La procedura, oggi completamente automatizzata, con la quale si effettua il cambio di frequenza nel passare da una cella all'altra viene detta handover. Quando il traffico in una cella tende ad avvicinarsi al massimo consentito si può operare un ulteriore frazionamento del territorio, il cell-splitting, ottenendo due o più celle di minori dimensioni, ciascuna delle quali ha, almeno in linea di principio, lo stesso numero di canali della cella originaria. In pratica una piccola cella di un’area urbana può avere il diametro di circa 2 Km che può aumentare, nelle aree a bassa densità abitativa, fino a circa 15 Km. Le ricerche che ci hanno portato ad usufruire di questa tec-
Apparecchio telefonico modello “Grillo”. Italia, 1966, Siemens. Per cortesia di: C. e G.B. Porcheddu, Bologna. Foto di: C. Porcheddu. 50
nologia cominciarono nel 1947, quando D.H. Ring, dei Bell Laboratories, espose per la prima volta il concetto di “cellulare” definendo i punti cardine di questo sistema: le celle, l’handover e il cell-splitting. Solamente alla fine degli anni ’70, tuttavia, se ne iniziò la sperimentazione e l’applicazione pratica; un primo servizio commerciale venne avviato in Giappone nel 1978. Il primo sistema di telefonia mobile analogica di una certa rilevanza fu l’AMPS (Advanced Mobile Phone Standard) sviluppato negli USA dai Bell Laboratories e commercializzato nel 1979 a Chigago, poi diffuso in tutti gli Stati Uniti dal 1983. L’equivalente europeo, NMTS (Nordic Mobile Telephone System), apparve per la prima volta nel 1981 in Svezia e poi negli altri Paesi Scandinavi. Successivamente in Inghilterra è stato sviluppato lo standard TACS (Total Access Communication System), una versione dell’AMPS modificata ed apparsa per la prima volta nel 1985. Le caratteristiche iniziali (1000 canali centrati nella banda 890960 MHz) si sono evolute più tardi nello standard E-TACS (Extended TACS), che assegna 1320 canali nella banda 872-950 MHz. Questi primi sistemi cellulari vennero sviluppati indipendentemente da ogni nazione determinando una incompatibilità che ha limitato l’impiego di questi terminali mobili entro i confini nazionali. In Italia il primo servizio di telefonia radiomobile, proposto nel 1973 dalla Sip, era denominato RTMI (Radio Telefono Mobile Integrato), operava nella banda dei 160 MHz con 32 canali bidirezionali, con terminali esclusivamente di tipo veicolare. L’utente che desiderava effettuare una chiamata impostava il numero dell’utente con cui voleva parlare ed in centrale un operatore provvedeva a collegarlo all’abbonato richiesto. La comunicazione in corso si interrompeva nel passaggio tra una cella e l’altra, non essendo previsto l’handover automatico. Pur con questi limiti operativi, dopo alcuni anni, nelle due
51
e voluzione delle c omunicazioni: la s toria
Apparato Telefonico modello TA-1/PT. USA, 1968, Crown Controls Corp. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
maggiori città italiane, Roma e Milano, il sistema venne saturato da una domanda superiore alle previsioni. Nel 1985 venne presentato al pubblico il sistema radiomobile RTMS (Radio Telephone Mobile System), progettato ed installato dalla Italtel per conto della Sip, operante sulla frequenza dei 450 MHz con 200 canali radio. I terminali erano di tipo veicolare o portatile e superavano le limitazioni tipiche del sistema RTMI; era possibile, infatti, chiamare direttamente gli abbonati e la comunicazione non si interrompeva quando ci si spostava da una cella all'altra. Questo sistema di telefonia cellulare era stato progettato con l'intenzione di servire un numero di circa 40.000 utenti fino al 1995, anno in cui si prevedeva di aderire al sistema di telefonia mobile digitale europeo, operante sulla banda di 900 MHz (identificato successivamente come GSM). Anche il sistema RTMS ebbe vita breve, la grande richiesta di questo servizio portò, nel 1990, alla adozione del nuovo sistema di telefonia mobile ETACS. L’impiego di terminali di tipo palmare (i primi veri telefonini) ragionevolmente economici e l’adozione di abbonamenti con tariffe differenziate determinarono la grande diffusione della telefonia cellulare nel nostro paese. La rete E-TACS, attualmente ancora operativa, è gestita, in Italia, solamente dalla Tim-Italia e cesserà di esistere, secondo i dati ufficiali, nel 2008. Nel 1982 la Conférence Européenne des Postes et des Télécommunications (CEPT), su proposta della Telecom norvegese e della PTT olandese, formò un gruppo di studio denominato Groupe Spécial Mobile (GSM) con lo scopo di studiare e sviluppare un sistema radiomobile cellulare digitale, di seconda generazione, comune a tutti i paesi dell’Europa occidentale. Un primo accordo tra i paesi aderenti, portò alla decisione di riservare per questo sistema due bande di frequenza: 890915 e 935-960 MHz. Nel 1987 si arrivò alla stesura di un protocollo per l’introduzione coordinata del sistema GSM che sarebbe divenuto operativo il primo Luglio 1991. Nel 1989 la responsabilità del progetto GSM venne trasferita ad un Comitato Tecnico della European Telecommunication Standards Institute. In quella sede venne anche ridefinito il significato dell’acronimo GSM come Global System for Mobile Communications. Il Comitato Tecnico ha elaborato normative, standard e specifiche tecniche che, pur lasciando spazio a flessibilità e innovazioni competitive da parte dei produttori, forniscono una sufficiente standardizzazione per garantire l’effettiva intercomunicabilità tra le componenti del sistema. Il sistema GSM è caratterizzato dall’impiego della tecnologia digitale grazie alla quale si possono inviare fax, scambiare dati a bassa velocità (9,6 Kbit/sec), scambiare messaggi attraverso il sistema SMS (Short Message System) con l’unica limitazione di un massimo di 160 caratteri. Il servizio venne commercializzato per la prima volta verso la metà del 1991 e nel 1993 esistevano già 36 reti GSM in 22 paesi. È interessante ricordare che, sebbene il GSM sia stato standardizzato in Europa, non è uno standard esclusivamente europeo essendo stato progressivamente adottato in oltre 80 paesi sparsi in tutto il mondo e continua tuttora ad espandersi. Attualmente l’evoluzione della telefonia mobile è da un lato orientata alla produzione di nuove tecnologie capaci di po-
e voluzione delle c omunicazioni: la s toria
Apparecchiatura radio per agenti speciali, modello R-301. Gran Bretagna, 1944, varie aziende. Per cortesia di: M. Moretti, Pesaro. Foto di: C. Porcheddu.
tenziare la rete GSM, quali il WAP (Wireless Application Protocol) ed il GPRS (General Packet Radio Service), dall’altro è già in fase avanzata di definizione un nuovo standard, l’UMTS (Universal Mobile Telecommunication System) la cosiddetta terza generazione dei telefoni mobili, che nelle previsioni dovrà permettere la nascita di uno strumento multimediale capace di comunicare con qualsiasi angolo del globo attraverso la voce, le immagini, i pacchetti di dati, collegandosi direttamente ad Internet senza bisogno di passare attraverso un personal computer. Per quanto riguarda la ricerca avanzata nel settore della telefonia mobile si stanno già studiando nuovi sistemi di comunicazione, la quarta generazione. Riportiamo qui di seguito una sintetica scheda descrittiva degli apparati a suo tempo esposti in questa sezione della Mostra.
APPARATO RADIO RICETRASMITTENTE AN/PRC-6/6
APPARATO RADIO RICETRASMITTENTE BC- 611-F
APPARECCHIO TELEFONICO “GRILLO”
USA; 1945; Electrical Research Laboratoires Inc. Questo apparato, a destinazione militare, venne inizialmente sviluppato dalla Galvin Manufacturing Corporation, oggi Motorola, nei primi anni ’40 e, solo in un secondo tempo, la sua produzione venne estesa anche ad altre Aziende. Destinato ad essere impiegato dalle pattuglie in posizioni avanzate per mantenere i contatti con il resto delle formazioni, il nomignolo con cui veniva comunemente identificato “handie-talkie”, ne sottolinea le elevate caratteristiche di trasportabilità e di impiego e designerà per molti anni a seguire una intera classe di apparecchi radio ricetrasmittenti portatili caratterizzati dal fatto di essere impugnati e comandati con un’unica mano. Per il suo aspetto e le caratteristiche di impiego può essere considerato uno dei più diretti predecessori degli attuali “cellulari”. Caratteristiche tecniche: copertura di frequenza: da 3,5 a 6 MHz, un solo canale controllato a quarzo. Tipo di modulazione: AM. Potenza di uscita del trasmettitore: circa 200 mW. Alimentazione: con batterie a secco, entrocontenute. Dimensioni: ca. 32x9x9 cm. Peso: circa 3 Kg (batterie comprese). L’esemplare esposto è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna.
Italia; 1966; Siemens Apparecchio telefonico molto compatto, all’epoca di design non tradizionale, progettato da Marco Zanuso e da Richard Sapper, premiato con il Compasso d’oro (1967). Benché non sia, in assoluto, il primo telefono in un unico pezzo, tuttavia, per le sue caratteristiche di maneggiabilità, di riduzione degli ingombri, di “design” può essere considerato come il punto di passaggio tra il telefono tradizionale ed il “telefonino” palmare. Il risultato ottenuto è ancora più notevole se si considera che tutto è stato realizzato senza la miniaturizzazione consentita dalla tecnologia elettronica. Giova ricordare come, a conferma della validità della soluzione, la forma a “conchiglia” (due valve tra loro incernierate con un meccanismo a molla) caratteristica del “grillo” sia stata ripresa nell’attuale produzione dei telefoni cellulari palmari. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Carlo Pria, Bollate, Milano
Germania; primi anni ’60; varie Aziende Versione europea della originale produzione americana dalla quale si differenzia principalmente per avere la possibilità di sintonizzarsi su uno di sei canali prefissati. Per la forma arcuata venne soprannominato “banana”. Caratteristiche di impiego simili al BC-611 (vedi scheda precedente). Caratteristiche tecniche: copertura di frequenza: da 47 a 55 MHz, sei canali controllati a quarzo. Tipo di modulazione: FM. Potenza di uscita del trasmettitore: circa 250 mW. Alimentazione: con batteria a secco, entrocontenuta. Dimensioni: circa 36x12x9 cm. Peso: circa 1,5 Kg senza batterie. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Luca Liberatore, Castel Guelfo, Bologna.
APPARATO TELEFONICO MOD. TA-1/PT
USA; 1968; Crown Controls Corp. L’apparato TA-1/PT è un telefono prodotto per le Forze Armate USA, leggero ed impermeabile è destinato all’impiego campale in aree di combattimento avanzate. Può comunicare con qualsiasi telefono o centrale telefonica a batteria locale. Per il funzionamento è corredato da un generatore a manovella. Caratteristiche tecniche: peso: circa 1,300 Kg. Distanza massima raggiungibile: circa 6 Km. Alimentazione: non necessita di alimentazione in quanto fa uso di un microfono elettrodinamico. Segnalazione di chiamata: visuale o con ronzatore (con possibilità di regolazione del volume o di esclusione). L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna. APPARECCHIO TELEFONICO PORTATILE “CELLULARE”, MOD. HSX-2LS
Finlandia; fine anni ‘80; NOKIA L’esemplare esposto è uno dei primi esemplari impiegati in Italia per il sistema ETACS (Extended Total Access Communication System); di dimensioni, per l’epoca, ragionevolmente contenute nell’aspetto ricorda ancora l’apparecchio telefoni-
Antenna goniometrica modello F-2469. Gran Bretagna, circa 1935, G. Marconi Co. Per cortesia di: N. Neri, Bologna. Foto di: C. Porcheddu. 52
Apparecchiatura radio per agenti speciali, modello BP 3. Polonia-Gran Bretagna, circa 1941, varie aziende. Per cortesia di: M. Moretti, Pesaro. Foto di: C. Porcheddu.
co da tavolo di produzione coeva. Caratteristiche tecniche: Tecnologia: ETACS. Frequenza di lavoro: 900 MHz. Potenza del trasmettitore: 4 W. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Il Telefonino TIM, Bologna.
Negli anni ’30 del XX secolo la tecnologia delle telecomunicazioni e specialmente delle radiotrasmissioni diventa molto più affidabile e sofisticata. Nella componentistica (in particolare nei tubi elettronici) aumenta la qualità delle prestazioni e diminuisce l’ingombro ; anche se la drastica diminuzione delle dimensioni si manifesta negli anni ’60 con l’avvento dell’elettronica a stato solido (i transistor). Si creano, quindi, le condizioni “tecnologiche” per la realizzazione di apparati per radiocomunicazioni sempre più compatti. Il naturale sviluppo di questa tendenza è la produzione di apparati, per l’epoca, di piccole dimensioni che permettano di comunicare via radio a persone che “vivono” (e muoiono) trasmettendo informazioni nelle più disparate e difficili situazioni, gli “agenti speciali” appunto. Si tratta di apparecchiature poco conosciute proprio perché la destinazione ai Servizi Speciali le ha sempre fatte considerare come Top Secret, anche oggi, in un’epoca nella quale, in libera vendita, troviamo apparecchiature che, a parità di ingombro, offrono prestazioni infinitamente superiori. Durante il periodo della Mostra è stata realizzata una sezione specificamente dedicata a questo settore dove sono state esposte “radio in valigia” (erano apparati compatti, ma non troppo) prodotte a partire dagli anni ’30 (la radio italiana mod.TX0-OC3) fino ad apparati relativamente recenti quali le stazioni di produzione russa dei primi anni’80 fornite di tutta una serie di accessori che permettono le trasmissioni ad alta velocità (più breve è il tempo di trasmissione più è difficile localizzare la trasmittente), in codice, in telegrafia morse anche per inesperti (con i cosiddetti “pettini”), ecc. Sono comunque rappresentati alcuni modelli delle stazioni radio prodotte, durante la seconda guerra mondiale in Europa e USA. A questi apparati si contrappongono i “cacciatori”, cioè gli apparati di radiolocalizzazione (o radiogoniometri), (una scena ricorrente in molti film di guerra è quella dell’autocarro tedesco, con quelle strane antenne sul tetto, che cerca di trovare la spia che trasmette). Di questa sezione ricordiamo in particolare tre apparati, un radiogoniometro campale Telefunken-OLAP (prodotto in Italia, dietro licenza, negli anni ‘30); la stazione “IMCA 0,4 W” di produzione italiana per microonde (primi anni ’40); il Direction Finding SCR504 di produzione USA, un radiogoniometro in valigia usato dalle spie per localizzare le spie. Riportiamo qui di seguito una sintetica scheda descrittiva degli apparati a suo tempo esposti in questa sezione della Mostra. APPARECCHIATURA RADIO PER SERVIZI SPECIALI, MODELLO TX0-OC3
Italia; 1940; varie Aziende Apparecchiatura impiegata dal SIM (Servizio Informazioni Militari), operante nel campo delle onde corte, che permetteva
53
di effettuare comunicazioni anche su lunghe distanze sfruttando le frequenze e le condizioni di propagazione più favorevoli. Costituito da diverse subunità: complesso ricetrasmittente, alimentatore in corrente alternata e in corrente continua, cuffie, tasto telegrafico, antenna filare, una serie di bobine e quarzi per le diverse frequenze di funzionamento. Degna di nota è la tavoletta scanalata, il cosiddetto “pettine”, che permette, impiegando un particolare puntale conduttore, di trasmettere i numeri secondo il codice Morse anche ad un operatore inesperto. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, Collezione “Cremona”, Colleferro, Roma. APPARECCHIATURA RADIO PER SERVIZI SPECIALI, MODELLO SSTR-1
USA; circa 1940; varie Aziende Si tratta probabilmente della più famosa radio clandestina usata dagli agenti dell’OSS (Office of Strategic Service) statunitense durante la seconda guerra mondiale. L’apparato opera in onde corte ed era tipicamente trasportato in una valigia di produzione comune, così da passare inosservata; a questo proposito è risaputo come agli agenti venissero fornite le valigie acquistate dagli europei che, in quegli anni, riparavano negli Stati Uniti. Il progetto venne sviluppato da Earl Anderson, un ricercatore dell’RCA, che definì le dimensioni dell’apparato per poterlo nascondere all’interno di una pagnotta europea; durante tutto il periodo bellico questa stazione venne continuamente modificata sia nella parte circuitale sia nel design per renderla sempre più adatta alla sua particolare destinazione. L’apparato era noto per la deriva di frequenza che l’operatore cercava di recuperare spostando, lentamente, lo chassis rispetto al contenitore esterno avendo preventivamente rimosso le viti di fissaggio. Caratteristiche tecniche: RICEVITORE tipo SSR-1. Dimensioni, 9,5”x4”x3”. Peso 5 lbs. Tubi impiegati, 2/6SG7,6SA7, 6SQ7,6SN7 (prime versioni), 3/7V7, 7F7, 7Q7 (ultime versioni). MF: 2000 KHz (prime versioni), 455 KHz (ultime versioni). Copertura di frequenza da 2,7 a 17 MHz in 3 bande. TRASMETTITORE tipo SST-1. Dimensioni, 9,5”x4”x3”. Peso 4 lbs. Tubi impiegati, 6L6 nello stadio finale. Copertura di frequenza da 3 a 14 MHz in 3 bande. Potenza in uscita 8-15W. ALIMENTATORE tipo SSP-1. Dimensioni, 6”x3,5”x9,5”. Peso, 10 lbs. Tubi impiegati, 7Z4. Tipo di alimentazione richiesta, universale in c.a., 6 V in cc. Tipo SSP-2. Dimensioni, 4”x3,5”x9,5”. Peso, 7 lbs. Tipo di alimentazione richiesta,6 V in cc. ALIMENTATORE: tipo SSP-3. Peso, 23 lbs. Funzionamento a termocoppia. L’alimentatore SSP-3 era soprannominato YTB-1 (Yak Turd Burner). Oltre alle tensioni per il funzionamento dell’apparato può essere utilizzato anche come carica batteria. ALIMENTATORE: tipo SSP-4. Dimensioni, 4”x3,5”x9,5”. Peso, 11 lbs. Tipo di alimentazione richiesta, universale in c.a.
e voluzione delle c omunicazioni: la s toria
RADIO PER IMPIEGHI SPECIALI
Apparecchiatura radio per servizi speciali, modello SSTR-1. USA; circa 1940; varie Aziende. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna. APPARECCHIATURA RADIO PER AGENTI SPECIALI, MODELLO BP 3
Polonia-Gran Bretagna; circa 1941; varie Aziende (AM/MCW/CW). Trasmettitore: copertura di frequenza da 3 a 16 MHz in tre bande, potenza in uscita di circa 20 W. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, Collezione “Cremona”, Colleferro, Roma. APPARECCHIATURA RADIO PER SERVIZI SPECIALI, MOD. SST/G
USA; 1943; varie Aziende Apparato che ha sostituito il modello SSTR-1, al quale si richiama nell’aspetto esteriore. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Marco Moretti, Pesaro. APPARECCHIATURA RADIO PER “AGENTI SPECIALI” MOD. R-301
Gran Bretagna; 1944; varie Aziende. Si tratta di un apparato ricevente nel quale si è data particolare importanza alla miniaturizzazione dei componenti. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Marco Moretti, Pesaro. APPARECCHIATURA RADIO PER SERVIZI SPECIALI, MOD. RS-6
e voluzione delle c omunicazioni: la s toria
Apparecchiatura radio per servizi speciali, Direction Finding Set SCR-504. USA; 1939; varie Aziende. Per cortesia di: F. Cremona, Collezione “Cremona”, Colleferro, Roma. Foto di: C. Porcheddu.
Apparecchiatura radio progettata dai tecnici polacchi rifugiati in Gran Bretagna dopo lo scoppio della seconda guerra mondiale, di caratteristiche molto compatte venne impiegata prevalentemente dagli agenti del SIS (Secret Intelligence Service). Assieme al complesso radio AP 4 è uno dei più famosi apparati prodotti da questo gruppo di progettisti. Copertura di frequenza: da 2 a 8 MHz. Potenza in uscita: circa 30 W. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Marco Moretti, Pesaro
USA; circa 1952; varie Aziende Stazione radio operante nel campo delle onde corte, costituita da quattro subunità. Venne fornita a diverse agenzie governative statunitensi e tra esse alla CIA (Central Intelligence Agency) e al SAC (Strategical Air Commando) che la impiegò come dotazione di emergenza per i piloti degli apparecchi
APPARECCHIATURA RADIO PER SERVIZI SPECIALI MOD. 3 MK II (B2)
Gran Bretagna; circa 1942; varie Aziende Si tratta del modello di radio per agenti speciali più diffuso e conosciuto tra quelli prodotti in Gran Bretagna durante il secondo conflitto mondiale, solitamente messo a disposizione dei gruppi combattenti infiltrati in territorio nemico oppure delle formazioni quali i maquis francesi o i “partigiani” italiani. Questa stazione radio fu progettata, nel 1942, da John Brown, un ufficiale del Corpo Segnalatori dell’esercito britannico destinato, fin dal 1941, ad un laboratorio di ricerca con il compito di realizzare nuove stazioni radio per il SOE (Special Operations Executive); di suo progetto furono anche altre due famose stazioni radio, la MCR Mk I (Miniature Communication Receiver), meglio conosciuta come “Biscuit Tin Radio”, e l’apparato radio A Mk III. Caratteristiche tecniche: Dimensioni: circa 47x34x15 cm, con tutte le subunità collegate per il funzionamento. Peso: circa 15 Kg. Alimentazione: 97-250 V in c.a. oppure 6 V in c.c. Ricevitore: supereterodina a quattro valvole, copertura di frequenza da 3,1 a 15,5 MHz in tre bande, tipo di segnale ricevuto telegrafia e telefonia Apparecchiatura radio per servizi speciali, modello RS-6. USA; circa 1952; varie Aziende. Trasmettitore RT-6. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
54
Apparecchiatura radio per servizi speciali, modello R-350 M (OREL). URSS; prima metà anni ’70; varie Aziende. Per cortesia di: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e.V., Trier, Deutschland. Foto di: C. Porcheddu.
B/RB-47E, B/47 ECM, B/RB- 52E. Il progetto venne praticamente realizzato dalla RDR (Radio Development & Research Corp.) di New York, una società che fornì i prototipi di molte apparecchiature dell’OSS e della CIA; la produzione di serie venne invece affidata alla GTE di Waltham e forse ad altre Aziende del settore. È una stazione di non facile impiego a causa dei numerosi cavi di collegamento, di alcune macchinose procedure di funzionamento, delle scarse possibilità di manutenzione campale; limiti, verosimilmente, da imputare alla scelta di raggiungere la massima miniaturizzazione possibile. Caratteristiche tecniche: RICEVITORE tipo RR-6: dimensioni, 6 3/4”X5”X2 1/4”; peso 3 lbs 2 oz; tubi impiegati, 4/5899; 3/5718; copertura di frequenza da 3 a 15 MHz in 2 bande; controllo di frequenza a VFO o tramite cristallo; corredato inoltre di BFO e cristallo di calibrazione. TRASMETTITORE tipo RT6: dimensioni, 6 3/4”X5”X2 3/32”; peso 2 lbs 14 oz; tubi impiegati, 6AG5, 2E26; copertura di frequenza da 3 a 16,5 MHz in 2 bande; potenza in uscita: circa 6-10 W. ALIMENTATORE tipo RP-6: dimensioni, 8 1/16”X4”X2 3/16”; peso 5 lbs 11 oz tubi impiegati, 6X4; UNITÀ FILTRO tipo RA-6: dimensioni, 8 1/16”X4”X2; peso, 3 lbs 11 oz. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna. APPARECCHIATURA RADIO PER SERVIZI SPECIALI
URSS; circa 1960; varie Aziende Impiegata dagli agenti del KGB (Komitet Gosudarstvennoy Bezopasuosti; il servizio responsabile dello spionaggio all’estero e della sicurezza interna dell’URSS) tra gli anni ’50 e ’60 nell’Europa occidentale e in Asia orientale. Caratteristicamente priva di contrassegni identificativi, nelle modalità costruttive si richiama alla coeva produzione britannica. Come tutte le radio per servizi speciali prodotte prime della miniaturizzazio-
ne consentita dai semiconduttori l’apparecchiatura è costituita da alcune sottounità (moduli) per favorirne l’occultamento e la trasportabilità. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, Collezione “Cremona”, Colleferro, Roma.
URSS; 1968; varie Aziende Stazione radio di bordo per caccia-bombardiere MiG-21-FM (Fishbed), costituita da una serie di moduli stagni e pressurizzati connessi attraverso una serie di cavi che permettono il posizionamento all’interno dei limitati spazi disponibili nel velivolo. Caratteristiche tecniche: l’apparato opera in due distinte bande di frequenza su venti canali, preselezionati tra i disponibili, nella banda VHF da 118 a 140 MHz (in 617 canali) e nella banda UHF da 220 a 389,95 MHz (in 3400 canali). Potenza irradiata (con antenna filare di 5 m ed impedenza di 75 Ω) circa 15 W. Ricevitore supereterodina a tripla conversione di frequenza. La stazione permette di comunicare sia in fonia (A3) che in telegrafia (F1). L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e. V., Trier, Deutschland. APPARECCHIATURA RADIO PER SERVIZI SPECIALI, MOD. R- 350 M (OREL)
URSS; prima metà anni ’70; varie Aziende Tipico esempio di stazione radio per servizi speciali del periodo della “guerra fredda”. Si tratta di una serie di apparec-
Apparecchiatura radio per servizi speciali, modello RS-6. USA; circa 1952; varie Aziende. Ricevitore RR-6. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
55
e voluzione delle c omunicazioni: la s toria
APPARECCHIATURA RADIO, MOD. R-832-M
e voluzione delle c omunicazioni: la s toria
Apparecchiatura radio per impieghi speciali, modello R-147. URSS, circa 1985, varie Aziende. Per cortesia di: F. e S. Govoni, Bologna. Foto di: C. Porcheddu.
Apparecchiatura radio per agenti speciali, modello R-353 (PROTON). URSS, circa 1975, varie Aziende. Per cortesia di: M. Moretti, Pesaro. Foto di: C. Porcheddu.
chiature che sia nell’aspetto esteriore sia nel progetto si staccano dalla precedente produzione russa legata alle tecnologie belliche; vengono fornite di dispositivi per la trasmissione telegrafica ad alta velocità e di sistemi di sintonia automatica che permettono di diminuire drasticamente i tempi di trasmissione e, di conseguenza, il rischio di intercettazione e di disturbo. Questo modello, uno dei più diffusi, venne impiegato per missioni speciali (Spetznaz) e da truppe regolari per essere usato in azioni nelle retrovie nemiche, raccoglie in un unico contenitore metallico la stazione vera e propria, il sistema di alimentazione e gli accessori. L’apparato esposto è completo di un interessante dispositivo, molto compatto, che svolge la funzione di tasto telegrafico, permette la trasmissione in codice Morse ad operatori non esperti e consente la “lettura” di pellicole fotografiche del formato 35 mm preventivamente perforate consentendo la trasmissione, in quest’ultimo modo, di grandi quantità di informazioni in tempi molto brevi. Caratteristiche tecniche: dimensioni circa 35x32x15 cm; peso circa 12,5 Kg; copertura di frequenza: trasmettitore da 1,8 a 12 MHz, ricevitore da 1,8 a 7 MHz; tipo di modulazione: trasmettitore solo telegrafia (CW) ricevitore telegrafia e telefonia (CW, MCW, AM); potenza in uscita: circa 10 W; alimentazione: 4 batterie Zn-Ag che attraverso un trasformatore-elevatore forniscono le alte tensioni per i tubi elettronici. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e. V., Trier, Deutschland. APPARECCHIATURA RADIO PER AGENTI SPECIALI, MODELLO R-353 (PROTON)
URSS; circa 1975; varie Aziende Apparato molto compatto fornito di micro scale di sintonia ed antenne separate per le sezioni trasmittente e ricevente, com-
pleto di tasto telegrafico di tipo tradizionale e di un disco combinatore meccanico per la trasmissione di soli numeri ; per le trasmissioni ad alta velocità è fornito di un dispositivo per la registrazione di segnali in codice su nastro magnetico (burst code transmitter). Esistono due varianti una per alimentazione in corrente continua e una per corrente alternata. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Marco Moretti, Pesaro. APPARECCHIATURA RADIO PER IMPIEGHI SPECIALI, MODELLO R-147
URSS; circa 1985; varie Aziende Apparato ricetrasmittente estremamente compatto, destinato all’impiego individuale su brevi distanze in zone avanzate di combattimento. Completamente a stato solido, prodotto con tecnologia a “film sottile”. Copertura di frequenza: quattro canali, predefiniti a seconda del modello, tra 44 e 51,8 Mhz. Tipo di modulazione: FM. Potenza del trasmettitore: circa 130 mW. Alimentazione: batterie ricaricabili (6-7,5 V), oppure con batterie a secco (9 V). Distanze raggiungibili: fino ad un Km, secondo il tipo di antenna impiegato (a frusta o a filo, entrambe in dotazione). Dimensioni: circa 8x12x5 cm. Peso: circa 700g (compreso accessori e borsa per il trasporto). L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Franco e Susanna Govoni, Bologna. RADIOGONIOMETRO CAMPALE, MOD. E 393 N
Italia; 1938; Telefunken-OLAP Apparato radio ricevente che permette la localizzazione goniometrica di una stazione trasmittente. L’apparato radiogoniometrico identifica solamente la direzione e l’origine della stazione trasmittente, ma non la distanza; per questa ragione la localizzazione precisa avviene impiegando almeno tre stazioni contemporaneamente, attraverso il metodo della triangolazione. L’apparato poteva essere installato, oltre che in posizione fissa, sia su veicolo sia su aeroplano. L’installazione completa è costituita da : radio ricevitore, due antenne a quadro, una antenna a frusta, un supporto goniometrico d’antenna, una base di supporto, batterie, accessori. Copertura di frequenza: da 0,75 a 33,3 MHz in cinque bande. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, Collezione “Cremona”, Colleferro, Roma. APPARECCHIATURA RADIO PER SERVIZI SPECIALI, DIRECTION FINDING SET SCR-504
USA; 1939; varie Aziende Radiogoniometro portatile contenuto in una valigia appositamente costruita, utilizzato per localizzare con precisione sta-
56
Apparecchiatura radio per servizi speciali, modello TX0-OC3 Italia; 1940; varie Aziende. Per cortesia di: F. Cremona, Collez. “Cremona”, Colleferro, Roma. Foto di: C. Porcheddu.
L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Nerio Neri, Bologna. RADIOGONIOMETRO CAMPALE A BREVE RAGGIO, MOD. P 100/2
STAZIONE RADIO PER SERVIZI SPECIALI, IMCA 0,4 W
Italia; circa 1943; Imcaradio Stazione radio ricetrasmittente impiegata dal DICAT (Difesa Territoriale) di caratteristiche radioelettriche molto interessanti, uno dei primissimi esempi italiani di produzione industriale nel campo delle onde ultra corte (VHF); risulta composta da tre sottounità: TRASMETTITORE IF 602 - copertura di frequenza : da 59 a 64,5 MHz in un’unica frequenza preselezionabile e controllata a quarzo. RICEVITORE IF 607 - supereterodina a 6 valvole, copertura di frequenza: continua da 58,5 a 65 MHz in unica banda. ALIMENTATORE IF 21 S - permette il funzionamento dell’intera stazione, contiene inoltre una sezione amplificatrice di bassa frequenza che consente l’ascolto in altoparlante, anche esso contenuto in questa unità. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, Collezione “Cremona”, Colleferro RM. ANTENNA GONIOMETRICA, MOD. F-2469
Gran Bretagna; circa 1935; Marconi Co. Antenna goniometrica di impiego navale, completamente in bronzo per resistere alla corrosione dell’ambiente marino. Costituita da una base cubica sulla quale sono fissate un’antenna a telaio (costituita da due anelli concentrici ed ortogonali tra loro, di circa 80 cm di diametro) ed una antenna a “frusta” verticale (di circa 3 metri di lunghezza) inserita, nella base, all’intersezione dei due anelli. L’impiego dei due tipi di antenna permette di definire la direzione e il verso di provenienza del segnale ricevuto. Peso: circa 20 Kg.
57
e voluzione delle c omunicazioni: la s toria
zioni radio trasmittenti clandestine in precedenza identificate da altri apparati di radioascolto e localizzazione. Impiegato principalmente in aree ad alta densità abitativa dove le stazioni radiogoniometriche mobili potevano essere, per le loro grandi dimensioni, facilmente identificate. Il funzionamento sul “campo” è previsto con valigia chiusa, dissimulando l’auricolare (del tutto simile a quelli usati per ipoudenti) tra gli abiti e regolando le varie funzioni attraverso i comandi posizionati alla base della maniglia di trasporto. Caratteristiche tecniche: ricevitore supereterodina ad otto tubi; copertura di frequenza da 0,1 a 65 MHz, in 8 bande; tipo di segnale ricevuto: AM e CW; MF: 455 o 910 KHz; alimentazione tramite batterie a secco BB-51 e BB-52; documentazione tecnica: TM 11-862. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, Collezione “Cremona”, Colleferro, Roma.
Germania; seconda metà anni ‘50; Telefunken Apparato radio ricevente che permette la localizzazione goniometrica di una stazione trasmittente. L’apparato, nel design e nelle caratteristiche radioelettriche, si richiama fortemente alla produzione anteriore alla seconda guerra mondiale (vedi scheda relativa all’apparato E 393 N, a p. 56) a dimostrazione della persistenza e della validità delle soluzioni adottate. Caratteristiche tecniche: ricevitore supereterodina con copertura di frequenza da 1,5 a 30 MHz in cinque bande; peso circa 20 Kg (solo ricevitore); dimensioni circa 50x50x50 cm. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Traditionsverein Fernmelde-/Elktronische Aufklärung Luftwaffe e. V., Trier, Deutschland. LA CRITTOGRAFIA
L’uomo, nel corso della propria evoluzione, ha dedicato molti sforzi, tecnici e culturali, all’impresa di comunicare, cioè di “rendere comuni”, dati e conoscenze, idee e sentimenti, immagini e rappresentazioni, fino al punto di fare della comunicazione non solo uno strumento accessorio all’azione, ma una vera e propria “azione comunicativa”. Altrettanto impegno è stato profuso nel tentativo di tutelare la riservatezza del messaggio, cioè di indirizzare la comunicazione solo verso taluni individui; se tale fine è relativamente facile in un mondo dove la comunicazione è quasi esclusivamente orale, dove messaggio e messaggero si identificano, ben più problematico diventa proteggere la riservatezza di una forma scritta di comunicazione. Un testo scritto in un mondo di analfabeti è già un modo per codificare e rendere segreta una comunicazione, ma in un mondo alfabetizzato il problema del controllo del messaggio si ripropone in maniera più allargata. Intuitivamente il primo modo di mantenere la riservatezza di una comunicazione scritta può essere quello di nasconderla, di celarne l’esistenza stessa; la steganografia (dal greco Steganós, nascosto e Gráphein, scrivere) è appunto quella disciplina che studia queste tecniche. Esempi di steganografia sono le “scritture dissimulate” nelle quali il reale messaggio è celato all’interno di un altro dall’aspetto innocuo e differente (tipico esempio ne è l’acrostico oppure l’informazione nascosta all’interno di un’immagine digitalizzata) oppure le “scritture invisibili” nelle quali, mediante artifici fisici o chimici, il messaggio viene reso invisibile o difficilmente individuabile (gli inchiostri simpatici, i microfilm, i messaggi occultati in micropunto). La steganografia non possiede, però, la flessibilità, la rapidità e la sicurezza richieste a molte delle attività umane che quotidianamente impiegano il telefono, la radio e, più recentemente, la posta elettronica, mezzi di comunicazione estremamente efficienti per superare le distanze, ma che altrettanto efficientemente distribuiscono l’informazione anche a coloro che non ne sono i legittimi destinatari. Assieme allo sviluppo delle tecniche steganografiche si è quindi sviluppata un’altra branca dei linguaggi segreti, la crittografia (dal greco Kryptós, segreto e Gráphein, scrivere), che non si occupa di nascondere l’esistenza del mes-
Macchina crittografica, modello M-209. USA; anni ‘40; Hagelin. Per cortesia di: F. Cremona, Collez. “Cremona”, Colleferro, Roma. Foto di: C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
Cifrario (disco cifrante). Italia, XVI sec. Per cortesia di: Ist. e Museo di Storia della Scienza, Firenze. Foto di: Ist.e Museo di Storia della Scienza, Firenze.
Macchina crittografica Enigma. Germania, 1937, varie Aziende. Per cortesia di: Deutsches Museum, Münich, Deutschland. Foto di: Deutsches Museum, Münich, Deutschland.
dei messaggi. Nella maggior parte dei casi la tutela della riservatezza della comunicazione stessa è, in maniera solo apparentemente paradossale, secondaria rispetto all’esigenza fondamentale di sapere con chi realmente si sta comunicando. La crittografia, restituendo certezza alla comunicazione, può contribuire alla realizzazione di una società civile basata sulla comunicazione digitale. REGOLO CIFRANTE SEMPLICE
saggio, ma lo trasforma in modo da renderlo incomprensibile (cifratura) a chi non conosca le regole per renderlo intellegibile (decifrazione). La crittografia è sempre stata una disciplina ambigua e sottaciuta, volutamente confusa tra la scienza, l’arte e la magia; dal XIX secolo, grazie alla letteratura avventurosa prima e ai romanzi di spionaggio poi, è entrata nell’immaginario collettivo come strumento dell’armamentario delle spie, dei cospiratori e degli agenti di oscure potenze straniere, una visione quasi esclusivamente letteraria e romantica che non rende ragione delle risorse umane ed economiche profuse dalle nazioni in questo settore. Negli ultimi anni la crittografia non è più considerata una tecnica misteriosa ed inavvicinabile, impiegata per scopi militari o per la sicurezza nazionale; di fatto la maggior parte di noi usa, talvolta senza saperlo, tecniche crittografiche, più o meno evolute, in alcune normali attività quotidiane: l’acquisto tramite Bancomat o carta di credito e la telefonata di un cellulare GSM ad esempio. Con l’avvento delle reti mondiali per la comunicazione digitale diffuse in tutto il globo, e costantemente usate anche da semplici cittadini per lavoro o per diletto, la tutela della riservatezza, della “privacy”, può avvenire in modo certo ed efficace solamente attraverso la crittografia. In realtà lo scopo attuale della crittografia è non solo e non principalmente la protezione delle informazioni riservate dagli sguardi indiscreti, le attuali tecnologie consentono infatti di di impiegare le reti di comunicazione e i documenti elettronici alla stessa stregua dei documenti cartacei tradizionali, disponendo di una serie di meccanismi che ne permettano la verifica dell’autenticità; vale la pena di ricordare, a questo proposito, che in Italia il “documento informatico” e la “firma digitale”, fin dal 1997, sono entrati a far parte del nostro ordinamento giuridico, equiparati in tutto e per tutto al documento cartaceo. Il reale ostacolo da superare in questa nostra società “cablata”, infatti, è costituito dalla intrinseca mancanza di sicurezza nelle reti di telecomunicazione, che si riflette in una incertezza sull’identità dei corrispondenti e, conseguentemente, sull’autenticità
Ringraziamenti
Italia; circa 1935 Strumento portatile, simile ad un regolo calcolatore, permette di crittografare un testo per sostituzione monoalfabetica semplice. Il primo cifrario organizzato di cui si abbia precisa notizia storica è quello attribuito a Giulio Cesare. Molto semplicemente consiste nel sostituire ogni lettera del testo chiaro con quella che, nell’alfabeto, la segue (o la precede) di un numero convenuto di posti. Alla luce delle conoscenze di un nostro contemporaneo appassionato di cruciverba si tratta di una tecnica rudimentale, tuttavia in un epoca di scarsa alfabetizzazione quale quella di Cesare è verosimile pensare che questo stratagemma abbia raggiunto il suo scopo. Una ulteriore complicazione di questo tipo di cifrario è quello di impiegare, come nell’apparato a suo tempo esposto, un alfabeto cifrato nel quale l’ordine delle lettere non rispetti quello usuale. Il punto debole resta comunque la stretta correlazione tra l’alfabeto chiaro e l’alfabeto cifrato; essendo quest’ultimo unico (sia che lo si utilizzi nella sequenza ordinaria sia in una arbitraria) ad una determinata lettera del chiaro ne corrisponde sempre una ed una sola del cifrato. Dimensioni: circa 30x4x0,7 cm. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, collezione “Cremona”, Colleferro, Roma. CIFRARIO (DISCO CIFRANTE)
Italia; XVI sec. Strumento portatile che permette di crittografare un testo per sostituzione polialfabetica; è costituito da due dischi metallici coassiali con incisa una serie concentrica di alfabeti ed un indice di riferimento mobile. Il disco cifrante è la prima macchina per cifrare della quale si abbia notizia e la sua invenzione viene attribuita all’architetto e umanista italiano Leon Battista Alberti. Pur essendo un dispositivo molto semplice facilitò in modo significativo la produzione di testi cifrati rimanendo in uso fino al XIX secolo. L’esemplare esposto è una versione più complessa e potenzialmente più sicura dello strumento utilizzato dall’Alberti. Dimensioni: diametro del disco esterno circa 10 cm. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Istituto e Museo di Storia della Scienza, Firenze. MACCHINA CRITTOGRAFICA ENIGMA
Germania; 1937; varie Aziende Sicuramente l’apparato crittografico più famoso al mondo, conosciuto anche dai non addetti ai lavori grazie ai libri e ai film prodotti sfruttando gli aspetti più avventurosi dell’attivi-
Debbo uno speciale ringraziamento al Dott. Filippo Sinagra che, con grande entusiasmo, ha messo a mia disposizione le sue profonde conoscenze in campo crittografico, offrendomi un sostanziale aiuto per chiarire alcuni degli aspetti più complessi di questo affascinante mondo. 58
59
Telescrivente crittografica T Tipo 52e (T52e). Germania; 1944; Siemens. Per cortesia di: Siemens AG SiemensForum, Münich, Deutschland. Foto di: C. Porcheddu.
il disco ha compiuto un’intera rotazione, quello immediatamente di fianco avanza di un passo ed il ciclo riprende. In pratica la macchina così concepita modifica il suo cifrario ad ogni carattere e non riapplica la medesima trasformazione se non dopo un numero di caratteri che è dipendente dal numero di dischi impiegati e dal numero di passi di ogni disco. I rotori possono essere intercambiati tra loro oppure sostituiti con altri aventi differente cablaggio interno; per aumentare il grado di complessità della cifratura, e diminuire conseguentemente la possibilità di decrittazione dei messaggi, in ogni disco, la reciproca posizione delle due parti coassiali che lo costituiscono può essere variata; ciò modifica la struttura delle connessioni interne determinando una conseguente modifica della cifratura propria del disco. Coassialmente ai rotori è inserito un quarto disco “riflettore” (di tipo beta o di tipo gamma), non ruotante e non visibile ad apparato operativo, che consente di utilizzare i contatti dei tre rotori cifranti anche in un percorso di “ritorno” diverso da quello di “andata”; in alcuni modelli i riflettori beta e gamma vennero sostituiti da un altro tipo di riflettore ruotabile manualmente in fase di settaggio della macchina. Alcuni dischi in dotazione alla Marina militare tedesca vennero modificati inserendo due “denti di arresto”. Ad altri tipi si aggiunse un “pannello perturbatore” che inseriva una serie di sostituzioni monoalfabetiche fisse ed indipendenti dai rotori utilizzati, in altri modelli di ENIGMA venne aumentato il numero di rotori realmente cifranti (fino a 4 nei modelli in dotazione all’Abwher, il servizio segreto militare tedesco), e si previde la possibilità di impiego di un ulteriore accessorio di sopracifratura denominato ENIGMA- UHR da connettersi al pannello perturbatore (vedi più oltre). La definizione della chiave di cifratura inizia con la scelta di quali rotori debbano essere impiegati, di quale reciproca posizione debbano assumere coassialmente l’uno rispetto all’altro, di quale posizione debbano assumere, tra loro, le due parti coassiali di ogni rotore e, per ultimo, quale posizione della circonferenza di ogni disco (evidenziato da 26 lettere o coppie di numeri) debba coincidere con la linea di riferimento posta all’esterno del contenitore; le ulteriori possibilità prima elencate non fanno che aumentare il grado della complessità di questo meccanismo base. L’apparato ENIGMA permette anche la decifratura dei messaggi cifrati che vengono composti utilizzando la tastiera e sono letti, in chiaro, attraverso la sequenza di lette-
Macchina crittografica Enigma. Germania; 1937; varie Aziende. Particolare del “pacchetto” dei rotori estratto dalla macchina. Per cortesia di: F. Cremona, Collezione “Cremona”, Colleferro, Roma. Foto di: C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
tà di spionaggio durante la seconda guerra mondiale. Il ruolo centrale dell’impiego di ENIGMA (e dei tentativi, alleati, di forzarne la cifratura con il progetto ULTRA) per gli esiti finali della seconda guerra mondiale sono stati solo recentemente messi completamente in luce rendendo di pubblico dominio i documenti riservati ancora esistenti ed autorizzando i superstiti protagonisti a raccontare liberamente le loro esperienze. Negli anni a cavallo della prima guerra mondiale alcuni progettisti, l’uno indipendentemente dall’altro, si impegnarono nella costruzione di una macchina che liberasse l’operatore da lunghe e complesse (e potenzialmente errate) operazioni di cifratura con “carta e matita”; da questi sforzi nacquero anche alcuni progetti accomunati dall’uso di “rotori scambiatori”, tra i quali ricordiamo quelli dell’americano Edward Hugh Hebern del 1917, del tedesco Arthur Scherbius del 1918, dell’olandese Hugo Alexander Koch, del 1919, dello svedese Arvid Gerhard Damm del 1919. Tali realizzazioni non ebbero immediato successo tanto che per alcuni di essi si trasformarono in un fallimento commerciale. Solamente dopo alcuni anni, in Germania, durante il faticoso periodo di ricostruzione della nazione seguito alla disfatta della prima guerra mondiale, i vertici militari si convinsero dell’importanza strategica dell’intercettazione e della crittanalisi delle comunicazioni nemiche e ritennero quindi necessario dotarsi di apparati che automatizzassero e proteggessero in modo adeguato le proprie comunicazioni. Nel frattempo Scherbius aveva fondato (1923) la “Chiffriermaschinen Aktiengesellschaft” mettendo in produzione una macchina crittografica, basata appunto sull’impiego dei rotori scambiatori, denominata ENIGMA che, dopo una serie di verifiche, venne ritenuta la migliore soluzione al problema della riservatezza delle comunicazioni e, dal 1926, distribuita, in versione modificata, alle forze armate tedesche. La macchina ENIGMA è uno dei molti esempi di “macchina a rotori”, una classe di apparati che per decenni ha dominato la scena crittografica mondiale. La struttura, relativamente semplice, si basa appunto su di una serie di “rotori” (cinque tipi diversi, identificati da cifre romane), dischi di spessore discreto, coassiali ed affiancati l’uno all’altro; ciascun rotore è dotato di contatti elettrici (26, quante le lettere dell’alfabeto) su entrambi i lati; nello stesso disco il contatto di un lato è connesso a quello dell’altro lato in maniera non sequenziale costituendo la cifratura propria del disco. L’impulso elettrico generato dalla composizione della lettera da cifrare (composta attraverso una tastiera simile a quella di una macchina per scrivere) passa attraverso la serie di contatti di vari dischi (in numero variabile nei diversi modelli) emergendo in corrispondenza di una lettera completamente diversa, evidenziata dall’accensione di una lampadina, che ne costituisce la cifratura. I dischi possono ruotare, attorno al proprio asse, a passi discreti, e sono collegati l’uno all’altro da un meccanismo simile a quello dei contachilometri meccanici delle auto, grazie al quale, non appena viene premuto un qualsiasi tasto della tastiera, il primo disco, a destra di chi scrive, ruota di una frazione di giro (1/26, quanti i contatti dei dischi) modificando la struttura cifrante della macchina, permettendo, in pratica, di applicare al successivo carattere una trasformazione diversa, pseudo-casuale, e che dipende dal settaggio iniziale. Quando
Macchina crittografica Nema. Svizzera; 1947; Zellweger AG. Per cortesia di: F. Sinagra, Mestre, Venezia. Foto di: C. Porcheddu.
re illuminate. L’esemplare a suo tempo esposto, privo della cassetta per il trasporto, è un modello a tre rotori e riflettore ruotabile manualmente in fase di settaggio. Dimensioni: circa 26x28x11 cm (variabili tra i diversi modelli). Peso: circa 8 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, collezione “Cremona”, Colleferro, Roma.
e voluzione delle c omunicazioni: la s toria
MACCHINA CRITTOGRAFICA ENIGMA
Germania; 1937; varie Aziende Apparato crittografico simile a quello descritto nella precedente scheda, si tratta di un modello K caratterizzato dall’avere tre rotori, riflettore fisso e pannello permutatore. Dimensioni: circa 26x28x11 cm (variabili tra i diversi modelli). Peso: circa 8 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Deutsches Museum, Münich, Deutschland (v. p. 58). MACCHINA CRITTOGRAFICA ENIGMA
Germania; 1940; varie Aziende Apparato crittografico simile a quello descritto nella precedente scheda, caratterizzato dall’avere quattro veri rotori cifranti e ruotanti con movimento realmente odometro, oltre al disco riflettore di tipo non settabile. Si tratta di un modello in dotazione all’Abwher, il servizio segreto militare tedesco. Dimensioni: circa 26x28x11 cm. Peso: circa 8 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da un Collezionista che desidera mantenere l’anonimato. ACCESSORIO DI SOPRACIFRATURA ENIGMA-HUR
Germania; circa 1944; varie Aziende Si tratta di un accessorio che permette di sopracifrare (di inserire cioè una ulteriore cifratura) un testo cifrato da ENIGMA. Il principio di funzionamento è il medesimo del pannello perturbatore presente in alcuni modelli: una serie di connessioni elettriche, fisicamente dei ponticelli di filo metallico, che si inseriscono nel circuito di cifratura determinando una permutazione fissa di solo alcune delle lettere cifrate (impiegando il pannello perturbatore le connessioni utilizzate vengono definite in sede di settaggio della macchina). L’accessorio ENIGMA-HUR, una volta connesso al pannello perturbatore, consente di variare questo tipo di sopracifratura, in maniera molto semplice e veloce (ogni ora, Hur in tedesco), ruotando una manopola di comando, diminuendo i tempi di modifica ed i possibili errori nel posizionamento delle connessioni. Prodotto in piccole serie negli ultimi mesi di guerra, sembra abbia avuto uno scarso impiego. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da un Collezionista che desidera mantenere l’anonimato. MACCHINA CRITTOGRAFICA ENIGMA
Svizzera; circa 1940; varie Aziende Apparato crittografico portatile in dotazione al corpo diplomatico e alle forze armate elvetiche, tra la fine degli anni ‘30
e il termine della seconda guerra mondiale, fornito, in poche centinaia di unità, dalla Germania. Si tratta, fondamentalmente, di versioni civili di ENIGMA, modelli D e K. Sospettando, con giusta ragione, che tali apparati non garantissero sufficiente sicurezza, il governo svizzero provvide a modificare il cablaggio interno dei rotori e dei riflettori. Esternamente questi modelli si differenziano, oltre che per particolari secondari, per la presenza di un pannello ripetitore a lampadine, collegato all’unità principale tramite un cavo, che permette la trascrizione del testo ad un secondo operatore. Questi apparati vennero sostituiti, nel 1947, dalla macchina crittografica NEMA (vedi scheda relativa), rimanendo peraltro in uso per traffico a basso livello di segretezza fino al 1990. Dimensioni: circa 26x28x11 cm (variabili tra i diversi modelli). Peso: circa 8 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: R. Gianni, Vimercate, Milano. MACCHINA CRITTOGRAFICA MOD. M- 209 (CSP 1500, C-48, C-38m, C-38M)
USA; anni ‘40; Hagelin Il più diffuso apparato crittografico portatile, completamente meccanico, a funzionamento manuale con la possibilità di stampa (su “zona” telegrafica) del messaggio, destinato alla cifratura e decifratura di messaggi a basso livello di segretezza, tipicamente per un impiego tattico dove la finalità è di mantenere la riservatezza delle informazioni per brevi lassi di tempo (al limite per poche ore). Progettato dall’inventore ed industriale svedese Boris Hagelin (1892-1983) nella seconda metà degli anni ‘30, dopo un adeguamento costruttivo all’impiego militare, venne prodotto per le forze armate degli Stati Uniti d’America ed impiegato in modo massiccio durante l’invasione dell’Africa nel Novembre del 1942 rimanendo in produzione fino alla fine degli anni ‘60. Si tratta di un’apparecchiatura prodotta in grandi quantità (circa 140.000 esemplari durante la seconda guerra mondiale) molto apprezzata dalle truppe USA per le dimensioni contenute, la leggerezza, la robustezza e la relativa semplicità d’impiego. Se ne conoscono due versioni denominate M-209, destinata all’Esercito, e CSP-1500, destinata alla Marina, che differiscono tra loro per aspetti secondari. La stessa apparecchiatura, con alcune modifiche e diverse denominazioni, venne impiegata, durante lo stesso arco temporale, anche da altre nazioni quali Italia (Marina militare), Francia, Germania anche se in quantitativi molto limitati rispetto alla produzione nord americana. Crittograficamente il principio di funzionamento è il medesimo degli apparati ENIGMA, salvo che le connessioni elettriche sono sostituite con dispositivi meccanici permettendo di rendere l’apparecchio più compatto, leggero e meno soggetto ad avarie. La relativa semplificazione della struttura se da un lato ne ha permesso la produzione in grande serie dall’altro ha dimi-
60
MACCHINA CRITTOGRAFICA O.M.I. - NISTRI
Italia; circa 1939; O.M.I. Apparato crittografico che viene considerato la risposta italiana all’ENIGMA, con la quale condivide l’impiego dei rotori di cifratura; se ne differenzia, oltre che per l’aspetto esterno, per il peso piuttosto rilevante, l’alimentazione da rete e in corrente continua, una maggiore complessità costruttiva dei rotori. Consente la stampa del testo su nastro di carta accellerando le procedure di cifratura, decifratura e di verifica del testo. Per rendere più agevole la battitura dei testi, un motore elettrico provvede ai movimenti dei meccanismi. Il grave limite di questo apparecchio era nei contatti elettrici, striscianti, tra i rotori: nel tempo, l’usura e l’accumulo di sporcizia determinavano dei falsi contatti pregiudicando fortemente l’affidabilità dell’apparato; giova comunque ricordare che lo stesso problema, anche se in misura limitata, si riscontra in tutte le apparecchiature con lo stesso principio di funzionamento. Impiegata dalle forze armate italiane in maniera occasionale e discontinua, la sua cifratura venne forzata dall’Intelligence britannica nel Febbraio 1940. Venne definitivamente posta fuori servizio nel Settembre 1941, rimanendo disponibile per il mercato civile per qualche decennio. Dimensioni: sola macchina 37 x 42 x 17 cm, valigia di trasporto 43 x 48 x 23 cm. Pesi: sola macchina circa 20 Kg, con valigia ed accessori circa 27 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, collezione “Cremona”, Colleferro, Roma.
MACCHINA CRITTOGRAFICA NEMA
Svizzera; 1947; Zellweger AG Apparato crittografico portatile progettato per sostituire gli apparati ENIGMA in dotazione al governo svizzero (vedi scheda relativa) che non garantivano la sicurezza richiesta. La progettazione di questa nuova macchina (il nome NEMA è l’acronimo delle parole NEue MAschine) iniziò nel 1942 ed i primi due modelli funzionanti vennero sottoposti per le valutazioni tecniche nel 1945. La produzione di serie e l’assegnazione ai reparti si ebbe a partire dal 1947; si ritiene, in questi settori il condizionale è d’obbligo, che siano state prodotti, tra versioni operative e per addestramento, poco meno di un migliaio di esemplari. L’apparato NEMA, conosciuto anche come “tipo T-D” (da Tasten-Drücker-Maschine), venne ritenuto tecnologicamente obsoleto e quindi declassificato nel 1992. L’aspetto esterno e le caratteristiche costruttive sono simili a quelle degli apparati ENIGMA tanto da esserne considerato, a torto, la versione post-bellica. La cifratura è ottenuta con il sistema di sostituzione polialfabetica attraverso l’uso di una serie di ruote e corone intercambiabili e a più denti di arresto. Il testo in chiaro da crittare o il testo in cifra da decrittare viene composto, lettera per lettera, sulla tastiera dell’apparato; il testo cifrato o decifrato viene prodotto, come negli apparati ENIGMA, lettera per lettera, attraverso l’illuminazione di un pannello a lampadine; utilizzando un connettore multipolare posto sul fianco sinistro della macchina è possibile impiegare o un “pannello a lampadine complementare” (in dotazione) che permette la trascrizione del testo ad un secondo operatore oppure comandare direttamente una macchina per scrivere elettrica, un apparato telescrivente, un perforatore Creed o un trasmettitore Hell. Dimensioni: circa 33x38x15 cm. Peso: circa 11 Kg, compreso gli accessori. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Filippo Sinagra, Mestre, Venezia.
e voluzione delle c omunicazioni: la s toria
nuito la resistenza del testo cifrato ad un possibile tentativo di forzatura destinando, quindi, l’apparecchiatura ad un impiego esclusivamente tattico. Velocità operativa: circa 30 caratteri per minuto. Dimensioni: circa 9x19x12 cm. Peso: circa 3 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Francesco Cremona, collezione “Cremona”, Colleferro, Roma.
MACCHINA CRITTOGRAFICA CX-52-M TELESCRIVENTE CRITTOGRAFICA T Tipo 52e (T52e)
Germania; 1944; Siemens Telescrivente crittografica “on line” prodotta dalla Siemens a partire dal 1932 (tipo 52a) fino al 1944-45 (tipo 52e), venne destinata alla trasmissione di messaggi tra alti comandi militari. Conosciuta dagli Alleati col nome in codice di “sturgeon”, storione. Molti esemplari, sopravvissuti agli eventi bellici (specialmente del tipo 52e), vennero revisionati e utilizzati per molti anni a seguire e considerati ancora “classificati” (cioè coperti da segreto) nella seconda metà degli anni ’80. Si tratta di un’apparecchiatura on-line, il testo in chiaro viene composto su di una normale tastiera dattilografica, automaticamente cifrato e trasmesso su di una tradizionale linea telegrafica/telefonica; solo raramente vennero impiegati in connessione con apparati radio a causa dei disturbi introdotti nella trasmissione. Crittograficamente sfrutta lo stesso principio di funzionamento delle macchine a rotori quali l’ENIGMA, ma ad un maggiore livello di complessità. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Siemens AG – SiemensForum, Münich, Deutschland.
61
Svizzera; 1950; Hagelin Apparato crittografico portatile, a funzionamento meccanico, di struttura molto compatta e robusta, può essere impiegato sia per il ciframento che per il deciframento. L’apparato è fornito di un meccanismo che stampa contemporaneamente il testo primario e quello secondario (Primario: il testo in chiaro quando si cifra, il cifrato quando si decifra. Secondario: il testo cifrato quando si cifra, il testo chiaro quando si decifra) sullo stesso nastro di carta per favorire il controllo dell’operazione di cifratura o decifratura. Di impiego relativamente semplice possiede una serie di dispositivi che favoriscono il corretto funzionamento dell’apparecchiatura. I cifrati prodotti da
Unità criptante mod. TSEC/KW-7. USA; circa 1960; N.S.A. Per cortesia di: Traditionsverein Fernmelde/Elektronische Aufklärung Luftwaffe e. V., Trier, Deutschland. Foto di: C. Porcheddu.
e voluzione delle c omunicazioni: la s toria
questa macchina sono, dal punto di vista crittologico, di elevatissimo livello. Velocità operativa: dalle 30 alle 60 lettere al minuto (a seconda dell’abilità dell’operatore). Dimensioni: circa 21x13x11 cm. Peso: circa 4 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Filippo Sinagra, Mestre, Venezia. MODULO AGGIUNTIVO TASTIERA DATTILOGRAFICA MOD. B-52 (B-621), PER MACCHINA CRITTOGRAFICA MOD. CX-52-M
Svizzera; anni ‘50; Hagelin Il progetto della macchina crittografica CX-52-M è tale che può essere trasformata in una macchina elettrica dattilografica comandata da una tastiera a mezzo della unità elettrica addizionale B-52 (oppure B-621) e che comprende la tastiera ed il meccanismo di settaggio (con pannello perturbatore) e guida. Quando si richiede alla macchina di operare elettricamente, viene rimosso il coperchio del contenitore della CX-52-M, e la macchina è inserita e fissata nella base del modulo aggiuntivo B-52. Con questa costruzione si ha il vantaggio di poter impiegare la stessa macchina indifferentemente nella versione a funzionamento manuale oppure elettrico. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Marco Moretti, Pesaro. MACCHINA CRITTOGRAFICA CX-52-OPT (OTT)
Svizzera; 1952; Hagelin Apparato crittografico portatile, a funzionamento meccanico, di struttura molto compatta e robusta, versione modificata e migliorata del modello CX-52, reso crittograficamente più sicuro, meccanicamente più semplice ed economico, attraverso l’eliminazione dei rotori (ruote-chiavi), sostituiti con un’unica chiave formata da un nastro preforato da telescrivente tipo Baudot (a 5 fori) utilizzabile solo una volta, recante la chiave aleatoria da rinnovarsi periodicamente, che avanza ad ogni lettera. Il mancato inserimento del nastro blocca tutto il meccanismo così da rendere impossibile il funzionamento della macchina. Questa macchina, costruita in piccole serie, è denominata OTT (One Time Tape) od anche OTK (One Time Key). L’impiego di un nastro perforato “usa e getta”, identico per ogni apparecchiatura che fa parte della stessa rete di comunicazione, ne costituisce contemporaneamente il punto di forza, ma anche l’anello debole; infatti all’esaurimento di un nastro perforato è necessario provvedere all’invio ad ogni corrispondente di una nuova copia di nastro utilizzando un corriere fidato; l’intercettazione un unico nastro rende completamente inaffidabile tutta la rete di comunicazione. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Filippo Sinagra, Mestre, Venezia.
logare”. In un limitatissimo numero di esemplari è stata prodotta una versione particolare, denominata modello CD-55 LUX di colore bianco e con bordature dorate, per la Santa Sede. L’apparecchio è stato, in un momento successivo, modificato (mod. CD-57 RT/CD) per aumentarne il livello di sicurezza, similmente all’apparato CX-52 OTP, utilizzando un nastro preforato con funzione di chiave di cifratura. L’apparato è rimasto in produzione fino al 1974. Velocità operativa: tra i trenta e i quaranta caratteri al minuto. Dimensioni: circa 13x8x4 cm. Peso circa 680 g. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Filippo Sinagra, Mestre, Venezia. UNITÀ CRIPTANTE TSEC/KW-7
USA; circa 1960; N.S.A. Sistema criptante, conosciuto col nome in codice di “Orestes”, largamente impiegato, sia a livello tattico sia a livello strategico, dall’esercito USA e dalle truppe della NATO fino alla fine degli anni ’70; costo, all’inizio della produzione, circa 4.500 $. Si tratta di un apparato “on line”, completamente transistorizzato, destinato a crittare le informazioni trasmesse attraverso apparati telescriventi sia su linee telegrafiche/telefoniche sia via radio. Composto da due sub-unità principali, l’apparato ricetrasmittente (KWX-10/TSEC) e l’unità di cifratura (KWK-7/TSEC). Tipo di funzionamento: sincrono e asincrono. Velocità di trasmissione: 60-67-100 Baud. Dimensioni: circa 60x50x50 cm. Peso: circa 40 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e.V., Trier, Deutschland. MACCHINA CRITTOGRAFICA ELETTRONICA HC-520
Svizzera; seconda metà anni ‘70; Crypto AG Una delle prime macchine crittografiche elettroniche portatili; di dimensioni molto contenute, nell’aspetto esterno ricorda una macchina calcolatrice dell’epoca. Caratteristiche tecniche: tastiera con 26 caratteri alfabetici, 10 caratteri numerici, 14 caratteri speciali, 11 tasti di comando. Display a LCD (cristalli liquidi) delle dimensioni di 6x13 cm che permette la visualizzazione di 10 caratteri per il testo e 1 carattere per la situazione interna di servizio. Memoria: 600 caratteri per entrata di testo. Chiavi: chiave base e chiave di messaggio. Chiave base: 1,4x1014 possibilità. Chiave di messaggio: 1,4x1014 possibilità. Periodicità: circa 1053 passi. Temperatura di servizio: da 0 a +50°C. Alimentazione con batterie o carica batterie da rete (100-240 V). Dimensioni: circa 10x25x4 cm. Peso: circa 900g. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Crypto AG, Zug, Suisse.
MACCHINA CRITTOGRAFICA STG-61 (Crypto AG mod. CD-57)
Germania; 1960; Hagelin (su licenza) Apparato crittografico meccanico palmare, dalle dimensioni simili a quelle di un pacchetto di sigarette. Il modello STG-61 è la versione tedesca del modello CD-57 prodotto dall’elvetica Crypto AG. Privo del sistema di scrittura per mantenere le ridotte dimensioni, l’operatore doveva quindi ricopiare lettera per lettera il testo. Le caratteristiche crittografiche sono comparabili a quelle dell’apparato CX-52 con la quale può “dia-
TELESCRIVENTE CRITTOGRAFICA MOD. Mi 5543
Germania; seconda metà anni ‘50; Standard Elektrik Lorenz Telescrivente crittografica con funzionamento “on line”. Per la cifratura impiega un nastro pre-perforato tipo Baudot, da usarsi una sola volta, che reca la chiave aleatoria. Il testo cifrato si ottiene dalla distorsione che la chiave aleatoria produce sul messaggio in chiaro; solo chi è in possesso di un identico nastro pre-perforato può risalire al testo in chiaro elimi-
62
nando, per sottrazione, la distorsione. Dimensioni:60x90x70 cm. Peso: circa 50 Kg. L’esemplare esposto durante la mostra è stato cortesemente messo a disposizione da: Traditionsverein Fernmelde-/Elektronische Aufklärung Luftwaffe e.V., Trier, Deutschland. MACCHINA STENOTIPICA “MICHELA” Italia; circa 1976; Micromegas Apparato elettronico a tastiera che permette la composizione di un testo scritto attraverso l’impiego della Stenotipia (un neologismo che deriva dal greco Stenós, stretto, scarso, poco; e da Tupos, carattere, colpo, battuta) una tecnica di scrittura che può essere considerata l’evoluzione in forma meccanizzata della più tradizionale Stenografia. Per un migliore inquadramento della disciplina ritengo sia necessario fornire una breve premessa sul vasto mondo delle scritture veloci. La stenografia (sempre dal greco Stenós e da Grafé, scrittura) può essere definita come una abbreviazione scientifica della scrittura, che permette, attraverso l’adozione di regole, di fissare, più rapidamente della scrittura ordinaria, il pensiero, proprio o di altri, garantendone al contempo, una uguale sicurezza e federlà di riproduzione. Lo sviluppo e l’impiego della stenografia sono strettamente intrecciati a quelli della scrittura ordinaria. La carenza dei supporti di scrittura e la necessità di fermare momenti altrimenti irripetibili (citiamo, solo come esempio, i discorsi dei grandi oratori) hanno fatto sì che, specialmente in epoca classica e medioevale, il saper leggere e scrivere si accompagnassero, usualmente, alla conoscenza della stenografia; le due discipline hanno cominciato ad evolversi su percorsi diversi dopo l’avvento della stampa a caratteri mobili. L’aspetto misterioso delle abbreviazioni, la necessità di comunicare salvaguardando la riservatezza del messaggio fecero sì che, specialmente in epoca medioevale e rinascimentale, la stenografia sconfinasse nelle scritture segrete e che con queste venisse, per lungo tempo, confusa; con la formazione delle lingue nazionali e di un diverso clima culturale si crearono i primi sistemi stenografici moderni (secoli XVI e XVII), i quali, staccandosi sempre più dall’empirismo e dall’arbitrio individuali, diedero luogo a nuove e più razionali riduzioni grafiche. Moltissimi autori, in tutte le nazioni, hanno partecipato alla elaborazione di questi nuovi indirizzi, cercando di raggiungere un ideale metodo che coniugasse velocità di scrittura con facile leggibilità, razionalità strutturale, facilità di apprendimento ed estetica grafica. Tale pluralità di proposte può, semplificando, essere ricondotta a tre tendenze principali: i Sistemi Geometrici, nei quali i segni possono essere tratti da figure geometriche; i Sistemi Corsivi derivati dalla scrittura comune conservandone la struttura fondamentale; i Sistemi Misti nei quali vengono impiegati segni comuni ai due precedenti sistemi. Nei primi anni del XIX secolo, come conseguenza dello sviluppo raggiunto dalla disciplina, e come riflesso nel campo della scrittura delle ricorrenti invenzioni meccaniche, comparvero le prime macchine dirette a fissare auto-
63
maticamente le parole velocemente pronunciate, contribuendo alla nascita della stenografia meccanica o, con un termine più attuale, stenotipia. Tali apparecchiature per il loro ingombro e per alcuni loro limiti intrinseci trovarono impiego specialmente negli Stati Uniti d’America, e quasi esclusivamente in ambienti particolari quali le aule dei tribunali; in Italia le macchine per stenotipia, dalla fine del XIX secolo, ebbero impiego esclusivamente per la resocontazione degli atti parlamentari. In questi ultimi anni, lo sviluppo dell’elettronica e dell’informatica hanno dato impulso a una nuova generazione di macchine per stenotipia, di uso più affidabile e che consentono sia la stampa in caratteri stenografici, sia la trasposizione diretta su computer e la trascrizione automatica in carattere comune. Per quanto riguarda la situazione italiana, oltre che nel Parlamento, la stenotipia è stata recentemente accettata dal legislatore come mezzo per la resocontazione giudiziaria trovando inoltre diffusione anche nelle Amministrazioni locali, e in tutte quelle situazioni nelle quali sia necessario disporre di un resoconto fedele di un intervento o di una discussione. Tra i vari sistemi italiani di stenotipia proposti degno di nota per la sua diffusione è il sistema “Michela” che trae la sua origine dagli studi fonografici del professor Antonio Michela Zucco (1815-1886) il quale, dopo aver classificato gli elementi fonici occorrenti alla formazione di tutte le sillabe, diede ad ognuno di essi una espressione grafica, un simbolo e un valore numerico. Nel 1863 egli illustrò per la prima volta a Milano presso un Congresso pedagogico, un sistema di stenografia “a processo sillabico istantaneo ad uso universale, mediante piccolo e portatile apparecchio a tastiera”, che nelle sue intenzioni era destinato ai ciechi; tale metodo parte dallo studio dell’apparato vocale umano e cataloga tutti i suoni (fonemi) che questo può produrre stabilendo la corrispondenza con altrettanti grafemi. In tal modo è possibile trascrivere il parlato di qualunque lingua e ripeterlo fedelmente, pur senza capirne il significato. Uno degli allievi del professor Michela Zucco, suo nipote Giovanni, presentò la nuova macchina alla Camera dei Deputati e al Senato del Regno, il quale ultimo la adottò ufficialmente per la redazione dei resoconti stenografici nel dicembre 1880. L’apparecchiatura venne, in seguito, presentata anche alla Esposizione Universale di Parigi nel 1890. Il sistema Michela (macchina più metodo) ha rivelato notevoli pregi soprattutto in fatto di velocità; tuttavia, in ambito italiano, il suo impiego è rimasto confinato all’impiego parlamentare. L’apparecchiatura presentata in figura (v. in alto) è particolarmente significativa perché, primo esempio italiano, segna il passaggio alle versioni computerizzate. Si tratta di un modello di transizione, progettato dalla Micromegas nella seconda metà degli anni ‘70, nel quale accanto alla struttura tradizionale della tastiera elettromeccanica venne affiancato un sistema elettronico che permetteva di trasferire le informazioni ad un computer dedicato (mod. Ulisse 32). La macchina esposta venne impiegata dalla Amministrazione Provinciale di Torino all’inizio degli anni ‘80: primo Ente italiano, dopo il Senato, a fare uso della stenotipia per la verbalizzazione delle attività Consigliari. Dimensioni: 38x38x12 cm circa. Peso: 10 Kg circa. L’esemplare esposto è stato cortesemente messo a disposizione da: Koinè Sistemi s.r.l., Torino.
e voluzione delle c omunicazioni: la s toria
Macchina stenotipica modello Michela. Italia; fine anni ‘70; Micromegas. Per cortesia di: Koinè Sistemi, Torino, grazie alla disponibilità del Dott. A. Camellini. Foto di: C. Porcheddu.
T. Numerico
claude shannon e la teoria dell’informazione
e voluzione delle c omunicazioni: la s toria
INTRODUZIONE
Schema 1.
La definizione di informazione come un concetto scientificamente e matematicamente determinato è fondamentale per la costruzione del modello teorico sul quale si basa l’informatica. Tale concetto ha avuto un ruolo importante nella nascita stessa dei computer; anche se le ricostruzioni della storia dei calcolatori elettronici – spesso fondate sulle descrizioni dell’ hardware – non sempre hanno reso giustizia al ruolo teorico svolto dalla teoria dell’informazione. Questo contributo si propone di descrivere l’origine del concetto ad opera di Claude Shannon. La nozione di informazione è il prodotto di una felice interazione di discipline lontane tra loro1 e per questo è stato difficile coglierne fino in fondo le potenzialità e i frutti. Ecco una breve descrizione dei settori che hanno contribuito alla sua formazione. • La termodinamica e la meccanica statistica, con gli studi sulla definizione matematica del concetto di entropia di Ludwig Boltzmann e Leo Szilard. • La nascita del controllo e della comunicazione come una branca dell’ingegneria elettrica; risultato dell’invenzione dei mezzi di comunicazione come il telegrafo, la radio e la televisione. • Gli studi sulla fisiologia e il sistema nervoso iniziati nell’800 con il lavoro di Hermann von Helmholtz e Claude Bernard e proseguiti nel XX secolo con il lavoro di Walter Cannon sui meccanismi di regolazione interna degli organismi viventi; tali ricerche si saldarono nella prima metà del ‘900 con la cibernetica, la disciplina che si poneva come obietti-
vo lo studio di tutti i meccanismi a retroazione (feedback) naturali, meccanici o artificiali. • Lo sviluppo negli anni ’30 del ‘900 della teoria della computabilità in logica matematica che doveva avere un ruolo centrale nella definizione dei limiti teorici delle macchine elettroniche. La definizione di informazione fu l’effetto di uno studio integrato favorito dall’accelerazione delle ricerche e degli scambi degli scienziati durante la II Guerra Mondiale e nell’immediato dopoguerra. La caratterizzazione matematica del concetto maturò, però, nel contesto della trasmissione telegrafica e via radio. Shannon sviluppò la sua teoria dell’informazione lavorando ai Bell Labs dell’AT&T e quindi si concentrò sull’aspetto della trasmissione dati su un canale. È molto importante chiarire il riferimento teorico-pratico di Shannon, considerato che la sua teoria è stata poi usata per modellare qualsiasi forma di comunicazione – perfino quella umana. Lo studioso Walter Ong a proposito del modello postale di comunicazione dice: “Questo modello, come è ovvio, ha qualcosa a che vedere con la comunicazione umana ma, se lo si esamina attentamente, ciò è ben poco, esso inoltre distorce grandemente l’atto della comunicazione.”2 L’interpretazione troppo generale della teoria di Shannon è stata favorita dal modo in cui i risultati sono stati presentati dal suo collaboratore, Warren Weaver. Nell’introduzione al libro sulla teoria matematica della comunicazione pubblicato un anno dopo l’uscita dell’articolo (1949),3 Weaver definisce il campo di applicazione della teoria affermando che: “la parola comunicazione sarà usata qui
LE DISCIPLINE CONNESSE CON L’INFORMAZIONE Rappresentazione dell’informazione Teoria dei linguaggi Semeiotica
Biologia Molecolare Genetica Psicologia
Teoria della comunicazione
Trasmissione delle informazioni Ingegneria delle comunicazioni
Fisica (Termodinamica, Meccanica quantistica) Informatica Teorica Statistica Economia
Teoria della informazione
Biologia classificatoria Medicina Ingegneria genetica
Elaborazione delle informazioni
64
CLAUDE SHANNON
Il personaggio chiave nella teoria dell’informazione è Claude Elwood Shannon (1916-2001). Laureato in matematica e ingegneria elettrica nel 1936 all’Università del Michigan, per tutta la sua vita tenne fede al suo duplice interesse. Fu poi research assistant al MIT6 dove continuò gli studi per il PhD. Qui fu coinvolto nelle operazioni dell’analizzatore differenziale di Bush, uno dei calcolatori più potenti e importanti in funzione all’epoca, in grado di risolvere equazioni differenziali fino al sesto grado. La sua tesi affrontò e risolse il problema della progettazione di relè e circuiti elettronici utilizzando il parallelismo di questi con la logica booleana. In questo periodo cominciò la sua collaborazione con i Bell Laboratories di New York, dove aveva trascorso un periodo già nell’estate del 1937. Nella primavera del 1940, Shannon ottenne insieme il master in ingegneria elettrica e il PhD. in matematica al MIT. Nell’anno 1940-41 all’IAS7 a Princeton cominciò a lavorare alla teoria dell’informazione e ai sistemi di comunicazione efficienti. Nel 1941 accolse l’invito del direttore del dipartimento di matematica dei Bell Labs, T.C. Fry e si trasferì stabilmente ai Bell Labs per lavorare ai sistemi di controllo delle armi contraeree, dove rimase per 15 anni. Ai Bell incontrò molti matematici e scienziati di primo piano tra i quali: John Pierce, noto per la comunicazione satellitare, Harry Nyquist che aveva notevolmente contribuito alla teoria dei segnali, Hendrik Bode esperto di feedback, gli inventori del transistor: Walter Brattain, William Shockley e John Bardeen, oltre George Stibitz che nel 1938 costruì il primo computer a relè e a molti altri. Nel 1948 pubblicò il famoso articolo “A mathematical Theory of Communication”.8 Nel 1957 divenne professore al MIT, pur restando associato ai Bell Labs fino al 1972. Shannon era un personaggio molto eclettico, e oltre alla teoria dell’informazione, si interessava, fra l’altro, di intelligenza artificiale. Negli anni ’50 costruì, infatti,un mini topo elettronico, chiamato Teseo che si muoveva in un labirinto cercando l’uscita con l’aiuto di un magnete (Vedi foto Shannon_Topo.jpg) e scrisse uno dei primi programmi per giocare a scacchi. Fu in contatto con Alan Turing – uno dei pionieri delle macchine elettroniche a programma memorizzato, oltre che inventore del concetto di Macchina Universale, interessato anche egli all’intelligenza delle macchine.
IL CONCETTO DI INFORMAZIONE SECONDO SHANNON
L’obiettivo di Shannon era la definizione di un modello matematico di informazione che potesse adattarsi a qualsiasi tipo di trasmissione da un punto a un altro. Per ottenere il risultato era necessario trasformare l’informazione in un parametro matematico trattabile in modo assolutamente non ambiguo. Il lavoro di Shannon si inscriveva in una tradizione di ricerca che prima di lui si era concentrata più sugli aspetti pratici della trasmissione dei dati, che sulla definizione di una teoria generale. Egli si dichiarò debitore nei confronti dei suoi predecessori H. Nyquist e R.V. Hartley e li citò9 definendoli la base di partenza della sua teoria. Per isolare il concetto di informazione era necessario compiere un passo fondamentale: separare l’informazione dal significato. Gli aspetti ingegneristici della trasmissione del messaggio erano del tutto svincolati da quelli semantici relativi all’interpretazione del messaggio. Egli quindi si concentrò sull’aspetto formale della comunicazione che era del tutto indipendente dal senso del messaggio da trasferire. Quello che definiva il segnale relativo al messaggio sul canale – il suo principium individuationis – era la sua distinzione da tutti gli altri messaggi potenzialmente trasmissibili sullo stesso canale. Maggiore era la capienza del canale, maggiore era il contenuto informativo trasmesso, perché esso annullava la possibilità di trasmettere su quello stesso canale una quantità più elevata di messaggi equiprobabili e concorrenti. La scelta di un messaggio rispetto agli altri costituisce il suo valore informativo. Dopo aver privato l’informazione di ogni connotato semantico, Shannon si apprestò a definire l’informazione come una variabile fisica misurabile. Egli scrisse: “Se il numero dei messaggi nell’insieme è finito allora questo numero o una qualsiasi funzione monotonica di questo numero può essere considerata una misura dell’informazione prodotta quando un messaggio viene scelto da un insieme di scelte che sono assolutamente equiprobabili.”10
Claude Shannon con il topo elettromeccanico, chiamato Teseo, che fu uno dei primi tentativi di insegnare a una macchina ad apprendere e uno dei primi esperimenti di intelligenza artificiale. Per la fonte delle immagini di questo articolo si veda il testo.
65
e voluzione delle c omunicazioni: la s toria
in un senso molto ampio per includere tutte le procedure attraverso le quali una mente può entrare in relazione con un’altra. Questo include ovviamente non solo la parola scritta e il discorso orale, ma anche musica, le arti della pittura, il teatro, il balletto e qualsiasi comportamento umano. In qualche contesto potrebbe essere anche desiderabile usare una definizione ancora più ampia di comunicazione, letteralmente una che includa anche le procedure attraverso le quali un meccanismo entra in relazione con un altro meccanismo”.4 Nello schema 15 si possono vedere le relazioni di tutte le discipline legate in qualche misura alla teoria dell’informazione e della comunicazione delle informazioni ad essa connessa.
e voluzione delle c omunicazioni: la s toria
IL MODELLO DI COMUNICAZIONE DI RIFERIMENTO
Schema 2.
Vedremo tra poco come si misura l’informazione, ma prima è necessario ricostruire il contesto del modello postale di comunicazione rappresentato nello schema 2 che riproduce quello proposto da Shannon nel 1948.11 Gli elementi del modello sono: • un mittente, fonte del messaggio, • un trasmettitore o codificatore che trasforma il messaggio in un segnale trasmissibile, • un canale di comunicazione, • l’eventuale rumore sul canale che disturba la comunicazione, • un elemento ricevente o decodificatore del segnale, • un destinatario del messaggio. La semplicità del modello lo ha reso famoso, ma se guardiamo alle sue caratteristiche è molto improbabile che esso sia in grado di spiegare correttamente ogni comunicazione. Il modello, infatti, ha le seguenti caratteristiche: • è lineare: non è prevista alcuna interazione tra destinatario e mittente del messaggio al di là della transazione monodirezionale del passaggio di informazione; • il ricevente e il mittente svolgono ruoli assolutamente analoghi, se si esclude l’inversione delle procedure di codificadecodifica del messaggio; • gli unici errori trattabili sono quelli meccanici dovuti a errore nella trasmissione a causa del rumore del canale: a meno di errori sulla linea, la comunicazione ha sempre successo; • non è prevista alcuna rilevanza per l’interpretazione del messaggio, né in quanto foriera di errore, né in quanto centro dell’efficienza ricettiva; • il sistema della trasmissione-ricezione è assolutamente rigido, astratto e atemporale; • nel modello non è rilevante il contesto in cui la comunicazione avviene o le intenzioni del mittente.12 Il paradigma in questione è, invece, perfettamente adatto a rappresentare la struttura ingegneristica delle reti sulle quali
Information Source
venivano e vengono trasportati i dati, da quelle del telegrafo, al telefono, fino ad arrivare alla telefonia mobile e Internet, ai cavi della larga banda oltre ai vari dispositivi di memorizzazione dati come i CD, i DVD – per citare solo i sistemi di trasmissione dati più famosi. PROBABILITÀ, ENTROPIA INFORMATIVA, MISURABILITÀ
Nel modello di Shannon l’informazione viene considerata come una qualsiasi grandezza fisica, alla pari di massa o energia. Il modello adotta il linguaggio binario che consente di avere ad ogni passo solo due possibilità tra le quali scegliere, garantendo la massima semplicità. Nasce in questo contesto la nuova unità di misura il BInary digiT (cifra binaria) o BIT, il più piccolo elemento di codice capace di trasmettere informazione, che tanta fortuna avrà nella scienza dei calcolatori. Shannon fu il primo ad utilizzare l’espressione, anche se la attribuì a J.W. Tukey, un professore del MIT che collaborò anche con i Bell Labs. Come sempre quando si introduce una nuova espressione, essa è il segno che si è alle prese con un nuovo concetto. Come spiega Weaver nella sua introduzione: “l’informazione nella teoria della comunicazione è relativa non tanto a quello che veramente si dice, quanto a quello che potrebbe essere detto”.13 La misura dell’informazione è una funzione della probabilità che un certo messaggio venga prescelto per essere trasmesso sui tanti potenzialmente attivabili. L’informazione è un concetto analogo all’entropia in termodinamica, rappresenta la misura dell’ordine contrapposto al disordine di tutte le possibilità comunicative realizzabili. L’entropia informativa è il contrario dell’entropia termodinamica: quando l’informazione cresce nel sistema, diminuisce il caos e il disordine. In questo senso l’informazione è l’energia necessaria per non far precipitare il sistema nella confusione. L’informazione può crescere in due modi:
Transmitter
Message
Receiver
Signal
Received Signal
Destination
Message
Noise Source
66
• quando le alternative sono tutte perfettamente equiprobabili e c’è, quindi, la massima incertezza informativa; • quando aumenta il numero delle possibili scelte, per esempio aumentando il numero dei simboli utilizzabili nel linguaggio prescelto. L’informazione è maggiore dove c’è maggiore incertezza comunicativa, diminuisce quando l’area di incertezza è minore ed è assolutamente assente quando il messaggio non ha nessuna incertezza ed è completamente vincolato. La misura dell’informazione è definita come: H = – (p1 log2 p1 + ..... + pn log2 pn) H = – ∑ pi log2 pi Dove H è uguale all’Entropia informativa ed è la somma delle probabilità dei logaritmi in base due delle probabilità che si verifichi una certa successione di scelte p1….pn.14 Tale definizione di informazione, pure molto efficace ai fini della costruzione di un modello matematico lascia senza spiegazioni una serie di eventi comunicativi. Per esempio la successione delle cifre di P non hanno nessun valore di comunicazione, è sufficiente comunicare l’algoritmo attraverso il quale calcolarle. Inoltre tutti i teoremi della logica diventano completamente privi di contenuto informativo, una volta comunicate le premesse e le regole di inferenza. Tali obiezioni vengono qui solo accennate per mancanza di spazio. LA CODIFICA DEI MESSAGGI E LA STRUTTURA DEI LINGUAGGI
Per trasmettere il messaggio attraverso il canale di comunicazione è necessaria una procedura di codifica che sia reversibile all’altro capo del canale. Il linguaggio è un processo stocastico, cioè una successione di simboli che si susseguono sulla base del verificarsi di certe probabilità. Ma è uno speciale tipo di processo stocastico, nel quale la probabilità che si verifichino certe successioni dipende in larga misura dagli eventi precedenti. Tale tipo di processo stocastico è detto catena o processo di Marcov o ergodico. Inoltre la distribuzione probabilistica dei simboli non è equiprobabile. Ci sono alcune lettere e gruppi di lettere che sono più frequenti di altri. Per esempio
67
in italiano la “a” è molto più frequente della “z” e il gruppo consonantico “tr” è molto più probabile di “zg”. Sfruttando la caratteristica struttura della probabilità delle lingue e la dipendenza di certi eventi linguistici dagli eventi che li hanno preceduti, è possibile trovare una codifica ottimale per il linguaggio – cioè una codifica che riduca al massimo il numero di simboli necessari e quindi velocizzi la trasmissione. Per esempio per codificare una lingua come l’inglese che prevede 27 simboli di cui uno per lo spazio, sarebbe necessario un codice a 5 bit, ma sfruttando le caratteristiche statistiche della lingua si potrebbe arrivare a usare in media 3,6 bit per lettera. Shannon lavorò molto nel campo della codifica dei linguaggi ora meglio noto come compressione dei dati, e dimostrò che più è efficiente la codifica, maggiore è la complessità e quindi il tempo necessario per definirla ed implementarla nel trasmettitore. Dal punto di vista dell’efficienza pratica dei sistemi di codifica era necessario trovare un equilibrio tra il codice migliore per la trasmissione e il suo tempo di implementazione. IL CANALE DI TRASMISSIONE, IL RUMORE E LA RIDONDANZA
Il linguaggio inoltre ha un’altra caratteristica molto rilevante ai fini della trasmissione: la ridondanza. Anche levando più del 50% dei simboli le espressioni dei linguaggi naturali rimangono comprensibili. La ridondanza linguistica è in contrasto con l’entropia dell’informazione: più un linguaggio è ridondante, meno – a parità di simboli usati – trasmette informazione. Tuttavia Shannon scoprì che questa ridondanza è utile per opporsi al rumore che impedisce la corretta trasmissione dei segnali sul canale. La ridondanza permette una sorta di test sulla trasmissione che consente una maggiore sicurezza del risultato della trasmissione. Un canale di trasmissione, infatti, ha una capacità teorica (C) costituita dalla quantità di segnale trasmissibile dalla fonte al destinatario. L’unità di misura di questa grandezza sono i Bps (Bit per secondo) che sono tuttora usati per misurare la portata di una rete, sia essa una LAN15 o il backbone che congiunge Milano con New York. Supponiamo di essere in assenza totale di rumore sulla rete, la capacità totale di un canale che permette di trasmettere 8 bit 16.000 volte al secondo è teoricamente di 128.000 Bps. Ma se il canale ha un tasso di errore da rumore del 10% rispetto alla trasmissione, allora la reale capacità del canale decresce progressivamente e diventa di 67.840 Bps. Shannon definì con un teorema il livello minimo di insicurezza nella trasmissione, qualsiasi sia la codifica di trasmissione adottata. E questo fu uno dei suoi risultati più rilevanti e più attuali. CONCLUSIONI
Concludendo, gli elementi innovativi e ancora validi della teoria dell’informazione secondo Shannon sono molti. • La concettualizzazione della nozione di informazione come separata dal significato e caratterizzata dall’incertezza comunicativa; • l’identificazione tra informazione e entropia informativa;
e voluzione delle c omunicazioni: la s toria
Claude Shannon fotografato nel suo studio.
e voluzione delle c omunicazioni: la s toria
• la creazione di due nuove unità di misura e dei relativi nuovi concetti misurabili: il Bit e il Bps; • la tensione pratica tra codifica ottimale e il suo costo di implementazione in termini di tempo e la conseguente necessità di trovare un compromesso efficiente tra questi due elementi; • l’importanza della ridondanza dei linguaggi e il suo uso per combattere la tendenza al rumore del canale di trasmissione che impedisce la corretta ricezione del messaggio; • lo sviluppo delle tecniche per la compressione dati e in particolare quelle dei Bell Labs per la trasmissione audio-video,che mantengono un profondo debito intellettuale con Shannon. Nonostante tutti i fondamentali risultati non dobbiamo dimenticare che il modello di comunicazione proposto da Shannon non è rappresentativo di qualsiasi situazione comunicativa. In particolare non vengono adeguatamente modellate alcune caratteristiche fondamentali dell’attività comunicativa come: • la centralità del contesto ai fini della comprensione e della definizione del messaggio; • l’asimmetria del processo interpretativo tra destinatario e mittente della comunicazione. • l’ambiguità inerente inevitabilmente ad ogni sforzo comunicativo. • l’interattività della comunicazione che prevede un continuo scambio di ruoli tra i due attori dell’attività comunicativa, con conseguenze anche sul processo di comunicazione stesso. • la complessità della decodifica e della codifica che non sono attività simmetriche ma processi complessi. • la trattazione dell’errore di comunicazione quando sia frutto non di cattiva trasmissione, ma di equivoco o di altri elementi intriseci e non esterni al messaggio stesso. Questi limiti nulla tolgono all’opera di Shannon e al suo contributo fondamentale alla definizione di un concetto matematico di informazione trasmessa attraverso un canale di comunicazione. BIBLIOGRAFIA
Angeleri E. (2000) Informazione significato e universalità, (UTET, Torino). Aspray W. (1985) The scientific conceptualization of information: A survey, Annals of Hist. Computing, vol.7, pp.117140. Cimatti F. (1999) Fondamenti naturali della comunicazione, in S. Gensini (a cura di) Manuale della comunicazione, Carocci, Roma, pp. 53-88 Griffin E. (1997) A first look at communication theory, (McGraw-Hill, New York): Sito Internet: www.afirstlook. com. Heims S.(1991) I Cibernetici, (Editori Riuniti, Roma). McMillan B.(1997) Scientific impact of the work of C.E. Shannon, in Proceedings of the Norbert Wiener Centenary Congress, 1994 (Providence, RI), pp. 513-523. Ong W. (1982) Orality and literacy: the technologizing of the word, (Methuen, London); Trad. it. Oralità e Scrittura: le tecnologie della parola, (Il Mulino, Bologna, 1986)
Shannon C. (1948) A Mathematical Theory of Communication, The Bell System Technical Journal, Vol. 27 pp.379423, 623-656, Luglio, Ottobre, il testo dell’articolo è disponibile in rete all’indirizzo: http://cm.bell-labs.com/cm/ms/ what/shannonday/paper.html. Shannon C. & Weaver W. (1949)The mathematical theory of communication, (The University of Illinois Press, Urbana); Trad. it. La teoria matematica della comunicazione, (ETAS, Milano, 1971). Slepian D. (1974) (Ed) Key papers in the development of information theory, (IEEE Press. New York). Sloane N.J.A. & Wyner A.D.(1993) (Eds) Claude Elwood Shannon: collected papers, (IEEE Press New York). Wiener N. (1967) The Human use of Human Beings (Avon, New York).Webliografia Una presentazione molto interessante dell’attività di Shannon ai Bell Labs. http://www.lucent.com/minds/infotheory/who.html Una biografia intellettuale interessante di Shannon. http://www.research.att.com/~njas/doc/shannonbio.html “Information Theory” Encyclopedia Britannica Online http://members.eb.com/bol/topic?artcl=106012&seq_nbr= 1&page=p&isctn=1&pm=1 Il programma e alcuni articoli dello Shannon Day, organizzato dai Bell Labs, il 18 maggio 1998. http://cm.bell-labs.com/ cm/ms/what/shannonday/program.html NOTE
1 2 3 4 5 6 7 8 9 10 11 12 13 14
15
Cfr. Aspray W. (1985), p.118. Cfr. Ong W. (1982) p.176, Trad. It. (1986) p. 242. Shannon C. Weaver W. (1949) Ivi, p. 3. Lo schema è tratto da Angeleri E. (2000) p.6 con alcune modifiche. MIT: Massachusetts Institute of Technology. IAS: Institute for Advanced Studies. Shannon C. (1948) Shannon C. (1948) Shannon C. (1948) p.379. Cfr. Shannon C. (1948), p.380. Vedi per queste osservazioni Cimatti F. (1999) pp. 54-59. Shannon C. Weaver W. (1949), p. 8. Il segno meno è necessario per avere H positivo, perché qualsiasi probabilità è misurata da numeri che sono compresi tra 0 e 1 e i logaritmi dei numeri inferiori a 1 sono in se stessi negativi. LAN: Local Area Network.
68
A. Bugini S. Camprini
heureka,
i l s c i e n c e c e n t re f i n l a n d e s e e i “ n u o v i ” c e n t r i d i d i ff u s i o n e d e l l a cultura scientifica e tecnologica
HEUREKA: LA STORIA
La storia di Heureka inizia con l’organizzazione di una mostra di Fisica tenutasi a Helsinki nel Maggio 1982. L’esposizione fu ideata da tre professori universitari – Tapio Markkanen, Hannu Miettinen, Heikki Oja – e fu presentata dalla Finnish Physical Society, dall’Università di Helsinki, dall’University of Technology e dall’European Laboratory for Particle Physics, CERN. La mostra, visitata da oltre 20.000 persone, ebbe un grande successo e fu di stimolo per i tre accademici nell’ideare un progetto dove questo tipo di divulgazione scientifica trovasse una sede stabile ed una propria linea di sviluppo, in altre parole un Science Centre. Il 29 Ottobre 1982 veniva pubblicato un documento nel quale si esprimeva l’intento di creare, in Finlandia, la sede di una esposizione permanente per la Scienza. Scopo del progetto era quello di definire un piano d’azione, di trovare i fondi necessari e di stabilire un luogo per la costruzione di un nuovo Science Centre.
69
Furono molte le città che si candidarono per accogliere la nuova struttura, ma fu la città di Vantaa, a pochi chilometri da Helsinki, ad offrirsi di coprire metà delle spese di costruzione ed un terzo del budget operativo, con il risultato che nel Gennaio del 1985 viene stipulato un contratto tra il Finnish Science Centre Foundation e la città di Vantaa. Sempre nel 1985 fu indetto un concorso pubblico per la progettazione dell’architettura della struttura, concorso che fu vinto da Mikko Heikkinen, Markku Komonen e Lauri Anttila, con un progetto di nome “Heureka”. Ora il Finnish Science Centre aveva anche un nome! Forti del successo delle iniziative precedentemente svolte, fu deciso di fare intervenire, alla realizzazione del progetto, un team di 46 esperti e più di duemila scienziati furono coinvolti nella pianificazione dei contenuti. L’intelaiatura della parte principale di Heureka fu completata nel Maggio del 1986 ed il progetto del Verne Theatre (una sala a schermo emisferico utilizzata per proiezioni multimediali
e voluzione delle c omunicazioni: la s toria
Apparati e modelli didattici interattivi ideati e realizzati da Heureka: The Finnish Science Centre, Vantaa, Helsinki. Palazzo del Podestà, Bologna: Communication (1 set-5 nov 2000) Foto di: G. Artusi
e voluzione delle c omunicazioni: la s toria
Centro di cultura scientifica Heureka (interno), Vantaa, Helsinki, Finlandia. Per cortesia di: Heureka.
Centro di cultura scientifica Heureka (esterno), Vantaa, Helsinki, Finlandia. Per cortesia di: Heureka.
ed adibita anche a planetario) fu completato nell’Ottobre dello stesso anno. I lavori di costruzione iniziarono ufficialmente nel 1987 e la “prima pietra” venne deposta il 27 Ottobre del 1987. I lavori durarono circa un anno e nella primavera del 1989 l’esposizione permanente trovò posto tra le mura di Heureka, che venne aperta al pubblico il 28 Aprile 1989. Dall’anno di apertura ufficiale, Heureka, oltre a rinnovare ed ampliare costantemente la propria esposizione permanente, ha prodotto mostre temporanee, in modo tale da presentare ai propri visitatori due o tre mostre diverse all’anno. Gli studenti delle scuole di ogni ordine e grado rappresentano una grossa percentuale (circa un quarto) dei visitatori di Heureka. Durante i primi tre anni di apertura, 20 000 insegnanti hanno avuto la possibilità di usufruire di un prezioso sussidio didattico quale è il Science Centre; materiale didattico e bollettini informativi (su supporto cartaceo o su Internet) vengono forniti ai docenti per una migliore fruizione della visita da parte delle classi. L’interesse per le mostre temporanee organizzate da Heureka travalica i confini finlandesi e, durante gli anni Novanta, alcune di queste mostre sono state esportate in almeno dieci paesi di tre continenti diversi. Questa struttura occupa quindi un’importante posizione nel mondo dei Science Centre. Nel 1992, Heureka è diventato il primo membro non-americano dell’Association of Science-Technology Centers (ASTC); inoltre ha ospitato il primo Congresso Mondiale dei Science Centre tenutosi nel Giugno del 1996, e che ha visto la partecipazione di 500 operatori provenienti da 48 paesi diversi. IL SCIENCE CENTRE: LA NASCITA DI UN’IDEA
In realtà, la storia dei Science Centre è cominciata molto tempo prima.
L’idea primitiva ed originale di esposizione interattiva - priva di una collezione storica dalla quale essere supportata - risale al 1888, anno in cui a Berlino viene inaugurata Urania, che ospita un planetario allestito e presentato come una vera e propria sala espositiva. Ma è con il Deutsches Museum (Monaco di Baviera), aperto al pubblico nel 1925, che si realizza il primo museo della scienza e della tecnica con l’aspirazione dichiarata di rendere la scienza fruibile a tutti. Il fondatore del Deutsches Museum, Oskar von Miller prende ad esempio il South Kensington Museum di Londra (che più tardi prenderà il nome di Science Museum) ed il Conservatoire des Arts et Mètiers di Parigi; il suo è un approccio didattico completamente nuovo al concetto di museo: rileva l’importanza di educare, e divertire insieme. Von Miller progetta un museo della tecnica accessibile a tutti, una struttura che riesca ad avvicinare alla scienza divertendo il visitatore. Una grande attenzione viene rivolta agli strumenti e agli apparati storici, cercando però di coinvolgere i visitatori in semplici esperimenti e permettendo loro di poter osservare, passo dopo passo, processi fisici e naturali simulati “ad hoc”, e debitamente “frantumati” in semplici passaggi. Sull’onda del successo del museo tedesco, a Parigi apre, nel 1937, il Palais de la Dècouverte, che diventerà famoso per le sue coinvolgenti e a volte spettacolari dimostrazioni al pubblico. Nel progetto del fondatore, il fisico Jean Perrin (premio Nobel per la Fisica nel 1926), vi era la volontà di “rendere evidente il fattore dominante esercitato dalla Scienza sin dall’inizio della nostra civiltà e di fare comprendere come non esista nulla di più innovativo della ricerca e della scoperta”. Sarà un fisico americano, Frank Oppenheimer, fratello minore di Robert (grande fisico e studioso, celebre per avere coordinato il Progetto Manhattan per la costruzione della prima
70
Heureka, campi estivi, Vantaa, Helsinki, Finlandia. Per cortesia di: Heureka.
71
e voluzione delle c omunicazioni: la s toria
bomba atomica), a riunire e ad approfondire le tematiche e le aspirazioni dei fondatori dei musei europei: nasce così l’Exploratorium nel 1969, a San Francisco. Frank Oppenheimer comincia, e conclude, la propria carriera come ricercatore, proprio come il fratello, ma viene oggi ricordato principalmente per le sue grandi doti di educatore. L’idea dell’Exploratorium prende forma a seguito di un viaggio in Europa, avvenuto nel 1965, durante il quale Oppenheimer visita i più importanti musei della scienza e della tecnica di questo continente. Ne rimane colpito poiché, rispetto alle analoghe strutture statunitensi, questi musei hanno un più marcato intento educativo, e lo realizzano in maniera estremamente efficace. Oppenheimer però va oltre: mette a punto una struttura che supera lo strumento del modello esplicativo che si aziona con un bottone o delle semplici simulazioni e realizza apparati ad hoc, concepiti in modo tale da presentare fenomeni isolati, controllabili direttamente e dipendenti dagli input stessi dei visitatori. Gli exhibit possono essere considerati dei grossi giocattoli, mediante i quali la scoperta delle leggi della natura diventa un piacevole divertimento, secondo una visione dell’apprendimento di tipo esperienziale: la via d’accesso alle leggi e ai fenomeni della scienza deve essere l’esperienza diretta. I Science Centre fanno molto di più che fornire informazioni specifiche o una panoramica del progresso scientifico. Il fatto di poter “fare esperienza” invita i visitatori a diventare “più curiosi” e a potere familiarizzare nuovamente con i fenomeni che avevano smesso di notare o che non avevano mai capito a scuola. Dopo una visita ad un museo della scienza, spesso i visitatori hanno la sensazione di “guardare” alle cose che li circondano in maniera diversa; la dinamica attuata, e cioè, il coinvolgimento attivo del visitatore, è in grado di innescare meccanismi che vanno oltre il semplice apprendere un fatto specifico o una singola nozione. La funzione degli exhibits, dunque, non si esaurisce nel compito di stimolare la curiosità del visitatore. Al contrario, essi sono studiati col preciso compito di servire all’insegnante, nel caso di scolaresche, come validi punti di appoggio per sviluppare con la classe, in modo non obbligante, un particolare tema di fisica, di matematica o di scienze; all’adulto, come punto di partenza per ulteriori, personali approfondimenti e ricerche. L’obiettivo di Oppenheimer di avvicinare alla Scienza il grande
pubblico dei non addetti ai lavori trova nei Science Centre uno strumento prezioso. In questo senso, dunque, è possibile guardare ai Science Centre come ad una nuova generazione di musei scientifici e tecnologici, quasi come all’evoluzione dei musei di tipo più tradizionale. Anche in Italia, infatti, nonostante il cronico ritardo sui tempi americani ed europei, a parte i Science Centre tout court (si pensi, ad esempio: al Laboratorio dell’Immaginario Scientifico di Trieste e alla Città della Scienza di Napoli, ma anche ad altre numerose ed interessanti esperienze che si stanno consolidando), i musei della scienza e della tecnica più tradizionali hanno avviato da tempo processi di rinnovamento che si muovono lungo le linee guida dei Science Centre. Basti citare il Museo della Scienza e della Tecnica di Milano e il Museo di Storia Naturale sempre a Milano, o l’Istituto e Museo di Storia della Scienza a Firenze; anche per questi ultimi tipi di museo, ad ogni modo, i casi cominciano a moltiplicarsi. COMMUNICATION: COMUNICHIAMO?
La mostra Communication, l’ultima mostra temporanea nata in casa Heureka, e che qui viene presentata, è appunto una collezione di exhibit interattivi. L’esposizione nasce dalla consapevolezza che la cosiddetta “società dell’informazione”, con i suoi iperbolici sviluppi tecnologici, ha prodotto una rivoluzione paragonabile a quella gutenberghiana. Il modificarsi dei modi di memorizzazione e di trasferimento del sapere ha prodotto, e produrrà in maniera sempre più marcata e permanente, considerevoli mutamenti sociali ed economici. L’esigenza di una maggiore e più diffusa comprensione della scienza e della tecnologia diviene perciò sempre più pressante. In particolare, può essere significativo il ruolo dei centri di diffusione scientifica e tecnologica in azioni di contenimento dei fenomeni di esclusione sociale per quanto riguarda l’accesso agli strumenti e ai processi (servizi, relazioni, etc.) basati sulle nuove tecnologie. Communication vuole essere quindi un contributo allo schiudersi di alcuni di quei cancelli elettronici che rischiano, ogni giorno, di essere sempre più dei “respingenti” per un numero tutt’altro che trascurabile di persone.
Heureka, campi estivi, Vantaa, Helsinki, Finlandia. Per cortesia di: Heureka.
e voluzione delle c omunicazioni: la s toria
Heureka, Vantaa, Helsinki, Finlandia. Per cortesia di: Heureka.
L’esposizione base – gli exhibit preparati da Heureka – ha viaggiato e viaggerà attraverso tutte le nove Città Europee della Cultura per il 2000. La mostra parla ben 14 lingue: inglese, francese, finlandese, svedese, olandese, tedesco, spagnolo, italiano, fiammingo, ceco, polacco, islandese, norvegese, danese. Nella mostra si incontrano sei grandi aree tematiche, cui fanno riferimento gruppi di exhibit (indicate dai relativi codici di riconoscimento, ad esempio: D204) PRINCIPI DI COMUNICAZIONE E FATTORI CHE UNISCONO Deutsches Museum, Salone aeronautico, Monaco di Baviera, Germania. Per cortesia di: Deutsches Museum
mondo. Tuttavia la possibilità di incomprensioni rimane estremamente elevata. La semplice pronuncia delle lettere si differenzia a parità di segno grafico, e persino il cane di un bambino inglese (o tedesco) abbaia con un “wuff” mentre quello di un italiano risponde con un “bau”! Gli alfabeti (D103) Tastiere europee (D104) I proverbi – Un patrimonio comune agli europei (D107) Comunicazione bidirezionale (D108)
GLI EUROPEI
Il tema della comunicazione viene affrontato in senso esteso. Tra europei è possibile, infatti, comunicare più facilmente grazie alle affinità culturali nei modi di vedere e di interpretare il
PROPAGAZIONE DI UN’ONDA
Le future tecnologie per la comunicazione, come pure quelle attuali, sono basate sulle propagazione di onde elettroma-
Deutsches Museum, veduta aerea sull’Isar, Monaco di Baviera, Germania. Per cortesia di: Deutsches Museum
72
ANALOGICO E DIGITALE
La comunicazione tra umano e macchina e tra macchina e umano viene raccontata a partire dal codice binario passando dalla TV, per arrivare alla riproduzione dei suoni e delle immagini: Trasmissione analogica o digitale dei suoni (D302) 30 copie (D303) Il proprio nome tradotto in zeri ed uni (D304) Digitalizzare un’immagine (D305) Digitalizzare la propria voce (D306) Cosa significa rappresentazione binaria (D307) Come nasce l’immagine TV (D310) RETI SATELLITARI, RETI MOBILI E RETI CABLATE
In quanti modi è possibile trasmettere un segnale? Vecchie idee e nuove tecnologie: Progettazione della rete cellulare (D403) Satellite geostazionario (D404) Capacità di trasmissione dati dei cavi (D406) INTERNET: UNA GRANDE RETE MONDIALE
La parola più pronunciata dell’ultimo anno: Internet, con qualche accenno alle più recenti proposte per portarselo in casa: La storia di Internet (D504) L’importanza dell’ampiezza di banda per la qualità dell’immagine (D505) LA SOCIETÀ DELL’INFORMAZIONE
Che cos’è la crittografia?: l’importanza della segretezza dei dati nel villaggio globale. Gli exhibit raccontano anche il ruolo chiave che le nuove tecnologie possono svolgere nel superare distanze e difficoltà legate alle disabilità, permettendo così l’accesso agli strumenti informatici ad un numero sempre maggiore di persone. Il cellulare GSM come strumento di pagamento (D604) Sicurezza dei dati (D608) Manutenzione a distanza dei motori delle navi (D611) Il sintetizzatore vocale e la società dell’informazione (D612) Il mouse funziona anche con la testa! (D616) Gioco della voce (D807)
The Exploratorium, San Francisco, Stati Uniti d’America. Per cortesia di: The Exploratorium
73
LINKS
Dove trovare alcuni dei più importanti Science Centre del mondo: http://www.snl.org/museums/index.html http://erewhon.ticonuno.it/galois/musei/musei.htm http://www.ecsite.net http://www.exploratorium.edu http://www.deutsches-museum.de http://www.nmsi.ac.uk http://www.palais-decouverte.fr e in Italia: Istituto e Museo di Storia della Scienza (Firenze): http://www.imss.fi.it/indice.html Museo della Scienza e della Tecnologia “Leonardo da Vinci” (Milano): http://www.museoscienza.org in particolare, per reperire ulteriori link interessanti: http://www.museoscienza.org/musei-it/link.html Laboratorio dell’immaginario scientifico (Trieste): http://www.lis.trieste.it Città della Scienza (Napoli): http://www.cittàdellascienza.it BIBLIOGRAFIA
Rifkin, Jeremy, “L’era dell’accesso, la rivoluzione della new economy”, Mondadori, Cles (TN), 2000. Ceccarelli, Marcello, et al., “Il bambino e la scienza”, Zanichelli, Bologna, 1981. Driver, Rosalind, “L’allievo come scienziato?”, Zanichelli, Firenze, 1988.
e voluzione delle c omunicazioni: la s toria
gnetiche. Gli exhibit offrono un piccolo excursus in pieno ambito fisico: Le radiazioni elettromagnetiche (D201) Modello ondulatorio (D203) Le antenne paraboliche (D204)
B. Cappa, Sintesi delle Comunicazioni radiofoniche, Palazzo delle Poste, Palermo. Per cortesia di: FMR.
74
ricerca nel campo delle telecomunicazioni 76 La Rete informatica dell’Università di Bologna
—
M. Boari, F. Delpino
78 La Rete Garr, il progetto GRID e le Reti di Ricerca INFN 82 Dynamic System Identification, CITAM 83 La Ricerca presso l’ENEA
—
—
—
A. Pascolini
R. Guidorzi
S. Gruppuso
86 Gli strumenti della memoria: informatica e diagnostica fisica per i beni culturali — D. Biagi Maino, G. Maino 94 Le ricerche presso il Centro di Studio per l’Informatica e i sistemi di telecomunicazioni del CNR — O. Andrisano 98 Il Radiotelescopio di Medicina
—
R. Ambrosini, S. Montebugnoli, M. Nanni
102 Il Progetto 2D, 3D, 4D, Progetto Nu.M.E. Consorzio Università-Città, Bologna 2000, Cineca
—
F. Bocchi
105 Navigazione in 4D del NUovo Museo Elettronico della Città di Bologna 106 Prima installazione del Baby Reality Center del Cineca
—
—
A. Guidazzoli
F. Serafini
108 La Storia e la Ricerca dell’Istituto di Geologia Marina (CNR, Bologna) in Multivisione — M. Ravaioli, F. Giglio, G. Marozzi, N. Bianchi, F. Bentivoglio, D. Martignani 110 La visualizzazione dei fondali marini in realtà virtuale T. Diamanti, G. Stanghellini, L. Calori, A. Guidazzoli
112 Il codice a barre
75
—
R. Amato
—
G. Bortoluzzi,
M. Boari F. Delpino Ce.S.I.A. (Centro Servizi Informatici d’Ateneo) Centro di Controllo della rete ALMAnet.
ricerca nel campo delle telecomunicazioni
la rete informatica dell’università di bologna
Traliccio per ponte radio.
ALMAnet è la rete informatica per le applicazioni didattiche scientifiche ed amministrative, che connette tutte le sedi universitarie nella città di Bologna e nelle sedi decentrate. LA RETE D’ATENEO
La rete d’Ateneo connette un numero rilevante di strutture universitarie e precisamente: Bologna 43, Cesena 10, Forlì 10, Ravenna 7, Reggio Emilia 1, Rimini 2. Creata nel 1980, ALMAnet è divenuta un progetto d’Ateneo nell’ambito delle attività per il IX centenario (1988) dell’Alma Mater Studiorum, Magnifico Rettore prof. Fabio Roversi Monaco, come un progetto di rinnovamento tecnologico, patrocinato dal pro-Rettore, prof Mario Rinaldi, e gestito da un Comitato Tecnico Scientifico. ALMAnet 1995
In seguito la rete è andata sviluppandosi sino a collegare tutte le strutture universitarie nella città di Bologna e nelle sedi decentrate di Cesena, Forlì, Rimini, Ravenna e Reggio Emilia. Essa ha inoltre mutato valenza passando da una rete tipicamente scientifica, che collegava i principali Dipartimenti dell’area tecnico-scientifica, ad una rete d’Ateneo, in grado di fornire supporto anche alle applicazioni didattiche ed amministrative. Al fine di adeguare l’infrastruttura della rete ALMAnet alle nuove ed accresciute esigenze dell’utenza, nel 1995 fu predisposto un vasto piano di rinnovamento, articolato in due distinti progetti: • il primo, inerente all’Area Metropolitana di Bologna, preve-
deva l’inserimento di ALMAnet in una rete metropolitana a larga banda, basata su tecnologia SMDS e gestita in convenzione dalla Telecom Italia; • il secondo, inerente alle sedi decentrate della Romagna prevedeva la creazione di una dorsale regionale di proprietà dell’Università, costituita da collegamenti su ponti radio. ALMAnet 1999
La struttura della rete ALMAnet nel 1999 assume una notevole complessità, essendo costituita da una rete regionale, che collega le varie reti metropolitane nelle città con sedi universitarie distaccate. Inoltre la rete metropolitana di Bologna si articola: • in una sottorete ATM, gestita dalla Telecom Italia mediante una convenzione; • in una sottorete CDN, che collega con linee dirette numeriche al Ce.S.I.A. tutte le altre sedi nel capoluogo e che viene gestita direttamente dal Centro Servizi Informatici d’Ateneo. ALMAnet 2000
Il tumultuoso sviluppo di Internet e l’impatto che questo genera sulle attività di un moderno ateneo nei campi della ricerca e della didattica, unitamente alle accresciute esigenze dell’amministrazione volta ad offrire sempre migliori servizi agli studenti ed ai suoi uffici rendono la rete informatica un’infrastruttura di vitale e strategica importanza. L’Università di Bologna inoltre, articolata e compenetrata come è nel ter-
Antenna per trasmissione dati.
ALMAnet. Dorsale regionale. Fascio di fibre ottiche.
76
Ce.S.I.A. Apparecchiature di rete.
Apparati di telecomunicazioni.
Postazioni di accesso alla rete nelle sale studio.
LA RICERCA SULLE TELECOMUNICAZIONI NELL’UNIVERSITÀ DI BOLOGNA
Apparecchiature di rete.
77
Ce.S.I.A. Interconnessioni di reti.
ricerca nel campo delle telecomunicazioni
ritorio urbano e regionale, sembra ritrovare nella rete e nei servizi che essa offre quell’unità operativa, che la tirannide della geografia sembra negarle. Per l’anno 2000 è stato pertanto approntato un progetto di forte rinnovamento, che farà di ALMAnet una rete a larga banda. L’elevata velocità di tutti i collegamenti metterà a disposizione degli utenti un’infrastruttura di comunicazione telematica all’avanguardia, sulla quale potranno essere impiantati servizi innovativi per la didattica, la ricerca e l’amministrazione. Teledidattica, certificazioni in linea, laboratori informatici, colloqui con i docenti e con le segreterie, sono solo alcuni dei possibili servizi che verranno attivati e che si aggiungeranno a quelli già esistenti. Tale nuova infrastruttura diverrà operativa nell’autunno del 2001. • Almanet è tecnologia: le più moderne tecnologie di comunicazione, dalle fibre ottiche ai ponti radio. • Almanet è servizi: per la didattica, la ricerca e l’amministrazione. • Almanet è il sistema di comunicazione di un grande ateneo con 100.000 studenti e sedi in sei diverse città. • Almanet è gestita dal Centro Servizi Informatici d’Ateneo, coadiuvato da un Comitato Scientifico di Sviluppo.
Sistemi di trasmissione su canale radio ed in fibra ottica. Sistemi radiomobili di nuova generazione terrestri e via satellite. Controllo ed ottimizzazione dell’uso dello spettro elettromagnetico Elaborazione del segnale. Analisi e dimensionamento delle reti di telecomunicazione. Reti fotoniche. Problematiche inerenti alla sicurezza delle reti.
Tutte le immagini di questo articolo sono dovute al Ce.S.I.A. (Centro Servizi Informatici d’Ateneo) che si ringrazia.
Laboratorio informatico.
A. Pascolini
l a r e t e g a r r, i l p r o g e t t o g r i d e l e r eti di r icerca i nfn
ricerca nel campo delle telecomunicazioni
INFN. I laboratori nazionali di Legnaro.
L’ISTITUTO NAZIONALE DI FISICA NUCLEARE
L’lstituto Nazionale di Fisica Nucleare (INFN) è l’ente pubblico italiano che promuove, coordina ed effettua ricerche sperimentali e teoriche per lo studio dei nuclei atomici, delle particelle elementari e di fisica astroparticellare, sia in Italia che presso i grandi laboratori e centri di ricerca internazionali. Inoltre, I’INFN ricerca e sviluppa le tecnologie necessarie per tali sperimentazioni. Fondato nel 1951, I’INFN è attualmente articolato in: - 4 laboratori nazionali (i Laboratori Nazionali di Frascati, di Legnaro, del Gran Sasso ed il Laboratorio Nazionale del Sud a Catania), - 19 sezioni e 11 gruppi collegati costituiti presso i dipartimenti di fisica delle principali università italiane, - il CNAF, il centro nazionale dedicato allo sviluppo delle tecnologie informatiche e delle reti di calcolatori, a Bologna. Metodologie, apparati e tecniche della fisica nucleare e subnucleare costituiscono potenti mezzi d’indagine anche per vari altri settori di ricerca, dalla biologia agli studi ambientali, dalla medicina allo studio della struttura dei materiali; con le istituzioni interessate a questi campi l’INFN cura e promuove collaborazioni scientifiche. La ricerca avanzata di base produce e richiede tecnologie di avanguardia. L’INFN ha avuto sempre cura di cogliere le occasioni per trasmettere all’industria italiana il patrimonio di competenze acquisite nelle sue attività e di collaborare per nuovi sviluppi nei campi più avanzati.
RETI DI CALCOLATORI, SUPPORTO INDISPENSABILE PER LA RICERCA
Un carattere distintivo dell’attuale fase della ricerca fisica sono le vaste collaborazioni internazionali e l’uso comune di laboratori e risorse tecniche distribuiti in tutto il mondo. Un tale contesto ha forzato lo sviluppo negli ultimi venti anni di tecnologie avanzate di comunicazione e di collegamento dei computer impiegati per raccolta e gestione dei dati, calcoli numerici, e comunicazione scientifica. Si è andata cosi creando e potenziando una famiglia di reti informatiche interconnesse dalle prestazioni sempre più evolute, che attualmente avviluppa tutto il mondo. Tramite la rete, un ricercatore dalla sua scrivania può collegarsi, ad esempio, ad un calcolatore del Fermilab di Chicago e lavorare come se fosse fisicamente seduto davanti a quella macchina per controllare un apparato sperimentale; oppure, la rete gli permette di trasferire nel suo calcolatore dati pre-
INFN. I laboratori nazionali. a sinistra: Frascati. sopra: Catania
78
Schema dei collegamenti della rete GARR-B: in rosso la dorsale a 155 Mbps, in viola i collegamenti internazionali (155 Mbps o 45 Mbps), in arancione i collegamenti con i nodi di accesso locali (155 Mbps o 34 Mbps).
Statistica dell’impiego dei calcolatori nel sistema Condor dell’INFN. Rosso: utilizzazione locale; verde: utilizzazione remota; blu: calcolatori non utilizzati.
senti nei calcolatori del CERN di Ginevra; per elaborare una pubblicazione con un collega russo può scambiare messaggi tramite la posta elettronica ed entrambi possono intervenire contemporaneamente sul testo. Le reti di calcolatori sono diventate un indispensabile strumento di lavoro quotidiano ed hanno ulteriormente rafforzato i vincoli della comunità scientifica internazionale. Tramite le reti scientifiche ogni ricercatore può raggiungere ogni laboratorio mondiale per mantenere i contatti con la comunità scientifica. INFNet, LA RETE INFORMATICA DELL’INFN
INFNet è la rete di calcolatori dell’lNFN, nata nel 1980 per favorire le comunicazioni tra le varie sedi dell’lNFN, i laboratori ed i centri di calcolo nazionali ed internazionali. INFNet è stata la prima rete italiana ed è andata espandendosi e potenziandosi, arricchita via via di tutti i nuovi strumenti resi disponibili per i servizi in rete. Dal 1989 è integrata nella rete GARR (Gruppo Armonizzazione Reti per la Ricerca), che unisce tutte le sedi universitarie italiane, i principali centri di calcolo e le sedi degli enti di ricerca. Negli ultimi anni si è assistito ad un enorme sviluppo delle reti di calcolatori: grazie all’esperienza ed alla competenza maturate in 20 anni, I’INFN partecipa attivamente a numerosi progetti internazionali, attuando importanti sperimentazioni di nuove tecnologie di rete. L’evoluzione della rete INFNet è, quindi, una conseguenza di queste iniziative.
Immagine d’ingresso del sito WWW dell’INFN per la divulgazione scientifica.
79
La rete GARR (Gruppo Armonizzazione Reti per la Ricerca) unisce dal 1989 tutte le sedi universitarie italiane, i principali centri di calcolo e le sedi degli enti di ricerca, per un totale di oltre 200 siti, ed è connessa alla rete europea a larga banda “Ten-155”. GARR-B rappresenta la presente fase potenziata della rete: è costituita da una dorsale di collegamenti a larga banda operante alla velocità di 155 Mbps (milioni di bit al secondo) su cui viaggiano più protocolli di rete per garantire la connessione ad ogni tipo di calcolatore. La realizzazione e la gestione di GARR-B è stata affidata dal Ministro per l’Università e la Ricerca Scientifica e Tecnologica all’lNFN, che ha costituito un Network Operation Centre con sede presso il suo centro CNAF di Bologna. GARR-B favorisce il coordinamento e la collaborazione tra le attività di ricerca, a livello nazionale ed internazionale, tramite i servizi telematici, compresi anche la ricerca e lo sviluppo nei servizi telematici stessi. GARR-B sta ora evolvendo in GARR-G, a velocità dell’ordine dei Gbps (miliardi di bit al secondo), che confluirà nel progetto GEANT (Consorzio europeo per la nuova generazione delle reti della ricerca accademica e universitaria) sottoposto alla Comunità Europea per potenziare la rete internazionale della ricerca europea a una banda dei Gigabit. Si veda nelle immagini lo schema dei collegamenti della rete GARR-B: in rosso la dorsale a 155Mbps, in viola i collegamenti intemazionali (155 Mbps o 45 Mbps), in arancione i collegamenti con i nodi di accesso locali (155 Mbps o 34 Mbps).
ricerca nel campo delle telecomunicazioni
LA RETE GARR.B A SUPPORTO DELLA RICERCA ITALIANA
ricerca nel campo delle telecomunicazioni
Simulazione di un possibile evento previsto dagli esperimenti al nuovo acceleratore LHC del CERN.
INTERNET ED IL WORLD WIDE WEB
Apparati sperimentali utilizzati attualmente al CNAF (Bologna) per i test di trasmissione dati e per l’accesso alla rete GARR-B.
Internet è la più estesa interconnessione mondiale di reti differenti, ognuna adibita a funzioni diverse: ciascuno dei molteplici calcolatori di ogni rete può colloquiare in modo trasparente con tutti gli altri indipendentemente dalla loro collocazione geografica, grazie ad un protocollo comune di comunicazione chiamato TCP/IP (Transmission Control Protocol/lnternet Protocol), che permette di connettere tra di loro macchine di costruttori diversi e con sistemi operativi e di rete differenti. Il World Wide Web attivo su Internet è un sistema ipertestuale distribuito di ricerca e di raccolta di informazioni. Il progetto www ha avuto origine nel 1989 nel laboratorio europeo CERN di Ginevra allo scopo di favorire il lavoro dei fisici delle particelle impegnati in vaste collaborazioni internazionali. L’evoluzione del www ha caratteristiche esplosive e la fase di rapida espansione non mostra segni di rallentamento. Il principio di funzionamento è fondato su una struttura di sistema distribuito: determinate applicazioni vengono eseguite in molteplici nodi della rete, in cui sono attivi programmi che eseguono specifici servizi, senza che l’utente se ne renda conto. La potenza del www sta nella sua particolare architettura, costruita su protocolli comuni e su un linguaggio base per la definizione dei documenti ipertestuali. Il testo è illustrato dalla seguente iconografia: immagine d’ingresso del sito www dell’lNFN per la divulgazione scientifica (v. p. 79).
tore scientifico, industriale o commerciale. Per affrontare questi problemi si sta elaborando una nuova strategia, chiamata GRID (dal termine anglosassone grid per reti elettriche) in analogia con le reti di distribuzione dell’energia elettrica. La GRID computazionale si presenta come una risorsa mondiale globale, in cui supercomputer, grandi batterie di PC, dischi e altri sistemi di memorie di massa, enormi archivi di dati e di informazioni sono uniti tra loro da una rete di trasmissione dati ad alta velocità, diventando strumenti per il lavoro collaborativo a distanza. Tutte queste risorse sono rese disponibili agli utenti, sparsi in tutto il mondo, in modo trasparente, attraverso un software di nuovissima concezione che facilita il lavoro distribuito. Le potenzialità del Web vengono enormemente aumentate per dar modo agli utenti non solo di reperire informazioni, ma anche di eseguire calcoli complessi e accedere a grandi archivi di dati con semplici click. Il testo è arricchito dalla seguente immagine: simulazione di un possibile evento previsto dagli esperimenti al nuovo acceleratore LHC del CERN (v. a fianco). CONDOR. PER OTTIMIZZARE LE RISORSE DI CALCOLO DISTRIBUITE
Gli esperimenti di fisica nucleare e delle particelle richiedono enormi capacità di calcolo, e per tale esigenza storicamente si è fatto ricorso a grandi centri di calcolo. La tendenza evolutiva dei calcolatori in questi ultimi anni è caratterizzata da una crescita continua della potenza di calcolo dei singoli PC e workstation e da diminuzione dei costi. Questi due fattori favoriscono la distribuzione capillare dei PC per ogni singolo utente e una configurazione di cluster di PC o workstation per singoli esperimenti e progetti di ricerca, tutto ciò comporta una crescita molto consistente della capacità di calcolo complessiva dell’lNFN ma con utilizzo limitato alle esigenze individuali. Per ottimizzare l’uso delle risorse di calcolo distribuite, all’università del Wisconsin a Madison (USA) è stato sviluppato un sistema di calcolo distribuito, chiamato Condor; il CNAF e la sezione di Bologna dell’lNFN lo hanno quindi adattato alle esigenze dell’lNFN, configurato su rete geografica ed arricchito di nuove funzionalità. Condor è un sistema di calcolo distribuito basato sull’utilizzo da parte di utenti remoti di workstation in rete quando non sono utilizzate localmente. Così si possono soddisfare le sempre crescenti esigenze di calcolo attraverso un uso più efficiente delle risorse esistenti, pur consentendo un accesso prioritario all’utilizzo locale da parte degli utenti dei singoli gruppi o laboratori. Le risorse dell’lNFN a disposizione del cal-
DAL WEB ALLA GRID. TRASFORMARE INTERNET IN UN SOLO ENORME CALCOLATORE PER VINCERE LE NUOVE SFIDE DELLA FISICA
Gli esperimenti al nuovo acceleratore LHC (Large Hadron Collider) in costruzione al CERN di Ginevra saranno condotti da migliaia di scienziati di tutto il mondo e richiedono una potenza di calcolo, di raccolta e gestione di dati, e di collegamenti in rete mai affrontata prima d’ora in nessun altro set-
80
colo remoto mediante il sistema Condor comprendono centinaia di calcolatori in tutt’ltalia. Alcune immagini a documentazione di queste tecnologie: statistica dell’impiego dei calcolatori nel sistema Condor dell’lNFN: rosso: utilizzazione locale, verde: utilizzazione remota, blu: calcolatori non utilizzati (v. p. 79, in alto a destra). IL CNAF. CENTRO NAZIONALE PER LE TECNOLOGIE INFORMATICHE E TELEMATICHE DELL’INFN
Il CNAF è un Centro Nazionale dell’lNFN dedicato alla ricerca ed allo sviluppo nel campo delle discipline informatiche a supporto dell’attività di ricerca. La sua sede è a Bologna. Il CNAF ha curato la progettazione, realizzazione e gestione della rete della ricerca italiana, prima INFNet ed ora GARR; dal 1998 sta privilegiando iniziative a più ampio spettro, che spaziano dalla sperimentazione di nuove tecnologie trasmissive allo sviluppo di servizi ed applicazioni avanzate per gli esperimenti, oltre al coinvolgimento in progetti italiani ed europei come DATAGRID. La sperimentazione delle nuove applicazioni avanzate su rete geografica viene effettuata dal CNAF in collaborazioni nazionali ed anche con altre reti della ricerca europee ed internazionali quali ESnet, la rete della ricerca americana. Rimane comunque rilevante l’attività di servizio che il CNAF svolge a favore di tutta la comunità dei ricercatori INFN, per il supporto e la gestione di strumenti informatici di uso comune quali mailing list, who is, usenet news, web server, videoconferenza… Apparati sperimentali utilizzati attualmente al CNAF per i test di trasmissione dati e per l’accesso alla rete GARR-B documentano quanto sostenuto sopra. IL CNAF E LE NUOVE ESIGENZE DELLA RICERCA
La ricerca in fisica nucleare e delle particelle richiede un uso della rete che va oltre il servizio tradizionale di Internet definito best effort. Applicazioni cruciali di un esperimento, quali il controllo remoto - su scala continentale ed intercontinentale dei rivelatori di un apparato, hanno bisogno di garanzie di funzionamento e di tempi di risposta adeguati da parte della rete. A queste esigenze cercano di rispondere i nuovi servizi di rete cosiddetti di QoS (Quality of service) o “a qualità garantita” che gestiscono il trafffico in modo selettivo. A questi servizi vengono associati nuovi strumenti di monitoraggio utilizzati dalle stesse applicazioni per controllare il funzionamento della rete e gestire gli eventuali malfunzionamenti. Altri aspetti di un esperimento, quale il sistema di acquisizione e filtraggio dei
81
dati, richiedono infrastrutture trasmissive ad altissima velocità (10 Gbps) e con un elevato numero di nodi (circa 3000). Queste esigenze richiedono uno studio di simulazione e sperimentazione di nuove topologie con tecnologie trasmissive basate su fibra ottica e con l’uso di più lunghezze d’onda (WDM, Wave Division Multiplexing). A ciò si aggiungono le problematiche di calcolo dei futuri esperimenti al laboratorio europeo CERN, le cui caratteristiche principali sono costituite dall’elevato numero di dati sperimentali (dell’ordine di decine di petabyte, milioni di miliardi di byte, all’anno) e dal rilevante numero di fisici coinvolti. Tali problemi vengono affrontati con modelli gerarchici e distribuiti sulla rete a livello geografico. Il CNAF dedica la parte preponderante della sua attività a queste problematiche con progetti nazionali ed europei. Il testo è arricchito dalle seguenti immagini: rivelatore dell’esperimento CDF, Collider Detector Facility, a Fermilab, presso Chicago, per cui si sta sviluppando un sistema di controllo remoto operativo dall’ltalia (v. sotto); schema dell’esperimento ATLAS in costruzione al CERN, che prevede la produzione di immense quantità di dati, dell’ordine del petabyte all’anno (v. sopra). Tutte le immagini di questo articolo sono dovute all’INFN (Istituto Nazionale di Fisica Nucleare) che si ringrazia. Rivelatore dell’esperimento CDF a Fermilab, presso Chicago, per cui si sta sviluppando un sistema di controllo remoto operativo dall’Italia (foto Fermilab).
ricerca nel campo delle telecomunicazioni
Rivelatore dell’esperimento ATLAS in costruzione al CERN, che prevede la produzione di immense quantità di dati, dell’ordine del petabyte all’anno.
R. Guidorzi
dynamic system identification, citam Molte delle attività svolte presso il CITAM (Centro Interfacoltà per le Tecnologie didattico-educative teleaudiovisive “Guglielmo Marconi”) riguardano il settore delle comunicazioni. Tra queste è possibile ricordare la produzione televisiva effettuata per conto del Consorzio Nettuno e trasmessa sui canali di RAISAT. Il CITAM ha poi promosso il servizio AlmaNews che, dall’A.A. 1997/98, cura le riprese degli avvenimenti più significativi dell’Ateneo e l’inserzione su Internet di tali servizi. Nel settore della applicazione delle ICT (Information and
Communication Technologies) nella teledidattica il CITAM sta sperimentando dall’A.A. 1998/99, presso le università di Bologna e di Ferrara, il corso Dynamic System Identification, privo di lezioni frontali e basato su un tutorato remoto, l’uso di ipertesti tecnologicamente avanzati e l’accesso a laboratori virtuali platform-independent. Il CITAM sta anche effettuando sperimentazioni sull’impatto delle ICT nell’ambito della didattica tradizionale attraverso l’uso di funzionalità avanzate dei server Web e di tecniche di sincronizzazione di flussi multimediali navigabili.
Alcune immagini tratte da AlmaNews, dal corso in rete Dynamic System Identification e dal server del corso di Teoria dei Sistemi.
82
S. Gruppuso
Centro di lavorazione laser di Milano della Riva Techint: processo di saldatura effettuato mediante il sistema di comando e controllo sviluppato da Enea e Oberon. Foto per cortesia di: Enea.
la r icerca presso l’enea
SOSTENIBILE DEL PAESE
L’ENEA (Ente per le Nuove tecnologie, l’Energia e l’Ambiente) è un ente di diritto pubblico operante nei campi della ricerca e dell’innovazione per lo sviluppo sostenibile, finalizzata a promuovere insieme gli obiettivi di sviluppo, competitività e occupazione e quello della salvaguardia ambientale. L’ENEA svolge altresì funzioni di agenzia per le pubbliche amministrazioni mediante la prestazione di servizi avanzati nei settori dell’energia, dell’ambiente e dell’innovazione tecnologica. In particolare l’Ente: • svolge, sviluppa, valorizza e promuove la ricerca e l’innovazione, anche tramite la realizzazione di impianti dimostrativi e di progetti pilota, per le finalità e gli obiettivi dello sviluppo sostenibile, nel quadro del programma nazionale della ricerca ed in linea con gli impegni scaturenti dalla partecipazione italiana all’Unione Europea e alle altre organizzazioni internazionali in tema di energia, ambiente e innovazione tecnologica; • sostiene i processi di innovazione del sistema produttivo, in particolare delle piccole e medie imprese, anche promuovendo la domanda di ricerca e di tecnologia in conformità ai principi dello sviluppo sostenibile; • favorisce il processo di trasferimento tecnologico e delle esperienze positive in campo energetico ed ambientale alle imprese, in particolare di piccola e media dimensione e alle pubbliche amministrazioni nell’ambito degli indirizzi nazionali e dell’Unione Europea; • fornisce, a richiesta, nei settori di sua competenza e nell’ambito di accordi di programma con i Ministeri dell’Industria, del Commercio e dell’Artigianato, dell’Università e della Ricerca Scientifica e Tecnologica e dell’Ambiente, nonché con altre amministrazioni pubbliche, supporto tecnico specialistico ed organizzativo alle amministrazioni competenti per le azioni pubbliche, in ambito nazionale ed internazionale, alle regioni e agli enti locali. L’ ENEA basa la sua attività sullo sviluppo e sull’applicazione di tecnologie di punta e innovative, nelle quali ha raggiunto un livello di eccellenza. Lo sviluppo di queste tecnologie viene effettuato prevalentemente nell’ambito di programmi indirizzati a obiettivi strategici. Ad esempio, nell’ambito della fusione nucleare vengono sviluppate tecnologie avanzate di interesse generale quali la superconduttività e la robotica. Le tecnolo-
83
gie sviluppate all’ENEA rientrano tra quelle che anche in altri paesi vengono considerate critiche, cioè la cui padronanza è essenziale per mantenere nel medio e lungo periodo l’efficienza e la competitività del sistema produttivo. Il patrimonio tecnologico accumulato e la lunga esperienza di collaborazione con imprese grandi e piccole sono essenziali per il trasferimento, l’adattamento e l’applicazione delle tecnologie innovative in funzione delle necessità dell’utilizzatore finale. L’ENEA non si rivolge soltanto alle industrie ad alta tecnologia, ma anche a quelle dei settori tradizionali, dove l’iniezione di tecnologie avanzate nel processo produttivo può aiutare a mantenere o a sviluppare la competitività sul mercato internazionale. Le tecnologie sviluppate all’ENEA hanno numerose applicazioni in comparti produttivi e servizi molto diversificati. Ad esempio, le tecnologie laser vengono applicate dall’ENEA, in collaborazione con diversi partner, per diagnostiche ambientali (misura dell’inquinamento dell’atmosfera o delle acque costiere, rilevazione di inquinanti metallici in campioni solidi, attività fotosintetica di piante e alghe), per applicazioni industriali (metrologia, fotosintesi di polveri, deposizione di pellicole di semiconduttori, realizzazione di sensori per gas tossici, taglio di lastre di metalli e di materiali plastici, saldature) e mediche (misure di concentrazione di metano nell’espirato), nel campo dei beni culturali (indagini sull’integrità strutturale dei monumenti e diagnostica per le opere d’arte), nell’ambito della fusione nucleare (diagnostiche di plasmi, studi sulla fusione a confinamento inerziale).
ricerca nel campo delle telecomunicazioni
RICERCA E INNOVAZIONE PER LO SVILUPPO
TECNOLOGIE SVILUPPATE DALL’ENEA
Numerose sono le tecnologie sviluppate dall’Enea: Laser, Robotica, Criogenia, Telerilevamento, Superconduttività, Agrobiotecnologie, Materiali fotovoltaici, Tecnologie impiantistiche, Materiali ceramici avanzati, Fisica e ingegneria della com-
Sistema Lidar fluorosensore con laser compatto Nd-YAG sviluppato dall’Enea, installabile su container mobile o imbarcazioni per campagne di monitoraggio dell’inquinamento delle acque e dello stato di salute della vegetazione terrestre e marina. Foto per cortesia di: Enea.
ricerca nel campo delle telecomunicazioni
Una delle stazioni meteorologiche presso la base Baia Terra Nova progettate, installate e gestite dall’ENEA ed inserite nella rete del World Meteorologic Office. Foto per cortesia di: Enea
Stazione Baia Terra Nova, base italiana permanente in Antartide. La legge 284 del 1985, estesa con la legge 380 del 1991, ha istituito il Programma Nazionale di Ricerche in Antartide, affidando all’ENEA il compito di attuarlo, d’intesa con il CNR per i contenuti scientifici, e di integrarlo con gli obiettivi tecnologici. Il programma è svolto sotto l’egida del MURST (ora MIUR) e include discipline quali Scienze della Terra, Fisica dell’Atmosfera, Cosmologia, Biologia, Medicina, Oceanografia e Scienze Ambientali. Al programma prendono parte numerose università, altri istituti di ricerca e alcuni ministeri, primo fra tutti il Ministero della Difesa. Foto per cortesia di: Enea.
bustione, Modelli matematici e calcolo a elevate prestazioni, Intelligenza artificiale e sistemi esperti, Tecnologie di irraggiamento, Trattamento delle immagini, Diagnostica avanzata, Tecnologie marine, Membrane, Film sottili, Biosensori, Plasmi. Clima, Metrologia, Processi chimici, Radioprotezione, Fusione nucleare, Depurazione delle acque, Uso razionale dell’energia, Industria manifatturiera, Protezione e miglioramento colture agricole, Utilizzo energetico delle biomasse, Trattamento e recupero dei rifiuti, Caratterizzazione del territorio, Bonifica aree a rischio, Energie rinnovabili, Ausili per disabili, Mobilità urbana, Beni culturali, Biomedicina. ALCUNI CAMPI DI APPLICAZIONE DELLE TECNOLOGIE SVILUPPATE DALL’ENEA
Analisi del dipinto “Amor sacro e amor profano” di Tiziano mediante fluorescenza a raggi X. L’adattamento e l’applicazione della tecnica, effettuati dall’ENEA, permettono l’acquisizione di informazioni per lo studio della composizione elementale della zona in esame. I dati sinora acquisiti (circa 7000 misure eseguite su oltre 200 manufatti) per vari organi del Ministero dei Beni Culturali, per organismi internazionali e privati, sono stati archiviati su supporto informatico. Foto per cortesia di: Enea.
Un altro esempio di applicazione di tecnologie sviluppate dall’Enea è quello dei calcolatori paralleli: l’ENEA sviluppa uno dei sistemi di calcolo più potenti in ambito mondiale (di concezione e fabbricazione italiana) e sta mettendo a punto l’applicazione di questo sistema ad una serie di problemi che vanno dalla modellizzazione meteorologica e climatica sull’area del Mediterraneo alla simulazione della fabbricazione di elementi in materiale plastico con un processo innovativo; dalla progettazione e protezione di centrali di telecomunicazione alla classificazione di difetti in laminati metallici. Nell’ambito dell’Esposizione Communication, l’Ente era presente con due suoi progetti: Antartide (v. oltre) e Giano (v. D. Biagi Maino e G. Maino in questo stesso volume) nei quali si concentra in maniera significativa la funzione “comunicazione”. ITALIA IN ANTARTIDE
Il 1 dicembre 1959, a Washington, venne stipulato tra i 12 Paesi partecipanti all’Anno Geofisico Internazionale (19571958) il Trattato Antartico che, entrato in vigore nel 1961, sospende qualsiasi rivendicazione territoriale, lo sfruttamento delle risorse esistenti e favorisce gli usi pacifici del continente. Il Governo italiano ha sottoscritto il Trattato Antartico il 18
Particolare fotografico scattato in una sezione dell’Area Antartide Enea, allestita presso la Mostra Communication. Foto di: G. Artusi.
84
Immagine realizzata con la stazione informatica DEA (Decorazione E Ambientazione piastrelle). Il Progetto DEA, coordinato dall’Enea, è sviluppato da Danimarca, Spagna, Francia e Italia nell’ambito del Programma Comunitario SPRINT (Strategic PRogramme for INnovation and Technology transfer). Il sistema costituisce un apprezzato studio per la progettazione di piastrelle, per la loro vendita favorita dalla simulazione fotorealistica dell’ambiente a cui sono destinate e, infine, per la produzione e gestione di archivi aziendali e cataloghi elettronici. Foto per cortesia di: Enea.
marzo 1981 e il 10 giugno 1985 il Parlamento ha approvato la legge n. 284 istitutiva del Programma Nazionale di Ricerche in Antartide (P.N.R.A.). Il programma, svolto sotto l’egida del Ministero dell’Università e della Ricerca Scientifica e Tecnologica (MURST, ora MIUR), prevedeva attività di ricerca per il quinquennio 1985-1991. L’approvazione successiva di altre leggi di finanziamento del PNRA ha portato a svolgere finora 15 spedizioni in Antartide e a ottobre del 2000 è partita la sedicesima. L’ENEA è l’ente deputato all’attuazione del Programma e ne cura gli aspetti tecnologici. Per fare questo, all’interno dell’ENEA, è stata creata una unità di progetto dedicata al programma antartico italiano, unità che prende il nome di Progetto Antartide. COMUNICARE DA UN CONTINENTE NON CABLATO
IL PROGETTO GIANO
Il progetto Giano (Grafica Innovativa per il patrimonio Artistico Nazionale e per l’Occupazione giovanile) è un progetto finanziato dall’Unione Europea e dal Ministero dell’Università e della Ricerca Scientifica e Tecnologica, con il coordinamento della Divisione Fisica dell’Enea di Bologna. Obiettivo di questo progetto è lo sviluppo di metodologie diagnostiche ed informatiche multimediali per lo studio, la conoscenza e la conservazione di opere d’arte. In particolare, il progetto comporta la realizzazione di un sistema informativo in rete (Internet) per la documentazione di archivi, fonti storiche, biblioteche, musei
Analizzatore di energia degli atomi neutri per la misura della temperatura degli ioni in macchine sperimentali per ricerche sulla fusione termonucleare controllata, costruito dall’Enea, per il Large Helical Device giapponese, su contratto del National Institute for Fusion Studies di Nagoya. Foto per cortesia di: Enea.
85
La tenuta presidenziale di Castelporziano ripresa da satelliti (immagini a destra) e in un mosaico georeferenziato di rilevamenti aerei (a sinistra) ottenuta mediante una metodologia di elaborazione ad alte prestazioni sviluppata dall’Enea. Le immagini sono state elaborate per conto del Segretariato Generale della Presidenza della Repubblica Italiana, nell’ambito del Programma di studi ambientali nell’area della tenuta. Foto per cortesia di: Enea.
ed interventi di restauro, anche virtuali. Si viene così a creare una rete della cultura che coinvolge già molti paesi europei e che potrà allargarsi ad ulteriori partecipazioni. ricerca nel campo delle telecomunicazioni
Operare in area antartica o sub-antartica comporta inevitabilmente di dover fronteggiare e risolvere un problema strategico fondamentale: le telecomunicazioni. Ci si muove infatti in un’area vasta circa 1.5 volte l’Europa , in cui molti sistemi convenzionali di telecomunicazioni sono inesistenti, irraggiungibili o utilizzabili con fortissimi condizionamenti operativi. Il continente non è cablato; non ha a disposizione quindi tutte quelle facilities a cui siamo normalmente abituati e che fanno sì che il resto del pianeta possa essere definito, con un luogo comune oramai abusato, un grande villaggio globale. L’ENEA, attraverso il Progetto Antartide, ha messo in campo tutte le sue competenze per la progettazione, la realizzazione e la gestione di un sistema integrato di telecomunicazioni che fosse in grado di soddisfare qualsiasi esigenza di collegamento: dalle comunicazioni locali ad Internet. Tutto ciò ha comportato l’impiego di risorse umane ed economiche rilevanti e consente oggi al nostro Paese di poter vantare, anche nel settore delle telecomunicazioni, la realizzazione, in Antartide, di uno dei sistemi più avanzati dal punto di vista tecnologico.
D. Biagi Maino G. Maino
gli strumenti della memoria: informatica e diagnostica fisica per i beni culturali IL SETTECENTO: LE ACCADEMIE NELL’ETÀ DEI LUMI LA CORRISPONDENZA SCIENTIFICA, LA PRODUZIONE LIBRARIA E L’ILLUSTRAZIONE COME MEZZO DI COMUNICAZIONE FRA SCIENZIATI. L’ENCICLOPEDISMO IN EUROPA
Il logo del progetto GIANO (Grafica Innovativa per il patrimonio Artistico Nazionale e l’Occupazione giovanile).
Nella seconda metà del Seicento, la vita scientifica trova le forme di organizzazione che le sono mancate fino a quel momento per assicurare l’informazione e l’emulazione dei dotti. Il fenomeno, europeo, discende dai modelli italiani, così come accade in campo artistico. A Roma, ad esempio, l’antica Accademia di San Luca acquista vitalità ed importanza grazie all’opera di grandi, eruditi, antiquari, scrittori, artisti soprattutto; di spicco, per la storia della conservazione e del restauro, l’opera di Giovan Pietro Bellori che scrisse in difesa del pittore Carlo Maratti, cui si debbono significativi – quanto discussi appunto già all’epoca – interventi sulle pitture murali di Annibale Carracci (Galleria Farnese), Michelangelo (Cappella Sistina), Raffaello (Stanze Vaticane: Disputa del Sacramento, Scuola di Atene; Loggia della Farnesina), per le quali ottenne provvedimenti di tutela ed eseguì restauri improntati al principio di reversibilità ma giudicati, dai contemporanei e nel dibattito settecentesco, troppo invasivi. Per le più urgenti operazioni di fissaggio volle accanto a sé un tecnico di provata esperienza, prefigurando così la divisione di competenze che è alla base dalla moderna operatività nel campo del restauro, che chiamerà a sé, di necessità, lo scienziato. Dalla rivalutazione del ruolo delle arti meccaniche che viene sancito, a metà del Settecento, nelle pagine di quello straordinario monumento del sapere che è l’Encyclopédie di Diderot e D’Alembert discende anche, in Francia come in Italia, una prima distinzione professionale fra artista e restauratore; sarà comunque all’epoca della piena diffusione delle idee dei lumi, nella seconda metà del Settecento, l’epoca in cui il fe-
nomeno “accademia” vide la massima espansione, che si giungerà alla collaborazione non più occasionale fra restauratori e scienziati e ad un nuovo modo di avvicinarsi alle tecniche artistiche, attraverso la definizione fisica e chimica dei materiali. Il desiderio di studiare, analizzare la natura formale come quella materiale di un’opera d’arte per arrivare alla piena conoscenza di questa era già degli enciclopedisti francesi; l’attenzione di Denis Diderot per le arti del disegno, della quale sono frutto i commenti delle opere esposte alle mostre organizzate a Parigi tra gli anni 1759 – 1767, i celebri Salons, lo condusse all’adozione di un linguaggio chiaro e conciso, analogo a quelle che utilizzava per redigere le voci dell’Encyclopédie, con accurate osservazioni tecniche. È dunque in ragione dei presupposti di questo nuovo clima culturale che, quasi allo scadere del Settecento, viene ufficialmente ospitato nel Palazzo del Louvre uno scienziato che tenta di sfruttare le nuove tecniche fornite dalla scienza per metterle al servizio di una migliore conservazione e anche di una più approfondita conoscenza delle opere d’arte nelle collezioni reali: il fisico Jacques Alexander César Charles. Charles inventò nel 1780 il megascopio, uno strumento rudimentale composto da una lente convergente che, se esposta ai raggi del sole, proiettava su uno schermo o su un muro l’immagine ingrandita di un oggetto o, nel nostro caso specifico, di un’opera d’arte. Una sorta di proiettore, quindi, capace di ingrandire un’immagine in modo tale da poterla studiare nei minimi particolari. Da notare come l’ambizione di inventare una macchina o uno strumento per la “perfetta” imitazione della natura sia stata fin dall’epoca rinascimentale motivo di interesse e studio - teorico, ma soprattutto pratico - da parte di scienziati ed artisti. Si ricordi, in sintesi, che fu degli anni subito precedenti all’invenzione di Charles l’entusiasmo dei pittori per le scoperte sull’ottica, testimoniato dall’utilizzo, ad esempio, da parte di Canaletto della celeberrima camera oscura (o ottica), e del Crespi a Bologna, per non citare i moltissimi dipinti che attestano, in tutta Europa, tale concreto interesse nella pratica artistica. Charles proseguì la tradizione di studi di ottica e di fabbricazione di strumenti per la visione, esercitata nel secolo precedente da Galilei e proseguita da Newton e Huygens; in definitiva è a Charles ed alle sue ricerche condotte al Louvre che siamo indirettamente debitori dell’invenzione della macrofotografia. Ancora, la grande occasione offerta, a fine secolo, dalla campagna d’Egitto (1798-1801), permise ad alcuni eruditi ed archeologi francesi che vi parteciparono di collaborare per la prima volta “sul campo” con esperti di scienze naturali, di fisica e di chimica. Da questa collaborazione, che per quei tempi costituiva una sorprendente novità, nacque l’opera pubblicata nel 1805 sui Comptes Rendues dell’Accademia delle Scienze di Parigi dal chimico e accademico francese Jean Chaptal: La chimie peut-elle servir aux arts?, nella quale lo Frontespizio, dedica e tavole (n.4 immagini digitali) del Dizionario delle arti e de’ mestieri di Francesco Griselini, stampato a Venezia nella seconda metà del Settecento. F. Griselini, Dizionario delle Arti e de’ Mestieri, Modesto Fenzo, Venezia 1768 e 1770, tomo I e VIII (già collezione Domenico Levera). Bologna, Biblioteca dei Frati Minori dell’Osservanza. 86
studioso esponeva i vantaggi che la scienza poteva offrire all’arte, a partire dalle rivoluzionarie scoperte del Lavoisier, che aveva posto le basi della moderna chimica. Negli stessi anni in cui Charles avviava le sue ricerche in Francia, al di là della Manica e in Germania alcuni scienziati si erano dedicati per la prima volta all’analisi chimica di importanti reperti archeologici: le antichità cominciavano ad attrarre l’attenzione di grandi ingegni tra i quali l’Alchorn, che nel 1774 a Londra - su ordine di re Giorgio III - analizzò chimicamente due spade dell’Età del Bronzo provenienti dall’Irlanda; ancora, Martin Heinrich Klaproth, padre della chimica analitica, colpito dallo splendore e dalla lucentezza dei bronzi classici, iniziò a studiarne la composizione chimica. Sul finire del XVIII secolo, Klaproth, a quell’epoca primo professore di chimica dell’Università di Berlino, esaminò antichi reperti in bronzo - soprattutto monete - ricorrendo ai metodi della chimica analitica.
L’OTTOCENTO: LA RIVOLUZIONE INDUSTRIALE L’APPLICAZIONE SISTEMATICA DELLE DISCIPLINE SCIENTIFICHE ALL’INDAGINE DEI MANUFATTI DI INTERESSE ARCHEOLOGICO, STORICO ED ARTISTICO. LA NASCITA DELLA FOTOGRAFIA E LA DOCUMENTAZIONE DELLE OPERE D’ARTE
L’Inghilterra del XIX secolo fu testimone di una svolta nel rapporto fra la ricerca scientifica e l’indagine storico-artistica. Già ad apertura di secolo - nel colto ambiente scientifico e letterario del paese - domina la figura dello scienziato, inventore, nonché poeta dilettante Humphry Davy, che nel 1815 pubblicò un dettagliatissimo studio tecnico sulla natura e sulla manifattura dei colori antichi, sia naturali che sintetici. L’indagine scientifica proseguì per tutto il secolo, sui manufatti archeologici ad esempio: Percy, Gowland ed altri importanti studiosi analizzarono antichi materiali trovati durante gli scavi archeologici delle colonie romane poste sulla costa britannica (Silchester, Wroxeter, Caerwent). Nel contempo, in Italia, Giovanni Fraboni pubblicò uno studio, Il bronzo ed altre leghe conosciute in antico (1810), sulla composizione dei metalli trovati nelle tombe etrusche. Tra breve, sarà consacrata nei fatti la professionalità del restau-
87
ratore, come attestano gli eccellenti risultati ottenuti dal bolognese Giuseppe Guizzardi che, formatosi alla scuola di Gaetano Gandolfi, scelse di trascurare la pittura per il campo nuovo e lucroso del restauro. Il Guizzardi fu uno dei consulenti di fiducia del conte Giovanni Secco Suardo, grazie al contributo del quale l’attività del restauratore assunse nell’Ottocento caratteri autonomi. Il conte bergamasco rispose all’esigenza di dotare quest’attività di una propria sistematicità di metodo, sottolineando nei suoi scritti l’importanza della formazione di tipo interdisciplinare per chi volesse applicarsi al restauro, nella consapevolezza dell’utilità di approfondimenti conoscitivi oltre il campo delle pratiche artigianali, per l’acquisizione delle informazioni fisico-chimiche necessarie alla conoscenza del comportamento dei materiali, sia costitutivi che di restauro, per poterne attuare in ciascun caso la migliore conservazione o applicazione. In Francia, negli anni in cui il piemontese Giovanni Bedotti editava il suo De la restauration des tableaux (1837), vennero ultimate le ricerche che condussero all’invenzione della fotografia, strumento scientifico utilizzato sin da subito anche per studi storico-artistici. I primi tentativi importanti di fissare perennemente le immagini della camera oscura furono intrapresi da Joseph Nicéphore Niepce verso il 1816. Lo studioso sperimentò l’uso di varie sostanze fotosensibili e nel 1822 riuscì a incidere un’immagine fotografica su una lastra di rame precedentemente ricoperta con un sottile strato di asfalto ed esposta poi alla luce. L’intento di Niepce era quello di ottenere un mezzo riproduttivo delle opere d’arte più fedele e più economico rispetto all’incisione. Niepce giunse solo a compiere i primi tentativi in questa direzione; fu poco dopo la sua morte che il suo collaboratore Jacques Daguerre ideò la tecnica fotografica fondata sull’insolubilizzazione di alcuni composti chimici sottoposti ad una radiazione. I risultati furono sorprendentemente brillanti. Dopo un fallito tentativo di ottenere un sostegno commerciale, l’invenzione della fotografia fu infine spettacolarmente annunciata con trionfale successo a Parigi nel 1839. La prima macchina fotografica fu chiamata dagherrotipo così come le prime immagini - dal nome di Daguerre - e il suo primo impiego fu la riproduzione di opere d’arte su lastre metalliche.
ricerca nel campo delle telecomunicazioni
Immagini digitali di opere del fondo settecentesco della Biblioteca del Convento dei Frati Minori dell’Osservanza a Bologna, dal catalogo multimediale realizzato nell’ambito del progetto GIANO.
ricerca nel campo delle telecomunicazioni
Fotografie digitali ad alta risoluzione di vetrate medioevali, studiate dall’Enea nell’ambito delle attività di ricerca del Progetto GIANO.
Nove anni prima, nel 1830, l’ancora rudimentale invenzione di Niepce e di Daguerre era stata presentata all’Accademia delle Scienze con una comunicazione del grande fisico JeanFrancois Arago, introdotta dalla lapidaria formula : Messieurs, la photographie peut-elle oui ou non servir aux Arts? Da questo fervore di studi e sperimentazioni conseguì nel 1860 la fondazione, patrocinata da Napoleone III, della prima sede consacrata a studi di chimica e fisica applicata alle arti presso l’Ecole des Beaux-Arts. Fu chiamato a dirigerla il biologo Louis Pasteur, che divenne titolare della cattedra di Scienze e Arti. Il celebre scienziato ebbe come primo compito quello di illustrare agli artisti il contributo della scienza per una migliore comprensione dei fenomeni legati alla luce ed ai colori, e quindi affrontare i problemi dell’invecchiamento e della conservazione della pittura ad olio. Pasteur consacrò molti anni della sua vita allo studio delle opere d’arte mediante metodi di indagine fisici e chimici; amico del professor Haro, a quel tempo restauratore al Musée du Louvre, e grande appassionato egli stesso di pittura, trascorreva molte ore nel museo. Per due anni, dal 1860 al 1862, all’Ecole des Beaux-Arts si applicò con i mezzi messigli a disposizione dalla fisica e dalla chimica a comprendere approfonditamente le tecniche dei maestri del passato. In Germania, nel 1869, il chimico Von Bibra registrò tutte le ricerche effettuate fino ad allora sulle opere in bronzo, vi aggiunse le proprie e tracciò un bilancio delle conoscenze. Vide così la luce a Berlino il primo saggio di paleometallurgia. IL NOVECENTO E OLTRE: LA TELEMATICA DAL CINEMATOGRAFO AD INTERNET, LE MODERNE TECNOLOGIE PER LA DIFFUSIONE DELLE CONOSCENZE. DAL SUPPORTO MATERIALE A QUELLO IMMATERIALE (INFORMATICO) PER LA DOCUMENTAZIONE DELLE OPERE D’ARTE. LE ANALISI DIAGNOSTICHE NON DISTRUTTIVE
Nel 1895, Konrad Roentgen scoprì ad Augusta i raggi X. Per verificare sperimentalmente questa sua scoperta, scelse di realizzare la radiografia di un quadro, prima indagine non di-
Il Crocifisso di San Damiano ad Assisi: riproduzione digitale di un dettaglio dell’opera ed immagini digitali di esami diagnostici (particolari dell’opera) con radiazione infrarossa (IR) ed ultravioletta (UV), riflessa e di fluorescenza (nella pagina successiva).
struttiva per le opere d’arte. La fine del XIX secolo e l’inizio del XX sono caratterizzate dall’attenzione in tutta Europa per i metodi di analisi e di restauro di opere d’arte, che condussero anche alla creazione di laboratori scientifici per la conservazione e lo studio delle opere d’arte. Il primo istituito all’interno di un museo fu quello del Koenigliche Museum di Berlino, voluto da Friedrich Rathgen nel 1888. Le analisi chimiche, gli esami a raggi X, le indagini basate sull’utilizzo dei raggi ultravioletti e infrarossi cominciarono ad essere condotte con regolarità all’interno dei laboratori di restauro dei musei. La proprietà dei raggi X di attraversare in misura diversa i materiali costituenti l’opera, sia in funzione della loro natura chimica che del loro spessore, consente di ottenere un’immagine per trasparenza dell’oggetto indagato e in particolare di ciò che si trova al suo interno, impressionando quindi una pellicola di opportuna sensibilità in funzione della radio-opacità dei materiali, cioè della loro capacità di assorbire le radiazioni. La lettura e l’interpretazione dei segni di un’immagine radiografica costituiscono un’operazione piuttosto complessa che necessita di continui riferimenti con l’opera originale. La radiografia può essere paragonata ad una sovrapposizione di immagini, le cui trasparenza, traslucidità e opacità variano a seconda della densità e lo spessore dei materiali radiografati. In radiografia, l’originale è sempre in scala uno a uno; per dipinti di grandi dimensioni si ricorre il più delle volte ad opportuni montaggi di più radiografie, convenzionalmente denominati mosaici radiografici. I colori a base di piombo sono quelli più radio-opachi (la biacca ad esempio); le terre, l’oltremare e i pigmenti organici, invece, lo sono poco e non compaiono nei radiogrammi. I tessuti non sono radio-opachi; la tela si vede in radiografia solamente per il gesso o la biacca che ne riempiono la tessitura. I disegni preparatori non sono evidenziati dalla radiografia, che può dare invece buoni risultati con i tratti incisi e riempiti da pigmenti o materiali dell’imprimitura. In Francia, dove nel 1931 fu creato il laboratorio scientifico del Louvre, le prime radiografie di opere d’arte vennero effettuate durante la Prima Guerra Mondiale da Ledaux Lebart, un medico appassionato di pittura. Nel 1920 Cheron, un altro medico, realizzò, in presenza dei conservatori del museo, la prima radiografia di un dipinto delle collezioni. È in questi stessi anni che i raggi ultravioletti e quelli infrarossi vengono utilizzati per la prima volta nei laboratori di restauro.
Ministero dei Beni Culturali, Enti locali e operatori del settore sia pubblici sia privati. Un esempio di rilievo è rappresentato dal progetto internazionale di ricerca GIANO, coordinato dall’ENEA di Bologna.
METODOLOGIE INFORMATICHE PER I BENI CULTURALI
STRUMENTI INFORMATICI PER LA CATALOGAZIONE
Le applicazioni informatiche e telematiche innovative ai beni culturali rappresentano un campo del tutto nuovo, dove solo da pochissimi anni ci si è cominciati a muovere a livello internazionale: il nostro Paese, privilegiato dal poter disporre della più significativa quota del patrimonio storico ed artistico mondiale, può divenire riferimento d’avanguardia. In questo senso, un progetto di ricerca nazionale volto alla realizzazione di una rete scientifica informatica per i beni culturali svolge un ruolo di importanza non solo nell’introduzione di tecnologie innovative, ma anche nella definizione dei relativi standard in difesa di imprescindibili principi-guida, garantendo un indiscutibile vantaggio alle aziende italiane del settore. Si sottolinea il significato della realizzazione in atto di strutture e lo sviluppo di metodologie matematiche ed informatiche in ragione di: • applicazioni alla diagnostica e alla datazione di opere d’arte e manufatti storici e artistici; • archiviazione multimediale; • sperimentazione di metodologie innovative nel campo dell’elaborazione di immagini; • definizione di standard in collaborazione con le industrie del settore; • formazione professionale e didattica, nel settore della conservazione e tutela dei beni culturali. Questi obiettivi possono essere conseguiti solo grazie alla collaborazione fra Enti nazionali di ricerca, Università e Istituti del
E LA DOCUMENTAZIONE. IL PROGETTO GIANO
Il progetto GIANO (Grafica Innovativa per il patrimonio Artistico Nazionale e per l’Occupazione giovanile) si propone di realizzare un sistema informatico prototipale, accessibile in rete, per l’archiviazione multimediale ed ipertestuale di opere d’arte (dipinti, disegni, stampe, sculture, epigrafi, mosaici, testi manoscritti e a stampa, ecc.) e di interventi di restauro (comprensivi delle immagini diagnostiche e delle varie fasi dell’intervento stesso), mediante l’utilizzo di tecniche matematiche ed informatiche innovative, nonché di metodologie di elaborazione di immagini e di simulazioni di realtà virtuale. Le metodologie informatiche e grafiche innovative (dalla computer graphics alle simulazioni di realtà virtuale) cui si intende fare ricorso, insieme alle tecniche di realizzazione e gestione di data base multimediali con strutture ad ipertesto, e le applicazioni telematiche su WEB, rappresentano lo stato dell’arte per le odierne tecnologie informatiche; il loro utilizzo in un campo strategico per il nostro Paese, quale quello dei beni culturali, rappresenta una opportunità e una sfida imprescindibile. GIANO ha come principali obiettivi la progettazione, realizzazione e validazione di software applicativo (grafica innovativa, simulazioni di realtà virtuale, banche dati relazionali) per l’archiviazione e la documentazione dei beni culturali di particolare rilevanza storica e artistica con metodologie ipertestuali e multimediali. Nell’ambito del progetto sono state individuate – a scopo dimostrativo - tre applicazioni principali, ciascuna delle quali ha caratteristiche tipiche di una vasta classe di beni culturali: • biblioteche ed archivi storici, in particolare nelle Regioni Calabria e Sicilia, di significato per la presenza di documenti inediti relativi alla presenza di Bisanzio in Italia Meridionale ed Insulare; • imaging diagnostico e relazioni di restauro - incluse documentazioni scritte e fotografiche - relative a beni storici ed artistici dislocati principalmente nel Meridione; • mosaici parietali dell’area mediterranea dal IV al XIV secolo. Il progetto internazionale GIANO è finanziato dall’Unione Europea e dal Ministero dell’Università e della Ricerca Scientifica e Tecnologica (ora MIUR); è coordinato dalla Divisione Fisica dell’ENEA di Bologna, con la partecipazione di numerosi
Particolare del Crocifisso di San Damiano con sovrapposta un’immagine radiografica digitale.
v. pagina precedente.
ricerca nel campo delle telecomunicazioni
Attualmente queste tecniche di indagine, associate all’uso del computer, consentono l’acquisizione in tempo reale di immagini utili alla diagnostica, in formato digitale, permettendo la visualizzazione delle informazioni durante l’esame dell’opera stessa.
ricerca nel campo delle telecomunicazioni
Alcuni esempi della parte testuale con i collegamenti alle immagini della base di dati del fondo settecentesco della Biblioteca dei Frati Minori Osservanti.
istituti universitari, enti di ricerca ed imprese industriali in Italia, fra cui: • Facoltà di Conservazione dei Beni Culturali dell’Università di Bologna (sede di Ravenna) • Dipartimento di Fisica dell’Università di Ferrara • Dipartimento di Fisica dell’Università di Messina • Dipartimento Patrimonio Architettonico e Urbanistico della Facoltà di Architettura dell’Università di Reggio Calabria • Istituto di Tecniche Spettroscopiche del CNR (ITS) di Messina • Consorzio Ferrara Ricerche • Franco Maria Ricci Editore, Parma - Milano • Società di restauro COO.BE.C. e TECNIRECO di Spoleto Collaborano al progetto GIANO: per l’ENEA Giuseppe Maino (responsabile del progetto; coordinatore) Massimo Berico, Stefania Bruni, Roberta Chiarini, Francesco Cichetti, Stefano Cini, Riccardo D’Orazi, Stefano Ferriani, Marcello Galli, Roberto Giampieri, Lorenzo Moretti, Alfio Musumeci, Carlo Petrella, Carlo Maria Porceddu Cilione, Elio Sabia, Daniele Visparelli, Alberto Zucchini per la Facoltà di Conservazione dei Beni Culturali dell’Università di Bologna Donatella Biagi Maino (coordinatore) Silvia Berardi, Luca Ciancabilla, Luigi Colaiacomo, Ilaria Francia, Giulia Gandolfi, Roberta Gollini, Emanuela Grimaldi, Silvia Guidi, Elena Manservigi, Simona Mazzotti, Barbara Menghi Sartorio, Marta Mineo, Giuseppina Radicchi, Lorenza Roversi, Manuela Savioli Laboratorio SIGMA per la ricerca sui manufatti storici ed artistici nella sede ENEA di Bologna – Progetto GIANO ∑ = Sistema Integrato di Grafica, Microscopia ed Analisi; Gs (GAMMAS) Grafica Avanzata Modellistica, Matematica Applicata e Simulazione numerica; D (DELTA) Datazioni ed Elaborazioni informatiche per Lavorazioni e Tecnologie Antiche; L (LAMBDA) Laboratorio per le Applicazioni della Microscopia alle Biotecnologie e alla Diagnostica Artistica. Le principali collaborazioni internazionali del progetto GIANO.
Una banca dati rappresenta sostanzialmente un modo efficiente di organizzare dati strutturati sulla memoria di massa
di un elaboratore elettronico e di sfruttare quindi le potenzialità di questo strumento per effettuare operazioni di indicizzazione, ricerca e recupero di informazioni, aggiornamento dei dati bibliografici, trasferimento delle informazioni su propri files, modificabili ad esempio grazie ad opportuni programmi applicativi di elaborazione di testi. È stato sviluppato un sistema informatico per la creazione e gestione di una banca dati bibliografica, riferita alla catalogazione del libro antico. Questo software è stato sperimentato su una particolare, significativa applicazione rappresentata dal fondo settecentesco della biblioteca dei Minori Osservanti di Bologna. Si è scelto il sistema operativo WINDOWS, poiché disponibile su qualsiasi personal computer e quindi tale da consentire l’elaborazione dei dati anche locale. Il programma prevede la possibilità di continui aggiornamenti in maniera estremamente semplice, mediante la compilazione di schede preformate (workforms). È anche possibile aggiungere nuove voci a quelle originariamente previste che, nella versione attuale mostrata in figura, rappresentano un conveniente sottoinsieme di quello definito dalla normativa Isbd(a). Il programma si articola in campi e sottocampi, anche ripetibili e, a differenza di altri software per la creazione di database disponibili in commercio, dà la possibilità di stabilire un legame (link) con siti web sia locali sia in rete, oltre che con archivi fotografici, bibliografici e diagnostici. DIAGNOSTICA NON DISTRUTTIVA PER LE OPERE D’ARTE: ALCUNI RISULTATI DEL PROGETTO GIANO
Indispensabile complemento della ripresa fotografica nel visibile alla conoscenza di opere d’arte, utile anche alla conservazione, è l’acquisizione di immagini nelle bande dell’infrarosso e dell’ultravioletto, che consentono di ricavare informazioni sugli strati nascosti del dipinto senza comportare prelievi di campioni della materia pittorica. Fra i mezzi di indagine non-distruttiva di superficie più comunemente usati si hanno la lampada di Wood e la fotografia all’ultravioletto che ne deriva. La fluorescenza ultravioletta permette di evidenziare co-
90
me macchie scure le ridipinture. Molti dei materiali pittorici, antichi e moderni, hanno la proprietà di essere fluorescenti, cioè emettono luce visibile, quando sono stimolati da radiazione ultravioletta. La fluorescenza inoltre cambia, di solito aumenta, con l’invecchiamento; di conseguenza, sostanze simili anche dal punto di vista fisico-chimico ma utilizzate in tempi successivi possono presentare sotto la luce di Wood intensità e tonalità di fluorescenze molto diverse, consentendone una migliore individuazione e, in alcuni casi, l’identificazione, in fase preventiva al restauro. I raggi infrarossi cominciarono ad essere usati nel campo del restauro solamente a partire dal 1930, con lo scopo di evidenziare, grazie alla loro capacità di penetrare attraverso la pellicola pittorica, eventuali disegni preparatori sottostanti alla pittura. Negli anni ‘60 fu sperimentata la tecnica della riflettografia, che individua appunto, ed in maniera molto chiara, eventuali disegni sottostanti la pittura. Queste tecniche, sia pure imperfette, sono da considerare indispensabili per la documentazione dello stato di conservazione dell’opera d’arte presa in esame preventivamente ad ogni intervento di restauro e quindi degli interventi cui è sottoposta durante le varie fasi d’intervento. Con la tecnologia informatica è finalmente possibile sopperire ai difetti inevitabili all’attrezzatura, ottenendo la documentazione di immagini il più fedele possibile all’originale: soprattutto, confrontabile in tempo reale con esso. Le indagini sulla tavola di Giorgio Vasari Gesù in casa di Marta, insieme con quelle effettuate sul Crocifisso di San Damiano, sono state eseguite con una speciale apparecchiatura portatile tipo MuSIS 2007, corredata di un sistema di imaging diagnostico non invasivo, che opera in tempo reale sulle bande del visibile, del vicino infrarosso e dell’ultravioletto, riflesso e di fluorescenza, consentendo di verificare direttamente sullo schermo del computer collegato la qualità delle riprese e valutare i risultati dell’indagine mentre viene effettuata. Un’ottica molto sofisticata, combinata all’uso di efficienti sensori e ad algoritmi di elaborazione delle immagini digitali che ne migliorano la qualità e la leggibilità, permette di effettuare le misure con sorgenti luminose fredde e di bassa intensità, non danneggiando minimamente l’opera. L’intera superficie di questa in ciascuna banda spettrale può quindi essere ricostruita attra-
Ricostruzione ‘a mosaico’ delle riprese digitali in luce visibile sulla tavola del Vasari.
91
verso una procedura informatica di ricomposizione a mosaico delle singole riprese, garantendo immagini globali finali di eccellente qualità ed elevatissima risoluzione e precisione. Dettagli difficilmente visibili, anche con lenti di ingrandimento, in luce visibile, appaiono evidenti dopo l’elaborazione digitale, consentendo di ottenere informazioni sulla tecnica esecutiva e sullo stato di conservazione del dipinto. La tavola del Vasari, in fase di restauro a cura del laboratorio Marco Sarti di Bologna, si presentava in buone condizioni in ciò che attiene il supporto ligneo. Sullo strato pittorico, invece, erano presenti delle microfratture e delle piccole cadute di colore; di particolare rilievo era l’ossidazione degli incarnati delle figure, dovuta probabilmente a cause intrinseche al dipinto stesso, e la presenza di tracce di ritocchi nelle zone che avevano subito cadute di colore. Si è scelto di procedere anche al prelievo dalla tavola di alcuni campioni che, dopo essere stati preparati adottando le procedure di preparazione definite presso i laboratori della National Gallery di Londra, nell’ambito della collaborazione esistente con i laboratori dell’ENEA di Bologna, sono stati destinati a due tipi di indagini: • analisi qualitative (microscopia ottica): stabilire quale sia la struttura stratigrafica del dipinto; • analisi chimiche semiquantitative (microanalisi chimiche col microscopio elettronico a scansione, SEM): determinare quale sia la composizione specifica dei materiali usati dal pittore. L’immagine ingrandita ottenuta con il SEM può essere registrata fotograficamente in maniera digitale, consentendo successive elaborazioni. Le analisi qualitative, microanalitiche e mediante test istochimico-colorimetrico, condotte su di un frammento prelevato dalla tavola del Vasari hanno evidenziato sia il fatto che nella preparazione il Vasari abbia usato colla di coniglio, sia la presenza di tre distinti strati di gesso sovrapposti all’interno della preparazione pittorica stessa. Secondo la metodica standardizzata presso i laboratori scientifi-
Alcuni dettagli della tavola in luce visibile e, a confronto, nella banda IR, che evidenziano differenze rispetto alla stesura finale.
ricerca nel campo delle telecomunicazioni
Sezioni stratigrafiche al microscopio ottico ed elettronico di campioni prelevati dalla tavola del Vasari.
ricerca nel campo delle telecomunicazioni
ci dell’ENEA di Bologna e Faenza, le stesse sezioni che erano state precedentemente osservate al microscopio ottico sono state analizzate al SEM, ottenendo risultati che illustrano l’analisi elementale del vermiglione; appare evidente la composizione di solfuro di mercurio (HgS), che consente anche una determinazione semi-quantitativa delle sostanze presenti, e quindi una possibile caratterizzazione di provenienza dei pigmenti. In ultimo, tramite la strumentazione digitale tipo MUSIS 2007, è stato eseguito un rilevamento completo dell’opera, tale da garantire una documentazione inalterabile e permanente dello stato della tavola alla data di conclusione dell’intervento di restauro. Tale operazione consentirà, in futuro, un monitoraggio efficace e preciso, il più oggettivo possibile, dello stato di conservazione dell’opera. I risultati ottenuti dall’elaborazione delle immagini digitali, soprattutto nelle tre bande del vicino infrarosso, hanno permesso di evidenziare il disegno preparatorio sottostante il dipinto e, in alcuni casi, pentimenti e modifiche effettuate dal Vasari. ACQUISIZIONE ED ELABORAZIONE DI IMMAGINI DIGITALI. IL RESTAURO VIRTUALE METODI DI ELABORAZIONE DI IMMAGINI PER L’ANALISI DI INTERVENTI DI RESTAURO SU DIPINTI
Oggetto dei primi studi sperimentali svolti nell’ambito del progetto GIANO in collaborazione con i laboratori scientifici della National Gallery di Londra è stata la piccola tavola con la Vergine e il Bambino di Jan Gossaert, grande artista fiammin-
go del Cinquecento. Fino al 1996 si riteneva che questo dipinto, acquisito dalle raccolte inglesi nel gennaio del 1860, fosse una copia, risalente forse all'inizio del XVII secolo, di una tavola, andata perduta, del Gossaert, nota attraverso stampe. In particolare, due varianti sostanziali nella resa della mano del Bambino e del velo della Vergine lo distinguevano da altre versioni note e soprattutto dall’incisione del 1589 di Crispijn de Passe il Vecchio, così da rendere impossibile l'identificazione con l’originale del Gossaert. In fase di restauro, presso i laboratori della National Gallery, è stato invece possibile riconoscere la tavoletta quale prototipo delle successive versioni del tema gossaertiano. Dalle indagini radiografiche condotte sul dipinto si è evinta la perfetta corrispondenza con l'incisione del 1589, mascherata da interventi successivi alla stesura dell’opera che ne avevano in parte mutato l’assetto. Anche l'analisi dendrocronologica del supporto ligneo ha confermato la datazione anticipata proposta per via stilistica. Gli studi sperimentali, compiuti nell’ambito di GIANO presso i laboratori scientifici della galleria inglese, hanno avuto come scopo di rendere visibili distintamente in un'unica immagine in digitale, grazie al confronto delle immagini digitali prima e dopo la pulitura del dipinto, le ridipinture ottocentesche e la versione originale del dipinto fiammingo. Il laboratorio VASARI della National Gallery - dedicato all’elaborazione delle immagini - conserva in archivio informatico le immagini digitali delle opere ospitate nel museo, documentazione dello stato prima, durante e dopo interventi di restauro. La disponibilità delle immagini digitali ha permesso di sviluppare un metodo matematico per evidenziare le differenze prima e dopo la pulitura del dipinto. È stato quindi predisposto con i colleghi della National Gallery un software, opportunamente adattato presso il laboratorio GAMMAS del Centro ENEA di Bologna, per l'elaborazione delle immagini, a partire dalla libreria VIPS (Vasari Image Processing Software), sviluppata dai ricercatori inglesi a partire dall'inizio degli anni ‘90. Le immagini riprese prima e dopo la pulitura sono state sovrapposte osservando una evidente differenza di tipo cromatico: il restauro ha rimosso la patina di vernice ingiallita, restituendo ai colori brillantezza e luminosità. Poiché questa differenza macroscopica rende impossibile confrontare le due immagini, per rilevarne le variazioni morfologiche dovute ai rimaneggiamenti, è stato necessario elaborarle con opportuni algoritmi matematici. È stato così possibile distinguere due tipi di differenze: • “positive” (di colore celeste): mettono in rilievo le parti del dipinto assenti nella versione antecedente al restauro e riportate alla luce dalla pulitura; • “negative” (di colore giallo): mostrano i rifacimenti arbitrariamente introdotti dal restauro ottocentesco. Questo metodo ha confermato in maniera quantitativa, le analisi condotte in precedenza. La procedura matematica così definita costituisce un primo passo per la messa a punto di una più sofisticata metodologia di confronto, che può rappresentare un valido strumento diagnostico per la verifica, dunque la più obiettiva, degli interventi di restauro.
La tavola di Jan Gossaert (National Gallery di Londra) durante la pulitura, con evidenziate le zone di interesse in falsi colori.
92
Restauro virtuale di uno dei ritratti ad acquerello della Pinacotheca Bassiana.
Nella seconda metà del Settecento, il custode dell’Orto Botanico di Bologna, Ferdinando Bassi, fece eseguire, dai pittori dell’Accademia Clementina dell’Istituto delle Scienze, una serie di ritratti a tema, scelta raccolta che ancor oggi si impone per eccezionalità nel novero pur ricco delle iconoteche settecentesche. Il botanico volle celebrare la disciplina da lui tanto amata creando un percorso ideale dei progressi di questa attraverso la memoria delle effigi di quanti, prima di lui e al suo tempo, di essa scrissero, e creò una collezione che da lui prese il nome di Pinacotheca Bassiana, che per cronologia si colloca nel settimo decennio del secolo. Gli acquerelli, sebbene molto apprezzati nel Settecento, furono obliati col mutare del gusto nell’Ottocento e recuperati agli studi in tempi recentissimi ad opera di Donatella Biagi Maino, nel corso di ricerche relative all’estetica perseguita nell’ambito dell’Istituto delle Scienze e sui pittori Gandolfi, tra gli autori dei ritratti, con conseguente giusta collocazione nel processo di riqualificazione della cultura artistica accademica del secolo dei lumi. Da segnalare, che le opere sono di proprietà dell’Università degli Studi di Bologna. La campagna di acquisizione delle immagini ha avuto un duplice scopo: la realizzazione di una versione digitale ad alta risoluzione dell’intera collezione (75 CD-rom), che concede di disporre di un archivio permanente, di facile consultazione, che restituisce lo stato delle opere al giugno 1999, utile quindi alla verifica della conservazione delle stesse nel tempo, e la
Dettagli dell’analisi informatica condotta sulla tavola del Gossaert alla National Gallery di Londra.
93
elaborazione delle immagini digitali acquisite, al fine di sperimentare un restauro virtuale dei disegni stessi, utile al riconoscimento di uno stato presumibilmente vicino al primitivo. A differenza del restauro manuale, che agisce direttamente sull’opera d’arte, il restauro virtuale è connesso alla manipolazione dell’immagine digitale dell’opera avendo come fine ultimo la conservazione materiale di tutte le parti fisiche costituenti l’opera d’arte quindi che viene affiancata in digitale, secondo un’interpretazione attualizzata delle proposte di G.B.Cavalcaselle, da una copia che restituisce al pubblico l’assetto ottimale. Gli interventi di restauro virtuale condotti sulle immagini dei botanici possono essere classificati in due categorie principali: • interventi globali: riguardano gli aspetti colorimetrici delle immagini, ovvero le correzioni che si applicano all’intera immagine al fine di diminuire l’ingiallimento delle carte; • interventi puntuali: riferiti a zone circoscritte delle singole immagini, hanno lo scopo di eliminare le imperfezioni locali, quali ad esempio macchie, piccole lacune ecc. Le due diverse tipologie di intervento, locale e globale, sono compendiate nell’illustrazione, in cui le diverse operazioni di elaborazione di immagine concorrono a ripristinarne, nei limiti del possibile consentito dalle conoscenze sullo stato del degrado della materia cartacea e del pigmento, e soprattutto dal raffronto stilistico con opere coerenti e dall’analisi filologica, il presumibile aspetto in antico e, in ogni caso, una migliore leggibilità dell’opera stessa.
ricerca nel campo delle telecomunicazioni
“PINACOTHECA BASSIANA” DELL’UNIVERSITÀ DI BOLOGNA
O. Andrisano
le ricerche presso il centro di studio per l’informatica e i sistemi di telecomunicazioni del cnr LE TELECOMUNICAZIONI MULTIMEDIALI E LA RICERCA SCIENTIFICA SUI SISTEMI WIRELESS
Le telecomunicazioni multimediali e la ricerca scientifica sui sistemi radio dalle reti radiomobili terrestri alle missioni spaziali.
(in basso) L’evoluzione dei sistemi radiomobili cellulari.
Gli anni recenti sono stati caratterizzati da un vertiginoso sviluppo delle Telecomunicazioni che, attraverso l’evoluzione dei sistemi e la loro integrazione, mettono a disposizione dell’utente servizi sempre più sofisticati, secondo una tendenza che pone l’enfasi sull’aspetto del put technology to work. Va sottolineata, a questo riguardo, la convergenza che si sta delineando tra il mondo delle comunicazioni mobili e internet, secondo la quale l’utente mobile, supportato da una tecnologia sempre più efficiente e veloce, potrà usufruire di servizi multimediali avanzati, indipendentemente dalla propria posizione su aree sempre più estese. Con il termine “telecomunicazioni multimediali” ci si riferisce al processo di generazione, elaborazione e trasferimento di immagini fisse e in movimento, di suoni, di grafica e di dati in
generale, processo che si pone l’obiettivo primario di un’efficiente interattività delle comunicazioni tra le sorgenti di informazione e i destinatari. Il settore delle telecomunicazioni multimediali, attraverso lo sviluppo delle tecnologie, siano esse fotoniche o wireless (terrestri e satellitari), tenderà a moltiplicare i servizi per quanto attiene a svariati campi di attività, dalle applicazioni commerciali e di assistenza al cittadino, all’intrattenimento, al telelavoro, alla teledidattica, alla telemedicina, al trasporto intelligente, basato cioè su sistemi di gestione e comunicazione multimediali, ed altro. I sistemi multimediali interattivi pongono l’utente, fisso o mobile, in condizioni di gestire a distanza il proprio rapporto con un fornitore di servizi o prodotti, consentono di svolgere il proprio lavoro da casa o in viaggio, permettono allo studente di beneficiare a distanza dell’azione didattica di un docente nel modo più completo o di accedere ad un banco di misura per la verifica delle prestazioni di sistemi e circuiti da programmare opportunamente. Tutto ciò con un livello crescente di rapidità e di efficienza. Come già accennato, un’enfasi particolare va attribuita ai sistemi radiomobili in tutti i paesi europei, nell’evoluzione verso i sistemi di terza generazione, che potranno offrire applicazioni di velocità e qualità diversificata, secondo gli standard che si stanno affermando a livello internazionale: UMTS (Universal Mobile Telecommunication System), e più in generale IMT 2000 (International Mobile Telecommunications). Particolare attenzione merita poi un settore, quello del trasporto intelligente (ITS), ancora in fase emergente nelle applicazioni, anche a fronte di un’intensa attività di ricerca sviluppata a livello internazionale sin dalla fine degli anni ’80. I servizi ITS basati sulle Telecomunicazioni trarranno sicuramente grande beneficio dalla realizzazione dei sistemi radiomobili di terza generazione, con riferimento a varie classi di servizio, quali, ad esempio: pagamento del pedaggio automatico, supporto alla guida (consistono nel fornire al guidatore informa-
Temi di ricerca affrontati presso CSITE-CNR, Research field at CSITE-CNR • Gestione dell’utilizzo delle risorse radio, Radio resource Management • Protocolli di Accesso multiplo, Multiple Access Protocols
• Caratterizzazione degli effetti non lineari, Nonlinear effects characterization
• Handover
• Trasmissione digitale, Digital Transmission
• Controllo di potenza, Power Control
• Stima del canale di trasmissione
94
Attività di ricerca sviluppata presso CSITE e CNIT in collaborazione con diversi Enti e Industrie. Progetto 5% multimedialità MURST-CNR: convergenza fra reti mobili e internet.
zioni meteo, legate al traffico, ecc.), controllo del traffico (mirano a minimizzare i problemi dovuti alla congestione del traffico), sicurezza alla guida (devono fornire al guidatore informazioni in tempo reale su possibili situazioni di emergenza, dovute a nebbia, incidenti, ed altro). Il percorso organizzato a suo tempo nella Mostra sulle comunicazioni radio multimediali (wireless multimedia communications), offriva una visione sintetica, e non certamente completa, delle ricerche che si stanno svolgendo presso l’Università di Bologna (Centro di studio per l’Informatica e i Sistemi di Telecomunicazioni, del Consiglio Nazionale delle Ricerche, CSITE-CNR, ed Unità di Ricerca del Consorzio Nazionale Interuniversitario per le Telecomunicazioni, CNIT) anche in collaborazione con aziende ed altri enti del settore. Nei limiti del possibile si è cercato anche di fornire una visione didattica del mondo delle Telecomunicazioni, facendo intravvedere anche al visitatore inesperto, cosa ci sia “dietro al terminale”. Si è voluto dunque fornire un’idea delle potenzialità delle telecomunicazioni attraverso le seguenti applicazioni: • Sistemi di telecomunicazioni per il trasporto intelligente (ITS) • Sistemi di telemisura • Reti wireless multimediali • Sistemi di trasmissioni digitali ad alta velocità • Sistemi radiomobili di terza generazione (UMTS) • Rete di laboratori • Sistemi via satellite • Sistemi GPRS • Antenne intelligenti • Teledidattica • Sistemi informativi multimediali Lo scenario descrive le ricerche che sono in corso di svolgimento, con risultati pubblicati a livello internazionale, molte delle quali sono condotte nell’ambito del progetto 5% Multi-
Telemisure di sistemi di telecomunicazioni.
Laboratorio Nazionale di comunicazioni multimediali: laboratorio di telemisura.
Progetto 5% multimedialità MURST-CNR: GPRS (General Packet Radio Service). Sistema di trasmissione dati e commutazione di pacchetto su rete cellulare GSM.
❮❮ (v. pag. precedente) Progetto 5% multimedialità MURST-CNR: sistemi radiomobili multimediali nell’evoluzione verso UMTS. 95
ricerca nel campo delle telecomunicazioni
Progetto pluriennale finanziato dall’Ateneo di Bologna: Reti radio multimediali.
NODO GPRS Field Trial
WAP LAB Siemens
GPRS – General Packet Radio Service Oggi testiamo il futuro – Aprile 2000: Trial Project a Roma • Sistema completo: parte radio + rete a pacchetto • Laboratorio WAP dedicato • Copertura radio di un edificio e di un centro espositivo • Prove di laboratorio • Prove in campo con utenza amica.
Terminal GPRS
Server WAP Radio Base ROMA
Siemens Information and Communication Networks S.p.A.
Stazione Base B Base Station B
Stazione Base A Base Station A
Utente B User B
Antenne Adattative – La funzione di direttività dell’antenna si adatta automaticamente alla posizione geografica dei mobili attivi. Tale funzione è massimizzata nella direzione dell’utente servito (linee rosse) e minimizzata nelle direzioni degli utenti interferenti (linee blu), che utilizzano le stesse risorse in aree adiacenti.
Stazione Base C Base Station C
Utente C User C
Utente A User A
Siemens Information and Communication Networks S.p.A.
96
Laboratorio Nazionale di comunicazioni multimediali: LABNET, rete di laboratori per telemisura del CNIT.
Missioni scientifiche dell’Agenzia Spaziale Italiana (ASI): Progetto David.
Ricerca basata sul contenuto nelle basi di dati multimediali.
97
ricerca nel campo delle telecomunicazioni
medialità, finanziato da MURST e CNR, e del progetto pluriennale finanziato dall’Ateneo di Bologna nel settore delle reti radio multimediali. Per un maggior approfondimento si rinvia al sito CSITE, ai seguenti indirizzi: http://wwwcsite.deis.unibo.it, http://www-csite.deis.unibo.it/ht5pc/. La presentazione è infine completata dai contributi proposti da Agilent Technologies, Agenzia Spaziale Italiana, ComSat, Eutelsat, Laboratorio di Comunicazioni Multimediali del CNIT (Napoli), Siemens ICN, Sinform. Le telecomunicazioni multimediali costituiscono, in conclusione, una delle aree di rilevante interesse, sia scientifico, sia industriale nello scenario attuale della ricerca del settore. È quindi auspicabile un maggior impegno del Governo nel finanziamento della ricerca nelle aree strategiche dei sistemi di telecomunicazioni a larga banda, fissi e mobili, per l’incremento della conoscenza, quindi della tecnologia e dei servizi disponibili, e per un indubbio impulso allo sviluppo e all’economia del Paese.
R. Ambrosini S. Montebugnoli M. Nanni
il radiotelescopio di medicina RADIOASTRONOMIA
Immagine radio ottenuta con il Very Large Array.
Emissione radio della Galassia ellittica NGC 326.
L'astronomia tradizionale è essenzialmente la storia delle stelle in quanto esse producono quasi tutta la luce visibile che ci raggiunge dallo spazio. La radioastronomia ci dà una prospettiva radicalmente diversa. Le stelle normali praticamente non producono onde radio; il cielo radio invece è dominato dall'emissione della nostra Galassia ed è punteggiato da nubi brillanti: le radiosorgenti. Alcune delle più grandi e brillanti sono nebulose galattiche, ma la maggioranza si trova molto più lontano della nostra Galassia. Queste radiosorgenti extragalattiche sono associate a galassie distanti e a quasar. La radioastronomia studia l'universo alle lunghezze d'onda radio, nella banda dello spettro elettromagnetico che va dalla decina di metri ai millimetri di lunghezza d'onda. Il primo strumento che ha rivelato onde radio provenienti dalla nostra Galassia fu costruito da Karl Jansky intorno al 1930. Le prime osservazioni radioastronomiche si proponevano di disegnare una mappa del cielo radio e i radioastronomi hanno classificato le radiosorgenti assegnando ad ognuna di esse nome, posizione ed intensità di emissione nella banda radio. I cataloghi prodotti contengono decine di migliaia di oggetti. La costruzione di radiotelescopi sempre più sensibili ha permesso di scoprire e studiare in dettaglio la struttura di un gran numero di radiosorgenti. Le radiosorgenti più numerose nello spazio sono sorgenti come la nostra Galassia, nelle quali le onde radio provengono dalle braccia a spirale e da altre regioni contenenti stelle giovani e massicce. Le onde radio sono prodotte nel gas interstellare quando è violentemente perturbato dalle esplosioni di supernova. La figura in alto a sinistra mostra l'immagine radio ottenuta con il “Very Large Array” della galassia M81, lontana circa 11 milioni di anni luce dalla Terra. L'immagine mostra l'intensità dell'emissione di idrogeno neutro; il rosso indica l'emissione radio più forte e il blu quella più debole. Il 99% delle radiosorgenti più potenti del cielo è costituito dalle "radiosorgenti classiche". Qui l'emissione è dovuta a elettroni relativistici intrappolati in campi magnetici. Queste radiosorgenti sono costituite da una componente compatta chiamata nucleo e coincidente con la galassia o quasar e da due getti che vanno ad alimentare due regioni molto lontane situate ben fuori della galassia visibile otticamente. L'energia che alimenta l’intera radiosorgente viene prodotta nel nucleo, in una regione di dimensione di qualche anno luce e viene trasportata attraverso i getti a distanze di centinaia di migliaia di anni luce. La figura qui a sinistra mostra la radiosorgente associata
Radiotelescopio Croce del Nord. Vista sul ramo est-ovest e parte del ramo nord-sud. Grafico sottostante: Spettro elettromagnetico: a sin. sono indicate le radiazioni a bassa frequenza (onde radio), procedendo verso dx, all’aumento della frequenza, si hanno le radiazioni infrarosse, visibili, ultraviolette, X e Gamma (γ).
alla galassia ellittica NGC326. Per saperne di più: http://www.ira.bo.cnr.it Il radiotelescopio è lo strumento usato dai radioastronomi per ricevere la debolissima emissione di onde radio da parte di sorgenti celesti. La ricezione è resa possibile per via dell’uso di grandi antenne, di ricevitori particolarmente sensibili ma soprattutto perché alcune porzioni dello spettro elettromagnetico, dalle VHF alle micro-onde, sono state riservate alla radioastronomia: tali bande debbono essere mantenute prive di emissioni terrestri che, se presenti, “accecherebbero” il radiotelescopio. I radiotelescopi dell’Istituto di Radioastronomia del CNR di Bologna attualmente operano su diverse bande di frequenza comprese tra 300MHz e 48GHz. I problemi legati alla presenza di interferenze-radio si riscontrano maggiormente nelle bande UHF ed SHF, non lontano dalle fortissime emissioni radiofoniche FM, televisive, radar, telefoniche/cellulari, ponti-radio ecc. che usano apparati di trasmissione con potenze molto elevate e non sempre prive di componenti armoniche o spurie che ricadono nelle bande radioastronomiche, compromettendone gravemente l’uso. Si consideri il confronto tra un segnale radio FM ed uno celeste. Il rapporto fra le loro intensità vale 1015 (un milione di miliardi)! Presso la Stazione Radioastronomica di Medicina (Bologna) è operativo un centro per il controllo delle interferenze, dove quotidianamente viene verificata la pulizia delle bande radioastronomiche comprese tra 300MHz e 2500MHz. Il sistema ricevente è costituito da un insieme di antenne direttive, fissate su un supporto rotante, posto sulla sommità di una torre alta 22 m. Il segnale interferente ricevuto, dopo una amplificazione ed un filtraggio, viene trasferito nel sottostante centro di ascolto, dotato di strumentazione di misura, che permette di rilevarne la direzione di provenienza e quindi la identificazione. Le emissioni indebite vengono poi segnalate all’Ispettorato Regionale del Ministero delle Comunicazioni che provvede a termini di legge. Quando l’identificazione del segnale non è possibile da una singola postazione fissa, si rende necessario l’impiego dello speciale furgone attrezzato per rilievi radio-elettrici, col quale il gruppo tecnico si sposta nei luoghi più idonei per completare l’accertamento. Tale veicolo dispone di un sistema di alimentazione elettrica completamente autonomo che permette di avere la strumentazione attiva anche in condizioni di marcia. Esso è inoltre dotato di un palo estensibile fino all’altezza di 12 m., orientabile manualmente, sul quale si installa il sistema ricevente. L’indicazione della direzione del puntamento dell’antenna è resa possibile utilizzando sia un sistema di lettura digitale (AD encoder), sia
98
Mappa dei siti dei principali Radiotelescopi nel mondo.
un sistema visivo, tramite una bussola di precisione. L’esatta localizzazione del segnale interferente può richiedere diversi rilevamenti radiogoniometrici. ASTROFISICA E GEODESIA CON IL VLBI
Sala di controllo del correlatore europeo EVN (European VLBI Network) Dwingeloo, Olanda
99
Immagine radio del Quasar 3C 216.
SISTEMI DI ANALISI DATI PER RADIOASTRONOMIA
L’evoluzione della radioastronomia è legata allo sviluppo di nuove tecnologie in vari campi della fisica. In questi anni l’Istituto di Radioastronomia di Bologna ha realizzato, in collaborazione con i maggiori enti radioastronomici mondiali, il più potente correlatore VLBI esistente, cioè un nuovo super-calcolatore dedicato alla elaborazione contemporanea dei dati registrati su nastro in 16 radiotelescopi distribuiti sulla superficie terrestre. Nell’immagine (v. sotto a sinistra) si può vedere la sala di controllo del correlatore europeo EVN (European VLBI Network) a Dwingeloo-Olanda: si possono notare le 16 unità nastro per la lettura dei dati registrati presso i vari radiotelescopi. I dati letti vengono poi, previa sincronizzazione, inviati alla unità di correlazione (situata in un apposito locale opportunamente refrigerato) che effettua l’elaborazione matematica che permette di estrarre le mappe radio della zona di cielo osservata. Nell’eseguire la correlazione questo super-computer ha una potenza di calcolo comparabile ad un migliaio di computer di tipo Pentium III. A dimostrazione dell’attività di ricerca a Bologna si veda la scheda SUIM (Station Unit Interface Module): È una delle diverse schede elettroniche del correlatore, progettate e realizzate dall’Istituto di Radioastronomia. I dati letti da ciascuna unità nastro (1536 Megabits al secondo), vengono elaborati da una SUIM che, dopo avere effettuato un primo controllo sulla qualità dei dati, li invia all’unità di correlazione vera e propria. La necessità di integrare numerose funzioni all’interno della scheda, la grossa mole dei dati da gestire e l’alta velocità di elaborazione, hanno richiesto l’uso delle più moderne tecnologie ed in particolare di circuiti programmabili, tecnologie a montaggio superficiale e schede a circuito stampato a 8 strati. Oltre alle 16 schede usate nel correlatore EVN, ne sono state prodotte altre 32 che verranno usate in 2 correlatori attualmente in costruzione negli USA. Come primo risultato scientifico ottenuto con il “Correlatore EVN MKIV” (foto in alto a destra) si può citare il seguente. È stata rivelata per la prima volta la presenza di atomi di idro-
Primo risultato scientifico ottenuto con il “Correlatore EVN MKIV”
ricerca nel campo delle telecomunicazioni
L'interferometria radio a lunghissima base (VLBI, Very Long Base Interferometer) è una sofisticata tecnica di osservazione grazie alla quale è possibile simulare un radiotelescopio grande come tutta la Terra. Utilizzando il principio fisico dell'interferometria e la rotazione terrestre, con un insieme di radiotelescopi distribuiti su tutta la Terra è possibile "vedere" le regioni nucleari di galassie e quasar lontanissimi da noi e determinarne la posizione con una accuratezza migliore del millesimo di secondo d'arco. A questo proposito si veda la mappa del mondo con indicati i radiotelescopi. In questa immagine (in alto a sinistra) del planisfero sono stati indicati i siti dove si trovano le antenne radioastronomiche che fanno parte della rete mondiale di VLBI e i principali centri di elaborazione dati. Durante una osservazione VLBI un certo numero di radiotelescopi (di solito da 10 a 20) osservano simultaneamente lo stesso oggetto extragalattico. In ciascun osservatorio, il segnale radioastronomico viene registrato su nastri magnetici e successivamente viene correlato in appositi centri. Per fornire un esempio si veda l’immagine radio di 3C 216. Questa immagine (in alto al centro), un quasar che dista da noi circa dieci miliardi di anni luce è un tipico esempio del risultato di una osservazione VLBI: riusciamo a vedere dettagli di una regione vicinissima a quella in cui viene prodotta gran parte dell'energia in tutta la banda dello spettro elettromagnetico. Da questa immagine siamo in grado di dire che l'emissione radio viene prodotta in una zona nucleare e che si propaga nello spazio circostante con velocità assai prossima a quella della luce sotto forma di "getto". Vediamo inoltre che questo getto piega bruscamente a circa 150 anni luce dalla regione in cui è stato prodotto, e questo, unitamente ad altre grandezze derivabili dalle osservazioni radioastronomiche, ha portato ad ipotizzare una interazione tra gli elettroni radioemittenti ed il gas e campo magnetico interni al quasar. Altra importante applicazione è quella che consente di rilevare i moti delle placche terrestri. Infatti attraverso la tecnica VLBI è stato determinato un insieme di quasar lontani da utilizzare come sistema di riferimento inerziale. Diventa possibile allora misurare i moti relativi tra diversi punti sulla superficie terrestre. Questo è estremamente importante per seguire i movimenti delle placche terrestri (tettonica). Con questa tecnica è possibile ottenere risultati, espressi vettorialmente, dopo una serie di campagne osservative. La lunghezza di ogni vettore è proporzionale alla velocità di spostamento, e la direzione del vettore indica la direzione dello spostamento stesso. Per saperne di più: http://www.ira.bo.cnr.it
Scheda SUIM (Station Unit Interface Module)
Amplificatore criogenico.
MODELLO AGLI ELEMENTI FINITI (FEA) DELLA STRUTTURA MECCANICA DELL’ANTENNA
Schema di funzionamento di un riflettore parabolico.
geno a 20 anni luce dal buco nero presente all’interno del nucleo della galassia NGC 4261, distante dalla terra 100 milioni di anni luce. L’immagine mostra la sovrapposizione della foto ripresa con il telescopio spaziale (Hubble), con l’immagine radio del nucleo, ed il grafico che evidenzia la riga di assorbimento alla frequenza dell’idrogeno, ottenute con la tecnica “VLBI” della zona adiacente al nucleo. Le osservazioni sono state effettuate con i radiotelescopi di Medicina-Bo e Noto-SR (Italia), Westerbork (Olanda), Effelsberg (Germania), Torun (Polonia) e Jodrell Bank (Gran Bretagna). I dati registrati su nastro nei suddetti radiotelescopi sono quindi stati correlati ed analizzati con il nuovo correlatore europeo. Per saperne di più: • http://www.ira.bo.cnr.it CNR Istituto di Radioastronomia Stazione VLBI di Medicina-Bo • http://www-radiotelescopio.bo.cnr.it CNR Istituto di Radioastronomia - Radiotelescopio di Medicina-Bo • http://www.jive.nl The Joint Institute for VLBI in Europe (JIVE) Dwingeloo-Olanda. SRT - SARDINIA RADIO TELESCOPE
Ampolla di un orologio atomico. Radiotelescopio di Medicina (Bologna).
Il più grande radiotelescopio italiano verrà installato in Sardegna, 35Km a Nord di Cagliari. Il diametro di 64 metri, le tecniche avanzate di progettazione e la capacità di ricevere segnali radio compresi fra 300MHz e 100GHz ne faranno uno degli strumenti europei più sensibili, efficienti e versatili. Oltre alle ricerche di Radioastronomia, SRT contribuirà all’esplorazione del nostro sistema solare ed a misure di Radio Scienza, tramite l’inseguimento di sonde interplanetarie ESA (EU) e NASA(USA). Per saperne di più: •http://www.ira.bo.cnr.it/srt/index.html •http://www.nrao.edu •http://www.jpl.nasa.gov/cassini/ •http://www.jpl.nasa.gov/cassini/Science/MAPS/RSSt.html
Il modello matematico permette anche di calcolare le flessioni (elastiche) della struttura, dovute al suo stesso peso, quando l’antenna ruota in elevazione, per inseguire il moto nel cielo delle sorgenti radio. Per compensare questo effetto, vengono aggiustati in tempo reale i 1116 attuatori elettromeccanici, a cui sono fissati i pannelli di alluminio che costituiscono la superficie dello specchio primario. Il modello teorico non è tuttavia sufficientemente accurato per operare fino a 100GHz (λ=3mm). Si prevede di utilizzare un sistema di metrologia Laser e di altri sensori per conoscere, in tempo reale, la posizione relativa dei singoli pannelli entro 50µ e rispetto a dei riferimenti fissi a terra, per avere la massima efficienza di riflessione dello specchio e conoscere la reale direzione di puntamento dell’antenna. COME LE SUPERFICI RADIO-RIFLETTENTI CONCENTRANO IN TRE ZONE FOCALI L’ENERGIA DELLA RADIAZIONE INCIDENTE
A questo riguardo si veda lo schema in basso, a destra. I raggi della sorgente (paralleli, perchè provenienti da distanza praticamente infinita) sono riflessi dal primario in un unico punto (F1). Da qui, se non intercettati da un ricevitore per le bande di frequenza più basse, proseguono verso il subriflettore, che li ridirige verso (F2), il fuoco Gregoriano, dove una torretta rotante può inserire uno dei ricevitori a frequenze più elevate. Infine un sistema di rifocalizzazione con due specchi più piccoli viene utilizzato dai ricevitori a bande intermedie e dal sistema di trasmissione per le sonde interplanetarie. Il grafico in bianco e nero mostra come una semplice rotazione dello specchio centrale (inclinato) permette di “puntare” uno dei quattro ricevitori della terza zona focale. RIFERIMENTI ATOMICI LOCALI PER TEMPO E FREQUENZA
Programmi di ricerca con risoluzioni di misura estremamente elevate come il VLBI radioastronomico e geodinamico oppure, nel campo spaziale, la ricerca di una evidenza sperimentale di Onde Gravitazionali, test di relatività generale o lo studio della struttura degli anelli di Saturno, richiedono l’utilizzo di un campione di frequenza e di tempo con caratteristiche assolutamente eccezionali. SRT utilizzerà due campioni Maser ad Idrogeno a cui si deve asservire un Oscillatore Criogenico a Zaffiro, per migliorarne la
Schema di funzionamento delle superfici radio-riflettenti di un radiotelescopio.
Modello agli elementi finiti (FEA) della struttura meccanica dell’antenna.
Tutte le immagini di questo articolo sono dovute alla cortesia dell’Istituto di Radioastronomia del CNR di Bologna.
100
stabilità a corto termine. La duplicazione dei campioni atomici mira a garantire la continuità della scala di tempo locale anche in occasione di eventi unici, come gli esperimenti spaziali, o di particolari fenomeni cosmologici. Inoltre il confronto diretto fra loro è anche l’unico metodo per verificare, in tempo reale, il loro corretto funzionamento. Questa strumentazione è già stata sviluppata presso i laboratori bolognesi, e si affiancherà a quella dei principali istituti di metrologia europei ed internazionali. La scala di tempo locale sarà mantenuta sincronizzata con quella del Tempo Coordinato Universale (UTC) con tecniche GPS e distribuita a tutti i possessori di un calcolatore (anche da casa) via Internet. ANALISI DEL SITO COME TRASPARENZA ATMOSFERICA A MICROONDE
Un sito radioastronomico deve essere caratterizzato da un basso livello di interferenze da emittenti locali e da una buona trasparenza dell’atmosfera nelle bande delle frequenze utilizzate dal radiotelescopio. Per tutto il 1999 un radiometro “a vapor d’acqua” (WVR water vapor radiometer) ha effettuato continue scansioni del cielo dall’Osservatorio di Cagliari (vedi Foto), non lontano quindi dal sito scelto per SRT. Il grafico mostra come per periodi di tempo considerevoli, in mesi quasi invernali, l’attenuazione sul segnale radioastronomico può mantenersi al disotto di qualche percento, anche a 31GHz. Il progetto della misura, raccolta e analisi dei dati è una collaborazione fra IRA-Bologna, FUB-Roma, e SAC-Cagliari. Per saperne di più: • http://www.accessone.com/~thinkman/dimension4 Programma di sincronizzazione automatica per PC • Utclock.bo.infn.it Riferimento di Tempo UTC primario disponibile anche ora • M. Sandri, R. Ambrosini, "Probabilità cumulative e serie temporali di opacità con radiometro WVR da Cagliari per l'anno 1999", Rapporto Int. IRA 296/00, Gennaio 2000. “SIAMO SOLI NELL’ UNIVERSO?”: IL PROGRAMMA SETI
La scoperta di nuovi pianeti extrasolari e di molecole prebiotiche negli spazi interstellari, induce a pensare che la vita, come noi la intendiamo, possa essere un fenomeno non unico. Il SETI (Search for Extraterrestrial Intelligence) è un programma internazionale che si propone di indagare, con l’ uso di grandi radiotelescopi, la banda delle microonde alla ricerca di segnali radio provenienti da eventuali civiltà extraterrestri. Nato alla NASA negli anni 60 e sospeso nell’ Ottobre 93, è ora gestito dal SETI Institute che opera in base a donazioni private. Attraverso quale finestra dello spettro elettromagnetico è più
vantaggioso osservare? Per osservazioni basate a terra la banda dello spettro elettromagnetico più adatta è quella radio. In particolare le frequenze comprese tra 1 e 10 GHz sono le meno “disturbate“ dal rumore di origine cosmica. Le onde radio, inoltre, sono caratterizzate dal fatto di potere attraversare regioni dello spazio opache ad emissioni presenti in altre bande dello spettro elettromagnetico. Per questo tipo di ricerca vengono impiegate le grandi antenne dei radiotelescopi perché un eventuale segnale, emesso da una ipotetica civiltà extraterrestre, arriverebbe sulla nostra terra con una intensità incredibilmente bassa. Fino a che distanza l’attuale tecnologia permette di indagare? Una ipotetica civiltà extraterrestre ad appena 100 anni luce che decidesse di inviare un segnale radio in tutte le direzioni per farsi sentire, dovrebbe trasmettere con una potenza di 66.000.000.000 watt per rendere possibile, sulla Terra, la ricezione con una antenna di 300 m di diametro collegata ad un sensibilissimo ricevitore/analizzatore di spettro. Se la stessa civiltà fosse a conoscenza della nostra presenza (cosa estremamente improbabile), le basterebbe puntare verso la Terra un’antenna parabolica di 300 m di diametro ed inviare un segnale di appena 3.300 watt per essere rivelato con le stesse apparecchiature del caso precedente. Noi, da terra, non sapremmo comunque a che frequenza sintonizzarci, dove puntare le antenne, in che modo ed in quale momento osservare. In base alle considerazioni precedenti, non sarebbe plausibile chiedere costoso “tempo antenna” per una osservazione di cui non se ne conoscono le modalità operative. L’approccio migliore (a basso costo) al programma è quello basato sulla “filosofia” dell’ osservazione SETI, effettuata in parallelo alle normali attività in corso alla antenna parabolica VLBI della Stazione Radioastronomica di Medicina-Bo. Una parte del segnale radioastronomico viene “convogliata” verso il sistema Serendip IV (15 MHz BW @ 24.000.000 di canali) che cerca, in quelle condizioni osservative, la presenza di un segnale monocromatico che, per considerazioni di varia natura, sembra essere il più adatto ad essere impiegato per questo scopo. Lo stesso sistema, inoltre, fornisce preziose informazioni sulla situazione delle interferenze radio che gettano ombre sul futuro della radioastronomia. Per saperne di più: • http://medvlbi.ira.bo.cnr.it CNR Istituto di Radioastronomia - Stazione Radioastronomica di Medicina-Bo • http://www.seti.org • http://www.seti-inst.edu/game/Welcome.html • “Seti in Italia”, “Le Scienze”- Aprile 97. • “Siamo Soli nell’Universo?”, “Newton” - Giugno 98 a sinistra: Radiometro a vapor d’acqua. a destra: Grafico ottenuto con un Radiometro a vapor d’acqua a Cagliari.
101
ricerca nel campo delle telecomunicazioni
Schema a blocchi (semplificato) per osservazioni SETI, Search for Extra Terrestrial Intelligence.
Ricevitore 43 GHz, dispositivo che converte la debole energia elettromagnetica in segnale elettrico, e lo amplifica.
Interno della camera focale dell’Antenna Parabolica di Medicina (Bologna).
F. Bocchi
il p rogetto 2D,3D,4D, p rogetto Nu.M.E. consorzio università-citta, bologna 2000, cineca
ricerca nel campo delle telecomunicazioni
LE TRE DIMENSIONI DELLO SPAZIO E QUELLA DEL TEMPO
Oggi le nuove tecnologie informatiche e telematiche permettono di trasferire i risultati delle ricerche non solo per mezzo della stampa, ma anche con veicoli diversi dai libri (CD-rom, pagine web). Inoltre permettono di raggiungere risultati che non si sarebbe mai pensato di raggiungere fino a pochi anni fa. Mi riferisco non solo alle applicazioni di base di dati e alla loro elaborazione mediante programmi di gestione ormai capillarmente diffusi, cui si è accennato in precedenza, ma a quella che ritengo essere la nuova frontiera della ricerca sulla storia della città, che è data dalla ricostruzione elettronica tridimensionale dell’habitat urbano e delle sue trasformazioni storiche. Il risultato sarà una città in quattro dimensioni, dove, alle tre dimensioni dello spazio, si aggiunge quella del tempo. Prima di tutto è necessario dare qualche esempio di quello che si intende per “ricostruzione elettronica tridimensionale” e quello che se ne può fare dal punto di vista storico. Il primo elemento da illustrare è la necessità di invertire la marcia cronologica della ricerca: non più dai tempi più lontani a quelli più vicini, ma è necessario procedere a ritroso nel tempo. Infatti, trattandosi di un sistema visuale che non consente lacune, che non permette di abbandonare nell’oblio qualche parte e che non può lasciare spazio all’immaginazione, è opportuno partire dalla realtà attuale, che possiamo cogliere nel suo complesso e nella sua interezza, grazie alla possibilità di “girare” attorno agli edifici e magari di penetrare anche all’interno, se ci sono le fonti e le risorse per farlo. Così, ottenuta la base geometrica che costituisce lo scheletro del modello tridimensionale vettoriale, è possibile mantenere come riferimento spaziale e strutturale la realtà nota e a passo a passo modificare gli oggetti urbani testimoniati dalle fonti, sempre tenendo come base fissa e inalterabile il principio che si ricostruisce solo quello che le fonti permettono di ricostruire e se lo storico vuole proporre qualche ipotesi, lo può ovviamente fare, ma solo a condizione che sia in grado di se-
gnalare nella maniera più inequivocabile possibile che si tratta di ipotesi e non di elementi documentati. La costruzione di un modello tridimensionale vettoriale quindi richiede di per se stessa una ricerca estremamente approfondita, pena l’insuccesso dell’operazione: la necessità di chiudere ogni tassello, di fornire un’immagine complessiva, ma con tutti i dettagli al loro posto, anche quelli ambientali, costringe lo studioso ad indagare in tutti i settori, a mettere in campo tutte le metodologie e le risorse umane e culturali disponibili, dai rilievi architettonici ai componenti edili, dalle informazioni sugli andamenti meteorologici ai disastri sismici, dalle condizioni dell’illuminazione alle strutture dei materiali e alla loro reazione all’umidità e all’irraggiamento solare, per non parlare delle ricerche storiche vere e proprie che ovviamente sono alla base di tutto. Queste nuove metodologie consentono anche di raggiungere un risultato che di solito la ricerca storica non riesce a conseguire: la verifica delle ipotesi di lavoro. Valga questo esempio. Uno dei momenti più significativi della storia della città è rappresentato dagli sviluppi realizzati nel Medioevo e dalla sistemazione che ogni città ha saputo dare ai servizi. Uno dei temi delle ricerche su Bologna, che ha richiamato l’attenzione degli studiosi, è quello relativo al sistema idrologico. Nel Duecento era stato messo a punto un sistema di pulizia delle strade urbane che, come dicono gli statuti del 1250 e del 1288, consentiva di dare l’acqua ad ogni strada per il lavaggio una volta ogni 15 giorni. Si trattava ovviamente di un sistema molto complesso che era condizionato non solo dalle risorse idriche, ma anche dalla giacitura del terreno urbano, quindi dalle quote altimetriche delle singole strade, nonché dalla qualità della pavimentazione. A progetto ultimato forse si potrà simulare il funzionamento, cosa che consentirà di dare validità alle ipotesi che lo storico avrà proposto nella ricostruzione del modello. Se però l’esperimento darà esito negativo, si dovranno percorrere nuove strade, fare nuovi tentativi, fintanto che i risultati non saranno soddisfacenti. A quel punto si sarà ottenuto un prodotto che la comunità scientifica osserverà considerando che ha superato un test che è tipico delle scienze esatte. La validità di queste ricerche inoltre non si misurerà solo sul piano della conoscenza, ma potrà avere anche interessanti ricadute su quello didattico. Continuando l’esempio precedente, se il prodotto realizzato sarà opportunamente trattato, l’eventuale “visitatore” della città virtuale potrà intervenire direttamente per simulare la destinazione delle acque in un quartiere della città o in un altro, con conseguente valutazione delle linee di massima pendenza, delle necessità di far scavalcare con sistemi idraulici corsi d’acqua da altri corsi d’acqua, tenendo conto dei periodi di siccità e del regime delle piogge. Si tratta di forme “laboratoriali” di attività didattica che possono avere molto successo, facendo accettare, insieme agli aspetti “ludici” di questo lavoro anche i contenuti
Immagini dalle Demo Mu.V.I., Museo Virtuale della vita quotidiana a Bologna nel XX secolo.
102
complessi della Storia. Sempre per l’età medievale, ma anche per l’età moderna e contemporanea, i settori che virtualmente possono essere indagati potrebbero essere molti (sistema delle zonizzazioni industriali per garantire la qualità delle acque e dell’aria; sistema di smaltimento dei rifiuti urbani e industriali; servizi pubblici messi in atto dai governi locali o dagli enti ecclesiastici: mulini, scuole, ospedali, illuminazione, bandi, fogne, selciati). È però evidente che tutti questi temi lo storico non li può affrontare da solo, ma ha bisogno di essere affiancato da specialisti di altre discipline, anche molto lontane dalla storia, come per esempio l’idraulica, la geologia, la petrografia. Nu.M.E.: IL MUSEO VIRTUALE DELLA CITTÀ DI BOLOGNA
Un esempio applicativo delle metodologie di ricostruzione tridimensionale di una città, a cui sono aggiunte le trasformazioni avvenute nel tempo, è quello che si sta realizzando a Bologna. Infatti è in via di approntamento il museo virtuale della città, noto con l’acronimo Nu.M.E., Nuovo Museo Elettronico. Tutte le città, grandi o piccole, soprattutto all’estero, hanno organizzato un “museo della città”, nel quale vengono raccolti gli oggetti che si ritiene possano illustrare la storia della comunità e le trasformazioni che la struttura urbana ha subito. Mettere in un museo una città è però molto difficile: di solito si espongono documenti cartacei e mappe, insieme con modellini di edifici e quegli oggetti urbani o quegli arredi architettonici che possono essere contenuti in un ambiente chiuso. Si tratta di oggetti e di strumenti che servono a far avvicinare solo idealmente il visitatore alla città, ma la città nel suo complesso resta fuori dal museo. Il museo elettronico ha lo scopo di mettere a disposizione del visitatore l’intera città attuale, ricostruendola nelle tre dimensioni dello spazio. Se ne ottiene un ambiente in cui, utilizzando la cloche di manovra, è possibile passeggiare a terra o volare a mezz’aria o sui tetti, per cogliere l’insieme o un particolare. Questa è già una città "virtuale", perché ne sono state cancellate le superfetazioni (insegne, cartelli stradali, cassonetti, auto in sosta e in movimento, ecc.), in modo da restituire al visitatore la vera essenza urbana. Diventa un museo nel momento in cui alle tre dimensioni dello spazio si aggiunge la quarta dimensione, quella del tempo. La modellazione che ha permesso la ricostruzione degli edifici non più esistenti e il sistema di navigazione consentono di far emergere in un ambiente storicizzato quanto del passato è stato distrutto o di far scomparire quanto ancora non c’era nella fase storica che viene visualizzata. Una “macchina del tempo”, presente nella barra degli strumenti, permette al visitatore di scegliere il momento storico in cui desidera fare la sua passeggiata elettronica nella città: sono già disponibili Piazza di Porta Ravegnana con le torri Asinelli e Garisenda e le vie circostanti, dove possono essere evocate dalla storia la Cappella della Croce (IV-XVIII secolo) e tre torri medievali abbattute all’inizio di questo secolo, nonché le mura di selenite che circondavano Bologna a partire dal V secolo d.C.
103
Quello che si vedrà è solo la parte emergente di un grande lavoro scientifico e di applicazioni informatiche sofisticatissime che non sono percepite dal "visitatore", ma che sono la base dei risultati conseguiti: ogni sia pur minimo segno, disegno e movimento deriva da ricerche storiche molto approfondite, perché è proprio la qualità della ricerca storica, prima ancora delle elaborazioni informatiche, che fa la differenza fra un prodotto multimediale a larga diffusione, come tanti ce ne sono attualmente in commercio, e il progetto Nu.M.E. Anche la ricerca storica, nel senso più strettamente scientifico di "attività per addetti ai lavori", riceve un impulso formidabile da questo tipo di applicazioni. Infatti la necessità di ricostruire graficamente un edificio o un comparto urbano non più esistenti porta di conseguenza lo storico ad approfondire sempre più le sue ricerche, se vuole evitare lacune nelle ricostruzioni. Così, mentre se si scrive o si dice: "in piazza di Porta Ravegnana alla fine del Duecento c’erano le case con il portico di legno", può essere sufficiente, invece quando si disegna bisogna avere notizia anche delle altezze degli edifici, del numero delle colonne, delle aperture nei muri, del tipo di materiali. Se poi si ricostruisce tridimensionalmente bisogna anche conoscere la forma dei tetti, le parti interne e quelle cortilive, le altezze dei portici e la forma degli intradossi. Tutte queste esigenze contribuiscono in maniera determinante ad acuire la ricerca, perché costringono lo storico ad individuare nuove fonti, a cercare confronti. Ma se alla fine non sarà stato possibile ottenere le notizie che si vorrebbero avere, onestamente sarà lasciata una traccia inequivocabile che indichi chiaramente quello che è testimoniato dalle fonti e quello che è frutto di ricostruzione ipotetica. Nella parte di ricostruzione eseguita fino ad ora è presente anche lo stato di piazza di Porta Ravegnana al 1294, data in cui fu redatto uno dei Libri terminorum conservati presso l’Archivio di Stato di Bologna, cioè la misurazione di tutti i fronti stradali e delle parti aeree che sporgevano oltre i paletti (termini) che indicavano la linea di confine fra lo spazio pubblico della piazza e quello privato delle case. Sono pervenute diverse redazioni dei Libri terminorum effettuate durante il XIII secolo, rese necessarie dalle periodiche ricognizioni che venivano effettuate per verificare che i termini non fossero stati abusivamente spostati. Tali ricognizioni riguardavano gli spazi pubblici delle piazze del mercato e delle mura della città. Per necessità di cose il documento riporta misure e indicazioni strutturali degli edifici, segnalando con precisione se il termine era collocato presso il gesso su cui era impostata la colonna del portico, di quanto sporgeva il "lignamine grosso", cioè la trave portante il solaio del primo piano, e di quanto sporgeva la gronda, se c’erano panche addossate alle pareti o banchi di attività commerciali. Si tratta di un documento di grande rilevanza storica, perché da un punto di vista politico segna il grande impegno che l’amministrazione pubblica metteva nel difendere gli spazi pubblici dagli abusi, tanto che non si è lontani dal vero ipotizzando che si tratti di un vero e proprio condono edilizio,
ricerca nel campo delle telecomunicazioni
nella pagina: Immagini dalle Demo del Reality Center del Cineca, Bologna
ricerca nel campo delle telecomunicazioni
perché, registrando la situazione di fatto, che in quel momento era già considerata “storica”, si chiudeva la partita con il passato, ma erano stati messi in atto gli strumenti per non consentire più nel futuro incongrue invasioni di spazi pubblici. Dal punto di vista delle trasformazioni storiche di quella parte della città il Liber consente di individuare sufficienti elementi per realizzare una ricostruzione per ora solo schematica, ma che permette, nel confronto con la situazione dei tempi successivi già disponibile, di valutare la misura e la dimensione dell’edilizia medievale. Però, per ora, le case della piazza di Porta Ravegnana della fine del Duecento non hanno né porte, né finestre, né comignoli, perché nessuna fonte è stata reperita che consenta di fare una ricostruzione certa dei particolari, mentre è certissimo il posizionamento degli edifici e la loro struttura complessiva. La ricostruzione degli edifici è georeferenziata (coordinate spaziali: latitudine, longitudine, altitudine) e si avvale dei controlli incrociati con l’applicazione delle metodologie GIS. Proprio per garantire il fruitore di questo prodotto sul rigore scientifico che c’è alla base di tutto, ogni edificio, ogni comparto urbano, ogni singolo elemento è accompagnato dal complesso delle fonti su cui è costruito il modello vettoriale che consente la navigazione tridimensionale, e che può essere richiamato in ogni momento del percorso. Tutto il complesso delle fonti storiche accompagna la ricostruzione sia sotto forma di struttura ipertestuale, sia sotto forma di richiamo diretto che può essere effettuato da ogni singolo edificio, collegato con database relazionali, nell’ambito delle metodologie GIS. Però il pregio di questo museo virtuale - o per lo meno questo è l’obbiettivo di tutti coloro che ci lavorano e di quanti ne permettono la realizzazione - è quello di essere accessibile a tutti i livelli di competenza e di preparazione, perché tutti vi possano svolgere la propria personale chiave di lettura. Infatti oltre ad essere un nuovo strumento di ricerca, è anche un utile e nuovo mezzo al passo con i tempi, per divulgare la cultura scientifica (nella fattispecie quella storica e dei beni culturali) e al contempo per stimolare, attraverso i risultati delle elaborazioni informatiche, sempre più l'interesse verso l’applicazione di tecnologie che rappresentano e rappresenteranno sempre di più un ambito di lavoro in pieno sviluppo, come dimostrano tutte le ricerche nell’ambito economico
sullo “sviluppo sostenibile”. Inoltre, essendo ogni edificio georeferenziato ed essendo ricostruito con quel rigore nei rilievi architettonici e nell’analisi delle fonti storiche di cui si è detto, può consentire anche elaborazioni di tipo diverso da quelle della fruizione “culturale”. Sul modello vettoriale delle Due Torri - cioè lo scheletro geometrico su cui sono state applicate le foto degli edifici o è stata ricostruita la superficie possono essere effettuati i calcoli della staticità, si possono simulare le condizioni di tensione e di tenuta dei materiali in caso di terremoto o di passaggio di mezzi pesanti nelle immediate vicinanze, si può valutare l’impatto del traffico o definire i percorsi delle reti tecnologiche. Tutti questi elementi non potranno che essere validi strumenti per gli amministratori pubblici quando sono chiamati a fare delle scelte che riguardano gli interventi sul centro storico della città. Il mondo del terzo millennio sarà collegato con reti a larga banda che permetteranno ad un “visitatore virtuale”, seduto davanti al suo video non importa dove, di percorrere, grazie a Nu.M.E., le strade medievali di Bologna, di ammirare di sotto in su, come fece Dante, la torre Garisenda e di restare impressionato dalle nubi incombenti, potrà salire sull’Asinelli, ammirare Piazza Maggiore com’è oggi e come era nel Duecento, potrà vedere il contesto in cui ha preso vita l’Università più antica del mondo, potrà passeggiare sotto i portici di oggi o sotto quelli del passato; sceglierà la propria strada e la propria epoca a suo piacimento, sperando di vedere, prima o poi, la città reale. Il museo virtuale non è ancora disponibile attraverso Internet, poiché nessuna rete per ora è in grado di veicolare i ‘pesanti’ contenuti informatici del progetto. Nu.M.E. è sviluppato per la parte dell’hardware e del software di navigazione virtuale presso il Cineca (Centro di Calcolo Interuniversitario). Gli studi preparatori sono condotti nel quadro delle ricerche promosse dal CNR, Progetto Finalizzato Beni Culturali e dall’Università di Bologna. La modellazione degli edifici non più esistenti è effettuata dal Centro Ricerche di Carpi (Modena). Tutte le attività sono sostenute dal Consorzio Università-Città, dalla Fondazione della Cassa di Risparmio in Bologna e da Bologna 2000. La metodologia del progetto e i riferimenti bibliografici sono reperibili alla pagina di Nu.M.E. del portale www.storiaeinformatica.it.
Immagini dalle Demo di Nu.M.E., Nuovo Museo Elettronico della città di Bologna. La Piazza di Porta Ravegnana nel tempo: 1) oggi; 2) nel XIX secolo; 3) nell’età moderna, fino alla fine del Settecento; 4) alla fine del Duecento. 104
A. Guidazzoli
navigazione in 4D del nuovo museo elettronico della città di bologna
LA CITTÀ IN 4D COME SPAZIO DI SIMULAZIONE
Le immagini sono un’interfaccia percettiva. Le tecniche di realtà virtuale permettono la rappresentazione di scenari artificiali, scenari reali e di una loro eventuale integrazione. A tale scopo la ricostruzione tridimensionale della città attuale e delle sue trasformazioni storiche deve essere accompagnata da strumenti, come la console della macchina del tempo realizzata per il dimostratore di Nu.M.E. (Nuovo Museo Elettronico) della Città di Bologna, per renderne intuiva ed efficace la navigazione e l’orientazione. La fruizione multimediale del museo della città di Bologna avviene nello spazio e nel tempo, attraverso le quattro dimensioni. Il mondo virtuale della città diviene così un vero e proprio spazio di simulazione. Il visitatore può essere, se lo desidera, liberato dal vincolo della gravità, raggiungere punti di vista impossibili nella realtà, godere di viste da edifici inaccessibili ed essere immerso, durante il viaggio nel tempo, nelle atmosfere musicali di epoche diverse od ascoltare i versi di Dante ai piedi della torre Garisenda. In futuro lo stesso navigatore virtuale della città, sempre attraverso questo spazio, potrà avere accesso a dati di tipo territoriale, cosa già in parte possibile nel dimostratore attuale, lanciare simulazioni per valutazioni di impatto ambientale,visualizzare previsioni meteorologiche e flussi di traffico, valutare il comportamento di flussi di folla attraverso la rappresentazione dei risultati di simulazioni remote all’interno dell’ambiente ricostruito, il “mondo”. Nu.M.E., il Nuovo Museo Elettronico della Città di Bologna, è stato infatti pensato per essere anche un “cancello”, se si vuole, un’interfaccia cognitiva che apre l’accesso ad altri dati
105
sulla città che ne arricchiscono la comprensione: è così possibile costruire una città virtuale capace di raggiungere e visualizzare i diversi spazi informativi (dimensioni del “mondo”) di interesse per l’esploratore stesso. La costruzione di questa complessa città, per ora quadridimensionale, deve perciò compiersi in modo modulare e a diversi livelli di dettaglio per consentire diversi tipi di fruizione: locale (al mondo virtuale) o remota, utilizzando le reti telematiche. Tale fruizione deve poi soddisfare diversi profili di utenti: il ricercatore, l’insegnante, il turista culturale… È per questo motivo che gli elementi che compongono Nu.M.E., modelli geometrici, immagini, suoni sono memorizzati a risoluzioni diverse. Si tratta quindi, in ultima analisi, di modelli simili fra loro della città in 4 dimensioni; modelli che propongono, in funzione della capacità di fruizione dell’utente, livelli di approfondimento diversi, ma pur sempre validati dalla ricerca storica. La città quadridimensionale può essere visitata sia in modo semi immersivo (desktop virtual reality) via Internet (come nel modello leggero visibile www.cineca.it/v/nume), oppure attraverso una modalità completamente immersiva all’interno di un teatro virtuale. L’alta risoluzione infatti, sia nella modellazione geometrica sia nella preparazione delle texture dei modelli, cioè delle immagini digitali che ricoprono lo scheletro del modello tridimensionale, consentirebbe la fruizione del museo della Città anche in un vero e proprio spazio teatrale virtuale, che avvolge completamente il visitatore. Tale opportunità, oggi possibile attraverso tecnologie tipo Virtual Theatre, consente di proporre un vero e proprio spazio fisico in cui un gruppo persone (visitatori, cittadini, ricercatori, amministratori, tecnici…) possono navigare fisicamente nel tempo e nello spazio della città in 4 dimensioni.
Ampia veduta aerea della città di Bologna.
ricerca nel campo delle telecomunicazioni
PROGETTARE LA FRUIZIONE VIRTUALE:
F. Serafini
ricerca nel campo delle telecomunicazioni
prima i nstallazione del b aby reality center del cineca
Il laboratorio Vis.I.T. del CINECA di Bologna, in collaborazione con il Consorzio Università-Città e l’Università degli Studi di Bologna, ha realizzato la prima installazione di un Teatro Virtuale al di fuori della propria struttura nel corso della mostra “Communication”, tenutasi ad ottobre 2000 a Palazzo Re Enzo, in pieno centro a Bologna. La presenza di un Baby Reality Center - così come è stato denominato il piccolo Teatro Virtuale allestito nell’ambito della mostra - è stata pensata non tanto per offrire una dimostrazione sensazionalistica sulla computer grafica, quanto per portare alcuni esempi di possibili applicazioni di visualizzazione computerizzata immersiva in campo scientifico ed umanistico. Non sono stati presentati, infatti, videogiochi o filmati ad effetto, ma dimostrazioni di applicazioni (demo) impiegate abitualmente presso i laboratori del CINECA per lo sviluppo di progetti che utilizzano la grafica immersiva come mezzo di studio. Questi progetti spaziano in diversi campi dello scibile umano: dalla bioingegneria ai Beni Culturali, passando per l’astrofisica, la meteorologia, la chimica, la fisica e l’oceanografia. In particolare, sono state presentate demo sui progetti Nu.M.E. (Nuovo Museo Elettronico della città di Bologna), Mu.Vi. (Museo Virtuale della vita quotidiana a Bologna nel ventesimo secolo), Progetto Mummia (ricostruzione virtuale della testa di una mummia partendo da dati Tac della stessa), AstroMD (visualizzazione Multi Dimensionale e processi analitici applicati all’Astrofisica), HipOp (Sistema virtuale di pianificazione di intervento di sostituzione Hip) ed altre applicazioni, come la ricostruzione e visualizzazione del suolo sottomarino della parte
sud-est del mar Tirreno, la simulazione di un tornado, la simulazione della dinamica di una molecola di un farmaco e la simulazione dei legami fisici degli elettroni nel cristallo di ghiaccio in situazioni fisiche particolari (ICE10). Le demo, rispetto a quanto presentato fino a quel momento nel Teatro Virtuale del CINECA, sono state elaborate in modo che fossero rispondenti alle caratteristiche di un pubblico non specialistico ed eterogeneo, aggiungendo dell’audio di spiegazione e della musica di sottofondo diversa per ciascuna demo. Le modalità di visualizzazione sono state due: esecuzione in automatico o navigazione in tempo reale. Ciascuna di queste modalità presenta propri limiti e pregi. L’esecuzione automatica evita errori tecnici imputabili all’operatore e consente una migliore gestione ed un totale controllo della demo - con la possibilità di realizzare percorsi, sequenze e punti di vista predefiniti - e la gestione ottimale e sincronizzata dell’audio, sia di sottofondo sia di commento. Tuttavia la demo, presentata in questo modo, rischia di sembrare un semplice filmato, caratterizzato per di più da una qualità e da un livello di coinvolgimento non paragonabili a quelli a cui è abituato il pubblico dei documentari televisivi. La navigazione manuale, pur con i suoi limiti rispetto alla versione automatica, mostra meglio la potenza di calcolo e la mole di lavoro che stanno alla base di queste realizzazioni, permettendo di interagire in tempo reale con l’applicazione. In questo modo, la demo è anche più flessibile rispetto alle curiosità e agli interessi specifici del pubblico, adattandosi con maggiore facilità al background culturale e all’età degli spettatori.
Immagini dalle Demo HipOp.
Immagini dalle Demo Mummia.
106
Immagini dalle Demo AstroMD.
pianto audio sono collegati l’elaboratore che consente la gestione dell’audio nella scena ed altri apparati esterni come un radiomicrofono e un lettore CD e MC. L’esperienza accumulata in occasione della mostra viene oggi impiegata nella realizzazione di nuovi progetti sull’applicazioni della realtà virtuale, sviluppati al CINECA. Si sta cercando, infatti, di integrare i due tipi di navigazione e di rendere il tutto più coinvolgente, con una prima parte eseguita in automatico, con un percorso predefinito, ed una seconda parte con navigazione manuale per consentire una spiegazione ad hoc da parte dell’operatore. Si sta studiando anche la possibilità di usufruire in tempo reale dei database specifici che saranno realizzati per i diversi progetti.
Schema di costruzione dell’immagine 3D.
Immagini dalle Demo Integrina.
107
ricerca nel campo delle telecomunicazioni
Il Baby Reality Center realizzato era costituito principalmente da un super computer grafico Onyx 2 Infinite Reality della Silicon Graphics dotato di quattro processori e da 1GB di RAM e schede grafiche ad alta accelerazione, basato su sistema operativo IRIX. Un sistema informatico ad alte prestazioni è fondamentale per calcolare e visualizzare, in tempo reale, ad ogni cambio di scena, la nuova disposizione. Il sistema di visualizzazione 3D della Barco (3D Digital Video Package) è formato da due proiettori LCD BarcoReality SIM 6 e uno schermo passivo non depolarizzante. Ognuno di questi due proiettori, appositamente allineati, riproduce la stessa scena sfasata di un angolo di convergenza prestabilito dall’elaboratore. Questo sfasamento, grazie anche ad un sistema di filtri polarizzati è in grado di ricreare la profondità della terza dimensione. Infatti, ogni proiettore visualizza l’immagine per un singolo occhio e monta nel sistema di lenti un filtro polarizzatore lineare. Inserendo in un proiettore un filtro con piano di polarizzazione verticale e nell’altro un filtro con piano di polarizzazione orizzontale, e dotando gli spettatori di speciali occhiali con lenti polarizzate linearmente, una con piano di polarizzazione orizzontale ed una verticale, il cervello dello spettatore riceve due immagini distinte e sfasate di un angolo di convergenza prestabilito, che gli permettono di ricostruire la profondità per la terza dimensione. Le immagini proiettate hanno una risoluzione di 1280 x 1024 pixels. Il Baby Reality Center era costituito anche da un PC collegato in remoto per il controllo in caso di blocco sistema e da un impianto audio stereo con mixer, amplificatore e casse. All’im-
M. Ravaioli F. Giglio G. Marozzi N. Bianchi F. Bentivoglio D. Martignani
ricerca nel campo delle telecomunicazioni
la storia e la ricerca dell’istituto di geologia marina del cnr in multivisione
L’Istituto di Geologia Marina del CNR, che da oltre trent’anni si occupa dei mari italiani e delle aree oceaniche, ha come attività primaria lo studio dell’ambiente marino al fine di comprendere come funziona il “sistema Terra” e gli equilibri del suo ecosistema. In occasione del Trentennio della sua fondazione, la storia dell’Istituto è stata illustrata attraverso un esperimento multivisivo dando un esempio di comunicazione intensa ed emozionale, mediante un prodotto integrato tra la storia della ricerca scientifica e tecnologica, la fotografia, l’informatica, la musica e la poesia, amalgamati da una regia unica intesa a fornire un prodotto di divulgazione e informazione rivolto all’ambiente scientifico e di massa. La multivisione si inserisce tra le ultime frontiere della multimedialità. Le potenzialità di questi spettacoli è enorme, già molti musei stanno sviluppando “aree multivisionali”, che permettono di immergere un visitatore in diversi ambienti, consentendo suggestivi “viaggi virtuali”. L’Istituto di Geologia Marina, che ha sede a Bologna, è stato fondato nel 1968 dal Prof. R. Selli ed attualmente è diretto dal Prof. Enrico Bonatti e dalla Dr.ssa Mariangela Ravaioli. L’Istituto si avvale di numerosi laboratori e una Base Operativa in
Area portuale presso la Darsena S. Vitale a Marina di Ravenna, ma la grossa parte dell’attività viene svolta in mare a bordo di Navi Oceanografiche. L’esplorazione della geologia degli oceani negli ultimi 30 anni ha costituto una grande avventura intellettuale che ha portato ad una rivoluzione scientifica culminata con una teoria che spiega processi quali la deriva dei continenti, la distribuzione della sismicità e del vulcanesimo, il sollevamento di catene montuose (Alpi, Himalaia, Ande) ecc. Le ricerche di geologia marina non solo aumentano le nostre conoscenze di base, ma hanno un’importante valenza applicativa. Ad esempio, gli studi sulla geologia, sul vulcanesimo e sulla sismicità del Tirreno hanno importanti ricadute per capire la geologia delle terre emerse, la distribuzione dei terremoti, l’origine dei tsunami, il cambiamento climatico e l’inquinamento marino. L’Istituto di geologia marina sta tentando di formare una nuova generazione di studiosi che possano continuare lo sviluppo di questa disciplina in Italia e mantenerla al livello di quella dei maggiori paesi europei. Le linee di ricerca storicamente condotte dall’Istituto sono la geologia oceanica, la geologia delle aree mediterranee, la stratigrafia ed il paleoclima del quaterna-
Istituto di Geologia Marina, CNR, Bologna. Foto di: IGM.
Tutte le immagini in questo articolo sono dovute alla cortesia di IGM.
108
Carotiere a gravità per la campionatura dei fondali marini (N/O Urania, CNR).
Campionatura di sedimenti superficiali con box-corer in Antartide (N/O Italica/P.MRA).
109
Sperimentazione con sismica multicanale. Sorgenti sismiche Air-gun.
ricerca nel campo delle telecomunicazioni
rio, la geologia ambientale e costiera e lo sviluppo tecnologico. La conoscenza dei processi fisici, chimici e biologici che regolano l’evoluzione del nostro Pianeta sarà fondamentale nel futuro per assicurare lo sviluppo e la continuazione della vita sulla Terra. Questa conoscenza dovrà quindi sempre più condizionare ed ispirare, tra le diverse nazioni, politiche ambientali comuni. Poiché le aree emerse rappresentano soltanto un terzo dell’intera superficie terrestre, è ovvio come lo studio dell’ambiente marino sia essenziale per capire come funziona il pianeta Terra. Negli ultimi anni è apparso chiaro che la ricerca nel campo delle scienze della Terra avrà un senso pratico, e un futuro, se saprà offrire un approccio olistico agli sforzi che la società dovrà fare sempre più seriamente per raggiungere un uso sostenibile delle risorse, una definizione dei rischi ambientali e delle loro condizioni evolutive. Per illustrare tale attività si è creato un percorso fotografico che si sviluppa documentando la vita e l’attività all’interno dell’Istituto e delle navi oceanografiche, riferendo dei risultati della ricerca e documentando gli ambienti marini fino ad arrivare al lontano Antartide. La preparazione di una multivisione in ambito scientifico è complessa e richiede un approccio interdisciplinare e l’incontro di varie competenze: lo scienziato, il fotografo, l’informatico, l’esperto di musica e l’artista. In questo modo si possono raccontare e documentare i contenuti scientifici e la storia percorsa con sequenze di immagini in diapositive sincronizzate su diversi proiettori accompagnate da brani musicali che permettono di penetrare il contenuto della rappresentazione con intense emozioni. Il raccordo tra immagine, musica e colori richiede una sincronia perfetta che è ottenuta mediante un supporto informatico che collega e temporizza cadenze musicali, immagini e testo.
G. Bortoluzzi T. Diamanti G. Stanghellini L. Calori A. Guidazzoli
la visualizzazione dei fondali marini in realtà virtuale LA VISUALIZZAZIONE DEI FONDALI MARINI IN AMBIENTI
ricerca nel campo delle telecomunicazioni
DI REALTA’ VIRTUALE
Se immaginassimo di eliminare completamente l’acqua dagli oceani avremmo una visione di un paesaggio fatto di montagne, valli, canali, estese piattaforme, in generale più dolce di quello delle terre emerse, ma anche, in certe zone, più corrugato e con salti topografici ancora più ampi. Ciò è vero specialmente nelle zone di frattura oceaniche, dove si incontrano pareti e montagne che si elevano anche di 8000 m dal fondo. Solo la fantasia e l’immaginazione, oppure misure precise della topografia dei fondali marini e sistemi raffinati di simulazione e visualizzazione, ci permettono di effettuare tale operazione, e di “navigare” in un mondo di realtà virtuale. La misura accurata della topografia dei fondali comporta lunghe campagne di ricerca con navi adeguatamente attrezzate per la prospezione con onde sonore e ultrasonore, che sono le uniche in grado di penetrare la colonna d’acqua ed essere riflesse dal fondo. La registrazione dei tempi impiegati da queste onde, in relazione anche ad accurati studi oceanografici che ne determinano la velocità di trasmissione, fornisce una misura dell’altezza del fondo dal livello medio del
mare. Strumenti più sofisticati ed accurati (multibeam) sono in grado di fornire misure contemporanee su ampie fasce di fondale, permettendo ad un tempo una migliore copertura spaziale e una riduzione dei tempi di lavoro. L’Istituto per la Geologia Marina del CNR di Bologna ha esperienza ormai pluriennale di acquisizione ed elaborazione di dati multibeam, in Oceano Atlantico ed in Mediterraneo. In particolare, esso ha effettuato un rilievo del Mar Tirreno, condiderato un piccolo oceano in apertura, ed estremamente interessante per le sue fenomenologie vulcaniche. La fase di acquisizione è durata circa 4 mesi di operazioni in nave, mentre la fase di elaborazione ha comportato circa 6 mesi, e, per alcune zone, non è ancora terminata. Uno dei prodotti di tale elaborazione, effettuata dai colleghi dell’IGM D. Penitenti, G. Carrara e P. Fabretti, è stata la creazione di un Modello Digitale del Terreno (DTM) del mar Tirreno. Con una procedura di visualizzazione di DTM sviluppata all’IGM, sfruttando strumenti hardware e software molto potenti (fra cui le workstations grafiche e i ‘Teatri Virtuali’ del CINECA) è possibile effettuare un ‘volo sul Tirreno’, in cui si possono ammirare grandi vulcani sottomarini, im-
Tutte le immagini in questo articolo sono dovute alla cortesia di IGM.
Il fondo del Mar Tirreno.
110
Il vulcano Marsili, Mar Tirreno.
mense pareti franate, lunghissimi canyons che da terra portano nelle zone più profonde materiale di origine continentale, che viene sepolto o rielaborato. Le figure di seguito riportate sono tratte da uno di questi voli. In particolare, si può ammirare il grande apparato geologico del vulcano Marsili, fra la Sicilia e Napoli. Un paesaggio così rivelato non può che rendere ancora più evidente la natura in continua modificazione della Terra e contribuire alla conoscenza di processi geologici fondamentali che modellano la superficie del pianeta. Oltre alla presentazione grafica, il software e le attrezzature di visualizzazione saranno utilizzate per altre applicazioni, fra cui la simulazione e la guida di veicoli sottomarini in tempo reale.
Il vulcano Vavilov, Mar Tirreno.
111
ricerca nel campo delle telecomunicazioni
Carta batimetrica del Mar Tirreno da rilievi multibeam. SNG/GNV/ Progetto strategico CNR “Dorsali e bacini di retroarco”.
R. Amato
il codice a barre
ricerca nel campo delle telecomunicazioni
DATALOGIC: CAPTURE COMPUTE COMMUNICATE
Le tecnologie su cui Datalogic ha basato il suo sviluppo sono quelle della Identificazione Automatica e della Raccolta Dati (AIDC, Automatic Identification and Data Capture): il codice a barre è sicuramente la forma più nota e popolare al grande pubblico per il suo uso sui prodotti di largo consumo. Datalogic però non si occupa più solo di capture (la cattura, la raccolta dei dati), ma anche di computing (elaborazione dei dati) e communication (trasmissione dei dati): lo sviluppo delle tecnologie dell’hand-held computing (elaborazione dati tramite dispositivi palmari) e della comunicazione dati wireless (senza filo, tipicamente a radiofrequenza) sono oggi centrali nella strategia di Datalogic. SHOPEVOLUTION™ LA SPESA VELOCE, PIACEVOLE E SENZA CODE
dosi nell’utilizzo di svariate soluzioni applicative. Attuare il One-to-One marketing con strumenti efficaci risulta fondamentale: nell’ambito del CRM esso svolge un ruolo chiave in quanto trasforma le informazioni raccolte sulle abitudini d’acquisto di un singolo cliente, in un efficace piano di marketing con azioni dirette e personalizzate. Consente di veicolare informazioni utili, proporre promozioni su misura, comunicare eventuali miglioramenti nel servizio sollecitati dal cliente stesso e così via, spostando il fattore discriminante dalla mera valutazione di prezzo ai benefici legati alla fruizione di servizi tempestivi, efficaci e, soprattutto, plasmati in base alle proprie esigenze ed abitudini. Shopevolution™, grazie alla sofisticata gestione delle informazioni legate alla Customer Category, dà ora la possibilità ad ogni cliente di vivere una esperienza di shopping unica e personalizzata sin dal momento in cui entra al supermercato.
Quanto tempo si perde in coda al supermercato? Quanto tempo si perde poi a svuotare il carrello alla cassa? Troppo! Il sistema di Self-Scanning Shopevolution™, al contrario, richiede semplicemente di: • Prelevare il pratico terminale. • Leggere il codice a barre di ogni articolo che si desidera acquistare prima di riporlo nel carrello. • Consegnare il terminale alla cassiera che emetterà immediatamente lo scontrino sulla base dei dati memorizzati durante la spesa. Nient’altro! In più il terminale permette di ricevere promozioni personalizzate, di leggere informazioni di vario genere su quel determinato prodotto e di tenere costantemente sotto controllo quanto si sta spendendo. Shopevolution™ significa quindi anche più qualità della vita. La fidelizzazione del consumatore assume oggi, ancor più che in passato, un valore decisivo nell’ambito della vendita al dettaglio (Retail) dei prodotti di largo consumo (FMCG – Fast Moving Consumer Goods), vista la pluralità di alternative d’acquisto offerte dall’espansione della grande distribuzione e dall’emergere dello shopping on-line. In questo senso per gli operatori della grande distribuzione, è strategica l’attuazione di politiche volte alla creazione di valore per il consumatore, di politiche di marketing personalizzate per il singolo individuo (Customer Specific Marketing) ed in generale di una logica che ponga il cliente al centro del business. Ciò al fine di costruire e mantenere un distinto vantaggio competitivo. Il Customer Relationship Management (CRM) interpreta appieno questa filosofia centrata sul consumatore, concretizzan-
112
@NYWHERE™: I TUOI ACQUISTI COME VUOI, QUANDO VUOI E DA DOVE VUOI
Utilizzando un telefonino WAP o un PDA, è possibile collegarsi al sistema Shopevolution™ presente nel supermercato ed effettuare gli acquisti on-line, in qualsiasi momento della giornata, senza stress, senza affollamento, senza fretta, senza code. Analogamente, restando comodamente a casa, si può inviare la propria lista della spesa utilizzando un lettore di codice a barre collegato a PC. Inoltre, con questa modalità, è possibile richiamare qualsiasi documento Internet senza digitare alcun indirizzo bensì leggendo semplicemente uno speciale bar code presente su quotidiani o pubblicazioni specializzate. SMARTACCESS™: LA TECNOLOGIA AL SERVIZIO DEL CITTADINO
Niente più code! Pagamenti automatizzati! Possibilità di accedere con lo stesso sistema identificativo a città, parcheggi, manifestazioni, eventi! Tutto questo oggi è possibile grazie alla tecnologia Datalogic basata sulla comunicazione a Radio Frequenza. Non è più necessario introdurre la tessera in appositi lettori: con un sistema di comunicazione dati a onde radio, il sistema di controllo accessi è in grado di rilevare persone, oggetti, automezzi in maniera automatica, senza errori e istantaneamente. Questa tecnologia permette anche di realizzare sistemi di sicurezza per persone e oggetti. Le stazioni di rilevamento pos-
113
Tutte le immagini di questo articolo sono dovute alla cortesia di Datalogic, Bologna.
ricerca nel campo delle telecomunicazioni
Nel momento in cui il cliente si avvicina al sistema di Self-scanning Shopevolution™ per prelevare il proprio terminale da utilizzare per lo shopping, sul monitor multimediale gli viene presentata una videata personalizzata e un messaggio di benvenuto con il suo nome, un banner gli propone le offerte promozionali del giorno a lui più indicate ed inoltre gli viene stampato un coupon personalizzato che può essere, ad esempio, un biglietto per la lotteria di Capodanno, la promozione di un prodotto private label, un buono sconto, etc. Shopevolution™ raggiunge il cliente anche quando si trova tra gli scaffali e sta facendo la spesa. Offre infatti la possibilità di proporre in diretta, sul display dell’ergonomico terminale di Self-scanning, azioni di marketing One-to-One come promozioni e consigli per gli acquisti basati sul comportamento d’acquisto del cliente, che Shopevolution™ conosce perfettamente in quanto memorizzato nel proprio database. Alla fine dello shopping, il cliente non desidera altro che eliminare il passaggio che tutti vorrebbero saltare quando sono al supermercato: la coda alla cassa. Shopevolution™ annulla infatti i tempi di attesa al check-out consentendo al cliente di pagare senza dover togliere la spesa dal carrello e senza dover riutilizzare la propria loyalty card in cassa.
sono identificare ad esempio autovetture che escono da parcheggi senza autorizzazioni o bambini che si allontanano dai genitori. In ambito produttivo inoltre questi sistemi consentono di inserire in oggetti quali Personal Computer, telefoni cellulari ecc. tutte le informazioni sul prodotto (data di fabbricazione, manutenzione effettuata ecc.) e sul proprietario (nome, indirizzo ecc.) garantendo la massima qualità di servizio e maggiore sicurezza.
B. Cappa, Sintesi delle Comunicazioni telegrafiche e telefoniche, Palazzo delle Poste, Palermo. Per cortesia di: FMR.
114
comunicazione e ricerca nelle scienze della vita
116 Il Progetto Genoma
—
G. Della Valle, V. Politi, R. Bernardoni, G. Perini,
D. Grifoni
119 Comunicazione e orientamento nelle api
—
124 Parlarsi con le molecole disciolte negli oceani
G. Celli
—
P. Cortesi, O. Cattani,
G. Isani, G. Vitali, S. Sintoni
130 Il linguaggio degli ultrasuoni dei delfini
—
R. Lenzi, L. Bartoletti,
S. Sintoni, P. Cortesi
134 Impatto ambientale dei sistemi di comunicazione — P. Bernardi, M. Cavagnaro, 136 Internet e net-culture
115
—
F. Berardi
S. Pisa, E. Piuzzi
G. Della Valle V. Politi R. Bernardoni G. Perini D. Grifoni
c omunicazione e r icerca nelle s cienze della v ita
il progetto genoma Il Progetto Genoma è probabilmente il progetto più ambizioso intrapreso dall’uomo: lo scopo è quello di conoscere la sequenza completa di tutto il genoma umano. Il genoma è organizzato, all’interno del nucleo di ogni cellula, in strutture denominate cromosomi, che nell’uomo sono 23 coppie. Nei cromosomi risiedono i geni, che a loro volta sono costituiti da DNA (acido desossiribonucleico). Il DNA è una molecola composta di sole quattro basi nucleotidiche (Adenina, Guanina, Timina e Citosina) organizzate in sequenze differenti, così formando i diversi geni. Se pensiamo che la lunghezza totale del DNA contenuto nei 23 cromosomi è di circa 3 miliardi di paia di basi, possiamo immaginare come que-
sta sfida sia stata difficile e, allo stesso tempo, molto stimolante. È parso chiaro fin dall’inizio che un progetto di così grandi dimensioni poteva essere portato a termine solamente attraverso sforzi coordinati tra i vari enti di ricerca del pianeta. Infatti, è con un adeguato grado di sinergia tra i ricercatori che si è potuta elaborare la grande massa di dati che giorno dopo giorno aumentava costantemente. Alla partenza del Progetto Genoma Umano (lanciato dagli Stati Uniti nel 1988) si pensava che la decifrazione integrale del genoma umano non potesse terminare prima del 2005; tuttavia, grazie alle continue innovazioni biotecnologiche e informatiche, la data è stata anticipata al 2001. Quello che ci si aspetta dai
PROGETTO GENOMA
Determinazione dell’intera sequenza di nucleotidi contenuti nei 46 cromosomi umani. La sequenza è letta e organizzata dal computer.
Le sequenze del DNA di un individuo sano e uno malato sono immesse nel computer e confrontate al fine di identificare il gene responsabile della malattia. Individuazione del gene responsabile della malattia.
116
Struttura di una cellula animale
Struttura di un frammento di DNA contenuto nel nucleo cellulare
Cambiamenti nella struttura della beta-globina diminuiscono la sua capacità di legare l’ossigeno e portano alla comparsa di eritrociti anomali con la tipica forma a falce
117
gli organismi superiori; una di queste è sicuramente la discontinuità dei geni; con tale termine si evidenzia che le porzioni codificanti per le proteine, chiamate esoni, sono interrotte da sequenze non codificanti, gli introni. Tali sequenze vengono “tagliate” via nel processo della trascrizione e quindi, di fatto, ancora non si conoscono tutte le funzioni della loro presenza nel nostro patrimonio genetico. Oltre agli introni, nel genoma esiste un’elevata quantità di DNA, spesso costituito da sequenze ripetute, che non viene utilizzato né per la sintesi proteica né per la regolazione dell’espressione genica. Il significato di queste regioni non è stato ancora chiarito: secondo alcune ipotesi accreditabili, le se-
Meccanismo di trasferimento della informazione genetica dal DNA ad un altro acido nucleico -RNA- (Trascrizione) e da quest’ultimo alla proteina (Traduzione)
Mutazioni di un singolo nucleotide nella sequenza della beta-globina possono alterarne la struttura e causare l’Anemia Falciforme
Codice che converte triplette di basi in aminoacidi, i mattoni delle proteine
c omunicazione e r icerca nelle s cienze della v ita
risultati del Progetto Genoma è di scoprire l’origine di tante malattie genetiche ereditarie, di poter fare progressi nel campo della diagnostica molecolare e della terapia genica. Conoscere la sequenza e la localizzazione dei geni permetterà inoltre di agire in maniera selettiva e mirata anche contro malattie come il cancro e l’Aids. L’ultimo livello di questa indagine biomolecolare è l’analisi delle sequenze ottenute; si cercherà cioè di capire se il frammento che è stato analizzato fa parte di particolari regioni regolatrici del gene oppure se rappresenta una parte codificante del prodotto proteico finale. A complicare questo tipo di interpretazioni intervengono alcune peculiarità del genoma de-
c omunicazione e r icerca nelle s cienze della v ita
quenze ripetute potrebbero avere un ruolo, o averlo avuto, nel corso dell’evoluzione. Quindi, oltre alle linee di studio concernenti la terapia genica, la lotta contro le malattie genetiche e tumorali e il perfezionamento di test diagnostici molecolari, un’ulteriore e affascinante branca della biologia che trarrà importanti informazioni dai risultati ottenuti sarà lo studio evolutivo dei genomi di differenti organismi. Se pensiamo che le differenze nucleotidiche tra il genoma umano e quello di alcune scimmie antropomorfe sono dell’ordine dell’1-2%, sarà di estremo interesse capire in che cosa consistano e a carico di quali geni siano. Il grande progresso tecnologico nel campo dell’informatica ha infine permesso un’ottimale rielaborazione dei dati ottenuti e
Un essere umano è costituito circa da 10.000 mld di cellule
un più efficace interscambio tra i vari ricercatori e scienziati impegnati nel progetto; le banche dati ora disponibili in rete permettono l’identificazione di sequenze fra loro correlate e possono offrire così un indizio per determinare la funzione dei geni. In estrema sintesi, il sequenziamento del genoma umano consiste nel punto di partenza fondamentale per lo studio e l’interpretazione di un codice antico e non più segreto; pochi elementi di base in grado di dare una varietà quasi infinita di combinazioni che ora conosciamo e di cui possiamo finalmente iniziare a comprendere il significato.
Ogni cellula contiene 46 cromosomi per un totale di 100.000 geni distribuiti in 2 m circa di informazione genetica (Acido Desossiribonucleico -DNA-).
Ogni cromosoma, lungo circa 2 millesimi di millimetro, contiene in media 150 milioni di coppie di nucleotidi (A=Adenina, C=Citosina, T=Timina, G=Guanina)
Tutte le immagini di questo articolo sono dovute alla cortesia degli Autori del testo.
118
G. Celli
Il 9 maggio del 1963, il professor Karl von Frisch, vincitore, nello stesso anno, del premio Balzan per la biologia generale, e che dieci anni dopo riceverà il Nobel insieme a Konrad Lorenz e a Niko Tinbergen, tenne una conferenza a Roma presso l’Accademia Nazionale dei Lincei. L’argomento era “Il linguaggio delle api”, ai confini, secondo alcuni, che separano la scienza dalla fantascienza, e che ha costituito per von Frisch la scoperta più importante, anche se non la sola, dalla sua lunga vita di ricercatore. Da sempre si era autorizzati a pensare che gli animali, faccio un po’ di semiologia selvaggia, si scambiassero soltanto dei segnali, dotati di una intensa valenza emotiva. In un gruppo di uccelli alla pastura, quello che ha intravisto nel cielo il volo circolare di un falco, lancia un grido. Quel grido non significa falco, ma piuttosto comunica la paura che il falco evoca in chi lo ha visto, e la trasmissione di questa emozione mette in allarme i compagni della improvvisata sentinella, che volano via. Se al contrario, un uomo grida leopardo, sicuramente la parola avrà una sua aura emozionale, ma nel contempo informerà più precisamente i compagni, che sanno, per convenzione, come a quel suono corrisponda un leopardo, e non, mettiamo, un’aquila, e che il pericolo ha quattro zampe e non le ali. L’uomo, aveva scritto Cassirer, è un animale simbolico; von Frisch si peritava di aggiungere: anche l’ape, in una certa misura, lo è. In che senso? Vengo subito al nocciolo della questione: fin dai tempi di Aristotele, che ne fa per l’appunto menzione nelle sue opere, si sapeva che le api di ritorno all’alveare, dopo avere raccolto sui fiori del nettare e del polline, mettono in atto delle curiose giravolte, che sembrano interessare molto le compagne. Che funzione assolvevano? Chissà! Qualche millennio dopo, nel 1788, Ernst Spitzner, che aveva pensato di studiare l’alveare impiegando un’arnia “a finestra”, e cioè con le pareti di vetro, nota la curiosa danza, e pensa che serva all’ape per meglio diffondere in giro l’odore dei fiori visitati, sollecitando così le compagne a seguirla sul luogo del bottino. Nel 1901, guarda guarda, entra in scena un poeta drammaturgo belga, Maurice Maeterlinck, dilettante di apicoltura, che decide di scrivere un libro sulle api e i loro costumi, “La vie des abeilles”. Diventerà un best-seller mondiale, e contribuirà non poco al prestigio di Maeterlinck, che vincerà il Nobel per la letteratura dieci anni dopo. Le api portano fortuna, insomma! Lo scrittore, pensate un po’, sfiora la grande scoperta. Ha osservato a sua volta le danze, e ha subodorato che costituiscano una sorta di linguaggio gestuale. Capisce al volo come affrontare il problema: mette una coppella di miele sul davanzale della finestra del suo studio, e aspetta che un’ape dell’alveare posto negli immediati dintorni, venga a far bottino. Mentre sugge il miele, Maeterlinck la marca con una macchiolina di colore, e lascia che ritorni a ca-
119
sa. Qui, attraverso il vetro a parete della sua arnia, la osserva mentre danza a suo piacimento, seguita dalle compagne, e la cattura quando sta per involarsi di nuovo. Se le altre api giungeranno numerose a bottinare la coppella di miele, senza essere state guidate dalla danzatrice sul posto, significa che quest’ultima ha comunicato loro la direzione e la distanza del tesoro zuccherino. N’est pas? Ahimé, solo un’ape si fa viva, e Maeterlinck non sa se attribuire la sua presenza al caso. Per cui, i poeti sono volubili, abbandona la ricerca sul campo, e preferisce speculare sui misteri, e su quello “spirito dell’alveare” che darebbe ragione di ogni cosa. La persona che entra in scena a questo punto, Karl von Frisch, è di ben altra tempra. Il suo motto potrebbe essere non solo provando e riprovando... ma riprovando ancora! Giovane assistente presso l’Università di Vienna, comincia la sua carriera scontrandosi frontalmente con un “barone” della facoltà di Medicina, il professor Karl von Hess, illustre oftalmologo. Questo scienziato aveva decretato che le api non vedono affatto il colore dei fiori, che pure frequentano così attivamente. Il nostro von Hess si era convinto di questo in forza di una sua esperienza, che ora vi racconto. Gli oftalmologi sanno bene che quando si scompone la luce bianca nello spettro cromatico, la banda gialla, per un uomo normale, risulta la più luminosa. Invece, per un daltonico, appare tale quella che va dal giallo-verde al verde. Bene, mettendo delle api in ambiente confinato, von Hess aveva constatato che era proprio verso questa banda cromatica che si dirigevano di preferenza. Era lecito concludere, così, che fossero anche loro cieche ai colori. Ma se per un uomo di laboratorio, come von Hess, la cosa pareva plausibile, per un naturalista era difficile da mandar giù. Difatti, i colori dei fiori sarebbero, dunque, non delle esche percettive per attirare le api, ma un semplice lusus naturae? Incurante dei rischi di contraddire un “barone”, il giovane von Frisch si mette all’opera. Pone, tra cartoncini di diversi colori, un cartoncino, per esempio blu, con sopra una ciotolina di acqua zuccherata. Le api, per caso, scoprono la manna, e a poco a poco, associano il colore blu all’offerta di cibo. Si sposti, allora, la posizione del cartoncino colorato sulla scacchiera: l’ape non esita, e punta dritta sul blu. Dunque, lo vede, se no come farebbe? Vede i colori, ma è cieca al rosso - finisce per mettere in luce von Frisch - e percepisce l’ultravioletto, al quale noi siamo del tutto ciechi. A ogni modo, Davide ha battuto Golia, dimostrando che se tutto il reale non è razionale, come voleva Hegel, tende, se perdura nel tempo, a diventarlo. Possibile che i colori dei fiori, così vari e splendenti, non servissero a nulla? E quelle danze, allora? Mediante l’impiego di un arnia a vetri, e ideando una tecnica di addestramento progressivo delle api, il nostro von Frisch scopre ben presto che esistono due diver-
c omunicazione e r icerca nelle s cienze della v ita
comunicazione e orientamento nelle api
c omunicazione e r icerca nelle s cienze della v ita
si modi di danzare. Difatti, l’ape che rientra con il suo carico di nettare o di polline, si mette a danzare “in tondo”, oppure compie un percorso a forma di otto rovesciato sul fianco, costituito, in parole povere, da due semicerchi collegati da un tratto rettilineo. Mentre la bottinatrice percorre questo segmento muove l’addome pendolarmente a destra e a sinistra, per cui la danza viene detta dell’addome, o scodinzolante, oppure “a otto”, come si preferisce. Mentre percorre il tratto rettilineo, l’ape, contraendo i muscoli alari, emette delle sequenze sonore. In principio, von Frisch si sbaglia, pensa che la danza “in tondo” venga messa in atto dalle api che raccolgono il nettare, mentre quella scodinzolante dalle api che raccolgono il polline. Ci sono voluti due decenni di prove e controprove perché la faccenda venisse chiarita definitivamente. Il nettare e il polline non c’entrano per niente! Vedremo più avanti come le api danzino “in tondo” quando il cibo è più vicino all’alveare, e scodinzolino quando è più lontano, e von Frisch, che le allettava con delle soluzioni zuccherine, equivalenti del nettare, sistemava sempre le coppelle in prossimità dell’alveare, per cui tutte le api che le bottinavano, al rientro danzavano “in tondo” e non “a otto”. Nel 1946, von Frisch comunica al perplesso mondo scientifico di aver del tutto decifrato “il linguaggio delle api”. Quando l’ape danza “in tondo” sul favo, il messaggio per la compagna potrebbe suonare così: “c’è del cibo qui attorno: cercatelo!”. Per la danza dell’addome le cose si complicano, per-
Fig. 1- La spiegazione è nel testo
chè l’ape che ha trovato dei fiori ricchi di nettare o di polline comunica alle compagne la direzione, e la distanza del bottino. Dobbiamo premettere che il nostro insetto si orienta nei suoi spostamenti sul territorio impiegando il sole, di cui sa compensare gli spostamenti giornalieri, come una bussola astronomica. In poche parole, quando l’ape che ha fatto bottino rientra, danza sul favo secondo diverse modalità: - se i fiori si trovano su di una linea retta immaginaria che collega l’alveare al punto a terra corrispondente alla posizione del sole, il coreogramma avrà il tratto rettilineo sul favo perpendicolare al suolo, e cioè nella direzione della gravità, e l’ape danzerà sempre con la testa “verso l’alto”; - se è l’alveare a trovarsi tra i fiori e il punto a terra del sole, il coreogramma sarà lo stesso, ma l’ape danzerà con la testa “verso il basso”; - se i fiori si trovano spostati a destra, o a sinistra dell’alveare, il tratto rettilineo della danza dell’addome risulterà inclinato sulla perpendicolare di un angolo uguale a quello formato dalle due rette immaginarie che collegano l’alveare ai fiori e l’alveare al punto a terra del sole (Fig. 1). Questo per la direzione. E per la distanza? Beh, l’ape danza tanto più rapidamente quanto più è vicina la sorgente zuccherina, e viceversa. Per cui, in una unità di tempo convenzionale, per esempio quindici secondi, il numero di rivoluzioni totali della danza a otto presenterà una buona correlazione con la distanza dei fiori, e del pari il numero di scodinzolamenti, o quello dei percorsi rettilinei. Possiamo considerare legittimamente queste danze come un linguaggio? Si direbbe proprio di sì, perché la comunicazione avviene attraverso un insieme di gesti convenzionali. La comprensione del loro significato deve essere condivisa dall’ape che danza e dalle compagne che la seguono sul favo, una condizione essenziale per ogni comunicazione segnica. Hockett e Altmann hanno stilato alcuni anni fa una sorta di decalogo dei caratteri peculiari del linguaggio umano, consentendo un paragone con quello delle api. Su sedici caratteri nostri, almeno sei sono attribuibili anche all’insetto: l’intercambiabilità, la specializzazione, la semanticità, l’arbitrarietà, la traslatività, il feed-back completo. Altri caratteri sono da considerare con il beneficio del dubbio. Per esempio, sembra che le bottinatrici giovani, rispetto alle anziane, danzino peggio, per cui non sarebbe escluso un certo apprendimento. Inoltre, gli scodinzolamenti non potrebbero venir considerati come degli elementi discreti del messaggio? Infine, le api possono contraddirsi, e perfino mentire? In senso latissimo, forse sì, e lo vedremo in seguito. Il passaggio dalla danza “in tondo” a quella dell’addome, come si è accennato, si verifica quando la distanza della sorgente di cibo supera una certa soglia metrica. In tal senso, le razze delle api presentano delle differenze, paragonabili a dei dialetti. Se poi tali differenze sono riferibili alle diverse specie del genere, è forse legittimo affermare che si tratti non più solo di dialetti, ma di lingue vere e proprie. Evidentemente parliamo per analogie, se non per metafore, ma si consulti a riguardo la figura 2 (Fig. 2). Il fatto che l’ape sia il solo essere che, in natura, abbia elaborato un linguaggio segnico, non era cosa da venir accettata dai biologi facilmente. Increduli, molti ricercatori, Wells e
120
semplici, detti ocelli, sensibili alla luce e basta, per cui se vengono verniciati le api rientrano in anticipo nell’alveare la sera ed escono più tardi al mattino. Aggiungiamo che le bottinatrici in presenza del sole o di una lampadina orientano il tratto rettilineo della danza direttamente verso la luce. Che cosa ha pensato di fare Gould? Di verniciare gli ocelli di alcune bottinatrici, e di porre all’interno dell’alveare un “punto-luce”, d’intensità così debole da essere percepito dalle api con gli occhi normali, ma non da quelle con gli ocelli resi sperimentalmente opachi. Che cosa è successo? Dato che il cibo si trovava sulla linea che collega l’alveare al punto a terra del sole, le danzatrici cieche alla luce delle lampadine hanno danzato sulla verticale, mentre le altre, che erano in grado di percepirla, hanno pensato, in senso latissimo: che la compagna mentisse, e hanno interpretato il tratto rettilineo del coreogramma non come posto sulla direzione della gravità, ma inclinato di un angolo pari a quello formato tra la verticale e la linea che puntava alla sorgente luminosa. E si sono recate, per l’appunto, dove c’era la coppella vuota e dove le aspettava lo sperimentatore. Dunque, non possono più esistere dei dubbi che la danza dell’ape assolva una funzione di comunicazione, e proprio secondo la semantica messa in luce da von Frisch! (Fig. 3). Ma non possiamo fare a meno, ora che ci siamo convinti che le api, per dir così, “parlino danzando”, di chiederci quando, e come abbia avuto origine questa gestualità prodigiosa. Evidentemente, per i comportamenti, non possono esistere dei reperti paleontologici, per cui si deve congetturare sul presente, ricorrendo all’osservazione di specie vicine, preferibilmente più primitive, oppure sconfinando perigliosamente per cogliere qualche analogia etologica in insetti anche sistematicamente lontani. Per esempio, alcuni anni fa, Dethier e i suoi collaboratori hanno osservato in un dittero calliforide, si trattava di
Fig. 2- Dialetti e lingue nelle diverse specie del genere Apis, e nelle razze di A. mellifera. La spiegazione è nel testo.
c omunicazione e r icerca nelle s cienze della v ita
Wenner in testa, si sono messi, dagli anni Sessanta in poi, a sparare a zero su von Frisch. Nessuno poteva negare che le api danzassero, ma quelle loro giravolte non potevano essere delle manifestazioni di esultanza, senza alcuna funzione comunicativa? Rifaceva capolino, come nel caso dei colori, l’idea di un lusus naturae, e anche questa volta von Frisch era destinato, come vedremo, a vincere la partita. Però, era pur vero che le api trovavano abbastanza facilmente le coppette sperimentali, e se non era una indicazione “via danza”, che cosa le faceva giungere sul luogo del bottino così puntualmente? Insomma, qualcosa doveva pure guidarle! Bisogna sapere, allora, che le api sono dotate di una grossa ghiandola a erogazione di profumo, la cosiddetta ghiandola di Nassonov, per cui, spesso, quando frequentano delle sorgenti di cibo, lasciano dei marchi olfattivi. Non sarà, allora, cominciarono a insinuare i detrattori di von Frisch, che siano stati semplicemente degli odori, e non delle danze, a orientare le api in cerca di cibo sul territorio? Talune esperienze di von Frisch sembravano non aver tenuto conto di questa eventualità e mostravano il fianco al dubbio. Non è qui la sede, vista la brevità del mio intervento, per descrivere le esperienze “a botta e risposta” che per più di due decenni hanno contrassegnato il dibattito tra von Frisch e i suoi avversari scientifici. Alla fine, Gould, un etologo americano, ha ideato l’esperienza cruciale, che ora vi descrivo. Di recente, Richard Dawkins, in un suo libro sull’evoluzione, purtroppo mal tradotto in italiano, ne ha sottolineato la genialità. Le api, dobbiamo premettere, sono provviste di due occhi composti, formati da tanti elementi singoli, detti ommatidi, che consentono loro di percepire, oltre a certi colori, le forme un po’ grossolane dei fiori, e delle cose del mondo in genere. Inoltre, sulla testa mostrano, disposti a triangolo, tre occhi
c omunicazione e r icerca nelle s cienze della v ita
Fig.3- Esperienza di Gould: la spiegazione è nel testo.
una Phormia, un comportamento davvero strano. Offrite ad un adulto di questa mosca una gocciolina di miele, aspettate che l’assaggi a piacimento, e fatela sparire. L’insetto comincerà a girare in tondo, tanto più velocemente quanto più di suo gusto era il cibo. Si tratta delle manifestazioni di entusiasmo per quel premio or ora scomparso? Non vi fa venire in mente la “danza in tondo” delle api? Tra l’altro, se un’altra mosca si avvicina, e tocca con la sua la proboscide della danzatrice, lei non esita a rigurgitarle un po’ del suo miele. Le Phormia non sono di certo sociali, eppure questi scambi di cibo non potrebbero essere i primordi di una tendenza alla vita di gruppo? E non si può congetturare che, all’inizio, certe specie abbiano imboccato la via della socialità cominciando a spartire tra di loro un po’ dell’alimento rinvenuto? Altro fatto singolare: quando la mosca succitata, danzando in circolo, viene investita da un fascio luminoso, il suo percorso si fa ellittico, dimostrando una reattività alla luce, che entra, come abbiamo visto, nel repertorio comportamentale della nostre api. Ma per esplorare le origini della danza dell’addome scomponiamo i coreogrammi nei loro morfemi, anche se non è per nulla legittimo, ma di comodo, considerarli tali. Prendiamo in esame, subito, la trasposizione della danza da orizzontale a perpendicolare, e, in seguito, il tratto rettilineo tra i due emicicli. Come si sa, il genere Apis è formato da quattro specie, Apis florea, la cosiddetta ape nana, A. dorsata, o ape gigante, A.cerana, o ape indiana, e per questo indicata un tempo come indica, e l’A. mellifera, che ci riguarda più da vicino. L’ape nana sarebbe comparsa, probabilmente, più di dieci milioni di anni fa, e risulterebbe la più antica. L’ape gigante sarebbe invece più recente, risalendo a cinque milioni di anni, e le altre due specie la cerana e la mellifera avrebbero visto la luce circa centomila anni fa, o giù di lì, e dunque risulterebbero, per dir così, giovanissime. Secondo un punto di vista evolutivo, non si sa se del tutto legittimo, le specie più antiche presenterebbero dei comportamenti più primitivi, e ci consentirebbero di risalire alle origini di quelli più complessi. Sarà vero? Beh, diamo per buona questa ipotesi e vediamo dove ci porta. L’ape nana costruisce un nido composto da un solo favo appeso al ramo di un albero, en plain air, con un’ampia piattaforma superiore. La sua danza dell’addome viene eseguita su questa piattaforma, e dunque in orizzontale, e il trat-
to rettilineo indicherebbe direttamente la sorgente di cibo. L’ape gigante edificherebbe, a sua volta, un grosso favo appeso a un robusto ramo, o a uno spuntone di roccia, senza alcuna pista di danza superiore, ed eseguirebbe le sue evoluzioni “a otto” trasponendole, come fanno A.cerana e A. mellifera, sulla verticale del favo. Come si sa anche quest’ape danza nella piena luce del sole. A proposito di questa conversione del tratto rettilineo della danza dall’orizzontale alla verticale, possiamo, come per la “ danza in tondo “ ricorrere a una analogia, e cioè a un comportamento osservato non più nei ditteri calliforidi, ma questa volta nei coleotteri coccinellidi. Prendiamo, per esempio, Hippodamia convergens: questa coccinella, se viene fatta deambulare su di una superficie orizzontale, il suo percorso si svolge secondo un certo angolo rispetto al sole, o a un’ altra sorgente di luce. Se l’illuminazione cessa, e la superficie su cui si muove viene posta verticalmente, la coccinella continua a camminare mantenendo lo stesso angolo, indifferentemente a destra e a sinistra. Perchè lo fa? Non si sa proprio; però questa sua performance mostra una curiosa predisposizione di trasporre il proprio percorso mantenendo costante l’angolo, un fatto che nell’ape assume, come si è già visto, una particolare pregnanza semantica. Le quattro specie di api, tra l’altro, impiegano o no un rinforzo sonoro della gestualità della danza. Le api che danzano all’aperto, come la nana o la gigante, restano, durante il percorso rettilineo, pressoché silenziose. Le altre due specie, l’ape cerana e la mellifera, che danzano nel buio del nido, quando percorrono il tratto tra i due emicicli emettono delle scariche di suoni, come se nelle tenebre non fosse sufficiente il movimento, ma servisse anche il rumore, per attirare l’attenzione delle compagne. A dire il vero, anche A. florea si vale di una, per dir così, punteggiatura sonora, ma non paragonabile a quella delle due specie succitate, perchè quasi impercettibile. L’origine dell’altro morfema, il tratto rettilineo, è apparentabile, forse, al consolidamento specifico di un movimento di intenzione. Si sa che gli animali esibiscono spesso delle posture ritualizzate, per usare la terminologia di Julian Huxley. Un ragno, durante il corteggiamento, compie attorno alla femmina un percorso circolare, che fa parte ormai del repertorio della sua specie. Al principio, si può supporre che gli antenati di quel ragno fossero posseduti da due pulsioni contrastanti, il desiderio di avvicinarsi alla femmina e la paura di venire divorati. Per cui, la componente cinematica era un movimento di avanti-indietro, che, sottoposto al vaglio della selezione naturale, ha finito per entrare a far parte dei modelli motori ereditari della specie, diventando un elemento caratteristico del suo etogramma. Il tratto rettilineo della danza in A. florea sarebbe stato, all’inizio, la corsa per decollare, diretta verso la sorgente di cibo, e diventata, nel succedersi delle generazioni, il percorso tra i due emicicli dell’intera evoluzione della danza. Sembra intuitivo supporre che i due emicicli stessi siano il relitto di una doppia “corsa in tondo” e così via. Sicuramente, porre tutto questo puzzle di movimenti come la base per il manifestarsi di un linguaggio gestuale così raffinato come quello che abbiamo descritto, sfiora il ridicolo, e va considerato, come una indagine poliziesca, alla stregua di un insieme di indizi ancora
122
ben lontani dalla soluzione del problema. A ogni modo, degli indizi sono sempre meglio di niente: perlomeno ci suggeriscono la pista da seguire. Volevo parlarvi, non solo dei sistemi di comunicazione delle api, ma anche di come si orientano sul territorio, e temo di poter trattare questa seconda parte solo sommariamente. Le api si orientano con il sole quando il cielo è sereno, e se è parzialmente coperto, mediante la luce polarizzata visibile attraverso qualche squarcio di nuvola. Si sa, infatti, che la polarizzazione del cielo varia secondo la distanza dal sole, e anche se la controversia sul come è ancora in corso, sembra accertato che le api siano in grado di valutare tale diversità e di tenerne conto nell’orientarsi. Quando il cielo è totalmente coperto, i punti di riferimento nel paesaggio, alberi, campanili, così via, diventano prioritari. Ma per concludere vorrei trattare con qualche dettaglio una ipotesi che io e la mia équipe abbiamo di recente sottoposto a esperienza. L’ipotesi si colloca nell’ambito di quella nuova etologia, l’etologia cognitiva, di ascendenza piagetiana, ma che ha trovato in Griffin un illustre capofila. Questa etologia, che sta, a poco a poco, spiazzando quella classica, si ripromette di verificare sperimentalmente se gli animali abbiano, o no, uno “spazio mentale”, se in qualche misura siano abilitati a pensare, e perfino se siano in possesso di un barlume di coscienza. Si tratta di una questione suscettibile di venire sottoposta a esperimento? Ma sì, perché se tra la percezione e l’azione si può mettere in luce una elaborazione, significa che l’animale ha compiuto delle operazioni mentali. Ma quando si pensa, si rappresenta, e la rappresentazione, per gli etologi cognitivi, è la chiave di volta per entrare nella stanza di Barbablù del pensiero animale. Nel caso delle api, ci si è chiesto se siano dotate di una mappa cognitiva del territorio che frequentano. Come accertarlo? Semplice, per lo meno a dirsi: se sono capaci di elaborare delle scorciatoie significa che hanno la possibilità di progettare un percorso nuovo, e di progettar-
lo, in senso lato, mentalmente. In parole povere, la ricetta sperimentale è questa: si colloca un alveare in un certo territorio, e si lascia che per qualche giorno, le bottinatrici lo percorrano in lungo e in largo (Fig. 4). Dopo si addestrano alcune, debitamente marcate con colori e numeri, a bottinare una coppetta di soluzione di miele posta su di una piattaforma a diversa distanza dall’alveare. In seguito, catturate all’uscita dall’arnia o direttamente, prima che si alimentino, sulla piattaforma suddetta, le api marcate vengono poste in un tubo oscurato, e celermente trasferite in un punto del territorio da cui, per la presenza di alti alberi, non sia possibile vedere direttamente nè l’alveare, nè il luogo dove si trova le soluzione di miele. L’aspettativa sperimentale è questa: se le api, orientandosi con il sole, rientrano all’alveare per poi ripartire verso la piattaforma, significa che non sono provviste di alcuna mappa cognitiva. Al contrario, se si dirigono direttamente verso l’offerta di miele significa che sono state capaci di progettare una vera e propria scorciatoia, e di percorrerla fino alla meta. Attualmente, la faccenda sta più o meno così: Gould, secondo le sue esperienze, afferma che le api sono in possesso di una mappa cognitiva, e Wehner in forza delle sue, lo nega. I nostri risultati sono ancora in corso di elaborazione, e tuttavia propendiamo per convalidare Gould e per dare torto a Wehner. E’ pur vero che abbiamo notato una certa variabilità nel comportamento; alcune api, insomma, sarebbero più sollecite di altre a elaborare e a imboccare delle scorciatoie. Ma il dibattito attuale tra gli sperimentatori sembra sia su che cosa si debba intendere per mappa cognitiva. Per qualche verso la controversia appare più teorica che empirica, più filosofica che sperimentale, e noi siamo un poco sgomenti. BIBLIOGRAFIA SOMMARIA Alcook J., Etologia. Un approccio evolutivo, Zanichelli, Bologna, 1995. Dawkins R., Il fiume della vita, Rizzoli, Milano, 1996. De Ceccaty M., La vie de la cellule a l’homme, Seuil, Paris, 1962. Free J.B., L’organizzazione sociale delle api, Edagricole, Bologna, 1982. Gervet J., Livet P., Tete A., La représentation animale, Presses Universitaires de Nancy, 1992. Griffin R.D., L’animale consapevole, Boringhieri, Torino, 1979. Khalifman J., Les abeilles, Ed. langue francaise, Moscou, 1953. Lindauer M., Il linguaggio delle api sociali, Zanichelli, Bologna, 1975. Maeterlinck M., La vie des abeilles, Bibl. Charpentier, Paris, 1923. Vauclair J., L’intelligenza degli animali, Rededizioni, Como, 1996. von Frisch K., Vie et moeurs des abeilles, Albin Michel, 1959 (Esiste anche una traduzione italiana, Nel mondo delle api, Edagricole, Bologna, 1951) Il linguaggio delle api, Boringhieri, Torino, 1976. Memoire d’un biologiste, von Frisch, (1886-1982), Berlin, Paris, 1987. Wilson E. G. - Le società degli insetti, Einaudi, Torino, 1976. Zoosemiotica, a cura di T.A. Sebeok, Bompiani, Milano, 1973.
Fig. 4- Mappa cognitiva: la spiegazione è nel testo. Tutte le immagini di questo articolo sono dovute alla cortesia dell’Autore.
123
c omunicazione e r icerca nelle s cienze della v ita
Gould J., Gould C.G., Les abeilles, Pour la Science, Paris, 1993.
P. Cortesi O. Cattani G. Isani G. Vitali S. Sintoni
parlarsi con le molecole disciolte negli oceani INTRODUZIONE
c omunicazione e r icerca nelle s cienze della v ita
La capacità di percepire segnali da biomolecole rilasciate nell’ambiente viene chiamata chemorecezione. I sistemi chemosensoriali, gustativi ed olfattori, nei pesci sono molto bene sviluppati e servono a provocare molti comportamenti di importanza fondamentale come la ricerca del cibo, la ricognizione e localizzazione di habitat familiari e/o preferiti, la fuga da predatori, e la comunicazione intraspecifica (esempio di riunione in sciame, fig. 1). L’evoluzione ha favorito nei pesci lo sviluppo di questi sistemi per due principali ragioni: 1. Processi biologici negli animali acquatici: rilascio di molecole “segnale” negli oceani - osmoregolazione - metabolismo - ferite, morte e degragazione 2. Recettori di biomolecole “segnale” Evoluzione
Lenta e tardiva
Recettori
Poco complessi
Molto complessi
Uniformi
Miscele molto complesse
Scarso
Elevato
Biomolecole “segnale” Contenuto di informazione
Molto precoce
Nei pesci predomina questa linea evolutiva
Fig. 1 - Sepo (Severo Pozzati) “Migrazione di pesci”, tempera, 1929 (riproduzione). Un felice esempio di complementarietà tra scienza e arte.
I recettori di natura proteica sembrano di una struttura simile tra loro, pur essendo specifici per ciascuna sostanza odorosa; attualmente sono stati identificati nei Pesci circa un centinaio di recettori ma, essendo questi studi solamente allo stadio iniziale, si pensa che potrebbero ammontare fino a una decina di migliaia (fig. 2). Un analogo sistema ancora più complesso sembra funzionare per la produzione di anticorpi. Come tutti i Vertebrati, i pesci hanno due sistemi che captano segnali chimici ben definiti: gusto ed olfatto. Il sistema del
gusto è costituito da gemme del gusto (fig. 3), da nervi con le loro proiezioni medullari e da cellule chemosensoriali solitarie sparse nell’epidermide (queste ultime cellule risultano assenti negli altri Vertebrati). Il sistema dell’olfatto è costituito da un organo olfattorio, da un epitelio olfattorio, da un bulbo olfattorio e dal prosencefalo. Infine, pare che abbiano capacità chemorecettive anche i sistemi del trigemino e della linea laterale. Alcune notevoli differenze sono state evidenziate tra pesci e tetrapodi nei sistemi gustativi e olfattori (v. tabella). PESCI
TETRAPODI
- sistema gustativo esteso anche alla superficie corporea esterna
- sistema gustativo ristretto unicamente alla cavità buccale
- un unico sistema olfattorio che riunisce le due componenti dei Tetrapodi
- due distinti sistemi olfattori (principale ed accessorio)
- il sistema olfattorio distingue circa un centinaio di biomolecole “segnale"
- il sistema olfattorio distingue un numero molto più elevato di biomolecole “segnale”
- questo minor numero di biomolecole “segnale” e la relativa facilità della sperimentazione fanno prediligere i pesci come modelli nello studio della chemorecezione.
Importanti modelli delle funzioni chemosensoriali sono stati finora il pesce gatto, il pesce rosso ed il salmone. Poco ancora si sa sulle capacità chemosensoriali delle oltre 24.000 specie di pesci che potrebbero presentare differenti capacità e specificità chimiche a causa della diversa natura del loro habitat e della tassonomia.
Fig. 2 - Il recettore del “segnale” è una proteina inserita nella membrana cellulare e contiene sette avvolgimenti ad α-elica. Le eliche transmembrana sono rappresentate dai “grappoli” di cerchietti (da Stryer, Biochimica, Zanichelli, 1996).
124
Fig. 6
Fig. 4
Fig. 3 - Particolare di un apparato del sistema del gusto: gemme tra le scaglie di Poecilia reticulata; si vedono due cavità rotonde che interrompono la continuità delle scaglie, ciascuna cavità rappresenta il poro di una gemma del gusto. Le piccole strutture simili a un bulbo, visibili dentro la cavità, corrispondono all’estremità del microvillo che caratterizza la porzione libera di una cellula del gusto (ingrandimento di 9600 volte; da P. Graziadei in “Chemoreception of fishes”, ed. Grant e Mackie, Academic Press, 1974).
BIOMOLECOLE STIMOLANTI L’OLFATTO E IL GUSTO
I composti che funzionano da stimolanti dell’olfatto e del gusto dei pesci sono tendenzialmente piccole molecole tipiche dei processi metabolici che vengono disperse negli oceani, solubili in acqua. Sono state descritte per molte specie di pesci quattro principali classi di molecole “segnali”: 1) amminoacidi 2) acidi biliari 3) ormoni sessuali steroidei e derivati 4) prostaglandine Inoltre possono avere attività olfattiva e/o gustativa anche vari alcooli, ammine, acidi carbossilici, piccoli peptidi, nucleotidi e idrocarburi aromatici. AMMINOACIDI ACIDI
BASICI
NON POLARI A CORTA CATENA
NON POLARI A LUNGA CATENA
R–COO-
R–NH+3
R–CH3
R–(CH2)n–CH3
Struttura generale di un L-amminoacido: COOH NH2 – Cα – H R I pesci ricevono stimoli olfattivi e gustativi dagli L-amminoacidi (es. L-serina, fig. 4), i componenti delle proteine, per il reperimento del cibo e per relazioni sociali. Ad eccezione della lampreda, Petromyzon marinus, che capta segnali solo dalla L-arginina, tutti gli altri pesci esaminati sono in grado di percepire, disciolta nel mare, la maggior parte degli L-amminoacidi naturali. Gli L-isomeri risultano molto più potenti dei D-isomeri e sia il gruppo α-amminico sia il gruppo α-carbossilico sono importanti per potenziare la suddetta attività (Fig. 5). Tali composti
125
agiscono in concentrazioni nanomolari sull’olfatto e in concentrazioni millimolari-micromolari sul gusto in dipendenza delle singole specie. Il gusto dei Pesci è generalmente insensibile a moderate concentrazioni degli stimolanti classici del gusto di altri Vertebrati (sali, zuccheri e acidi). Recentemente sono stati caratterizzati almeno quattro siti recettori indipendenti per altrettanti quattro tipi di amminoacidi (v. tabella). Studi recenti hanno evidenziato che esistono altri recettori addizionali in grado di discriminare miscele di amminoacidi. Nel pesce gatto è stata messa in evidenza una differente sensibilità delle fibre del gusto ai vari amminoacidi: Analizzando il sistema del gusto in 27 specie di pesci sono stati identificati due differenti gruppi: • nel primo gruppo, comprendente dieci specie, tale sistema risponde a molti differenti amminoacidi (“ampia gamma di risposta”), es. il pesce gatto; • nel secondo gruppo, comprendente 17 specie molto più selettive, lo stesso sistema viene stimolato solo da pochi amminoacidi (“limitata gamma di risposta”), es. i salmonidi.
Fig. 8
ACIDI BILIARI
Questi composti steroidei che intervengono nei processi digestivi solubilizzando i grassi ingeriti con il cibo, possono essere riassorbiti o rilasciati nell’ambiente funzionando così da biomolecole attive nella chemorecezione (Fig. 6). A tal riguardo i salmonidi allo stadio giovanile nel tratto di fiume nativo più vicino alla fonte possono svolgere la funzione di attraenti migratori per il ritorno dall’oceano degli adulti nella risalita del fiume di origine (Fig. 7). Con una soglia di 10-11 M tali com-
Fig. 7 - Risalita di salmoni nel fiume di origine.
Fig. 5 - Configurazioni assolute degli stereisomeri L- e Ddegli amminoacidi. R indica la catena laterale.
Fig. 4, 6, 8 Le spiegazioni sono contenute nel testo.
Fig. 9 Riferimenti nel testo.
posti stimolano l’olfatto di molte specie (pesce rosso, suckers, pesce gatto, salmone, zebrafish). Nella lampreda di mare agiscono quattro classi di acidi biliari con specificità e sensibilità estreme. Questi composti possono rivestire molte funzioni nella chemorecezione perché possono essere prodotti da specie più o meno affini tra loro. ORMONI STEROIDEI
c omunicazione e r icerca nelle s cienze della v ita
Tali composti agiscono come feromoni a concentrazioni inferiori alla nanomolare. Tutte le classi di questi ormoni (A) (C18, C19, C21) ed i loro coniugati (B) (solfati e glucuronidati) risultano attive (Fig. 8). Lo studio di tali composti nella chemorecezione è appena alle fasi iniziali, tuttavia emerge che differenze nel numero e nella natura dei composti identificati siano frequenti tra i taxa di ordine più elevato (es. sottofamiglie) e più rari tra i generi. I feromoni steroidei potrebbero essere specie-specifici soprattutto sotto forma di specifiche miscele come avviene negli insetti. PROSTAGLANDINE
Tali composti, derivati dagli acidi grassi, sono “tradizionalmente” associati ad una varietà di funzioni autocrine e paracrine nel corpo dei Vertebrati. In molti pesci, tuttavia, la prostaglandina F agisce anche come ormone che stimola il comportamento sessuale delle femmine. È stato inoltre chiarito che questi composti “ormonali” funzionano anche come potenti stimolanti olfattori con attività feromonale per molte specie di pesci. Ad esempio nel pesce rosso il maschio è sensibile in modo acuto e specifico sia alla prostaglandina F2α (PGF2α) sia ad un suo metabolita (Fig. 9), mentre la femmina risulta meno sensibile ad entrambi i composti. Molti membri di Gimnotiformi, Siluriformi, Cipriniformi, Caraciformi e Salmoniformi si sono anch’essi mostrati in grado di captare il segnale della PGF2α e del suo metabolita. Non è attualmente ancora bene chiarita la produzione e il metabolismo della PGF2α nei Pesci tanto che potrebbero essere in futuro messe
in evidenza differenze tra le varie specie in questo tipo di segnale feromonale. In tutte le figure delle strutture precedentemente indicate i vari atomi sono rappresentati con i seguenti simboli: Atomi di carbonio, Atomi di ossigeno, Atomi di zolfo, Atomi di idrogeno. A conclusione della suddivisione in quattro gruppi principali delle biomolecole “segnale” è sorprendente citare che due molecole così estremamente differenti come complessità strutturale, anidride carbonica (CO2) e tetrodotossina (Fig.11), risultano entrambe potenti stimolanti del gusto nella trota. TRASDUZIONE DI SEGNALE NELLE CELLULE RECETTRICI OLFATTORIE E GUSTATIVE
La capacità delle cellule di captare un segnale chimico (primo messaggero) esterno all’animale e di scatenare una successione di processi biochimici, con la formazione di secondi messaggeri all’interno della cellula, in grado di suscitare una risposta della cellula o dell’intero animale, viene chiamata trasduzione del “segnale”. La successione concatenata dei processi biochimici è la seguente: molecola “segnale” (primo messaggero) - recettore di membrana - proteine G - enzima di membrana - secondo messaggero - risposta cellulare. Come negli altri Vertebrati, per la trasduzione del segnale anche nei Pesci esistono almeno due sistemi indipendenti di secondi messaggeri: • il sistema adenilato ciclasi (AC) (Fig. 10) • il sistema fosfolipasi C (PLC) (Fig. 12)
Tossine che bloccano il canale per il Na+ in uno stato di chiusura.
Fig. 10 - La sostanza odorosa segnale disciolta nell’oceano (primo messaggero) si lega al recettore olfattivo di membrana dei pesci che agisce sulle proteine G (α, β, γ), la subunità a si lega al GTP e va ad attivare l’enzima di membrana adenilato ciclasi (AC) che scinde l’ATP in AMPc (secondo messaggero) che determina l’apertura del canale ionico (da Rawn, Biochimica, McGraw-Hill, 1990).
Fig. 11 - La tetrodotossina è prodotta dal pesce palla, che in Giappone è una apprezzata specialità alimentare, chiamata fugu.
126
L’inositolo trifosfato apre i canali del calcio, il diacilglicerolo (DG), l’altro secondo messaggero, andrà ad attivare la proteina cinasi C, enzima di membrana, che fosforila i recettori dell’olfatto, dando il segnale di terminazione del segnale. È stato definito che, per i neuroni recettori olfattori del pesce gatto, il sistema PLC sembra importante nel generare la risposta fasica iniziale mentre il sistema AC provoca risposte più lente (toniche o adattate). Il rapporto tra questi sistemi non è ancora chiarito. Inoltre anche lo ione calcio può funzionare come 3° segnale. È anche possibile che il complesso che si forma tra sostanza odorosa e recettore possa provocare direttamente l’apertura di un canale ionico per un effetto allosterico (variazione strutturale della conformazione della proteina recettrice). In entrambi i sistemi di trasduzione di segnale qui descritti, un ruolo importante viene svolto dalle proteine G costituite da tre differenti subunità (α, β, γ; la subunità α diventa attiva quando si lega al GTP). L’importanza delle proteine G nello scatenare processi fisiologici è messa ancor più in evidenza dalla Tab.1 in cui sono descritte sei differenti proteine G, inclusa la Gs/Golf che svolge appunto la sua funzione a livello del sistema olfattorio dei Pesci. A partire dalle molecole “segnale” disciolte negli oceani il meccanismo biochimico della trasduzione del segnale per i sistemi dell’olfatto e del gusto dei Pesci è analogo a quello dei segnali ormonali circolanti nei fluidi corporei per le cellule di organi “bersaglio” o a quello delle cellule vegetali fotorecettrici. L’efficacia delle biomolecole “segnale” nel suscitare risposte nei Pesci a livello dei recettori del gusto e dell’olfatto può essere fortemente diminuita e in alcuni casi del tutto annullata in presenza di elevate concentrazioni di inquinanti o di imponenti fenomeni naturali quali i processi di eutrofizzazione (eccessiva esplosione algale) e la presenza massiva di mucillaggini. Pertanto in molte zone di mare, pesantemente soggette a questi fattori, potrebbero essere attualmente messe in pericolo importanti attività fisiologiche dei pesci, collegate alla chemorecezione come ad esempio le attività sociali e riproduttive, la capacità di orientamento. La perdita di quest’ultima capacità potrebbe essere una delle cause del disorientamento e del conseguente spiaggiamento di Cetacei.
RUOLI DI GUSTO E OLFATTO NELLA CHEMORECEZIONE COMPORTAMENTI PER IL CIBO E PER ATTIVITÀ SOCIALI
Per la limitata utilità della vista anche nelle acque più chiare tropicali vengono utilizzati dai pesci principalmente due organi di senso: ORGANI DI SENSO IMPLICATI
FUNZIONI STIMOLATE
Gusto
Ricerca di cibo
Il gusto è l’unico organo di senso negli anosmatici. Nel pesce gatto agisce da stimolante un’ampia gamma di amminoacidi mentre nei Salmonidi risulta sufficiente un numero molto più ristretto di questi composti.
Olfatto
Ricerca di cibo
Sull’olfatto agiscono generalmente da stimolanti miscele di amminoacidi; in alcune specie di pesci risultano attivi anche nucleotidi e betaina. Il tonno Thunnus albacores se allenato può cambiare le preferenze di cibo in poche settimane, riconoscendo la miscela di amminoacidi che caratterizza la nuova preda. L’identificazione delle biomolecole “attive” presenta utili applicazioni nelle attività umane per l’acquacultura e per l’individuazione delle zone di mare in quel momento più pescose.
Pericolo in vista Interazione sociale non sessuale Orientamento Sincronia riproduttiva
Fig. 12 - La sostanza odorosa disciolta nell’oceano agisce da primo messaggero, legandosi al recettore di membrana dei Pesci, attivando la proteina G che a sua volta attiva la fosfolipasi C (PLC) che scinde il lipide polare di membrana, fosfatidilinositolo difosfato (PIP2), portando alla formazione dei secondi messaggeri, inositolo trifosfato (IP3) che apre i canali del calcio e diacilglicerolo (DG) (da Rawn, Biochimica, McGraw-Hill, 1990).
Tab.1
PROCESSI FISIOLOGICI MEDIATI DA PROTEINE G
Stimolo
Recettore
Proteina G
Effettore
Risposta fisiologica
Adrenalina Serotonina
Recettore β adrenergico Recettore della serotonina
Gs Gs
Adenilato ciclasi Adenilato ciclasi
Luce Odorifero Peptide fMet Acetilcolina
Rodopsina Recettori olfattori Recettore chemiotattico Recettore muscarinico
Translucina Golf Gq Gi
Fosfodiesterasi cGMP Adenilato ciclasi Fosfolipasi C Canale del potassio
Scissione del glicogeno Sensibilizzazione e apprendimento in Aplysia Eccitazione visiva Olfattiva Cemiotassi Diminuzione di attività di pacemaker
Da L. Stryer e H.R. Bourne, Ann. Rev. Cell Biol. 2(1986):393.
127
c omunicazione e r icerca nelle s cienze della v ita
Fig. 13 Mammifero predatore.
CAPTAZIONE DI STIMOLI ASSOCIATI AL PERICOLO
Molte specie di pesci, se feriti, rilasciano composti dalla loro pelle che servono come feromoni di allarme, causando nei conspecifici fuga o ricerca di un nascondiglio. L’asportazione dell’olfatto fa perdere la capacità di captazione. Questa capacità si pensava fosse esclusiva degli Ostariofisi mentre attualmente è stata estesa a molti gruppi di pesci come i Percidi. Differenti tipi di cellule e di biomolecole sono implicati nei diversi gruppi di pesci. Le risposte all’odore del pesce ferito possono essere apprese anche da specie di pesci che non sono tassonomicamente collegate ad esso. Alcune specie di pesci riconoscono i potenziali predatori dal loro odore, reagendo o con la ricerca di un nascondiglio (a) o con la fuga (b): a - Ricerca di un nascondiglio Dopo aver captato l’odore di un pesce estraneo predatore, i due pesci gatto più piccoli si riparano terrorizzati nel tubo, sul fondo di un acquario, solitamente occupato solo dal pesce più grande(da J.H. Todd, “Le Scienze”, pag. 90, 1970). b - Fuga L-serina disciolta nell’acqua. Il salmone migratore del Pacifico (Oncorhyncus) evita la L-serina in conseguenza della sua associazione con l’odore della pelle dei mammiferi predatori (Fig.13). INTERAZIONI SOCIALI NON SESSUALI
Alcuni di questi ruoli sono certamente dovuti all’azione di feromoni ed altri sono probabilmente appresi attraverso la memorizzazione di segnali (imprinting). Tra i ruoli non riproduttivi associati alla funzione olfattiva c’è la ricognizione di individui della stessa specie: a) in una gerarchia di dominanza (Fig. 14) b) con lo scopo di aggregazione (Fig. 15) Il riconoscimento della famiglia è importante in molte specie di pesci durante l’apprendimento; quando salmonidi strettamente imparentati sono “radunati” insieme, essi hanno la capacità di riconoscere la propria specie sulla base del solo odore. L’individuazione di molecole “segnale” per l’aggregazione in sciami di pesci della stessa specie può presentare, inoltre, notevoli interessi applicativi e commerciali per quanto riguarda la pesca. A tal riguardo vengono qui illustrati due esempi di pescosità collegati alla chemorecezione: il primo relativo al Mare Adriatico (Fig. 16), il secondo all’Oceano Atlantico. È noto che tra i mari italiani quello Adriatico presenta di gran lunga la quantità più elevata di pescato per quanto riguarda i Clupeiformi (“pesce azzurro”, sardina, alice o acciuga, spratto o “saraghina”) Per quanto riguarda la pesca nell’Oceano Atlantico nel 1970 sono state raccolte da Paolo Cortesi curiose testimonianze di pescato-
ri di navi oceaniche di San Benedetto del Tronto che, seguendo analoghe flotte giapponesi, effettuavano abbondanti pescate in una data zona di mare ed improvvisamente vedevano allontanarsi velocemente le navi giapponesi chiedendosi il perché di questo abbandono. I pescatori italiani scoprivano amaramente a loro spese che in quella zona di mare diminuiva nelle ore immediatamente successive la pescosità mentre le navi giapponesi con sofisticate analisi di molecole “segnale” nei campioni di acqua di mare avevano già identificato nuove zone pescosissime. MIGRAZIONE ED ORIENTAMENTO
Sono stati messi in evidenza due tipi di orientamento dei pesci, dipendenti dalla chemorecezione: 1) Ritorno ad un luogo geografico specifico, generalmente il posto dove sono nati (homing). Nei Salmonidi avviene l’imprinting (memorizzazione) del loro corso d’acqua natale durante l’età giovanile. Tale processo sarebbe dovuto ad una complessa miscela di composti che include sia composti organici di origine vegetale sia odoranti della stessa specie. La vita del salmone si può riassumere in tre fasi (Tab.2): Tab.2 PRIMA FASE Giovane
Nel fiume di origine memorizza il suo corso d’acqua.
SECONDA FASE Adulto
Si riversa nell’oceano (sorprendente adattamento fisiologico nel passaggio da acqua dolce ad acqua di mare).
TERZA FASE Adulto più maturo
Riconosce le molecole del suo fiume di origine e lo risale a scopo riproduttivo. Per il forte duplice stress l’adulto stremato morirà poco dopo.
2) Ritrovamento di un luogo con particolari caratteristiche (ad esempio, un buon habitat per la sopravvivenza delle larve). La lampreda di mare, Petromyzon marinus, seleziona un corso d’acqua con un ampio numero di larve della stessa specie per la deposizione di gameti (riproduzione). Si pensa che ciò sia dovuto ad acidi biliari rilasciati esclusivamente da esemplari di questa specie allo stato larvale. Il ruolo di acidi biliari, come molecole “segnale”, deve essere ancora dimostrato nei pesci Teleostei. C’è inoltre la possibilità che odori “terrestri” (composti originati da microrganismi terrestri o di acqua dolce) possano avere un ruolo nel riconoscimento istintivo di acqua dolce da parte di anguille e di altre specie catadrome. SINCRONIA RIPRODUTTIVA
Tutte le specie di pesci esaminate, quando sono sessualmente mature, producono biomolecole (feromoni) che segnalano la loro condizione agli esemplari della stessa specie. La produzione di feromoni è associata generalmente alle femmine,
Fig. 14 - Esempio di chemorecezione relativa al riconoscimento di biomolecole rilasciate nell’acqua tra individui della stessa specie. Nell’acquario sperimentale, la madre si orienta unicamente verso l’imbuto collegato con la vaschetta contenente giovani esemplari di Ciclidi (cure parentali) (da Kuhme, 1963 in “Chemoreception of fishes”, ed. Grant e Mackie, Academic Press, 1974).
128
ma esistono anche casi in cui maschi, che fanno la guardia al “nido”, rilasciano biomolecole che attraggono le femmine. I feromoni sessuali sono recepiti dal sistema olfattorio, sono rappresentati da ormoni e dai loro metaboliti anche se alcune specie possono usare composti non ormonali o miscele di entrambi. Ad esempio, la molva amara (Rhodeus ocellatus), che depone gameti per la riproduzione in molluschi bivalvi, utilizza un amminoacido rilasciato dal bivalve stesso che provoca il rilascio di sperma del pesce. Lo spettro olfattorio di singole specie è ristretto da 1 fino a 5 composti stimolanti. Le differenze nella composizione delle biomolecole “segnale” sono rilevabili, in senso tassonomico, a livello delle subfamiglie o di suddivisioni più elevate. Tali biomolecole possono essere classificate in due gruppi: • primers che evocano principalmente risposte endocrinologiche • releasers che stimolano variazioni comportamentali A tal riguardo un esempio efficace della perfetta sincronia tra maschi e femmine, necessaria per il momento riproduttivo, è fornito dal pesce rosso che ovula in primavera in risposta all’ “ondata” di gonadotropina (GtH) stimolata dall’aumento di temperatura, dalla vegetazione acquatica e dai feromoni. Poiché le femmine depongono i gameti in acque torbide alla fine del giorno, la fisiologia riproduttiva e il comportamento tra il maschio e la femmina devono essere rigidamente sincronizzati. Questa sincronia è mediata da almeno due segnali derivati da ormoni con azioni ed identità distintamente differenti. Queste biomolecole sono captate da differenti meccanismi recettori dell’olfatto e la sensibilità ad esse è sessualmente dimorfica (Tab. 3).
Fig. 16 - Enormi banchi di sardine evidenziati su un registratore con l’ecoscandaglio nel mare Adriatico a 40 Km al largo della costa di Cesenatico (profondità del mare: 45 m; i tre banchi di sardine, Sardina pilchardus, occupano globalmente un’area di 33 m x 24 m). La registrazione è stata effettuata durante una notte di estate degli ultimi anni ’60 a bordo del peschereccio “Ad Novas” (Capitano Augusto Pompei, detto “baffietta”) durante la pesca a “lampara”. Tale figura vuole essere un affettuoso ricordo del Prof. Romano Viviani, recentemente scomparso, direttore della Sezione Veterinaria del Dipartimento di Biochimica dell’Università di Bologna, e fondatore del Centro Ricerche Marine di Cesenatico. Il Prof. Viviani, assieme all’allora suo giovane assistente Paolo Cortesi, ha partecipato attivamente a queste prime uscite notturne con pescherecci, all’inizio di una ricerca triennale svolta sui Clupeiformi Adriatici (pesce azzurro) con fondi del CNR.
esempio, deve essere ancora determinata la complessità delle miscele di biomolecole “segnale” e come esse vengono discriminate. È ancora largamente inesplorata l’interazione tra il gusto, l’olfatto e forse altri sensi chimici (singole cellule chemosensoriali e il trigemino). Il ruolo di sensi chimici deve essere ancora definito per molte specie di pesci. Le risposte a queste domande non solo promettono di essere stupefacenti, ma serviranno alla ricerca per ottimizzare la gestione dei pesci in mare aperto e in acquacultura, ed offriranno importanti contributi per la comprensione delle basi neurali della chemorecezione per quanto riguarda i Vertebrati in generale.
Tutte le immagini di questo articolo sono dovute alla cortesia degli Autori.
BIBLIOGRAFIA
“Chemoreception of fishes”, ed. Grant e Mackie, Academic Press, 1974. D.W. Sorensen, J. Caprio-Chemoreception-“Physiology of fishes”,1998, CRC Press.
FEROMONE
Primo feromone
Secondo feromone
FASE RIPRODUTTIVA DI RILASCIO
Rilasciato da femmine prima della deposizione.
Rilasciato da femmine dopo l’ovulazione.
EFFETTO
Stimola in maschi la produzione di sperma e la competitività tra loro.
Provoca nelle femmine un aumento nel sangue della prostaglandina PGF2a, influenzando il comportamento sessuale.
c omunicazione e r icerca nelle s cienze della v ita
Tab. 3 - Fasi di rilascio nell’acqua ed effetti di due feromoni del pesce rosso.
PROBLEMATICHE FUTURE DELLA CHEMORECEZIONE DEI PESCI
Pur essendoci stati in anni recentissimi enormi e rapidi progressi nello studio dell’attività di molecole “segnale” sulla funzione gustativa ed olfattoria di molte specie di pesci, una grande quantità di problemi rimane ancora da risolvere. Ad Fig. 15 - Esemplari di pesci “vetro” riuniti in sciame per effetto di biomolecole rilasciate da individui della stessa specie e captate come segnale di attività sociale. Il gruppo si dispone in maniera da assumere la forma di un unico, grosso pesce. Serve per spaventare gli eventuali predatori. La perfetta sincronia dei movimenti garantisce al superpesce composito un aspetto molto compatto (da “Focus”, 1998). 129
R. Lenzi L. Bartoletti S. Sintoni P. Cortesi
il linguaggio degli ultrasuoni dei delfini
c omunicazione e r icerca nelle s cienze della v ita
ORIGINE DEL NOME E SUDDIVISIONE DEI CETACEI
Fig. 1 - Sezione della testa di un delfino che mostra le varie strutture associate con la produzione e la ricezione del suono.
Il nome cetaceo deriva dal latino “cetus” e dal greco “ketos” che significa “mostro marino”, “balena”. Questi Mammiferi acquatici hanno, come i terrestri, respirazione polmonare, sono omeotermi e allattano la prole con le ghiandole mammarie. Le dimensioni sono abbastanza varie e vanno dalla Balenottera azzurra (Balenoptera musculus di 30 m di lunghezza) alla piccola Pontoporia (P. blainville di circa 1,5 m). Nella mitologia greca i Cetacei erano immaginati come eroi marini. Si dividono in due grandi gruppi: Misticeti (es. balene) che si nutrono di plancton filtrando grandi masse d’acqua con i fanoni che hanno sostituito i denti, e gli Odontoceti (es. delfini, focene, ecc.) che, al contrario, sono carnivori e provvisti di dentatura. La famiglia dei Delfinidi è costituita da circa 30 specie.
centrale del melone si trova un tessuto adiposo a bassa densità che sembra implicato nei meccanismi di emissione degli ultrasuoni. Infine, si può ricordare che l’emissione di ultrasuoni da parte dei delfini può rappresentare per essi anche un pericolo perché possono essere captati da Cetacei più grandi predatori dei delfini stessi. DIREZIONALITÀ DEGLI ULTRASUONI
I suoni emessi dai delfini sono divisi in fischi, suoni impulsivi e “clicks”, impulsi sonori costituiti prevalentemente da ultrasuoni e implicati nell’uso del biosonar per la ecolocalizzazione di prede, di ostacoli, ecc. I primi due suoni sono utilizzati per la comunicazione sociale. Verranno qui considerati solo i “clicks” che sono suoni brevi, a banda larga e prodotti con una velocità di ripetizione variabile. La loro frequenza presenta una banda che va da 30 KHz fino a 200 KHz, con durata singola di impulso da 10 a 100 microsecondi (µs).
Una caratteristica molto evidente nelle emissioni sonore dei delfini è la spiccata direzionalità. Il campo di emissione acustica viene designato col nome di “cono di emissione”. Il “cono di emissione” che può assumere forme diverse nelle varie specie (Fig. 2) è in correlazione col tipo di preda di cui si nutre l’animale. Per esempio, Delfinidi che si nutrono di crostacei e pesci bentonici avranno il cono di emissione più inclinato verso il basso. L’animale mostra numerosi movimenti della testa durante le emissioni dei “clicks”; egli infatti sembra voler colpire il bersaglio da diverse angolazioni, in modo da ottenere il maggior numero possibile di informazioni. Una volta ottenuto dall’eco le informazioni acustiche, egli rielabora e modifica lo spettro delle frequenze dei “clicks” successivi, in modo da ottenere ulteriori e più dettagliate informazioni riguardanti: la distanza dal bersaglio, la velocità di spostamento, la sua direzione, le sue dimensioni, la composizione, ed il numero dei bersagli presenti.
ECOLOCALIZZAZIONE
CAPTAZIONE DEGLI ULTRASUONI
PRODUZIONE DEGLI ULTRASUONI
L’area deputata per questa funzione sembra essere la regione circostante l’orifizio del meato uditivo esterno (Fig. 3). Successivamente gli ultrasuoni attraverserebbero una struttura cava della mandibola ripiena di sostanze lipidiche, entrando in questo canale attraverso una zona in cui l’osso è molto sottile, chiamata pan bone, anch’essa ricca di particolari lipidi a bassa densità che favoriscono la diffusione (Fig. 4). L’importanza della mandibola nella ricezione sonora è stata confer-
SONORITÀ DEI DELFINI
Questi suoni, come anche i fischi, sono prodotti a livello dei tappi nasali e del loro complesso sistema di sacche e l’intero sistema è imperniato su meccanismi pneumatici: l’aria compressa passa dalla sacca premascellare a quella dorsale attraverso i tappi nasali che ne regolano il passaggio (Fig. 1). La propagazione dei suoni avviene successivamente attraverso le strutture contenute nel melone e nel rostro. Nella parte
Fig. 2 Rappresentazione schematica dei campi di emissione del sonar di alcuni Odontoceti.
A) Lipotes vexillifer (delfino comune cinese); B) Inia geoffrensis (delfino del Rio delle Amazzoni); C) Tursiops truncatus (tursiope); D) Cephalorhyncus commersonii; E) Neophocaena phocaenoides; F) Monodon monoceros (narvalo); G) Delphinapterus leucas (beluga); H) Pontoporia blainvillei; I) Platanista indi (delfino di fiume indiano).
130
Fig. 3 - L’area punteggiata rappresenta la regione della testa che si è dimostrata più sensibile alle stimolazioni sonore.
RICERCA E CATTURA DEL CIBO
Nelle attività di ricerca e cattura del cibo, i delfini utilizzano il biosonar in maniera diversa a seconda delle specie di appartenenza, in base al tipo di socializzazione ed alle caratteristiche delle prede. Nel filmato proposto dal National Geographic vengono descritte le principali strategie adottate da questi animali nel procacciarsi il cibo. Alcune specie di delfini riescono con il loro biosonar ad individuare grossi banchi di pesci, che saranno le loro prede, fino ad 1 km di distanza. L’utilizzo del biosonar risulta particolarmente utile ai delfini durante la “caccia” in sostituzione della vista limitata dalla diminuzione della luce con l’aumento della profondità e durante la notte. I delfini sarebbero in grado di scegliere la loro specie preferita elaborando il suono risultante dall’integrazione degli impulsi emessi con l’eco di ritorno. Sembra che l’informazione più dettagliata sulle dimensioni e sulla natura della preda (bersaglio) sia la struttura spettrale dell’eco (target signature), cioè una sorta di firma acustica esclusiva per ogni preda (bersaglio), che viene confrontata con quelle memorizzate in precedenza nel cervello dei delfini (Fig. 6).
Fig. 5 - Esemplare di Tursiops truncatus isolato acusticamente attraverso l’uso di un’apposita museruola che copre completamente la mandibola.
131
Delfinario di Cattolica.
PARTE SPERIMENTALE DELFINI UTILIZZATI
Di seguito si riporta la ricerca sperimentale condotta sullo studio degli ultrasuoni emessi da una comunità di delfini (padre, madre, piccola) ospitati dall’Acquatic World di Cattolica (ora Nursery del Delfinario di Riccione) dentro una vasca di forma ellissoidale di 19x15m con una capacità complessiva di 1000 m3 di acqua di mare. I delfini, oggetto di studio, fanno parte della specie Tursiops truncatus e in particolare si tratta della femmina Bonnie, di circa 20 anni, proveniente dall’Oceano Atlantico, e del maschio Clyde, di circa 24 anni, proveniente dal Mare Adriatico, e della piccola Daphne, nata durante il periodo della sperimentazione. Il nome di questa specie deriva dal latino “tursio” che significa delfino, e dal greco “ops” che significa faccia, a cui si aggiunge il termine truncatus per indicare il muso appunto troncato e cioè corto e tozzo. Analogamente in inglese questa specie viene chiamata bottlenose dolphin cioè delfino “a naso di bottiglia”. APPARECCHIATURE UTILIZZATE
La parte sperimentale è stata condotta da Renato Lenzi (nella foto di Fig. 7) e da Luca Bartoletti. Per simulare situazioni vissute dai delfini in mare aperto nell’utilizzo del biosonar, è stato introdotto nella vasca un bersaglio/target artificiale appeso ad un idrofono in grado di captare i “clicks” emessi dal delfino. Attraverso l’utilizzo di una serie di apparecchiature (amplificatore, convertitore, ecc., fig.
c omunicazione e r icerca nelle s cienze della v ita
mata da esperimenti condotti da Bril nel 1988 su un tursiope al quale era stata applicata una museruola che copriva completamente la mandibola fino alla base delle pinne pettorali; in questo caso era stata osservata una drastica riduzione nella capacità di captare gli ultrasuoni e di riconoscere un bersaglio (Fig. 5).
Fig. 4
c omunicazione e r icerca nelle s cienze della v ita
Fig. 6 - Il delfino emette un segnale (SL) che si propaga nell’acqua e raggiunge il bersaglio, qui parte del segnale viene assorbito e parte viene riflesso (EL) per poi tornare al delfino.
Fig. 7 - Renato Lenzi mentre esegue un’ecografia su Bonnie.
8) le immagini video e gli impulsi sonori sono stati registrati e portati in laboratorio per analizzare il comportamento sociale (tramite immagini video) ed acustico (tramite registrazioni sonore) della comunità di delfini. RISULTATI
L’osservazione della comunità dei delfini (padre, madre, piccola) è cominciata a partire dagli ultimi mesi di gravidanza di Bonnie e si è conclusa quando la piccola nata Daphne aveva sei mesi. La nascita di un piccolo di delfino in cattività, in Italia è un evento ancora abbastanza singolare. Scopo della ricerca è stato analizzare il rapporto madre-piccola sia dal punto di vista comportamentale che acustico. Per quanto riguarda l’aspetto etologico, i principali comportamenti evidenziati sono schematizzati nella figura 9. Per quanto riguarda il comportamento acustico all’interno del rapporto madre-piccola si è evidenziata un’intensa comunicazione sonora tra loro ed un apprendimento della piccola nell’emettere e captare ultrasuoni (“messa a punto del proprio biosonar”). I “clicks” dei delfini sono stati analizzati nel laboratorio del CNR di Ancona, sotto la guida dell’Ing. Massimo Azzali, utilizzando il software MATLAB che ha permesso di gestire ed elaborare una grandissima quantità di dati. L’analisi dei suoni nel dominio del tempo, ha permesso di identificare i sonogrammi caratteristici di ogni delfino (Fig.10). Dai sonogrammi sono state calcolate le caratteristiche principali dei suoni dei delfini: pressione di emissione sonora (espressa in decibel), durata dell’impulso (espressa in microsec.), frequenze medie utilizzate (espressa in kHz) e l’intervallo di frequenze più usate (banda passante, espressa in kHz). Ciò ha permesso di affermare che la madre, Bonnie, ha un ruolo determinante nell’apprendimento e nell’utilizzo del
“biosonar”, da parte della piccola Daphne. Bonnie mostra alla piccola come interrogare con gli ultrasuoni ed analizzare con l’eco di ritorno gli oggetti presenti in vasca. La piccola Daphne presenta dei parametri molto variabili; durante il primo mese le sue emissioni hanno una lunga durata con frequenze generalmente basse, intorno ai 50 kHz. La piccola emette anche impulsi brevi con alte frequenze, ma la banda passante è molto stretta ed il segnale poco intenso. Le sue emissioni sonore si vanno gradatamente regolarizzando, fino ad arrivare al sesto mese dove si evidenzia una evoluzione per quanto riguarda le frequenze, la durata e la banda passante, avvicinandosi alle caratteristiche sonore di Bonnie (Fig.11). Lo sviluppo della piccola, sia fisiologico che educativo, non è ancora completo all’età di sei mesi e risulta, quindi, difficile affermare con precisione quali possano essere le caratteristiche delle emissioni sonore una volta raggiunta l’età dello svezzamento e adulta. Occorre sottolineare, inoltre, che i primi impulsi sonori di Daphne non possono considerarsi veri e propri “clicks”, ma piuttosto dei tentativi di emissione ad intensità molto elevate (come la “lallazione” nei neonati). La piccola ha acquisito, infatti, solo parzialmente il controllo e l’uso dello strumento “sonar” in suo possesso. Bonnie assume un ruolo decisamente attivo nello sviluppo delle capacità di utilizzo del biosonar da parte di Daphne. La madre ha cominciato a stimolare la piccola subito dopo la nascita, continuando poi a seguirla insegnandole i modelli di comportamento tipici dell’ecolocalizzazione. BIBLIOGRAFIA
Tesi di Laurea in Scienze Biologiche di Renato Lenzi (Relatore: Prof. Paolo Cortesi, Correlatore: Ing. Massimo Azzali), Marzo 2000, Bologna: “Modificazioni del comportamento e della
Fig. 8 - Schema del sistema audio-video utilizzato per le registrazioni.
132
Fig. 9
Fig. 10
La madre Bonnie con la piccola Daphne
vocalizzazione tra madre e figlio nel delfino Tursiops truncatus (Montagu, 1821) nei primi mesi dopo il parto”. Tesi di Laurea in Scienze Naturali di Luca Bartoletti (Relatore: Prof. Alessandro Poli, Correlatore: Ing. Massimo Azzali e Prof. Sergio Frugis) Dicembre 1996, Bologna: “Studio dell’evoluzione del comportamento sociale ed acustico in una comunità di Tursiopi (padre, madre, piccola), in cattività, utilizzando un analizzatore di impulsi”.
Tutte le immagini di questo articolo sono dovute alla cortesia degli Autori. Fig. 11
133
P. Bernardi M. Cavagnaro S. Pisa E. Piuzzi
impatto ambientale dei sistemi di comunicazione
Uomo posto su un balcone di un palazzo a 30 m da una stazione radio-base (frequenza 947.5 MHz; potenza radiata: 30 W; guadagno: 14.7 dBi): distribuzione di campo elettrico in assenza (a) ed in presenza (b) dell’uomo; c) distribuzione di SAR. A lato in basso è illustrata la geometria del problema.
Già a cominciare dalla fine del secolo scorso erano stati individuati i possibili effetti benefici dei campi elettromagnetici sui sistemi biologici, effetti utilizzati principalmente in medicina. E' stato pertanto naturale chiedersi se, accanto ad effetti positivi per l'organismo, non si potessero avere anche effetti negativi, associati ad esposizioni involontarie ai campi elettromagnetici. I primi studi relativi a possibili effetti non voluti dei campi elettromagnetici sui sistemi biologici sono stati effettuati nel periodo delle due guerre mondiali e riguardavano lo studio dell'esposizione ai campi elettromagnetici delle persone addette ai radar. A partire da una tale "esposizione localizzata", con riferimento al numero di persone coinvolte, si è passati al coinvolgimento di gruppi di persone molto più numerosi con l'esposizione a campi a bassa frequenza (50, 60 Hz) associati alle linee di distribuzione dell'energia elettrica, ai campi a radiofrequenza dovuti ai ripetitori radiotelevisivi e, in modo più capillare, ai campi a radiofrequenza emessi dai sistemi di telefonia mobile. Inoltre, gli sviluppi futuri relativi alle reti locali senza fili prospettano ulteriori situazioni di esposizione. I sistemi che più di recente hanno contribuito alla crescita dei livelli di campo elettromagnetico a radiofrequenza nell'ambiente, e che forse più di ogni altro sono stati oggetto di preoccupazione da parte della popolazione, sono i nuovi sistemi di telecomunicazione come la telefonia cellulare mobile. In questi ultimi sistemi, il collegamento avviene tra una stazione radio base fissa ed un terminale mobile d'utente che può sia ricevere che trasmettere informazioni.
Nei sistemi di telefonia mobile, il territorio da servire viene suddiviso in celle elementari non sovrapponentesi, ognuna coperta da una propria stazione radio base che lavora a frequenze diverse da quelle delle stazioni adiacenti al fine di evitare interferenze (copertura cellulare). L'aumento degli utenti richiede l'aumento dei canali a disposizione e questa esigenza può essere soddisfatta solo aumentando il numero delle celle, riducendone le dimensioni. Conseguentemente, la potenza emessa dai trasmettitori di una stazione radio base si riduce a valori dell'ordine delle decine di Watt per singolo trasmettitore, come nei sistemi di classe 5 adottati in Italia. L'esigenza di operare con celle di dimensioni ridotte rende necessaria la presenza di stazioni radio base anche in zone urbane ad alta concentrazione abitativa. In questi casi, volendo limitare i livelli di esposizione della popolazione, è necessario individuare intorno alle antenne una opportuna zona di rispetto le cui dimensioni dipendono dalle caratteristiche radiative delle antenne stesse e dai limiti di esposizione fissati dalle normative di protezione. Tale zona di rispetto non deve essere accessibile alla popolazione; questo può essere ottenuto installando le antenne su tralicci elevati ovvero ponendo un recinto di guardia attorno alle antenne. Diversa è la problematica derivante dall'utilizzo dei terminali mobili. I telefoni cellulari, infatti, irradiano potenze medie decisamente più basse (comprese tra 125 e 600 mW a seconda del sistema utilizzato) rispetto a quelle delle antenne delle stazioni radio base ma, durante una conversazione, il telefono è posto a diretto contatto con la testa dell'utilizzatore. Si pone
134
(a)
c omunicazione e r icerca nelle s cienze della v ita
quindi il problema di valutare l'assorbimento e la distribuzione di potenza a radiofrequenza all'interno della testa, per verificare se questo assorbimento può dar luogo a rischi per la salute degli utilizzatori. Una notevole mole di studi è stata svolta a livello internazionale per stabilire i livelli di campo ai quali un soggetto può essere esposto senza che insorgano effetti biologici significativi per la salute. Sulla base di questi studi sono state proposte da diverse organizzazioni internazionali delle norme di sicurezza. Tuttavia, l'esposizione al campo irradiato da un telefono cellulare presenta delle caratteristiche particolari a causa dell'estrema vicinanza della sorgente al corpo esposto. Nuovi e più accurati studi si sono quindi resi necessari per valutare la distribuzione della potenza assorbita (dosimetria) all'interno della testa di un utilizzatore. Nel caso dei telefoni cellulari, infatti, è la potenza assorbita per unità di massa (SAR) il parametro su cui basare la valutazione del rischio per la salute umana. Infine, poiché gli effetti biologici, derivanti dall'esposizione ai campi elettromagnetici a radio frequenza, scientificamente documentati ed universalmente riconosciuti sono di natura termica, è importante condurre, accanto all'analisi dosimetrica, anche un'analisi termica al fine di valutare gli aumenti di temperatura indotti dall'esposizione. In figura sono riportate, a titolo di esempio, la distribuzione di SAR e la corrispondente distribuzione degli incrementi di temperatura valutate, attraverso un codice numerico, nella testa di un utilizzatore di telefono cellulare. Tra le numerose iniziative di ricerca nel settore si citano due
particolari progetti: il CEPHOS, progetto di ricerca europeo, e il progetto Salvaguardia dell'uomo e dell'ambiente dalle emissioni elettromagnetiche. Il progetto CEPHOS (CEllular PHOnes Standard) ha avuto inizio nell'Ottobre del 1997 nell'ambito del IV Programma Quadro, ed è stato completato nel Dicembre del 1999. Scopo del progetto, al quale hanno partecipato 15 unità di ricerca tra università e enti di ricerca pubblici e privati provenienti da 6 Paesi Europei, è stata la definizione di una procedura unificata per verificare la conformità dei nuovi telefoni cellulari alle normative di protezione. Invece il progetto Salvaguardia dell'uomo e dell'ambiente dalle emissioni elettromagnetiche è un progetto interamente italiano finanziato dal MURST (ora MIUR) e coordinato congiuntamente da ENEA e CNR, a cui partecipano 59 unità operative tra università, enti pubblici ed industrie. BIBLIOGRAFIA
P. Bernardi, M. Cavagnaro, S. Pisa, and E. Piuzzi, "Specific Absorption Rate and Temperature Increases in the Head of a Cellular Phone User", IEEE Trans. Microwave Theory Tech., vol.48, n°7, pp.1118-1126, July 2000. P. Bernardi, M. Cavagnaro, S. Pisa, E. Piuzzi, "Esposizione dell'uomo ai campi elettromagnetici prodotti dai sistemi di telefonia cellulare", in Alta Frequenza, vol. 11, n° 3, pp.4-8, 1999.
Telefono equipaggiato con antenna whip (frequenza 900 MHz; potenza radiata: 600 mW): a) distribuzione di SAR, b) distribuzione dell’incremento di temperatura nella testa di un utilizzatore di telefono cellulare.
(b)
Immagini dovute alla cortesia degli autori.
135
F. Berardi
c omunicazione e r icerca nelle s cienze della v ita
inter net e net-culture Che Internet costituisca un fattore di trasformazione decisivo della comunicazione sociale, dell’economia e della stessa vita quotidiana, è cosa nota. In generale però si crede che Internet costituisca semplicemente un nuovo strumento di comunicazione, mentre occorre forse considerarlo qualcosa di differente, una vera e propria sfera pubblica. Nata alla fine degli anni Sessanta all’interno del sistema militare (con il nome di ARPANET) la rete telematica si è poi sviluppata, nel corso dei decenni settanta e ottanta, nell’ambiente accademico, come strumento per la collaborazione a distanza tra ricercatori. Solo all’inizio degli anni Novanta, però, la rete è diventata uno strumento accessibile al grande pubblico, e ha cominciato a rendersi disponibile e utilizzabile per finalità diverse da quelle di ricerca scientifica o di archiviazione distribuita dell’informazione. Il passaggio decisivo per la diffusione della rete al di là dei confini di una utenza specialistica è stata la ideazione e la costruzione del world wide web, e dei motori di ricerca, strumenti utili all’orientamento, alla ricerca, e, come suol dirsi nel metaforico linguaggio della rete, alla navigazione. La crescita di Internet nel corso degli anni novanta è stata rapidissima e differenziata. Tanto differenziata, potremmo dire, quanto è differenziato il mondo dello scambio economico, dell’organizzazione politica e civile, della produzione e del consumo culturale. Il commercio elettronico, le reti civiche o gli spazi di discussione tematica online, il fiorire dei musei virtuali o delle librerie virtuali, sono forme attraverso le quali si manifesta questa pluralità di applicazioni dello strumento telematico. Ma la Rete non è solo uno strumento. La Rete non costituisce soltanto il mezzo attraverso cui è possibile veicolare qualcosa che già esiste nel mondo fisico, territoriale (le merci scambiate grazie al-
l’e-commerce, o i quadri di Velasquez che possiamo andare a visitare in qualche museo virtuale). La Rete è anche una Sfera pubblica, cioè un luogo infinitamente espandibile nel quale si creano nuove merci, che non esistevano prima, nel mondo fisico, e nel quale si producono immaginari e costruzioni teoriche che fanno della rete stessa il loro oggetto, il loro ambiente e la loro finalità. Quando parliamo di net-culture (o cultura di rete) possiamo come spesso accade, anzi come generalmente accade - credere che si tratti di un trasferimento degli oggetti culturali sul supporto elettronico: informazione culturale, informazione sulla cultura, sull’arte, sulla musica o sul pensiero che sono prodotti nella tradizionale sfera dell’accademia, o del museo. Questa convinzione è legittimata dal fiorire di musei online, o di librerie e biblioteche virtuali, ed è una convinzione che, naturalmente, corrisponde in parte alla realtà. Ma l’essenziale non è questo. La rete non è un luogo di informazione, o non è soltanto questo. È soprattutto un luogo di creazione: quando parliamo di net-culture non parliamo soltanto della possibilità di usare la rete per raccontare quel che la cultura produce nei suoi luoghi tradizionali, bensì anche e soprattutto della creazione artistica, filosofica, politica che nasce all’interno dela rete, e che là dentro trova la sua sfera pubblica, il suo mercato, il suo campo di verifica. Il discorso corrente su Internet non coglie a pieno quello che è il nucleo più profondo e innovativo che si manifesta in questa sfera. I giornali e le televisioni presentano Internet come strumento di informazione, oppure come strumento di arricchimento economico. Le aziende, le banche, e i consumatori sono attenti alle possibilità dell’e-commerce. Ed è giusto che sia così, dal momento che è inevitabile. Ma alcuni ambiti della rete, minoritari ma non marginali, svolgono un’attività che non ha niente a che vedere con l’informazione, nien-
136
te a che vedere con il commercio, niente a che vedere con l’intrattenimento. Svolgono ad esempio un’attività di creazione artistica che utilizza le potenzialità di programmi grafici e di tecnologie interattive che talvolta sono complesse e costose, ma talvolta sono invece low-tech e low-budget, e sono finalizzate a far emergere (spesso criticamente) la formazione di una sensibilità virtualizzata, fredda, mediata. Oppure svolgono una attività di critica filosofica della comunicazione, in un ambito che possiamo caratterizzare come meta-comunicativo. Oppure svolgono un’attività di agitazione e di organizzazione politica di tipo nuovo, che nulla ha a che fare con il goffo tentativo della politica tradizionale di utilizzare Internet, e molto ha a che fare con la creazione di una sfera pubblica deterritorializzata, non gerarchica, di democrazia non rappresentativa ma diretta. Per avere un’idea di questa dimensione in cui la Rete si sottrae allo spettacolo e alla commercializzazione, occorre entrare in quegli ambienti che sono meno pubblicizzati, che meno hanno a che fare con la navigazione protetta e precotta dei portali usuali.
137
SITOGRAFIA
http://www.nettime.org http://www.ccru.demon.co.uk/syzygy.htm http://www.kode.demon.co.uk/map.htm http://adbusters.org/ www.etoy.com, www.rtmark.org/ www.indymedia.org/ www.Ctheory.org/ www.wired.com/ www.HRC.westminster.edu Per quanto riguarda la cultura di rete italiana: net institute http://net-i.zkm.de/list rekombinant http://net-i.zkm.de/rekombinant www.deriveapprodi.org/ www.decoder.org/ BIBLIOGRAFIA
Kevin Kelly: Out of control Clifford Stoll: Sylicon Snake oil, San Francisco, 1994 Arthur Kroker: Data trash, The theory of the virtual class, New York, 1994 Pierre Levy: Le tecnologie dell’intelligenza, Bologna, 1992 Pierre Levy: Ciberculture, Milano, 1999 Janet Murray: Hamlet on the Holodek Cambridge, Ma, 1998 Sherry Turkle: La vita nello schermo, Milano, 1997
c omunicazione e r icerca nelle s cienze della v ita
Per le immagini si veda la Sitografia. Per cortesia dell’Autore.