Cromatura: come e perchè

Il trattamento che definiamo di cromatura ha lo scopo di attribuire un livello di protezione superficiale ad un oggetto di ferro o di acciaio.

A tale scopo, il manufatto viene rivestito totalmente di cromo, elemento scelto per la sua tipica durezza e resistenza alla corrosione e all’abrasione. Esistono diverse metodologie per applicare la cromatura ad una superficie metallica, a seconda del tipo di lavoro da effettuare:

– Procedimento Galvanico. Il procedimento galvanico è tipico di quelle situazioni dove si ha un oggetto di ferro o di acciaio che, durante l’utilizzo, si è usurato e ha perso una frazione della sua superficie, il che lo ha reso inadatto a svolgere la sua applicazione. La cromatura, in questo caso, ha oltre allo scopo di proteggere l’utensile pure quello di ripristinarne lo spessore; grazie alla caratteristica durezza del cromo, dopo una rettifica del pezzo questo è idoneo al riuso e quindi nuovamente fruibile. Un modello d’utilizzo di questo metodo si ha nell’industria laterizia, dove gli stampi per l’estrusione dell’argilla presentano parti mobili che sono sottoposte a sfregamento continuo con l’impasto di terra ad alte pressioni e ne vengono usurate severamente, per riportarle a piena funzionalità.

– Processo tradizionale. La cromatura di tipo tradizionale è un processo composto da una serie di diversi bagni in soluzioni diverse, nelle quali i pezzi da cromare vengono immersi successivamente. I primi di questi bagni hanno lo scopo di sgrassare e di pulire i pezzi; generalmente, per tale funzione si sceglie una soluzione elettrolitica di acido cloridrico o di soda caustica, a cui si fa seguire una serie di lavaggi. Quindi, i pezzi sono immersi in una soluzione elettrolitica di nichel, nella quale sostano a lungo per formare un primo rivestimento di questo metallo, che ha lo scopo di uniformare la superficie del manufatto a livello microscopico per facilitare la successiva adesione del cromo, dopodiché vengono nuovamente lavati. Come fase finale del processo, si sottopone la batteria di pezzi da cromare ad un bagno finale, appunto in soluzione elettrolitica di cromo. Lungamente, a questo scopo si è utilizzato in maniera quasi esclusiva il cromo esavalente, mentre oggi, per motivi ecologici, si usa sempre più spesso il cromo trivalente, che pare infligga meno danni all’ecosistema.Nel caso si desideri ottenere il tipo di cromatura detto “opaco”, sempre in questa fase finale si aggiunge alla serie un bagno in oli particolari, i quali ricoprono uniformemente di microbolle l’intera superficie dei pezzi, risultando quindi in una superficie non lucida ma satinata. Si tratta di una metodologia di lavoro molto applicata, per esempio, nella produzione di arredamenti.

– Cromatura “flash”. La differenza che caratterizza questo tipo di processo è che esso permette di apporre strati sottilissimi di cromo (di spessore compreso fra gli 0.003 e gli 0.007 mm) con estrema velocità, e senza rettifica, il che permette di raggiungere velocità di produzione intorno ai 300-400 pezzi l’ora, con lo svantaggio però di richiedere corrente molto più elevata rispetto alle altre tecniche. La sua applicazione principale si ha nella lavorazione di componenti molto piccoli, come le valvole di aspirazione dei motori. Riassumendo, la cromatura offre evidenti vantaggi nella protezione dalla corrosione e nell’aumento significativo della durezza, molto conveniente in campo meccanico; d’altro canto, il trattamento può far rimanere delle tensioni superficiali nello strato di cromo che finiscono con l’indebolire la resistenza generale del pezzo, e una copertura imperfetta, o che si rompe anche con una piccola crepa, porta una immediata e intensissima corrosione localizzata del ferro o dell’acciaio sottostanti – come accade spesso sui dettagli cromati delle automobili.)

Le porte interne: un prezioso elemento d’arredo

Di quanti elementi è costruita una casa – e quanto sono tutti importanti nel renderla bella e confortevole per chi vi abita! Elementi costruttivi ed elementi decorativi: scelte di colori, scelte di materiali, illuminotecnica… tutti piccoli pezzi che fanno in modo che un’abitazione possa divenire effettivamente “casa”. E fra questi è purtroppo spesso sottovalutato, senza un effettivo motivo, un fattore importantissimo, che unisce aspetti funzionali ed estetici: quello delle porte in legno.

Se infatti l’evoluzione tecnologica, con quella del gusto e del design, ha diffuso nell’arredo svariati altri materiali, parecchi dei quali hanno conquistato grande notorietà, è comunque vero che nessuno di questi è riuscito a sottrarre al legno la sua situazione preferenziale come materiale per le porte di buon livello. Per arredatori e architetti, le scelte legate alle porte sono moltissime, se preferirle a battente o scorrevoli, quale colore e finitura dare, se inserire vetrate artistiche: ma a non essere mai in dubbio è la regola che non ci siano materiali migliori, per estetica e qualità, del legno, di qualsiasi essenza, per costruire una buona porta interna.

Se tanta scrupolosità viene giustamente data quindi alla selezione accurata di ogni aspetto del proprio arredo, quindi, altrettanta è giusto darne alla selezione delle proprie porte interne. I criteri applicabili sono molti e diversi, come per tutti gli altri aspetti dell’arredamento di una casa; affidandosi però al giudizio e all’esperienza di chi si occupa ogni giorno di porte da un punto di vista professionale, se ne possono identificare alcuni obiettivi, che possono fungere validamente da base per una scelta intelligente e ragionata: sono basati su una analisi precisa di cosa sia una porta, per stabilirne le caratteristiche che possono dettarne l’eccellenza.

Partiamo dal presupposto che, come prima cosa, una porta sia un elemento d’arredo che, a differenza di altri, si ripete identico, sovente in parecchi esemplari, all’interno della casa. Questo rende obbligatorio che la porta sia bella. E benché, ovviamente, il gusto estetico sia un fatto squisitamente privato, esistono certamente criteri obiettivi – come il mantenimento in tutte le porte della casa dello stesso punto di colore del legno, e dell’identica fiammatura – che dimostrano come la porta sia stata prodotta non in serie, per essere conservata in magazzino, ma per un progetto preciso, e con un alto livello di qualità – e appunto, di bellezza.

Un secondo fattore che spesso viene sottovalutato ha invece a che vedere con l’aspetto funzionale della porta, intesa come oggetto che svolge il lavoro, non leggero, di aprirsi e chiudersi migliaia di volte. Una porta cigolante, che sveglia tutti gli abitanti della casa se aperta durante la notte, o una porta che si incastra nei battenti perché si gonfia con l’umidità, o ancora una porta che non rimane chiusa bene e si apre alla minima folata di vento, sono tutti elementi di microstress che, nella nostra casa, non dovrebbero essere presenti. È necessario che una porta funzioni in maniera perfetta, ogni volta, e quindi che sia confortevole.

Terzo e ultimo elemento di valutazione, da non confondere con il precedente, è infine il criterio di solidità. Un segno inconfondibile di una porta di scarsa qualità è quello di essere realizzata con materiali scadenti, più leggeri, proni a espandersi per l’umidità, al deformarsi con il tempo, a creparsi. Una porta di elevata qualità, invece, è costruita esclusivamente con materiali di prima scelta, come il listellare di legno massiccio, che la rende di una solidità a tutta prova.

Cellofan: più di un secolo di storia

Nei negozi, nei supermercati, e alla fin fine in tutta la grande distribuzione, è ormai onnipresente: la moltitudine di cibi confezionati disponibile in vendita ce lo mostra in mille colorazioni, con stampe di ogni tipo, o nella sua versione naturale, trasparente, perché le sue naturali caratteristiche di bassa permeabilità ad aria, acqua, oli e specialmente batteri lo rendono perfetto proprio per lo scopo di impacchettare e confezionare gli alimenti in modo semplice e sicuro. Ci è tanto conosciuto che facciamo quasi fatica, in effetti, a concepire un periodo in cui non fosse disponibile e abbondantemente utilizzato. Ma che cos’è esattamente, e come ha avuto origine, lo strano materiale a cui diamo il nome di cellofan e che oggi trova un così largo e diffuso utilizzo?

Conosciamo tutti molto bene, per averlo visto molte volte, quale sia l’aspetto naturale del cellofan: una pellicola trasparente, e molto sottile. Quello che però probabilmente molti non sanno è di cosa sia fatto in effetti il cellofan: e la risposta, inaspettata, è “di cellulosa rigenerata”. Le sorgenti da cui la si ricava, originariamente, sono molte, e vanno dalla canapa, al cotone, al legno; questa viene disciolta in alcali e disolfuro di carbonio, trasformandosi in una soluzione che prende il nome di “viscosa”. Questa, fatta scorrere attraverso una sottile fessura prima in un bagno di acido solforico diluito e solfato di sodio, e poi in uno di zolfo e in unno di glicerina, (essenziale per evitare che si irrigidisca e diventi fragile) si riconverte nella pellicola che tanto spesso abbiamo visto avvolta intorno agli alimenti. Può essere interessante accennare che, se applichiamo l’identico procedimento ma anzichè una fessura usiamo una filiera, otterremo un filato sintetico molto noto, che ha il nome di rayon.

Ad essere curiosa è la modalità secondo la quale il cellofan fu inventato, nel 1900: e forse stupirà apprendere che, come peraltro capitò con moltissime scoperte scientifiche e invenzioni, il cellofan fu scoperto quasi per sbaglio. Ad ideare questo materiale fu un chimico svizzero, Jacques E. Brandenberger, il quale stava cercando di sviluppare un tessuto che potesse respingere i liquidi anziché assorbirli. Quando provò a vaporizzare sul tessuto, come difesa idrorepellente, della viscosa, la stoffa rimase troppo rigida; ma Brandenberger scoprì che la copertura in viscosa si staccava agevolmente e formava una pellicola uniforme – un materiale molto più promettente. Dieci anni dopo, con una macchina perfezionata, e avendo inventato anche il nome “Cellophane” (da “cellulose” e “diaphane”, “trasparente”), Brandenberger ottenne il brevetto.

Il successo favoloso del cellofan non è un mistero per nessuno: per trent’anni, dai Trenta ai Sessanta del secolo scorso, la produzione industriale fu di altissimo volume, e tuttora che esistono alternative interessanti il materiale si dimostra perfetto per svariati utilizzi. Come abbiamo detto, infatti, è un favoloso involucro per alimenti; inoltre, fa parte, come base, del consueto nastro adesivo che tutti conosciamo con il nome di Scotch; funge da membrana semipermeabile in alcuni tipi di batterie; e trova impiego nella realizzazione dei tubi per dialisi. La sua impermeabilità all’acqua ma non al vapore lo rende inoltre la confezione perfetta per I sigari, che devono costantemente essere lasciati “respirare” durante lo stoccaggio. Ed è perfino stato utilizzato da alcuni artisti, dato che se illuminato da luce polarizzata produce colori cangianti, per effettuare installazioni di grande effetto, simili a vetrate istoriate cinetiche.

Millenni di panni puliti

Quando il nostro bidone della biancheria sporca è straripante, oggi come oggi, non c’è nulla di più agevole che raccoglierla tutta, salire in auto, e avviarsi al negozio di lavasecco più comodo e vicino: dopo pochi giorni, non più di due o tre, potremo ritornare a ritirarla e ce la vedremo riconsegnare perfettamente lavata e stirata. E non basta: via via che ne vengono aperte sempre di più, possiamo ancor più facilmente andare in una lavanderia self-service, e usare macchine professionali ad alto rendimento per lavare I nostri panni con una spesa decisamente irrisoria. Ma lavare il bucato, nel corso della storia, non è sempre stato veloce e semplice – e comodo – come lo è per noi oggi.

È estremamente probabile che la prima “lavanderia”, se così vogliamo chiamarla, sia stata nient’altro che… un normalissimo corso d’acqua! Ancor oggi, specie nelle campagne, è abituale lavare I panni così. Per togliere lo sporco dal tessuto infatti occorre un’azione meccanica intensa, così da eliminare ogni particella che lo macchi o che gli conferisca un odore sgradevole, e la corrente di un fiume ne offre una gratuita e intensa. Per contribuire alla pulizia, I panni venivano ritorti più volte, sfregati fra loro, o perfino battuti con violenza contro le rocce o apposite tavole di legno, di tanto in tanto a mano e talvolta con l’ausilio di appositi randelli o mazze di legno.

Non sempre, naturalmente, ci potevano essere a disposizione comodi corsi d’acqua da utilizzare per il lavaggio dei panni: e in questi casi, si ricorreva a grosse tinozze metalliche riscaldate sul fuoco, dove il calore dell’acqua si dimostrava utile nel rimuovere lo sporco quanto e più della corrente naturale. In seguito, strizzati per asciugarli, I panni venivano stesi ad asciugare completamente, esattamente come oggi, su fili o pali, o addirittura a terra. Non esistevano molte sostanze detersive, naturalmente: spiccava la lisciva, ottenuta per soluzione di cenere di legno in acqua calda. A Roma antica, inoltre, per smacchiare si usava già l’ammoniaca, nella forma in cui è più facile trovarla in natura – l’urina.

Come accadde in tanti altri ambiti, fu con la rivoluzione industriale che le cose cambiarono, e del tutto. In realtà, nacque prima una sorta di asciugatrice, o perlomeno di strizzatrice: due rulli sovrapposti, azionati dapprima con una manovella, attraverso cui far pasare I tessuti fradici. Lo schiacciamento eliminava, molto più in fretta della torsione, buona parte del liquido di cui erano intrisi. Tali meccanismi vennero motorizzati nel 1900; ma intanto, sul finire del 1800, nacque una grande varietà di macchinari per il lavaggio dei panni, in realtà simili per concezione alle lavatrici moderne: un congegno rotante (mosso a mano agli inizi, e poi con un motorino elettrico) che agitava I panni all’interno di una vasca piena d’acqua. L’introduzione di un tamburo rotante e forato permise la prima centrifuga, e un congegno simile, ma con aria calda soffiata sui panni lavati anzichè acqua, andò a divenire l’antenato di quelle che oggi conosciamo come asciugatrici.

Naturalmente, ben presto tali macchine trovarono utilizzo in strutture apposite, che potessero lavare a pagamento i panni di grandi quantità di persone che non disponevano a casa di tali attrezzature: erano nate le prime lavanderie professionali, comparabili per compito a quelle a cui facevamo riferimento all’inizio di questa piccola storia..

Ormai è ora di capire la Borsa

La comunicazione finanziaria si impegna continuamente e con grande fatica ed attenzione a cercare di esprimere i dati economico-finanziari che risultano dall’analisi delle aziende e del mercato in concetti chiari e di facile comprensione, ma sembra non bastare mai: per il pubblico, per la grande maggioranza delle persone, la Borsa Valori rimane un mondo fatto di misteri, di regole assolutamente incomprensibili, e indubbiamente spaventose, un universo per così dire distinto dal nostro, indecifrabile e nuovo. Ma di nuovo, nella Borsa valori, c’è ben poco: la finanza non è un’invenzione moderna, e studiarne la storia millenaria (non esageriamo e non scherziamo, come vedremo!) può forse essere di ausilio nell’approcciare questo mondo con meno timore e più desiderio di cogliere come in effetti funzioni.

Chiariamo innanzitutto un concetto piuttosto basilare, ma indispensabile e che ci sarà molto utile nel corso di questo viaggio: ciò che si scambia in una Borsa Valori – ciò che è in sostanza l’oggetto dell’intera Finanza – è il debito di un’ente (un’azienda o una persona) verso un altro. E il concetto di debito, e quindi di prestito ad interesse, non è certamente una stranezza: se cerchiamo documentazioni storiche, ne troviamo su tavolette d’argilla risalenti alla cultura Mesopotamica, e quindi vecchie di circa cinquemila anni, e il Codice di Hammurabi, re di Babilonia di quattromila anni fa, prevede codici precise che lo regolano. Non basta tuttavia il debito a fare la finanza, e su quando sia collocabile il vero, primo atto che ci informa che esiste una Borsa Valori c’è molto meno accordo fra gli studiosi.

Una congettura affascinante, sostenuta dall’economista di nome Malmendier, parte dal presupposto che già nell’antica Roma repubblicana le societates publicanorum, che venivano formate per offrire servizi per il governo (come la costruzione, ad esempio, dei templi, o il vitto continuato delle famose Oche del Campidoglio), fossero già strutturate per partecipazioni, che erano scambiabili e quindi avevano un valore commerciale, peraltro variabile (e, a quanto ci dice la nostra fonte principale, Cicerone, in un suo discorso, abbastanza elevato). Per altri questa origine è troppo antica, ed è più cauto e corretto far risalire la nascita della Borsa alle obbligazioni Rinascimentali, come quelle che Venezia chiamò “prestiti” (erano in verità forzosi) nel 1171, e sulle quali pagò con perfetta accuratezza e assoluta tempestività gli interessi, dalle carte in nostro possesso, almeno dal 1262 al 1379.

Il passaggio dei secoli vide spostarsi i centri della finanza dall’Italia , predominante nel tardo Medioevo e nel Rinascimento (pensiamo a una famiglia come i Medici, che era composta di banchieri) alle città mercantili del Nord Europa, e Amsterdam vide, nel 1602, quell’evento che anche i più prudenti e conservatori fra gli storici ritengono il massimo limite per datare il principio della Borsa valori: la fondazione della Compagnia delle Indie orientali. Se può sollevare, la confusione nel pubblico data a poco dopo, visto che il primo libro sulla borsa esce nel 1688, scritto da Joseph de la Vega, e si intitola “Confusione delle Confusioni”. Fatto sta che pochi anni dopo vede la luce la Borsa di Londra, il celebre Stock Exchange, e meno faustamente nel 1720 inizia anche la tradizione delle bolle finanziarie, con lo scoppio fragoroso della prima e il successivo temporaneo rallentamento degli scambi. Nel 1790, anche nei giovani Stati Uniti d’America nasce un mercato azionario in rapida crescita – e il resto, possiamo ben dire, è storia!

Piattaforme aeree: sempre più in alto

Un lavoro, qualunque sia, richiede sempre diligenza per essere svolto in maniera adeguata. Ma se quello stesso lavoro lo prendiamo e lo spostiamo, rendendo essenziale eseguirlo a venti metri da terra, nasce una serie non insignificante di complicazioni: anzitutto, come è ovvio, tutte le preoccupazioni legate alla incolumità di chi si troverà a lavorare non con i piedi ben piantati a terra, ma sospeso in qualche modo ad un’altezza da cui precipitare sarebbe problematico o fatale; secondariamente, precisi problemi economici, perché arrivare a costruire una piattaforma che permetta l’accesso al punto elevato su cui lavorare, e intanto possa accogliere, appunto in sicurezza, sia i lavoratori che i loro strumenti, ha un costo rilevante; e in terzo luogo, problemi significativi di tempo, perché alle ore di lavoro necessarie per l’attività in sé andranno necessariamente aggiunte quelle per installare tutte le strutture di ponteggio di cui abbiamo parlato, e in seguito quelle per smontarle sgomberando l’area. Per questi motivi, come alternativa alle strtture tradizionali, sono state inventate, e diffuse in tutti i cantieri del mondo, le piattaforme aeree.

La nascita di questi dispositivi è piuttosto recente, e risale a neppure una cinquantina d’anni fa: a concepirne l’idea, progettarle nei dettagli e infine realizzarle concretamente fu, nel 1969, un inventore ed industriale degli Stati Uniti d’America, John L. Grove. Nato nel 1921, Grove possedeva e gestiva insieme ai fratelli Dwight e Wayne una fabbrica di carri agricoli in Pennsylvania, la Grove Manufacturing Company, avviata nel 1947. Trovandosi ad avere la necessità di spostare grosse masse di acciaio pesante per fabbricare i carri, John progettò, sfruttando le sue conoscenze idrauliche, quello che con successive migliorie sarebbe divenuto il primo modello di gru idraulica industriale mobile. La sua piccola fabbrica di carri fu ben presto riconvertita, e in pochi anni divenne un leader internazionale nel settore della fabbricazione delle gru. Fu lui che, sul finire degli anni ’50, sviluppò con Paul Shockley il sistema idraulico ad estensione per le scale allungabili dei camion dei pompieri; e una decina d’anni dopo, in una nuova società, la Condor Industries, fondata con Shockley dopo avere lasciato la Grove, John iniziò a concretizzare il suo ultimo progetto: dei carri mobili con strutture telescopiche che permettessero un lavoro sicuro anche in posizioni elevate. Erano nate le piattaforme aeree.

Ovviamente, come sempre accade in ingegneria, quel primo modello generò una grande moltitudine di varianti e migliorie, e oggi abbiamo una grande gamma di piattaforme aeree disponibili sul mercato. Si parte dalla più ridotte, che hanno il nome di “Vertical Mast” e montano un solo braccio idraulico estensibile per elevare la postazione di lavoro, per andare alle “Scissor”, nelle varianti elettriche e Diesel, dove il cesto che i lavoratori occupano viene innalzato a grande altezza da un pantografo; e all’altro capo della gamma abbiamo i “Boom-lift”, equipaggiati con bracci telescopici articolati con i quali è praticabile portare la piattaforma di lavoro fino a quaranta metri di quota, e che sono dotati di una serie di sistemi di stabilizzazione per mantenerli saldi e sicuri anche con il braccio del tutto esteso in verticale. E questo grazie ad un progetto nato quasi per caso, cinquant’anni fa.

Il test dell’udito

A puro rigor di logica, parrebbe ovvio che, quando ci capita di iniziare a notare che qualche suono, magari i più acuti o sottili, inizia a sfuggirci, a essere meno nitido, ci affrettassimo subito a richiedere un controllo dell’udito presso un centro specializzato, così da controllare se si tratti di un problema temporaneo, di una semplice suggestione infondata, oppure di un effettivo calo d’udito da arginare e gestire in qualche modo. Ma dicevamo bene, “parrebbe scontato”: in verità, a fronte di un numero imprecisato ma decisamente significativo di persone che hanno un qualche genere di problema d’udito, è molto basso quello di coloro che concretamente lo fanno esaminare e si occupano del problema.

Proviamo allora a domandarci quale sia la ragione di questo rifiuto che al primo esame ci pare tanto irrazionale: ci aspetta qualche sorpresa.Una delle ragioni più diffuse, che forse ci stupirà, è che, temendo questo tipo di problema di salute, le persone praticamente tendono, molto più visto che avviene in maniera graduale, a non notarlo veramente. Semplicemente, ogni volta si mette il volume del televisore un po’ più alto, si tende un po’ più l’orecchio per capire le parole del nostro interlocutore… e si nega il gonfiarsi del problema reale, perché non esiste un evento ben definito ed improvviso al quale ci si trovi costretti a ricollegarlo.Ulteriore spinta per cui molte persone presentano questa difficoltà è da ricercarsi nell’orgoglio.

Se ci pensiamo, siamo soliti, sbagliando rozzamente, collegare la sordità, o in generale il calo dell’udito, con una perdita di intelligenza, e con la vecchiaia. Riconoscere questo problema quindi ci fa temere di essere considerati anche prematuramente dementi, oppure vecchi.Una terza ragione si può rinvenire in un timore che a nessuno piace riconoscere di avere, ma che in realtà è diffusissimo: quello relativo alla medicina in generale e soprattutto ai dottori.

Essere sottoposti ad una visita è un po’ simile a dover sostenere un esame, e la sensazione di essere giudicati non è gradevole – molti preferiscono evitare il problema completamente, negando anche a se stessi che esista.Un’ultima ragione si può ricondurre alla paura delle conseguenze che deriveranno dal constatare il proprio deficit uditivo, e da come questo cambierà la propria vita: dalla spesa significativa per un apparecchio, all’ammissione che non si è più giovani e sani come prima.

Di certo, situazioni poco piacevoli, che logicamente non fa piacere vagliare.In conclusione, siamo costretti a raggiungere una conclusione: tutti i motivi che abbiamo visto insieme si potrebbero in realtà riassumere come i vari aspetti di un unico dilemma, che ha nome “paura”. Tuttavia si tratta di una paura che possiamo oltrepassare, in fondo, agevolmente, affrontando solamente un normalissimo e indolore test acustico – e recuperando in cambio una vita piena, rallegrata dalla musica, dai suoni della natura e dalla voce delle persone care.

Nichelatura: chimica o galvanica?

Fra i trattamenti superficiali a cui è possibile sottoporre vari tipi di oggetti, allo scopo di modificarne le caratteristiche superficiali come durezza e resistenza agli agenti esterni, ricopre indubbiamente un posto di spicco quello definito di nichelatura, che consiste, com’è ovvio dal nome, nel posare sull’intera superficie da trattare uno strato sottilissimo di nichel. Questo metallo, usato senza rendersene conto (lo si confondeva infatti spesso con il rame, e il suo nome deriva da quello di un folletto tedesco, a cui dei minatori imputarono lo strano scherzo di un minerale che appariva essere di rame ma si rifiutava di darne) da più di cinquemila anni, presenta infatti l’interessante prerogativa di un lunghissimo tempo di ossidazione quando esposto all’aria a temperatura ambiente, il che lo fa reputare resistente alla corrosione, e quindi un’ottima copertura protettiva per altri metalli.

Vi sono due metodi di nichelatura, che differiscono essenzialmente, nella procedura, dall’utilizzo o meno della corrente elettrica nella procedura di deposito del materiale. Il primo caso è quello della nichelatura cossiddetta elettrolitica, che per la natura del procedimento è eseguibile unicamente su materiali metallici. La pulizia del pezzo da ogni traccia di grasso o di corrosione è essenziale per la buona riuscita del trattamento, perciò l’oggetto da trattare viene assoggettato a svariati lavaggi e trattamenti termici prima del procediumento di nichelatura. Una volta che la preparazione è stata completata, si immerge integralmente il pezzo in un bagno di soluzione elettrolitica, e lo si pone come catodo, usando invece come anodo del nichel dissolto nel liquido in forma ionica. Come abituale nel procedimento elettrolitico, gli atomi di metallo viaggiano nella soluzione e si depositano sul pezzo, ricoprendolo completamente.

Per contro, nella seconda tipologia di procedura, quella di natura esclusivamente chimica, non figura in alcun momento del procedimento l’uso della corrente elettrica. Non si tratta di una differenza irrilevante: la scelta di fare senza elettricità dà infatti tre significativi vantaggi rispetto alla procedura elettrolitica descritta prima. Il primo e più banale, evidentemente, è che non occorre nessun genere di alimentazione elettrica, e quindi non ha alcun costo energetico da calcolare o sostenere. In secondo luogo, quando vengono depositati chimicamente, gli strati di nichel sono sempre assolutamente dell’identico spessore in ogni punto, interamente uniformi, quale che sia la forma, anche molto complessa e scolpita, dell’oggetto. Per finire, siccome non è richiesto da questo metodo che il pezzo sia in grado di condurre elettricità, non è obbligatorio limitarsi ad oggetti metallici e si possono nichelare anche pezzi in plastica o vetro.

A prescindere dal metodo che viene utilizzato, come abbiamo detto, tutti e due I metodi di nichelatura hanno lo stesso scopo: quello di dare protezione all’oggetto che viene ricoperto dai danni meccanici e dall’ossidazione e corrosione. Ma non è tutto: la nichelatura di tipo chimico, poichè permette di depositare coperture di spessore variabile, può anche essere applicata per ripristinare le misure precise di funzionamento di un utensile che si sia rovinato con il lavoro. Ne fanno uso per di più l’industria automobilistica, che protegge così le parti sottoposte a pesante usura, e quella della fabbricazione dei dischi rigidi, nei quali I dischi di alluminio, prima di ricevere lo strato magnetico che conterrà I dati, vengono protetti attraverso nichelatura..

La Scozia

Edimburgo
Edimburgo è una delle città più belle del mondo. Nessun visitatore può rimanere indifferente al fascino della splendida posizione, della ricchezza architettonica e della vita culturale. Le case popolari della città vecchia, ammassate le une sulle altre, contrastano con le file ordinate di case della Georgian New Town, che in molte città costituirebbe il centro storico. Sullo sfondo sfilano il Firth of Forth e le colline Pentland e Calton.

È consigliabile visitare Edimburgo a piedi, e il luogo ideale per iniziare il giro è il suo Castello: bello, romantico e ricco di reminiscenze del suo passato cruento. Sebbene fondato nell’850 a.C., la parte più antica attualmente esistente risale al 1130. Dall’XI al XVI secolo il castello fu la sede simbolica della casa reale scozzese e oggi ospita la Divisione Scozzese dell’esercito. Sorge all’estremità occidentale del Royal Mile (il miglio di strada che costituisce la principale via di transito della città medievale), che porta a Holyrood, altra residenza reale. L’arteria del Royal Mile conserva ancora intatto il suo aspetto dei secoli XVI e XVII; prendendo una delle strade che si dipartono dal Royal Mile si può rivivere l’atmosfera di quell’epoca, attraverso musei e splendide case restaurate.
Nei pressi del castello s’innalza la Calton Hill, dalla quale si ha una magnifica vista sulla città; non perdetevi gli interessanti monumenti del periodo dell’Illuminismo, quando Edimburgo veniva chiamata ‘l’Atene del Nord’. Prima di scendere verso la New Town, fermatevi alla Greyfriars Kirk, la chiesa in cui nel 1638 si firmò il National Covenant (la convenzione nazionale dei presbiteriani scozzesi contro l’episcopato). Il cimitero attiguo ispirò Disney per l’ambientazione di uno dei suoi film più commoventi, Greyfriars Bobby, che narra la storia, ripresa da una leggenda, di un terrier che veglia per 14 anni sulla tomba del padrone.
A nord si estende la New Town, separata dalla ferrovia interrata e dai Giardini di Princes St, nei quali è stato innalzato il Monumento a Sir Walter Scott, in stile inconfondibilmente gotico. L’eleganza e il rigore del periodo georgiano si ritrovano nelle belle piazze e nelle raffinate schiere di case. Alla National Gallery of Scotland sono esposte prestigiose opere d’arte europee; per una rassegna della storia scozzese visitate la pinacoteca Scottish National Portrait Gallery.
La vita culturale di Edimburgo è ricca e variegata, basti citare il Tattoo Festival e l’International Festival. In alcuni periodi è difficilissimo trovare una sistemazione ed è necessario prenotare con largo anticipo. Per entrare nella vita quotidiana degli Scozzesi, vi consigliamo di alloggiare in un B&B: ne trovate un buon numero a nord di New Town e nel sobborgo meridionale di Newington. In periferia ci sono diversi ostelli della gioventù. Stranamente, nel Royal Mile ci sono numerosi locali in cui si mangia a prezzi contenuti e vi trovate di tutto, dal satay di Singapore alla cucina tradizionale scozzese.

Glasgow
Situata a soli 48 km da Edimburgo, che per troppo tempo l’ha eclissata, Glasgow ha in realtà molto da offrire al turista, soprattutto adesso che si è liberata della reputazione di città violenta, economicamente depressa e paralizzata dalla disoccupazione. Negli anni ’80 e ’90, infatti, Glasgow è riuscita a reinventarsi da un punto di vista culturale e sociale, ed è rimasta una città profondamente scozzese, vitale e piena di energia. Il centro, con pianta a scacchiera, è situato sulla sponda settentrionale del fiume Clyde, importante sede di cantieri navali. In Sauchiehall St e dintorni troverete negozi, pub e ristoranti per tutti i gusti.
La parte più antica della città sorge a est e comprende il capolavoro gotico, perfettamente conservato, della Cattedrale di Glasgow, il museo di vita e arte religiosa St Mungo’s e la casa più vecchia di Glasgow, la Provand’s Lordship, risalente al XV secolo. Tornando verso ovest, passate per la Merchant City, un complesso di case e di strutture commerciali del XVIII secolo. In Sauchiehall St, Charles Rennie Mackintosh costruì i capolavori liberty della Glasgow School of Art e della Willow Tearoom, tuttora funzionante. La Tenement House è come una straordinaria macchina del tempo che vi farà rivivere la vita quotidiana della borghesia urbana della svolta del secolo scorso. Infine, non perdetevi la più interessante istituzione culturale, la Burrell Collection, che si trova nel Pollok Country Park, 5 km a sud del centro. Fra gli oggetti esposti, in questo, che è uno dei pochi edifici armoniosi costruiti negli ultimi anni, ricordiamo le porcellane cinesi, mobili medievali e dipinti impressionisti.

St Andrews
Con le sue rovine medievali, i paesaggi costieri battuti dal vento e una sfrenata vita universitaria, St Andrews è una città bella e assolutamente insolita. Oggi la nuova religione dell’antica capitale ecclesiastica della Scozia è il golf. Qui si trovano il Royal & Ancient Golf Club e il campo da golf più famoso del mondo, l’Old Course. La baia è dominata dalle rovine di un castello, a fianco del quale sorgeva un tempo la cattedrale più grande della Scozia, distrutta negli anni della Riforma. Nel centro medievale, un dedalo di acciottolati, concentrato in uno spazio ristretto, si trovano l’antica porta della città, chiese e cappelle, una croce e vari musei. L’università di St Andrews, come le coeve di Oxford e di Cambridge, non è strutturata intorno a un campus e i vari istituti sono sparsi per il centro della città.

Aberdeen
Aberdeen è una straordinaria sinfonia di grigi: tutto, comprese le strade, è di granito. Quando è immersa nel sole e nella pioggia, la città brilla argentea come in una fiaba; se coperta di nuvoloni, invece, può risultare un po’ opprimente. Aberdeen è sorprendentemente pulita perché dominata da un alto senso civico; ospita il porto che serve la piattaforma petrolifera in mare più grande del mondo. Il numero degli abitanti negli ultimi anni è cresciuto, essendo giunti molti lavoratori dell’industria estrattiva e una vivace popolazione studentesca. Nei pressi del porto, sempre trafficato, ci sono un suggestivo mercato del pesce e l’importante museo marittimo. Nei dintorni di Union St, la via principale, trovate l’antica porta Castlegate, la casa tardo-medievale Provost Skene’s House e l’Aberdeen Art Gallery, nella quale sono esposti dipinti pre-raffaelliti e di arte contemporanea.

Regione di Aviemore

La cittadina turistica di Aviemore è il punto di partenza per fare escursioni a piedi e per sciare nel paradiso delle Cairngorm Mountains. In questa regione, che occupa l’unico altopiano glaciale della Gran Bretagna, si concentrano varie specie animali rare come la martora, il gatto selvatico, lo scoiattolo rosso, il falco pescatore (soprattutto intorno al Boat of Garten) e il cervo. Nelle acque cristalline del fiume Spey e nei loch si pratica la pesca del salmone. Il Rothiemurchus Estate e il Glenmore Forest Park sono aree protette di pini e di abeti rossi, che si possono percorrere con visite guidate e che offrono varie opportunità per praticare sport acquatici.

Storia e utilizzi delle funi metalliche

Le funi metalliche fanno parte di quegli equipaggiamenti la cui rispondenza a precise prestazioni non è una questione di mera pignoleria, ma la differenza fra la felice conclusione di un progetto e un potenziale disastro. Utilizzate soprattutto nel campo dei trasporti e degli imballaggi, infatti, le funi metalliche sono spesso sottoposte a sollecitazioni estreme, ed è a loro che compete la responsabilità di mantenere sollevati, o legati insieme, i carichi più eterogenei e gravosi, dal legno, al metallo, al cemento.

Come possono le funi metalliche adempiere a questa funzione? Non dimentichiamo che dalla loro tenuta non dipende esclusivamente – e già sarebbe molto – la sicurezza del carico trasportato, che può spesso essere di grande valore: sovente, per non dire sempre – pensiamo al settore edile – le funi metalliche sono la sola cosa che impedisce a piloni di cemento e travi d’acciaio di piombare addosso ai lavoratori, e ne dipende quindi la sicurezza di esseri umani – ben più importante di quelle di qualsiasi carico. Ebbene, la risposta sta nella loro tecnica costruttiva.

Quando usiamo il termine “funi metalliche” stiamo, in effetti, descrivendo esattamente l’oggetto di cui parliamo, senza metafore: sono vere e proprie corde, con la sola particolarità di essere composte di fili metallici anziché di quelle fibre – come la canapa – utilizzate per intrecciare le corde normali.
A sviluppare questa tecnica, e quindi inventare le funi metalliche, fu un ingegnere tedesco, Wilhelm Ducay, nella prima metà del 1800. Ducay era impiegato nell’industria mineraria, e fu proprio per le specifiche necessità di questo settore che sviluppò le funi metalliche, a sostituire le catene e le corde di canapa fino a quel momento utilizzate per svolgere le stesse funzioni: i risultati nettamente superiori garantirono il successo della sua invenzione, dato che evitavano le rotture – e le catastrofiche conseguenze – cui erano soggette corde e catene.

Oggi, possiamo trovare funi metalliche – normalmente realizzate interamente in cavo d’acciaio – utilizzate nei settori più diversi: come dicevamo, sono spesso impiegate nel campo edile, per sollevare grandi carichi con le gru, ma allo stesso modo sono sfruttate negli ascensori, nelle teleferiche, e per imballaggi particolarmente robusti; e non dimentichiamone uno degli utilizzi più spettacolari, quello di supporto nei grandi ponti metallici. Talora, per proteggere le funi metalliche dal rischio di corrosione dovuto al clima, se ne ricopre la superficie con vinile o nylon; questi materiali le proteggono dall’umidità, prolungandone ulteriormente la vita utile e l’affidabilità.

Per maggiori informazioni, clicca qui.