Bollettino 2017 settembre

di |

Bollettino 2017 settembre

L’impatto futuro dell’automazione sull’occupazione alimenta un dibattito che oscilla tra due estremi opposti.

Uno degli scenari peggiori, a proposito di lavoro umano “cancellato” da robot e macchine intelligenti, è quello proposto all’ultimo World Economic Forum di Davos. In un rapporto presentato in quella sede, viene stimato che, entro il 2020, ben 5 milioni di posti di lavoro saranno sostituiti da robot in 15 Paesi. La novità del “macchinismo” di oggi rispetto a quello del novecento, viene detto, è il fatto che i robot arrivano non solo in fabbrica ma anche nel settore dei servizi: sanità, trasporti, credito, commercio, turismo, cultura e comunicazioni.


SOMMARIO

Titolo pag.
Nuove tecnologie e occupazione 1-7
Gas naturale: trasformazioni tecnologiche e implicazioni politiche 2-3
L’ingegnere nella storia (parte IV) 4-5
Ondate di innovazione nei chip 6
Classifica TOP500 7
Invito all’incontro 8

Scarica il bollettino


NUOVE TECNOLOGIE E OCCUPAZIONE:
UN DILEMMA TUTT’ALTRO CHE NUOVO

L’impatto futuro dell’automazione sull’occupazione alimenta un dibattito che oscilla tra due estremi opposti.

Uno degli scenari peggiori, a proposito di lavoro umano “cancellato” da robot e macchine intelligenti, è quello proposto all’ultimo World Economic Forum di Davos. In un rapporto presentato in quella sede, viene stimato che, entro il 2020, ben 5 milioni di posti di lavoro saranno sostituiti da robot in 15 Paesi. La novità del “macchinismo” di oggi rispetto a quello del novecento, viene detto, è il fatto che i robot arrivano non solo in fabbrica ma anche nel settore dei servizi: sanità, trasporti, credito, commercio, turismo, cultura e comunicazioni. Secondo uno studio della Oxford University la metà dei posti di lavoro attuali potrebbe scomparire completamente nei prossimi vent’anni: l’impiegato di banca allo sportello, il bigliettaio dei treni, l’operatore del call center, ecc. Una “dissolvenza” che arriverebbe anche a territori impensabili del lavoro: infermieri-robot, perfino chirurghi, camerieri, piloti di aereo, ecc.

Opposto è il punto di vista di altre analisi. Ad esempio Alec Rose ne “Il nostro futuro” nota che ben il 70 per cento della produzione e vendita di robot è circoscritto a 5 paesi: Giappone, Stati uniti, Corea del Sud, Cina e Germania. Quindi la rivoluzione industria 4.0 determinata dal connubio tra A.I. e IoT potrebbe essere meno diffusa di quanto si pensi. Inoltre più automazione significa ridurre la delocalizzazione e quindi le stime sul “robot replace human” sono incomplete e sottostimano la nascita di nuovi lavori.

Secondo Michio Kaku – “Fisica del futuro” – si tratta di intendere i robot come estensioni per potenziare le facoltà umane più che il rimpiazzo delle stesse. Si può aggiungere anche che il lavoro in fabbrica, tenendo conto dell’aumento dell’età media della popolazione, è destinato a cambiare più che scomparire. Quindi per una parte dei commentatori la previsione è il deserto occupazionale, mentre per un’altra parte l’incubo della robotizzazione è una paura largamente sovrastimata.

Macchinismo delle origini

Non è un dibattito nuovo quello sul macchinismo e le conseguenze per gli uomini. Già nell’Inghilterra dell’Ottocento le riflessioni sull’avvento delle prime macchine ricordano, con le dovute differenze, i dibattiti e le perplessità attuali.

John Stuart Mill nei suoi Principi d’economia politica (1848) scrive: “È dubbio se tutte le invenzioni meccaniche fatte finora abbiano alleviato la fatica quotidiana d’un qualsiasi essere umano”. La domanda era sostanziata dalla evidente contraddizione di macchine che incrementavano la capacità produttiva, ma che avevano come effetto quello di far crescere lo sfruttamento aumentando l’intensità e il ritmo di lavoro. Semplificando le operazioni e riducendo il ruolo della forza fisica, un risultato paradossale fu quello di un incremento dell’utilizzo nel lavoro di donne e fanciulli spesso in turni notturni, anche sotto gli otto anni di età, proprio nella nazione più “civile e sviluppata” dell’epoca.

La sostituzione delle macchine al posto degli uomini ebbe conseguenze devastanti. Ad esempio l’introduzione dei telai meccanici produsse l’effetto descritto dal governatore delle Indie Orientali nel 1834-35: “Le ossa dei tessitori di cotone imbiancano le pianure indiane”. Ma non valeva solo per le colonie infatti, nella stessa Inghilterra, l’effetto dell’introduzione della macchina per cucire fu quello di rivoluzionare innumerevoli branche di questa sfera della produzione come sartoria, cucitura, calzoleria, cappelleria riducendo gli occupati e riportando il fenomeno della morte “per fame” nella stessa Londra. Alcuni economisti dell’epoca però esaltavano un altro aspetto. Per MacCulloch, Torrens, Senior valeva una teoria della compensazione, ovvero nascevano nuove branche che avrebbero occupato i lavoratori espulsi: più negozi e quindi più commessi, sviluppo dei trasporti in tutte le sottospecie, estensione delle comunicazioni e quindi industria del telegrafo. Il limite di queste teorie era di non vedere gli aspetti sociali e i costi umani rappresentati nell’immediato da quella trasformazione.

Produttività e ristrutturazione

Vogliamo proporre alcuni spunti di riflessione come prima conclusione degli aspetti menzionati. In primo luogo, con l’inizio della rivoluzione industriale, non si può considerare e trattare mai come definitiva la forma di un processo di produzione. La sua base tecnica è rivoluzionaria, si modifica continuamente per incrementare la produttività. È proprio la lotta e lo scontro tra gruppi economici che spinge alla ristrutturazione, ovvero ad aumentare la componente “macchina” e ridurre il “fattore uomo”. Masse di capitali e masse di lavoratori sono gettate incessantemente da una branca all’altra. Valeva nell’ottocento vale ancora di più oggi. Se nei paesi sviluppati non si rischia più la fame, l’incertezza per il futuro diventa però un tarlo ineliminabile. Ma in un processo che è sempre più una continua modificazione della divisione del lavoro a livello mondiale, ristrutturazioni e cambi repentini di produzione possono invece produrre effetti ben peggiori in altre parti del mondo. Possiamo dire che, prescindendo dagli aspetti tecnici, molta parte della discussione attorno a Industria 4.0 e all’introduzione di nuove tecnologie è parte delle riflessioni tipiche dei vari processi di ristrutturazione che in forme diverse hanno caratterizzato lo sviluppo economico degli ultimi due secoli.

Dollaro come denominatore di ogni equazione

La domanda di Stuart Mill è attuale più che mai, se guardiamo le potenzialità della scienza e della tecnica moderna e le condizioni misere di vita a cui è costretta ancora una parte consistente dell’umanità. In certi momenti la contraddizione si mostra in tutta la sua insensatezza.

Il 12 giugno di questa estate la NASA ha terminato la selezione di una squadra di piloti, ingegneri, biologi, matematici e geologi che saranno i candidati per il prossimo viaggio su Marte. Nello stesso giorno si è celebrata la “giornata mondiale contro il lavoro minorile” che riguarda, secondo l’ILO, 168 milioni di minori, di cui 85 milioni in industrie pericolose dove, oltre al rischio fisico immediato, sono anche maggiormente esposti a condizioni di grave sfruttamento. Come nell’ottocento, in alcuni settori e in determinate zone del mondo dal punto di vista del conto economico “conviene” di più non introdurre le macchine e lasciare le cose come stanno. Vale quello che sosteneva Henry Towne (presidente dell’ASME American Society of Mechanical Engineers) nel 1886 : “Il dollaro è il termine finale di quasi tutte le equazioni che si incontrano nella pratica dell’ingegneria”.

È di nuovo il tempo per ridurre l’orario di lavoro?

Nuove tecnologie, nuovi processi produttivi, nuove branche della produzione, in breve processi di ristrutturazione poderosi hanno modificato e modificheranno nei prossimi anni la collocazione, il livello di formazione e il tipo di lavoro degli uomini.

Già in altre situazioni storiche i lavoratori si sono dovuti confrontare con l’aumento della produttività e l’introduzione di macchine sempre più complesse e potenti, ed hanno trovato nella coalizione e nell’azione comune un argine a difesa delle proprie condizioni di vita e di lavoro. È possibile svolgere una storia della tecnologia e parallelamente una storia della riduzione della giornata lavorativa. Dalle 16 ore giornaliere si è passati alle 12 ore, poi alle 10 ore, poi alle 8 ore, poi alla settimana da 40 ore con il sabato libero e ancora alla parola d’ordine delle 35 ore. Queste riduzioni non sono avvenute in “automatico”, né tanto meno per “gentile concessione”, ma sono frutto di lotte dei lavoratori che coalizzandosi sono riusciti a ridurre il proprio sfruttamento.

Ora quella spinta sembra essersi arrestata. Troppo aspra è la concorrenza mondiale e talmente ridotto il divario tecnologico rispetto ai concorrenti da tendere se mai ad un allungamento della giornata lavorativa con sempre maggiore flessibilità, proprio nei paesi a più vecchia industrializzazione.

Noi riteniamo che lo sviluppo della scienza e della tecnica, l’aumento dell’automazione e l’introduzione di robot sia la premessa per rendere possibile un altro modo di organizzare la produzione, e di conseguenza la società, in modo che risulti più confacente ai bisogni umani. Anche questo non può avvenire in “automatico”. Gli enormi incrementi della capacità produttiva pongono nuovamente all’ordine del giorno una riduzione generalizzata dell’orario di lavoro a parità di salario; una strada per consentire ai lavoratori di beneficiare dei vantaggi dello sviluppo delle forze produttive in corso e far sì che l’incremento di produttività non finisca solo a vantaggio dei profitti.

Ne riparleremo e sarà opportuno approfondire, ma vogliamo segnalare che a fine ottobre nella competitiva economia tedesca, il sindacato IG metall presenterà la propria piattaforma mettendo al centro non solo gli aumenti retributivi ma anche la conciliazione tra vita privata e professionale ipotizzando in certe condizioni la possibilità di usufruire di una settimana lavorativa di 28 ore. Ci auguriamo che questa iniziativa possa rilanciare una discussione proprio attorno all’orario di lavoro e che consenta ai lavoratori di riflettere, agire assieme e riprendere la lotta per la riduzione della giornata lavorativa.


GAS NATURALE
Trasformazioni tecnologiche e implicazioni politiche

Secondo l’EIA (US Energy Information Administration) nel 2014 il gas naturale ha fornito il 25% del totale dell’energia consumata nel mondo.

Il peso di questa fonte fossile nel mix energetico complessivo tenderà ad aumentare nei prossimi anni. La sua peculiarità di essere la più pulita delle fonti idrocarburiche la rende ideale per la lunga transizione dalle fonti fossili, che attualmente coprono l’85% dei consumi energetici mondiali, ad un ipotetico futuro fatto in prevalenza da rinnovabili.

Le maggiori compagnie petrolifere mondiali si stanno già muovendo per modificare il loro modello di business in un mix di idrocarburi e rinnovabili. Il gas ha la parte più importante nella componente idrocarburica. Il CEO di Shell Ben van Beurden ha dichiarato di puntare in modo deciso verso l’LNG (gas liquefatto) e l’eolico per il futuro del gigante anglo olandese (World Oil aprile 2017).

Le ideologie della sostenibilità

È chiaro che il passaggio dalle fonti idrocarburiche alle rinnovabili è legato a determinanti questioni economiche, politiche e strategiche e che la sostenibilità è afferrata come concetto ideologico in questa lotta. Le nuove compagnie specializzate nelle rinnovabili attaccano le vecchie Major, come la succitata Shell, affermando che solo eolico e solare sono valide soluzioni per un’energia veramente sostenibile. La difesa e il contrattacco sono affidati a Charif Souki, CEO di Tellurian (una delle maggiori società di costruzione di impianti LNG), secondo cui affermare che solo il solare e l’eolico siano fonti sostenibili è un concetto sostanzialmente razzista perché le rinnovabili attualmente non sono assolutamente in grado di dare risposte immediate ai milioni di uomini ancora senza energia elettrica, condannandoli a un presente di miseria.

Nuove tecnologie

Le esplorazioni geologiche alla ricerca di nuovi giacimenti di gas (ma anche di greggio) hanno avuto un impulso notevolissimo dalla messa a punto delle moderne tecniche di analisi sismica rispetto alle vecchie tecniche gravimetriche e magnetiche. Le sofisticate tecniche sismiche 3D hanno permesso di innalzare il livello di successo dei pozzi esplorativi dal 10% di un tempo a più del 30% attuale.

Le riserve provate e commercialmente sfruttabili di gas naturale ammontano a 198 mila miliardi di metri cubi. Questo valore tenderà ad aumentare in considerazione delle nuove tecniche geosismiche di esplorazione e della possibilità di sfruttamento di giacimenti conosciuti grazie allo sviluppo di nuove tecniche di sfruttamento. Del resto il recente boom dello sfruttamento dello shale gas, i cui giacimenti erano conosciuti da decenni, si è avuto proprio grazie a nuove tecniche di fratturazione idraulica delle rocce e a quelle di perforazione orizzontale dei pozzi. Sembra che sia proprio un deficit tecnologico in questo campo a non aver consentito alla Cina di iniziare lo sfruttamento del proprio shale gas (World Oil luglio 2016).

La natura liquida del petrolio ne ha permesso lo sfruttamento sin quasi dall’inizio dell’era industriale, infatti esso può essere immagazzinato molto facilmente in contenitori di semplicissima costruzione (il barile) e trasportato con i normali mezzi di locomozione quali treni o altri tipi di carri, al contrario ciò non è possibile col gas naturale.

Il commercio internazionale di gas

Attualmente le forme più importanti di trasporto e dunque commercio di gas naturale sono quelle via gasdotto (pipeline) o tramite liquefazione del gas stesso (LNG).

Il commercio internazionale di gas naturale ha toccato nel 2015 la soglia dei 1000 miliardi di metri cubi. Il 70% di tale commercio avviene tramite pipeline, il restante 30% tramite processo LNG. Tuttavia l’importanza del processo LNG sulla quota mondiale di gas trasportato aumenta sempre più. Nei 10 anni compresi tra il 2005 e il 2014, il commercio di LNG è aumentato del 6% all’anno in media, quasi il doppio dell’aumento (3,3%) del commercio di gas tramite pipeline (EIA outlook 2016).

Le due tecniche di trasporto e commercializzazione del gas naturale sono profondamente diverse. Mentre il trasporto via pipeline comporta la costruzione, ad alto investimento di capitale, di una infrastruttura permanente tra il venditore e l’acquirente, nel caso del processo LNG, si ha la possibilità di approvvigionarsi (dal punto di vista dell’acquirente) e di vendere (dal punto di vista del fornitore) da/a più fonti.

La flessibilità dell’LNG

La flessibilità commerciale dell’LNG è sicuramente uno dei fattori del successo di questi ultimi anni, ma ad esso se ne aggiungono altri indipendenti e talvolta casuali. Tra essi ricordiamo: l’improvviso surplus di gas negli USA dovuti allo sfruttamento dello shale gas che può essere esportato, dato l’isolamento continentale degli stessi USA, solo tramite il sistema LNG; l’improvviso deficit energetico giapponese a seguito della catastrofe di nucleare di Fukushima e alla conseguente chiusura degli impianti nucleari, compensato dal gas importato tramite LNG; il forte investimento australiano in impianti di LNG per garantire il suo export; la tecnologia FSRU (Floating Storage and Regassification Unit) che permette agli importatori di dotarsi molto velocemente e a prezzi più bassi di impianti di rigassificazione. Quest’ultimo fattore ha consentito a numerosi attori in questi ultimi anni di entrare nel mercato mondiale dell’LNG (Egitto, Giordania, Pakistan, Colombia e Uruguay solo negli ultimi due anni).

Il processo LNG (Liquefied Natural Gas) è un processo relativamente semplice. Si tratta di portare il gas naturale, in buona parte metano, alla temperatura di liquefazione (-161,5°C). La liquefazione comporta la diminuzione del volume del gas di circa 600 volte. Una volta ottenuto il gas liquido, esso può essere trasportato in contenitori refrigerati.

La tecnologia LNG non è nuova. Il primo impianto di liquefazione industriale fu costruito a Cleveland negli USA nel 1941, ma fu chiuso nel 1944 dopo un grave incidente. Successivamente solo nel 1964 fu messo in produzione il primo impianto di liquefazione su larga scala nella raffineria di Arzew in Algeria. Attualmente esistono nel mondo più di 40 impianti su larga scala. La filiera completa del sistema di trasporto LNG comporta come primo anello della catena l’impianto di liquefazione, quindi il trasporto in navi specializzate che mantengono il gas refrigerato e a bassa pressione e infine il terminal d’arrivo dove il gas viene riportato nello stato gassoso e quindi distribuito tramite la normale rete gas.

Benché il processo fisico sia relativamente semplice, il sistema è piuttosto complesso. Dell’intera catena, l’impianto di liquefazione è quello a più alto investimento di capitale e a maggioro costo di esercizio dato che tra l’8% e il 10% di gas trattato viene consumato per il processo di liquefazione. Investimenti dell’ordine dei 2 – 2,5 miliardi di dollari per impianti LNG sono ormai tipici.

Gasdotti: sfide tecnologiche e politiche

Nonostante la grande avanzata dell’LNG, è sempre il trasporto via pipeline il modo quantitativamente più esteso di trasportare e commercializzare il gas naturale.

I sistemi di pipeline per il commercio internazionale di gas sono particolarmente sviluppati in Europa e in nord America. È previsto che essi cresceranno ulteriormente nei prossimi anni, sia nelle aree geografiche sopracitate sia nella nuova direzione di sviluppo Asia centrale-Cina.

La natura delle grandi pipeline terrestri e sottomarine, per il gigantesco investimento iniziale necessario e per la rigidità del link che si genera tra il fornitore e l’acquirente, sono sicuramente infrastrutture commerciali, ma hanno anche una forte valenza politica. Del resto un rappresentante del progetto TAP, il gasdotto che insieme al TANAP dovrebbe portare il gas dell’Azerbaijan in Europa, ha affermato che i gasdotti sono per il 10% acciaio e per il restante 90% politica. L’esempio del gasdotto siberiano che negli anni ’80 sancì la nuova ostpolitik tedesca verso la Russia ne è un esempio paradigmatico. Ma gli esempi non mancano ai giorni nostri. È del 2014 infatti l’accordo russo-cinese per la realizzazione di un gasdotto di 4000 km che dovrebbe coprire entro il 2020, con i suoi 38 miliardi di metri cubi all’anno, il 10% dei consumi totali di gas cinesi. È evidente che un investimento di 75 miliardi di dollari (tale è infatti il valore stimato dell’opera) ha un valore politico e strategico che va al di là della semplice natura commerciale.

Spesso tali aspetti politici offuscano completamente il valore tecnico dell’opera che vede impegnati migliaia di tecnici, ingegneri, operai, per il concepimento, la progettazione, la produzione, la messa in esercizio di opere come questa. Per dare un’idea della natura delle sfide che devono essere affrontate in questi casi facciamo riferimento al progetto del gasdotto Turkstream che, attraverso il mar Nero, unirà la Russia alla Turchia. Anche in questo caso il significato politico del gasdotto con l’avvicinamento tra Russia e Turchia ha offuscato il significato di un’opera estremamente complessa dal punto di vista tecnologico. Si tratta di un doppio gasdotto di più di 1000 km, per buona parte sottomarino. Per la prima volta si poseranno tubazioni di 800 mm di diametro (32 pollici) a 2200 metri di profondità. Il tubo sarà realizzato in acciaio al carbonio ad altissimo snervamento e avrà uno spessore di 39 mm in quanto dovrà sopportare una pressione interna di 300 bar e una esterna di 220. Il totale di acciaio necessario alla realizzazione sarà di quasi 1.500.000 tonnellate e saranno necessarie 150.000 saldature. Alla sfida per la realizzazione dei tubi partecipano quattro tubifici: la tedesca Europipe, le russe Izhora Pipe Mill e Kyksa Steel e il consorzio giapponese Marubeni-Sumitomo. La posa del gasdotto è stata già assegnata alla Allseas che userà la nave posa-tubi Pioneering Spirit, la più grande del mondo. La posa sarà un’operazione molto delicata e richiederà specifiche soluzioni studiate per il caso (Offshore aprile 2017).

Non sono neanche infrequenti i casi di progetti di gasdotti abortiti dopo anni di sforzi e milioni di ore spese nella progettazione per via di mutati contesti economici e/o politici (vedi il caso del Nabucco e del Galsi).

I lavoratori del settore, tra crisi, orgoglio del produttore e necessità della coalizione

I lavoratori del settore oil & gas stanno pagando molto duramente la crisi del mercato che va avanti ormai da tre anni.

Le grandi compagnie petrolifere occidentali, le società statali dei paesi produttori OPEC e non-OPEC, le grandi società di servizi e ingegneria che hanno visto contrarre i loro bilanci (secondo una stima di World Oil ad esempio i paesi OPEC avrebbero perso 2000 miliardi di dollari di fatturato nel corso della crisi) fanno pagare i mancati dividendi ai lavoratori. Esempi di lotte nel settore, episodi di tentativi di difesa sono molti anche in paesi con scarsa tradizione sindacale: dai lavoratori kuwaitiani della compagnia statale KPC che hanno scioperato contro il taglio dei salari e la riduzione di altri benefit ai lavoratori nigeriani delle Major occidentali Exxon, Chevron, Shell ed Eni.

Significativo è stato lo sciopero in Norvegia di fine 2016 dei lavoratori delle maggiori società di servizi, Schlumberger, Halliburton, Becker Huges e Oceaneering che ha visto scendere in campo ingegneri, tecnici ultraspecializzati, operatori di robot sottomarini (ROV), durato 20 giorni e chiuso con l’accoglimento parziale delle loro richieste.

Quest’ultimo esempio mostra che anche lavoratori ad elevato livello salariale hanno trovato nella coalizione e non nell’individualismo la via della rivendicazione e della difesa.


L’INGEGNERE NELLA STORIA
Parte IV: L’ascendente

Proseguiamo con gli articoli a carattere storico. L’intento, come abbiamo già esplicitato, è quello di fornire spunti di riflessione a proposito della “figura” e della collocazione sociale degli ingegneri nel corso dei secoli. Tappe utili anche per meglio comprendere la situazione attuale.

Quando la Francia repubblicana e rivoluzionaria si trovò, tra il 1793 ed il 1794, a fronteggiare una coalizione di potenze europee legate in vario modo all’Ancien Régime, essa dovette dar fondo a tutte le sue energie per difendersi e contrattaccare: la dittatura di Robespierre va spiegata anche con questa contingenza. Tra le forze mobilitate vi fu il mondo scientifico.

Nella sua opera su La rivoluzione francese” George Lefebvre racconta che: “Si rivolse uno speciale appello agli scienziati, molti dei quali avevano preso partito a favore della Rivoluzione. Hassenfrantz fu tra i principali organizzatori della manifattura d’armi a Parigi; Monge, Vandermonde, Berthollet, Darcet, Fourcroy perfezionarono la metallurgia e la fabbricazione delle armi; Vauquelin diresse insieme con Chaptal e Descroizilles la ricerca del salnitro; nuovi metodi per raffinare il salnitro e fabbricare la polvere da sparo vennero ideati da Carny. A Meudon, il Comitato istituì un laboratorio di ricerche nel quale lavorarono Berthollet, Conté e Guyton de Morveau, vi venne sperimentata una nuova polvere per proiettili e vi fu costruito il primo pallone frenato usato a Fleurus dalla prima compagnia di aerostieri; Chappe riprese i suoi esperimenti di telegrafia ottica, di cui installò la prima linea da Parigi sino alle frontiere del Nord.

Dunque in un determinato frangente scienza, rivoluzione e guerra si amalgamano. Sappiamo che la Repubblica francese è riuscita a difendersi. Altrettanto che l’arte di unire il sapere scientifico agli eventi bellici si è perpetuata, culminando, per l’epoca, nella guerre napoleoniche.

Ne è rimasta traccia: Richard Prestone Sydney Wise nella loro Storia sociale della guerrafanno risalire proprio alla influenza delle rivoluzioni francese ed americana la nascita delle prime scuole per ingegneri, in buona parte istituti militari. Così è fondata nel 1795 l’Ecole Polytechnique e nel 1802 nascono le accademie di Saint-Cyr, West Point e Sandhurst.

Frustare gli inglesi

Dal sorgere delle scuole politecniche D. Landes nel libroPrometeo liberato dà un’altra chiave di lettura, che più che escludere integra quella già descritta.

Quando le nazioni del continente si trovano, nel corso dell’800, a dover recuperare l’handicap costituito dalla forza tecnologica ed industriale inglese, lo fanno inizialmente “importando” mastri ingegneri anglosassoni.

Ma debbono pagarli profumatamente e letteralmente strapparseli da una manifattura all’altra. Tant’è che Fritz Harkort, pioniere dell’industria meccanica tedesca, agognando la formazione di un corpo di tecnici in madrepatria, sbottava: …così gli inglesi potranno essere cacciati via a frustate; per adesso conviene trattarli coi guanti, perché sono fin troppo lesti a parlare di andarsene, se si fa tanto di guardarli un po’ di storto”.

Ecco nascere il Berliner Gewerbe-Institut, le Gewerbeschulen provinciali prussiane e le Ecoles des Arts et Métiers in Francia.

Scrive Landes: “Nella misura in cui questo sforzo di promozione favorì l’istituzione di criteri razionali di ricerca e di condotta industriale, esso fu della massima importanza per il futuro. Alla metà del secolo la tecnologia era ancora essenzialmente empirica (es. inglese – ndr) ma quando la scienza cominciò ad anticipare la tecnica, la formale istruzione scolastica diventò una grossa risorsa per l’industria, e per i paesi continentali quello che era stato un tempo un rimedio alla loro inferiorità si mutò in un rilevante vantaggio differenziale.

L’ingegnere “inventore” dei tempi eroici aveva ceduto il passo all’ingegnere politecnico.

Quest’ultimo era in genere un uomo destinato all’ascesa sociale, alla stregua del Benz, Daimler, Mannesmann e Siemens.

Salire nella scala sociale

J. Kocks, che ha curato un saggio sull’impresa in Germania per il VII volume della Storia economica di Cambridge, racconta la biografia tipo di un ingegnere ascendente:“Il figlio dell’artigiano August Borsig, dopo essere stato addestrato come carpentiere, studiò al Berliner Gewerbe-Institut. Per 13 anni lavorò come caposervizio e dirigiente nell’industria meccanica F. A. Egells, nella quale lavorarono per lunghi periodi di tempo tra i quadri del personale tecnico molti di coloro che nel futuro sarebbero divenuti padroni di fabbrica. Nel 1837 Borsig fondò un’officina meccanica con 50 operai, nel 1841 costruì la prima locomotiva tedesca, sette anni dopo aveva alle sue dipendenze trecento operai…

Sempre Kocks cita una statistica elaborata su un campione di 100 allievi dell’Istituto berlinese tra il 1821 (anno di fondazione) ed il 1850: un terzo dei censiti risulta essere divenuto imprenditore in proprio, ed occorre notare che il Berliner Gewerbe-Institut aveva all’epoca una popolazione media di mille studenti.

D’altronde il movimento socialmente ascendente dei tecnici nell’epoca aurea del XIX secolo è da collegare al fenomeno della “sindrome dei Buddenbrook” tra gli imprenditori di più antica origine.

D. Landes lo descrive così per l’Inghilterra: “…In molte imprese il nonno, che aveva avviato l’attività e l’aveva costruita con costante applicazione e con una parsimonia che confinava con la taccagneria, era morto da tempo. Il padre, che aveva rilevato un’impresa solida e l’aveva portata a livelli insperati, aveva già passato le redini. Adesso era il turno della terza generazione, i figli dell’abbondanza, annoiati dal tedio del commercio e pieni di aspirazioni bucoliche da gentiluomo di campagna, uomini che lavoravano per gioco e giocavano per mestiere. Alcuni di essi furono abbastanza avveduti da affidare la gestione dell’impresa a dei professionisti.

Non è un caso che il sociologo Emile Durkheim e l’economista Vilfredo Pareto abbiano registrato il fenomeno dell’osmosi sociale verso l’alto in opere dell’ultimo decennio del XIX secolo (generalizzando secondo i canoni del positivismo allora imperante).

Per il primo si tratta di una tendenziale allocazione ottimale dei talenti, per il secondo del rimedio ad una decadenza altrimenti apportatrice di catastrofi sociali.

Thorstein Veblen

Ma se per i sociologi europei della “Belle Époque” la simbiosi imprenditore-tecnico è un utile dato di fatto, dalla pentola in ebollizione che all’epoca rappresenta l’economia americana giunge una voce di dissenso. È Throstein Veblen che dal Wisconsin parla di irrimediabile conflitto tra “industria” e “affari”, di polarizzazione conflittuale tra la figura del rentier e quella del tecnico.

Il rapporto della classe agiata col processo economico è un rapporto pecuniario – tuona Veblen in «Teoria della classe Agiata» (1899) – un rapporto di acquisto, non di produzione, di sfruttamento, non di utilità. La loro funzione (dei proprietari di impresa – ndr) è di carattere parassitario, il loro interesse è di appropriarsi di quanta più ricchezza possibile, le loro sono convenzioni di proprietà, ma queste istituzioni pecuniarie non sono adeguate alla situazione odierna, sono all’uopo dell’efficienza le meno efficaci.

E Veblen affida dunque agli ingegneri il compito storico di fare la loro rivoluzione, di esautorare la direzione affaristica delle imprese, per sostituirvi la loro, volta a produrre beni, non denaro. Dopo la rivoluzione d’Ottobre Veblen proclama giunta l’ora di fare il “soviet degli ingegneri”, ma gli ingegneri veblenisti raccolti attorno alla rivista “New Machine”, forti alla Columbia University, restano nel panorama americano una esigua minoranza. Il grosso prenderà altre strade, abbraccerà altre teorie.


ONDATE DI INNOVAZIONE NEI CHIP.
LIMITI FISICI, TECNOLOGICI O DI BUSINESS?

Con la tecnologia Hyperscaling 2, nel 2018 entreranno in produzione i Chip con lavorazione a 10 nanometri, anche se nei laboratori si ragiona già sulla scala dei 7 nanometri. Nello spazio di pochi atomi di silicio, dunque, è racchiuso il futuro dei calcolatori.

La legge di Moore (Gordon Moore uno dei fondatori di Intel), osservata più di mezzo secolo fa, prevede che il numero di transistor e resistori di un chip raddoppi ogni 24 mesi.

Nel 1990 per produrre una Cpu si utilizzava un sistema litografico in base al quale i singoli elementi potevano avere al massimo la dimensione di 193 nanometri. Con quelle tecniche di produzione, allora, si toccava un limite. Oggi che con lo sviluppo scientifico e tecnologico le lavorazioni sono arrivate a 22, 16, 14, 10 nanometri (in teoria a 7) la domanda che si pone è la seguente: un nanometro è la misura di tre o quattro atomi di silicio, quindi siamo di fronte ad un limite fisico insuperabile e perciò è finita la validità della legge di Moore?

Dà una risposta Mark Bohr, uno dei quattro Senior Fellow di Intel. Propone un modo per misurare la densità che tenga conto della crescente complessità delle Cpu, diventate da semplici “cervelli” per il calcolo digitale a delle vere e proprie piccole città con aree specializzate. Non è importante solo la miniaturizzazione ma anche l’architettura dei processori. La differenza la fanno piccole innovazioni del lavoro compiuto da ingegneri e da tecnici: Pattering, FinFet, High-K metal gate, Single dummy gate, Hyperscaling, che hanno consentito di ottenere miglioramenti nella densità dei transistor anche mantenendo la stessa scala di lavorazione. Le Cpu multicore (prima con 2, poi con 4, 8 e sempre più “centri di calcolo” su un singolo package di silicio) sono nate proprio per sfruttare la crescente densità di transistor in condizioni di velocità costante: il calcolo parallelo permette di fare nello stesso momento più cose (anziché una serie di cose sempre più velocemente) e quindi, per alcune operazioni permette di andare più veloci. Cambiando approccio, ovvero considerando non più solo la riduzione delle lavorazioni, si può considerare che il motore delle innovazioni tecnologiche mantiene il passo e in questo modo la legge di Moore è “salva”. Inoltre grazie al cloud computer, che funziona grazie alla potenza di calcolo di numerosi server in parallelo, la potenza “sta tra le nuvole”, e sulle scrivanie bastano apparecchi capaci di connettersi rapidamente e a banda larga.

Più interessante l’osservazione di Stacy Smith, sempre di Intel: “il problema non è la fisica ma cosa è in realtà la legge di Moore: è una legge economica molto potente che democratizza l’industria dei computer perché dice che, facendo avanzare le capacità di produzione dei semiconduttori con cadenza regolare, possiamo abbattere i costi di qualsiasi modello di business che si basa sul computer” (Nòva24, Il Sole 24 Ore 16/04/17).

La scelta di Intel sembra quindi essere quella di ibridare tecnologie di lavorazioni diverse (a 32, 21, 16 e in prospettiva 10 nanometri) per raggiungere una produzione di chip à la carte: chip più economici per il mondo del Mobile o per quello IoT, chip più potenti per computer e sistemi in cui la parte di input e output è centrale rispetto al calcolo o alla memoria. Ancora una volta fisica, scienza e business si intrecciano. La domanda che ci possiamo fare è: quale sviluppo potrebbe avere la scienza e la tecnica moderna se non avesse il limite dei budget per la ricerca?

Riportiamo in tabella un grafico eloquente per mostrare come i centri di produzione, ovvero le “fonderie di silicio” all’avanguardia sono diventate un mestiere per pochi. Il numero di aziende si è fortemente ristretto per acquisizioni e per il bisogno di sempre maggiori capitali: da 25 attori nel 2003 con lavorazioni da 130 nanometri si passa agli attuali 4 con lavorazioni da 16/14 nanometri. Vale la pena rilevare come la concorrenza anche in questo settore si è fatta sempre più mondiale.


CLASSIFICA TOP 500
Una fotografia dei cambiamenti del mondo

Ogni anno la rivista Fortune stila una classifica dei primi 500 gruppi economici mondiali per dimensione del giro di affari. Osservare la divisione tra le varie aree geografiche è un modo per vedere la dislocazione spaziale della forza economica. Abbiamo messo a confronto i primi 500 gruppi nel 2006 e nel 2016. Due fotografie che mostrano come è cambiata la geografia nel tempo. Il “film” compreso tra queste due istantanee è quello che abbiamo vissuto in questi 10 anni: la crisi del 2007/2008, la crisi dei debiti sovrani in Europa, i focolai di guerra nel grande medio oriente, il lancio della via della seta cinese e una immane ristrutturazione dell’apparato industriale mondiale.

Come si vede nella tabella riportata a fianco, dieci anni fa il nord America aveva ben il 38% delle prime 500 Big Corporation. Era di moda dipingere i destini del pianeta nelle mani delle “multinazionali americane”. Una visione ideologica che sfociava in forme di protesta sterili, come boicottare i grandi marchi prevalentemente USA. Già allora una impostazione del genere era strabica perché non vedeva l’equivalente numero di grandi gruppi europei e soprattutto mancava di cogliere l’aspetto del diverso e ineguale ritmo di sviluppo che segna sempre la dinamica economica.

In questi dieci anni i rapporti di forza del mondo si sono profondante trasformati. Modifiche che ben trovano riscontro nella classifica di Fortune. Ora la Cina con 100 marchi tra i primi TOP 500 è paragonabile agli Stati Uniti ed all’Europa. L’Asia diventa il continente più rappresentato, il baricentro del potere economico del mondo si sposta.

Si comprende anche come mai tornano a farsi sentire accenti protezionistici proprio nel mondo occidentale, preoccupato di fronte a questi processi. A quando il boicottaggio di gruppi cinesi?

Il rischio che si corre ancora una volta è quello di scegliere il “nemico” sbagliato, finendo per dividere i lavoratori. Dietro a quei gruppi noi vediamo invece lavoratori, tecnici e ingegneri cinesi, indiani, giapponesi, americani, russi: altri cervelli che pulsano e producono innovazione.

Capacità potenziali enormi che se divise rischiano di produrre catastrofi, come purtroppo già successo, ma che se unite possono consentire passi avanti giganteschi all’umanità intera.


invito all’incontro

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *