La “storia” del computer Le basi dell’elettronica digitale Nel 1854 il matematico inglese (1815-1864) pubblicò uno studio sulla logica che mirava a espandere il campo di applicabilità della logica aristotelica, creando un’“algebra” della logica: l’ (▶ unità 4). Gli studi di Boole influenzarono e vennero influenzati da quelli del logico britannico (1806-1871) e i loro risultati si rivelarono fondamentali nello sviluppo dell’ , che rivoluziona il concetto di computer. George Boole algebra booleana Augustus De Morgan elettronica digitale Circa 80 anni più tardi, infatti, nel 1938, l’ingegnere elettronico americano (1916-2001) presentò una tesi nella quale dimostrava che un segnale elettrico che attraversa una rete fatta da interruttori, segue le stesse regole logiche descritte nell’algebra booleana. Claude Shannon La teoria della computabilità Nel 1936 il matematico inglese (1912-1954) pubblicò un articolo in cui descriveva un dispositivo ipotetico, formale e semplice noto con il nome di : una macchina in grado di realizzare la procedura risolutiva di un problema descritta da un algoritmo. La macchina di Turing è dotata di una memoria, un ingresso, un’uscita, una capacità di elaborazione e un programma memorizzato. Alan Turing macchina di Turing astratta Partendo dalla considerazione che non tutti i problemi possono essere risolti da una sequenza di istruzioni, Turing formulò il concetto di , stabilendo che un si dice se può essere risolto da un . computabilità problema computabile algoritmo Turing raggruppò tutti gli algoritmi possibili in e definì in modo formale la ( , ): la macchina astratta più generale che possa essere pensata, quella che è in grado di risolvere tutti i problemi computabili. La UTM è così generale da essere equivalente a tutte le macchine di Turing pensabili. Pur essendo un’astrazione, le macchine di Turing influenzarono lo sviluppo delle e sono ancora oggi . classi macchina di Turing universale universal Turing machine UTM macchine reali oggetto di studio Nella teoria della computabilità un sistema viene definito Turing completo se può simulare una macchina UTM. Alan Turing viene considerato il padre dell’ e dell’ perché, per primo, descrisse i principi secondo i quali i computer dovevano funzionare. informatica teorica intelligenza artificiale Francobollo commemorativo di Alan Turing, in cui è raffigurata la Bomba (calcolatore) inglese. Una macchina elettromeccanica costruita durante la Seconda guerra mondiale e usata per decifrare i messaggi crittati tedeschi. Il contributo di Turing è stato fondamentale per la riuscita dell’impresa. Il primo computer della storia Fra la Prima e la Seconda guerra mondiale, i paesi tecnologicamente più evoluti erano Germania, Inghilterra e USA. A causa della ogni paese sviluppò dei progetti sui calcolatori elettronici, ciascuno seguendo un diverso filone di ricerca e tutti ignari di quello che, intanto, stavano facendo gli altri. mancanza di circolazione delle idee Nel 1938, in Germania l’ingegnere (1910-1995) costruì la , un prototipo programmabile di calcolatore formato interamente da parti meccaniche. A causa delle difficoltà tecniche che erano emerse, nello stesso anno Zuse riprogettò la macchina Z2 sostituendo alcuni componenti con dei relè elettromeccanici. Konrad Zuse macchina Z1 La vera svolta si ebbe nel 1941 quando nacque la , il , costituito interamente da relè: un computer elettromeccanico programmabile, funzionante e digitale, basato sul sistema di calcolo binario. Il programma era memorizzato su un nastro perforato e le impostazioni iniziali venivano inserite manualmente. Purtroppo la macchina Z3 venne distrutta durante un bombardamento, ma sono state ricostruite alcune copie. Z3 primo dispositivo Turing completo Tra il 1942 e il 1945 Zuse inventò il primo linguaggio di programmazione ad alto livello: il . Il nome deriva dalle parole tedesche (piano) e (calcolo) e fa riferimento a un sistema formale per la pianificazione della computazione. Plankalkül plan kalkül Copia della macchina Z3 conservata al Deutsches Museum di Monaco di Baviera. >> pagina 15 Il computer elettronico a valvole Nel 1946, negli Stati Uniti, presso l’Università della Pennsylvania venne completata la costruzione dell’ ( ), il . ENIAC Electronic Numerical Integrator And Computer primo calcolatore elettronico La sua logica digitale era implementata solo da valvole termoioniche che garantivano una rispetto ai computer elettromeccanici precedenti. La macchina aveva , occupava infatti una stanza di circa 170 m . L’enorme assorbimento di energia elettrica produceva un intenso calore che, spesso, bruciava le valvole, diminuendo l’affidabilità del calcolatore. velocità di calcolo nettamente superiore dimensioni enormi 2 Gli (lettori di schede di carta perforate per l’input, foratori di schede per l’output e relè a essi associati) erano al calcolatore. Più di mille interruttori e cavi consentivano di la macchina selezionando le impostazioni iniziali: un’operazione estremamente lunga e complicata. Anche se i programmi non potevano essere memorizzati, la macchina poteva essere programmata in modo estremamente flessibile, consentendo una vasta gamma di calcoli in vari campi di applicazione. Questo rendeva ENIAC un computer programmabile Turing completo. elementi meccanici esterni programmare Le programmatrici principali dell’ENIAC furono sei donne, che impararono, non solo, a programmare la macchina ma si occuparono della sua manutenzione infilandosi letteralmente all’interno della struttura per individuare le componenti danneggiate. Il primo bug Nel 1944, negli Stati Uniti, presso l’Università di Harvard, venne completato il calcolatore , il primo di una serie di computer elettromeccanici, il cui progetto originale venne ideato dalla IBM nel 1937. Il secondo calcolatore di questa serie, l’Harvard Mark 2, terminato nel 1947, fu protagonista di un divertente aneddoto. Harvard Mark 1 (1906-1992) stava lavorando sul Mark 2 con alcuni collaboratori quando gli operai scoprirono che una si era incastrata nella parte mobile di un relè, impedendone il funzionamento. L’insetto venne accuratamente rimosso e la causa del venne diligentemente annotata sul di lavoro. La Hopper trovò molto divertente quanto era accaduto, tanto che nell’annotazione del 9 settembre 1947 scrisse “first actual case of bug being found” (cioè “primo caso di bug effettivamente trovato”) incollando la falena sulla pagina. Grace Hopper falena malfunzionamento registro L’uso del termine ( ) per descrivere un difetto nella progettazione o nel funzionamento di un sistema era già anche se non faceva riferimento a un insetto reale, ma a un fantomatico che, nascondendosi dentro al sistema, causava i problemi. Il primo a parlare di bug era stato nel 1873. bug insetto usato da più di 70 anni insetto immaginario Thomas Edison In informatica, il indica un . I programmatori eseguono il delle loro applicazioni quando cercano, trovano e correggono tali errori (▶ unità 11). bug errore in un software debug Pagina del registro di lavoro del Mark 2 su cui Grace Hopper ha attaccato la falena. >> pagina 16 L’architettura di von Neumann In un documento del 1945 il matematico ungherese (1903-1957) descrisse per la prima volta l’ utilizzando uno schema astratto, completamente slegato dai dispositivi fisici (▶ unità 1). John von Neumann architettura hardware di un calcolatore Questa architettura, ancora oggi alla base della maggior parte dei computer, entrò a far parte del progetto del computer elettronico ( ), concepito dagli stessi progettisti dell’ENIAC, a cui Von Neumann partecipò come consulente. La più grande innovazione introdotta dalla sua architettura fu l’uso di un programma che non fosse cablato, cioè impostato per mezzo di interruttori e cavi, ma che potesse essere nella stessa memoria in cui venivano conservati anche i dati ( ). EDVAC Electronic Discrete Variable Automatic Calculator salvato programma memorizzato Lo sviluppo dell’EDVAC subì notevoli ritardi a causa di una disputa sulle liberatorie dei brevetti tra l’Università della Pennsylvania e alcuni progettisti, tra cui e che diedero le dimissioni. Il computer venne ultimato solo nel 1949 e divenne operativo nel 1951, continuando funzionare fino al 1961. J. Presper Eckert John Mauchly Eckert e Mauchly, nel frattempo, fondarono la società Eckert-Mauchly Computer Corporation e iniziarono a progettare l’ ( ), il primo , basato sull’architettura di Von Neumann. UNIVAC UNIVersal Automatic Computer computer elettronico prodotto in serie La consolle di controllo di UNIVAC I conservata al Museo di scienze di Boston. La diffusione dei transistor Nel 1947 nei laboratori della del New Jersey (USA) venne inventato il , un nuovo componente elettronico con dimensione e peso ridotti che consentì di ridurre le dimensioni dei computer. Bells Labs transistor Per collegare elettricamente i transistor agli altri iniziarono a essere utilizzati i , delle schede di materiale non conduttivo sulle quali erano incise delle . I cavi dei componenti venivano inseriti in fori preesistenti e saldati alle piste per effettuare i collegamenti. componenti circuiti stampati piste conduttive L’avvento dei transistor ha caratterizzato l’epoca dei . computer del decennio 1955-1965 Erano gli anni della e il mondo era dominato da due grandi superpotenze (USA e URSS) in lotta per dimostrare la propria supremazia, soprattutto in campo aerospaziale. Guerra fredda Nel 1958, gli Stati Uniti fondarono la ( ) e l’azienda iniziò a immettere sul mercato i primi computer commerciali a transistor, fra cui l’ che utilizzava il linguaggio di programmazione , il primo linguaggio ad alto livello ad aver avuto un’ . NASA National Aeronautics and Space Administration IBM IBM 7090 Fortran ampia diffusione Fra le più grandi invenzioni di questo periodo ci furono proprio i ; oltre Fortran, vennero introdotti e (1959), (1960) e (1965), alcuni dei quali sono utilizzati ancora oggi. linguaggi di programmazione Cobol Lisp Algol Basic Proprio ai linguaggi di programmazione sono legati due episodi che hanno coinvolto alcune scienziate della NASA. Nel 1961 (1910-2008), una matematica di colore americana, era supervisore di un gruppo di analiste al centro di calcolo NASA, intuendo che i computer avrebbero cambiato il modo di lavorare, imparò e insegnò al proprio staff il linguaggio di programmazione Fortran, salvando così numerosi posti di lavoro. La sua vicenda è raccontata nel film “Il diritto di contare”. Dorothy Vaughan L’ingegnere informatico (1936) sviluppò, con il suo team del MIT ( ), il software di volo per il . La sua immagine più celebre è quella che la ritrae accanto ai listati del software della missione Apollo 11 che, nel 1969, fece sbarcare i primi uomini sulla Luna. Margaret Hamilton Massachusetts Institute of Technology programma spaziale Apollo Alcuni transistor montati su circuito stampato. >> pagina 17 La diffusione dei circuiti integrati (microchip) Nel 1958 (1923-2005), un ingegnere elettrico americano che lavorava alla realizzò il primo . Jack St. Clair Kilby Texas Instruments circuito integrato Un circuito integrato (o ) è un insieme di circuiti elettronici posizionati su una base di materiale semiconduttore (detta chip), che oggi viene realizzata in silicio, ma che nel prototipo di Kilby era in germanio. microchip La possibilità di inserire tanti componenti elettronici (fra cui i transistor) su un unico chip permise di realizzare dei circuiti più piccoli, più veloci e più economici. Con il passare del tempo la densità di transistor inseriti nei circuiti integrati aumentò rapidamente. Nel 1971, presso i laboratori della Intel Corporation, nacque l’ (un processore a 4 bit), il primo microprocessore disponibile in commercio, progettato dell’inventore italo-americano (1941). Intel 4004 Federico Faggin I , basati sulla tecnologia dei circuiti integrati, aumentarono notevolmente le prestazioni delle macchine senza aumentare gli ingombri. computer del decennio 1965-1975 Nel 1965 Gordon Moore (1929) enunciò la legge di Moore prevedendo che, almeno per il successivo decennio, “il numero di transistor all’interno dei circuiti integrati avrebbe continuato a raddoppiare ogni anno”. I mainframe e le workstation degli anni ‘70 Durante la prima metà degli anni Settanta il mercato venne dominato da una famiglia di calcolatori elettronici, a circuiti integrati, considerata la capostipite dei moderni: la , entrata in commercio nel 1964. mainframe IBM System/360 Il loro enorme successo era dovuto all’uso di , riutilizzabili tra i diversi modelli. Fino a quel momento, infatti, i computer venivano progettati utilizzando componenti dedicati, pensati per funzionare solo su una macchina. software e periferiche “intercambiabili” Nello stesso periodo si diffusero i “ ” (le attuali ); il primo fu il ( ) sviluppato dalla DEC ( ), introdotto sul mercato nel 1965. minicomputer workstation PDP-8 Programmed Data Processor Digital Equiment Corporation I erano computer grandi e molto costosi, con prezzi accessibili solo alle . I , invece, pur mantenendo (potevano andare da un grosso armadio a una stanza intera) avevano inferiori, ma più accessibile. mainframe aziende minicomputer grandi dimensioni prestazioni prezzo Con mainframe e workstation si diffuse il concetto di ( ), cioè di sistemi in grado di ricevere dati, elaborarli e restituire risultati così da influire sull’ambiente. sistemi real time tempo reale velocemente istantaneamente Nello stesso periodo si diffuse anche il concetto di , cioè di sistemi che eseguono contemporaneamente , usando a turno il microprocessore, così velocemente da dare l’impressione di un’esecuzione simultanea dei programmi. sistemi multitasking più processi Il modello 20 di IBM System/360 esposto al Museo della scienza e della tecnica di Monaco di Baviera. Il minicomputer PDP-8 della DEC conservato nel Museo della storia del computer di Moutain view (USA). >> pagina 18 I COMPUTER MODERNI Dalla stanza del computer al computer da tavolo Nel 1968 e (1927-1990) fondarono ( ) l’azienda che nel 1971 immise sul mercato il primo (Intel 4004). Gordon Moore Robert Noyce Intel Integrated Electronics microprocessore Nel 1972, grazie a un’evoluzione di Intel 4004 (Intel 8008), venne sviluppato da un team francese il primo , cioè il primo computer, relativamente economico, con funzionamento basato su un microprocessore. microcomputer Nel 1975 due giovani americani, (1955) e (1953-2018), fondarono una piccola società di software, la . Bill Gates Paul Allen Microsoft I erano caratterizzati dalla produzione di circuiti integrati ad altissima integrazione. computer del decennio 1975-1985 Verso la metà degli anni Settanta i microcomputer iniziarono a essere venduti in o già , ma senza il case, cioè senza un contenitore, divenendo molto popolari. Il primo e più diffuso fu Altair 8800 che ancora oggi viene considerato la “scintilla” che ha innescato la rivoluzione del microcomputer. kit di montaggio assemblati Nel 1976, (1950) e (1955-2011), amici di vecchia data, presentarono , un computer con case ( ) di legno, costruito in un garage, appetibile solo per un pubblico di appassionati di elettronica. Era un microcomputer venduto come kit per il fai-da-te. L’anno successivo nacque , il progenitore del PC, venduto già assemblato e prodotto su scala industriale. Con l’Apple 2 si diffuse il concetto di , con software che potevano essere usati anche dai “ ” perché, per usarli, non era più necessaria una conoscenza approfondita dell’elettronica. Steve Wozniak Steve Jobs Apple 1 contenitore Apple 2 informatica personale non tecnici Nel 1981 IBM lanciò il che, pur non essendo la macchina migliore disponibile in quel periodo, aveva un ed ebbe un discreto successo. Per ridurre i , furono usati componenti hardware e software forniti da due : il microprocessore della Intel ( ) e il sistema operativo della Microsoft ( ). PC IBM marchio rassicurante costi di progettazione società esterne Intel 8088 PC-DOS Forse inconsapevolmente, la IBM fece : la vendita di microprocessori Intel si impennò e la Microsoft sviluppò il sistema operativo (MicroSoft Disk Operating System) con il quale dominò il mercato fino all’introduzione di Windows 3.0 e oltre. esplodere il mercato dei cloni MS-DOS I microcomputer venivano spesso chiamati per ricordare che erano pensati per uso domestico alla portata di tutti. La IBM utilizzò il termine per differenziarlo dagli altri. Ben presto, però, il termine PC si distaccò dal marchio IBM e iniziò a essere utilizzato per indicare anche tutti i suoi cloni. home computer personal computer Nel 1985 si diffuse l’architettura ( ) nella quale vennero ridotti il e la delle in linguaggio macchina disponibili per il microprocessore. In questo modo le macchine diventarono più e . RISC Reduced Instruction Set Computer numero complessità istruzioni veloci performanti In Italia, nel 1982, si diffuse il , un sistema troppo limitato per essere definito microcomputer o PC, ma che ebbe un grande successo come console per i e che fu fondamentale per il contributo che diede durante la fase di “ ” della comunità. Commodore 64 videogiochi alfabetizzazione informatica Nel 1984, dopo l’insuccesso di Lisa (la cui progettazione era iniziata nel 1978, ma che venne ritenuta una macchina troppo lenta e costosa dagli utenti), la Apple introdusse il (con sistema operativo ). Anche se non fu il primo personal computer ad avere un mouse, uno schermo e un’ con finestre e icone, il Macintosh è ricordato come il primo personal computer di grande successo sul mercato di massa. Macintosh MacOS interfaccia utente grafica La scelta del nome Macintosh molto probabilmente non è stata casuale: Apple in inglese vuol dire mela, ma forse non sai che McIntosh (che si pronuncia esattamente come il modello di computer) è una varietà di mela. L’interno del secondo modello di Altair 8800. PC IBM con tastiera e monitor. Lisa Macintosh >> pagina 20 L’evoluzione dei software e la diffusione della rete Internet A partire dalla metà circa degli anni Ottanta, la storia dell’informatica subisce una drastica impennata in ricchezza e rapidità di avvenimenti. I sono accomunati soprattutto dall’evoluzione del software e delle reti di calcolatori. computer del ventennio 1985-2005 Le , in uso fino ad allora, lasciarono il posto alle : usare il computer diventò più semplice, anche per gli utenti non esperti, e si aprirono nuovi scenari di utilizzo del calcolatore. interfacce utente testuali interfacce grafiche Nel 1985 la Microsoft immise sul mercato il primo sistema operativo con interfaccia grafica in ambiente multitasking, a cui seguirono, negli anni successivi, ulteriori evoluzioni nettamente migliorative. Windows 1.0 La macchina da scrivere venne sostituita dai programmi di (▶ unità 6) e si diffuse il paradigma ( , quello che vedi è quello che ottieni, introdotto dalla Apple con Macintosh): non solo i testi, ma tutto quello che poteva essere visualizzato sullo schermo divenne una riproduzione fedele di quanto sarebbe stato ottenuto in stampa. Il mondo del giornalismo e dell’editoria subirono una rivoluzione. videoscrittura WYSIWYG What You See Is What You Get I cominciarono a “invadere” le case mentre nei laboratori di ricerca iniziarono a comparire i , elaboratori costituiti da un grande numero di processori in grado di eseguire contemporaneamente calcoli estremamente sofisticati a velocità elevatissime. personal computer supercomputer Nel 1996 il computer della IBM vinse la una partita a scacchi contro un essere umano, il campione del mondo in carica, Garry Kasparov. Deep Blue Nacquero i primi , cioè i primi software nascosti e capaci di auto replicarsi proprio come se fossero dei virus biologici e contestualmente nacquero gli , i primi software per l’identificazione e la rimozione dei file infetti. virus antivirus L’interconnessione tra computer iniziò a non essere più un privilegio riservato a università ed enti governativi o militari, anche i cominciarono a connettersi a usando prima la linea telefonica e con il tempo connessioni via via migliori, come la ADSL (▶ unità 9). PC di casa Internet A metà degli anni Novanta esplose il fenomeno in , anche in Italia moltissime attività commerciali registrarono il proprio e crearono il proprio . Le persone cominciarono ad aggiungere un indirizzo al proprio biglietto da visita. La diffusione della rete Internet consentì l’aumento dello , anche i programmatori iniziarono a . Internet tutto il mondo dominio sito web e-mail scambio di informazioni collaborare in rete Nel 1991 lo studente finlandese (1969) creò , un nuovo sistema operativo simile ai sistemi proprietari Unix, presenti sul mercato in quegli anni. Linux era e (cioè “aperto”) e gli appassionati di tutto il mondo contribuirono alla sua crescita. Diventò ben presto un sistema operativo molto diffuso e usato in molti campi di applicazione. Linus Torvalds Linux gratuito open-source Tra la metà degli anni Novanta del secolo scorso e il nuovo Millennio Microsoft introdusse nuove versioni del suo sistema operativo: (nel 1995), (nel 1998) e (nel 2001). Windows 95 Windows 98 Windows XP Le nuove interfacce grafiche migliorarono l’esperienza dell’utente e anche la sua produttività. Finalmente era possibile usare il del mouse ( unità 5). Con la Microsoft introdusse la più grande innovazione dell’epoca: , un sofisticato e ben congeniato sistema centralizzato di gestione e di controllo dei server e delle postazioni di lavoro Windows all’interno delle reti aziendali. tasto destro Windows 2000 Server Active Directory Le società e gli enti cominciarono a fare ampio uso dei , inizialmente anche solo a supporto degli equivalenti cartacei. dati digitali L’aumento del traffico dati su Internet rese necessario il potenziamento degli e si passò dalle connessioni in chiaro alle connessioni crittate con sistemi di codifica sempre più sofisticati. Cominciò a diffondersi su larga scala la connessione dei dispositivi tramite onde radio ( ) e, intanto, si iniziava a prendere coscienza del fatto che gli indirizzi IPv4 (i “numeri” univoci assegnati a ogni computer su Internet) si stavano esaurendo e che presto sarebbe stato necessario rimpiazzarli (▶ unità 9). algoritmi di cifratura WiFi Le finestre di Windows 1.0 non erano sovrapponibili. Francobollo commemorativo che ritrae Kasparow Il pinguino TUX la mascotte ufficiale di Linux. >> pagina 21 Dal PC allo smartphone I (dal 2005 a oggi) sono sicuramente oggetto di ulteriori e massicce , anche se il fenomeno che caratterizza maggiormente la nostra epoca è soprattutto una straordinaria . La diffusione dell’informatica ha raggiunto livelli tali che, probabilmente, neanche gli scrittori di fantascienza sarebbero mai stati in grado di immaginare. computer del periodo attuale evoluzioni tecnologiche evoluzione nei comportamenti delle persone La rivoluzione più estrema è stata la massiccia diffusione dei : smartphone e tablet con cui lavorare, giocare, cercare informazioni ecc. dispositivi mobili Il è “esploso”: Internet è diventato il “luogo” in cui le persone sembrano avere maggiore facilità a entrare in contatto. Le relazioni nel mondo reale sono state in gran parte sostituite dalle , che hanno facilitato il passaggio delle informazioni, ma spesso hanno anche contribuito alla diffusione di notizie non corrette ( ) che costituisce un grande . fenomeno dei social network connessioni virtuali fake news problema sociale La diffusione dei social network ha creato anche nuove professioni: gli influenzano le mode e gli acquisti di massa guadagnando a seconda del numero di utenti da cui vengono seguiti sui social. influencer La velocità di connessione è aumentata sia da , con la rete (4ª generazione) e soprattutto la (5ª generazione), sia da , che da tempo è passata alla , utilizzando sempre più la fibra ottica e consentendo velocità superiori a 1 Gbit/s. rete cellulare 4G 5G rete cablata banda ultra larga L’aumento della connettività ha creato anche il problema della sicurezza informatica ( ), che è diventata un aspetto fondamentale e inscindibile nella gestione delle reti e dei sistemi informatici. cyber security Parallelamente all’incremento della rete, infatti, si è diffuso il , un substrato di Internet non direttamente visibile o accessibile, che consente di effettuare operazioni in quasi totale anonimato, spesso anche con dark web risvolti illegali. La nelle e nella è aumentata esponenzialmente, con un abbandono del cartaceo e il passaggio a disponibili solo in forma elettronica. digitalizzazione aziende Pubblica Amministrazione documenti L’ si è diffusa e viene utilizzata in moltissimi ambiti, spesso come supporto per il trattamento delle enormi quantità di dati che oggi sono disponibili ( ). intelligenza artificiale big data >> pagina 22 i computer del futuro Il futuro prossimo cosa ci riserva? Sicuramente una forma ancora più pervasiva e completa di tutto quello che è stato già citato. connessi, fruibili in mobilità. Sempre più dispositivi sempre più servizi Tra le grandi sfide che ci attendono, probabilmente c’è un salto di qualità nell’intelligenza artificiale, se mai sarà possibile, affinché possa diventare veramente tale, con computer che raggiungano una qualche forma di . auto-coscienza In realtà nessuno sa cosa ci riserva il futuro, perché il futuro è ancora tutto da scrivere. Lo scriveranno le prossime generazioni: ricordati che tu ne fai parte. E se fossi proprio tu il protagonista della ? nuova rivoluzione informatica educazione civica SICUREZZA E LEGGI Il problema della sicurezza informatica ha spinto il Parlamento Europeo a emanare il Regolamento (UE) n. 2016/679, chiamato GDPR (Regolamento Generale sulla Protezione dei Dati), entrato in vigore a maggio 2018, che obbliga le aziende a intraprendere una complessa serie di attività volte a proteggere i dati personali dei cittadini europei e a regolamentarne l’uso e i diritti/doveri all’accesso, alla detenzione, alla distruzione ecc. Le politiche di sicurezza sono diventate così stringenti che molti produttori di software hanno imposto sistemi di , in modo da “costringere” i PC e i programmi a mitigare continuamente le vulnerabilità che, nel corso del tempo, emergono e diventano note. aggiornamento automatico forzato