giovedì 27 febbraio 2014

Modelli di rappresentazione della conoscenza

Per comprendere il funzionamento della mente umana, è stato seguito un approccio indiretto dagli studiosi delle scienze cognitive, quello della creazione di Modelli destinati a controllare le informazioni analizzate e ad esaminarle in modi diversi in contrapposizione ad informazioni aggiuntive o ai nuovi dati ottenuti dagli esperimenti. Questo tentativo di creazione di modelli controllati si estende a quella che è una pratica quotidiana, inconsciamente impiegata dagli individui tutte le volte che tentano di capire come la mente funziona e di capire il mondo e la realtà esterna in generale. Lamb Sostiene in merito che, in qualche modo tutti sono costruttori di modelli, anzi, questa è una delle attività automatiche dell’uomo. Il processo inconscio della costruzione di modelli inizia sin dall’età infantile, addirittura alcuni studiosi pensano che esso abbia inizio prima della nascita, e continua nell’età adulta fino all’ultimo stadio della vita. Secondo Lamb il sistema informativo dell’uomo possiede informazioni su un mondo che non è solo esterno al corpo, esso infatti include anche informazioni sul corpo stesso, per esempio: la sensazione di fame, sete, stanchezza, qualsiasi altro sentimento, la consapevolezza di dove si trovano le nostre mani, i nostri piedi, e di quali sono le condizioni in cui si trovano, ecc.

La conoscenza acquisita dal nostro cervello, viene organizzata e descritta tramite le così dette mappe mentali o cognitive. Gli studi su tali tipologie di mappe sono stati generalmente realizzati utilizzando tecniche di indagine sui processi mentali di apprendimento, sulla base di sequenze gerarchiche tra concetti chiave e il loro sviluppo associativo. Le strutture del pensiero sono infatti rappresentabili come un albero che parte dal tronco e si suddivide in rami e fronde, fino alle più piccole venature delle foglie o come una rete che lega in una griglia una certa quantità di nodi. Le mappe pur semplificando le strutture di contenuto in uno spazio bidimensionale come può essere quello di un foglio o lo schermo di un computer, rendono possibili complessità tridimensionali con links ad altre mappe. Il testo infatti non è più un mondo chiuso in se stesso, ma si apre a combinazioni con altri testi in una struttura di tipo ipertestuale, le mappe ne rappresentano bene la gararchizzazione e l’organizzazione in cui ogni testo è un nodo, e i legami stessi fra un testo e l’altro sono i links ipertestuali.
Le mappe mentali sono state ideate dallo psicologo inglese Tony Buzar, intorno al 1960, e sono state introdotte come strumento per la generazione e rappresentazione delle idee e del pensiero mediante associazione di concetti e di informazione in modo non lineare. Tutto ciò sulla base della differenziazione funzionale dei lobi celebrali, coinvolgendo cioè sia le funzionalità logico/razionali (lobo destro) che quelle immaginifico/creative (lobo sinistro). Le mappe possono avere diversi impieghi. Ad esempio nella sfera personale vengono utilizzate per far emergere le idee dell’autore, fissarle e rielaborarle; nel lavoro di gruppo tale tipo di rappresentazione delle informazioni ne facilita il confronto e permette di accelerare il passaggio dalla fase di elaborazione a quella esecutiva; infine nella gestione della conoscenza le informazioni sono rappresentate utilizzando degli standard rappresentativi che ne favoriscono una visione oggettiva.

L’importanza di una mappa mentale, risiede nella sua capacità di coniugare in modo ottimale sia la strutturazione/classificazione delle informazioni, che il simultaneo utilizzo di diversi canali espressivi, permettendo attraverso una struttura di tipo gerarchico/associativo di inserire informazioni o dati, ma anche di visualizzare graficamente i legami tra loro esistenti. In particolare le relazioni di tipo padre/figlio permettono di rappresentare processi di generalizzazione e particolarizzazione di concetti, eventi, attività, dati e nello stesso tempo le associazioni tra i rami permettono di rappresentare legami concettuali tra elementi che non siano riconducibili a relazioni gerarchiche.
Altro tipo di mappa utilizzata è la così detta mappa concettuale, teorizzata da Joseph Novak all’inizio degli anni ’60 e diffusa per la rappresentazione grafica della conoscenza in quanto essa non consiste esclusivamente di concetti ma anche di relazioni la cui visualizzazione grafica non favorisce solamente la loro comprensione ma anche la loro memorizzazione. Le mappe concettuali infatti, sono rappresentate mediante nodi semantici e archi commentati di collegamento tra i nodi. Questa tipologia di mappa, si differenza dalle mappe mentali perché nelle mappe concettuali la strutturazione dell’informazione è di tipo reticolare e non gerarchico, la matrice di riferimento è di tipo connessionista e non associazionista , e inoltre i legami tra i nodi sono esplicitati mediante etichette descrittive testuali, favorendo la leggibilità della struttura concettuale.
Il Connessionismo, o Connettivismo, teoria proposta nel 1874 dal neurologo tedesco Carl Wernicke ed elaborata da Ludwig Lichthaim nel 1885, si focalizza invece sul fatto che l’uomo impara dalle esperienze che fa dell’ambiente circostante. Queste esperienze vengono immagazzinate nel cervello mediante la connessione tra neuroni, un processo puramente chimico attraverso il quale avviene il passaggio dell’informazione. E’ proprio la “Connettività” il principio sul quale si basa questa teoria.

Brevemente possiamo dire che il cervello è una rete di neuroni (cellule principali che costituiscono il sistema nervoso). Ogni neurone è integrato in circuiti nervosi nei quali i segnali viaggiano per via elettrica nell’ambito di ogni singola cellula e vengono quindi convertiti in messaggi chimici nel passaggio da un neurone all’altro. Il segnale chimico ricevuto dal neurone viene poi riconvertito in un segnale elettrico e cosi via. Il contatto funzionale con gli altri neuroni è realizzato dalle sinapsi, connessioni appunto fra neuroni a livello delle quali avviene la trasmissione dei segnali nervosi. La connessione sinaptica rappresenta il punto nodale per il flusso dei segnali nei circuiti celebrali. Tali connessioni hanno un’importantissima proprietà, la plasticità sinaptica, che rappresenta la capacità del cervello di rimaneggiare il funzionamento dei propri circuiti nervosi sulla base delle attività precedentemente acquisite dell’esperienza. Grazie a questa proprietà quindi il cervello ha la capacità di ricostruire le aree danneggiate.
Il Sistema Mentale permette all’uomo di percepire porzioni della realtà extra-linguistica considerandole come unità separate del mondo. Cioè permette di stabilire dei confini tra gli oggetti, di stabilire delle categorie per questi oggetti, di distinguere gli oggetti dai processi, e di capire le relazioni che intercorrono tra di essi.
Secondo il modello delle reti neurali il processo dell’effettiva registrazione delle informazioni nella memoria consiste nella costruzione e nel rafforzamento delle connessioni. Riprendere le informazioni dalla memoria vuol dire attivare certi nodi che proprio nel momento in cui vengono attivati riconoscono e identificano i campioni e i modelli che hanno imparato a riconoscere in virtù delle loro connessioni di ingresso.
Tra i vari modelli mentali, si possono menzionare ad esempio i modelli Bottom-Up (Bottom-Up Modeling) e i modelli Top-Down (Top-Down Modeling). Entrambi partono entrambi da informazioni conosciute. Il modello Botto-Up parte dalle più piccole proprietà conosciute dei neuroni e delle loro interconnessioni (lo dice il nome stesso, dal basso verso l’alto), fino ad arrivare alle strutture più superficiali della rete neurale. La varietà di modelli che si può sviluppare da questo punto di partenza è infinito. I modelli più conosciuti hanno una struttura composta da pochi strati, uno dei quali nascosti, e che fa da intermediario tra i dati di input e i dati di output. Una proprietà comune a questo tipo di modelli è quella di connettere ciascun nodo di uno strato a ciascun nodo dello strato successivo. Il modello Top-Down invece funziona al contrario, parte dai fenomeni controllati dal cervello, come ad esempio le forme linguistiche, fino ad arrivare alle parti più piccole e agli strati più nascosti della rete neurale, inizia cioè dall’analisi di ciò che fa il Sistema e formula ipotesi su ciò che c’è nel sistema che gli permette di eseguire le operazioni che effettivamente esegue.

L’ultimo modello studiato da Lamb è il Modello Metaforico (Metaphorical Model). Per Lamb l’uso di metafore è un modo di approcciarsi alle cose ignote, sconosciute, attraverso le cose familiari, conosciute.
Un esempio di metafora molto usata, soprattutto di recente, è quella del Computer come Cervello, e di conseguenza l’uso della memoria del computer come metafora della memoria umana. A questo punto è bene vedere che tipo di sistema è il computer, come funziona e quali sono le differenze tra questa macchina e il cervello.
Lamb definisce il Computer, a livello strutturale, come una rete elettronica costituita da elementi digitali logici interconnessi. Esso opera come un processore di simboli; in particolare immagazzina simboli interni ed esegue le operazioni su di essi, quasi come fa il modello introiettivo della mente. I primi calcolatori erano usati solo per fare calcoli numerici, essi erano infatti considerati come enormi calcolatrici, molto più veloci di qualsiasi altro calcolatore; necessitavano però di un operatore, un uomo, che doveva dar loro una serie di istruzioni per poter eseguire le operazioni. Fu proprio da questa necessità che si sviluppò l’idea di un Programma per il Computer, una serie di istruzioni e di dati su cui operare, mediante i quali il Computer sarebbe stato in grado di compiere le operazioni da solo, senza l’obbligo di dover attendere che l’uomo gli desse di volta in volta le istruzioni da eseguire. Per tali operazioni il Computer aveva bisogno di registri di memoria, tanto per i dati quanto per i programmi, e anche di particolari circuiti per interpretare le istruzioni, che richiedevano mezzi di accesso alle istruzioni dalla memoria, in modo che esse potessero essere interpretate ed eseguite. Fu così che la CPU, l’unità centrale del Computer, fu dotata di queste abilità oltre che di quelle usate per il calcolo numerico. Il Computer funziona con l’Hardware di silicio che permette un calcolo fatto sempre e soltanto su basi binarie, 0-1, si-no, nero-bianco. C’è un’analogia tra la struttura a rete neurale (artificiale) del computer e le reti neurali del cervello. Le reti neurali sono sistemi computazionali utilizzati nell'ambito delle ricerche e delle applicazioni dell'intelligenza artificiale e costruiti in modo tale da incorporare gli elementi fondamentali dei circuiti nervosi cerebrali, e cioè la presenza di unità neuronali collegate da connessioni il cui "peso" può essere modificato dall'addestramento. L'addestramento di una rete neuronale può essere paragonato alla proprietà naturale della plasticità sinaptica, ovvero alla capacità dei circuti nervosi di modificare funzionalmente ed anche strutturalmente i propri processi di segnalazione in seguito all'apprendimento ed alla memorizzazione. Il sistema a rete neurale, a somiglianza della mente umana, è in grado di elaborare grandi quantità di dati d’ingresso, apparentemente non collegati tra loro, e di produrre in uscita una decisione utilizzabile. Le reti neurali artificiali essendo basate su modelli simili alle funzioni celebrali, sono costituite da unità elementari di calcolo, chiamate nodi o neuroni, per analogia alle componenti biologiche e da alcune linee di interconnessione. Le connessioni neurali possono essere intra – strato, se connettono solo neuroni appartenenti allo stesso strato, o inter – strato, se connettono neuroni appartenenti a strati diversi. I neuroni che compongono una rete neurale sono raccolti in strati deputati allo svolgimento di diverse funzioni, in particolare si hanno strati di ingresso contenenti tutti i neuroni che ricevono direttamente segnali provenienti dall’esterno della retina; strati di uscita, composti dai neuroni che hanno un canale di uscita verso l’esterno e strati nascosti, composti da unità nascoste che non sono ne di ingresso ne di uscita. A seconda della direzione in cui viaggia il segnale si parla di connessioni feedforward, se il segnale viaggia dall’ingresso all’uscita oppure connessioni di feedback o ricorrenti, se il segnale viaggia all’inverso. La capacità di apprendimento di una rete neurale artificiale è la caratteristica fondamentale che rende possibile scoprire nella massa dei dati la correlazione cercata. Si possono distinguere varie modalità di apprendimento in base a come la rete viene addestrata. Abbiamo quindi un tipo di apprendimento supervisionato o Supervised Learning, che è una tecnica di apprendimento automatico che mira a istruire un sistema informatico in modo da consentirgli di risolvere dei compiti in automatico, e un apprendimento non supervisionato o Unsupervised Learning, quando si vuole estrarre in modo automatico da delle basi di dati della conoscenza. Quest’ultima viene estratta senza una specifica conoscenza dei contenuti che si dovranno analizzare. La prima fase per creare il modello del sistema a rete neurale artificiale consiste nella raccolta di tutti i dati necessari (vanno esplorate tutte le possibilità). La seconda fase consiste nel fare apprendere alla rete neurale, sulla base dei dati raccolti nella prima fase, le relazioni esistenti tra i dati d’ingresso forniti dai sensori e le uscite desiderate fornite dagli esperti umani. La terza ed ultima fase ha lo scopo di provare a convalidare il sistema completo.

Sostenitori di questa “metafora del Calcolatore”, e quindi delle analogie tra Computer e Mente umana, sono i ricercatori dell’Intelligenza Artificiale, la quale si propone di indagare sui meccanismi che sono alla base della cognizione umana, in primo luogo il ragionamento logico-matematico, la capacità di risolvere problemi e la comprensione del linguaggio naturale, con il fine dichiarato di riprodurli per mezzo di elaboratori elettronici sufficientemente potenti. La posizione di partenza dell’ IA è costituita dal fatto che molti scienziati considerano il pensiero umano come una forma di calcolo e, in quanto tale, potenzialmente riproducibile tramite computer dotati di adeguati software. Da questo punto di vista si possono distinguere due posizioni principali: quella dell’IA forte e quella dell’IA debole. I sostenitori dell’IA forte sono convinti che il pensiero sia interamente riproducibile a un processo di manipolazioni di simboli che si attua utilizzando un gran numero di algoritmi. Pensare in tale prospettiva equivale a calcolare, da cui deriva che la mente è equivalente al programma di un calcolatore. Il cervello e la mente sono stati paragonati quindi a un sofisticato calcolatore che acquisisce informazioni, le immagazzina in memoria, rielabora l’informazione in relazione alla propria memoria ed emette altre informazioni in uscita. Gli scienziati dell’IA forte affermano che tra qualche anno il computer sarà in grado di superare la mente umana, per le funzioni che sarà in grado di eseguire, e sarà addirittura capace di pensare. Per i sostenitori dell’IA debole, invece, pensare non è sinonimo di calcolare, poiché le capacità del pensiero non si limitano a quelle logico-matematiche. Il calcolatore non è visto come l’analogo di un cervello biologico, ma come uno strumento che può essere di grande aiuto nella comprensione dei processi cognitivi.
L'analogia fra computers e cervello ha affascinato l'umanità e gli scienziati fin dalla costruzione dei primi "cervelli elettronici". Il padre della moderna intelligenza artificiale, Alan Turing, elaborò fin dal 1950 un ipotetico test cruciale in grado di definire il raggiungimento da parte di un computer di un livello di intelligenza, non solo computazionale, ma anche emozionale paragonabile a quella umana. Secondo il test di Turing tale raggiungimento potrebbe considerarsi completato quando una persona che intervisti senza vederli un computer ed un essere umano non sia in grado di decidere quale sia il computer e chi l'umano.
Accanto a computers sempre più potenti ma che utilizzano meccanismi computazionali non paragonabili a quelli cerebrali, gli studiosi dell'intelligenza artificiale stanno sviluppando sistemi computazionali, quali le reti neurali, che partono dal principio fondamentale del funzionamento dei circuiti neurali, la plasticità sinaptica e la capacità di modificare la propria attività sulla base dell'apprendimento e della precedente attività. Così, i più entusiasti studiosi dell'intelligenza artificiale prevedono che nel corso del presente secolo non solo si avranno computers in grado di avere consapevolezza di sé e di sentire qualcosa di molto simile alle emozioni umane, ma ipotizzano addirittura una sempre più stretta simbiosi fra l'uomo ed un computer che abbia raggiunto il livello evolutivo non solo di una macchina intelligente ma addirittura di una macchina spirituale.
Le differenze tra Computer e Cervello sono molteplici. Innanzitutto a livello di microprocessore le informazioni in un Computer sono rappresentate da successioni ordinate di bit e questo è il primo limite che la tecnologia del computer impone. Mentre il computer infatti manipola stringhe di bit, il cervello manipola potenziali elettrici tra sinapsi neurotiche. Rappresentare parole del linguaggio con stringhe di bit è una delle prime applicazioni che consente il colloquio tra computer ed esseri umani. Ma, cosa molto importante, in questa codifica si perde la semantica delle parole. Per il Sistema nervoso centrale una parola è rappresentata, come si è visto, da scariche neuronali che coinvolgono molteplici connessioni, per il computer, invece, una parola è solo ed unicamente una stringa di bit, e ad essa il computer non è in grado di associare un significato. Una differenza molto importante è che mentre il computer elabora simboli che appartengono ad un certo insieme finito, secondo regole precise (gli algoritmi), il cervello elabora segnali sensoriali analogici, potenzialmente infiniti, sia utilizzando regole precise, sia in modo impreciso e ambiguo. Lo schema Input-Elaborazione-Output è il principale metodo di funzionamento di un computer, ma mentre il calcolatore è completamente succube ai dati di Input, un essere umano manifesta una maggiore elasticità. Un essere umano è in grado di rispondere in maniera diversa di fronte ad uno stesso input. Mentre un Computer ripropone le stesse reazioni a seguito di una parola di ingresso, un essere umano può rispondere in maniera diversa. Per quanto riguarda l’output, un essere umano può produrre autonomamente un discorso articolato, un computer invece si trova in netta difficoltà a riprodurre un simile comportamento, non tanto per la mole del discorso prodotto, quanto al significato, soprattutto se il corso del discorso procede in maniera imprevedibile e non programmata a priori.

Un’altra importante differenza tra il computer e il cervello è che, le operazioni mentali di elaborazione dell’informazione non avvengono in sequenza come quelle dei computer, ma avvengono simultaneamente nelle reti di connessione tra le molteplici unità di elaborazione. Sicuramente il computer ha una memoria espandibile all’infinito, mentre la memoria del cervello ha una capacità limitata, inoltre il computer funziona grazie all’Unità di elaborazione centrale (CPU), mentre nel cervello non c’è una centrale di elaborazione, l’attività è distribuita tra le parti. I processori, pochi processori, elaborano velocemente un simbolo alla volta (perché funzionano in modo seriale), mentre i neuroni, miliardi di neuroni, elaborano lentamente l’informazione però lavorano in parallelo, mediante l’attivazione di diversi circuiti neuronali.
Un altro aspetto della metafora del calcolatore è la distinzione tra hardware e software. Molti sostenitori dell’ IA forte affermano infatti che, l’hardware sta al software come il cervello sta alla mente. Questa secondo Lamb rimane solo una metafora, perché la realtà è ben diversa. Come si è spesso affermato nelle pagine precedenti infatti, la mente umana scambia le sue informazioni per mezzo delle connessioni neurali, e questo processo non corrisponde in alcun modo a mettere un software nell’hardware del computer. Secondo Lamb, il quale non sostiene affatto la posizione dell’IA forte, gli scienziati dell’IA hanno guardato solo a una piccolissima parte del processo cognitivo della mente umana. Ci sono infatti molte cose del sistema cognitivo dell’uomo che non possono essere simulate neanche dal più sofisticato calcolatore. Tali cose sono ad esempio stati mentali, sentimenti quali: consapevolezza, lo stato di coscienza, il subconscio e l’inconscio, lo stupore, la fantasia, il sogno, l’immaginazione, la creatività, l’invenzione, l’idea, l’illusione, la delusione, la depressione, l’apprezzamento, la volontà; per non parlare poi di sentimenti quali l’amore, l’odio, il timore, la gioia, ecc. Tutto ciò che fa parte del pensiero umano non può essere simulato da un computer. Un computer non può riprodurre i processi di riorganizzazione e di reinterpretazione che hanno luogo nel pensiero creativo. La forza della mente umana sta nel vedere varianti, cose che non sono ancora lì, nel vedere piccoli o grandi cambiamenti che mantengono l’essenza della cosa che però nei dettagli cambia, ecc. La creatività stessa non è riproducibile a formule, ad algoritmi matematici, proprio grazie al fatto che la mente umana è talmente profonda e complessa da sfuggire a qualsiasi riduzione. I computer calcolano, classificano, comandano, reagiscono, ma non pensano; essi associano, ma la funzione associativa è solo una delle funzioni dell’intelligenza, non è l’Intelligenza.
Ciò nonostante, va detto che, negli ultimi anni, sono stati compiuti enormi passi avanti per quel che concerne lo sviluppo dell’ “intelligenza” della macchine. Basti pensare alla nascita del web semantico, che permette, o meglio permetterà, di traslocare quelli che sono i meccanismi prettamente legati alla mente umana, al computer. Infatti, si auspica ben presto di raggiungere risultati che portino le macchine, i sistemi, a “ragionare” sulle informazioni da essi possedute, riuscendo ad interpretare il bisogno informativo umano.

domenica 23 febbraio 2014

Progetto Logical: contenuti e prime realizzazioni

Il progetto europeo Logical, finanziato dal Programma Central Europe, ha lo scopo di progettare, sviluppare e implementare strumenti di cloud computing nella logistica per le imprese, con particolare attenzione a quelle di piccole e medie dimensioni, soprattutto per quanto riguarda il campo dei trasporti e dell’accessibilità.
Al progetto partecipano la provincia di Bologna e l’interporto di Bologna stessa, coinvolgendo diversi fornitori di infrastrutture e agenti di sviluppo economico, alcuni istituti di ricerca tedeschi, polacchi e con sede nella Repubblica Ceca.

La soluzione di Cloud proposta da Logical offre diversi servizi a sostegno del settore logistico, basandosi, nello specifico sull’applicativo OwnCloud che ha come obiettivo il soddisfacimento di esigenze aziendali, come gestione di magazzino, e gestione di attrezzature logistiche, e presuppone altresì funzioni di ricerca di servizi logistici, tra i quali trasporto e stoccaggio, l’utilizzo di software in modalità Asp e SaaS e l’integrazione di piattaforme di gestione dell’approvvigionamento esterno.
I partner italiani, negli scorsi mesi, hanno presentato il loro strumento web-based ‘CoSPaM’, di gestione della supply chain, mentre i partner sloveni hanno presentato il ‘Sistema di eContainer’, sempre web-based, ma destinato al monitoraggio e alla tracciabilità dei container.
I fornitori tedeschi di servizi cloud di SALT Solutions hanno presentato il sistema di gestione del magazzino basato su SaaS LogBase on Demand.

Stessa importanza riveste il tema controverso, anche in questo campo, della sicurezza dei dati e della contrattualistica per l’utilizzo di servizi cloud transnazionali, analizzato a tal scopo, dall’Università di Wroclaw sulla base di un diverso approccio delle normative nazionali sui suddetti temi.



mercoledì 19 febbraio 2014

La qualità dei siti web nella PA

Nel corso degli ultimi anni i siti web istituzionali hanno acquisito una sempre maggiore rilevanza "diventando il principale office di ogni amministrazione ".
Le leggi delle P.A. digitale hanno conferito centrale importanza ai siti internet degli Enti, concepiti come un vero e proprio sportello virtuale a cui l'utenza può rivolgersi, telematicamente, per ottenere informazioni di carattere generale (come gli orari di apertura al pubblico degli sportelli e i recapiti, telefonici e di posta elettronica, degli uffici) oppure per essere aggiornati sullo stato delle proprie pratiche, ma anche per fruire dei servizi che le singole amministrazioni rendono disponibili online.
Lo stesso legislatore si è occupato più volte di definire caratteristiche e contenuti dei website pubblici; man mano che l'evoluzione del web ha rivoluzionato la vita degli individui e delle imprese, sono stati emanati provvedimenti che hanno reso i siti uno snodo di centrale riferimento nella vita della P.A.: dalla Legge 4/2004 sull'accessibilità al D.lgs. 82 del 2005 (Codice dell'amministrazione digitale), dalla legge n. 69/2009 che ha addirittura previsto il cosidetto "Albo pretorio elettronico" fino al famigerato D.lgs.33/2013 che negli ultimi mesi ha praticamente riformato i contenuti minimi che devono possedere i siti web istituzionali.
I siti delle amministrazioni diventano anche strumento di trasparenza attraverso il quale i cittadini possono conoscere il livello di efficienza e produttività degli uffici pubblici ed esprimere giudizi sulla qualità dei servizi di cui hanno usufruito.
Ne è testimonianza il Decreto Brunetta che ha fatto da precursore nel sancire l'obbligo per le Amministrazioni di pubblicare sui propri siti internent istituzionali, con il programma triennale per la trasparenza e l'integrità, le informazioni concernenti l’utilizzo delle risorse per il perseguimento delle funzioni istituzionali e i risultati dell’attività di misurazione e valutazione.
Se il 2012 ha segnato un processo di grande innovazione, il 2013 e gli anni successivi rappresenteranno una vera e propria rivoluzione tecnologica dando attuazione ad altre norme contenute nel Codice dell'Amministrazione Digitale.
Infatti, dal 1 Gennaio 2012, in materia di certificati e dichiarazioni sostitutive, ha avuto luogo la completa decertificazione nei rapporti tra amministrazione e privati .
Dal 1° luglio 2013 è scattato l''obbligo per cui le comunicazioni tra Imprese e P.A. devono avvenire esclusivamente in via telematica mentre il D.l. Semplificazioni ha disposto che a partire dal 1°gennaio 2014 le amministrazioni pubbliche devono utilizzare esclusivamente i canali telematici per la presentazione da parte degli interessati di denunce, istanze e atti e garanzie fideiussorie, per l’esecuzione di versamenti fiscali, contributivi, previdenziali, assistenziali e assicurativi, nonché per la richiesta di attestazioni e certificazioni
A partire dalla stessa data le pubbliche amministrazioni devono utilizzare esclusivamente i servizi telematici o la posta elettronica certificata anche per gli atti, le comunicazioni o i servizi dalle stesse resi.
A tal proposito il D.P.C.M. del 27 settembre 2012 ha definito le regole tecniche mediante le quali possono essere presentate, in via telematica, istanze e dichiarazioni alle pubbliche amministrazioni e come il gestore deve identificare il titolare della medesima casella di posta elettronica.
Sulla stessa Gazzetta Ufficiale del 18 dicembre 2012 è stato pubblicato anche il D.P.C.M. del 6 settembre 2012, sempre a firma del Ministro per la Pubblica Amministrazione e la Semplificazione, che ha definito le modalità tecniche con cui inserire in un separato certificato elettronico diverso da quello di firma, le informazioni relative a specifiche qualifiche del titolare della firma digitale, quali le qualifiche professionali o quella di pubblico ufficiale. L'attuazione di tale disposizione costituisce una forma di liberalizzazione delle firme digitali.
Prima con il Decreto Sviluppo bis 2012 e successivamente, anche se in parte modificato, con il D.lgs. 33/2013, l'attribuzione di vantaggi economici di qualunque genere (sovvenzioni, contributi, sussidi ed ausili finanziari) a persone, imprese, enti pubblici e privati sono soggetti alla pubblicita' sulla rete internet secondo il principio di "accessibilita' totale". A decorrere dal 1° gennaio 2013 e con alcune variazioni dal 20 aprile 2013, tale pubblicazione costituisce condizione legale di efficacia (prima era anche del titolo legittimante) delle concessioni (prima era anche di corrispettivi e compensi) ed attribuzioni di importo complessivo superiore a mille euro nel corso dell'anno solare al medesimo beneficiario. La sua eventuale omissione o incompletezza comporta responsabilità amministrativa, patrimoniale e contabile ed è rilevabile dal destinatario della prevista attribuzione anche ai fini del risarcimento del danno da ritardo da parte dell'amministrazione.
Mentre la legge anticorruzione , sempre con il D.lgs. 33/2013 che ne attua i principi e criteri delega, prevede invece l’obbligo di pubblicazione da parte delle stazioni appaltanti nei propri siti web istituzionali di tutta una serie di informazioni relativi agli appalti pubblici. Gli stessi dati dovranno essere pubblicate in tabelle riassuntive, rese liberamente scaricabili in un formato digitale standard aperto e saranno disponibili anche presso il sito web dell’AVCP in una sezione liberamente consultabile da tutti i cittadini.
La stessa Autorità dovra trasmettere alla Corte dei conti l'elenco delle amministrazioni che hanno omesso di trasmettere e pubblicare, in tutto o in parte, le informazioni richieste e nel formato prescritto.
In ottemperanza a quanto disposto dal Decreto spending review dal 18 dicembre 2012, i cittadini tramite il “Portale Trasparenza” sono in grado di conoscere e ricercare i dati relativi a tutti gli appalti pubblici pubblicati in Italia a partire dal 1° Gennaio 2011.
Come sancito dal Codice dell’Amministrazione Digitale , al fine di garantire la massima trasparenza del mercato degli appalti, assicurare l'efficacia, la trasparenza e il controllo in tempo reale dell'azione amministrativa per l'allocazione della spesa pubblica in lavori, servizi e forniture, anche con lo scopo del rispetto della legalità e del corretto agire della pubblica amministrazione e prevenire fenomeni di corruzione, dal 1° gennaio 2014 (doveva esserlo dal 1 gennaio 2013, poi a luglio l'AVCP ha prorogato ulteriormente l'attivazione) sarà disponibile la “Banca dati nazionale dei contratti pubblici” (BDNCP) per gli operatori economici che intendono partecipare a gare di appalti per importi superiori a € 40.000.
Il Web, quindi, non è più un ulteriore canale per erogare servizi alla cittadinanza: ora è il canale principale, un mezzo privilegiato di informazione e di erogazione dei servizi.
Internet è uno strumento per mettere al centro dell’azione amministrativa il cittadino che da semplice destinatario di servizi e prodotti diviene un soggetto da coinvolgere nella progettazione e nella gestione dei servizi pubblici.
I cittadini infatti sono veri e propri clienti da soddisfare e da ascoltare.
Un'amministrazione che usi correttamente i propri siti web è, prima ancora che efficiente, un amministrazione più vicina agli utenti che non solo aiuta a ridurre gli sprechi, ma erogando i propri servizi in modo funzionale puo' migliorare la qualità della loro vita. Ciascuno di noi deve essere messo nelle condizioni di interagire con gli uffici pubblici in modo nuovo, senza dover sottostare ai pesi connessi alla tradizionale dimensione burocratica (file agli sportelli, ecc) ma fruendo della semplicità delle comunicazioni info-telematiche. L'interazione dovrebbe diventare così bidirezionale: dall'amministrazione al cittadino e viceversa.
La situazione attuale è ben diversa da quella che nella pratica, e non solo nella teoria, dovrebbe essere per perseguire tali onorevoli scopi. La continua proliferazione di siti tematici che si sono aggiunti senza integrarsi ai siti istituzionali, le centinaia di siti di progetto che nascono ma non aiutono, la grande eteregoneità della strutturazione dei siti isituzionali e di servizio ha generato una grande confusione fra i clienti finali. E’ cresciuta, infatti, la preoccupazione per una presenza di disorganizzazione, non qualificata, spesso senza identità e riconoscibilità chiare.
Inoltre, "la P.A., è in gran parte ferma alla prima fase del web, quella informativa, mentre, invece, la società dell'informazione sta pian piano consegnando il "testimone della conoscenza" che proprio sulle connessioni e sul valore di queste basa il suo rapido sviluppo. Ignorare un web che sta diventando un grande ecosistema in grado di raccogliere, anche, ma non solo, informazioni digitali sarebbe un errore. Ignorare il luogo più adatto a sviluppare tutti i servizi di e-government sarebbe una mancanza di lungimiranza. "
Non e', infatti, più sufficiente fare riferimento a un troppo generico processo di miglioramento continuo dei servizio delle informazioni rivolte al cittadino ma si rende necessario adottere un termine: quel "deve" che negli atti normativi obbliga le P.A. a erogare servizi sul web con precisi livelli di qualità del servizio ed eventuali sanzioni, in caso di inadempienze.
Propro in virtù di questa convinzione è partorito il D.lgs. 33/2013, divenuto da Aprile 2013, il faro dell'intera disciplina in materia di trasparenza, pubblicazione e diffusione di dati e informazioni da parte delle P.A. Un valido supporto per ottemperare ai nuovi obblighi è costituito dalle le linee guida per i siti web delle pubbliche amministrazioni, pubblicate sul sito web istituzionale del Dipartimento della Funzione Pubblica a ottobre 2012.
Il documento si propone di fornire alle P.A. alcuni criteri per razionalizzare i contenuti online, per eliminare i siti obsoleti, non più utilizzati ma ancora presenti, migliorare quelli attivi, fornire quindi un riferimento da seguire che possa aiutare a definire i livelli minimi di qualità necessari per realizzare un buon sito internet per la P.A. con una una precisa volontà di elevare gli standard qualitativi.
"Una mancata valutazione di tutti gli aspetti che devono essere considerati in tutte le attività collegate ai website istituzionali, oltre ad impedire all'Ente di conseguire gli attesi benefici in termini di efficienza e trasparenza, rappresenta una violazione degli obblighi normativi ed espone l'amministrazione e gli agenti pubblici a sanzioni e responsabilità ".
Con le linee guida il Dipartimento della Funzione Pubblica ha avuto l'ambizione di offrire un supporto progettuale e degli schemi operativi per pianificare un'operazione di adeguamento e razionalizzazione dei contenuti e dei servizi offerti sul web da parte delle P.A. italiane.
Esse sono uno strumento utilissimo, un punto di partenza e un riferimento che mancava e che ora apre una strada nuova dopo anni di ponierismo e pressapochismo.
Alla luce dei recentissimi interventi legislativi, la tesi analizzerà in modo approfondito le indicazioni prescritte dalla normativa vigente, sviluppando il suo studio nel percorrere temi concernenti i “contenuti minimi”, l’”Accessibilità e usabilità”, il “Valore dei contenuti”, i “Servizi”, “Dati pubblici” e “Formati Contenuti aperti”, l’“Amministrazione 2.0” con le opportunità disponibili dei social networking.
Offrendo un quadro sistematico ed aggiornato delle diverse disposizioni in materia, tale ricerca intende fornire elementi e riflessioni possibili per migliorare la qualità dei siti web P.A., sia sotto il profilo dei contenuti offerti che rispetto alle prospettive dell'integrazione di strumentazione web 2.0 e di servizi e-government.
La tesi concluderà la sua trattazione con una ricognizione in linea generale di quanto attualmente ed effettivamente le P.A. italiane stanno mettendo in pratica, in ottemperanza alla prescrizioni vigenti, con uno sguardo ai casi migliori, operazione che è possibile effettuare grazie ad un formidabile strumento automatico, dinamico e dai risultati grafici immediatamente comprensibili.
Si tratta della "Bussola della trasparenza dei Siti Web", messa a disposizione dal Dipartimento della Funzione Pubblica proprio per misurare, valutare la qualita' e verificarne la rispondenza alle "Linee guida dei siti web delle PA" e recentemente alle nuove disposizioni del D.lgs. 33/2013.


Il testo qui riportato è l'introduzione della tesi di Laurea in Scienze dell'Amministrazione Digitale
del Dott.Francesco Addante
Università Unitelma Sapienza
Facoltà di Giurisprudenza, corso di Laurea Triennale in Scienze dell'Amministrazione
A.A. 2012/2013


domenica 16 febbraio 2014

Azienda che apprende o learning organization

Da più di una decina di anni si parla di “gestione della conoscenza” o meglio di knowledge management in ambito aziendale. Le organizzazioni, ormai consapevoli dell’importanza, nella creazione di valore, di un intangibile quale è appunto la conoscenza e il sapere specifico degli individui che ne fanno parte, o della conoscenza che viene prodotta dalle relazioni che l’organizzazione stessa intrattiene con l’ambiente di riferimento, o di quella che arriva dall’analisi e dall’osservazione dei fenomeni e delle dinamiche che avvengono in tale ambiente, si sono attrezzate in vario modo per gestirla. Il valore delle imprese è determinato proprio dalla loro possibilità di restare sul mercato, quindi la gestione della conoscenza nelle organizzazioni è considerata un elemento fondamentale, non tanto per migliorare le “performances individuali e organizzative”, ma soprattutto per far sì che l’organizzazione possa continuare ad esistere in una realtà sempre più complessa, dove appunto domina l’incertezza e la dinamicità.
Oggi le organizzazioni non devono ragionare tanto sul perché bisogna gestire la conoscenza, visto che i dubbi su cosa questo possa significare e comportare sono ampiamente fugati, ma devono spostare l’attenzione sul saper essere un’organizzazione che apprende (Learning Organization), un’organizzazione cioè che sa in quale ambiti muoversi e che sa dove “guardare” per catturare la conoscenza che serve. Per essere una Knowledge Organization, quindi, oggi non è sufficiente intervenire solo con progetti formativi o tecnologici, che rischierebbero, se non opportunamente inquadrati e gestiti, di far fallire l’obiettivo, ma è necessario reinterpretarsi e strutturarsi come un’organizzazione che sa trasformare ogni elemento conoscitivo d’interesse in un’opportunità di crescita diventi allo stesso tempo, scintilla creativa sia per l’organizzazione che per i singoli.
Il Knowledge Management può essere definito come la costruzione, il rinnovamento e l’applicazione della conoscenza finalizzata, in modo sistematico ed esplicito, a massimizzare l’efficacia dell’organizzazione derivante dalla conoscenza stessa e dagli altri asset del capitale intellettuale. Include l’analisi, la sintesi, la verifica e l’implementazione dei cambiamenti correlati ai flussi di conoscenza coerentemente con gli obiettivi dell’organizzazione. Comprende tutte quelle attività necessarie per facilitare il lavoro, direttamente collegato con la conoscenza e non può prescindere dall’acquisizione di una mentalità della gestione degli asset legati alla conoscenza, richiesta per creare, mantenere e utilizzare un capitale intangibile appropriato.

Herbert Spencer affermava che lo scopo dell’educazione è l’azione, non la conoscenza. La vera conoscenza, infatti, è quella che si concretizza in comportamenti, scelte e strategie. In questo gioca un ruolo fondamentale il processo di apprendimento che può essere oltre che personale, anche organizzativo. Così come le persone nell’arco della loro esistenza immagazzinano una certa quota di informazioni, ricavandole dai contesti nei quali si trovano a vivere, e le utilizzano per gestire relazioni, risolvere problemi, affrontare il quotidiano, anche le organizzazioni si evolvono secondo una logica simile. I contesti nei quali, queste ultime, sono inserite forniscono loro un flusso continuo di input che, a seconda di come vengono trattati, si trasformano in conseguenti output. Il processo di trattamento di queste sollecitazioni e la loro riconversione in informazione è quel processo di apprendimento organizzativo che aiuta le organizzazioni a impostare tutte le strategie necessarie, rivolte sia all’interno che all’esterno, per rimanere vive e competitive. L’apprendimento, quindi, diventa organizzativo quando dai singoli, attraverso un processo di socializzazione, passa al gruppo che, a sua volta, lo passa all’organizzazione, in una dinamica di propagazione a circolarità concentrica. La Learning Organization si realizza quando il patrimonio di conoscenze e competenze individuali viene condiviso tra tutti i livelli e le funzioni aziendali, per diventare sapere organizzativo, conoscenza, memoria dell’intera organizzazione.
Obiettivo di un’organizzazione che ambisca a diventare una Learning Organization è favorire l’apprendimento dei singoli, per poterlo poi riutilizzare ai fini organizzativi. E’ un’organizzazione focalizzata a migliorare la comprensione della propria struttura e dei propri processi, a rendere le persone che ne fanno parte responsabili e consapevoli del proprio ruolo. E’ attenta al contesto di riferimento, che ambisce a gestire, attraverso le relazioni che ha con questo, nel modo più fruttuoso possibile e che per riuscirci sviluppa una “cultura di lavoro” in grado di assicurare la necessaria capacità di adattamento e di risposta alle perturbazioni ambientali. E’ un’organizzazione che continuamente trasforma sé stessa e non teme di farlo, ma che anzi vive questa condizione come necessaria per la sua stessa sopravvivenza, con entusiasmo e con la capacità di trasmetterlo ai suoi membri. Connotarsi come Learning Organization è una strategia e un approccio metodologico. Per facilitare un’attività di apprendimento continuo è necessaria una rivisitazione delle strutture organizzative ingessate da rigidi processi gerarchici, nell’ottica di favorire una logica partecipativa.

La Learning Organization raccoglie e produce conoscenza e saperi non attraverso una struttura definita una volta e per tutte, ma attraverso processi tra le strutture, che saranno adattati, di volta in volta, in base alle esigenze emergenti. Con questa impostazione viene superato il modello taylorista-fordista dell’organizzazione del lavoro e l’atteggiamento di conformità passiva alle regole da parte dei membri dell’organizzazione, vissuto in un’ottica meccanicistica e di de-responsabilizzazione dei singoli lavoratori, trattati come “momenti” della catena di montaggio, come una sorta di braccio umano al servizio delle macchine, privati del senso del “ruolo” nell’ambito organizzativo.

Articolo tratto dalla rubrica 'La spir@le della conoscenza'


venerdì 14 febbraio 2014

Oltre la crisi, GFP investe in innovazione e porta la fibra ottica ad Azzano Decimo

Pur in un forte momento di crisi del mercato, GFP ci crede ed investe nuovamente in prima persona in innovazione, portando, in collaborazione con Telecom Italia, la connessione in fibra ottica ad Azzano Decimo nella zona industriale.
Il progetto già completato, consentirà a breve anche ad altre realtà aziendali e a breve ai cittadini di poter usufruire dell’infrastruttura in fibra ottica stesa nel territorio da parte di Telecom Italia.
GFP Grafica Foto Pubblicità srl è una PMI nata oltre 40 anni fa con l’intento di soddisfare le esigenze di comunicazione tradizionale commerciale delle aziende del territorio. Focalizzata sulla stampa di cataloghi, depliant e tutto il materiale commerciale di alta qualità, ma anche alla stampa digitale di manuali tecnici, listini e libri on demand.

GFP è un’azienda fortemente orientata all’innovazione e recentemente ha presentato una serie di servizi di comunicazione digitale sul web: e-commerce, tablet/smartphone, applicazioni, display multitouch dove con il supporto di un gruppo di lavoro dedicato vuole offrire ai propri Clienti una forte integrazione tra carta e web.
L’investimento nella connettività in fibra ottica è stato doveroso per offrire sempre più contenuti a valore aggiunto in un’infrastruttura di connettività solida e facilmente espandibile. Per i Clienti è sempre più imprescindibile avere a disposizione una serie di piattaforme web utili a comunicare e in questo GFP è leader del mercato potendo fornire ai propri Clienti un accesso veloce al trasferimento file, un archivio totalmente digitale consultabile via web dei problemi lavori, una piattaforma di gestione documentale e archiviazione digitale e una delle principali piattaforme integrate di marketing (in collaborazione con Agfa).

Una trasformazione continua e adeguamento alle necessità di una comunicazione che sta cambiando velocemente e dove il settore digitale è oggi il veicolo principale di strategie di marketing.
Oggi, un’azienda può rivolgersi a GFP per costruire tutti i suoi strumenti di comunicazione e misurarli con efficacia usando l’interattività, il web e le piattaforme/prodotti messi a disposizione dal team di sviluppo per tutte le aziende in modo mirato e differenziato.

Per ulteriori approfondimenti:
Fabio Tonini
Ricerca e sviluppo
Cell. 331 1874351
tonini.f@gfp.it

GFP Grafica Foto Pubblicità srl
Via Fiumicino 11
33082 Azzano Decimo (PN)
Tel. 0434 631731
www.gfp.it

mercoledì 12 febbraio 2014

Rassegna completa degli articoli della rubrica ‘La spir@le della conoscenza’ – Info Oggi

È passato quasi un anno dalla nascita della rubrica di approfondimento ‘La spir@le della conoscenza’, che compare con cadenza settimanale sulla testata giornalistica nazionale Info Oggi (www.infooggi.it). Numerosi i temi affrontati, paralleli con le tematiche e gli ambiti di riferimento del blog ‘Economia della conoscenza (ICT & KM)’.
La rubrica “La spir@le della conoscenza”, infatti, si occupa delle dinamiche di gestione della conoscenza (Knowledge Management), legate ai nuovi scenari tecnologici (ICT), il tutto in un'ottica di business e di economia della conoscenza. In particolare, gli argomenti trattati sono: ICT innovation, web 2.0, informatizzazione ed innovazione PA, document management, social business, enterprise 2.0, business intelligence, learning organization.
L’ondata dei cambiamenti provocati dalla rivoluzione informatica ha portato alla convergenza delle nuove comunicazioni, delle nuove possibilità di collaborazione e dei processi di apprendimento.

Le organizzazioni devono essere, quindi, considerate come sistemi aperti in grado di processare le informazioni e le più svariate conoscenze. All’interno del paradigma dell’apprendimento vengono così considerati, in particolar modo, due processi di creazione e di utilizzo delle informazioni: quello esplicito (e quindi codificato o standardizzato) e quello tacito (ossia personalizzato e contestualizzato) .
Nell’organizzazione che apprende (la learning organization, termine con il quale si può indicare qualsiasi ambito all’interno del quale sia possibile creare percorsi di apprendimento, aggiornamento e utilizzo della conoscenza), tutti apprendono, ognuno insegna ed è a sua volta “oggetto” d’insegnamento, ognuno allena ed è a sua volta allenato. L’interazione reciproca dei due tipi di conoscenza (quella esplicita e quella implicita) costituisce la chiave della creazione di nuova conoscenza, ossia la creazione di conoscenza organizzata e organizzativa. L’idea è quella di una “spirale della conoscenza" che integra le due dimensioni della conoscenza, secondo il modello SECI, elaborato dai due “guru” giapponesi della disciplina del Knowledge Management, Nonaka e Takeuchi.

Di seguito la rassegna completa di tutti gli articoli della rubrica:

ANNO 2013:

http://www.infooggi.it/articolo/il-circolo-virtuoso-della-conoscenza/38960/

http://www.infooggi.it/articolo/alla-base-della-conoscenza/39174/

http://www.infooggi.it/articolo/ripartire-dal-mondo-digitale/39449/

http://www.infooggi.it/articolo/documento-vs-documento-elettronico/39810/

http://www.infooggi.it/articolo/il-web-come-strumento-di-evangelizzazione/40256/

http://www.infooggi.it/articolo/definizione-e-realizzazione-di-una-rete-di-cooperazione-del-sistema-paese/40665/

http://www.infooggi.it/articolo/ulteriori-delucidazioni-per-la-richiesta-del-cud-2013-inps-online/40811/

http://www.infooggi.it/articolo/applicazioni-cloud-e-gestione-documentale/41164/

http://www.infooggi.it/articolo/roba-da-information-brokers/41376/

http://www.infooggi.it/articolo/si-avvicina-il-termine-per-la-creazione-e-la-comunicazione-della-pec-per-milioni-di-imprese/41808/

http://www.infooggi.it/articolo/sistemi-integrati-di-content-management/42349/

http://www.infooggi.it/articolo/da-un-apprendimento-integrato-plurilingue-alla-nuova-era-della-conoscenza/42729/

http://www.infooggi.it/articolo/un-festival-per-la-gestione-della-conoscenza/42898/

http://www.infooggi.it/articolo/big-data-vs-open-data/43291/

http://www.infooggi.it/articolo/boom-di-download-degli-open-data-inps/43653/

http://www.infooggi.it/articolo/innovazione-tecnologica-didattica-ed-esigenza-di-formazione-degli-insegnanti/44099/

http://www.infooggi.it/articolo/sintesi-della-xxiv-edizione-del-forum-pa/44177/

http://economia-conoscenza-itc-km.blogspot.it/2013/07/glossario-della-consultazione-per-la.html

http://www.infooggi.it/articolo/consultazione-pubblica-on-line-per-la-riforma-costituzionale/47195/

http://www.infooggi.it/articolo/ultime-inps/47778/

http://www.infooggi.it/articolo/tradizioni-e-fede-come-luoghi-di-conoscenza-e-incontro-attraverso-lo-spirito-del-vangelo/48273/

http://www.infooggi.it/articolo/ecobonus-per-ristrutturare-risparminado/48355/

http://www.infooggi.it/articolo/rateizzazione-cartelle-esattoriali/48663/

http://www.infooggi.it/articolo/sicurezza-dei-dati-on-line/49053/

http://www.infooggi.it/articolo/in-avvio-la-47sima-edizione-della-settimana-sociale-dei-cattolici-italiani/49198/

http://www.infooggi.it/articolo/pa-a-norma-di-cad/49508/

http://www.infooggi.it/articolo/il-fascicolo-sanitario-elettronico-come-strumento-innovativo-del-sistema-sanitario-nazionale/49830/

http://www.infooggi.it/articolo/il-potenziale-dei-dati-interconnessi-per-la-crescita-delle-imprese-e-della-pa/50221/

http://www.infooggi.it/articolo/dal-content-management-al-knowledge-management/51244/

http://www.infooggi.it/articolo/esigenze-di-accessibilita-per-i-siti-isituzionali-della-pa/52754/

http://www.infooggi.it/articolo/la-nuova-nozione-di-identita-culturale/53093/

http://www.infooggi.it/articolo/le-possibilita-offerte-dal-civic-crowdfunding/53223/

http://www.infooggi.it/articolo/una-banca-dedicata-al-tempo/53652/

http://www.infooggi.it/articolo/il-regime-delle-inconferibilita-nella-pa/54119/

http://www.infooggi.it/articolo/una-scuola-tecnologica-ed-inclusiva/55580/

http://www.infooggi.it/articolo/studiare-e-prevenire-catastrofi-naturali-con-applicazioni-web-complesse/54972/

http://www.infooggi.it/articolo/progetto-water-e-utilizzo-delle-nanotecnologie-per-un-adeguato-accesso-all-acqua-pulita/56122/

http://www.economia-conoscenza-itc-km.blogspot.it/2013/12/progetto-water-cnr-e-utilizzo-delle.html

http://www.infooggi.it/articolo/sempre-connessi-nelle-smart-cities/56813/

http://www.infooggi.it/articolo/partecipare-per-semplificare/57172/

http://www.infooggi.it/articolo/i-dati-del-mercato-ict-2013-dal-rapporto-assinform/57444/


ANNO 2014

http://www.infooggi.it/articolo/nuove-procedure-per-il-rinnovo-patente-auto-2014/57842/

http://www.infooggi.it/articolo/un-fondo-come-intervento-pubblico-di-garanzia-sul-credito-alle-pmi-italiane/58432/

http://www.infooggi.it/articolo/influenza-e-prevenzione-interattiva/58951/

http://www.infooggi.it/articolo/un-archivio-digitale-per-la-memoria-artistica-nazionale/59613/

http://www.infooggi.it/articolo/piattaforme-informatiche-sempre-piu-sicure-per-la-pa/60183/


Info e contatti:
mail: rosangela.muscetta13@gmail.com
FB/Linkedin: Rosangela Muscetta
FB: Economia della conoscenza
www.infooggi.it

lunedì 10 febbraio 2014

Piattaforme informatiche sempre più sicure per la PA

Secondo recenti ricerche di aziende di settore, circa l’ottanta per cento degli attacchi informatici si verifica normalmente attraverso il reindirizzamento da siti legittimi, mentre quasi il trenta per cento dei rati informatici è stato collegato al malware Blackhole Exploit Kit., sviluppato attraverso pacchetti di servizi disponibili in rete. Le minacce informatiche evolvono con lo svilupparsi dei fenomeni tecnologici. La forte crescita della mobilità dei dati in ambiente aziendale ha costretto i responsabili delle infrastrutture IT a divenire ancora più flessibili. I computer non protetti sono a rischio di una serie diversificata di potenziali minacce e attacchi malware. Spesso l’esposizione al rischio avviene banalmente, con semplici click su link apparentemente innocui, ma che invece conducono a pagine ‘infettate’.

Le Pubbliche Amministrazioni sono pienamente interessate da questo scenario, con implicazioni che riguardano la sicurezza dei propri sistemi interni, così come dei comportamenti dei suoi addetti e del suo pubblico. Il problema principale è rappresentato dal ‘ramsonware’, un virus che sfruttando possibili bug del browser arriva a carpire i dati presenti sulla macchina di un utente per poi chiedere un riscatto per restituire la password. Normalmente si tratta di piccole somme, ma occorre utilizzare la carta di credito e in questo modo si appropriano anche di questo secondo codice di accesso. Si tratta di virus pericolosi, perché in alcuni casi non è possibile decrittare i dati che sono stati cifrati.
Esistono due tipi di minacce, quelle rivolte ad un target specifico, ma pescano nell’intera rete e quelle mirate verso specifici soggetti. In questo caso, gli attacchi sono portati con strumenti anche essi specifici, spesso tarati sulle caratteristiche del soggetto vittima dell’attacco.

Oggi le PA sono maggiormente preparate a tutto ciò, grazie anche ad una maggiore sensibilità spesso dimostrata dai Responsabili dei sistemi informativi interni ad esse e dalla disponibilità di avvalersi maggiormente di consulenze specialistiche. Oggi l’anello debole risulta essere più che altro l’utente finale: diventa quindi necessaria la sua consapevolezza verso queste tematiche. I sistemi delle organizzazioni possono essere anche ben difesi da queste minacce, ma se si utilizzano device anche fuori di esse, tutto il sistema torna ad essere esposto a rischi e minacce.

Articolo della rubrica 'La spir@le della conoscenza' apparso su Info Oggi del 10/02/2014 [www.infooggi.it]

venerdì 7 febbraio 2014

L'AgiD getta le basi per i pagamenti elettronici verso la PA

L'Agenzia per l'Italia Digitale è impegnata nel portare avanti il progetto che permetterà ai diversi enti di predisporre il sistema per rendere possibile ai cittadini il pagamento online di multe, tributi, iscrizioni scolastiche, ticket sanitario e via dicendo. Agostino Ragosa: "Tutte le PA dovranno adeguarsi entro dicembre 2015»


«Adesso possono partire davvero i pagamenti digitali alla pubblica amministrazione: abbiamo pubblicato le linee guida che indicano le modalità con cui tutte le Pa dovranno adeguarsi, entro dicembre 2015». Agostino Ragosa, direttore dell’Agenzia per l’Italia Digitale, racconta un momento di passaggio importante, per i pagamenti digitali pubblici, e complementare alla transizione in atto verso la fatturazione elettronica.

Le linee guida servono a rendere digitali i pagamenti che arrivano alle Pa dai cittadini; la fatturazione elettronica invece riguarda i pagamenti che le Pa fanno alle aziende. La somma delle due cose sarà l’arma finale per la smaterializzazione di tutto il flusso di denaro a/dalla Pa, quindi.

La digitalizzazione degli incassi della Pa avviene grazie a una piattaforma tecnologica già attiva presso l’Agenzia (Nodo dei Pagamenti-SPC). Da una parte, vi si collegheranno le singole pubbliche amministrazioni tramite il Sistema pubblico di connettività (Spc). Dall’altra, faranno lo stesso gli “enti incassatori” dei pagamenti fatti dai cittadini. Tra questi, hanno già aderito tutte le principali banche, le Poste; sono in procinto di farlo Lottomatica, Sisal, la Banca dei Tabaccai e altri.


Il cittadino quindi si collega al sito della Pa dove deve pagare qualcosa (multe, tributi, iscrizioni scolastiche, ticket sanitario o altro) e trova l’elenco delle opzioni disponibili. Con un clic viene portato sul sito della propria banca dove può scegliere come pagare: con carta di credito o bonifico.

In alternativa, può andare in uno sportello dell’ente incassatore (la sua banca, un tabaccaio…) e pagare con bancomat o carta di credito.

In un modo o nell’altro, il pagamento arriva alla Pa tramite l’ente incassatore, che lo rende immediatamente tracciabile grazie a un’etichetta digitale (IUV - Identificativo Univoco di Versamento). Così la Pa potrà evitare gli errori e gli oneri delle attività di controllo che ora sono fatte manualmente dai dipendenti pubblici.

Il servizio è già funzionante con i pagamenti dei servizi della Giustizia e poi ci sarà un’adesione progressiva e graduale da parte di tutte le Pa. Le amministrazioni ora sono tenute a comunicare all’Agenzia una roadmap di adeguamento, che comunque deve terminare entro dicembre 2015. «Hanno già aderito cinque Regioni: Lombardia, Veneto, Toscana, Emilia Romagna e Liguria. Più il Comune di Ciriè, vicino a Torino.

Arriveranno presto anche i Comuni di Genova e Roma», spiegano dall’Agenzia. «I Comuni tuttavia, per la maggior parte, parteciperanno alla piattaforma attraverso le Regioni, che quindi si collegheranno alla piattaforma facendo poi da intermediarie con il territorio.
Tra i ministeri, invece, si sta per collegare il Miur per consentire pagamenti scolastici elettronici, i Beni Culturali per i biglietti dei musei, gli Affari Esteri per pagare permessi, soggiorni; il Mise per le concessioni e le autorizzazioni. In arrivo anche l’Agenzia del farmaco e la Sanità».

La piattaforma è stata sviluppata presso l’Agenzia, grazie a fornitori già selezionati con precedenti contratti e su infrastrutture esistenti. «Ora stiamo studiando con Banca d’Italia il modo per potenziarla».

I vantaggi che ne derivano sono numerosi: possibilità, per i cittadini, di pagare tutti i servizi con moneta elettronica; minori costi di gestione e maggiore tracciabilità delle transazioni. Infine, «affidandosi alla piattaforma, le Pa potranno adeguarsi automaticamente agli standard europei Sepa per i pagamenti, che valgono dal primo febbraio. Senza la nostra piattaforma, avrebbero dovuto subire gli oneri dell’adeguamento», spiega Ragosa.


http://www.ict4executive.it/executive/approfondimenti/l-agid-getta-le-basi-per-i-pagamenti-elettronici-verso-la-pa_43672152480.htm

lunedì 3 febbraio 2014

L'agenda dell'innovazione (Febbraio 2014)

GESTIONE STRATEGICA DELL'INNOVAZIONE DIGITALE
Presentazione corso: 6 Febbraio 2014 alle ore 18.00
Sede MIP di via Lambruschini 4C, a Milano (Campus Bovisa).


La nuova edizione del Percorso Executive in Gestione Strategica dell’Innovazione Digitale, realizzata da MIP Politecnico di Milano in collaborazione con Cefriel, inizierà a Marzo.
Obiettivo del corso è fornire una visione strategica del ruolo delle tecnologie digitali che permetta di sfruttare le opportunità di innovazione che derivano dalle nuove tecnologie per rilanciare la competitività dell’impresa.
La presentazione del percorso avrà luogo Giovedì 6 Febbraio 2014 alle ore 18.00 presso la sede MIP di via Lambruschini 4C, a Milano (Campus Bovisa).

Per conoscere il programma del corso e registrarsi: www.mip.polimi.it/executive/ict

La deadline per presentare la domanda di ammissione è il 20 Febbraio 2014.



IL CLOUD SU MISURA PER I CLIENTI ICT
MILANO Grand Hotel Villa Torretta - Salone di Corte
Via Milanese 3 - Sesto San Giovanni (MI)
12 Febbraio


Organizzato da Computer Gross e da Microsoft .

Temi di discussione:
•Rispondere alle esigenze degli smart workers e delle Pmi ai tempi del cloud e del software as a service
•Microsoft: Office 365 e l'ufficio nel cloud
•Offrire servizi di hosting con la piattaforma Microsoft: il programma SPLA, i servizi, i vantaggi, le opportunità
•Computer Gross: Costruire valore per il canale tra le nuvole. Strumenti, servizi, vantaggi. Il caso del programma Arcipelago: costruire business e margini sulla nuova filiera del cloud aggiungendo servizi e valore a soluzioni come Office 365

Informazioni: www.soiel.it







Un archivio digitale per conservazione della memoria artistica nazionale


L’Associazione ArtArchivio’900 di Roma ha come obiettivo quello di creare il primo Centro di Documentazione Bio-bibliografica relativa alla produzione artistica del XIX e XX secolo in Italia. A questo scopo, dopo anni di studio e di ricerche, ha costituito una banca dati dedicata, in particolare, a studenti, operatori professionali, storici e critici dell’Arte, che, attraverso la consultazione di testi e sistemi informatici, possono ottenere un ampio ventaglio di notizie e informazioni.
La raccolta è composta da una Biblioteca specialistica sulle arti visive italiane dell’800 e '900, costituita da oltre 5.000 testi (si tratta di cataloghi di mostre personali e collettive, monografie di artisti italiani, dizionari artistici, saggi, brochure, guide di musei, cataloghi di aste, periodici e rarissime pubblicazioni originali in ottimo stato di conservazione), un Archivio analitico impostato su circa 14.500 voci, reperibili anche in formato elettronico, ognuna delle quali è composta da un dossier bibliografico relativo all'attività di pittori, scultori, illustratori, ceramisti, incisori, artisti del vetro, scenografi, architetti nati tra il 1830 e il 1930, attivi anche nelle cosiddette "arti minori" e sui quali oggi è spesso difficile reperire informazioni.

Ad integrazione di questo già vasto nucleo, si è formato un archivio-dizionario sulle donne artiste che hanno operato in Italia, molte delle quali escluse da studi e/o repertori relativi al periodo trattato e nell'ottica di una futura pubblicazione, si è formato un archivio-dizionario sulla storia dei Gruppi e dei Movimenti delle Avanguardie storiche italiane nonché un ulteriore un archivio-dizionario sui fotografi che hanno operato in Italia dagli esordi della fotografia fino alla prima metà del Novecento.
Di grande rilevanza, allo stesso tempo è la Raccolta miscellanea composta da oltre 400 documenti originali, inerenti ad artisti presenti nell’archivio (come lettere autografe, appunti, quaderni, disegni, lavori grafici, progetti, attestati, tessere personali, inviti e carte intestate) e il Fondo di circa 4.000 foto tratte da archivi fotografici di due note riviste d'Arte e da una collezione di foto e cartoline d'epoca, anche di prestigiose firme, che testimoniano sia l'ambiente politico-sociale che l'espressione artistica del periodo storico documentato.
Artarchivio ‘900 rappresenta, insomma, con la sua banca-dati, corredata da innumerevoli immagini, la storia dell’Arte italiana dalla metà dell’Ottocento alla metà del Novecento, con un excursus sull’Arte contemporanea più recente.
Le sue potenzialità sono molteplici, perché molteplici sono gli interessi, anche internazionali, che ruotano attorno alla riqualificazione del territorio e alla ricchezza del patrimonio artistico e monumentale italiano.
Il progetto dell’archivio digitale di arti visive sul portale di riferimento (www. artarchivio.com) rappresenta “un luogo virtuale d’interesse artistico” per rilanciare l’attenzione che merita il rapporto artista-territorio. Con la costituzione e l’utilizzo di un archivio digitale, le relative schede biografiche e fotografiche, si potranno, infatti, valorizzare i differenti Territori e Culture attraverso il connubio dei vari elementi, quali: Artista – Luogo di nascita – Luogo di lavoro – Opere.

Ciò si tradurrà, coinvolgendo attraverso la rete tutti gli appassionati, nella diffusione di Tour qualificati “tutto compreso” (viaggi, musei, cataloghi, alberghi, ristoranti ecc..), abbinati a grandi mostre, con la relativa partecipazione di Enti locali, Musei ed altri partner interessati.
Inoltre, rapporti con Regioni, Province, Comuni, Istituzioni, Musei, Università, Fondazioni, Istituti di Cultura e Gallerie dovranno costituire i canali privilegiati di Artarchivio‘900, per eventuali iniziative o collaborazioni volte alla riqualificazione e valorizzazione del Territorio e per il rilevante indotto che tutto questo può creare.
Artarchivio ‘900, ha come obiettivo quello di tradursi in breve tempo in uno strumento di comunicazione culturale che può contribuire a sostenere l’Economia e promuovere le opportunità presenti nel territorio con l’obiettivo anche di attrarre nuovi investimenti. Il portale , allo stesso tempo, con i suoi 200.000 contatti previsti all’anno potrà avviare eventuali “operazioni co-brand”.

Per divulgare i contenuti dell’Artarchivio‘900 verranno presto posti in rete gli elenchi completi di tutti i testi, biografie e cataloghi, che si inseriranno nelle varie reti istituzionali dell'Unione Europea.
Si realizzeranno brevi filmati audio-video, anche da destinare alle scuole, con rassegne delle opere, dei luoghi, dei monumenti e delle architetture più significative del periodo trattato.
L’archivio digitale di Artarchivio ‘900 con il suo ricco materiale, potrà fornire informazioni, anche sintetiche, su nomi, opere, architetture o immagini , molte delle quali inedite per i contenuti, a nuovi progetti di mappatura e valorizzazione storico-artistica dei luoghi.
Tali dati, potranno essere utili ad un sempre più “Turismo Culturale” e facilmente fruibili attraverso progetti specifici di comunicazione del territorio, ad esempio attraverso le moderne tecnologie App via smartphone e Wi-fi.

Ulteriori informazioni: www.artarchivio.it
Mail: info@artarchivio.com