I progetti che riguardano direttamente le Smart Cities hanno come punto fondamentale sia lo sviluppo del servizio WiFi che la disponibilità degli hotspot pubblici ed il loro utilizzo. In questo nuovo scenario di connettività, Guglielmo considera il Data Offloading il punto fondamentale ed allo stesso tempo indispensabile per l’accesso a internet del cittadino. La tecnologia è stata sviluppata per ‘scaricar’ le reti mobili degli operatori su rete WiFi, evitando così la congestione della rete attraverso l’utilizzo dei normali dispositivi mobili, come smartphone e tablet.
Questa modalità può essere normalmente applicata anche alle reti WiFi urbane, realizzate nell’ambito dei progetti Smart Cities. Per poter accedere l’utente deve effettuare un’autenticazione a dir poco complessa, per via dei campi da dover riempire che per l’utilizzo di eccessiva pubblicità invasiva. Il modo più efficace per autenticare un utente è attraverso la propria SIM e proprio per questo motivo è stata sviluppata dal motore di ricerca Guglielmo l’app BabelTEN, disponibile su Google Play per Smartphone e Tablet Android.
L’applicazione utilizza un algoritmo proprietario in grado di codificare i dati della SIM dell’utente, garantendo al cittadino di essere ‘ABC’ (Always Best Connected). Il Data Offloading è l’unico modo per rendere il WiFi uno strumento realmente complementare alle reti mobili e, allo stesso tempo, può essere molto utile per contribuire al suo sviluppo nella PA.
Autenticazione su base SIM, misurazione in tempo reale su entrambe le interfacce per riconoscere la migliore connessione disponibile, approccio Make – Before – Break per la continuità del servizio, ottimizzazione del processo di autenticazione sono alcune delle caratteristiche che rendono l’app di fondamentale utilizzo nelle future Smart Cities.
Blog che si occupa delle dinamiche di gestione della conoscenza, legate ai nuovi scenari tecnologici (ICT). In particolare, gli argomenti trattati sono: innovazione della PA, innovazione dei processi didattici e di apprendimento, gestione della conoscenza aziendale, document management, knowledge management, information sharing.
venerdì 27 dicembre 2013
martedì 24 dicembre 2013
Buone feste...
Il Blog 'Economia della conoscenza (ICT & KM)' augura a tutti delle serene festività natalizie e un buon 2014, ricco di novità e voglia di (r)innovare ogni ambito della nostra vita...
martedì 17 dicembre 2013
Progetto Water (CNR) e utilizzo delle nanotecnologie per garantire un adeguato accesso all'acqua pulita
Il crescente ed incessante bisogno di accesso ad acqua pulita da parte di un numero sempre maggiore di individui nel mondo, la continua ricerca di soluzioni innovative a basso costo e con ridotti consumi di energia nei sistemi di filtrazione dell'acqua ed, infine, le grandi potenzialità delle nanotecnologie in questo settore, rappresentano i riferimenti ispiratori del progetto WATER (Winning Applications of nanoTEchnology for Resolutive hydropurification) coordinato dall'Istituto di Microelettronica e Microsistemi (IMM) del Consiglio Nazionale delle Ricerche (CNR) che opera presso il Dipartimento di Fisica dell'Università di Catania, centro di ricerca già affermato e riconosciuto a livello internazionale come centro di eccellenza nell’ambito delle nanotecnologie.
WATER è stato approvato e finanziato con 4 milioni di euro dalla Commissione Europea nell’ambito del 7° Programma Quadro per la ricerca e lo sviluppo tecnologico. A testimonianza della qualità dell'unità di ricerca catanese, il gruppo di ricerca proponente è stato giudicato eccellente nel campo delle nanotecnologie, facendo classificare WATER al nono posto su oltre 200 progetti che avevano superato la soglia di punteggio di 10/15, ed unico, tra i primi 21 ammessi a finanziamento, ad avere un capofila italiano.
In tutto il mondo circa 1.2 miliardi di persone non hanno un adeguato accesso all’acqua pulita. Le nanotecnologie hanno mostrato grandi potenzialità nel migliorare la filtrazione dell’acqua a basso costo e con ridotti consumi di energia. Queste sono le principali motivazioni alla base del progetto che, forte delle locali capacità ed esperienze nel campo delle nanotecnologie sviluppate all’interno del CNR, mira a sviluppare nuove applicazioni, attirando l’interesse d’industrie e nuovi investitori. Si prevede l'ampliamento delle esistenti infrastrutture di ricerca; lo scambio di conoscenze e personale con i partner europei e locali, al fine di studiare queste nuove applicazioni delle nanotecnologie e aumentare le opportunità di collaborazione; il miglioramento delle locali capacità manageriali; azioni innovative di divulgazione mirate sia al mondo scientifico che al grande pubblico; lo sviluppo di un piano strategico per la gestione delle proprietà intellettuali. Lo sviluppo di una tecnologia avanzata basata sull'utilizzo di nanomateriali da impiegare in dispositivi per la purificazione dell'acqua che possano produrre un impatto sull'economia, sulla società e sull’ambiente attraverso l’innovazione tecnologica; il rafforzamento del potenziale di ricerca del CNR per sviluppare una solida strategia di ricerca a lungo termine sulle applicazioni delle nanotecnologie; l’aumento della visibilità del CNR all'interno dell'area di ricerca europea.
Il territorio gioca un’importante ruolo all’interno del progetto, che si propone di dare un contributo al sostentamento ed allo sviluppo dell'economia della Sicilia Ionica, tramite la ricerca, lo sviluppo ed il successivo trasferimento tecnologico di nanotecnologie avanzate per la filtrazione dell'acqua su scala industriale. I materiali nanostrutturati, ad esempio gli ossidi metallici nanostrutturati, i nano-tubi di carbonio ed il grafene, intervengono nella purificazione dell’acqua attraverso processi chimico-fisici in grado di provocare l’abbattimento delle componenti batteriche, delle sostanze organiche e delle particelle tossiche. Tali nanotecnologie miglioreranno la qualità sia dell'acqua marina, attraverso la filtrazione delle acque reflue che si riversano in mare, che di quella potabile, apportando quindi un impatto importante in un'area che soffre di una cronica scarsità d'acqua.
In aggiunta sono state pianificate molteplici iniziative finalizzate all'accrescimento delle professionalità locali, al rafforzamento dell'impatto economico e sociale del CNR sul territorio, ad attuare una profonda integrazione/visibilità europea del gruppo proponente e ad instaurare una produttiva collaborazione con gli enti locali ed il tessuto economico produttivo.
Il progetto WATER si avvale del supporto di prestigiosi partner industriali, accademici ed enti di ricerca presenti nel panorama nazionale ed europeo. I partner industriali sono: ATLAS Filtri (Italia) e New Ecotecnica Sud (Italia). Tra i partner accademici ed enti di ricerca sono presenti: Università di Oslo, Centro per la Scienza dei Materiali e la Nanotecnologia (Norvegia); Università di Sheffield, Gruppo Pennine Water (UK); Università di Catania, Centro per l’Aggiornamento delle Professioni, per l’Innovazione ed il Trasferimento Tecnologico (Italia); Centro Nazionale della Ricerca Scientifica, Centro di Elaborazione dei Materiali e degli Studi Strutturali (Francia); Consiglio Superiore di Ricerca Scientifica, Istituto Pireneo di Ecologia (Spagna); Istituto di ricerca per le tecnologie sull’acqua e le acque reflue Versuchs-und Lehranstalt für Brauerei in Berlin (Germania). Sono inoltre presenti tra i partner i seguenti enti locali: Comune di Aci Castello (Italia) e Area Marina Protetta delle Isole dei Ciclopi (Italia).
Si auspica che tali tecnologie possano migliorare realmente la qualità sia dell’acqua marina, attraverso la filtrazione delle acque reflue che si riversano in mare, che di quella potabile, apportando quindi un impatto importante in un’area che soffre di scarsità d’acqua, affermando, allo stesso tempo, una visione e una strategia a lungo termine in un contesto comune scientifico e sociale.
Per maggiori informazioni:
www.water.imm.cnr.it
WATER è stato approvato e finanziato con 4 milioni di euro dalla Commissione Europea nell’ambito del 7° Programma Quadro per la ricerca e lo sviluppo tecnologico. A testimonianza della qualità dell'unità di ricerca catanese, il gruppo di ricerca proponente è stato giudicato eccellente nel campo delle nanotecnologie, facendo classificare WATER al nono posto su oltre 200 progetti che avevano superato la soglia di punteggio di 10/15, ed unico, tra i primi 21 ammessi a finanziamento, ad avere un capofila italiano.
In tutto il mondo circa 1.2 miliardi di persone non hanno un adeguato accesso all’acqua pulita. Le nanotecnologie hanno mostrato grandi potenzialità nel migliorare la filtrazione dell’acqua a basso costo e con ridotti consumi di energia. Queste sono le principali motivazioni alla base del progetto che, forte delle locali capacità ed esperienze nel campo delle nanotecnologie sviluppate all’interno del CNR, mira a sviluppare nuove applicazioni, attirando l’interesse d’industrie e nuovi investitori. Si prevede l'ampliamento delle esistenti infrastrutture di ricerca; lo scambio di conoscenze e personale con i partner europei e locali, al fine di studiare queste nuove applicazioni delle nanotecnologie e aumentare le opportunità di collaborazione; il miglioramento delle locali capacità manageriali; azioni innovative di divulgazione mirate sia al mondo scientifico che al grande pubblico; lo sviluppo di un piano strategico per la gestione delle proprietà intellettuali. Lo sviluppo di una tecnologia avanzata basata sull'utilizzo di nanomateriali da impiegare in dispositivi per la purificazione dell'acqua che possano produrre un impatto sull'economia, sulla società e sull’ambiente attraverso l’innovazione tecnologica; il rafforzamento del potenziale di ricerca del CNR per sviluppare una solida strategia di ricerca a lungo termine sulle applicazioni delle nanotecnologie; l’aumento della visibilità del CNR all'interno dell'area di ricerca europea.
Il territorio gioca un’importante ruolo all’interno del progetto, che si propone di dare un contributo al sostentamento ed allo sviluppo dell'economia della Sicilia Ionica, tramite la ricerca, lo sviluppo ed il successivo trasferimento tecnologico di nanotecnologie avanzate per la filtrazione dell'acqua su scala industriale. I materiali nanostrutturati, ad esempio gli ossidi metallici nanostrutturati, i nano-tubi di carbonio ed il grafene, intervengono nella purificazione dell’acqua attraverso processi chimico-fisici in grado di provocare l’abbattimento delle componenti batteriche, delle sostanze organiche e delle particelle tossiche. Tali nanotecnologie miglioreranno la qualità sia dell'acqua marina, attraverso la filtrazione delle acque reflue che si riversano in mare, che di quella potabile, apportando quindi un impatto importante in un'area che soffre di una cronica scarsità d'acqua.
In aggiunta sono state pianificate molteplici iniziative finalizzate all'accrescimento delle professionalità locali, al rafforzamento dell'impatto economico e sociale del CNR sul territorio, ad attuare una profonda integrazione/visibilità europea del gruppo proponente e ad instaurare una produttiva collaborazione con gli enti locali ed il tessuto economico produttivo.
Il progetto WATER si avvale del supporto di prestigiosi partner industriali, accademici ed enti di ricerca presenti nel panorama nazionale ed europeo. I partner industriali sono: ATLAS Filtri (Italia) e New Ecotecnica Sud (Italia). Tra i partner accademici ed enti di ricerca sono presenti: Università di Oslo, Centro per la Scienza dei Materiali e la Nanotecnologia (Norvegia); Università di Sheffield, Gruppo Pennine Water (UK); Università di Catania, Centro per l’Aggiornamento delle Professioni, per l’Innovazione ed il Trasferimento Tecnologico (Italia); Centro Nazionale della Ricerca Scientifica, Centro di Elaborazione dei Materiali e degli Studi Strutturali (Francia); Consiglio Superiore di Ricerca Scientifica, Istituto Pireneo di Ecologia (Spagna); Istituto di ricerca per le tecnologie sull’acqua e le acque reflue Versuchs-und Lehranstalt für Brauerei in Berlin (Germania). Sono inoltre presenti tra i partner i seguenti enti locali: Comune di Aci Castello (Italia) e Area Marina Protetta delle Isole dei Ciclopi (Italia).
Si auspica che tali tecnologie possano migliorare realmente la qualità sia dell’acqua marina, attraverso la filtrazione delle acque reflue che si riversano in mare, che di quella potabile, apportando quindi un impatto importante in un’area che soffre di scarsità d’acqua, affermando, allo stesso tempo, una visione e una strategia a lungo termine in un contesto comune scientifico e sociale.
Per maggiori informazioni:
www.water.imm.cnr.it
sabato 14 dicembre 2013
Nasce Comuncare.PA: il portale dedicato all'innovazione della Pubblica Amministrazione
Nasce ComunicarePa.it, il portale web dedicato alla Pubblica amministrazione e realizzato da giornalisti, comunicatori, esperti di tematiche del settore.
Una comunità di professionisti che lavora e ha lavorato nelle pubbliche amministrazioni italiane e che è convinta che la PA non sia un monolitico ed elefantiaco apparato, ma soprattutto un sistema di servizi pubblici rivolti a cittadini e imprese, formato da alte professionalità preziose per la crescita del Paese, ma che subiscono spesso l'onta di pregiudizi diffusi,alimentati da una dialettica politica ridondante e populista.
ComunicarePa si rivolge agli stessi attori che vivono e lavorano nella Pubblica amministrazione, ma anche ai cittadini che vogliono saperne di più, aiutandoli a comprenderne i meccanismi ed a cogliere le opportunità che offre, contribuendo all'evoluzione di un sistema pubblico efficiente, efficace e innovativo.
Il sito web, raggiungibile agli indirizzi www.comunicarepa.it e www.comunicarepa.com, è aggiornato quotidianamente con informazioni e notizie sui Comuni, le Regioni i Ministeri, le Aziende sanitarie provinciali e tutti gli enti che fanno parte della PA; è organizzato in aree tematiche, con sezioni dedicate alle normative che riguardano i servizi al cittadino e, in particolare, quelle che si occupano di informazione, comunicazione, trasparenza, bandi e gare. Grande spazio viene riservato, inoltre, ai temi che riguardano l’Itc - Information and communication technologies, alle professioni, alla formazione, alle aziende ed al marketing collegato alla pubblica amministrazione,.
È prevista anche una sezione interattiva: “I vostri quesiti” e “mobilità tra enti”, servizi online attraverso i quali sarà possibile porre domande a esperti e segnalare richieste di mobilità; prossimamente verranno anche attivati i forum tematici e la newsletter.
Nella sezione “Best practices” avranno posto le eccellenze del settore, che verranno stimate dalla redazione o segnalate direttamente dagli utentidel sito, con l'obiettivo di creare un archivio esaustivo delle migliori esperienze in materia di processi amministrativi, progettazione e operatività.
Nella mission del gruppo di ComunicarePa si legge: “Dopo l’approvazione della legge 150/2000 che disciplina le attività di informazione e comunicazione nelle Pubbliche amministrazioni, tra i professionisti della comunicazione e dell’informazione si è radicata e diffusa la consapevolezza che la “cultura della comunicazione” deve essere posta
alla base di tutti i processi di innovazione. Ne siamo consapevoli noi di “ComunicarePa”: giornalisti e comunicatori, responsabili di URP e dirigenti della comunicazione, esperti di comunicazione di impresa e marketing, che abbiamo deciso di dedicare un po’ del nostro tempo libero per condividere esperienze, raccontare best practices, informare sulle novità delle PA, dialogare sui temi di comune interesse.
ComunicarePa vuole dunque cercare di rispondere e segnalare gli strumenti per affrontare le sfide poste dalle nuove tecnologie e dai nuovi obiettivi che si prefiggono comunicatori e innovatori della PA, in un contesto in cui si
amplia il numero dei canali multimediali utilizzati, evolvono i bisogni comunicativi degli utenti/cittadini/clienti e le loro aspettative circa la qualità dei servizi”.
Una comunità di professionisti che lavora e ha lavorato nelle pubbliche amministrazioni italiane e che è convinta che la PA non sia un monolitico ed elefantiaco apparato, ma soprattutto un sistema di servizi pubblici rivolti a cittadini e imprese, formato da alte professionalità preziose per la crescita del Paese, ma che subiscono spesso l'onta di pregiudizi diffusi,alimentati da una dialettica politica ridondante e populista.
ComunicarePa si rivolge agli stessi attori che vivono e lavorano nella Pubblica amministrazione, ma anche ai cittadini che vogliono saperne di più, aiutandoli a comprenderne i meccanismi ed a cogliere le opportunità che offre, contribuendo all'evoluzione di un sistema pubblico efficiente, efficace e innovativo.
Il sito web, raggiungibile agli indirizzi www.comunicarepa.it e www.comunicarepa.com, è aggiornato quotidianamente con informazioni e notizie sui Comuni, le Regioni i Ministeri, le Aziende sanitarie provinciali e tutti gli enti che fanno parte della PA; è organizzato in aree tematiche, con sezioni dedicate alle normative che riguardano i servizi al cittadino e, in particolare, quelle che si occupano di informazione, comunicazione, trasparenza, bandi e gare. Grande spazio viene riservato, inoltre, ai temi che riguardano l’Itc - Information and communication technologies, alle professioni, alla formazione, alle aziende ed al marketing collegato alla pubblica amministrazione,.
È prevista anche una sezione interattiva: “I vostri quesiti” e “mobilità tra enti”, servizi online attraverso i quali sarà possibile porre domande a esperti e segnalare richieste di mobilità; prossimamente verranno anche attivati i forum tematici e la newsletter.
Nella sezione “Best practices” avranno posto le eccellenze del settore, che verranno stimate dalla redazione o segnalate direttamente dagli utentidel sito, con l'obiettivo di creare un archivio esaustivo delle migliori esperienze in materia di processi amministrativi, progettazione e operatività.
Nella mission del gruppo di ComunicarePa si legge: “Dopo l’approvazione della legge 150/2000 che disciplina le attività di informazione e comunicazione nelle Pubbliche amministrazioni, tra i professionisti della comunicazione e dell’informazione si è radicata e diffusa la consapevolezza che la “cultura della comunicazione” deve essere posta
alla base di tutti i processi di innovazione. Ne siamo consapevoli noi di “ComunicarePa”: giornalisti e comunicatori, responsabili di URP e dirigenti della comunicazione, esperti di comunicazione di impresa e marketing, che abbiamo deciso di dedicare un po’ del nostro tempo libero per condividere esperienze, raccontare best practices, informare sulle novità delle PA, dialogare sui temi di comune interesse.
ComunicarePa vuole dunque cercare di rispondere e segnalare gli strumenti per affrontare le sfide poste dalle nuove tecnologie e dai nuovi obiettivi che si prefiggono comunicatori e innovatori della PA, in un contesto in cui si
amplia il numero dei canali multimediali utilizzati, evolvono i bisogni comunicativi degli utenti/cittadini/clienti e le loro aspettative circa la qualità dei servizi”.
martedì 10 dicembre 2013
Una scuola tecnologica ed inclusiva
Le persone affette da Disturbi Specifici dell’Apprendimento (DSA) e Bisogni Educativi Specifici (BES) presentano numerose difficoltà nel loro percorso scolastico con effetti che, se non diagnosticati tempestivamente e non affrontati nel modo più adeguato, possono causare scarsa fiducia in sé stessi e bassa motivazione, fino a determinare situazioni critiche a livello psicologico.
Ecco perché diventa essenziale evitare in tutti i modi che l’esperienza scolastica venga vissuta negativamente, cercando di riconoscere precocemente i campanelli di allarme per poter intervenire al più presto. Oramai negli ultimi tempi la presenza in classe di alunni con DSA/BES non dovrebbe quasi più trovare impreparati insegnanti e famiglie, tuttavia restano ancora molti aspetti da approfondire. Ciò che diventa particolarmente necessaria è l’introduzione nella quotidianità scolastica, ora per ora, disciplina per disciplina, di adeguamenti metodologici efficaci che sono possibili solo laddove operano persone in possesso di un’adeguata formazione e di una solida cultura a cui attingere con padronanza. Molto importante è sicuramente l’apprendimento delle lingue straniere, come ribadito fortemente dal Consiglio di Lisbona nel 2002, poiché è ormai acquisito quanto il plurilinguismo favorisca la plasticità nel processo di costruzione della conoscenza. Tali processi però costituiscono una delle maggiori difficoltà che possono incontrare gli studenti con DSA.
Le nuove tecnologie sono senz’altro di aiuto, soprattutto per quanto concerne l’utilizzo di strumenti compensativi. L’uso della LIM, come il Tablet o l’e-book, con la presentazione grafica dell’informazione è di sicura efficacia, ma gli strumenti compensativi e dispensativi oramai riconosciuti anche per legge, non sono esaustivi e non si risolve tutto così. Particolare importanza riveste l’ambiente di apprendimento che si crea e le qualità personali dell’insegnante, quali la flessibilità, l’entusiasmi, la motivazione. Non è infatti sufficiente che l’insegnante sia solo dotto di competenze e conoscenze didattiche e linguistiche. Inoltre, è opportuno parlare di approccio metodologico, anziché di metodo, prendendo quanto di buono e valido ciascun metodo possa offrire. Un insegnamento efficace deve perciò essere a sua volta flessibile non rigidamente legato ad un metodo, ma riferito ad un’ampia gamma di metodologie (activity-based approach, audiovisual aids, storytelling, task-base approach, Total Physical Response, ecc.) di cui utilizzare le tecniche e strumenti da adattare alle esigenze e situazioni didattiche che si presentano, ai differenti stili e ritmi di apprendimento e, naturalmente, ai differenti contesti di riferimento.
Ecco perché diventa essenziale evitare in tutti i modi che l’esperienza scolastica venga vissuta negativamente, cercando di riconoscere precocemente i campanelli di allarme per poter intervenire al più presto. Oramai negli ultimi tempi la presenza in classe di alunni con DSA/BES non dovrebbe quasi più trovare impreparati insegnanti e famiglie, tuttavia restano ancora molti aspetti da approfondire. Ciò che diventa particolarmente necessaria è l’introduzione nella quotidianità scolastica, ora per ora, disciplina per disciplina, di adeguamenti metodologici efficaci che sono possibili solo laddove operano persone in possesso di un’adeguata formazione e di una solida cultura a cui attingere con padronanza. Molto importante è sicuramente l’apprendimento delle lingue straniere, come ribadito fortemente dal Consiglio di Lisbona nel 2002, poiché è ormai acquisito quanto il plurilinguismo favorisca la plasticità nel processo di costruzione della conoscenza. Tali processi però costituiscono una delle maggiori difficoltà che possono incontrare gli studenti con DSA.
Le nuove tecnologie sono senz’altro di aiuto, soprattutto per quanto concerne l’utilizzo di strumenti compensativi. L’uso della LIM, come il Tablet o l’e-book, con la presentazione grafica dell’informazione è di sicura efficacia, ma gli strumenti compensativi e dispensativi oramai riconosciuti anche per legge, non sono esaustivi e non si risolve tutto così. Particolare importanza riveste l’ambiente di apprendimento che si crea e le qualità personali dell’insegnante, quali la flessibilità, l’entusiasmi, la motivazione. Non è infatti sufficiente che l’insegnante sia solo dotto di competenze e conoscenze didattiche e linguistiche. Inoltre, è opportuno parlare di approccio metodologico, anziché di metodo, prendendo quanto di buono e valido ciascun metodo possa offrire. Un insegnamento efficace deve perciò essere a sua volta flessibile non rigidamente legato ad un metodo, ma riferito ad un’ampia gamma di metodologie (activity-based approach, audiovisual aids, storytelling, task-base approach, Total Physical Response, ecc.) di cui utilizzare le tecniche e strumenti da adattare alle esigenze e situazioni didattiche che si presentano, ai differenti stili e ritmi di apprendimento e, naturalmente, ai differenti contesti di riferimento.
martedì 3 dicembre 2013
Studiare e prevenire catastrofi naturali con applicazioni web complesse
La successione di eventi, progetti, idee e figure di spicco che, nel corso di trenta anni, hanno portato alla nascita di Internet ed alla sua evoluzione nella forma attuale, rappresenta un capitolo estremamente affascinante, ma anche inconsueto, nella storia dello sviluppo tecnologico. Parte del fascino è legato al ruolo determinante che questa tecnologia ha svolto e sta ancora svolgendo nella cosiddetta ‘rivoluzione digitale’. Proprio la diffusione di internet e dei suoi servizi ha fortemente influenzato l’idea di poter realizzare applicazioni paragonabili a quelle desktop classiche in termini di efficienza e di semplicità d’utilizzo, ma fruibili solo attraverso un browser web.
Seppur inizialmente i risultati ottenuti sono stati deludenti, con il passare degli anni è avvenuta una vera e propria rivoluzione grazie all’affermazione di nuove tecnologie e modelli di sviluppo che hanno permesso alle applicazioni web di eguagliare (e in alcuni casi di superare) le applicazioni desktop classiche in termini di efficienza, velocità e facilità d’uso.
Un esempio rilevante sono le applicazioni Google, (come Gmail, Google Docs e Google Maps), che hanno alla base una particolare tecnologia, detta GWT (Google Web Toolkit), su cui la compagnia ha iniziato ad investire molti anni fa.
Tutto questo ha notevolmente alterato il modo di percepire ed utilizzare il web che, da strumento di comunicazione passivo, si è trasformato in una realtà estremamente dinamica, dove l’utente può essere protagonista e fruire di servizi (applicazioni), prima di dominio esclusivo degli ambienti desktop. Grazie a GWT, infatti, è possibile scrivere applicazioni AJAX (Asynchronous JavaScript and XML) tanto complesse quanto veloci, mantenendo allo stesso tempo una fortissima compatibilità verso gli standard web. Indubbiamente AJAX rappresenta la tecnologia che ha suscitato il cambiamento più netto rispetto al passato. Bisogna tener conto però non può definirsi semplicemente una ‘tecnologia’, ma sarebbe più corretto dire che si tratta di un insieme di ‘tecnologie’: un uso ‘anomalo’ insomma, eppure legittimo, di linguaggi di scripting (XML, HTML, CSS) sulla base del protocollo ‘http’, nel paradigma dell’interazione Client-Server.
Tuttavia, sebbene vi sia stata una rapida crescita del numero di applicazioni web basate su GWT, si può asserire che non si sono ancora affermate specifiche applicazioni web per il calcolo e la modellistica scientifica. La simulazione di fenomeni geologici (come le colate di lava, di detriti, i flussi piroclastici, gli incendi boschivi, ecc.), ad esempio, rappresenta un campo di crescente interesse da parte della Comunità Scientifica Internazionale. Dal punto di vista teorico, la modellizzazione e la simulazione di un fenomeno possono evidenziare quali siano gli aspetti più importanti che ne regolano la dinamica, mentre dal punto di vista pratico, è possibile, ad esempio, definire mappe di suscettibilità e valutare gli effetti di opere per la mitigazione del rischio.
Un’importante web application in ambiente GWT per la visualizzazione interattiva e l’analisi specifica di mappe di rischio di colate laviche si chiama SWII-MAPS (Sciara Web Interactive Interface Maps), che rappresenta il primo esempio di utilizzo proprio del framework GWT nel contesto del calcolo e della modellistica scientifica.
SWII- MAPS consente l’utilizzo di GWT in combinazione con Google Maps, permettendo di visualizzare graficamente sulla mappa, in prossimità dei principali vulcani la zona ricoperta da un campo lavico dopo l’eruzione. Inoltre è possibile visualizzare sia una semplice mappa generica, che una mappa di Hazard già classificata.
SWII-MAPS permette all’utente l’accesso all’applicazione di calcolo, attraverso un semplice form per il login e, quindi, la possibilità di poter interagire con la stessa attraverso l’upload di file di simulazione del fenomeno. Quello che poi rende particolarmente accattivante SWII-MAPS è la possibilità di visualizzare perfettamente non solo l’andamento della colata (mappa generica), ma anche la possibilità di valutare i rischi che ne derivano (mappa di Hazard). Durante una simulazione, terminato il processamento del file, l’applicazione va a convertire dati raster in poligoni, andando a mappare la colata descritta nel file su Google Maps.
Come applicazione, SWII-MAPS fornisce uno strumento immediatamente utilizzabile per studi legati alla prevenzione e alla mitigazione del rischio come la valutazione dell’impatto di disastri da colata lavica.
Ad esempio, si consideri un Comune del nostro Paese situato in un territorio a rischio di eruzioni vulcaniche. Si potrebbe aver bisogno di valutare gli effetti di possibili colate laviche, al fine di individuare le aree maggiormente esposte o realizzare un piano di evacuazione per la popolazione civile in caso di emergenza. In questo caso, un qualsiasi tecnico del Comune sufficientemente esperto (ad esempio un geologo o un ingegnere ambientale) potrebbe utilizzare SWII-MAPS per simulare le colate di interesse e valutare possibili effetti di interventi umani, potendo eventualmente disporre su richiesta anche di grandi potenze di calcolo in remoto.
Seppur inizialmente i risultati ottenuti sono stati deludenti, con il passare degli anni è avvenuta una vera e propria rivoluzione grazie all’affermazione di nuove tecnologie e modelli di sviluppo che hanno permesso alle applicazioni web di eguagliare (e in alcuni casi di superare) le applicazioni desktop classiche in termini di efficienza, velocità e facilità d’uso.
Un esempio rilevante sono le applicazioni Google, (come Gmail, Google Docs e Google Maps), che hanno alla base una particolare tecnologia, detta GWT (Google Web Toolkit), su cui la compagnia ha iniziato ad investire molti anni fa.
Tutto questo ha notevolmente alterato il modo di percepire ed utilizzare il web che, da strumento di comunicazione passivo, si è trasformato in una realtà estremamente dinamica, dove l’utente può essere protagonista e fruire di servizi (applicazioni), prima di dominio esclusivo degli ambienti desktop. Grazie a GWT, infatti, è possibile scrivere applicazioni AJAX (Asynchronous JavaScript and XML) tanto complesse quanto veloci, mantenendo allo stesso tempo una fortissima compatibilità verso gli standard web. Indubbiamente AJAX rappresenta la tecnologia che ha suscitato il cambiamento più netto rispetto al passato. Bisogna tener conto però non può definirsi semplicemente una ‘tecnologia’, ma sarebbe più corretto dire che si tratta di un insieme di ‘tecnologie’: un uso ‘anomalo’ insomma, eppure legittimo, di linguaggi di scripting (XML, HTML, CSS) sulla base del protocollo ‘http’, nel paradigma dell’interazione Client-Server.
Tuttavia, sebbene vi sia stata una rapida crescita del numero di applicazioni web basate su GWT, si può asserire che non si sono ancora affermate specifiche applicazioni web per il calcolo e la modellistica scientifica. La simulazione di fenomeni geologici (come le colate di lava, di detriti, i flussi piroclastici, gli incendi boschivi, ecc.), ad esempio, rappresenta un campo di crescente interesse da parte della Comunità Scientifica Internazionale. Dal punto di vista teorico, la modellizzazione e la simulazione di un fenomeno possono evidenziare quali siano gli aspetti più importanti che ne regolano la dinamica, mentre dal punto di vista pratico, è possibile, ad esempio, definire mappe di suscettibilità e valutare gli effetti di opere per la mitigazione del rischio.
Un’importante web application in ambiente GWT per la visualizzazione interattiva e l’analisi specifica di mappe di rischio di colate laviche si chiama SWII-MAPS (Sciara Web Interactive Interface Maps), che rappresenta il primo esempio di utilizzo proprio del framework GWT nel contesto del calcolo e della modellistica scientifica.
SWII- MAPS consente l’utilizzo di GWT in combinazione con Google Maps, permettendo di visualizzare graficamente sulla mappa, in prossimità dei principali vulcani la zona ricoperta da un campo lavico dopo l’eruzione. Inoltre è possibile visualizzare sia una semplice mappa generica, che una mappa di Hazard già classificata.
SWII-MAPS permette all’utente l’accesso all’applicazione di calcolo, attraverso un semplice form per il login e, quindi, la possibilità di poter interagire con la stessa attraverso l’upload di file di simulazione del fenomeno. Quello che poi rende particolarmente accattivante SWII-MAPS è la possibilità di visualizzare perfettamente non solo l’andamento della colata (mappa generica), ma anche la possibilità di valutare i rischi che ne derivano (mappa di Hazard). Durante una simulazione, terminato il processamento del file, l’applicazione va a convertire dati raster in poligoni, andando a mappare la colata descritta nel file su Google Maps.
Come applicazione, SWII-MAPS fornisce uno strumento immediatamente utilizzabile per studi legati alla prevenzione e alla mitigazione del rischio come la valutazione dell’impatto di disastri da colata lavica.
Ad esempio, si consideri un Comune del nostro Paese situato in un territorio a rischio di eruzioni vulcaniche. Si potrebbe aver bisogno di valutare gli effetti di possibili colate laviche, al fine di individuare le aree maggiormente esposte o realizzare un piano di evacuazione per la popolazione civile in caso di emergenza. In questo caso, un qualsiasi tecnico del Comune sufficientemente esperto (ad esempio un geologo o un ingegnere ambientale) potrebbe utilizzare SWII-MAPS per simulare le colate di interesse e valutare possibili effetti di interventi umani, potendo eventualmente disporre su richiesta anche di grandi potenze di calcolo in remoto.
venerdì 29 novembre 2013
Un’associazione per ‘fare rete’ in un’ottica di tradizione, sviluppo e innovazione
La grande crisi, che coinvolge il sistema capitalistico mondiale, sta terremotando valori e radici antiche, generando un senso profondo e diffuso di insicurezza tra la gente.
La reazione allo spaesamento e allo sradicamento è rappresentato dal bisogno delle persone di associarsi, di mettersi insieme.
Reciprocità, relazionalità, auto-organizzazione, scambio, dono, solidarietà, sono parole che riecheggiano con sempre maggiore frequenza tra le persone, come fossero parole magiche ed evocassero una forza risolutiva.
Anche il nostro piccolo territorio, l’Alto Jonio cosentino, è teatro di una forte domanda di associazionismo, che appunto trova una spiegazione nella crisi ma anche nella reazione ai processi di individualizzazione e di conseguente perdita di socialità.
Si intravede un grande serbatoio di risorse umane, dedite al volontariato e all’auto-organizzazione a fini sociali, cui sembra tuttavia difettare la consapevolezza della forza immensa che potrebbero sprigionare se marciassero unite e organizzate.
Si rischia una dispersione significativa di queste risorse, che potrebbe frustrare possibili esiti di cambiamento positivo della realtà, assestando un colpo definitivo alla speranza di voltare pagina, già abbastanza flebile nell’immaginario collettivo calabrese.
Nel Sud, in Calabria in particolare, ciò significa interagire con la retorica dell’Identità, su cui vale la pena di soffermarsi, per precisare che “identità” non può essere intesa come qualcosa di statico e declaratorio, di consolatorio e assolutorio, rischiando esiti folkloristici e strapaesani.
L’identità è qualcosa che muta nel tempo, qualcosa che ereditiamo ma che in maggior misura dobbiamo costruire, dobbiamo guadagnarci giorno per giorno.
L’identità deve, dunque, necessariamente ibridarsi con il mutamento sociale e lo sviluppo, se non vuole cadere nella sterile rivisitazione nostalgica.
Occorre, in sostanza, restituire orgoglio e dignità alla storia e alla cultura dei luoghi, contro la retorica dell’identità ma anche contro il luogo comune dell’inferiorità del Sud, reclamizzato sin dal secolo scorso e ripreso da una recente cultura politica.
Un passo avanti in questa direzione si compie se la logica della solidarietà che presiede ai processi di sviluppo collettivo esce dai gangli delle logiche familistiche e di clan per entrare nell’ambito dei principi e degli strumenti di cittadinanza attiva. Il centro di questo ragionamento riposa sul lavoro di rete.
Ecco perché, innanzitutto, un Protocollo tra le Associazioni: per fissare all’interno del terzo settore le regole dell’agire comune, per poi rivolgersi alla collettività indiscriminata e per stimolare forme di partenariato con altri soggetti collettivi (enti locali, associazioni di categoria etc).
Sotto il primo profilo, occorre imparare a lavorare insieme: può sembrare banale, ma non tutti sono in grado di farlo; anzi: prevale la logica del ciascuno per sé.
In questa direzione, anche sulla falsariga di esperienze recenti di movimenti politici, si immagina il ricorso ad uno strumento informatico al passo con le tecnologie più moderne, che costruisca, anche visibilmente, la rete.
Sul piano sostanziale, occorre costruire dal basso un patto territoriale con tutte le forze produttive del territorio. Ma anche il volontariato ed il lavoro sul sociale non può essere sottovalutato, in tempi di forte recessione delle politiche statuali di welfare primario (es. chiusura presidi ospedalieri): si propone, pertanto, di lavorare, nella logica della rete e del dono, sulla costruzione di una Fondazione di comunità, sulla falsariga di esperienze ormai consolidate, anche al Sud.
Appare praticabile anche una esperienza di Banca del tempo, la cui idea di fondo risiede nello scambio di saperi e di attività fra individui, scambio non di prodotti e non monetario, ma di tempo.
Come è stato scritto, “la banca del tempo rappresenta senz’altro una delle reinvenzioni sociali più originali degli ultimi anni. Il precedente storico può essere individuato nelle relazioni di buon vicinato della civiltà contadina, il concetto fondante nella reciprocità, la modalità operativa nella quantità di tempo scambiato: un’ora di tempo scambiato vale un’ora per tutte le tipologie degli scambi. Si dà per avere, si chiede per dare.
La banca del tempo si iscrive in sintesi nel fenomeno della autorganizzazione, e la matrice culturale della autorganizzazione sta nella cittadinanza attiva, nell’individuo sociale organizzato.
Il tempo è lo pseudonimo della vita, ricordava Antonio Gramsci; il tempo è sintesi sociale appresa e solidificata nei comportamenti e nella memoria individuale e collettiva, gli fa eco Norbert Elias: “organizzare diversamente il proprio tempo attraverso lo scambio equivalente e la reciprocità può rivelarsi uno strumento di qualche utilità, per il contesto che siamo chiamati ad affrontare”.
(dr. Antonello Pagano - Consigliere parlamentare Camera dei Deputati – Roma)
Ed è proprio questo l’obiettivo dell’Associazione per lo Sviluppo dell’Alto Ionio ‘U. Pagano’, quello di operare su tutto il comprensorio cercando di valorizzare il concetto di Alto Jonio cosentino, oggi anche sin troppo inflazionato, costruendo così un percorso virtuoso fondato sull’identità territoriale.
Una sola voce, un solo territorio per uscire dall’isolamento, accantonando una volta per tutte quei campanilismi che sin troppi danni hanno provocato a questo lembo di terra. Tutte le iniziative dell’Associazione per lo sviluppo dell’Alto Ionio avranno dunque l’interesse di far incontrare e dialogare cittadini dell’intero comprensorio, organizzando incontri formativi e informativi nei diversi comuni e con il coinvolgimento degli enti e delle altre associazioni cittadine già esistenti.
Organi sociali
PRESIDENTE: Antonio Pagano – consigliere parlamentare
VICE PRESIDENTE: Vincenzo La Camera – giornalista
SEGRETARIO: Giuseppe Corrado – agrotecnico
RAPPORTI CON LE ASSOCIAZIONI E LE ISTITUZIONI: Simona Colotta – imprenditrice
RESPONSABILE ISTRUTTORIA AMMINISTRATIVA: Marilena Salerno - avvocato
GESTIONE CONTENUTI INFORMATIVI WEB: Rosangela Muscetta – tecnologa
Contatti:
www.altoionio.com
mail: info@altoionio.com
mail2: rosangela.muscetta13@gmail.com
fb: Associazione per lo sviluppo dell Alto Ionio
La reazione allo spaesamento e allo sradicamento è rappresentato dal bisogno delle persone di associarsi, di mettersi insieme.
Reciprocità, relazionalità, auto-organizzazione, scambio, dono, solidarietà, sono parole che riecheggiano con sempre maggiore frequenza tra le persone, come fossero parole magiche ed evocassero una forza risolutiva.
Anche il nostro piccolo territorio, l’Alto Jonio cosentino, è teatro di una forte domanda di associazionismo, che appunto trova una spiegazione nella crisi ma anche nella reazione ai processi di individualizzazione e di conseguente perdita di socialità.
Si intravede un grande serbatoio di risorse umane, dedite al volontariato e all’auto-organizzazione a fini sociali, cui sembra tuttavia difettare la consapevolezza della forza immensa che potrebbero sprigionare se marciassero unite e organizzate.
Si rischia una dispersione significativa di queste risorse, che potrebbe frustrare possibili esiti di cambiamento positivo della realtà, assestando un colpo definitivo alla speranza di voltare pagina, già abbastanza flebile nell’immaginario collettivo calabrese.
Nel Sud, in Calabria in particolare, ciò significa interagire con la retorica dell’Identità, su cui vale la pena di soffermarsi, per precisare che “identità” non può essere intesa come qualcosa di statico e declaratorio, di consolatorio e assolutorio, rischiando esiti folkloristici e strapaesani.
L’identità è qualcosa che muta nel tempo, qualcosa che ereditiamo ma che in maggior misura dobbiamo costruire, dobbiamo guadagnarci giorno per giorno.
L’identità deve, dunque, necessariamente ibridarsi con il mutamento sociale e lo sviluppo, se non vuole cadere nella sterile rivisitazione nostalgica.
Occorre, in sostanza, restituire orgoglio e dignità alla storia e alla cultura dei luoghi, contro la retorica dell’identità ma anche contro il luogo comune dell’inferiorità del Sud, reclamizzato sin dal secolo scorso e ripreso da una recente cultura politica.
Un passo avanti in questa direzione si compie se la logica della solidarietà che presiede ai processi di sviluppo collettivo esce dai gangli delle logiche familistiche e di clan per entrare nell’ambito dei principi e degli strumenti di cittadinanza attiva. Il centro di questo ragionamento riposa sul lavoro di rete.
Ecco perché, innanzitutto, un Protocollo tra le Associazioni: per fissare all’interno del terzo settore le regole dell’agire comune, per poi rivolgersi alla collettività indiscriminata e per stimolare forme di partenariato con altri soggetti collettivi (enti locali, associazioni di categoria etc).
Sotto il primo profilo, occorre imparare a lavorare insieme: può sembrare banale, ma non tutti sono in grado di farlo; anzi: prevale la logica del ciascuno per sé.
In questa direzione, anche sulla falsariga di esperienze recenti di movimenti politici, si immagina il ricorso ad uno strumento informatico al passo con le tecnologie più moderne, che costruisca, anche visibilmente, la rete.
Sul piano sostanziale, occorre costruire dal basso un patto territoriale con tutte le forze produttive del territorio. Ma anche il volontariato ed il lavoro sul sociale non può essere sottovalutato, in tempi di forte recessione delle politiche statuali di welfare primario (es. chiusura presidi ospedalieri): si propone, pertanto, di lavorare, nella logica della rete e del dono, sulla costruzione di una Fondazione di comunità, sulla falsariga di esperienze ormai consolidate, anche al Sud.
Appare praticabile anche una esperienza di Banca del tempo, la cui idea di fondo risiede nello scambio di saperi e di attività fra individui, scambio non di prodotti e non monetario, ma di tempo.
Come è stato scritto, “la banca del tempo rappresenta senz’altro una delle reinvenzioni sociali più originali degli ultimi anni. Il precedente storico può essere individuato nelle relazioni di buon vicinato della civiltà contadina, il concetto fondante nella reciprocità, la modalità operativa nella quantità di tempo scambiato: un’ora di tempo scambiato vale un’ora per tutte le tipologie degli scambi. Si dà per avere, si chiede per dare.
La banca del tempo si iscrive in sintesi nel fenomeno della autorganizzazione, e la matrice culturale della autorganizzazione sta nella cittadinanza attiva, nell’individuo sociale organizzato.
Il tempo è lo pseudonimo della vita, ricordava Antonio Gramsci; il tempo è sintesi sociale appresa e solidificata nei comportamenti e nella memoria individuale e collettiva, gli fa eco Norbert Elias: “organizzare diversamente il proprio tempo attraverso lo scambio equivalente e la reciprocità può rivelarsi uno strumento di qualche utilità, per il contesto che siamo chiamati ad affrontare”.
(dr. Antonello Pagano - Consigliere parlamentare Camera dei Deputati – Roma)
Ed è proprio questo l’obiettivo dell’Associazione per lo Sviluppo dell’Alto Ionio ‘U. Pagano’, quello di operare su tutto il comprensorio cercando di valorizzare il concetto di Alto Jonio cosentino, oggi anche sin troppo inflazionato, costruendo così un percorso virtuoso fondato sull’identità territoriale.
Una sola voce, un solo territorio per uscire dall’isolamento, accantonando una volta per tutte quei campanilismi che sin troppi danni hanno provocato a questo lembo di terra. Tutte le iniziative dell’Associazione per lo sviluppo dell’Alto Ionio avranno dunque l’interesse di far incontrare e dialogare cittadini dell’intero comprensorio, organizzando incontri formativi e informativi nei diversi comuni e con il coinvolgimento degli enti e delle altre associazioni cittadine già esistenti.
Organi sociali
PRESIDENTE: Antonio Pagano – consigliere parlamentare
VICE PRESIDENTE: Vincenzo La Camera – giornalista
SEGRETARIO: Giuseppe Corrado – agrotecnico
RAPPORTI CON LE ASSOCIAZIONI E LE ISTITUZIONI: Simona Colotta – imprenditrice
RESPONSABILE ISTRUTTORIA AMMINISTRATIVA: Marilena Salerno - avvocato
GESTIONE CONTENUTI INFORMATIVI WEB: Rosangela Muscetta – tecnologa
Contatti:
www.altoionio.com
mail: info@altoionio.com
mail2: rosangela.muscetta13@gmail.com
fb: Associazione per lo sviluppo dell Alto Ionio
L'agenda dell'innovazione di dicembre 2013
"Business Process Management: improve your operations with better visibility"
3 dicembre dalle ore 16.00 alle ore 19.00 presso Starhotels E.c.ho. in viale Andrea Doria, 4 a Milano.
L’incontro ha lo scopo di presentare le tecniche basate sul Business Process Management necessarie per definire, ottimizzare, monitorare e integrare i processi aziendali.
Il BPM è uno strumento in grado di migliorare i processi integrando sistemi, dati, informazioni e attività allineandoli alle necessità aziendali, colmando quel gap che esiste solitamente fra IT e Business.
I benefici di una corretta applicazione del BPM sono significativi:
-miglioramento delle performance in temi di riduzione dei costi e efficienza;
-controllo accurato dei processi di business e monitoraggio continuo dell'operatività attraverso report analitici;
-riduzione del backlog tramite identificazione dei colli di bottiglia nelle attività aziendali e rapidità di intervento nella loro eliminazione.
In particolare si affronteranno:
-le tecniche per la semplificazione e personalizzazione dei processi in ambito amministrativo (Ciclo passivo);
-le tecniche per la definizione delle metriche necessarie a monitorare le performance di business.
La partecipazione è gratuita, previa registrazione e conferma da parte della segreteria organizzativa.
Per ulteriori informazioni contattare
Alessia Valsecchi- email: alessia.valsecchi@ict4executive.it
Roma 16-17-18 Dicembre 2013
NCP organizza ‘ Corso specialistico CoIP dedign’
Le reti di comunicazione vocale basate sul VoIP costituiscono oggi un patrimonio di primaria importanza per ogni organizzazione. I nuovi servizi orientati alla multimedialità e alla interattività hanno bisogno di infrastruttura in grado di ospitarli e di farli funzionare coerentemente alle loro esigenze di banda trasmissiva, di sicurezza, di criticità, di disponibilità e di scalabilità.
Saper progettare un sistema di comunicazione unificata integrato in una rete ben dimensionata in tutte le sue parti e al contempo dotata dei servizi necessari al corretto funzionamento dei servizi ospitati, costituisce una grande sfida che richiede una specifica preparazione.
Il corso è incentrato sulla progettazione di sistemi VoIP orientati alle Unified Communications. Analizza le soluzioni architetturali più utilizzate, i protocolli di riferimento e il loro impiego contestualizzato ai desiderata di progetto, l’interlavoro tra sistemi eterogenei, l'offerta del mercato.
Il corso integra alla teoria esempi architetturali, casi di studio, esercitazioni e laboratori pratici con la realizzazione in aula di soluzioni di comunicazione unificata.
Per ulteriori informazioni:
segreteria@ncp-italy.com
www.ncp-italy.eu
lunedì 25 novembre 2013
Il regime delle inconferibilità nella PA
Sulla gazzetta ufficiale del 19 aprile 2013 è stato pubblicato il d.lgs. 39/13 (Disposizioni in materia di inconferibilità e incompatibilità di incarichi presso le pubbliche amministrazioni e presso gli enti privati in controllo pubblico, a norma dell’articolo 1, commi 49 e 50, della legge 6 novembre 2012, n. 190. Con tale provvedimento il governo esercita la delega conferitagli dai commi 49 e 50 dell’art. 1 del legge 190/12 (Disposizioni per la prevenzione e la repressione della corruzione e dell'illegalità nella pubblica amministrazione)1, introducendo una riforma della disciplina vigente in materia di attribuzione di incarichi dirigenziali e di incarichi di responsabilità amministrativa di vertice nelle pubbliche amministrazioni di cui all'articolo 1, comma 2, del decreto legislativo 30 marzo 2001, n. 165 (Norme generali sull'ordinamento del lavoro alle dipendenze delle amministrazioni pubbliche.
Si tratta di un provvedimento che interviene su una pluralità di livelli introducendo esclusioni temporali di diversa durata per l’esercizio delle funzioni dirigenziali nella Pubblica Amministrazione da parte di coloro che sono stati condannati con sentenza anche non definitiva per reati contro la PA stessa. Due sono gli istituti con cui il legislatore disciplina la materia degli incarichi nella p.a.: l’inconferibilità e l’incompatibilità.
In particolar modo, per inconferibilità si intende la preclusione, permanente o temporanea, a conferire gli incarichi a coloro che abbiano riportato condanne penali per i reati previsti dal codice penale, oche abbiano svolto incarichi o ricoperto cariche in enti di diritto privato regolati o finanziati da pubbliche amministrazioni o ancora svolto attività professionali a favore di questi ultimi, o che siano stati altresì componenti di organi di indirizzo politico. L’inconferibilità ha carattere permanente o temporanea a seconda della natura permanente o temporanea dell’interdizione dai pubblici uffici stabilita.
Il rispetto delle disposizioni in materia di inconferibilità e incompatibilità degli incarichi presso le pubbliche amministrazioni è affidato al responsabile del piano anticorruzione di ciascuna amministrazione pubblica, che cura, anche attraverso le disposizioni del piano anticorruzione, che nell'amministrazione siano rispettate le disposizioni sulla inconferibilità e incompatibilità degli incarichi, contestando all'interessato l'esistenza o l'insorgere delle situazioni di inconferibilità o incompatibilità. A tale figura compete anche la segnalazione delle violazioni all'Autorità nazionale anticorruzione, all'Autorità garante della concorrenza e del mercato, nonché alla Corte dei conti, per l'accertamento di eventuali responsabilità amministrative.
Il d. lgs.39/13 prevede che gli atti di conferimento di incarichi e i relativi contratti adottati in violazione della nuova normativa introdotta siano nulli.
I componenti degli organi che abbiano conferito incarichi dichiarati nulli sono responsabili per le conseguenze economiche degli atti adottati e non possono per tre mesi conferire gli incarichi di loro competenza.
Le regioni, le province e i comuni provvedono entro tre mesi dall'entrata in vigore del d. lgs.39/13 ad adeguare i propri ordinamenti individuando le procedure interne e gli organi che in via sostitutiva possono procedere al conferimento degli incarichi nel periodo di interdizione degli organi titolari. Decorso inutilmente tale periodo lo stato esercita i suoi poteri sostitutivi.
Si tratta di un provvedimento che interviene su una pluralità di livelli introducendo esclusioni temporali di diversa durata per l’esercizio delle funzioni dirigenziali nella Pubblica Amministrazione da parte di coloro che sono stati condannati con sentenza anche non definitiva per reati contro la PA stessa. Due sono gli istituti con cui il legislatore disciplina la materia degli incarichi nella p.a.: l’inconferibilità e l’incompatibilità.
In particolar modo, per inconferibilità si intende la preclusione, permanente o temporanea, a conferire gli incarichi a coloro che abbiano riportato condanne penali per i reati previsti dal codice penale, oche abbiano svolto incarichi o ricoperto cariche in enti di diritto privato regolati o finanziati da pubbliche amministrazioni o ancora svolto attività professionali a favore di questi ultimi, o che siano stati altresì componenti di organi di indirizzo politico. L’inconferibilità ha carattere permanente o temporanea a seconda della natura permanente o temporanea dell’interdizione dai pubblici uffici stabilita.
Il rispetto delle disposizioni in materia di inconferibilità e incompatibilità degli incarichi presso le pubbliche amministrazioni è affidato al responsabile del piano anticorruzione di ciascuna amministrazione pubblica, che cura, anche attraverso le disposizioni del piano anticorruzione, che nell'amministrazione siano rispettate le disposizioni sulla inconferibilità e incompatibilità degli incarichi, contestando all'interessato l'esistenza o l'insorgere delle situazioni di inconferibilità o incompatibilità. A tale figura compete anche la segnalazione delle violazioni all'Autorità nazionale anticorruzione, all'Autorità garante della concorrenza e del mercato, nonché alla Corte dei conti, per l'accertamento di eventuali responsabilità amministrative.
Il d. lgs.39/13 prevede che gli atti di conferimento di incarichi e i relativi contratti adottati in violazione della nuova normativa introdotta siano nulli.
I componenti degli organi che abbiano conferito incarichi dichiarati nulli sono responsabili per le conseguenze economiche degli atti adottati e non possono per tre mesi conferire gli incarichi di loro competenza.
Le regioni, le province e i comuni provvedono entro tre mesi dall'entrata in vigore del d. lgs.39/13 ad adeguare i propri ordinamenti individuando le procedure interne e gli organi che in via sostitutiva possono procedere al conferimento degli incarichi nel periodo di interdizione degli organi titolari. Decorso inutilmente tale periodo lo stato esercita i suoi poteri sostitutivi.
martedì 19 novembre 2013
Una banca dedicata al tempo
Le Banche del Tempo (BdT) nascono nei primi anni novanta con delle finalità specifiche che possono essere così sintetizzate:
• promuovere scambi di prestazioni finalizzati alla soddisfazione sia di esigenze pratiche, sia di bisogni di arricchimento culturale e di allargamento delle relazioni sociali;
• facilitare la conciliazione dei tempi del lavoro retribuito con quelli del lavoro di cura familiare,
• valorizzare competenze e vocazioni che altrimenti rischierebbero di rimanere inespresse sostenendo così percorsi di rafforzamento dell’autostima personale;
• organizzare momenti e spazi di incontro, di comunicazione, di scambio intergenerazionale e interculturale;
• contribuire al superamento di condizioni di isolamento, solitudine, emarginazione culturale e sociale.
L’esperienza delle BdT italiane ha una sua connotazione originale e un’elaborazione che non nascono per fare fronte ad una crisi sociale ed economica, come era accaduto nell’esperienza dell’Europa del Nord, ma da principi di costruzione di legami sociali e da una riflessione delle donne degli anni 80 sulla conciliazione dei tempi di vita e di lavoro. Da queste premesse le BdT italiane si sviluppano su tre elementi:
• Le donne come levatrici di banche del tempo.
• Il tempo come valore di scambio.
• Lo scambio paritario e la reciprocità.
La “regola di fondo che vige in tutte le BdT è lo scambio”, come sinonimo di reciproca convenienza, e di socializzazione, che favorisce anche la messa in comune di saperi e conoscenze. Le attività di scambio possono essere suddivise in due grandi aree: la prima, la prevalente, è composta dalle prestazioni minute che riguardano lo svolgimento della vita quotidiana (ad esempio riguardo alle relazioni con gli enti pubblici, e al tempo libero in compagni); la seconda, riguarda lo scambio dei saperi, cioè, il baratto delle conoscenze che le singole persone possiedono. Questo secondo tipo di scambi mette sullo stesso piano saperi esistenti sul mercato (computer, lingue, pittura, fotografia…) e saperi “fuori mercato”, nel senso che ad essi non è attribuito valore economico.
La Banca del Tempo può essere definito uno spazio di apprendimento relazionale in cui si apprende a essere, a vivere insieme. Si apprendono, attraverso scambi paritari, nuovi comportamenti, attitudini e valori, come il mutuo aiuto, la valorizzazione delle persone, delle loro capacità e differenze, la reciprocità e lo scambio nella relazione fra le persone. In altre parole apprendere a aver fiducia e sviluppare un sentimento di appartenenza e sicurezza.
Inoltre nella banca del tempo si impara a ripensare e modificare i nostri modi di vita nella comunità, lungo un percorso di cittadinanza attiva che si va via via costruendo. Questo apprendimento va approfondito mentre si avanza verso un processo collettivo orientato al cambiamento sociale.
Ogni persona ha la possibilità di conoscere il meglio di sé nella relazione e nello scambio con altre e altri, scoprendo e valorizzando talenti, competenze, caratteristiche. In questo senso si può dire che si tratta di un contesto favorevole all'autoformazione. Apprendiamo in interrelazione fra noi, in un clima fuori dagli schemi, non strutturato, di conversazione, di dialogo, di scambi di idee e esperienze, dividendo con gli altri ciò che sappiamo fare, le nostre idee, i nostri pensieri, condividendo in questo modo la convinzione che tutti facciamo le stesse cose.
La Banca del Tempo si afferma in questo senso come uno spazio aperto di apprendimento dove i nostri saperi si costruiscono e ricostruiscono attraverso la relazione sociale.
http://www.infooggi.it/articolo/una-banca-dedicata-al-tempo/53652/
• promuovere scambi di prestazioni finalizzati alla soddisfazione sia di esigenze pratiche, sia di bisogni di arricchimento culturale e di allargamento delle relazioni sociali;
• facilitare la conciliazione dei tempi del lavoro retribuito con quelli del lavoro di cura familiare,
• valorizzare competenze e vocazioni che altrimenti rischierebbero di rimanere inespresse sostenendo così percorsi di rafforzamento dell’autostima personale;
• organizzare momenti e spazi di incontro, di comunicazione, di scambio intergenerazionale e interculturale;
• contribuire al superamento di condizioni di isolamento, solitudine, emarginazione culturale e sociale.
L’esperienza delle BdT italiane ha una sua connotazione originale e un’elaborazione che non nascono per fare fronte ad una crisi sociale ed economica, come era accaduto nell’esperienza dell’Europa del Nord, ma da principi di costruzione di legami sociali e da una riflessione delle donne degli anni 80 sulla conciliazione dei tempi di vita e di lavoro. Da queste premesse le BdT italiane si sviluppano su tre elementi:
• Le donne come levatrici di banche del tempo.
• Il tempo come valore di scambio.
• Lo scambio paritario e la reciprocità.
La “regola di fondo che vige in tutte le BdT è lo scambio”, come sinonimo di reciproca convenienza, e di socializzazione, che favorisce anche la messa in comune di saperi e conoscenze. Le attività di scambio possono essere suddivise in due grandi aree: la prima, la prevalente, è composta dalle prestazioni minute che riguardano lo svolgimento della vita quotidiana (ad esempio riguardo alle relazioni con gli enti pubblici, e al tempo libero in compagni); la seconda, riguarda lo scambio dei saperi, cioè, il baratto delle conoscenze che le singole persone possiedono. Questo secondo tipo di scambi mette sullo stesso piano saperi esistenti sul mercato (computer, lingue, pittura, fotografia…) e saperi “fuori mercato”, nel senso che ad essi non è attribuito valore economico.
La Banca del Tempo può essere definito uno spazio di apprendimento relazionale in cui si apprende a essere, a vivere insieme. Si apprendono, attraverso scambi paritari, nuovi comportamenti, attitudini e valori, come il mutuo aiuto, la valorizzazione delle persone, delle loro capacità e differenze, la reciprocità e lo scambio nella relazione fra le persone. In altre parole apprendere a aver fiducia e sviluppare un sentimento di appartenenza e sicurezza.
Inoltre nella banca del tempo si impara a ripensare e modificare i nostri modi di vita nella comunità, lungo un percorso di cittadinanza attiva che si va via via costruendo. Questo apprendimento va approfondito mentre si avanza verso un processo collettivo orientato al cambiamento sociale.
Ogni persona ha la possibilità di conoscere il meglio di sé nella relazione e nello scambio con altre e altri, scoprendo e valorizzando talenti, competenze, caratteristiche. In questo senso si può dire che si tratta di un contesto favorevole all'autoformazione. Apprendiamo in interrelazione fra noi, in un clima fuori dagli schemi, non strutturato, di conversazione, di dialogo, di scambi di idee e esperienze, dividendo con gli altri ciò che sappiamo fare, le nostre idee, i nostri pensieri, condividendo in questo modo la convinzione che tutti facciamo le stesse cose.
La Banca del Tempo si afferma in questo senso come uno spazio aperto di apprendimento dove i nostri saperi si costruiscono e ricostruiscono attraverso la relazione sociale.
http://www.infooggi.it/articolo/una-banca-dedicata-al-tempo/53652/
martedì 12 novembre 2013
L'Italia oltre la crisi
La Fondazione per le Qualità Italiane Symbola, con la collaborazione di Unioncamere e della Fondazione Edison, lancia lo spunto per un’attenta riflessione sullo stato della crisi economica globale e su quanto essa abbia inciso a peggiorare situazioni già abbastanza difficili da arginare, presenti sul nostro territorio nazionale (le diseguaglianze sociali, l’economia in nero, quella criminale, il ritardo del Sud, una burocrazia spesso persecutoria e inefficace). La crisi mondiale si è congiunta a questi mali, peggiorandoli. Rimediare sicuramente non sarà facile, non è impossibile, se non ci lasciamo suggestionare dal catastrofismo.
Sicuramente questa situazione ha generato pessimismo, allarmismo, confusione e frustrazione generale, che rende se possibile, ancora più difficile un’analisi obiettiva delle cause scatenanti questo male. Ma forse non siamo ancora un Paese sulla via del tramonto, possiamo e dobbiamo risollevarci, puntando sui fattori che hanno da sempre ci hanno contraddistinto.
Come recita lo stesso Manifesto: ‘Piuttosto che le sirene del declino dobbiamo prestare attenzione al messaggio e alle richieste dei tanti protagonisti di questo made in Italy rinnovato. Che stanno affermando un modello di sviluppo nuovo, ma perfettamente in linea con la grande vocazione nazionale: la qualità. Dove la bellezza è un fattore produttivo determinante e la cultura, sposata magari alle nuove tecnologie, un incubatore d’impresa. Una via italiana alla green economy in cui l’innovazione è un’attitudine che investe anche le attività più tradizionali - dove le eccellenze agroalimentari sono un volano per l’artigianato e il turismo, e viceversa – le cui straordinarie materie prime sono la qualità della vita, la coesione sociale, il capitale umano, i saperi del territorio. Da qui dobbiamo ripartire, dal nostro irripetibile “ecosistema produttivo”. Dalla qualità, da questa via tutta italiana alla green economy. Incentivando la ricerca, l’ICT e l’innovazione non solo tecnologica ma anche organizzativa, comunicativa, di marketing. Sostenendo, con azioni di sistema, gli sforzi di internazionalizzazione del nostro manifatturiero, delle filiere culturali e turistiche. Con una politica industriale che faccia perno sulla valorizzazione dei nostri pilastri - manifattura, turismo, cultura, agricoltura – e indichi proprio nella sostenibilità e nella green economy la via da seguire. E con una politica fiscale conseguente, che sposti la tassazione dal lavoro verso il consumo di risorse, la produzione di rifiuti, l’inquinamento. Che incentivi la formazione, l’inclusione sociale e il contributo dei giovani e delle donne alla società e all’economia italiane. Che sostenga gli investimenti per competere nell’economia reale a scapito di quelli per fare speculazione sui mercati finanziari. Dove la burocrazia cessi finalmente di essere un freno per le imprese. Le aziende più piccole vanno accompagnate a lavorare di più in rete o in consorzio. Il turismo potrebbe intercettare più viaggiatori stranieri se l’Italia avesse migliori infrastrutture di trasporto e logistiche, se gli aeroporti italiani fossero meno periferici nelle tratte intercontinentali. Se lo sforzo promozionale dell’immagine dell’Italia all’estero non fosse polverizzato e spesso inconcludente, se le strutture ricettive fossero ammodernate e messe in rete con le tante eccellenze (culturali, paesaggistiche, produttive) del Paese. La lotta all’illegalità, alla contraffazione e all’Italian sounding deve diventare una priorità imprescindibile’.
L’Italia, dunque, e il nostro contesto locale ce la può fare, se verrà messa in condizioni di potercela fare, ripartendo dalle piccole azioni quotidiane, da una buona riflessione e dalla propulsione a reagire, e finalmente (ri)cominciare.
Per sottoscrivere il manifesto:
http://www.symbola.net/html/article/manifestooltrelacrisi#.Um-KaBDw71E.email
[http://www.altoionio.com/blog/oltre-la-crisi-litalia-deve-fare-litalia.html]
Sicuramente questa situazione ha generato pessimismo, allarmismo, confusione e frustrazione generale, che rende se possibile, ancora più difficile un’analisi obiettiva delle cause scatenanti questo male. Ma forse non siamo ancora un Paese sulla via del tramonto, possiamo e dobbiamo risollevarci, puntando sui fattori che hanno da sempre ci hanno contraddistinto.
Come recita lo stesso Manifesto: ‘Piuttosto che le sirene del declino dobbiamo prestare attenzione al messaggio e alle richieste dei tanti protagonisti di questo made in Italy rinnovato. Che stanno affermando un modello di sviluppo nuovo, ma perfettamente in linea con la grande vocazione nazionale: la qualità. Dove la bellezza è un fattore produttivo determinante e la cultura, sposata magari alle nuove tecnologie, un incubatore d’impresa. Una via italiana alla green economy in cui l’innovazione è un’attitudine che investe anche le attività più tradizionali - dove le eccellenze agroalimentari sono un volano per l’artigianato e il turismo, e viceversa – le cui straordinarie materie prime sono la qualità della vita, la coesione sociale, il capitale umano, i saperi del territorio. Da qui dobbiamo ripartire, dal nostro irripetibile “ecosistema produttivo”. Dalla qualità, da questa via tutta italiana alla green economy. Incentivando la ricerca, l’ICT e l’innovazione non solo tecnologica ma anche organizzativa, comunicativa, di marketing. Sostenendo, con azioni di sistema, gli sforzi di internazionalizzazione del nostro manifatturiero, delle filiere culturali e turistiche. Con una politica industriale che faccia perno sulla valorizzazione dei nostri pilastri - manifattura, turismo, cultura, agricoltura – e indichi proprio nella sostenibilità e nella green economy la via da seguire. E con una politica fiscale conseguente, che sposti la tassazione dal lavoro verso il consumo di risorse, la produzione di rifiuti, l’inquinamento. Che incentivi la formazione, l’inclusione sociale e il contributo dei giovani e delle donne alla società e all’economia italiane. Che sostenga gli investimenti per competere nell’economia reale a scapito di quelli per fare speculazione sui mercati finanziari. Dove la burocrazia cessi finalmente di essere un freno per le imprese. Le aziende più piccole vanno accompagnate a lavorare di più in rete o in consorzio. Il turismo potrebbe intercettare più viaggiatori stranieri se l’Italia avesse migliori infrastrutture di trasporto e logistiche, se gli aeroporti italiani fossero meno periferici nelle tratte intercontinentali. Se lo sforzo promozionale dell’immagine dell’Italia all’estero non fosse polverizzato e spesso inconcludente, se le strutture ricettive fossero ammodernate e messe in rete con le tante eccellenze (culturali, paesaggistiche, produttive) del Paese. La lotta all’illegalità, alla contraffazione e all’Italian sounding deve diventare una priorità imprescindibile’.
L’Italia, dunque, e il nostro contesto locale ce la può fare, se verrà messa in condizioni di potercela fare, ripartendo dalle piccole azioni quotidiane, da una buona riflessione e dalla propulsione a reagire, e finalmente (ri)cominciare.
Per sottoscrivere il manifesto:
http://www.symbola.net/html/article/manifestooltrelacrisi#.Um-KaBDw71E.email
[http://www.altoionio.com/blog/oltre-la-crisi-litalia-deve-fare-litalia.html]
Le nuove possibilità offerte dal (civic) crowdfunding
Il termine crowdfunding indica un metodo di raccolta fondi “dal basso”, che si rivolge agli internauti chiedendo loro di contribuire finanziariamente ad un progetto. Concettualmente, l’idea di chiedere e ottenere fondi utili alla propria causa non è nuova, basti pensare alle attività di beneficenza. Ciò che rende il crowdfunding un’attività originale, a disposizione della quale ci sono strumenti innovativi quali le piattaforme online, è proprio l’utilizzo del web, in quanto quest’ultimo permette di espandere la raccolta fondi ad un pubblico molto vasto, teoricamente globale, e di scatenare rapidamente un passaparola virale e virtuale. Le piattaforme di crowdfunding si distinguono in quattro tipologie, sulla base dei modelli che regolano la raccolta fondi: reward-based, donation-based, social lending, equity-based.
• Il modello del reward-based (letteralmente “basato sulla ricompensa”) trova il suo punto di forza, appunto, nei contributi offerti ai donatori dai promotori della campagna: i donatori finanziano i progetti secondo le loro possibilità (ad es. pubblicità sul sito, possibilità di partecipare ad un evento legato alla campagna, gadget, ecc.) e in accordo alla loro volontà ma secondo quote progressive determinate dai promotori.
• Il modello donation-based (o semplicemente detto “delle donazioni”) è stato definito una forma di ‘mecenatismo online’, poiché il denaro raccolto è a fondo perduto. Questo modello non contempla il sistema delle reward: le donazioni sono effettuate perché i sostenitori riconoscono nella campagna idee e valori significativi. I promotori che utilizzano piattaforme coerenti a questo modello sono organizzazioni no-profit o singoli individui che operano come personal fundraiser.
• Il modello del social lending (letteralmente “prestito sociale”), definito anche “prestito peer- to-peer” o “crowdlending”, prevede la richiesta di un prestito in denaro da privato a privato.
• Il modello dell’equity-based prevede che i finanziamenti siano legati all’acquisto di azioni finanziarie. Pertanto i promotori della campagna finanziano il loro progetto con i proventi dalla vendita delle azioni della società.
Le piattaforme di crowdfunding nascono in origine per supportare i progetti di privati cittadini e delle organizzazioni non a scopo di lucro, anche se oggigiorno questa pratica entra, sempre più di frequente, nel settore pubblico, proponendo campagne rivolte alla comunità, inerenti il territorio ed intenzionate a riallacciare i rapporti con la cittadinanza attraverso iniziative che la vedono al centro. Quando gli enti pubblici scendono in campo e raccolgono fondi sul web per iniziative pubbliche si parla di “civic crowdfunding” o “crowdfunding civico’’, che è determinato dalla scarsità dei fondi dei governi locali e funziona perché fa leva sul valore affettivo per il territorio da parte della comunità che lo abita. Esso è utile a rafforzare i rapporti e il senso d’appartenenza del cittadino verso il proprio ambiente. In Italia questa pratica è solo all’inizio (sia come attività che come offerta delle piattaforme) ma nel panorama internazionale si sono già delineate alcune piattaforme di successo appositamente dedicate e tale pratica ha dato la possibilità di realizzazione di numerosi progetti, sostanziando appieno i principi del crowdfunding civico, quali:
• il coinvolgimento attivo della comunità locale
• il rafforzamento dei legami della comunità
• la capacità di rivalutare e di fare leva sul legame affettivo tra comunità e territorio.
Al fine di realizzare una campagna di crowdfunding efficace può essere utile non solo conoscere le best practices riguardanti le iniziative, ma anche quelle relative alle piattaforme, che si differenziano tra loro per molti aspetti, anche se presentano importanti caratteristiche comuni, come ad esempio:
• Ottima navigabilità di tutte le sezioni del sito. All’utente, sia promotore, sia possibile donatore, deve risultare intuitivo l’uso della piattaforma
• Semplicità del reperimento delle informazioni
• Rispetto della privacy: i dati raccolti devono essere tutelati secondo la legislazione italiana sul trattamento dei dati personali nel rispetto della privacy (D.L.gs 196/03).
• Widget per la diffusione sui social network. Data la fondamentale e imprescindibile diffusione sui social network delle campagne, è importante che la piattaforma abbia integrati i widget di condivisione.
Ad ogni modo, è ragionevole credere che mostrare il lato umano sia ancora più efficace in una campagna di crowdfunding civico. Nel mondo delle aziende, per contrastare e per supportare la brand reputation, stanno nascendo nuove figure professionali (per es. il social media manager e il community manager) volte a gestire i rapporti nel web con gli utenti che sono clienti o potenziali tali. Questi professionisti si relazionano con gli utenti in maniera coerente all’immagine che l’azienda vuole fornire di sé. Può capitare, anzi capita spesso, che il cliente interagisca con il servizio clienti dell’azienda in maniera del tutto informale. Per quanto il paragone possa sembrare azzardato, non è irragionevole credere che un approccio simile funzioni anche nell’ambito di una campagna di crowdfunding, tanto più che tra gli obiettivi della stessa c’è il rafforzamento della community e del senso di appartenenza ad essa. Emerge, quindi, come sia necessario e imprescindibile un lavoro di squadra che stabilisca obiettivi e tempi, definendo accuratamente il target, realizzando un buon piano di comunicazione, con un obiettivo finanziario realistico.
Materiali utili:
http://www.slideshare.net/AccountDiValentina/report-26192324?utm_source=slideshow03&utm_medium=ssemail&utm_campaign=share_slideshow_loggedout
[http://www.infooggi.it/articolo/le-possibilita-offerte-dal-civic-crowdfunding/53223/]
[http://www.altoionio.com/blog/le-possibilita-del-civic-crowdsourcing.html]
• Il modello del reward-based (letteralmente “basato sulla ricompensa”) trova il suo punto di forza, appunto, nei contributi offerti ai donatori dai promotori della campagna: i donatori finanziano i progetti secondo le loro possibilità (ad es. pubblicità sul sito, possibilità di partecipare ad un evento legato alla campagna, gadget, ecc.) e in accordo alla loro volontà ma secondo quote progressive determinate dai promotori.
• Il modello donation-based (o semplicemente detto “delle donazioni”) è stato definito una forma di ‘mecenatismo online’, poiché il denaro raccolto è a fondo perduto. Questo modello non contempla il sistema delle reward: le donazioni sono effettuate perché i sostenitori riconoscono nella campagna idee e valori significativi. I promotori che utilizzano piattaforme coerenti a questo modello sono organizzazioni no-profit o singoli individui che operano come personal fundraiser.
• Il modello del social lending (letteralmente “prestito sociale”), definito anche “prestito peer- to-peer” o “crowdlending”, prevede la richiesta di un prestito in denaro da privato a privato.
• Il modello dell’equity-based prevede che i finanziamenti siano legati all’acquisto di azioni finanziarie. Pertanto i promotori della campagna finanziano il loro progetto con i proventi dalla vendita delle azioni della società.
Le piattaforme di crowdfunding nascono in origine per supportare i progetti di privati cittadini e delle organizzazioni non a scopo di lucro, anche se oggigiorno questa pratica entra, sempre più di frequente, nel settore pubblico, proponendo campagne rivolte alla comunità, inerenti il territorio ed intenzionate a riallacciare i rapporti con la cittadinanza attraverso iniziative che la vedono al centro. Quando gli enti pubblici scendono in campo e raccolgono fondi sul web per iniziative pubbliche si parla di “civic crowdfunding” o “crowdfunding civico’’, che è determinato dalla scarsità dei fondi dei governi locali e funziona perché fa leva sul valore affettivo per il territorio da parte della comunità che lo abita. Esso è utile a rafforzare i rapporti e il senso d’appartenenza del cittadino verso il proprio ambiente. In Italia questa pratica è solo all’inizio (sia come attività che come offerta delle piattaforme) ma nel panorama internazionale si sono già delineate alcune piattaforme di successo appositamente dedicate e tale pratica ha dato la possibilità di realizzazione di numerosi progetti, sostanziando appieno i principi del crowdfunding civico, quali:
• il coinvolgimento attivo della comunità locale
• il rafforzamento dei legami della comunità
• la capacità di rivalutare e di fare leva sul legame affettivo tra comunità e territorio.
Al fine di realizzare una campagna di crowdfunding efficace può essere utile non solo conoscere le best practices riguardanti le iniziative, ma anche quelle relative alle piattaforme, che si differenziano tra loro per molti aspetti, anche se presentano importanti caratteristiche comuni, come ad esempio:
• Ottima navigabilità di tutte le sezioni del sito. All’utente, sia promotore, sia possibile donatore, deve risultare intuitivo l’uso della piattaforma
• Semplicità del reperimento delle informazioni
• Rispetto della privacy: i dati raccolti devono essere tutelati secondo la legislazione italiana sul trattamento dei dati personali nel rispetto della privacy (D.L.gs 196/03).
• Widget per la diffusione sui social network. Data la fondamentale e imprescindibile diffusione sui social network delle campagne, è importante che la piattaforma abbia integrati i widget di condivisione.
Ad ogni modo, è ragionevole credere che mostrare il lato umano sia ancora più efficace in una campagna di crowdfunding civico. Nel mondo delle aziende, per contrastare e per supportare la brand reputation, stanno nascendo nuove figure professionali (per es. il social media manager e il community manager) volte a gestire i rapporti nel web con gli utenti che sono clienti o potenziali tali. Questi professionisti si relazionano con gli utenti in maniera coerente all’immagine che l’azienda vuole fornire di sé. Può capitare, anzi capita spesso, che il cliente interagisca con il servizio clienti dell’azienda in maniera del tutto informale. Per quanto il paragone possa sembrare azzardato, non è irragionevole credere che un approccio simile funzioni anche nell’ambito di una campagna di crowdfunding, tanto più che tra gli obiettivi della stessa c’è il rafforzamento della community e del senso di appartenenza ad essa. Emerge, quindi, come sia necessario e imprescindibile un lavoro di squadra che stabilisca obiettivi e tempi, definendo accuratamente il target, realizzando un buon piano di comunicazione, con un obiettivo finanziario realistico.
Materiali utili:
http://www.slideshare.net/AccountDiValentina/report-26192324?utm_source=slideshow03&utm_medium=ssemail&utm_campaign=share_slideshow_loggedout
[http://www.infooggi.it/articolo/le-possibilita-offerte-dal-civic-crowdfunding/53223/]
[http://www.altoionio.com/blog/le-possibilita-del-civic-crowdsourcing.html]
sabato 9 novembre 2013
Dossier 'Outsourcing e gestione dei servizi archivistici e documentali' - CONCLUSIONI
Nell’attuale ambiente competitivo, caratterizzato da grande incertezza, da continui, repentini mutamenti e da uno sviluppo tecnologico in continua accelerazione, la necessità per le imprese di dotarsi di una struttura flessibile è diventato un imperativo non più soltanto per acquisire un vantaggio rispetto ai concorrenti ma, addirittura, per sopravvivere sul mercato.
Nell’era dell’Information e Communication Technology è il concetto stesso di informazione che si è ampliato e con esso anche la nozione di documento ne risulta modificata. Una prima definizione di “documento informatico” è stata introdotta nel nostro ordinamento dalla legge 23 dicembre 1993 n. 547, in materia di criminalità informatica, che stabilisce che si può considerare documento informatico “qualunque supporto informatico contenente dati e informazioni aventi efficacia probatoria o programmi specificamente destinati ad elaborarli”. La legge n.59 del 1997, all’articolo 15, stabilisce che "gli atti, dati e documenti, formati dalla pubblica amministrazione e dai privati con strumenti informatici o telematici, i contratti stipulati nelle medesime forme, nonché la loro archiviazione e trasmissione con strumenti informatici, sono validi e rilevanti a tutti gli effetti di legge", mentre il d.p.r. 445 del 28 dicembre 2000 ha fissato i requisiti che il documento informatico, inteso come "la rappresentazione informatica di atti, fatti o dati giuridicamente rilevanti", deve rispettare per avere pieno valore legale. Oggi il Codice della Pubblica Amministrazione Digitale obbliga tutte le amministrazioni a gestire i documenti con sistemi informatici, mediante il protocollo informatico e l’archiviazione elettronica che consente enormi risparmi di spazio e soprattutto di rintracciare velocemente qualsiasi documento, riducendo in tal modo i tempi e i costi di ricerca, e allo stesso tempo anche i costi di gestione e manutenzione degli archivi.
Il governo e la gestione di questi complessi cambiamenti necessita, ovviamente, di personale altamente specializzato. In riferimento ai servizi di outsourcing archivistico, ciò di cui si ha bisogno è un’adeguata formazione sia nel campo archivistico che in quello informatico.
In funzione di queste nuove tipologie documentali si sta delineando una nuova figura di archivista, completamente integrata con le nuove normative ed esigenze tecnologiche, in grado di effettuare analisi approfondite di processi e flussi documentali informatici, il tutto continuando a svolgere funzioni tipiche come: definire tipologie di documenti, progettare e produrre manuali di archiviazione, titolari e massimari di conservazione e di scarto.
Figure professionali, in tal senso competenti, dovrebbero essere presenti sia presso le amministrazioni pubbliche e private, sia presso le società che offrono servizi di esternalizzazione, di modo che, nel momento in cui l’ente decida di affidare all’esterno la gestione e la conservazione della documentazione, sia possibile elaborare soluzioni adeguate che possano garantire la massima sicurezza ed affidabilità dei processi, fornendo soluzioni adatte alla gestione dell’archivio documentale in ogni sua forma e sua fase del ciclo vitale.
.......................
Il dossier completo è acquistabile dal catalogo di ebook on line del centro di formazione GianoForlab, all'indirizzo www.gianoforlb.it, sezione SHOP.
Nell’era dell’Information e Communication Technology è il concetto stesso di informazione che si è ampliato e con esso anche la nozione di documento ne risulta modificata. Una prima definizione di “documento informatico” è stata introdotta nel nostro ordinamento dalla legge 23 dicembre 1993 n. 547, in materia di criminalità informatica, che stabilisce che si può considerare documento informatico “qualunque supporto informatico contenente dati e informazioni aventi efficacia probatoria o programmi specificamente destinati ad elaborarli”. La legge n.59 del 1997, all’articolo 15, stabilisce che "gli atti, dati e documenti, formati dalla pubblica amministrazione e dai privati con strumenti informatici o telematici, i contratti stipulati nelle medesime forme, nonché la loro archiviazione e trasmissione con strumenti informatici, sono validi e rilevanti a tutti gli effetti di legge", mentre il d.p.r. 445 del 28 dicembre 2000 ha fissato i requisiti che il documento informatico, inteso come "la rappresentazione informatica di atti, fatti o dati giuridicamente rilevanti", deve rispettare per avere pieno valore legale. Oggi il Codice della Pubblica Amministrazione Digitale obbliga tutte le amministrazioni a gestire i documenti con sistemi informatici, mediante il protocollo informatico e l’archiviazione elettronica che consente enormi risparmi di spazio e soprattutto di rintracciare velocemente qualsiasi documento, riducendo in tal modo i tempi e i costi di ricerca, e allo stesso tempo anche i costi di gestione e manutenzione degli archivi.
Il governo e la gestione di questi complessi cambiamenti necessita, ovviamente, di personale altamente specializzato. In riferimento ai servizi di outsourcing archivistico, ciò di cui si ha bisogno è un’adeguata formazione sia nel campo archivistico che in quello informatico.
In funzione di queste nuove tipologie documentali si sta delineando una nuova figura di archivista, completamente integrata con le nuove normative ed esigenze tecnologiche, in grado di effettuare analisi approfondite di processi e flussi documentali informatici, il tutto continuando a svolgere funzioni tipiche come: definire tipologie di documenti, progettare e produrre manuali di archiviazione, titolari e massimari di conservazione e di scarto.
Figure professionali, in tal senso competenti, dovrebbero essere presenti sia presso le amministrazioni pubbliche e private, sia presso le società che offrono servizi di esternalizzazione, di modo che, nel momento in cui l’ente decida di affidare all’esterno la gestione e la conservazione della documentazione, sia possibile elaborare soluzioni adeguate che possano garantire la massima sicurezza ed affidabilità dei processi, fornendo soluzioni adatte alla gestione dell’archivio documentale in ogni sua forma e sua fase del ciclo vitale.
.......................
Il dossier completo è acquistabile dal catalogo di ebook on line del centro di formazione GianoForlab, all'indirizzo www.gianoforlb.it, sezione SHOP.
mercoledì 6 novembre 2013
Settore ICT e Business Management
Gli ultimi anni sono stati per il settore dell’Information & Communication Technology (ICT) un palcoscenico importante per le più variegate rappresentazioni, sia in termini tecnologici, che di mercati e loro attori. Un fatto inconfutabile è rappresentato dalle conseguenze dei dirompenti effetti delle convergenze nelle tecnologie, nei prodotti e nei servizi; una profonda trasformazione che si potrebbe identificare come il prologo di un cambiamento che si concretizza, innanzitutto nella maniera di concepire e pensare i processi aziendali. Inventare nuove tecnologie non basta: occorre comprenderle e padroneggiarle per poterle utilizzare e gestire con saggezza e al meglio.
Un’azienda per mantenere la leadership deve sapere cavalcare l’onda prima e meglio degli altri, riuscendo a capire qual è il suo fabbisogno informativo, filtrando le informazioni di cui è oppure entra in possesso e utilizzandole in maniera opportuna, anche in relazione alle nuove infrastrutture di unified communication a supporto del business aziendale e a soluzioni tecnologiche innovative. Un’integrazione di impianti e prodotti multibrand che realizzano automatismi utili per organizzare al meglio la comunicazione da e verso l’azienda, a supporto del business aziendale.
L’universo-imprese, che costituisce il settore ICT, si muove costantemente su tre elementi essenziali: i servizi, le tecnologie, il tempo. Ognuno di questi fattori arricchisce la capacità funzionale dell’azienda ed è un punto di incastro ed espansione per i servizi prodotti e offerti dall’azienda stessa.
Capire le dinamiche in continuo mutamento dei mercati e utilizzare in maniera opportuna le tecnologie e i servizi ad esse e tra loro interconnesse, spinge a cogliere l’informazione come più atomica possibile, a tracciarla e interpretarla con maggiore rapidità e immediatezza. Tutto questo amplifica l’attenzione delle aziende sulla loro fonte più importante e complessa al tempo stesso: l’individuo, che ne è parte integrante e operante e sull’esigenza di una sua continua formazione, al fine di migliorare i processi aziendali nell’ambito di un ambiente collaborativo moderno ed efficiente.
Un’azienda per mantenere la leadership deve sapere cavalcare l’onda prima e meglio degli altri, riuscendo a capire qual è il suo fabbisogno informativo, filtrando le informazioni di cui è oppure entra in possesso e utilizzandole in maniera opportuna, anche in relazione alle nuove infrastrutture di unified communication a supporto del business aziendale e a soluzioni tecnologiche innovative. Un’integrazione di impianti e prodotti multibrand che realizzano automatismi utili per organizzare al meglio la comunicazione da e verso l’azienda, a supporto del business aziendale.
L’universo-imprese, che costituisce il settore ICT, si muove costantemente su tre elementi essenziali: i servizi, le tecnologie, il tempo. Ognuno di questi fattori arricchisce la capacità funzionale dell’azienda ed è un punto di incastro ed espansione per i servizi prodotti e offerti dall’azienda stessa.
Capire le dinamiche in continuo mutamento dei mercati e utilizzare in maniera opportuna le tecnologie e i servizi ad esse e tra loro interconnesse, spinge a cogliere l’informazione come più atomica possibile, a tracciarla e interpretarla con maggiore rapidità e immediatezza. Tutto questo amplifica l’attenzione delle aziende sulla loro fonte più importante e complessa al tempo stesso: l’individuo, che ne è parte integrante e operante e sull’esigenza di una sua continua formazione, al fine di migliorare i processi aziendali nell’ambito di un ambiente collaborativo moderno ed efficiente.
martedì 5 novembre 2013
Accessibilità dei siti istituzionali della PA
Nella progettazione di un sito Internet, il concetto di accessibilità non si limita alla realizzazione di un layout grafico, ma deve in qualche modo fare i conti con le interfacce più proprie del navigatore, ovvero il suo sistema visivo, uditivo e tattile, e con la sua capacità motoria di interazione. I sistemi informatizzati, infatti, possono costituire una barriera, invece che un accesso, qualora vengano progettati senza tener conto delle esigenze delle persone con disabilità percettive, motorie o cognitive. Contrariamente allo spirito del web, l'introduzione massiccia delle tecnologie informatiche nella pubblica amministrazione rischia di costituire un elemento di esclusione sociale, non solo per quanto riguarda il mondo del lavoro, ma, con l'evoluzione dell'e-government e della distribuzione in Internet di servizi al cittadino.
I Governi hanno cominciato a porsi il problema e a dotarsi di normative per garantire a tutti i cittadini l'accesso alle tecnologie e all'informazione. In generale le diverse normative hanno il duplice obiettivo di garantire sia le persone disabili che lavorano nella pubblica amministrazione e che hanno necessità di utilizzare le strutture informatiche, sia i cittadini disabili che vogliono accedere ai servizi distribuiti in rete. Le prime iniziative del Governo degli Stati Uniti d'America in tema di tecnologie accessibili, ad esempio, partono dal 1998, quando viene emanato un importante provvedimento normativo, la ‘Section 508’, che stabilisce i requisiti di accessibilità dei siti Internet per gli Stati Federali. L'impatto della Section 508 travalica i confini degli USA: basti pensare che alcuni dei programmi di authoring per siti Internet più utilizzati arrivano in Italia con i sistemi di correzione automatica del codice predisposti proprio per la Section 508.
In Europa, l'obiettivo di garantire l'accessibilità ai siti web è perseguito dalla Comunicazione della Commissione Europea del 25 settembre del 2001 "eEurope 2002: accessibilità e contenuto dei siti Internet delle amministrazioni pubbliche", e nello specifico, in Italia, la prima direttiva in fatto di accessibilità dei siti Internet arriva nel 2001 con una disposizione dell'Autorità per l'Informatica nella Pubblica Amministrazione, la Circolare AIPA del 6 settembre 2001. Ulteriori sviluppi sono costituiti dalla Legge del 9 gennaio 2004, n. 4: "Disposizioni per favorire l'accesso dei soggetti disabili agli strumenti informatici", pubblicata sulla Gazzetta Ufficiale n. 13 del 17 gennaio 2004. Alla legge, generalmente indicata come "Legge Stanca", ha fatto seguito lo Schema del Regolamento di Attuazione, approvato durante il Consiglio dei Ministri del 9 luglio 2004. Tutte le normative per la valutazione dell'accessibilità di un sito web fanno esplicito riferimento alle linee guida sull'accessibilità del W3C (http://www.w3.org/TR/WCAG/) (World Wide Web Consortium), che analizzano ad uno ad uno gli elementi di una pagina web - testo, fondo, colore, immagini, tabelle, form, frame, plugin, applet, ecc. e per ognuno di essi stabiliscono criteri di accessibilità.
L'accessibilità, quindi, può essere considerata il grado zero di garanzia democratica, il grado in cui a tutti viene assicurato l'uso degli strumenti informatici di cui la pubblica amministrazione intende dotarsi. L'impiego delle tecnologie informatiche nei processi di produzione, siano essi aziendali o culturali, opera sul cambiamento dei paradigmi sociali e politici di interazione e cooperazione tra individuo e individuo, e individuo e collettività.
Su questo terreno fertile, l'introduzione delle reti informatiche nella PA, e la conseguente nascita dell'e-government, rappresenta sicuramente una delle sfide più interessanti per le democrazie moderne.
[http://www.infooggi.it/articolo/esigenze-di-accessibilita-per-i-siti-isituzionali-della-pa/52754/]
I Governi hanno cominciato a porsi il problema e a dotarsi di normative per garantire a tutti i cittadini l'accesso alle tecnologie e all'informazione. In generale le diverse normative hanno il duplice obiettivo di garantire sia le persone disabili che lavorano nella pubblica amministrazione e che hanno necessità di utilizzare le strutture informatiche, sia i cittadini disabili che vogliono accedere ai servizi distribuiti in rete. Le prime iniziative del Governo degli Stati Uniti d'America in tema di tecnologie accessibili, ad esempio, partono dal 1998, quando viene emanato un importante provvedimento normativo, la ‘Section 508’, che stabilisce i requisiti di accessibilità dei siti Internet per gli Stati Federali. L'impatto della Section 508 travalica i confini degli USA: basti pensare che alcuni dei programmi di authoring per siti Internet più utilizzati arrivano in Italia con i sistemi di correzione automatica del codice predisposti proprio per la Section 508.
In Europa, l'obiettivo di garantire l'accessibilità ai siti web è perseguito dalla Comunicazione della Commissione Europea del 25 settembre del 2001 "eEurope 2002: accessibilità e contenuto dei siti Internet delle amministrazioni pubbliche", e nello specifico, in Italia, la prima direttiva in fatto di accessibilità dei siti Internet arriva nel 2001 con una disposizione dell'Autorità per l'Informatica nella Pubblica Amministrazione, la Circolare AIPA del 6 settembre 2001. Ulteriori sviluppi sono costituiti dalla Legge del 9 gennaio 2004, n. 4: "Disposizioni per favorire l'accesso dei soggetti disabili agli strumenti informatici", pubblicata sulla Gazzetta Ufficiale n. 13 del 17 gennaio 2004. Alla legge, generalmente indicata come "Legge Stanca", ha fatto seguito lo Schema del Regolamento di Attuazione, approvato durante il Consiglio dei Ministri del 9 luglio 2004. Tutte le normative per la valutazione dell'accessibilità di un sito web fanno esplicito riferimento alle linee guida sull'accessibilità del W3C (http://www.w3.org/TR/WCAG/) (World Wide Web Consortium), che analizzano ad uno ad uno gli elementi di una pagina web - testo, fondo, colore, immagini, tabelle, form, frame, plugin, applet, ecc. e per ognuno di essi stabiliscono criteri di accessibilità.
L'accessibilità, quindi, può essere considerata il grado zero di garanzia democratica, il grado in cui a tutti viene assicurato l'uso degli strumenti informatici di cui la pubblica amministrazione intende dotarsi. L'impiego delle tecnologie informatiche nei processi di produzione, siano essi aziendali o culturali, opera sul cambiamento dei paradigmi sociali e politici di interazione e cooperazione tra individuo e individuo, e individuo e collettività.
Su questo terreno fertile, l'introduzione delle reti informatiche nella PA, e la conseguente nascita dell'e-government, rappresenta sicuramente una delle sfide più interessanti per le democrazie moderne.
[http://www.infooggi.it/articolo/esigenze-di-accessibilita-per-i-siti-isituzionali-della-pa/52754/]
giovedì 31 ottobre 2013
Nuvole non campate in aria: il cloud computing
Il fabbisogno di archiviazione digitale per il marcato consumer supererà nel 2016 la cifra di quattromila miliardi di gigabyte. La quantità storica di device mobili caratterizzano l’era post pc in cui ci troviamo a vivere oggi, un momento storico in cui tutti siamo in grado di produrre e condividere quantità industriali di file testuali e grafici, gestibili in maniera più semplice e fulminea utilizzando i nuovi servizi di cloud computing, in quanto una tecnologia che permette l’utilizzo di risorse software e hardware in remoto, rendendo accessibili applicazioni e dati da qualsiasi luogo e con qualsiasi dispositivo.
Secondo i report elaborati da Gartner, proprio i servizi legati al cloud pubblico, attinente alle cosiddette reti aperte, sono in continuo aumento, tanto che anche la Commissione Europea ha da poco varato un piano per “liberare il potenziale del Cloud computing”, in quanto risulterebbe in grado di generare guadagni sia in termini monetari che occupazionali: si parla di un aumento annuo del Pil pari all’uno per cento (circa cento sessanta miliardi di euro) e due milioni di nuovi posti di lavoro.
Lo stesso termine “cloud computing” porta con sé qualcosa di innovativo e rivoluzionario dal punto di vista dell’impatto che questi nuovi servizi avranno nella nostra società. La novità non sta certo nell’utilizzo delle tecnologie, ma nel tipo e nella modalità di impiego delle applicazioni pratiche legate ad esse, sempre più svariate e interconnesse tra di loro. Quasi ognuno di noi possiede almeno una casella di posta elettronica e ne conosce le funzionalità basilari. Quest’ultima, però se opportunamente integrata ai servizi cloud, diventa una vera e propria piattaforma, in cui sincronizzazione, accesso e condivisione dei documenti diventano sempre più facili e soprattutto immediati, senza il rischio di intasare gli inbox o farsi bloccare dai servizi aziendali. Ma tali applicazioni possono riferirsi anche a contesti e argomenti più “ludici” o (ri)creativi. Ad esempio il team work di Google Emea, sta sperimentano l’utilizzo e l’attivazione di una Universal orchestra, un’orchestra robotica, fruibile on line, composta da diversi elementi musicali, capace di creare melodie attraverso input provenienti da tutto il mondo.
Come, in definitiva, afferma Derrick de Kerchov, grande informatico moderno, “Opposto di twitter, che è l’allargamento diastolico del potere di intervento di ciascuno, il cloud computing è l’implosione della memoria e convergenza generale di ogni cosa.” Condivisione e creazione della conoscenza, attraverso l’integrazione dei servizi destinati alla sua gestione e al suo utilizzo.
Secondo i report elaborati da Gartner, proprio i servizi legati al cloud pubblico, attinente alle cosiddette reti aperte, sono in continuo aumento, tanto che anche la Commissione Europea ha da poco varato un piano per “liberare il potenziale del Cloud computing”, in quanto risulterebbe in grado di generare guadagni sia in termini monetari che occupazionali: si parla di un aumento annuo del Pil pari all’uno per cento (circa cento sessanta miliardi di euro) e due milioni di nuovi posti di lavoro.
Lo stesso termine “cloud computing” porta con sé qualcosa di innovativo e rivoluzionario dal punto di vista dell’impatto che questi nuovi servizi avranno nella nostra società. La novità non sta certo nell’utilizzo delle tecnologie, ma nel tipo e nella modalità di impiego delle applicazioni pratiche legate ad esse, sempre più svariate e interconnesse tra di loro. Quasi ognuno di noi possiede almeno una casella di posta elettronica e ne conosce le funzionalità basilari. Quest’ultima, però se opportunamente integrata ai servizi cloud, diventa una vera e propria piattaforma, in cui sincronizzazione, accesso e condivisione dei documenti diventano sempre più facili e soprattutto immediati, senza il rischio di intasare gli inbox o farsi bloccare dai servizi aziendali. Ma tali applicazioni possono riferirsi anche a contesti e argomenti più “ludici” o (ri)creativi. Ad esempio il team work di Google Emea, sta sperimentano l’utilizzo e l’attivazione di una Universal orchestra, un’orchestra robotica, fruibile on line, composta da diversi elementi musicali, capace di creare melodie attraverso input provenienti da tutto il mondo.
Come, in definitiva, afferma Derrick de Kerchov, grande informatico moderno, “Opposto di twitter, che è l’allargamento diastolico del potere di intervento di ciascuno, il cloud computing è l’implosione della memoria e convergenza generale di ogni cosa.” Condivisione e creazione della conoscenza, attraverso l’integrazione dei servizi destinati alla sua gestione e al suo utilizzo.
lunedì 28 ottobre 2013
Conclusasi la quinta Festa Nazionale di Avviso Pubblico per la cultura della legalità
Mentre si discute ancora sulla commissione antimafia, la rete degli amministratori pubblici e l’Associazione per la legalità ‘Avviso Pubblico’ ha da poco finito di celebrare la sua quinta Festa Nazionale, che si è svolta in Calabria, a Lamezia Terme (CZ), il 25 e il 26 ottobre, intitolata “Amministratori sotto tiro. La buona politica contro le mafie”.
Sono stati due giorni di incontri e dibattiti dedicati alla cultura della legalità nella scuola e nello sport, alla prevenzione e al contrasto alle mafie e alla corruzione. A confrontarsi, personalità politiche, amministratori locali, magistrati, forze dell’ordine, mondo delle imprese, organizzazioni sindacali, associazioni e studenti.
Quest’anno è stata scelta la Calabria poiché, come documenta da alcuni anni il Rapporto di Avviso Pubblico intitolato “Amministratori sotto tiro”, in questa regione si registra il maggior numero di atti di intimidazione e di minacce nei confronti degli amministratori locali.
Lamezia Terme è diventata per l’occasione la città simbolo della buona politica contro le mafie, per potersi confrontare sui temi della cultura della legalità, della prevenzione e sul corretto espletamento delle azioni amministrative. Gli enti nazionali e locali si trovano oggigiorno nella condizione di dovere provvedere alla definizione del Piano anticorruzione, a seguito della definitiva recente approvazione di quanto previsto dalla Legge 190/2012, che analizza nel dettaglio l'attività e la funzione di controllo interno, nonché di lotta alla criminalità al fine di individuare e promuovere le buone prassi che gli enti locali e regionali devono adottare allo scopo di proteggersi da eventuali infiltrazioni mafiose o corruttive.
L’associazione Avviso Pubblico dal 1996 lavora per collegare gli amministratori pubblici che concretamente si impegnano a promuovere tale cultura della legalità democratica nella politica, nella Pubblica amministrazione e sul territorio nazionale in genere.
Il programma si è articolato in tre tavole rotonde: ‘Le regole del gioco, il gioco delle regole. Scuola, sport e cultura della legalità’, ‘Prevenire e contrastare mafie e corruzione. Quali risultati all’applicazione del Codice antimafia e della legge 190/2012?’, ‘Amministratori sotto tiro. Intimidazioni mafiose e buona politica. Presentazione del rapporto di Avviso Pubblico’.
Tanti gli ospiti di rilevanza nazionale presenti Marco Rossi Doria, Sottosegretario al Ministero dell’Istruzione, Damiano Tommasi, Presidente Associazione Italiana Calciatori, Piergiorgio Morosini, Giudice per le indagini preliminari a Palermo, Marco Minniti, Sottosegretario alla Presidenza del Consiglio dei Ministri, Giuseppe Caruso, Direttore Agenzia nazionale per l’amministrazione e la destinazione dei beni sequestrati e confiscati alla criminalità organizzata e Filippo Bubbico, Viceministro dell’Interno.
[http://www.infooggi.it/articolo/conclusasi-la-quinta-festa-nazionale-di-avviso-pubblico-per-la-cultura-della-legalita/52250/]
Sono stati due giorni di incontri e dibattiti dedicati alla cultura della legalità nella scuola e nello sport, alla prevenzione e al contrasto alle mafie e alla corruzione. A confrontarsi, personalità politiche, amministratori locali, magistrati, forze dell’ordine, mondo delle imprese, organizzazioni sindacali, associazioni e studenti.
Quest’anno è stata scelta la Calabria poiché, come documenta da alcuni anni il Rapporto di Avviso Pubblico intitolato “Amministratori sotto tiro”, in questa regione si registra il maggior numero di atti di intimidazione e di minacce nei confronti degli amministratori locali.
Lamezia Terme è diventata per l’occasione la città simbolo della buona politica contro le mafie, per potersi confrontare sui temi della cultura della legalità, della prevenzione e sul corretto espletamento delle azioni amministrative. Gli enti nazionali e locali si trovano oggigiorno nella condizione di dovere provvedere alla definizione del Piano anticorruzione, a seguito della definitiva recente approvazione di quanto previsto dalla Legge 190/2012, che analizza nel dettaglio l'attività e la funzione di controllo interno, nonché di lotta alla criminalità al fine di individuare e promuovere le buone prassi che gli enti locali e regionali devono adottare allo scopo di proteggersi da eventuali infiltrazioni mafiose o corruttive.
L’associazione Avviso Pubblico dal 1996 lavora per collegare gli amministratori pubblici che concretamente si impegnano a promuovere tale cultura della legalità democratica nella politica, nella Pubblica amministrazione e sul territorio nazionale in genere.
Il programma si è articolato in tre tavole rotonde: ‘Le regole del gioco, il gioco delle regole. Scuola, sport e cultura della legalità’, ‘Prevenire e contrastare mafie e corruzione. Quali risultati all’applicazione del Codice antimafia e della legge 190/2012?’, ‘Amministratori sotto tiro. Intimidazioni mafiose e buona politica. Presentazione del rapporto di Avviso Pubblico’.
Tanti gli ospiti di rilevanza nazionale presenti Marco Rossi Doria, Sottosegretario al Ministero dell’Istruzione, Damiano Tommasi, Presidente Associazione Italiana Calciatori, Piergiorgio Morosini, Giudice per le indagini preliminari a Palermo, Marco Minniti, Sottosegretario alla Presidenza del Consiglio dei Ministri, Giuseppe Caruso, Direttore Agenzia nazionale per l’amministrazione e la destinazione dei beni sequestrati e confiscati alla criminalità organizzata e Filippo Bubbico, Viceministro dell’Interno.
[http://www.infooggi.it/articolo/conclusasi-la-quinta-festa-nazionale-di-avviso-pubblico-per-la-cultura-della-legalita/52250/]
martedì 22 ottobre 2013
Insegnanti e nuove competenze digitali
Esigenze di innovazione e potenziamento delle competenze e delle conoscenze ICT per gli insegnanti in base ai cambiamenti dei curricola scolastici e delle mutate esigenze dei processi didattici di insegnamento e apprendimento
L’attuale società della conoscenza richiede una profonda innovazione del sistema scolastico e di tutti i suoi elementi: strutture, organizzazione, risorse, metodi e contenuti.
Gli insegnanti giocano un ruolo chiave nel processo di innovazione e devono tener conto per il proprio sviluppo professionale delle sfide e dei problemi posti dalla società odierna. Il profilo professionale del docente deve allora includere competenze sulle tecnologie considerate come uno strumento per il miglioramento della produttività individuale e delle abilità di interazione e comunicazione.
Tale profilo dovrebbe quindi comprendere le abilità di creazione ed utilizzo di ambienti atti a facilitare il processo
stesso di apprendimento, così come le abilità di utilizzo delle ICT in ogni singolo aspetto della pratica del docente.
In Europa la formazione abilitante compete alle università o agli istituti di istruzione superiore e chi vi accede deve possedere le qualifiche richieste per l’ammissione alla formazione universitaria. Per l’insegnamento ai livelli prescolastico, primario ed in qualche caso secondario inferiore, tale qualifica consiste in un certificato ottenuto al termine della scuola secondaria superiore.
Per l’insegnamento nella scuola secondaria, invece, il requisito d’ingresso al corso abilitante consiste solitamente in un diploma di laurea nella materia che si intende insegnare.
Spesso il possesso di un titolo non è l’unico prerequisito richiesto; alcuni paesi stimano periodicamente il fabbisogno a breve-medio termine di insegnanti e su questa base fissano delle soglie numeriche e meritocratiche per l’ammissione ai corsi di formazione.
I percorsi abilitanti dei paesi europei sono riconducibili a due modelli: il modello simultaneo e quello consecutivo. La maggioranza degli aspiranti insegnanti del livello prescolastico e primario ottiene l’abilitazione frequentando corsi “simultanei” della durata di tre o quattro anni, così denominati in quanto i programmi di tali corsi prevedono, oltre che contenuti disciplinari e metodologici, anche esperienze pratiche nelle
scuole. È invece molto basso in Europa il numero di aspiranti insegnanti destinati alla scuola primaria che segue un corso abilitante post-lauream (consecutivo), della durata di una o due sessioni accademiche. I corsi consecutivi, frequentati principalmente da chi intende insegnare nella scuola secondaria, sono successivi al corso di laurea in una determinata disciplina e prevedono percorsi professionalizzanti di durata variabile.
Le politiche di formazione sulle nuove tecnologie per i percorsi abilitanti variano molto da un paese all’altro e talvolta anche all’interno di uno stesso paese. Le università e gli istituti che si occupano di formazione iniziale esercitano in genere una notevole autonomia sulla natura dei corsi erogati per gli aspiranti insegnanti pur dovendo, allo stesso tempo, attenersi a requisiti minimi fissati da una struttura centralizzata. Nella maggioranza dei paesi europei, infatti, gli istituti redigono i curricula dei corsi osservando le linee guida e gli standard prescritti dagli organi di governo. L’ampia eterogeneità delle competenze d’ingresso sulle ICT degli aspiranti insegnanti obbliga gli istituti responsabili della formazione iniziale ad offrire corsi di vario livello, obbligatori o opzionali; dall’analisi dei contenuti dei corsi sono emerse tre principali classi di competenze.
La prima classe riguarda le competenze di base nell’utilizzo delle nuove tecnologie, abilità che tutti gli insegnanti dovrebbero possedere. Se si tiene conto infatti della diffusione delle nuove tecnologie fra gli studenti, che le utilizzano abitualmente anche al di fuori dell’ambiente scolastico, le competenze di base nelle ICT costituiscono sempre di più un prerequisito essenziale per poter operare nella società della conoscenza. Un numero sempre maggiore di istituzioni richiede richiede quindi agli insegnanti questo tipo di competenze.
La consapevolezza, ormai diffusa in tutti i paesi europei, che lo sviluppo professionale sulle nuove tecnologie per l’educazione costituisca un fattore chiave per l’innovazione scolastica, si è tradotta in approcci diversificati al problema, che potrebbero essere idealmente allocati su un continuum al cui estremo si collocano sistemi decentrati e iniziative autonome, e all’estremo opposto sistemi molto strutturati ed accentrati. Le iniziative decentrate sono promosse da enti pubblici o da istituti privati certificati che provvedono autonomamente all’erogazione dei corsi per insegnanti in servizio.
Nei sistemi accentrati, invece, la formazione continua è completamente organizzata e gestita a livello nazionale da un unico organismo centrale.
L’ampia eterogeneità degli approcci adottati per la formazione in servizio ha reso l’identificazione delle tipologie di competenze sulle ICT più complessa rispetto a quella effettuata per la formazione iniziale. Molti
paesi sono infatti privi di un quadro di riferimento, per cui risulta difficoltoso individuare caratteristiche comuni fra le molteplici iniziative di formazione in servizio. Contenuti e abilità su cui si incentrano tali iniziative sono invece rintracciabili chiaramente laddove sussistono approcci centralizzati o piani nazionali, e possono essere classificati in tre categorie: l’utilizzo efficace delle ICT, l’utilizzo didattico delle ICT, la capacità di affrontare con le ICT problemi di pratica quotidiana posti dalla società della conoscenza.
L’attuale società della conoscenza richiede una profonda innovazione del sistema scolastico e di tutti i suoi elementi: strutture, organizzazione, risorse, metodi e contenuti.
Gli insegnanti giocano un ruolo chiave nel processo di innovazione e devono tener conto per il proprio sviluppo professionale delle sfide e dei problemi posti dalla società odierna. Il profilo professionale del docente deve allora includere competenze sulle tecnologie considerate come uno strumento per il miglioramento della produttività individuale e delle abilità di interazione e comunicazione.
Tale profilo dovrebbe quindi comprendere le abilità di creazione ed utilizzo di ambienti atti a facilitare il processo
stesso di apprendimento, così come le abilità di utilizzo delle ICT in ogni singolo aspetto della pratica del docente.
In Europa la formazione abilitante compete alle università o agli istituti di istruzione superiore e chi vi accede deve possedere le qualifiche richieste per l’ammissione alla formazione universitaria. Per l’insegnamento ai livelli prescolastico, primario ed in qualche caso secondario inferiore, tale qualifica consiste in un certificato ottenuto al termine della scuola secondaria superiore.
Per l’insegnamento nella scuola secondaria, invece, il requisito d’ingresso al corso abilitante consiste solitamente in un diploma di laurea nella materia che si intende insegnare.
Spesso il possesso di un titolo non è l’unico prerequisito richiesto; alcuni paesi stimano periodicamente il fabbisogno a breve-medio termine di insegnanti e su questa base fissano delle soglie numeriche e meritocratiche per l’ammissione ai corsi di formazione.
I percorsi abilitanti dei paesi europei sono riconducibili a due modelli: il modello simultaneo e quello consecutivo. La maggioranza degli aspiranti insegnanti del livello prescolastico e primario ottiene l’abilitazione frequentando corsi “simultanei” della durata di tre o quattro anni, così denominati in quanto i programmi di tali corsi prevedono, oltre che contenuti disciplinari e metodologici, anche esperienze pratiche nelle
scuole. È invece molto basso in Europa il numero di aspiranti insegnanti destinati alla scuola primaria che segue un corso abilitante post-lauream (consecutivo), della durata di una o due sessioni accademiche. I corsi consecutivi, frequentati principalmente da chi intende insegnare nella scuola secondaria, sono successivi al corso di laurea in una determinata disciplina e prevedono percorsi professionalizzanti di durata variabile.
Le politiche di formazione sulle nuove tecnologie per i percorsi abilitanti variano molto da un paese all’altro e talvolta anche all’interno di uno stesso paese. Le università e gli istituti che si occupano di formazione iniziale esercitano in genere una notevole autonomia sulla natura dei corsi erogati per gli aspiranti insegnanti pur dovendo, allo stesso tempo, attenersi a requisiti minimi fissati da una struttura centralizzata. Nella maggioranza dei paesi europei, infatti, gli istituti redigono i curricula dei corsi osservando le linee guida e gli standard prescritti dagli organi di governo. L’ampia eterogeneità delle competenze d’ingresso sulle ICT degli aspiranti insegnanti obbliga gli istituti responsabili della formazione iniziale ad offrire corsi di vario livello, obbligatori o opzionali; dall’analisi dei contenuti dei corsi sono emerse tre principali classi di competenze.
La prima classe riguarda le competenze di base nell’utilizzo delle nuove tecnologie, abilità che tutti gli insegnanti dovrebbero possedere. Se si tiene conto infatti della diffusione delle nuove tecnologie fra gli studenti, che le utilizzano abitualmente anche al di fuori dell’ambiente scolastico, le competenze di base nelle ICT costituiscono sempre di più un prerequisito essenziale per poter operare nella società della conoscenza. Un numero sempre maggiore di istituzioni richiede richiede quindi agli insegnanti questo tipo di competenze.
La consapevolezza, ormai diffusa in tutti i paesi europei, che lo sviluppo professionale sulle nuove tecnologie per l’educazione costituisca un fattore chiave per l’innovazione scolastica, si è tradotta in approcci diversificati al problema, che potrebbero essere idealmente allocati su un continuum al cui estremo si collocano sistemi decentrati e iniziative autonome, e all’estremo opposto sistemi molto strutturati ed accentrati. Le iniziative decentrate sono promosse da enti pubblici o da istituti privati certificati che provvedono autonomamente all’erogazione dei corsi per insegnanti in servizio.
Nei sistemi accentrati, invece, la formazione continua è completamente organizzata e gestita a livello nazionale da un unico organismo centrale.
L’ampia eterogeneità degli approcci adottati per la formazione in servizio ha reso l’identificazione delle tipologie di competenze sulle ICT più complessa rispetto a quella effettuata per la formazione iniziale. Molti
paesi sono infatti privi di un quadro di riferimento, per cui risulta difficoltoso individuare caratteristiche comuni fra le molteplici iniziative di formazione in servizio. Contenuti e abilità su cui si incentrano tali iniziative sono invece rintracciabili chiaramente laddove sussistono approcci centralizzati o piani nazionali, e possono essere classificati in tre categorie: l’utilizzo efficace delle ICT, l’utilizzo didattico delle ICT, la capacità di affrontare con le ICT problemi di pratica quotidiana posti dalla società della conoscenza.
lunedì 21 ottobre 2013
Alcuni esempi di outsourcing archivistico del passato - DOSSIER 'Outsourcing e gestione dei servizi archivistici e documentali' - Cap. VI
Il fenomeno dell’affidamento a terzi della gestione degli archivi, da parte di enti pubblici e privati, ad azienda in grado di offrire servizi globali di custodia, organizzazione, ricerca e movimentazione del materiale documentario, non è nuovo.
Maria Grazia Pastura, nella sua introduzione ai lavori del seminario tenutosi a Roma nel marzo 1999 dall’Associazione Nazionale Archivisti Italiani (ANAI), riportata nel volume che raccoglie tutti gli interventi di questo dibattito sulle nuove prospettive di gestione degli archivi, sostiene:
[Il fenomeno dell’outsourcing archivistico] dall’inizio dell’ultimo decennio è stato posto all’attenzione dell’Ufficio centrale per i beni archivistici da alcune Soprintendenze archivistiche. Si manifestavano preoccupazioni per la prospettiva di un ampliamento di questo costume, e per i suoi possibili esiti: responsabilizzazione degli Enti pubblici rispetto agli obblighi di custodia e di conservazione degli archivi, difficoltà di entrare in contatto con gli outsourcer, restii a riconoscere nella Soprintendenza il proprio interlocutore, difficoltà di controllare archivi spesso trasportati fuori dal territorio di giurisdizione delle singole soprintendenze, con i conseguenti problemi logistici e giuridici.
L’affidamento del processo di gestione in esterno dei servizi archivistici e documentali ad imprese specializzate, è una pratica che ha visto negli ultimi anni, anche in Italia una crescente diffusione, con il raggiungimento di dimensioni ragguardevoli di espansione.
L’outsourcing è una pratica che da noi è scaturita essenzialmente dalle esigenze degli enti e delle imprese di gestire flussi e masse di documentazione cresciuti al punto da non essere più adeguatamente gestibili con le risorse interne, per rispondere alle quali un particolare tipo di imprenditoria specializzata si è appositamente sviluppata.
Tra le prime esperienze di outsourcing è d’obbligo citare l’esperienza effettuata dalla società Kodak.
La società, consapevole delle dimensioni assunte nel corso del tempo delle proprie attività informatiche, tali da concorrere con una media società, operante sul mercato, specializzata in tale campo, aveva deciso di affidarsi all’outsourcing. In altri termini si è resa conto dell’imponenza organizzativa della propria struttura informatica, e della relativa possibilità di poter competere in un mercato diverso da quello di origine.
L’idea della Kodak è stata quella di esternalizzare le proprie attività informatiche, controllando le attività delle società satelliti, costituite appositamente con cessioni di ramo d’azienda, ed organizzandole in forma di joint ventures con grandi partners industriali con i quali la Kodak aveva normalmente contatti, come Businessland, che era il produttore di personal computer, Digital che era il fornitore per le reti di telecomunicazione e IBM che era il fornitore dei mainframes, cioè dei grandi sistemi compartimentali.
Queste tre società, come già detto, prestavano servizi per la Kodak, ma essendo operative sul mercato, offrivano contemporaneamente i propri servizi in outsourcing a chiunque li richiedesse.
Operando diversamente, i costi del sistema informativo sarebbero diventati particolarmente onerosi, sia per quanto riguarda l’aggiornamento, all’upgrade delle macchine, ma soprattutto per quanto attiene alla formazione del personale, allo sviluppo del software, al rinnovo degli strumenti e dei servizi normalmente utilizzati. Questo originario meccanismo evidenzia come la forma tradizionale, o meglio quella più logica, dell’outsourcing si concretizzi nello sviluppo di partnership alliance, ossia di forme di joint ventures con altri soggetti operandi sul mercato, cedendo o dimettendo rami di azienda o meglio, esternalizzando completamente attività che si svolgono al proprio interno.
Negli ultimi anni i casi di affidamento in esterno di attività che, normalmente sono svolte all’interno di una società si sono moltiplicate, riguardando molteplici processi, dal servizio di fatturazione, alle attività di gestione della corrispondenza, dalla gestione di attività concernenti il sistema informativo, a quelli riguardanti il flusso della documentazione di una società o di un’organizzazione.
Nel campo prettamente archivistico uno dei casi più importanti di outsourcing, riguarda il progetto realizzato a partire dal 1996 dalla società Sieco, incaricata della sistemazione degli archivi cartacei di deposito di tutte le società del Gruppo ENI.
Il progetto ha avuto diversi momenti di realizzazione e, in particolare, dopo aver eseguito il coordinamento delle procedure, poiché ogni azienda seguiva delle procedure diverse, si è passati alla progettazione vera e propria degli archivi comuni.
Grazie alla realizzazione di un disegno organizzativo delle attività, una parte degli archivi è rimasta in azienda, in quanto costituiti da documenti che si trovavano già negli uffici per l’espletamento giornaliero delle attività, mentre l’archivio a più alta consultazione (archivio semiattivo) viene ora gestito direttamente dalla Sieco e, la rimanente parte dell’archivio è gestita con la società partner Shuttle Italia.
Si è tentato in questo modo di realizzare un “Archivio di Deposito Unico di Gruppo”, dando vita ad un unico archivio di deposito, per quanto riguarda la gestione fisica dei documenti, lasciando, però, ovviamente la titolarità dei documenti ad ogni singola società.
La competenza documentale che si è cercato di dare alle società partners è stata quella di classificare in maniera omogenea tutti i documenti del Gruppo, con il medesimo criterio di classificazione.
Tale criterio, in questo caso si compone di un codice di organizzazione aziendale, unico per ogni azienda, un codice di titolazione, che è unico per tutto il Gruppo e che permette di identificare un documento allo stesso modo per tutte le società che compongono il Gruppo stesso, una descrizione a testo libero dei documenti.
Questi accorgimenti hanno permesso di raggiungere la normalizzazione delle attività di archiviazione, e il controllo dei costi, grazie anche alla realizzazione di un sistema informatico in grado di controllare le pratiche di archiviazione e l’eliminazione della struttura interna preposta alla funzione specifica di gestione dell’archivio.
Altro esempio di gestione documentale, al fine di risolvere problemi di tipo organizzativo e metodologico, relativi all’archiviazione dei documenti e della loro disponibilità, è stato quello della creazione di un sistema di archiviazione multisito, attuata nell’Azienda Unità Sanitaria Locale di Reggio Emilia, a partire dal 1999, a cura della società Vecomp di Verona.
In considerazione dell’esistenza in azienda di sei distretti collegati con link geografici al centro dell’azienda stessa, si è optato per un’architettura che consentisse ad ogni distretto la disponibilità di un documento in modalità document server locale.
Questa configurazione multisito, fa sì che tutte le operazioni di archiviazione siano gestite localmente ottimizzando così prestazioni e traffico di rete.
Per quanto riguarda gli aspetti applicativi, sono state curate principalmente le fasi di gestione, di consultazione e di attività collaborativa del documento.
Oltre alle normali attività di stampa dei documenti archiviati, è stato, infatti, reso disponibile un sistema per la ricerca che rende fruibile l’informazione in qualunque punto dell’azienda. La soluzione è stata integrata con l’infrastruttura di messaggistica, per inoltrare gli elementi all’interno dell’azienda, evitando di assecondare vecchi procedimenti o flussi di lavoro, come le fotocopie o lo smistamento della posta.
E’ stata messa a disposizione la possibilità di creare “storie documentali”, introducendo il concetto di fascicolo. In tal senso, a fronte della ricerca di un documento, l’applicazione mostra l’intero fascicolo di cui esso è parte, in un contesto di sicurezza appropriato a ciascun documento e all’utente che accede al sistema, attraverso un sistema di procedure consistente in un workflow strutturato, permettendo così l’individuazione delle varie fasi del procedimento, la relativa responsabilità di coloro che accedono ai dati e la durata di ogni evento.
Dopo quasi sette anni dall’inizio della realizzazione del progetto gli obiettivi raggiunti attraverso la messa in atto di tali procedimenti possono essere riassunti in: attenzione alla normativa vigente, creazione di un Protocollo Unico, che permette di riconoscere il documento come elemento univoco, disponibilità dei documenti in qualunque punto dell’azienda, introduzione di meccanismi di workflow collaborativo.
Un ulteriore caso di outsourcing archivistico, appartenente ad un’altra realtà societaria è quello inerente alla gestione del sistema documentale del Gruppo SANPAOLO IMI. La gestione dell’archivio di una banca, comporta una serie di problemi specifici attinenti la complessità della struttura stessa, in quanto produttrice di una grande mole di un particolare tipo di documentazione. Ogni documento prodotto nell’operatività di un’azienda – e in particolare di una banca - infatti, è sottoposto ad obblighi di conservazione stringenti, con tempi definiti, e può essere oggetto di richieste di consultazione di diversi aventi causa: clienti, magistrati, nonché organi di controllo del sistema finanziario. Inoltre, il rigoroso rispetto dei tempi di conservazione, selezione e scarto della documentazione è un obiettivo che può portare significativi risultati dal punto di vista dell’ottimizzazione dei costi e del raggiungimento delle economie di scala.
L’archivio storico di Sanpaolo IMI si può descrivere come un arcipelago di archivi: da quello del San Paolo – con quasi 4 secoli di storia – alle carte dell’IMI, uno degli architravi della storia economica del novecento, a tutta quella serie di archivi provenienti dalle banche acquisite nel corso del tempo, ognuna portatrice di un suo complesso di carte.
Inoltre la riforma del sistema bancario di inizio anni novanta, con il passaggio degli istituti bancari da enti di diritto pubblico a società per azioni, ha avuto conseguenze anche sulla destinazione delle carte. Nel caso di Sanpaolo IMI, la costituzione nel 1992 della nuova società, ha comportato la decisione di destinare all’Archivio storico della Compagnia di San Paolo la custodia dell’archivio storico del vecchio istituto bancario, mentre a partire dal 1992 le carte a conservazione perenne sono destinate a confluire nell’Archivio storico di Sanpaolo IMI.
A fronte di una situazione tanto complessa nella primavera del 2002, la società decide di affrontare il problema della gestione dei propri archivi, affidando alla società Alicubi un mandato per la stesura di un progetto finalizzato verso due obiettivi:
•Individuare i documenti da destinare alla conservazione perenne, negli archivi storici sopra citati;
•Analizzare i flussi documentali per ottimizzarne la gestione e arrivare ad impostare un sistema generale di gestione e archiviazione documentale.
Nello specifico, in seguito alla ricognizione dei materiali archivistici è stata elaborata una prima griglia di organizzazione documentale, definendo così la scheda descrittiva essenziale per identificare e collocare correttamente i documenti analizzati. Si è poi costituita una piattaforma informatica: un database relazionale con interfaccia web per consentire a tutti i partecipanti al progetto – interni ed esterni – di seguire l’avanzamento dei lavori. Si è infine avviato un vero e proprio lavoro di schedatura, individuando i nuclei di materiali su cui intervenire in base a tre criteri: importanza storica – identificare e schedare dapprima quei fondi con la maggiore presenza di materiali a conservazione perenne - consistenza della produzione – individuare e gestire prioritariamente i più prolifici produttori di documentazione, per ridurre i costi e i problemi di archiviazione -, intensità di utilizzo – ottimizzare i criteri di gestione della documentazione per ridurre gli oneri connessi alla consultazione.
L’intervento si è sviluppato su sette delle più importanti funzioni centrali della struttura aziendale e ha portato alla costituzione di una banca dati di quasi 60.000 records......
CONTINUA SU:
Il dossier completo è acquistabile dal catalogo di ebook on line del centro di formazione GianoForlab, all'indirizzo www.gianoforlb.it, sezione SHOP.
L'Agenda dell'Innovazione di Novembre 2013
Open Source Day 2013
5 novembre 2013 - salone delle fontane, via Ciro il grande 10/12 Roma
Massimizza il valore delle strategie Cloud, mobile, social, big e open data grazie all'open source
Il convegno, organizzato da Red Hat con la partecipazione di 18 partner, ha l'obiettivo di offrire una panoramica sulle soluzioni Open Source, sugli sviluppi futuri e sui vantaggi economici, strategici e di innovazione apportati dal loro utilizzo. La giornata prevede nella mattinata una sessione plenaria, mentre Il pomeriggio è suddiviso in sessioni parallele. È inoltre previsto uno spazio espositivo in cui potersi confrontare con colleghi e professionisti dell'IT.
Perché partecipare?
Vedere lo stato del mercato italiano e l'adozione delle soluzioni Open Source grazie anche alla presentazione di una ricerca realizzata da SDA Bocconi.
Ascoltare l'esperienza di importanti clienti e partner che hanno già implementato con successo tecnologie Open Source.
Scegliere di essere libero attraverso l'Open Source, massimizzando contemporaneamente il valore delle nuove strategie Cloud, Mobile, Social, Big e Open Data.
La partecipazione è gratuita.
Per consultare il programma e iscriversi:
www. redhat.it/osd2013.
WORLD BUSINESS FORUM MILANO 2013
5-6 novembre 2013, MiCo Milano Congresse
Il World Business Forum è un’esperienza unica di formazione, ispirazione e networking.
I top manager di oltre 500 aziende, provenienti da 15 Paesi, di fronte a 13 speaker eccezionali di fama mondiale.
Molto è stato detto sul management, inteso come scienza per far sì che le idee e le intuizioni vengano realizzate. Ma è molto più di questo. È il fulcro di ogni sforzo del fare impresa. È quel filo invisibile che connette l’ispirazione e la creatività, il sognare e il realizzare, il tentativo individuale e il lavoro di squadra, la prova e l’errore, il tentativo ed il successo...per aiutare a trasformare l’aspettativa in un risultato. È quello che ci permette di trasformare in realtà il vero scopo del fare business: creare valore duraturo. È quello che dovremmo fare ogni giorno, non importa il nostro ruolo, le dimensioni della nostra azienda o quanto siano duri i tempi. È quello che facciamo mentre creiamo il nostro futuro. Il futuro che ci interessa.
Per informazioni e iscrizioni:
Tel 800 93 94 36 / Fax 800 94 93 72
wobi.com/wbfmilano | info.it@wobi.com
ISCRIZIONI ENTRO IL 25 OTTOBRE
Segreteria organizzativa
Soiel International: Tel. 02 26148855/ Fax 02 87181390
Cyber Security In Tour!
12 novembre a Padova, 14 novembre a Roma e 19 novembre a Milano.
Scopri come combattere le nuove minacce che incombono sui sistemi informativi, come mettere in sicurezza l'azienda indipendentemente dai dispositivi utilizzati e come controllare e gestire l'accesso alle applicazioni e ai dati aziendali.
Il convegno, con area espositiva, si sviluppa attraverso una serie di interventi curati dalle aziende leader di mercato e da esperti di fama nazionale, che tratteranno i vari argomenti che caratterizzano oggi il tema della sicurezza informatica e della protezione delle informazioni.
Cyber Security In Tour - Novembre 2013:
Padova - Sheraton Hotel (Corso Argentina, 5)
Roma - Mercure Roma West (Viale degli Eroi di Cefalonia, 301)
Milano - ATA Hotel Quark (Via Lampedusa 11/a)
La partecipazione è gratuita ma subordinata a registrazione
http://www.itwayvad.com/itwayvad/Index
EMC Forum 2013: Lead Your Transformation
14 Novembre 2013 - MiCo - Milano Congressi, Milano
EMC Forum sarà all’insegna dell’innovazione ed avrà l’obiettivo di guidarti nella trasformazione della tua azienda.
Partecipa alle sessioni pomeridiane di EMC e dei suoi Partner per approfondire:
Leading Edge in IT: Infrastructure, Backup, Applications, Cloud
Dai uno sguardo al futuro con la nuova generazione di soluzioni IT: Software-Defined Data Centre, Unified Storage, Backup, NAS Scale Out e molto altro ancora.
Per consultare il programma e iscriversi:
http://italy.emc.com/campaign/global/forum2013/event.htm?reg_src=EX_ictdem&cmp=emc-sto-tra-trg-ictdem
STARTUP PROGRAM Boot Camp
18-23 Novembre 2013 – Politecnico di Milano
Il programma di MIP Politecnico di Milano a supporto di start-upper e aspiranti imprenditori cambia formato: a Novembre prende il via StartUp Program Boot Camp, un training intensivo della durata di 6 giorni, da lunedì 18 a sabato 23 Novembre, dedicato a developer, startupper e aspiranti imprenditori che vogliono sviluppare un'idea imprenditoriale.
Obiettivo del corso è potenziare le competenze e le attitudini imprenditoriali dei partecipanti, supportarli concretamente nello sviluppo del progetto imprenditoriale e nel reperimento delle risorse finanziarie necessarie; condividere esperienze e storie imprenditoriali particolarmente significative nel panorama italiano.
Le 6 giornate del Boot Camp saranno organizzate in lezioni finalizzate a condividere strumenti metodologici e approcci efficaci per l'analisi e la gestione di una startup, testimonianze di imprenditori e investitori e lavoro sui progetti imprenditoriali con il supporto di mentor e docenti.
Le iscrizioni sono aperte. Per informazioni e per partecipare alla selezione per l'assegnazione di una borsa di studio, visita il sito
www.mip.polimi.it/startup/bootcamp
SITE PREPARATION FORUM
21 novembre 2013 all’ NH Ambassador, in Via Medina 60, Napoli
Dedicato al tema del Datacenter, il convegno propone un percorso formativo nell'allestimento di un intero sistema partendo da una sala vuota.
È noto a tutti che l'Information Technology sta cambiando il mondo grazie alla convergenza e all'integrazione di quattro motori di questo cambiamento: il Cloud, la Mobilità, il Social Computing e l'Informazione.
E proprio sfruttando il continuo flusso di informazioni che oggi arrivano da fonti interne ed esterne, le aziende possono cogliere tante occasioni per trasformare i processi decisionali, ottimizzare le procedure di business, innovare il proprio settore alla ricerca di nuove opportunità.
Appare di tutta evidenza che in ogni azienda, piccola o grande che sia, il Datacenter assuma un ruolo sempre più importante, non solo come crocevia dell'informazione, ma anche come conservatore, elaboratore e distributore della stessa, destinata ad essere il bene aziendale più prezioso.
Durante la giornata si parlerà con un approccio formativo e informativo di cosa è un Datacenter, dei requisiti degli edifici e dell'infrastruttura, del layout, del cooling, del cablaggio strutturato, dei gruppi di continuità, della distribuzione elettrica e infine della supervisione e ottimizzazione dell'installazione.
L'evento è a partecipazione gratuita previa iscrizione.
5 novembre 2013 - salone delle fontane, via Ciro il grande 10/12 Roma
Massimizza il valore delle strategie Cloud, mobile, social, big e open data grazie all'open source
Il convegno, organizzato da Red Hat con la partecipazione di 18 partner, ha l'obiettivo di offrire una panoramica sulle soluzioni Open Source, sugli sviluppi futuri e sui vantaggi economici, strategici e di innovazione apportati dal loro utilizzo. La giornata prevede nella mattinata una sessione plenaria, mentre Il pomeriggio è suddiviso in sessioni parallele. È inoltre previsto uno spazio espositivo in cui potersi confrontare con colleghi e professionisti dell'IT.
Perché partecipare?
Vedere lo stato del mercato italiano e l'adozione delle soluzioni Open Source grazie anche alla presentazione di una ricerca realizzata da SDA Bocconi.
Ascoltare l'esperienza di importanti clienti e partner che hanno già implementato con successo tecnologie Open Source.
Scegliere di essere libero attraverso l'Open Source, massimizzando contemporaneamente il valore delle nuove strategie Cloud, Mobile, Social, Big e Open Data.
La partecipazione è gratuita.
Per consultare il programma e iscriversi:
www. redhat.it/osd2013.
WORLD BUSINESS FORUM MILANO 2013
5-6 novembre 2013, MiCo Milano Congresse
Il World Business Forum è un’esperienza unica di formazione, ispirazione e networking.
I top manager di oltre 500 aziende, provenienti da 15 Paesi, di fronte a 13 speaker eccezionali di fama mondiale.
Molto è stato detto sul management, inteso come scienza per far sì che le idee e le intuizioni vengano realizzate. Ma è molto più di questo. È il fulcro di ogni sforzo del fare impresa. È quel filo invisibile che connette l’ispirazione e la creatività, il sognare e il realizzare, il tentativo individuale e il lavoro di squadra, la prova e l’errore, il tentativo ed il successo...per aiutare a trasformare l’aspettativa in un risultato. È quello che ci permette di trasformare in realtà il vero scopo del fare business: creare valore duraturo. È quello che dovremmo fare ogni giorno, non importa il nostro ruolo, le dimensioni della nostra azienda o quanto siano duri i tempi. È quello che facciamo mentre creiamo il nostro futuro. Il futuro che ci interessa.
Per informazioni e iscrizioni:
Tel 800 93 94 36 / Fax 800 94 93 72
wobi.com/wbfmilano | info.it@wobi.com
ISCRIZIONI ENTRO IL 25 OTTOBRE
Segreteria organizzativa
Soiel International: Tel. 02 26148855/ Fax 02 87181390
Cyber Security In Tour!
12 novembre a Padova, 14 novembre a Roma e 19 novembre a Milano.
Scopri come combattere le nuove minacce che incombono sui sistemi informativi, come mettere in sicurezza l'azienda indipendentemente dai dispositivi utilizzati e come controllare e gestire l'accesso alle applicazioni e ai dati aziendali.
Il convegno, con area espositiva, si sviluppa attraverso una serie di interventi curati dalle aziende leader di mercato e da esperti di fama nazionale, che tratteranno i vari argomenti che caratterizzano oggi il tema della sicurezza informatica e della protezione delle informazioni.
Cyber Security In Tour - Novembre 2013:
Padova - Sheraton Hotel (Corso Argentina, 5)
Roma - Mercure Roma West (Viale degli Eroi di Cefalonia, 301)
Milano - ATA Hotel Quark (Via Lampedusa 11/a)
La partecipazione è gratuita ma subordinata a registrazione
http://www.itwayvad.com/itwayvad/Index
EMC Forum 2013: Lead Your Transformation
14 Novembre 2013 - MiCo - Milano Congressi, Milano
EMC Forum sarà all’insegna dell’innovazione ed avrà l’obiettivo di guidarti nella trasformazione della tua azienda.
Partecipa alle sessioni pomeridiane di EMC e dei suoi Partner per approfondire:
Leading Edge in IT: Infrastructure, Backup, Applications, Cloud
Dai uno sguardo al futuro con la nuova generazione di soluzioni IT: Software-Defined Data Centre, Unified Storage, Backup, NAS Scale Out e molto altro ancora.
Per consultare il programma e iscriversi:
http://italy.emc.com/campaign/global/forum2013/event.htm?reg_src=EX_ictdem&cmp=emc-sto-tra-trg-ictdem
STARTUP PROGRAM Boot Camp
18-23 Novembre 2013 – Politecnico di Milano
Il programma di MIP Politecnico di Milano a supporto di start-upper e aspiranti imprenditori cambia formato: a Novembre prende il via StartUp Program Boot Camp, un training intensivo della durata di 6 giorni, da lunedì 18 a sabato 23 Novembre, dedicato a developer, startupper e aspiranti imprenditori che vogliono sviluppare un'idea imprenditoriale.
Obiettivo del corso è potenziare le competenze e le attitudini imprenditoriali dei partecipanti, supportarli concretamente nello sviluppo del progetto imprenditoriale e nel reperimento delle risorse finanziarie necessarie; condividere esperienze e storie imprenditoriali particolarmente significative nel panorama italiano.
Le 6 giornate del Boot Camp saranno organizzate in lezioni finalizzate a condividere strumenti metodologici e approcci efficaci per l'analisi e la gestione di una startup, testimonianze di imprenditori e investitori e lavoro sui progetti imprenditoriali con il supporto di mentor e docenti.
Le iscrizioni sono aperte. Per informazioni e per partecipare alla selezione per l'assegnazione di una borsa di studio, visita il sito
www.mip.polimi.it/startup/bootcamp
SITE PREPARATION FORUM
21 novembre 2013 all’ NH Ambassador, in Via Medina 60, Napoli
Dedicato al tema del Datacenter, il convegno propone un percorso formativo nell'allestimento di un intero sistema partendo da una sala vuota.
È noto a tutti che l'Information Technology sta cambiando il mondo grazie alla convergenza e all'integrazione di quattro motori di questo cambiamento: il Cloud, la Mobilità, il Social Computing e l'Informazione.
E proprio sfruttando il continuo flusso di informazioni che oggi arrivano da fonti interne ed esterne, le aziende possono cogliere tante occasioni per trasformare i processi decisionali, ottimizzare le procedure di business, innovare il proprio settore alla ricerca di nuove opportunità.
Appare di tutta evidenza che in ogni azienda, piccola o grande che sia, il Datacenter assuma un ruolo sempre più importante, non solo come crocevia dell'informazione, ma anche come conservatore, elaboratore e distributore della stessa, destinata ad essere il bene aziendale più prezioso.
Durante la giornata si parlerà con un approccio formativo e informativo di cosa è un Datacenter, dei requisiti degli edifici e dell'infrastruttura, del layout, del cooling, del cablaggio strutturato, dei gruppi di continuità, della distribuzione elettrica e infine della supervisione e ottimizzazione dell'installazione.
L'evento è a partecipazione gratuita previa iscrizione.
martedì 15 ottobre 2013
Il contratto di outsourcing archivistico - DOSSIER 'Outsourcing e gestione dei servizi archivistici e documentali - Cap. V
L’affidamento in esterno di servizi archivistici dovrà essere in ogni caso regolamentato da un apposito contratto, redatto in forma scritta, in cui saranno espressi esattamente i servizi da appaltare e specificate tutte le condizioni, speciali e particolari, di esecuzione del servizio, la durata e i corrispettivi previsti.
Nell’ambito dell’oggetto del contratto occorrerà definire le peculiarità, (in termini di qualità, quantità ed estremi cronologici) del materiale documentario oggetto del servizio. In merito, sarebbe opportuno indicare i volumi preesistenti rispetto all’inizio delle attività contrattuali (occorre assolutamente precisare l’inizio dell’erogazione del servizio) e i volumi annui di incremento previsti in relazione alla nuova documentazione prodotta in seguito al decorrere del contratto.
La durata dell’accordo, in genere, è di carattere pluriennale; nella maggior parte dei casi va dai tre ai cinque anni, eventualmente rinnovabili.
Le informazioni relative al committente, apprese dall’appaltatore nell’esecuzione del contratto devono essere considerate come assolutamente riservate e non trasmettibili a terzi.
L’outsourcer deve, in tal senso, impegnarsi a prendere tutti i provvedimenti possibili a proteggere la riservatezza delle informazioni nei confronti di chiunque, ad eccezione delle persone indicate come autorizzate dal committente al momento della stesura del contratto, alla visione e all’utilizzo del materiale documentario, adeguandosi alla normativa della privacy, stabilita dal d.lgs. 196/2003 per quanto riguarda la sicurezza e il trattamento dei dati.
Merita, in questa sede, un breve excursus sulla modalità di svolgimento dell’attività di outsourcing in merito alla gestione degli archivi in stretta relazione e nel pieno rispetto della normativa vigente del trattamento dei dati personali.
In particolare, in ottemperanza alle disposizioni normative, viene nominato un Responsabile, preposto al trattamento dei dati e vengono assicurate misure organizzative e logistiche di prevenzione di danni materiali o violazione della caratteristica di riservatezza dei documenti.
I dati personali oggetto di trattamento sono custoditi e controllati in modo da ridurre al minimo i rischi di distruzione e perdita, anche accidentale, di accesso non autorizzato o di trattamento non consentito o non conforme alle finalità della raccolta. A tal fine devono essere poste in essere le attività di identificazione obbligatoria dell’incaricato e/o dell’utente, controllo degli accessi a dati e programmi, controlli aggiornati antivirus, annotazione della fonte dei dati.
Più in dettaglio, il trattamento dei dati può essere effettuato con l’ausilio o meno di mezzi elettronici.
Nel primo caso l’adozione di misure minime di sicurezza comprendono interventi di tipo organizzativo, quali la precisa indicazione dell’incaricato e degli addetti al trattamento dei dati, come pure le modalità di trattamento, la tenuta degli elenchi, e la descrizione delle procedure per la conservazione dei dati e delle modalità di accesso. In particolare:
• A ciascun utente o incaricato del trattamento è attribuito un codice identificativo personale per l’utilizzazione dell’elaboratore;
• È prevista la disattivazione dei codici utente in caso di perdita della qualità che consentiva l’accesso all’elaboratore o di mancato utilizzo dei medesimi per un determinato periodo di tempo.
Nel caso in cui, invece, il trattamento dei dati avviene senza l’ausilio di sistemi elettronici basta richiamare solo le misure minime di tipo organizzativo stabilite dal disciplinare tecnico dell’allegato B) dello stesso codice.
Al fine di contenere tutte le norme interne posta a tutela della riservatezza dei dati gestiti con strumenti informatici, così come viene richiesto dalla normativa vigente, è predisposto un Documento Programmatico sulla Sicurezza da tenere costantemente aggiornato, come previsto già dal d.p.r. 28 luglio 1999, n. 318, recante “Norme per l’individuazione delle misure minime di sicurezza per il trattamento dei dati personali”.
Tornando a parlare del contratto di outsourcing archivistico, in esso dovrà essere previsto il diritto al committente di verificare in qualsiasi momento, recandosi presso i locali dell’outsourcer, gli impianti, i sistemi, le attrezzature e le modalità di approntamento utilizzate per l’erogazione dei servizi contrattuali.
La definizione dei livelli di qualità assicurata contrattualmente dalla società appaltatrice rassicura il committente in relazione al soddisfacimento delle proprie esigenze. Tali livelli sono espressi mediante parametri che definiscono le specificità di ciascuna tipologia di servizio offerto.
Dovrà essere garantita, inoltre, attraverso adeguati sistemi antintrusione e antincendio, la conformità alle normative vigenti in materia di sicurezza sul lavoro, finalizzate alla corretta conservazione delle unità archivistiche.
A tale riguardo, il sistema informatico dell’appaltatore dovrà essere dotato di una corretta procedura che assicuri i livelli di sicurezza richiesti riguardo all’utilizzo da parte degli utenti del servizio d’archivio e che impedisca a terzi non autorizzati ad accedere alle informazioni dell’archivio stesso (d.lgs. 196/2003).
Nei casi in cui il soggetto committente è una Pubblica Amministrazione, il sistema eventualmente fornito dall’appaltatore deve essere di tipo non proprietario, sviluppato su piattaforma client/server e dovrà avere come requisiti la modularità, la flessibilità, l’economicità, l’attualità, l’affidabilità e l’apertura verso sistemi compatibili. Se il contratto prevede anche l’archiviazione dei documenti su supporto non convenzionale, il sistema dovrà garantire un’archiviazione digitale ed ottica conforme alle disposizioni impartite dal Centro Nazionale per l’Informatica nella Pubblica Amministrazione (CNIPA).
Quando l’appalto preveda l’ordinamento e l’inventariazione di un archivio storico (d.lgs. 42/2004, art. 30, comma 4), il sistema dovrà adottare gli standard di descrizione archivistica ISAAR (CFP) e ISAD (G). Questi standard forniscono le norme generali per l’elaborazione di descrizioni archivistiche formalizzate al fine di garantire l’accessibilità all’informazione documentale
Il sistema dovrà utilizzare procedure informatiche che assicureranno la gestione di tutte le funzioni attinenti la fornitura dei servizi oggetto del contratto. Esso dovrà essere un “repository” per la raccolta ed archiviazione delle informazioni relative alla produzione ed erogazione dei servizi, ed il mezzo con cui governare e monitorare l’intero processo lavorativo, dando traccia di tutte le operazioni di aggiornamento delle basi di dati gestite, in modo da conoscere, in qualsiasi momento, tutte le attività svolte e il soggetto che le ha effettuate.
Tutte le operazioni previste dal sistema dovranno, per questo, essere svolte in maniera del tutto univoco e trasparente, garantendo, allo stesso tempo agli utenti interessati la possibilità di poter accedere alla documentazione di propria pertinenza ed interesse, con le dovute cautele di segretezza e riservatezza.
Il sistema dovrà permettere una gestione centralizzata ed integrata delle informazioni concernenti le unità di archivio, indipendentemente dalla dislocazione logistica delle stesse.
Nei casi di gestione di grandi quantità di documentazione, provenienti da un committente con una struttura organizzativa interna complessa, dovrà essere possibile associare ad ogni singolo operatore/utilizzatore un profilo, nel quale saranno definite tutte le funzioni e le operazioni che ad esso saranno consentite, nonché il settore di documentazione cui egli potrà accedere. In questi casi, il sistema dovrà permettere una gestione efficiente e guidata dalle modifiche delle strutture organizzative del committente e la conseguente riattribuzione della proprietà dei documenti alle nuove unità organizzative con comandi semplici ed efficienti.
Sarà opportuno specificare i casi in cui il committente e l’outsourcer avranno il diritto di rescindere il contratto, chiarendo le cause imputabili al committente o all’appaltatore, siano esse cause di forza maggiore, che specifiche esigenze manifestatesi in un momento successivo alla stesura del contratto...........
CONTINUA SU:
Il dossier completo è acquistabile dal catalogo di ebook on line del centro di formazione GianoForlab, all'indirizzo www.gianoforlb.it, sezione SHOP.
Nell’ambito dell’oggetto del contratto occorrerà definire le peculiarità, (in termini di qualità, quantità ed estremi cronologici) del materiale documentario oggetto del servizio. In merito, sarebbe opportuno indicare i volumi preesistenti rispetto all’inizio delle attività contrattuali (occorre assolutamente precisare l’inizio dell’erogazione del servizio) e i volumi annui di incremento previsti in relazione alla nuova documentazione prodotta in seguito al decorrere del contratto.
La durata dell’accordo, in genere, è di carattere pluriennale; nella maggior parte dei casi va dai tre ai cinque anni, eventualmente rinnovabili.
Le informazioni relative al committente, apprese dall’appaltatore nell’esecuzione del contratto devono essere considerate come assolutamente riservate e non trasmettibili a terzi.
L’outsourcer deve, in tal senso, impegnarsi a prendere tutti i provvedimenti possibili a proteggere la riservatezza delle informazioni nei confronti di chiunque, ad eccezione delle persone indicate come autorizzate dal committente al momento della stesura del contratto, alla visione e all’utilizzo del materiale documentario, adeguandosi alla normativa della privacy, stabilita dal d.lgs. 196/2003 per quanto riguarda la sicurezza e il trattamento dei dati.
Merita, in questa sede, un breve excursus sulla modalità di svolgimento dell’attività di outsourcing in merito alla gestione degli archivi in stretta relazione e nel pieno rispetto della normativa vigente del trattamento dei dati personali.
In particolare, in ottemperanza alle disposizioni normative, viene nominato un Responsabile, preposto al trattamento dei dati e vengono assicurate misure organizzative e logistiche di prevenzione di danni materiali o violazione della caratteristica di riservatezza dei documenti.
I dati personali oggetto di trattamento sono custoditi e controllati in modo da ridurre al minimo i rischi di distruzione e perdita, anche accidentale, di accesso non autorizzato o di trattamento non consentito o non conforme alle finalità della raccolta. A tal fine devono essere poste in essere le attività di identificazione obbligatoria dell’incaricato e/o dell’utente, controllo degli accessi a dati e programmi, controlli aggiornati antivirus, annotazione della fonte dei dati.
Più in dettaglio, il trattamento dei dati può essere effettuato con l’ausilio o meno di mezzi elettronici.
Nel primo caso l’adozione di misure minime di sicurezza comprendono interventi di tipo organizzativo, quali la precisa indicazione dell’incaricato e degli addetti al trattamento dei dati, come pure le modalità di trattamento, la tenuta degli elenchi, e la descrizione delle procedure per la conservazione dei dati e delle modalità di accesso. In particolare:
• A ciascun utente o incaricato del trattamento è attribuito un codice identificativo personale per l’utilizzazione dell’elaboratore;
• È prevista la disattivazione dei codici utente in caso di perdita della qualità che consentiva l’accesso all’elaboratore o di mancato utilizzo dei medesimi per un determinato periodo di tempo.
Nel caso in cui, invece, il trattamento dei dati avviene senza l’ausilio di sistemi elettronici basta richiamare solo le misure minime di tipo organizzativo stabilite dal disciplinare tecnico dell’allegato B) dello stesso codice.
Al fine di contenere tutte le norme interne posta a tutela della riservatezza dei dati gestiti con strumenti informatici, così come viene richiesto dalla normativa vigente, è predisposto un Documento Programmatico sulla Sicurezza da tenere costantemente aggiornato, come previsto già dal d.p.r. 28 luglio 1999, n. 318, recante “Norme per l’individuazione delle misure minime di sicurezza per il trattamento dei dati personali”.
Tornando a parlare del contratto di outsourcing archivistico, in esso dovrà essere previsto il diritto al committente di verificare in qualsiasi momento, recandosi presso i locali dell’outsourcer, gli impianti, i sistemi, le attrezzature e le modalità di approntamento utilizzate per l’erogazione dei servizi contrattuali.
La definizione dei livelli di qualità assicurata contrattualmente dalla società appaltatrice rassicura il committente in relazione al soddisfacimento delle proprie esigenze. Tali livelli sono espressi mediante parametri che definiscono le specificità di ciascuna tipologia di servizio offerto.
Dovrà essere garantita, inoltre, attraverso adeguati sistemi antintrusione e antincendio, la conformità alle normative vigenti in materia di sicurezza sul lavoro, finalizzate alla corretta conservazione delle unità archivistiche.
A tale riguardo, il sistema informatico dell’appaltatore dovrà essere dotato di una corretta procedura che assicuri i livelli di sicurezza richiesti riguardo all’utilizzo da parte degli utenti del servizio d’archivio e che impedisca a terzi non autorizzati ad accedere alle informazioni dell’archivio stesso (d.lgs. 196/2003).
Nei casi in cui il soggetto committente è una Pubblica Amministrazione, il sistema eventualmente fornito dall’appaltatore deve essere di tipo non proprietario, sviluppato su piattaforma client/server e dovrà avere come requisiti la modularità, la flessibilità, l’economicità, l’attualità, l’affidabilità e l’apertura verso sistemi compatibili. Se il contratto prevede anche l’archiviazione dei documenti su supporto non convenzionale, il sistema dovrà garantire un’archiviazione digitale ed ottica conforme alle disposizioni impartite dal Centro Nazionale per l’Informatica nella Pubblica Amministrazione (CNIPA).
Quando l’appalto preveda l’ordinamento e l’inventariazione di un archivio storico (d.lgs. 42/2004, art. 30, comma 4), il sistema dovrà adottare gli standard di descrizione archivistica ISAAR (CFP) e ISAD (G). Questi standard forniscono le norme generali per l’elaborazione di descrizioni archivistiche formalizzate al fine di garantire l’accessibilità all’informazione documentale
Il sistema dovrà utilizzare procedure informatiche che assicureranno la gestione di tutte le funzioni attinenti la fornitura dei servizi oggetto del contratto. Esso dovrà essere un “repository” per la raccolta ed archiviazione delle informazioni relative alla produzione ed erogazione dei servizi, ed il mezzo con cui governare e monitorare l’intero processo lavorativo, dando traccia di tutte le operazioni di aggiornamento delle basi di dati gestite, in modo da conoscere, in qualsiasi momento, tutte le attività svolte e il soggetto che le ha effettuate.
Tutte le operazioni previste dal sistema dovranno, per questo, essere svolte in maniera del tutto univoco e trasparente, garantendo, allo stesso tempo agli utenti interessati la possibilità di poter accedere alla documentazione di propria pertinenza ed interesse, con le dovute cautele di segretezza e riservatezza.
Il sistema dovrà permettere una gestione centralizzata ed integrata delle informazioni concernenti le unità di archivio, indipendentemente dalla dislocazione logistica delle stesse.
Nei casi di gestione di grandi quantità di documentazione, provenienti da un committente con una struttura organizzativa interna complessa, dovrà essere possibile associare ad ogni singolo operatore/utilizzatore un profilo, nel quale saranno definite tutte le funzioni e le operazioni che ad esso saranno consentite, nonché il settore di documentazione cui egli potrà accedere. In questi casi, il sistema dovrà permettere una gestione efficiente e guidata dalle modifiche delle strutture organizzative del committente e la conseguente riattribuzione della proprietà dei documenti alle nuove unità organizzative con comandi semplici ed efficienti.
Sarà opportuno specificare i casi in cui il committente e l’outsourcer avranno il diritto di rescindere il contratto, chiarendo le cause imputabili al committente o all’appaltatore, siano esse cause di forza maggiore, che specifiche esigenze manifestatesi in un momento successivo alla stesura del contratto...........
CONTINUA SU:
Il dossier completo è acquistabile dal catalogo di ebook on line del centro di formazione GianoForlab, all'indirizzo www.gianoforlb.it, sezione SHOP.
Dal Content Management al Knowledge Management
La conoscenza ha da sempre avuto la connotazione di una risorsa sociale di primaria importanza e la sua valorizzazione e diffusione è progressivamente divenuta una priorità impellente per tutte le società evolute. Oramai da qualche decennio, il problema della gestione della conoscenza viene affrontato in modo più consapevole, divenendo oggetto di numerosi e importanti studi scientifici, in gran parte focalizzati sul problema di utilizzare in ambito aziendale il patrimonio di conoscenze che è in possesso degli individui.
Il concetto di Knowledge Management viene oggi ampiamente utilizzato per identificare l’insieme di processi che favoriscono l’accrescimento della conoscenza delle persone di un’organizzazione e che guidano l’applicazione di tale conoscenza nel perseguimento di un obiettivo comune.
Il Knowledge Management è nato e si è sviluppato nell’ambito delle grosse organizzazioni private. Il settore pubblico, non essendo soggetto alla competizione imposta dal mercato, è da sempre stato meno stimolato a dotarsi di strumenti e metodologie di gestione della conoscenza. Tuttavia, gli stati e le regioni operano oramai in un contesto globale altamente competitivo, in cui l’attrazione di imprese e investimenti dipende fortemente dalla qualità e dall’efficienza dei servizi pubblici offerti. La conoscenza è una componente fondamentale nel determinare la qualità di tali servizi ed è quindi importante il ruolo che il Knowledge Management può giocare nel determinare la competitività anche di un ente.
Le pratiche di Knowledge Management si possono ricondurre a due strategie fondamentali che prendono il nome rispettivamente di codifica (codification) e personalizzazione (personalization).
La strategia basata sulla codifica consiste nel rendere esplicita la conoscenza che è implicitamente presente nelle persone, codificandola in documenti e rendendola disponibile per un successivo riuso. Si tratta di una strategia basata su un approccio di tipo ‘people-to-document’ che è oramai divenuta di utilizzo comune in molte organizzazioni e che presuppone l’utilizzo di un’infrastruttura informatica (repository, database, ecc.).
La strategia basata sulla personalizzazione utilizza invece un approccio di tipo ‘people-to-people’ e tende a favorire il trasferimento della conoscenza attraverso l’interazione diretta tra gli individui, piuttosto che sull’uso intensivo di infrastrutture tecnologiche.
Un sistema di Content Management può costituire la componente tecnologica di una strategia di Knowledge Management basata sulla codifica. Infatti, attraverso un sistema di Content Management è possibile organizzare e rendere accessibili, nell’ambito di una comunità di utenti, differenti tipologie di risorse informative (documenti, pagine web, notizie, eventi, learning object, immagini, contenuti multimediali, ecc.).
L’enorme quantità di contenuti che un sistema di Content Management può gestire costituisce sicuramente un’opportunità, legata al valore intrinseco delle informazioni, ma anche un problema, conseguente alla difficoltà che l’utente incontra nel riuscire a reperire agevolmente ciò che gli interessa. Per superare questo problema, tutti i sistemi di Content Management consentono di associare ai contenuti delle descrizioni (ossia i metadati), attraverso le quali è possibile specificare degli attributi (quali, ad esempio, il tipo di risorsa, l’autore, il formato, la lingua, il soggetto, la data di creazione, ecc.) ed effettuare ricerche mirate. È importante che tali descrizioni non siano arbitrarie, ma si basino su uno schema comune che garantisca l’interoperabilità tra le applicazioni e dati e che sia in grado di contestualizzare i contenuti, ossia di dare loro un significato nel contesto della comunità di utenti che ne farà uso. Ciò che contraddistingue un sistema di Knowledge Management da un sistema di Content Management è infatti la possibilità di gestire non le sole informazioni, ma anche la semantica.
http://www.infooggi.it/articolo/dal-content-management-al-knowledge-management/51244/
Il concetto di Knowledge Management viene oggi ampiamente utilizzato per identificare l’insieme di processi che favoriscono l’accrescimento della conoscenza delle persone di un’organizzazione e che guidano l’applicazione di tale conoscenza nel perseguimento di un obiettivo comune.
Il Knowledge Management è nato e si è sviluppato nell’ambito delle grosse organizzazioni private. Il settore pubblico, non essendo soggetto alla competizione imposta dal mercato, è da sempre stato meno stimolato a dotarsi di strumenti e metodologie di gestione della conoscenza. Tuttavia, gli stati e le regioni operano oramai in un contesto globale altamente competitivo, in cui l’attrazione di imprese e investimenti dipende fortemente dalla qualità e dall’efficienza dei servizi pubblici offerti. La conoscenza è una componente fondamentale nel determinare la qualità di tali servizi ed è quindi importante il ruolo che il Knowledge Management può giocare nel determinare la competitività anche di un ente.
Le pratiche di Knowledge Management si possono ricondurre a due strategie fondamentali che prendono il nome rispettivamente di codifica (codification) e personalizzazione (personalization).
La strategia basata sulla codifica consiste nel rendere esplicita la conoscenza che è implicitamente presente nelle persone, codificandola in documenti e rendendola disponibile per un successivo riuso. Si tratta di una strategia basata su un approccio di tipo ‘people-to-document’ che è oramai divenuta di utilizzo comune in molte organizzazioni e che presuppone l’utilizzo di un’infrastruttura informatica (repository, database, ecc.).
La strategia basata sulla personalizzazione utilizza invece un approccio di tipo ‘people-to-people’ e tende a favorire il trasferimento della conoscenza attraverso l’interazione diretta tra gli individui, piuttosto che sull’uso intensivo di infrastrutture tecnologiche.
Un sistema di Content Management può costituire la componente tecnologica di una strategia di Knowledge Management basata sulla codifica. Infatti, attraverso un sistema di Content Management è possibile organizzare e rendere accessibili, nell’ambito di una comunità di utenti, differenti tipologie di risorse informative (documenti, pagine web, notizie, eventi, learning object, immagini, contenuti multimediali, ecc.).
L’enorme quantità di contenuti che un sistema di Content Management può gestire costituisce sicuramente un’opportunità, legata al valore intrinseco delle informazioni, ma anche un problema, conseguente alla difficoltà che l’utente incontra nel riuscire a reperire agevolmente ciò che gli interessa. Per superare questo problema, tutti i sistemi di Content Management consentono di associare ai contenuti delle descrizioni (ossia i metadati), attraverso le quali è possibile specificare degli attributi (quali, ad esempio, il tipo di risorsa, l’autore, il formato, la lingua, il soggetto, la data di creazione, ecc.) ed effettuare ricerche mirate. È importante che tali descrizioni non siano arbitrarie, ma si basino su uno schema comune che garantisca l’interoperabilità tra le applicazioni e dati e che sia in grado di contestualizzare i contenuti, ossia di dare loro un significato nel contesto della comunità di utenti che ne farà uso. Ciò che contraddistingue un sistema di Knowledge Management da un sistema di Content Management è infatti la possibilità di gestire non le sole informazioni, ma anche la semantica.
http://www.infooggi.it/articolo/dal-content-management-al-knowledge-management/51244/
lunedì 7 ottobre 2013
L'outsourcing archivistico - Dossier ' Outsourcing e gestione dei servizi archivistici e documentali' - CAPITOLO IV
Outsourcing è nozione tipicamente aziendalistica, con la quale si vuole definire, come affermato nel primo capitolo, un fenomeno generalmente fatto risalire all’esternalizzazione di attività, siano esse di un’impresa, di una società o della pubblica amministrazione, che normalmente avrebbero dovuto essere svolte all’interno dell’organizzazione di riferimento.
Ad ogni modo, la difficoltà avvertita soprattutto negli ultimi anni, in seguito anche a precise disposizioni giuridiche, di gestire in maniera razionale il costante incremento della documentazione, dovuta all’assenza di strumenti archivistici necessari a garantirne l’ordinato sviluppo, fatto riscontrabile indistintamente sia presso gli enti pubblici che privati, porta alla consapevolezza di dover intervenire sugli archivi, cui consegue, molto spesso, la decisione di affidarli in outsourcing.
Per Outsourcing degli archivi si intende il processo di esternalizzazione parziale o completo dell’organizzazione e gestione dei servizi d’archivio. Quest’ultimo va interpretato come punto critico dell’organizzazione dell’ente, determinante per il raggiungimento degli obiettivi connaturati con la sua attività e che quindi assume un ruolo fondamentale relativamente all’attivazione di flussi informativi e alla loro conservazione. Si tratta di una memoria dinamica cui attingere per garantire l’apprendimento continuo e ricavare elementi che supportino il processo decisionale, le scelte strategiche e i programmi di comunicazione.
L’esigenza di ricorrere a questo tipo di esternalizzazione si è resa evidente in tempi abbastanza recenti e più specificamente dal 1984, quando la mutata normativa impose misure drastiche per la sicurezza e la prevenzione di incendi negli archivi e nei luoghi adibiti a depositi di carta. Fino a quel momento, infatti, quasi nessun ufficio, ente, istituzione pubblica o privata - in Italia - aveva pensato di delegare a terzi lo stoccaggio e la gestione del proprio archivio.
Da quel momento in poi divenne giocoforza trovare nuovi spazi per la conservazione degli archivi, alcune volte anche temporanea, che consentisse di apportare nei locali di deposito le opportune modifiche che li rendessero idonei alla loro destinazione. Ecco allora il fiorire di società che offrono il magazzinaggio degli archivi, che diventa con il passare del tempo sempre più specializzato e volto anche alla conservazione permanente e alla movimentazione dei fascicoli custoditi.
Notevole impulso all’ingresso, nello scenario archivistico, di queste società di servizi è stato dato dal d.lgs. 626/1994 in materia di Sicurezza sul Lavoro e dalla legge 675/1996 in materia di privacy e successive modifiche apportate dal d.lsg. 196/2003. I nuovi sistemi di archiviazione, infatti, in quanto utilizzano particolari tecniche elettroniche, ottiche e digitali di classificazione e codifica dovrebbero offrire maggiori garanzie dal punto di vista della riservatezza dei dati. In particolare il problema si pone in ordine alla sovrapposizione, rispetto allo schema contrattuale di reciproci diritti e obblighi delle figure tipiche individuate dalla legge, e soprattutto in ordine ai rapporti tra titolare e responsabile del trattamento. Ai sensi della legge 196/2003, la questione è risolta stabilendo che l’amministrazione proprietaria dell’archivio, rimane comunque titolare dei dati (e dei documenti), e sarà inoltre tenuta a nominare il soggetto outsourcer prescelto quale proprio responsabile, attribuendo ad esso specifiche responsabilità, quali mantenimento dei livelli tecnologici prestabiliti, garanzia dell’esercizio di specifici diritti di accesso, possibilità di valutazione del miglior trattamento, interfaccia con organi di controllo, utilizzazione dei sistemi di sicurezza, anche sotto il profilo della responsabilità penale.
L’outsourcing archivistico si pone - quindi - come obiettivo sostanziale, quello di garanzia di un maggiore livello di efficienza e qualità del servizio di organizzazione e gestione degli archivi, nel rispetto delle disposizioni normative vigenti in materia nell’ordinamento giuridico, livelli che non sempre il soggetto titolare è in grado di sostenere.
In tal senso, quando a ricorrere a tale soluzione sia un ente privato, il cui archivio non sia stato riconosciuto di notevole interesse storico con provvedimento dell’autorità archivistica, la fornitura del servizio di outsourcing è regolamentata dal complesso di norme giuridiche che disciplina i contratti.
Nei casi in cui ad avvalersi di tali servizi sia la Pubblica Amministrazione, particolare attenzione dovrà essere posta al rispetto della normativa in vigore per l’accesso alla documentazione corrente e di deposito, (disciplinato dalla legge 241/1990 e successive modifiche e integrazioni), sulla consultabilità ai fini storici degli atti conservati negli archivi (come stabilito dal d.lgs. 490/1999, integrato e modificato dal d.lgs. 281/1999), sulle disposizioni riguardanti la formazione, l’archiviazione, la trasmissione e la protocollazione dei documenti informatici, riunite dal D.P.R. 28 dicembre 2000, n. 445, Testo Unico delle disposizioni legislative e regolamentari in materia di documentazione amministrativa, modificato dal d.lgs. 7 marzo 2005, n. 82, Codice della Pubblica Amministrazione digitale integrato, a sua volta, dal d.lgs. 4 aprile 2006, n. 159, recante Disposizioni integrative correttive al d.lgs. 82/2005.
Infine, nel caso in cui il servizio di outsourcing sia richiesto da enti pubblici, statali e non statali, o di enti privati, il cui archivio sia stato dichiarato di notevole interesse storico, è fatto salvo, ai sensi del d.lgs. 29 ottobre 1999, n. 490, Testo unico delle disposizioni legislative in materia di beni culturali e ambientali, il principio della responsabilità dell’ente proprietario dell’archivio per la buona tenuta della propria documentazione. Quando si tratti di enti pubblici statali o non statali, è fatto salvo, inoltre, il principio della responsabilità del soggetto titolare dell’archivio per la corretta identificazione dei responsabili dei procedimenti amministrativi e per l’accesso alla documentazione da parte degli aventi diritto, sia per motivi amministrativi che per ricerche storiche.
Gli obiettivi perseguibili attraverso l’outsourcing archivistico, dunque, sono molteplici, ma possono essere così generalizzati e sintetizzati:
Rapidità e tempestività del processo di archiviazione e di ricerca dei documenti e delle informazioni;
Conversione dei costi fissi interni, spesso occulti, in costi variabili e controllabili;
Disponibilità di un inventario completo dell’archivio.
Ovviamente vi sono altre ragioni, che soggettivamente ciascuna organizzazione cliente può reputare più importante di quelle citate per lasciar propendere ad un affidamento in outsourcing dei propri archivi; fra queste, possono essere citate, come esempio, la possibilità di “liberare” risorse patrimoniali, tramite il disimpegno di locali o ambienti destinati ad archivio, e la decisione di riprogettare i processi aziendali.
Esternalizzare la gestione dell’archivio significa incaricare l’outsourcer di prendere atto delle esigenze del cliente, proporre le soluzioni più adeguate, trattare gli aspetti operativi come, ad esempio, le procedure da seguire, il piano di classificazione e codifica, le modalità di accesso ai documenti.
Le competenze che l’outsourcer deve possedere riguardano sicuramente la conoscenza delle tecnologie e la capacità di progettare l’intervento; risulta essere allo stesso tempo fondamentale l’esperienza in ambito archivistico, al fine di individuare le tipologie di documenti, produrre manuali per l’archiviazione, piani di classificazione e massimari di conservazione e scarto, il tutto nel pieno rispetto delle normative vigenti.
Nel 1999, in seguito ad un convegno svoltosi a Roma presso la sede dell’Unioncamere, promosso dall’Associazione Nazionale Archivistica Italiana è stata elaborata una relazione il cui obiettivo principale risulta essere quello di fornire un valido aiuto sia al soggetto produttore, nell’individuazione dei punti critici presenti nella gestione e nella conservazione del proprio patrimonio documentario, permettendo di individuare così le soluzioni più adatte alle proprie esigenze, sia alle società di outsourcing archivistico, che permetta loro di qualificarsi con l’offerta di servizi rispondenti a caratteristiche ben definite.
Della relazione, pubblicata con il titolo L’outsourcing archivistico: linee guida per operare una scelta, è stata pubblicata una seconda edizione, data l’attualità dell’argomento, all’interno della quale sono affrontate varie tematiche, quali le tipologie riconducibili alla gestione esterna di servizi archivistici, gli elementi alla base delle sottoscrizioni di un contratto di fornitura di servizi di outsourcing, una panoramica dei servizi e delle soluzioni offerte dalle società di record management, nonché un glossario di termini base per un linguaggio comprensibile e condivisibile in materia di esternalizzazione archivistica.
In particolare le aree di attività in cui vengono offerti servizi di outsourcing in ambito archivistico sono le seguenti:
Gestione degli archivi correnti;
Gestione degli archivi di deposito;
Gestione degli archivi storici;
Gestione ottica dei documenti.
La gestione degli archivi correnti ha come obiettivo principale la garanzia per gli utenti di disporre rapidamente dei documenti necessari al proseguimento della propria attività giornaliera o quasi. Solitamente l’intervento dell’outsourcer consiste nel fornire al committente servizi di preanalisi, riorganizzazione delle risorse e degli strumenti, la disponibilità di spazi organizzati e sicuri nel rispetto della normativa vigente in materia di privacy e di sicurezza sul lavoro, oltre a tecnologia e personale altamente specializzato.
Anche se oggetto dell’intervento sono archivi di tipo cartaceo, il sistema informatico assume un ruolo fondamentale in quanto permette una gestione centralizzata delle operazioni di classificazione e di ricerca di documenti, tenendone traccia e permettendo la creazione di statistiche di utilizzo.
Fondamentale, quindi, in tal senso, è la fase progettuale volta a reperire il maggior numero possibile di informazioni sulla struttura organizzativa dell’ente e sulle necessità degli utenti, in termini di reperimento e gestione dell’informazione, nonché la registrazione della movimentazione dei fascicoli, redazione di reports e statistiche sulla movimentazione dei documenti. Il tutto, naturalmente, nel rispetto di determinati criteri tecnici, economici, progettuali.
La gestione in outsourcing degli archivi cartacei correnti si compone delle seguenti fasi di:
• Ritiro periodico della documentazione destinata all’archiviazione;
• Numerazione, codifica e timbratura della documentazione e inserimento delle chiavi di ricerca nella banca dati;
• Controllo dell’esatta corrispondenza tra i documenti presenti nell’archivio cartaceo e la documentazione presente su sistema informatico, in seguito al caricamento su file sul sistema del materiale cartaceo;
• Archiviazione fisica delle unità di deposito;
• Aggiornamento periodico on line delle banche dati possedute dall’outsourcer e dal committente, tramite eventuali collegamenti telematici;
• Periodica estrapolazione dal sistema di tutti quei fascicoli che hanno perso interesse corrente per il committente (cd. storno);
• Evasione delle richieste di consultazione, mediante consegna in originale o a mezzo fax dei documenti, nel rispetto delle modalità e dei tempi previsti dal contratto sottoscritto.
La gestione degli archivi di deposito si basa sulla definizione di procedure e sulla fornitura di strumenti adeguati per consultare fascicoli o serie documentali relative ad affari conclusi. In questo caso, l’utilizzo di un sistema informatico permette di uniformare e razionalizzare le attività relative all’archivio di deposito, attraverso procedure gestionali supportate da sistemi informatici e telematici avanzati.
Nell’attività di gestione degli archivi di deposito, l’outsourcer effettua una preventiva analisi della situazione dell’archivio, al fine di verificare se l’ente dispone di un piano di classificazione e fascicolazione dei documenti in entrata e in uscita, cosiddetto titolario di classificazione, se esiste un massimario o piano di conservazione e scarto per individuare quei documenti che saranno conservati a tempo illimitato e per determinare i limiti temporali, legali, amministrativi e fiscali, trascorsi i quali si può procedere all’eliminazione dei documenti.
Nello specifico la prima operazione che viene svolta dall’outsourcer è la presa a carico del materiale documentario, ossia il prelevamento della documentazione dagli archivi del committente e il conseguente passaggio della stessa documentazione, attraverso procedure standardizzate, nell’archivio dell’outsourcer.
Il trasferimento avviene in appositi contenitori contraddistinti da un’etichetta con codici alfanumerici e a barre a lettura ottica, che ne individuano la posizione fisica e logistica all’interno del deposito archivistico, fornendo, in maniera univoca, gli elementi per conoscerne il contenuto.
I contenitori devono essere realizzati in materiale resistente ed antipolvere, atti a preservare l’integrità fisica dei documenti durante il loro trasporto e destinati alla custodia in archivio del materiale documentario.
Contemporaneamente all’apposizione delle etichette, la documentazione viene schedata e classificata. L’attività di definizione di un piano di classificazione, in particolar modo, permette una corretta comprensione della documentazione nell’individuazione del vincolo archivistico e del principio di provenienza.
La documentazione, una volta trasferita nell’archivio dell’outsourcer può essere richiesta per essere consultata, da chiunque ne sia autorizzato a farlo. Tale consultazione può essere effettuata, previo precedente accordo, presso i locali del richiedente o presso i locali appositamente attrezzati dell’outsourcer...........
CONTINUA SU:
Il dossier completo è acquistabile dal catalogo di ebook on line del centro di formazione GianoForlab, all'indirizzo www.gianoforlb.it, sezione SHOP.
Ad ogni modo, la difficoltà avvertita soprattutto negli ultimi anni, in seguito anche a precise disposizioni giuridiche, di gestire in maniera razionale il costante incremento della documentazione, dovuta all’assenza di strumenti archivistici necessari a garantirne l’ordinato sviluppo, fatto riscontrabile indistintamente sia presso gli enti pubblici che privati, porta alla consapevolezza di dover intervenire sugli archivi, cui consegue, molto spesso, la decisione di affidarli in outsourcing.
Per Outsourcing degli archivi si intende il processo di esternalizzazione parziale o completo dell’organizzazione e gestione dei servizi d’archivio. Quest’ultimo va interpretato come punto critico dell’organizzazione dell’ente, determinante per il raggiungimento degli obiettivi connaturati con la sua attività e che quindi assume un ruolo fondamentale relativamente all’attivazione di flussi informativi e alla loro conservazione. Si tratta di una memoria dinamica cui attingere per garantire l’apprendimento continuo e ricavare elementi che supportino il processo decisionale, le scelte strategiche e i programmi di comunicazione.
L’esigenza di ricorrere a questo tipo di esternalizzazione si è resa evidente in tempi abbastanza recenti e più specificamente dal 1984, quando la mutata normativa impose misure drastiche per la sicurezza e la prevenzione di incendi negli archivi e nei luoghi adibiti a depositi di carta. Fino a quel momento, infatti, quasi nessun ufficio, ente, istituzione pubblica o privata - in Italia - aveva pensato di delegare a terzi lo stoccaggio e la gestione del proprio archivio.
Da quel momento in poi divenne giocoforza trovare nuovi spazi per la conservazione degli archivi, alcune volte anche temporanea, che consentisse di apportare nei locali di deposito le opportune modifiche che li rendessero idonei alla loro destinazione. Ecco allora il fiorire di società che offrono il magazzinaggio degli archivi, che diventa con il passare del tempo sempre più specializzato e volto anche alla conservazione permanente e alla movimentazione dei fascicoli custoditi.
Notevole impulso all’ingresso, nello scenario archivistico, di queste società di servizi è stato dato dal d.lgs. 626/1994 in materia di Sicurezza sul Lavoro e dalla legge 675/1996 in materia di privacy e successive modifiche apportate dal d.lsg. 196/2003. I nuovi sistemi di archiviazione, infatti, in quanto utilizzano particolari tecniche elettroniche, ottiche e digitali di classificazione e codifica dovrebbero offrire maggiori garanzie dal punto di vista della riservatezza dei dati. In particolare il problema si pone in ordine alla sovrapposizione, rispetto allo schema contrattuale di reciproci diritti e obblighi delle figure tipiche individuate dalla legge, e soprattutto in ordine ai rapporti tra titolare e responsabile del trattamento. Ai sensi della legge 196/2003, la questione è risolta stabilendo che l’amministrazione proprietaria dell’archivio, rimane comunque titolare dei dati (e dei documenti), e sarà inoltre tenuta a nominare il soggetto outsourcer prescelto quale proprio responsabile, attribuendo ad esso specifiche responsabilità, quali mantenimento dei livelli tecnologici prestabiliti, garanzia dell’esercizio di specifici diritti di accesso, possibilità di valutazione del miglior trattamento, interfaccia con organi di controllo, utilizzazione dei sistemi di sicurezza, anche sotto il profilo della responsabilità penale.
L’outsourcing archivistico si pone - quindi - come obiettivo sostanziale, quello di garanzia di un maggiore livello di efficienza e qualità del servizio di organizzazione e gestione degli archivi, nel rispetto delle disposizioni normative vigenti in materia nell’ordinamento giuridico, livelli che non sempre il soggetto titolare è in grado di sostenere.
In tal senso, quando a ricorrere a tale soluzione sia un ente privato, il cui archivio non sia stato riconosciuto di notevole interesse storico con provvedimento dell’autorità archivistica, la fornitura del servizio di outsourcing è regolamentata dal complesso di norme giuridiche che disciplina i contratti.
Nei casi in cui ad avvalersi di tali servizi sia la Pubblica Amministrazione, particolare attenzione dovrà essere posta al rispetto della normativa in vigore per l’accesso alla documentazione corrente e di deposito, (disciplinato dalla legge 241/1990 e successive modifiche e integrazioni), sulla consultabilità ai fini storici degli atti conservati negli archivi (come stabilito dal d.lgs. 490/1999, integrato e modificato dal d.lgs. 281/1999), sulle disposizioni riguardanti la formazione, l’archiviazione, la trasmissione e la protocollazione dei documenti informatici, riunite dal D.P.R. 28 dicembre 2000, n. 445, Testo Unico delle disposizioni legislative e regolamentari in materia di documentazione amministrativa, modificato dal d.lgs. 7 marzo 2005, n. 82, Codice della Pubblica Amministrazione digitale integrato, a sua volta, dal d.lgs. 4 aprile 2006, n. 159, recante Disposizioni integrative correttive al d.lgs. 82/2005.
Infine, nel caso in cui il servizio di outsourcing sia richiesto da enti pubblici, statali e non statali, o di enti privati, il cui archivio sia stato dichiarato di notevole interesse storico, è fatto salvo, ai sensi del d.lgs. 29 ottobre 1999, n. 490, Testo unico delle disposizioni legislative in materia di beni culturali e ambientali, il principio della responsabilità dell’ente proprietario dell’archivio per la buona tenuta della propria documentazione. Quando si tratti di enti pubblici statali o non statali, è fatto salvo, inoltre, il principio della responsabilità del soggetto titolare dell’archivio per la corretta identificazione dei responsabili dei procedimenti amministrativi e per l’accesso alla documentazione da parte degli aventi diritto, sia per motivi amministrativi che per ricerche storiche.
Gli obiettivi perseguibili attraverso l’outsourcing archivistico, dunque, sono molteplici, ma possono essere così generalizzati e sintetizzati:
Rapidità e tempestività del processo di archiviazione e di ricerca dei documenti e delle informazioni;
Conversione dei costi fissi interni, spesso occulti, in costi variabili e controllabili;
Disponibilità di un inventario completo dell’archivio.
Ovviamente vi sono altre ragioni, che soggettivamente ciascuna organizzazione cliente può reputare più importante di quelle citate per lasciar propendere ad un affidamento in outsourcing dei propri archivi; fra queste, possono essere citate, come esempio, la possibilità di “liberare” risorse patrimoniali, tramite il disimpegno di locali o ambienti destinati ad archivio, e la decisione di riprogettare i processi aziendali.
Esternalizzare la gestione dell’archivio significa incaricare l’outsourcer di prendere atto delle esigenze del cliente, proporre le soluzioni più adeguate, trattare gli aspetti operativi come, ad esempio, le procedure da seguire, il piano di classificazione e codifica, le modalità di accesso ai documenti.
Le competenze che l’outsourcer deve possedere riguardano sicuramente la conoscenza delle tecnologie e la capacità di progettare l’intervento; risulta essere allo stesso tempo fondamentale l’esperienza in ambito archivistico, al fine di individuare le tipologie di documenti, produrre manuali per l’archiviazione, piani di classificazione e massimari di conservazione e scarto, il tutto nel pieno rispetto delle normative vigenti.
Nel 1999, in seguito ad un convegno svoltosi a Roma presso la sede dell’Unioncamere, promosso dall’Associazione Nazionale Archivistica Italiana è stata elaborata una relazione il cui obiettivo principale risulta essere quello di fornire un valido aiuto sia al soggetto produttore, nell’individuazione dei punti critici presenti nella gestione e nella conservazione del proprio patrimonio documentario, permettendo di individuare così le soluzioni più adatte alle proprie esigenze, sia alle società di outsourcing archivistico, che permetta loro di qualificarsi con l’offerta di servizi rispondenti a caratteristiche ben definite.
Della relazione, pubblicata con il titolo L’outsourcing archivistico: linee guida per operare una scelta, è stata pubblicata una seconda edizione, data l’attualità dell’argomento, all’interno della quale sono affrontate varie tematiche, quali le tipologie riconducibili alla gestione esterna di servizi archivistici, gli elementi alla base delle sottoscrizioni di un contratto di fornitura di servizi di outsourcing, una panoramica dei servizi e delle soluzioni offerte dalle società di record management, nonché un glossario di termini base per un linguaggio comprensibile e condivisibile in materia di esternalizzazione archivistica.
In particolare le aree di attività in cui vengono offerti servizi di outsourcing in ambito archivistico sono le seguenti:
Gestione degli archivi correnti;
Gestione degli archivi di deposito;
Gestione degli archivi storici;
Gestione ottica dei documenti.
La gestione degli archivi correnti ha come obiettivo principale la garanzia per gli utenti di disporre rapidamente dei documenti necessari al proseguimento della propria attività giornaliera o quasi. Solitamente l’intervento dell’outsourcer consiste nel fornire al committente servizi di preanalisi, riorganizzazione delle risorse e degli strumenti, la disponibilità di spazi organizzati e sicuri nel rispetto della normativa vigente in materia di privacy e di sicurezza sul lavoro, oltre a tecnologia e personale altamente specializzato.
Anche se oggetto dell’intervento sono archivi di tipo cartaceo, il sistema informatico assume un ruolo fondamentale in quanto permette una gestione centralizzata delle operazioni di classificazione e di ricerca di documenti, tenendone traccia e permettendo la creazione di statistiche di utilizzo.
Fondamentale, quindi, in tal senso, è la fase progettuale volta a reperire il maggior numero possibile di informazioni sulla struttura organizzativa dell’ente e sulle necessità degli utenti, in termini di reperimento e gestione dell’informazione, nonché la registrazione della movimentazione dei fascicoli, redazione di reports e statistiche sulla movimentazione dei documenti. Il tutto, naturalmente, nel rispetto di determinati criteri tecnici, economici, progettuali.
La gestione in outsourcing degli archivi cartacei correnti si compone delle seguenti fasi di:
• Ritiro periodico della documentazione destinata all’archiviazione;
• Numerazione, codifica e timbratura della documentazione e inserimento delle chiavi di ricerca nella banca dati;
• Controllo dell’esatta corrispondenza tra i documenti presenti nell’archivio cartaceo e la documentazione presente su sistema informatico, in seguito al caricamento su file sul sistema del materiale cartaceo;
• Archiviazione fisica delle unità di deposito;
• Aggiornamento periodico on line delle banche dati possedute dall’outsourcer e dal committente, tramite eventuali collegamenti telematici;
• Periodica estrapolazione dal sistema di tutti quei fascicoli che hanno perso interesse corrente per il committente (cd. storno);
• Evasione delle richieste di consultazione, mediante consegna in originale o a mezzo fax dei documenti, nel rispetto delle modalità e dei tempi previsti dal contratto sottoscritto.
La gestione degli archivi di deposito si basa sulla definizione di procedure e sulla fornitura di strumenti adeguati per consultare fascicoli o serie documentali relative ad affari conclusi. In questo caso, l’utilizzo di un sistema informatico permette di uniformare e razionalizzare le attività relative all’archivio di deposito, attraverso procedure gestionali supportate da sistemi informatici e telematici avanzati.
Nell’attività di gestione degli archivi di deposito, l’outsourcer effettua una preventiva analisi della situazione dell’archivio, al fine di verificare se l’ente dispone di un piano di classificazione e fascicolazione dei documenti in entrata e in uscita, cosiddetto titolario di classificazione, se esiste un massimario o piano di conservazione e scarto per individuare quei documenti che saranno conservati a tempo illimitato e per determinare i limiti temporali, legali, amministrativi e fiscali, trascorsi i quali si può procedere all’eliminazione dei documenti.
Nello specifico la prima operazione che viene svolta dall’outsourcer è la presa a carico del materiale documentario, ossia il prelevamento della documentazione dagli archivi del committente e il conseguente passaggio della stessa documentazione, attraverso procedure standardizzate, nell’archivio dell’outsourcer.
Il trasferimento avviene in appositi contenitori contraddistinti da un’etichetta con codici alfanumerici e a barre a lettura ottica, che ne individuano la posizione fisica e logistica all’interno del deposito archivistico, fornendo, in maniera univoca, gli elementi per conoscerne il contenuto.
I contenitori devono essere realizzati in materiale resistente ed antipolvere, atti a preservare l’integrità fisica dei documenti durante il loro trasporto e destinati alla custodia in archivio del materiale documentario.
Contemporaneamente all’apposizione delle etichette, la documentazione viene schedata e classificata. L’attività di definizione di un piano di classificazione, in particolar modo, permette una corretta comprensione della documentazione nell’individuazione del vincolo archivistico e del principio di provenienza.
La documentazione, una volta trasferita nell’archivio dell’outsourcer può essere richiesta per essere consultata, da chiunque ne sia autorizzato a farlo. Tale consultazione può essere effettuata, previo precedente accordo, presso i locali del richiedente o presso i locali appositamente attrezzati dell’outsourcer...........
CONTINUA SU:
Il dossier completo è acquistabile dal catalogo di ebook on line del centro di formazione GianoForlab, all'indirizzo www.gianoforlb.it, sezione SHOP.
Iscriviti a:
Post (Atom)