Gen 07 2013

Arduino + Nunchuck

Category: TecnologiaAntonio @ 17:50


Purtroppo non ho la Nintendo Wii, ma può darsi che prima o poi non resisterò a comprarne una…

Nel frattempo ho comprato il controller Nunchuck della Wii perché avevo scoperto in rete che “parla” su una TWI (two-wire interface) a 3.3V restituendo, ad ogni interrogazione, la posizione X/Y del joystick analogico, lo stato dei due tasti Z e C, e i valori dell’accelerometro 3D integrato.

Con un programmino sulla Arduino leggo tali valori e li sparo sulla seriale USB del Mac (il cavetto nero) e quindi sicuramente anche verso Linux).

La Arduino “parla” a 5 volt: ha funzionato, ma non posso giurare che la Nunchuck funzionerà sempre senza problemi. Probabilmente mi toccherà inventarmi qualcosa per abbassare i 5V sui pin clock/dato ai 3.3V della Nunchuck (per i +3V3 provvede già la Arduino).

Continua la lettura “Arduino + Nunchuck”


Dic 27 2012

Osservatorio IIASCEPP

Category: TecnologiaAntonio @ 14:54


L’Osservatorio IIASCEPP intende offrire ai propri soci ed al pubblico un servizio informativo – culturale sui temi di maggiore interesse nazionale ed internazionale attraverso il monitoring di ambiti strategici.

Gli ambiti strategici considerati sono i seguenti:

* OSSERVATORIO INTERNAZIONALE
* OSSERVATORIO INTELLIGENCE
* OSSERVATORIO ECONOMICO E MANAGEMENT
* OSSERVATORIO INDUSTRIA ED IMPRESE
* OSSERVATORIO DIFESA E SICUREZZA
* OSSERVATORIO SULL’INNOVAZIONE
* OSSERVATORIO TECNOLOGIE DELL’INFORMAZIONE
* OSSERVATORIO FINANZA AGEVOLATA PER LA RICERCA, LO SVILUPPO, L’INNOVAZIONE E LE IMPRESE

Le informazioni utilizzate per l’elaborazione delle analisi provengono tutte da fonti aperte (pubblicazioni a stampa e siti web) e le fonti, non citate espressamente nei testi, possono essere fornite su richiesta.

Quanto contenuto nelle analisi riflette esclusivamente il pensiero degli autori che sono gli esclusivi responsabili del testo ed il loro pensiero e’ strettamente personale ed in alcun modo riflette quello dell’Istituto.

L’Osservatorio IIASCEPP è disponibile in formato elettronico (file PDF) nella pagina Osservatorio dell’Istituto Italiano Alti Studi sulla Crescita e l’Evoluzione Personale e Professionale all’indirizzo:

www.iiascepp.org

Direttore Editoriale

Gerardo IOVANE

Condirettori Editoriali

Alessandro CECI, Umberto GORI

Direttore Tecnico

Antonio ULLO

Comitato Editoriale:

Nunziante MASTROLIA – Direttore Osservatorio Internazionale

Angelo JANNONE – Direttore Osservatorio Intelligence e Geopolitica

Claudio LAISO – Direttore Osservatorio Economico e del Management

Antonello SCANO – Direttore Osservatorio Industria ed Impresa

Carlo LANDO – Direttore Osservatorio Difesa e Sicurezza

Marco LEONE – Direttore Osservatorio sull’Innovazione

Armando PAGLIARA – Direttore Osservatorio Tecnologie dell’Informazione

Valerio VALLA – Direttore Osservatorio Finanza Agevolata per la Ricerca, lo Sviluppo, l’Innovazione e le Imprese

Marco EMANUELE – Direttore InforAzione – ACTA DIURNA


Dic 27 2012

"Page cannot be found" durante la navigazione di pagine aspx in Windows Server 2003 con IIS 6.0

Category: TecnologiaAntonio @ 14:54


È possibile ottenere ‘Page cannot be found’ quando si cerca di caricare una pagina aspx in un ambiente Windows Server 2003.

Ciò è dovuto al fatto che in Windows 2003, tutte le estensioni webservice sono ‘vietati’ di default per garantire la sicurezza.

Per risolvere il problema, seguire i seguenti passi:

1. vai in START->Esegui e digitare il comando inetmgr e premere invio;

2. Espandere il nodo sotto IIS per individuare il nodo ‘Webservice Estensioni’;

3. Potrai trovare un elenco di estensioni ‘vietate’;

4. Fare clic su ASP.NET e selezionare ‘Allow’ (permettere)

Il presente articolo si applica per Windows Server 2003, IIS 6.0

 

Tag: , , , ,


Dic 27 2012

Come passare da YouTube a un filmato AVI (e copiarlo sul proprio PC)

Category: TecnologiaAntonio @ 14:54


Molto spesso abbiamo trovato un video interessante su YouTube che vogliamo conservare e semplicemente copiare sul proprio PC. La soluzione ci arriva direttamente dal WEB.

Appena trovato il video su YouTube che vogliamo scaricare sotto forma di AVI (per esempio) non dobbiamo far altro che:

1. copiare il link del video (su youtube lo troviano sulla colonna destra, dove ci sono due caselle di testo, con due scritte: URL e Codice da incorporare. Copiamo il contenuto della casella URL

2. Apriamo il sito vixy.net

3. Copiamo il link del video di youTube nella casella URL che troviamo sul sito vixy.net

4. Scegliamo il formato della conversione: AVI, MP4, MOV, 3GP, MP3….

5. START per iniziare

a questo punto il server inizia la conversione e a fine procedura genera un link dal quale possiamo scaricare il nostro file (video) cenvertito.

Fatto questo…il video è sul nostro PC

Tag: ,


Dic 27 2012

Tele Assistenza: Controllare e Gestire PC da remoto non è stato mai così facile

Category: TecnologiaAntonio @ 14:54


In questo articolo vi presenterò un utilissimo software (di cui è disponibile anche una versione non commerciale gratuita) che vi permetterà di gestire da remoto PC, un desktop remoto leggero e sicuro, ma soprattutto rapido; basta avviare il programma, inseire dei codici identificativi (la procedura sarà descritta inseguito) e arrivate direttamente sul PC da controllare.
Leggi Articolo


Dic 27 2012

OSSERVATORIO IIASCEPP – Settore Sicurezza e Difesa

Category: TecnologiaAntonio @ 14:54


Dalle pallottole ai megabyte: STUXNET, il worm che l’anno scorso ha sconvolto molte delle centrifughe a gas, elementi centrali del programma nucleare iraniano, è una potente arma nella nuova era della guerra dell’informazione globale….

► I Cyber attacchi ora la minaccia più temuta per l’energia dell’UE: Sulla scia della scorsa settimana ecco cyber-frodi sul mercato mondiale del carbonio; un alto funzionario dell’Unione europea ha detto ad EurActiv che di tutte le minacce per l’approvvigionamento energetico Europeo, i cyber-attacchi sono ‘probabilmente quello da temere di più’.

► Cyber War in arrivo: Gli esperti descrivono il nuovo anno come l’inizio di un cyber-decennio, una nuova era in cui le potenze mondiali si faranno furiosamente concorrenza tra loro su Internet.

► Alternatnive a WikiLeaks – OpenLeaks: . OpenLeaks, il sito informatore alternativo creato da disertori Wikileaks, è ufficialmente andato in linea, anche se non è ancora pienamente operativo. L’organizzazione ha confermato che non ha intenzione di pubblicare le informazioni in sé, ma piuttosto aiutare i terzi (ad esempio, non profit e org news) ad ottenere l’accesso ai documenti trapelati per trasmetterli al pubblico.

► Social Network: il nuovo campo di battaglia per il cyber-crime: Secondo recenti rapporti delle società leaders produttrici di sistemi di Sicurezza Informatica, ‘La tecnologia Web 2.0 dei siti web diventerà il principale campo di battaglia per gli autori di malware, ladri di identità e spammer’.

► L’egitto spegne Internet: Il governo egiziano sta limitando l’accesso a Internet e la copertura cellulare anticipando quella che potrebbe diventare più avanti la più grande manifestazione della storia.

► Il provvedimento del Garante sugli Amminstratori di Sistema: i recenti provvedimenti emessi hanno evidenziato la necessità di individuare e responsabilizzare le figure chiave intervenenti dei processi del “trattamento” automatico delle informazioni ed in particolare in compatibilmente con le normative in merito di violazione della Privacy. Tali provvedimenti si sono resi necessari per mettere in atto compiutamente le disposizioni per il contrasto al cyber-terrorismo.

► In Italia le prime esercitazioni di Cyber Defence concrete: le esercitazioni di Cyber Defence Nazionale “Cyber Shot 2010” e NATO “Cyber Coalition 2010”, sono state finalizzate a valutare le capacità di cooperazione delle organizzazioni partecipanti e perfezionare le procedure di scambio informativo in ambito Nazionale e NATO.

Le nuove armi dell’era digitale: minaccia ormai concreta

Durante lo scorso anno circa mezzo megabyte di software ha messo in seria crisi una delle principali risorse energetiche iraniane: il caso STUXNET è stato il chiaro esempio di come, per un banale “errore” di valutazione nella comunicazione di informazioni relative a del software commerciale ,sia stato possibile compromettere il funzionamento di impianti necessari per il funzionamento di centrali nucleari.

La dimostrazione di quello che sia possibile fare nell’era della globalizzazione e dello sviluppo telematico, sfruttando le stesse tecnologie che ne sono il cuore, lascia spazio a svariate considerazioni che si cercherà di sintetizzare e schematizzare.

Seppur scontato è utile ricordare che per Infrastrutture Critiche si designa quell’insieme di infrastrutture che garantiscono il benessere sociale ed economico di una nazione. Sebbene non esista una classificazione unica, la maggioranza delle nazioni individuano quali Infrastrutture Critiche:

• infrastrutture per la produzione, trasporto e distribuzione di energia (elettrica, gas ecc.);

• infrastrutture di telecomunicazioni;

• circuiti bancari e finanziari;

• sistema sanitario;

• infrastrutture di trasporto (aereo, viario, ferrovia- rio, navale ecc.);

• infrastrutture per la raccolta, distribuzione e trattamento delle acque superficiali;

• servizi di emergenza;

• filiera alimentare.

Per il loro corretto funzionamento tali infrastrutture hanno dovuto evolversi integrando sempre più sistemi di telecontrollo, sistemi di automazione dei processi, sistemi di allarmistica, sistemi di geo-localizzazione, sistemi di analisi etc… tutti sistemi che trovano il loro fondamentale incipit nella tecnologia dell’informazione, che ha permesso con l’evoluzione dei sistemi di telecomunicazione a distanza la distribuzione metropolitana e geografica di tutti i livelli, tattici e strategici, facenti parte di ciascuna struttura.

Fino a qualche decennio fa ciascuna delle infrastrutture sopracitate era considerata un sistema autonomo, senza alcuna possibilità di accesso all’esterno e gestito da operatori interni in maniera verticale. Per svariate motivazioni di natura tecnologica, economica e sociale tale panorama è adesso totalmente modificato.

Le strutture risultano convergenti e strettamente interconnesse tra di loro, in alcuni casi fortemente dipendenti l’una dall’altra, e chiaramente le reti governative hanno dovuto adeguarsi protendendo ad una realtà NetCentrica in cui convergessero tutti i sistemi di controllo e comunicazione delle reti informatiche, dando così il natale al concetto di NetCentric Warfare, evoluzione della famosa “Rivoluzione degli Affari Militari” (RMA) della metà degli anni settanta.

L’attuale quadro della situazione quindi è intuibile e lampante, e delinearne le criticità è semplice, soprattutto per chi è abituato a muoversi in ambienti estremamente distribuiti ed “affollati” che ben si prestano all’anonimato.

La produzione di software ha visto degli incrementi impressionanti negli ultimi 10 anni nell’incremento della produzione, e l’eterogeneità della domanda ha fatto si che i codici fossero anche profondamente diversi.

La semplicità degli strumenti di programmazione è evoluta nello stesso modo in cui la domanda di applicativi si è distribuita alla massa, in particolare il fenomeno Linux ha permesso una vera rivoluzione, soprattutto nella programmazione.

“Cyber Fabbriche” di codici di ogni sorta, disponibili liberamente grazie ad un “underground” non conosciuto e poco rintracciabile, diffusi tramite la Rete delle Reti, si trovano in ogni angolo del mondo.

La popolare teoria dei “corsi e ricorsi storici” sembra coerente, si assiste, ora come allora, ad una corsa agli armamenti da parte di tutte le nazioni, ognuna con l’intento di “proteggere” il proprio patrimonio industriale, sociale, ideologico ed economico sopratutto.

STUXNET non è stato un caso isolato, è stato eclatante certo, perché ha avuto un diretto riscontro sul settore energetico-nucleare, ma è chiarissimo come penetrare anche una sola delle reti informatiche di cui si è parlato può diventare un rischio per i servizi fondamentali di un’intera nazione.

L’incremento della produzione di codice malevolo, teso a colpire sistemi informatici è stato impressionante nello scorso anno, uno dei maggiori produttori di Antivirus Europei ha fornito statistiche rilevate dai sistemi: nel 2007 sono stati rilevati oltre 23.500.000 di attacchi provenienti dal Web, nel 2009 il numero è salito a oltre 73.500.000 mentre nel 2010 il fenomeno è salito alle stelle oltre 580.000.000 di attacchi rilevati provenienti da Internet! Significativa l’impennata in un solo anno che evidenzia chiaramente la crescita non solo di codice malevolo, ma anche la potenziale presenza nelle reti di comunicazione globale di server Web infetti, sistemi zombie e botnets che sono solo l’elemento evidente di problematiche di sicurezza molto più complesse.

Secondo le stime dei maggiori produttori di software e di sistemi di sicurezza informatica si è sviluppato un vero e proprio mercato nero delle botnet, è possibile infatti acquistare botnet con una semplicità estrema, ed il 2010 è stato anche in questo caso un anno di crescita, inoltre si è vista in modo molto più marcato la “specificità geografica delle botnet, che fornisce un’idea di come si stiano delineando dei cyber confini a cui riferirsi nel futuro.

Codici in grado di passare inosservati attraverso i sistemi di sicurezza, sfruttando la “potenza di calcolo” di esercito di macchine pronte a rispondere a poche righe di codice, come ad un ordine di un comandante, sono una realtà consolidata.

Le operazioni che questi codici effettuano nel loro funzionamento sono molto simili a quelle di un sistema d’arma: definizione del target, inquadramento del bersaglio, ingaggio dell’obiettivo, calcolo delle variabili, fuoco sul bersaglio, raggiungimento del target, perforazione delle difese esterne, penetrazione dell’elemento distruttivo, abbattimento del bersaglio.

La stessa terminologia viene utilizzata dai produttori di codice malevolo per specificare le varie fasi di funzionamento del codice, e l’individuazione dei “produttori” di queste nuove armi molto precise è di notevole difficoltà.

La preoccupazione in merito alla stabilità delle reti dei sistemi energetici, primaria risorsa di ogni nazione, non è nascosta, soprattutto in un momento storico in cui la crisi economica ed energetica ha messo gravemente alla prova i sistemi socio economici internazionali, e tutti gli organismi nazionali e sovranazionali esortano ad incrementare i sistemi di sicurezza e di controllo così da limitare il più possibile i danni di eventuali attacchi alle infrastrutture.

Ampie riflessioni le lascia il costrutto teorico su cui di basa la NetCentric Warfare:

“Con la digitalizzazione, si mira ad ottenere il predominio sull’avversario essenzialmente grazie alla superiorità nelle informazioni ed alla condivisione del flusso informativo tra tutti i nodi. In altri termini ciò che prima era funzione di potenza di fuoco e protezione, con la NetCentric Warfare diventa funzione dell’information dominance e della rapidità, anzi dell’istantaneità, del processo decisionale, dove tale istantaneità può indurre la paralisi nel processo decisionale del nemico impedendogli di fatto di produrre una reazione coerente ed efficace.”

Sviluppi dei nuovi scenari del cyber-crime per il 2011

Quale sia la percezione che la massa ha dei concetti di Guerra Elettronica è amaramente chiaro dalla diffusione, negli ultimi due anni, dei social netwoks. Quando si utilizza il termine guerra la mente si focalizza subito su “strumenti materiali” atti ad offendere, un fucile, un carro armato, un aereo… difficile immaginare un proiettile che non si vede e che quando colpisca il bersaglio non produca cause “cinematografiche”, almeno nell’immediato.

Statistiche e mappe di diffusione del fenomeno Facebook, piuttosto che del fenomeno Twitter, riempiono le home page dei siti web di settore, ed imperversano su riviste e quotidiani.

Continua la lettura –>
Fonte: www.iiascepp.org


Dic 27 2012

Schema di un motore di ricerca

Category: TecnologiaAntonio @ 14:54


Un motore di ricerca è un software realizzato per facilitare le ricerche di file memorizzati su un server, sul WEB o sul proprio computer.

Estendendo il concetto fino ad abbracciare quello di information retrieval (recupero dell’informazione, in origine testuale) possiamo dire che un search engine è in grado di organizzare e filtrare le informazioni per una ricerca veloce effettuata secondo le parole chiave ed i criteri inseriti da un utente.

Un motore di ricerca è organizzato nei seguenti moduli:

• il crawler o spider ‘visita’ il contenitore dei dati (da un singolo computer all’intero Web, secondo lo scopo del progetto) ed invia al data38 (nel suo significato più generale di archivio dati) le informazioni reperite;

• l’indexer analizza i dati presenti nel data38 ed assegna ad ogni file un indice di ‘rilevanza’;

• il searcher per mezzo di un’interfaccia (ad es. un browser), permette agli utenti di formulare una richiesta tramite parole chiave (query);

• il retrieval raccoglie le risorse individuate nel data38 dal modulo search e crea le pagine contenenti i risultati da visualizzare;

Le funzioni di trattamento di dati testuali sono una parte importante in un numero di applicazioni sempre più alto.

 

Tag: ,


Dic 27 2012

Creare un servizio sotto Windows XP/2003 (Service Installer)

Category: TecnologiaAntonio @ 14:54


A volte è utile/necessario far funzionare come servizio di sistema programmi che non sono stati creati con questa caratteristica.
I due casi più comuni sono: far partire un programma prima del login dell’utente, (e/o in assenza di esso), e programmi che richiedono privilegi amministrativi che non è opportuno concedere all’utente del PC.

In questo ci vengono in aiuto SRVANY.EXE e INSTSRV.EXE, entrambi presenti nel resource kit di Windows, e scaricabili a questo indirizzo (nome file: rktools.exe).

Continua la lettura “Creare un servizio sotto Windows XP/2003 (Service Installer)”

Tag: , , ,


Dic 27 2012

Foxmarks Mantenere Aggiornati i Segnalibri (preferiti) su Diversi PC

Category: TecnologiaAntonio @ 14:54


Quanti di noi si trovano a lavorare su diverse postazioni? se lavori in ufficio e possiedi un PC anche a casa sicuramente ti sei trovato sicuramente davanti a questo problema: hai dimenticato di portare a casa dei segnalibri (link interessanti) trovati e salvati mentre eri a lavoro.
Leggi Articolo


Dic 27 2012

OSSERVATORIO IIASCEPP – Settore Tecnologie dell’Informazione

Category: TecnologiaAntonio @ 14:54


NVIDIA: la rivoluzione dei SuperPhone (dal CES 2011): al Consumer Electronics Show 2011 Nvidia annuncia i nuovi dispositivi per combattere iPhone e iPad utilizzando i processori multicore ad alta potenza, la grafica notevolmente migliorata e i ricetrasmettitori 4G. Sarà interessante vedere come Apple risponderà a questa nuova classe di SuperPhones.

MS Surface 2: più veloce e funzionale (dal CES 2011): Microsoft punta su sistemi multi-touch molto più grandi rispetto ai tablet, per sottolineare la differenza tra tavoli e tavolette. Anche il nuovo prezzo è leggermente più basso. In più il nuovo Surface ‘slim’ presentato a Las Vegas, realizzato insieme alla coreana Samsung, può essere tranquillamente posizionato in verticale, come il più classico dei dispositivi TV.

► Avatar Kinect e la riproduzione dei movimenti facciali: Avatar Kinect per XBox consentirà interazioni virtuali per le espressioni facciali e i gesti reali degli utenti, permettendo di scegliere quali dettagli visivi visualizzare. Una tecnologia che potrebbe portare cambiamenti radicali alle teleconferenze di business.

► Sony e i diversi sapori del 3D: le TV 3D potrebbero essere nei nostri salotti in meno di un anno. Mentre l’azienda produce e vende già i televisori, in cantiere ci sono il 3D head-mounted display, un display che si indossa come occhiali di fantascienza, e la HandyCam Full HD 3D, per registrare direttamente in 3D le proprie esperienze.

► IPv6 per un giorno: ci si prepara al nuovo Web: presto IPv6 sarà sperimentato realmente, per un giorno. Diversi leader di tecnologia su Internet si stanno mettendo d’accordo per fare un’esperienza reale con il nuovo protocollo nel prossimo mese di giugno, per testarne le qualità e prevederne l’utilizzo definitivo.

► PSP2: processore quad-core e doppia videocamera: Sony ha rivelato ulteriori circa la sua PlayStation Portable 2, soprannominata ‘Next-Generation Portable’ o NPG, che comprende un potente chip quad-core, due telecamere e un touchscreen capacitivo. I giochi saranno fruibili su flash card proprietarie. Un’altra novità è PlayStation Suite, un modo per portare vecchi titoli PlayStation sui telefoni Android.

Snaptu: una piattaforma di applicazioni per cellulari

Il primo focus di questo mese si concentra su Snaptu (http://www.snaptu.com), una piattaforma per mobile applications (applicazioni per telefoni cellulari).

Con l’ingresso dei super-cellulari, capostipite dei quali è l’iPhone della Apple, tecnicamente chiamati smartphone o telefoni 4G (quarta generazione), i telefoni cellulari di terza generazione (3G) hanno subito un calo nelle vendite e nei costi, mantenendo comunque per ora ancora la fetta più grossa del mercato, visti appunto i costi ridotti.

Poiché il World Wide Web cresce sempre di più – e le vecchie pagine HTML sono diventate vere e proprie interfacce complesse – i poveri cellulari di terza generazione ne stanno pagando lo scotto, assumendo il nome di feature phone, che letteralmente vuol dire “telefoni con componenti aggiuntivi”, rispetto ai semplici mobile phone, cioè cellulari di seconda generazione, con tecnologia GSM (per completezza aggiungo che i cellulari di prima generazione erano i TACS, precedenti all’epoca GSM).
Poiché la comunicazione in tempo reale si sta affiancando sempre più alla vita reale, diventando indispensabile per chi usa la tecnologia per lavoro e per la vita privata, Snaptu ha pensato di progettare e sviluppare una piattaforma applicativa, totalmente gratuita, per i cellulari 3G su cui rendere disponibili “app” simili a quelle dell’iPhone, ma contemporaneamente più leggere e veloci.

La piattaforma Snaptu[1], sviluppata in J2ME (Java 2 Micro Edition) e funzionante quindi su tutti i cellulari con Java Virtual Machine installata, contiene finora oltre 30 applicazioni, tra cui: Twitter, Facebook, LinkedIn (per citare i più comuni social network), Picasa per la gestione delle foto e tante altre features come le previsioni del tempo e la recensione dei trailer degli ultimi film. Anche se la maggior parte delle applicazioni è scritta in inglese, la versione italiana di Snaptu è disponibile in versione Beta, e ci si deve accontentare solo delle applicazioni più famose (Facebook ad esempio è in italiano!).
E proprio il social network più utilizzato al mondo, Facebook, ha lanciato ultimamente un’applicazione “griffata” operante sulla piattaforma Snaptu.
L’applicazione permetterà agli utenti dei telefoni 3G di accedere a Facebook anche in viaggio, mantenendo il cellulare perennemente aggiornato sugli eventi, proprio come l’applicazione Facebook per iPhone.
Il motivo per cui gli sviluppatori del social network hanno scelto Snaptu discende dal voler aiutare il social network a crescere nei mercati emergenti, dove molte persone usano i feature phones al posto dei PC.
L’applicazione, denominata Facebook Snaptu App[2], è disponibile da subito per oltre 2500 dispositivi cellulari di diversi produttori come Nokia, Sony Ericsson, LG e così via.

Il portavoce di Snaptu, Paul Naphtali, ha dichiarato che “l’ingrediente segreto di Snaptu è quello di creare una combinazione di tecnologia lato server e lato applicazione, che assicura efficienza ed efficacia su qualsiasi telefono” (Paul Nephtali su TechNewsWorld).
Snaptu è disponibile per il download gratuito, direttamente dal cellulare, all’indirizzo http://m.snaptu.com o, per l’applicazione Facebook, all’indirizzo http://m.fb.snaptu.com.

Facebook: connessione HTTPS a tempo pieno e social authorization

Il secondo focus invece riguarda Facebook e il sistema di sicurezza che il “monopolio” dei social network utilizzerà.

Facebook, difatti, intende rafforzare le politiche di sicurezza degli utenti consentendo l’uso continuo delle connessioni HTTPS cifrate, e non solo durante l’autenticazione al servizio.
La funzione sarà lanciata all’inizio come un’opzione. Il social network farà anche uso di un approccio più personale per i CAPTCHA chiedendo agli utenti di identificare, oltre lettere e numeri, anche le foto degli amici.
La cosa curiosa è che la notizia sia arrivata proprio poche ore dopo che la fan page dell’amministratore di Facebook, Mark Zuckerberg, è stata compromessa da un hacker.

Facebook già utilizza l’HTTPS per la protezione delle password inviate al sistema. L’espansione riguarderà l’utilizzo della totalità dei servizi di comunicazione del sistema e non solo il momento dell’autenticazione.
Mantenendo una connessione HTTPS è possibile prevenire lo snooping (presa di possesso del profilo) da parte di hackers attraverso l’utilizzo di strumenti come Firesheep, un’entensione di Firefox che permette lo sniffing dei cookies e, quindi, il recupero malevolo di informazioni.

Questo sistema di protezione sarà chiamato Secured Connection[3].
La connessione HTTPS sarà data comunque in via sperimentale e sarà selezionabile dalle opzioni, scegliendo anche di mantenerla sempre attiva, quando ad esempio ci si connette attraverso un internet-point esterno come aeroporti, biblioteche o scuole.

Ciò comporterebbe un rallentamento di ben 50 millisecondi nel caricamento di ogni pagina, tempi computazionalmente discreti… ma praticamente impercettibili dagli utenti.
Un valore aggiunto alla sicurezza di Facebook lo darà il nuovo sistema CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart)[4]. L’immaginetta con numeri e lettere casuali da ricopiare sarà sostituita dal rivoluzionario social authorization. Il sistema proprietario si 93rà non più su numeri e lettere in versione puzzle ma sul riconoscimento facciale dei propri contatti amici.
Rice si è giustificato dicendo: “gli hackers possono appropriarsi e conoscere le tue password, ma non potranno sapere chi sono i tuoi amici”.
Il sistema proteggerà ancor di più il social da attacchi di bot sugli account degli utenti, ma non può fermare hacker umani, soprattutto se conoscenti reali del contatto.
Ciò che non potrà mai avvenire però sarà la protezione “automatica” delle informazioni. Sarà sempre il titolare dell’account, difatti, a dover decidere cosa condividere con il mondo.

di Armando Pagliara
Continua la lettura su iiascepp


« Pagina precedentePagina successiva »