Blogger Widgets

18/04/14

Device o dispositivi basati sulla rete di comunicazione SATCOM vulnerabili

Reti di comunicazioni a rischio, è allerta massima in scenari di Crisi...

Non bisogna creare allarmismo,poichè è nella filosofia "hacker" aiutare il prossimo tali reti paradossalmente potrebbero funzionare meglio se "testate" da terzi... Come al solito non è la possibilità di far qualcosa ma la responsabilità etica che molti hanno nel possedere determinate "competenze".

 Il crescente rischio di attacchi informatici è ormai una realtà che coinvolge anche inconsapevolmente la vita di molti cittadini. Le varie reti o collettivi di hacking sono giunti a toccare perfino il settore delle comunicazioni satellitari e spaziali. Taluni iniziano a sfidare persino gli operatori satellitari. Questo avviene poichè il sistema satellitare è uno degli  ingredienti critici per le varie nazioni anche sotto un ottica moderna e militare, transitando una mole di dati enorme diventa un qualcosa di "prelibato", se non altro un bersaglio attraente per nuovi attacchi informatici. Una società di sicurezza informatica ha scoperto un numero elevato di criticità, compreso le credenziali codificati, e protocolli di comunicazione non documentati e molto insicuri, comprese numerose backdoor che vengono ampiamente usate nelle comunicazioni satellitari (SATCOM). Tali terminali,  sono spesso utilizzati dai militari, dalle agenzie governative e nel settore industriale.Sfruttando alcune vulnerabilità un utente malintenzionato potrebbe intercettare comunicazioni, manipolare flussi di dati, bloccare le comunicazioni, e in alcune circostanze, potrebbe assumere il controllo remoto dei dispositivi fisici utilizzati nella comunicazione persino di missioni definite critiche per importanza della rete satellitare (SATCOM).
L'utente malintenzionato ottenuto l'accesso ai dispositivi fisici utilizzati per comunicare con i satelliti in orbita nello spazio, può interrompere del tutto operazioni militari e o le comunicazioni di comunicazioni via satellite contenenti informazioni sui voli o comunicazioni di sicurezza su rete (SATCOM). Per i curisoi basta cercare un report diffuso da questa società (che preferisco non dire... in modo che a chi interessa può cercar per i fatti propri una dettagliata analisi di 25 pagine sulla dinamica del fenomeno). 

Migliaia di dispositivi SATCOM ad oggi sono vulnerabili e anche se uno dei dispositivi interessati è compromesso, l'intera infrastruttura SATCOM potrebbe essere a rischio, comprese le navi, aerei, militari, servizi di emergenza, servizi multimediali e servizi industriali (piattaforme petrolifere, gasdotti , impianti di trattamento acque, turbine eoliche, sottostazioni, ecc.).
Tra i Dispositivi Tattitici Radio & terminali usati per il Networking si segnala la vulnerabilità di :
Harris BGAN
Le Vulnerabilità segnalate riguardano anche gli aerei militare Statunitensi equipaggiati con i dipositivi "Cobham AVIATO", tale dispositivo di comunicazione è progettato per soddisfare le esigenze di comunicazione via satellite di aerei . Un malintenzionato potrebbe persino interrompere le comunicazioni di volo.
I ricercatori della ditta che preferisco non menzionare, stanno lavorando con il CERT Coordination Center per avvisare ogni produttore delle grave falle di sicurezza che hanno hanno scoperto nelle reti di comunicazione. "Fino ad oggi non ci sono patch disponibili, i fornitori dovrebbero fornire soluzioni alternative ufficiali o configurazioni raccomandate per ridurre al minimo il rischio."
Fonte: "meglio non saperlo ahahhaa". 

15/09/13

Come fanno gli attivisti appartenenti a collettivi "hacker a destabilizzare" infrastrutture informatiche definite critiche ?

Attenzione "declino ogni responsabilità sull'uso improprio del seguente articolo, è solo una riflessione personale e va presa come tale, mi manterrò sul vago per evitare che stupidi "lamer" o wannaby possano compiere azioni irresponsabili e che comunque sono da "evitare" per le conseguenze penali e civili. Questo articolo ha solo uno scopo "educativo" e si ricorda che destabilizzare sistemi oltre ad essere illegale è un atto barbaro e in genere non eticamente corretto.


Spesso capita di leggere articoli in cui si riportano le "gesta" compiute da sedicenti hacker. Nella foga giornalistica vengono tralasciati o meglio travisati i dettagli che alla fine "potrebbero" far capire l'appartenenza alle varie scuole di pensiero. Ma siamo proprio sicuri che la persona che alla fine "risulta dalle indagini" proprio quella che ha sferrato l'attacco è consapevole di ciò che è avvenuto nella propria rete ? Nella vita di tutti i giorni abbiamo il controllo di ciò che avviene nella nostra rete ? Sappiamo fino in fondo il percorso che ogni dato fa ?  Siamo consapervoli della mole di dati che viene veicolata dalle nostre connessioni ? Con la crecente disponibilità di  banda larga, utilizzo di servizi online e Computer perennemente interconnessi, secondo voi,  è così difficile far compiere a terzi attività "illecite" senza che "persone teoricamente esperte" ne siano effettivamente consapevoli ? Oggi bisogna prestare massima attenzione!!! Procediamo con ordine.... 
  1. L'attività dei collettivi hacker non è mai singola, è coordinata e l'attacco quando parte è come se fosse una scarica che deve essere incisiva e precisa. L'attacco che parte da più punti non è casuale. Partendo da più punti si infittisce la nebbia dei possibili nodi che hanno scatenato il fenomeno. 
  2. I semi dell'attività dei collettivi è volta a stravolgere infrastrutture critiche, tutte le informazioni vengono ricercate con cura e conservate spesso in hub. Tali informazioni possono essere riutilizzati per eventuali attacchi coordinati che spesso hanno portata mondiale.  Altre volte si pesca a strascico e poi si analizza quanto prelevato.
  3. Di solito, la prima fase consiste nell'acquisizione dell'obbiettivo o target . Come si acquisisce una rete ? come schiavizzo le macchine ? esistono due scuole di pensiero la prima la più pericolosa e subdola consiste nell'instillarsi nella rete come un cancro silente. Questo ragionamento è come un porting delle usanze tipiche delle "sette sataniche" fanno indebolire gli adepti per plagiarne completamente le facoltà intellettive. Così nella rete target vengono fatti dei test di saturazione della banda attraverso DDOS e utilizzo di script "per veicolare" lo spread virale. Molti si chiedono perchè un terzo dovrebbe assorbire completamente la banda di un server / rete ? semplice per testarne le capacità e per usare tale risorsa in caso di necessità. Una macchina spesso se gira lenta viene messa in modalità "provvissoria" l'amministratore spesso fa qualche errore e nel tentativo di ripristinare i servizi disabilità le protezioni... facendo in questo modo spesso la macchina viene conquistata. Molti usano script kiddies che danno una marea di informazioni sulla macchina e attraverso tali informazioni si lanciano attacchi mirati volti al possesso fisico della macchina e dei dati in essa contenuti. Ma nell'ottica hacker ciò che conta è la risorsa che una volta conquistata viene messa da parte e utilizzata in caso di attacchi distribuiti.
    Tornando a quando detto prima esistono anche hacker che non vogliono conservare per se la macchina perchè non hanno finalità negative e per questo si limitano a fare di tutto per farsi notare... lasciano tracce e persino messaggi ai sysadmin del sistema. Questo genere di persone sono coloro che sono fedeli alla vecchia scuola... se trovi una falla in un sistema segnala tale vulnerabilità e se vuoi lascia il tuo biglietto da visita...
  4.  Perchè è utile avere più nodi in caso di attacchi mirati ? Semplice per mischiare le carte... ricorderete il caso di Megaupload all'interno del sito vi era uno script che "faceva compiere" un vero e proprio DDOS a chiunque visitasse tale risorsa... motivo per cui i siti preferiti per sferrare attacchi e destabilizzare le infrastrutture critiche restano risorse per il file sharing e i social network. 
  5. Quali sono le reti preferite dai collettivi hacker ? questa è una risposta molto delicata poichè in Italia il discorso è semplice... sono i grandi provider che forniscono spazi e servizi .... a livello internazionale sono quei provider che offrono "troppa" collaborazione in caso di indagini... per questo ci sono liste nere come è avvenuto per la questione SOPA e PIPA. 
  6. Ma qual'è il modo per capirne fino in fondo di questi fenomeni ? vi sembrerà strano ma provando a costruire una botnet si può capire in pratica come funzionano le cose... anche se rimane un esempio a livello di scuola. 
  7. Ma cosa deve farci paura in un modo che ormai non ha più confini ? a livello aziendale sono i vari cavalli di troia che sono "annidati" nei vari "stampati" che ormai producono esclusivamente in Cina... La Cina come paese in forte espansione "spia" e facendo ciò riesce a mettere sul mercato merci di ogni genere... per questo la ricerca tecnologica è costantemente minacciata da "pirati" di nuova "concezione". 
  8. Come proteggersi ? prestare massima cura nella vita di tutti i giorni e adottare un protocollo per il trattamento dei dati onde evitare che terzi vengano in possesso dei nostri "segreti".
Spero per tutti che questo articolo sia stato illuminante ma ci sarebbe molto da scrivere ma per questo vi do appuntamento a presto non appena troverò un argomento che sia utile agli altri e serva da riflessione condivisa. 

12/04/13

Testamento Digitale: Google lancia servizio per proteggere la privacy in rete dopo la propria morte

Google è sempre all'avanguardia, oggi ci sorprende per l'iniziativa di consentire a terzi, la possibilità di disporre dei vari profili appartenenti alla galassia Google. Con un nome semplice ed intuitivo Inactive Account Manager si permette all'utente di pianificare preventivamente la gestione dei propri servizi che fanno parte dell'ecosistema dell'azienda di Mountain View, da Gmail ai profili YouTube, e decidere se eliminarli o consegnarli ad una persona fidata.
E' possibile specificare fino a 10 contatti che dovranno essere avvisati dell'inattività dell'account e identificarli eventualmente come ereditari dei propri contenuti. Il servizio è stato annunciato in un post ufficiale sul blog della società. "Speriamo che questa nuova opzione vi aiuti a pianificare il vostro 'aldila'' digitale in modo da proteggere la vostra privacy e la vostra sicurezza, ma anche a rendere la vita dei vostri cari più semplice", spiega Andreas Tuerk, manager di Google. "Inactive Account Manager" ed e' un tool che permette agli utenti di decidere cosa ne sara' dei vari servizi Google, Gmail, Blogger, Google Drive, Google+, Picasa Web Album, Google Voice e YouTube, dopo la morte dell'utente. "Potrai decidere cosa fare dei tuoi dati e messaggi Gmail e delle altre informazionni se il tuo account diventa inattivo.

info su ansa e agi

09/04/13

Le regole del Web: No ai saltimbanchi digitali quando c'è Il tuo nome, marchio o azienda

  Spesso mi capita di leggere o sentire  dichiarazioni altisonanti, rilasciate da titolari di aziende o responsabili di siti web che non hanno nulla a che vedere con l'incompetenza informatica o tecnica. Molti personaggi parlano credendo in ciò che dicono e questo mi fa molto riflettere. Oggi come oggi, un terzo, può cercare di individuare a larghe spanne l'effettiva capacità che un sito web o un sito di e-commerce può reggere. Può anche spiare il traffico e "misurare" l'effettiva portata dell'impatto web. Premetto che nessun tecnico che si rispetti, nell'ipotizzare tale entità, cercherebbe di interferire con il funzionamento dell'altrui servizio. In parole molto semplici nessuna persona sana di mente, per testare la capacità di un server si sognerebbe di esaurire le risorse mediante ddos o simili.  Quantificare l'effettiva portata dei siti web non è solo un qualcosa di ipotetico. Un buon punto di partenza sulla effettiva capacità ci può venire, anche, dalla dislocazione dei vari menù, suggerimento di prodotti e dalla  geografia (configurazione tecnica e grafica) del prodotto web. Spesso si vedono maneggioni tutto fare che fanno errori colossali. Ognuno dovrebbe capire quando è il momento di lasciare il campo a una persona o ad un team di esperti in diversi aspetti. Poichè è assolutamente inutile sprecare banda o allocare contenuti web sul server senza aver ottimizzato per la fruizione on line. Molti si chiedono se esistono delle regole del Web che siano universalmente valide.
Molti esperti, in buona fede, parlano soltanto  di standard, e si  arrovellano il cervello pensando a parametri rigidi che spesso, non tengono conto dell'effettiva possibilità di fruizione del servizio web, trasformando un qualcosa di fruibile in un capesto digitale conforme allo standard. Non ha senso proporre delle regole che siano eccessivamente restrittive, poiché è nell'interesse di chi progetta un sito web, per agevolare chi consulta il web, di tenere conto il più possibile delle altrui esigenze, per ampliare la platea dei fruitori. Non è del tutto corretto come modus operandi,  andare a leggere libri anteguerra o rifarsi a regole che andavano bene negli anni '90. Oggi il web si è evoluto e bisogna capire che  molte possibilità di espressione erano impossibili anche per questioni tecniche, primo fra tutti la mancanza di banda larga. Adesso ciò che era non fruibile e nemmeno immaginale negli anni 90, potrebbe andare bene, perché siamo nel 2013 e i dinosauri si sono estinti da un bel pezzo.
  Non è detto che tutti i siti web devono piegarsi a degli standard, come affermano i sapientoni del web, poiché lo standard non è sinonimo di qualità.
La rete internet è diventata qualcosa che nemmeno loro possono immaginare. Non puoi infilare nel budello della rete ogni schifezza possibile e immaginabile, non ha senso fare un prodotto da terzo mondo che segue gli standard. Ogni prodotto web deve avere il suo target di riferimento. Non è una rivelazione divina ne una parola rivelata dai profeti che ogni "prodotto" deve espandersi in ogni piattaforma possibile e immaginabile. Un realizzatore può avere l'interesse nel realizzare prodotti web senza l'uso di framework massificati. Il gusto di andare contro corrente può portare la nostra mente a curiose sperimentazioni, specialmente se il nostro obiettivo è scalare la posizione web e dare una spinta al nostro sito web nei motori di ricerca. Anche se è un concetto molto sottile e difficile da spiegare cercherò di "proporre alcune dritte per i neofiti del web e dare alcuni assiomi (li definisco tali poichè non posso divagare)  a coloro che dovrebbero essere già dei guru del web ma, non vedono risultati dai loro tentativi, poiché il web alla fine premia la qualità dei contenuti e l'attenzione per gli utenti.  Il tuo nome, marchio o azienda esiste se riesci ad attrarre persone che sono effettivamente interessate a ciò che scrivi o se riesci a far conoscere il tuo prodotto. Non è una questione di numeri, non è la quantità, ma la qualità che fa la differenza in una strategia web di online marketing e di posizionamento web. Quali sono le domande che spesso i neofiti del web si fanno ? Perchè dovrei perdere tempo, non possiamo far svolgere queste attività in automatico con dei cronjob appositi ? Poiché in fase di progettazione, non bisogna commettere errori, non bisogna spendere cifre esorbitanti per un qualcosa che non ci serve. Ogni progetto web ha diverse fasi che vanno dal lancio al picco che fisiologicamente è soggetto and un calo... Non ha senso utilizzare "risorse" che non ci servono. E ridicolo pensare che un azienda che fornisce spazi web possa offrirci risorse illimitate e fesserie simili. Bisogna pensare alle fasi di sviluppo delle varie piattaforme ed aprire i rubinetti quando è veramente necessario.
E' per questo che non trovo altra definizione che "saltimbanchi digitali" di coloro che rilasciano dichiarazioni nei forum, su facebook, o atrove fregiandosi del titolo di influencer. E battono sempre su questo ritornello,  anche nei vari social network poiché oggi l'influenza, misurata da strumenti "errati"  è molto molto relativa. Ogni utente del web ha le sue preferenze e senza uno studio sul nostro pubblico di riferimento non possiamo "dichiarare" cifre o promettere nulla. Anche le statistiche si possono alterare e che senso avrebbe senza etica e professionalità ? C'è tanto bisogno di serietà in un settore dove chi sa pigiare a malapena 2 tasti crede di essere il profeta del nuovo millennio, consigliando scelte scellerate a responsabili d'azienda. In tempi di crisi non possiamo permettere che si sprechino risorse. Sprecare risorse è qualcosa che oltre a danneggiare le finanze aziendali crea false aspettative che potrebbero far prendere decisioni basate su feedback inesistenti o peggio immaginate per garantirsi la sediolina sotto al sedere. Non basta avere 10 miliardi di mi piace le aziende non vivono di falsi fan ma di consumatori che desiderano interagire con l'azienda che commercializza servizi o prodotti. Ognuno vuole risposte e non desidera essere sommerso da tutte le innumerevoli "sovra informazioni" che spesso sono solo violenza gratuita nei confronti di coloro che da semplici fruitori del servizio o da un semplice mi piace si ritrovano la propria bacheca tempestata da promozioni che non sono corrispondenti alle reali esigenze del consumatore finale. La strategia web deve attrarre nuovi clienti e non deve "martirizzare" i vecchi clienti. Una giusta strategia informatica può affermare la nostra presenza in rete, per tale motivo è necessario affidarsi a gente preparata e a coloro che con molta umiltà vogliono fare il meglio perché è giusto dare il proprio apporto in modo etico conservando sempre e comunque la propria  professionalità.

04/04/13

Anonymous attacca siti web, Kim Jong-un si dimetta

Manifesto 'wanted' con la sua immagine trasfigurata in quella di un maiale

 Il collettivo hacker Anonymous ha attaccato numerosi siti web e profili twitter e facebook della Corea del Nord.
Tra i siti hackerati, il profilo Flickr del sito Uriminzokkiri, dove gli hacker hanno piazzato un manifesto "wanted" con l'immagine di Kim Jong-Un trasfigurata in quella di un maiale con topolino tatuato sul ventre.
Anonymous chiede che il leader nordcoreano si dimetta.
Tra i siti oscurati anche quello della compagnia aerea nazionale, Air Koryo.

Fonte: Ansa

Scienza: Il cosmo, la materia oscura e l'antimateria

Il cacciatore di antimateria Ams installato all'esterno della
Stazione Spaziale Internazionale (fonte: Collaborazione AMS
Finora non era mai stata osservata una tale abbondanza di antimateria nel cosmo: a scoprirla è lo strumento Ams (Alpha Magnetic Spectrometer)
in funzione all'esterno della Stazione Spaziale Internazionale dal 19 maggio 2011 e frutto di una collaborazione internazionale alla quale l'Italia collabora con Istituto Nazionale di Fisica Nucleare (Infn) e Agenzia Spaziale Italiana (Asi). (1)
   
     La materia oscura e antimateria, rappresentano i due punti interrogativi maggiori della fisica, che non riesce per il momento a uscirne con onore. La prima sarebbe materia che non emette e non riflette alcun tipo di radiazione, quindi non sappiamo come rivelarla, dato che non la possiamo proprio "vedere", anche se ci deve essere per gli effetti che sembra provocare nell'Universo. L'antimateria, condimento naturale di molti racconti di fantascienza anni '70, è ancora più sfuggente: al Big Bang, 14 miliardi di anni fa, particelle di materia e antimateria, erano equivalenti in numero, ora invece la materia sembra aver stravinto sul suo opposto : come mai e quando ? (2)
    L’Italia è in primo piano (attraverso l'Agenzia spaziale italiana) sia per la realizzazione del rilevatore con innovazioni frutto dell’Istituto nazionale di fisica nucleare sia per la guida dell’esperimento che ha come portavoce il Nobel Samuel Ting, ma come coordinatore il fisico Roberto Battiston. Ams ha registrato 25 miliardi di eventi, inclusi 400 mila positroni con energia tra 0,5 e 350 GeV (miliardi di elettronvolt). È la più ampia collezione di antimateria mai raccolta che include, in particolare, positroni, cioè elettroni con una carica elettrica positiva invece che negativa come accade nella materia normale. (3)
    L'abbondanza di antiparticelle, positroni ossia elettroni ma di carica positiva, si può spiegare in due modi, il primo con la presenza di materia oscura, composta di particelle elementari la cui massa sia molto maggiore di quel sia si pensava, almeno 4-6 volte la massa del bosone di Higgs appena stanato a Ginevra dopo un'epica lotta durata 50 anni di ricerche. La seconda spiegazione potrebbe essere data dalla presenza di un corpo celeste nella Galassia che emette pesantemente sia elettroni sia le corrispondenti antiparticelle, positroni. Si pensa in questo caso a una pulsar, cioè una stella di neutroni rotante e pulsante, un corpo incredibilmente denso con la massa simile a quella della Terra confinata in una sfera di 10 chilometri. (2)

(1) ansa
(3) corriere della sera