Visualizzazioni Totali

IL MIGLIOR BLOG TECNOLOGICO DEL WEB: PER ESSERE SEMPRE AGGIORNATI SULLE NOVITA' DEL BLOG DA OGGI CI TROVATE ANCHE SU FACEBOOK! (LINK A SINISTRA)

mercoledì 28 settembre 2016

Come Rilevare ed Eliminare HummingBad (Android)

Il malware HummingBad per Android circa 1 mese e mezzo fa vantava già 85 milioni di dispositivi infettati.
Dietro ci sarebbero criminali cinesi che intascherebbero, grazie ai banner pubblicitari, circa 300mila dollari al mese.
Il malware ha colpito utenti cinesi, filippini e in generale asiatici, oltre che USA ed alcuni paesi del Sud America.
Esso non si limita a generare una quantità spropositata di banner pubblicitari estremamente invadenti, che sono la fonte primaria di reddito del suo team di sviluppo, ma include nel suo codice tutti i set di istruzioni necessari a tentare di guadagnare i privilegi di root sui dispositivi più vari e provenienti da diversi produttori.
Il malware prova a farsi scaricare tramite messaggi popup allarmistici sul browser di turno, dichiarando che il telefono è infetto e va ripulito cliccando sul banner proposto.
Anche se il download dovesse andare a buon fine, per l’infezione vera e propria l’utente deve prima avere dato il suo esplicito consenso all’installazione da fonti potenzialmente insicure.
L’opzione è ben nascosta tra i menù di Android e può essere selezionata solo manualmente.
Tenere questa opzione disattivata, installare app originali dal Play Store di Google, e non fidarsi di presunti antivirus sono le cose migliori da fare per rimanere alla larga da HummingBad.
Se si è stati infettati, la cosa migliore da fare è scaricare qualche applicazione antivirus mobile come Avast, AVG o Zone Alarm.
Se questi programmi antivirus scovano HummingBad sul vostro smartphone, c’è un solo modo per essere sicuri di eliminare il Virus: resettare il telefono e riportarlo alle “condizioni di fabbrica”.
Dopo aver fatto un backup dei vostri files importanti, ovviamente.


lunedì 26 settembre 2016

Come Sapere Se Il Computer è a 32 o 64 bit? (Win XP, Vista, 7, 8 e 10)

Windows è disponibile in due versioni “32 bit” o “64 bit”.
Sapere se il proprio sistema operativo è a 32 o 64 è molto importante perchè i software da installare sono appunto personalizzati (a 32 o 64).
Ma qual è la differenza?
32 bit e 64 bit fanno riferimento al modo in cui il processore del computer (CPU), gestisce le informazioni.
La versione a 64 bit di Windows gestisce grandi quantità di RAM in modo più efficace di un sistema a 32 bit.
La maggior parte del guadagno di prestazioni nei computer che eseguono una versione a 64 bit di Windows deriva da questa memoria aggiunta, combinata con un potente processore a 64 bit in grado di utilizzare tale memoria extra.
Tuttavia per la maggior parte delle persone, che mantengono solo un paio di programmi in esecuzione allo stesso tempo, 4 o 8 GB di memoria non offrono alcun beneficio tangibile su un computer con 2 GB di memoria e una versione a 32 bit di Windows.


PROMPT DEI COMANDI (DOS)
Potrete verificare facilmente la versione del vostro sistema operativo tramite dos.
Quindi Start, Esegui, scrivere cmd.
Aperto il dos, scrivere systeminfo.
System Tipe c'indicherà la versione (x32 o x64).


WINDOWS XP
Su questi sistemi operativi il 32 bit è di default, insomma non verrà indicato se a 32 bit, altrimenti leggerete x64.
Per scoprirlo cliccare su Start accedere al Pannello di controllo e infine andare su Sistema.
Nella finestra si può leggere chiaramente x64version.


WINDOWS VISTA/ WINDOWS 7
Basta cliccare su Start, poi Pannello di controllo, Sistema e sicurezza e infine Sistema.
Nella finestra si può leggere chiaramente il tipo di sistema, se 32 bit o 64 bit.


WINDOWS 8
Clic destro nell'angolo inferiore sinistro dello schermo, poi fare clic su Sistema dal menu.
Nella finestra Sistema si può leggere il tipo di sistema, se 32 bit oppure 64 bit.


WINDOWS 10
Andare su Start, Impostazioni, Sistema e poi su Information.
Nel pannello di destra, verifica il Tipo Sistema.

domenica 25 settembre 2016

Tutti I Tipi Di Lethal Autonomous Weapons Systems: Robot, Droni, Missili Autonomi

La DARPA americana (Defense Advanced Research Projects Agency) ha diversi progetti di sviluppo di Lethal Autonomous Weapons Systems (LAWS), ovvero di sistemi d’arma letali e autonomi.
Il primo è il Fast Lightweight Autonomy (FLA), per lo sviluppo di minuscoli Droni (dimensioni di un insetto) in grado di viaggiare a gran velocità negli ambienti urbani per dare la caccia, riconoscere e colpire obiettivi (anche uomini).
Il secondo programma è il Collaborative Operations In Denied Environment (CODE), per lo sviluppo di interi sistemi di aerei capaci di operare in territorio nemico per cercare, riconoscere e colpire con ogni tipo di arma (anche in assenza di totale comunicazione con i comandi militari umani).
In pratica, un’aviazione complementare composta da un intero battaglione di Robot autonomi.
I paesi che come gli Stati Uniti, la Gran Bretagna o Israele stanno sviluppando simili sistemi d’arma, sostengono che saranno in grado di imporre comportamenti legali anche ai Robot guerrieri.
I Robot sui quali il Pentagono spende miliardi di dollari saranno chiamati a sostituire col tempo i soldati sul campo.
Il fattore umano si è infatti rivelato sempre più complesso e costoso da gestire: costi umani, psichiatrici e finanziari insostenibili.
Il tutto sarebbe ridotto se sul campo venissero spedite macchine che fanno più o meno tutte da sole.
Si avete capito bene.
I Robot avrebbero infatti la licenza di uccidere, anche persone, senza l’intervento di nessuno. Naturalmente devono essere programmati, ma se il programma fosse particolarmente “spietato”, questi marchingegni potrebbero togliere la vita ad un numero imprecisato di esseri umani.
Alcuni li considerano gli eredi dei Droni militari, ma a differenza di loro i Robot killer non sono comandati a distanza.
Eppure non tutti concordano sulla loro pericolosità: “Mi auguro che i killer Robot possano ridurre significativamente le vittime di incidenti durante le operazioni militari, curare in maniera tempestiva i feriti e realizzare interventi pericolosi che i soldati non potrebbero portare avanti” ha dichiarato a questo proposito alla BBC Ronald Arkin, professore presso il Georgia Institute Of Technology.
Molti paesi tipo Germania, si oppongono a questi sistemi, in quanto i Robot non potrebbero mai avere la capacità umana di percepire in modo preciso e senza ambiguità ciò che accade nel luogo dove operano, di riconoscere e manipolare oggetti, di riconoscere e in parte comprendere ogni linguaggio scritto e parlato, di muoversi in qualsiasi ambiente.
In poche parole possono essere complementari all’uomo, ma non possono sostituirli del tutto.
Proprio questo il nodo cruciale delle battaglie anti robot killer, portate avanti da diverse organizzazioni tra le quali l’Ong ‘Human Rights Watch’ e i rappresentanti della campagna ‘Stop the Killer Robots’, una coalizione internazionale costituita nell’aprile 2013 a sua volta a partire da altre associazioni che avevano come obiettivo la messa al bando delle armi completamente autonome.
Del resto, come si sa, i Robot potrebbero essere anche pericolosi.
Ovviamente parliamo di Robot in senso stretto ma sostanzialmente il concetto è quello: infatti qualche mese fa un team di ricercatori di Google ha affermato di aver realizzato un sorta di telecomando (Tasto Rosso) in grado di disattivare/spegnere un'intelligenza artificiale nel caso diventasse pericolosa.


UNMANNED SYSTEM: UAS, UGV, UUV
Si parla in gergo di “Unmanned System”, per indicare sistemi d’arma che non richiedono la presenza in essi di esseri umani.
Tali sistemi sono guidati (teleguidati, radioguidati) a distanza da esseri umani, oppure nei progetti più evoluti sono dotati di una più o meno ampia autonomia decisionale e d’azione.
Invece per “Manned System” s'intende “sistema con operatore umano”.
"Unmanned Vehicle" ovvero veicoli balistici, missili, proiettili d’artiglieria, torpedini, mine, satelliti, sensori statici.
Cioè veicoli con una forma propria di propulsione, senza operatore umano, che possono agire
autonomamente o essere comandati a distanza, equipaggiati con carico letale o non letale.
Possono infatti portare anche sistemi di sorveglianza (videocamere, radar, sonar, microfoni, etc.) o armi letali (cannoni, mitragliatrici, missili, razzi etc.).
I SAR si dividono in tre grandi famiglie, a seconda dell’ambiente in cui operano: l’aria, la terra, l’acqua.
Abbiamo dunque SAR attrezzati per la guerra aerea (UAS – Unmanned Aircraft System), per la guerra terrestre (UGV – Unmanned Ground Vehicle) e per la guerra navale.
Questi ultimi si dividono a loro volta in due categorie: di superficie (USV – Unmanned Surface Vehicle) e sottomarini (UUV – Unmanned Undersea Vehicle).
I Robot volanti sono detti Droni.
Si possono citare: i Droni aerei Predator e Reaper (Stati Uniti), e quelli terrestri Guardium (Israele).
I prototipi di aerei da combattimento senza pilota X-47B (Stati Uniti) e Taranis (Regno Unito), capaci di cercare, identificare e (se autorizzati) distruggere i nemici.
Le sentinelle robotizzate Sgr-A1 (Corea del Sud) e Sentry Tech (Israele), con sensori per individuare gli obiettivi, e mitragliatrici pronte a far fuoco.
Cina e Russia hanno testato gli aerei senza pilota Dark Sword e Skat.
E i missili britannici Brimstone già distinguono tra tank e macchine e possono inseguire un bersaglio senza aver bisogno di supervisione umana.


SENTRY ROBOT (SGR-A1)
Dal 2010, la Corea del Nord ha schierato lungo la linea di confine dei Sentry Robot (SGR-A1), dal costo di 330.000 dollari cadauno, in grado di garantire il blocco degli accessi lungo tutta le linea di confine.
Si parla qui di Robot semi-automatici.
Infatti erano controllati a distanza da un operatore che possiede una serie di rilevatori (tra cui quello di calore) per identificare la presenza di possibili "intrusi" che tentino di avvicinarsi al confine nazionale.
L'operatore può guidarlo e gestirlo a distanza, ma nel caso in cui il Robot dovesse perdere il canale di comunicazione con il proprio "driver", scatterebbe un meccanismo di autogestione e il sistema agirebbe autonomamente, attuando delle azioni automatiche di reazione.


AUTOMATED KILL ZONES, GUARDIUM, SENTRY TECH, REXROBOT E PROTECTOR SV
Anche Israele, da qualche anno, ha creato lungo il confine con la striscia di Gaza, delle "Automated Kill Zones" in cui ha installato dei sistemi robotizzati di fuoco, indipendenti e in grado di fare fuoco nel momento un cui si dovesse rilevare la presenza di "elementi non identificati".
Queste macchine da combattimento automatiche, sono munite di ogni sorta di armamento: mitragliatori, cannoni di medio calibro, lanciagranate, missili anticarro e terra-aria, e persino un collegamento con un Drone per il controllo del campo di battaglia.
Inoltre, i sistemi possono contare su una protezione corazzata retrattile, in grado di proteggere l'intero congegno quando non è in funzione.
Qualche anno fa sempre nel medesimo territorio è stato creato Guardium, un veicolo blindato progettato da GNius, per pattugliare le frontiere con il Libano e Gaza: è un fuoristrada di piccole dimensioni, dotato di sistema di comando, controllo e navigazione completamente automatizzato. Sono utilizzati anche Bulldozer, questi invece controllati in remoto.
Sentry Tech invece sono Robot sentinella.
Rexrobot, veicolo a 6 ruote per il trasporto di 200 kg di materiale al seguito della fanteria è invece capace di ricevere ec eseguire comandi vocali.
Il motoscafo Protector SV, detto Death Shark, è equipaggiato con 4 telecamere ad altissima definizione (cattura dettagli a 10 miglia) che possono arrivare al 3D, sistema sonar e sensori elettroottici, mitragliatrice controllata in remoto via laser capace di fissare l’obiettivo anche in mare mosso.
Sono molti inoltre i modelli di Robot progettati per esplorare le aree minate e individuare gli ordigni. Poiché anche le mine evolvono, essendo per esempio costruite con materiali sintetici che sfuggono ai metal detector, l’apparato sensoriale dei Robot deve evolvere in misura analoga per individuale questi ordigni letali.


DRONI KILLER: X-47B
Concepiti come velivoli senza pilota, destinati a missioni di sorveglianza e ricognizione, attualmente vengono soprattutto utilizzati come aerei multiruolo ottimizzati soprattutto per operazioni di attacco aereo, grazie anche alle accresciute capacità di carico, che consente loro di trasportare un armamentario molto variegato.
I Droni "killer" sono conosciuti anche come LAR (Lethal Autonomous Robot), si tratta di sistemi d'arma robotizzati che possono colpire target ed obbiettivi autonomamente (escludendo l'operatore umano da ogni azione/responsabilità).
Ad esempio il Drone di nuova generazione X-47B, è programmato per un volo in piena autonomia, capace di selezionare i target senza supervisione umana.
I documenti ricostruiscono la procedura che permette di autorizzare l’uccisione di un sospetto.
Le operazioni sono lanciate in funzione di una kill list (lista di persone da uccidere) in cui ogni nome entra solo dopo un’esplicita autorizzazione del presidente degli USA (se si parla appunto di Droni americani).
Prima di tutto su ogni possibile obiettivo vengono raccolte numerose informazioni, sintetizzate poi in una scheda di circa 6,5 centimetri per 9.
Questa scheda deve salire “ai livelli gerarchici superiori” per essere convalidata.
Un documento indica che ci vogliono in media 58 giorni al presidente per firmare un ordine di esecuzione.
L’esercito poi ha 60 giorni per portare a termine la sua operazione.
Le autorità statunitensi falsano gran parte delle cifre disponibili mettendo nella categoria di "nemici" le vittime non identificate
In attesa della loro esecuzione, gli obiettivi sono inseriti in una watch list che riassume la situazione della loro sorveglianza.
Ogni obiettivo è identificato da un codice unico associato a diversi dati, ed è geolocalizzato grazie alla sim del suo cellulare.
L’inchiesta permette anche di accertare gli eccessi di queste operazioni mirate, in particolare sul numero e sulle identità delle vittime.
La mancanza di informazioni e di dati riguardanti molti paesi, come lo Yemen e la Somalia, non permette di avere un bilancio affidabile delle vittime degli attacchi dei Droni.
Per approfondire: Droni e Robot.


DRONI STEALTH DA COMBATTIMENTO: TARANIS
Si tratta di un velivolo invisibile senza pilota per missioni C4ISTAR per la sorveglianza, la raccolta di informazioni e la guerra elettronica in territorio nemico.
Venne presentato al pubblico nel 2010.
Il primo volo di Taranis si è svolto tra l’ottobre 2013 ed il marzo del 2014 in prove top secret.
Le ali di Taranis presentano un elevato angolo di freccia positiva con un'apertura che misura 33 metri di larghezza.
Molto importanti sono i sistemi di comunicazione criptati, l'integrazione tra il motore e la capacità furtiva del velivolo per eludere i rilevamenti Radar.
Taranis, nome del dio celtico del tuono, rientra nel progetto noto come Future Combat Air System (FCAS).
FCAS ha l'obiettivo di sviluppare un nuovo Drone da combattimento Stealth, con paesi membri che contribuiscono in parti uguali alla metà del bilancio del programma.
Il Drone ha dimostrato la sua capacità di rullare autonomamente verso la pista per il decollo, decollare e volare sino alla zona di destinazione, individuare un bersaglio.
Taranis è stato in grado di generare un piano di volo fino al bersaglio, individuarlo e ritornare alla base.
Il velivolo inoltre ha compiuto una valutazione simulata dei danni arrecati al target prima di eseguire un atterraggio.
Il tutto senza l’intervento umano.
La tecnologia Stealth fa da schermatura Anti-Radar, esse si basa sul principio di eliminare i riflessi Radar assorbendo le onde radio (RAM Coating) o deviandole (Modellazione della superficie).
La tecnologia di assorbimento delle onde radio avviene principalmente attraverso il RAM (Radio Absorbent Material): il meccanismo è più o meno segreto visto che ancora oggi a distanza di decadi sappiamo poco o nulla del sistema RAM del SR 71 (uno dei primi aerei Stealth costruiti dalla Lockheed) e ciò fa capire quanto questa tecnologia sia importante per gli anni a venire.
L’assorbimento avviene attraverso la conversione dell’energia delle onde radio in calore che viene dissipato sulla superficie dell’aereo.
Per aumentare l’assorbimento delle onde radio, la vernice utilizzata su questi velivoli Stealth ha una forma di tipo piramidale (permette alle onde elettromagnetiche di rimbalzare all’interno della struttura piramidale cosi da perdere energia sotto forma di calore e diminuire l’intensità di segnale).
Modellando la forma del velivolo (veicolo/nave) attraverso piani netti angolati permette di deviare le onde radio in direzioni diverse, diminuendo cosi il riflesso delle onde all’apparecchio di provenienza.
Anche nel campo navale la tecnologia Stealth è in fase di sviluppo.
Il problema principale in questo campo è la grandezza delle navi: un Radar riuscirà comunque ad individuare una nave nel proprio range di azione, ma in caso di uso di tecnologia Stealth la nave potrebbe essere scambiata per un piccolo mercantile o un’imbarcazione di media dimensioni piuttosto che ad un incrociatore di grandi dimensioni.
Ad ogni modo Radar con tecnologia Banda-L potrebbero rilevare velivoli Stealth ed un velivolo crea una firma infrarossi IR dovuta al calore emesso (quindi usare vernici Stealth non elimina la firma IR dal cielo).
Infine i vani di carico di bombe o missili non sono Stealth (una volta aperto il vano il velivolo è completamente visibile).


MISSILI TERRA-ARIA PATRIOT
Sono decenni che esistono armamenti missilistici in grado di prendere decisioni autonome, pur se con dei limiti specifici, tra di essi ad esempio il sistema missilistico terra-aria Patriot, capace di colpire bersagli aerei in modo indipendente.
Anche se nel corso dell'invasione dell'Iraq guidata dagli Stati Uniti nel 2003 il sistema distrusse due aerei alleati (un FA/18 Hornet americano e un Tornado Fighter britannico, uccidendo tre militari dell'aeronautica).


MISSILI BRIMSTONE
La Royal Air Force inglese da qualche anno ha lanciato i missili Brimstone in grado di distinguere i vari target (tra cui carriarmati).
Si tratta di missili di precisione da attacco terra-aria, già protagonisti delle operazioni aeree britanniche in Libia e Iraq.
L’arma aggiornata con nuovo propulsore, testata e un seeker Dual Mode Semi-Active Laser/ Millimetric Wave che equipaggia i Tornado GR4 e verrà integrato sui Typhoon nell’ambito programma di aggiornamento P3E e del Progetto Centurion della RAF che punta a favorire la completa transizione al Typhoon delle capacità d’attacco oggi attribuite ai Tornado che verranno tutti radiati entro il 2019.
I test hanno valutato con successo le comunicazioni tra aereo e missile in vista dei lanci previsti per i primi mesi del 2017.
Recentemente sono stati completati da MBDA e Boeing anche una serie di test per l’integrazione del Brimstone sugli elicotteri da attacco del British Army Air Corps AH-64E Apache britannici.
Le prove  sono durate nove mesi e si sono concluse con il lancio di alcuni missili da un AH-64E statunitense noleggiato da Londra sui poligoni di Mesa e Yuma, in Arizona, simulando attacchi a diversi obiettivi inclusi carri armati in movimento.


SISTEMI ANTI-SATELLITI
Un satellite spia o satellite di ricognizione è un satellite artificiale per l'osservazione della terra, lanciato per applicazioni di spionaggio.
Negli Stati Uniti, la maggior parte delle informazioni disponibili su questi satelliti e le loro missioni riguarda programmi che esistevano sino al 1972.
Alcune informazioni sui programmi prima di quel tempo sono ancora coperte da segreto militare.
Le principali funzioni sono: fotografie ad alta risoluzione, intercettazione di comunicazioni, rilevazione di lanci di missili.
Avere dunque la capacità di distruggere o corrompere le comunicazioni via satellite dell’avversario è considerata una capacità militare importante da quando la corsa allo spazio è iniziata.
Dopo un accantonamento, negli ultimi anni, l’interesse per le armi spaziali rivive.
Attacchi informatici ai satelliti sono già una realtà, nota.
Già nel 2007 i cinesi dimostrarono di avere la capacità di abbattere satelliti con missili e nel 2008 negli Stati Uniti dimostrarono la stessa capacità.
Ad esempio il satellite cinese Shijian 15 mostrava una propulsione insolita e alla fine intercettava un altro satellite cinese, Shijian 7.
“L’esperimento era legato al possibile uso di un braccio di acquisizione remota e per operazioni ravvicinate“, ha detto Max White, del gruppo astronomico Kettering che s’illustrò negli anni ’60 individuando la posizione dei satelliti spia sovietici.
“Possono avere caratteristiche civili e militari, come rifornimenti spaziali e disattivare il carico di una nazione estera, possibilmente senza causare detriti. Se i russi sentano il bisogno di dimostrare tale capacità, è una questione da dibattere”.


HYPERSONIC GLIDE DELIVERY VEHICLES
Nel 2014, si è cominciato a parlare di nuovi tipi di armi come gli “Hypersonic Glide Delivery Vehicles”, ovvero sistemi composti da missili ad alta precisione per attacco fulmineo (leggi “a sorpresa”).
Negli Stati Uniti questi studi includono vari progetti, alcuni dei quali accantonati già durante la Guerra Fredda, come il ‘Boeing X-20 Dyna-Soar’ o il ‘Progetto Isinglass’ della CIA.
Invece per ‘Conventional Prompt Global Strike’ (CPGS) in particolare, si intende, di colpire obiettivi ovunque nel mondo in meno di un’ora.
Questa tecnologia consentirebbe di lanciare un attacco fulmineo globale con missili balistici intercontinentali armati però con testate convenzionali e non nucleari.
Con il termine “Hypersonic” si intende invece la capacità di un vettore di superare la velocità convenzionale di Mach 5.
La NASA avrebbe raggiunto e superato la velocità di Mach 7, toccando, con alcuni velivoli sperimentali senza pilota, come il prototipo ‘Boeing X-43’, il record di Mach 10. Questi velivoli utilizzano motori a getto con combustibile gassoso del tipo Scramjet (Supersonic Combustion Ramjet) i quali non utilizzano parti rotanti per comprimere l’aria, bensì l’energia cinetica prodotta dal flusso d’aria in ingresso e la particolare geometria della presa d’aria.
Il motore non avendo parti mobili, necessita a sua volta di un ulteriore vettore capace di produrre la spinta iniziale sufficiente per generare una velocità molto elevata (Boost Glide), ovvero portare lo Scramjet a regime supersonico.
Nel maggio 2013, per testare il velivolo sperimentale ‘Boeing X-51’ “WaveRider” gli Stati Uniti hanno dovuto portarlo ad oltre 16.000 metri di quota con un bombardiere ‘B-52’ “Stratofortress”. Una volta rilasciato, l’X-51 è stato accelerato da un razzo orbitale a propellente solido Pegasus.
Solo a quel punto, ovvero raggiunte le condizioni telemetriche e cinetiche necessarie, lo Scramjet ha potuto azionarsi, raggiungendo, secondo quanto ufficialmente riportato da organi d’informazione specializzati, la velocità di Mach 5.
Il principale vantaggio di simili veicoli è rappresentato dal fatto che una tale velocità li rende virtualmente immuni dall’essere intercettati e abbattuti dai sistemi di difesa nemici.
Senza dimenticare il continuo sviluppo dei più recenti vettori balistici ‘Topol’-M’ e ‘R-30 Bulava’, oltre che dei nuovi caccia per superiorità aerea, cosiddetti di 5a generazione, come il ‘Sukhoi PAK FA T-50’ (ormai entrato in fase di produzione avanzata), o il quasi assoluto predominio della scienza militare russa nello sviluppo dei siluri a supercavitazione come il ‘VA-111 Shkval’.


KALASHNIKOV CON IA
Il Kalashnikov dotato di intelligenza artificiale non è più tanto una fantasia o roba da film: ovvero un’arma micidiale che, anche se non avete mai sparato un colpo in vita vostra, vi permetterà di centrare i vostri bersagli senza nemmeno prendere la mira.

“L’intelligenza artificiale (IA) ha raggiunto un punto in cui lo sviluppo di armi autonome è un’eventualità che praticamente anche se non legalmente potrebbe concretizzarsi nel giro di anni: le armi autonome sono già state descritte come la terza rivoluzione in ambito bellico, dopo la polvere da sparo e le armi nucleari.
Se una qualsiasi delle più grandi potenze militari decide di sviluppare armi intelligenti, una corsa alle armi globale sarà virtualmente inevitabile, e il punto di arrivo di questa traiettoria tecnologica è ovvio: le armi automatiche saranno i Kalashnikov del domani”

Il riferimento ai Kalashnikov non è casuale, l’AK-47 è noto per essere stato il fucile d’assalto più utilizzato nel mondo, per via del costo relativamente basso dei suoi materiali e della sua affidabilità. Il punto di arrivo di cui parla la lettera di Future Of Life è una situazione in cui le armi autonome saranno non solo disponibili, ma anche facilmente riproducibili in casa (attraverso, per dire, la stampa 3D), creando una situazione ancora meno controllabile di quella attuale.

venerdì 23 settembre 2016

Peter Scully e I Video Della No Limits Fun (NLF)

Come tutti saprete nel 2011, Peter Scully creatore di Daisy's Destruction fuggì dall'Australia alle Filippine, dopo essere stato accusato di più reati di frode.
Dall' isola meridionale delle Filippine venne accusato di aver creato una rete internazionale di pedofili e assassini identificati sotto il celeberrimo nome di "No Limits Fun (NLF)".
Di cosa si tratta? In poche parole di un'organizzazione che in cambio di denaro (dai 100 dollari ai 10.000) vendeva Snuff Movies e video di torture varie (per approfondire Snuff Movies Sul Deep Web: Europol Conferma).
Alcune ragazze riuscirono a fuggire da questo inferno, dicendo alla polizia che venivano filmate nude ed abusate, mentre Peter riprendeva il tutto.
Il 20 febbraio 2015, Scully viene arrestato nella città di Malaybalay, dopo che gli investigatori appostati nei pressi dell'abitazione da 3 settimane scoprirono i resti di una ragazza adolescente (Rosie) sepolta sotto terra in un appartamento affittato in precedenza.
Oltre ai resti, la scena che le forze dell'ordine trovarono davanti fu agghiacciante: altre due ragazze erano state legate con delle catene.
Anche la partner di Scully, prima di mettersi in combutta con la compagnia NLF, era stata vittima di abusi da piccola.
Tra le protagoniste del video nei panni della carnefice troviamo appunto Angel Avarez (ai tempi 17enne).
Attualmente Scully è imprigionato nelle Filippine e condannato all'ergastolo, anche se per lui a gran voce è stato richiesta la condanna a morte (tuttavia la pena di morte nel paese è stata abolita nel 2005).


COME VENIVANO SCELTE LE VITTIME PER I VIDEO
Scully e altri complici attiravano le loro vittime scegliendole tra le classi più disagiate e povere.
La compagnia prometteva di mandarli a scuola e di dar loro da mangiare.
La NLF aveva clienti soprattutto in Europa, USA, Australia.
Tra i suoi complici anche altre donne, direttamente responsabili dell'omicidio/orture di diverse ragazze/i minorenni nei video e un uomo (poi presumibilmente fuggito in Europa).
In poche parole la NLF vendeva sul Deep Web i video girati da Peter Scully e company.
Scully con la sua partner Angel Alvarez ha abusato e violentato almeno 13 ragazze sotto i 15 anni di età.
Lo stesso ha confessato che i suoi video rispettavano ciò che i clienti chiedevano, perché incarnavano le fantasie sessuali di chi comprava quei video.
Forse il tutto iniziò sul noto e famigerato sito chiamato Lolita City (accessibile solo tramite TOR).
Altri video girati dalla compagni: Dafu Love Green Ball (quest'ultimo molto presunto, probabilmente non esiste. La cosa certa è che la compagnia ha venduto decine e decine di video raccapriccianti).

I Siti Più Misteriosi e Paurosi Del Deep Web (2016)

Inauguriamo oggi questo nuovo articolo dove, di tanto in tanto, verranno riportati siti misteriosi sul Deep Web (TOR).
Siti con un significato particolare, altri forse privi di senso, altri ancora enigmatici.
Ovviamente le due liste presenti qui: Nuovi Links Italiani Deep Web(2015/16) Migliori Siti Del Deep Web (2015/16) continueranno ad essere aggiornate di tanto in tanto!
Qui però solo siti misteriosi/enigmatici, questa lista serve ad evitare d'ingolfare le altre due con troppi link e a rendere il tutto più ordinato.



LISTA AGGIORNATA AL 23 SETTEMBRE 2016


AGGIORNAMENTO 23 SETTEMBRE 2016
ParanormalStorys: http://paranormalstorys.jimdo.com/

Fatty World: http://billie4dtzvlmcfb.onion/

You Are Mad: http://buttmaddci4fbgug.onion/

Anna Is Sad: http://anna4nvrvn6fgo6d.onion/

Hell: http://legionhiden4dqh4.onion/

Dweed Web: http://dweebyhexfberrix.onion/

Esoteric Order Of Latanu: http://od4sncvslhskwyyt.onion/

Pyramid: http://gccveylao63atwzy.onion/

EndChan: http://endchan5doxvprs5.onion/

3: http://ejqusnadq7sqyjrm.onion/

Site Not Found: http://derpy5xmjkxuybnz.onion/

Michael's Top Secret Page: http://5qahzzgawtqnrhux.onion/

No Tone: http://kiy52zq46nqu426l.onion/

Deepest Server: http://uaiopulvhh4zpsag.onion/

The Secret Story Archive: http://tssa3saypkimmkcy.onion/

Hidden Polls: http://4wqn65ss6hoeqynv.onion/results?poll_id=1

giovedì 22 settembre 2016

Cos'è Il Machine Learning: Enterprise Immune System ed Altre Tecniche

Il Machine Learning, detto anche in italiano Apprendimento Automatico, sfrutta intelligenze artificialireti neurali artificiali ed algoritmi (algoritmi genetici e non) al fine di analizzare e valutare le relazioni tra le variabili immesse.
In poche parole il sistema "impara" a riconoscere automaticamente modelli complessi e a prendere decisioni intelligenti basate su dati.
Al giorno d'oggi non esistono sistemi di apprendimento automatico simili all'uomo ma sono stati fatti passi da gigante.
Per problemi quali il riconoscimento vocale, algoritmi basati sull'apprendimento automatico danno i migliori risultati.
Nel campo conosciuto come data mining, questi algoritmi sono utilizzati di routine per scoprire preziose conoscenze da grandi basi di dati commerciali contenenti un grande numero di informazioni.
L'apprendimento automatico si basa sui risultati di intelligenza artificiale, probabilità e statistica, teoria della complessità computazionale, teoria di controllo, teoria dell'informazione, etc


CYBER SECURITY COMMAND CENTER
A Milano è stato aperto il Cyber Security Command Center, centro di monitoraggio real time, e gestione degli apparati di sicurezza oltre a servizi di security assessment.
L'individuazione preventiva e la gestione real time dei problemi di sicurezza sono fattori di primaria importanza per garantire alle aziende clienti un alto livello di protezione delle proprie reti, dei propri dati e dei propri servizi che a loro volta erogano sia all'interno sia all'esterno della propria organizzazione.
Particolarità del Cyber Security Command Center è il Malware Lab, un laboratorio di ricerca frutto di un accordo in esclusiva con il Politecnico di Milano per sviluppare nuovi modelli di analisi e profilazione, utili a contrastare gli oltre 50mila Malware registrati ogni giorno.
Il Malware Lab è nato dalla volontà, da un lato, di studiare costantemente le minacce emergenti e creare nuove metodologie di analisi e, dall'altro, di fornire alle aziende soluzioni reali di difesa a scenari di attacco in continua evoluzione.
Il Malware Lab si occupa di sviluppare nuove tecnologie in grado di individuare dettagli rilevanti in tempo reale per battere sul tempo l'attività del software malevolo.
Per l'analisi delle minacce e la loro prevenzione, vengono sfruttate le potenzialità del Cloud e del Machine Learning.


L'ENTERPRISE IMMUNE SYSTEM DI DARKTRACE
L’integrazione degli algoritmi di Machine Learning nell’appliance (cioè dispositivi Hardware dotati di un sistema operativo dove girano ovviamente software) rende quest’ultima indipendente da una eventuale connessione a un servizio cloud.
Questi algoritmi vengono studiati, perfezionati ed integrati da Darktrace.
Darktrace è stata creata a Cambridge nel 2013 e comprende persone provenienti dall’intelligence britannica.
Le competenze matematico-statistiche dello staff di partenza di Darktrace sono importanti perché il suo approccio alla sicurezza è basato sull’applicazione delle tecniche di Machine Learning al monitoraggio della rete, in modo da scoprire elementi anomali anche in assenza delle tipiche forme di identificazione, come le firme dei malware o le segnalazioni delle reti di Threat Intelligence.
Darktrace conta al suo attivo un migliaio di installazioni in tutti i settori.
Tra quelle in Italia si segnala il progetto di HBG Gaming, società attiva nel settore del gaming online. Inizialmente la società ha voluto testare le soluzioni Darktrace per un mese e, racconta, nel giro di un paio di settimane queste hanno identificato comportamenti anomali nella rete, incluso un Ransomware.
La società occupandosi proprio di difesa dalle infezioni ha deciso di chiamare la sua piattaforma Enterprise Immune System: l’obiettivo è proprio quello di “immunizzare” il sistema informativo contro l’azione degli elementi ostili.
Non solo Malware, Virus e Spyware però, dato che il panorama della IT security oggi è molto più complesso.
L’Enterprise Immune System è installata all’interno della rete da monitorare.
È qui che sono integrati gli algoritmi di analisi e apprendimento sviluppati da Darktrace.
Dopo l’installazione l’appliance inizia a “osservare” il comportamento della rete e le comunicazioni dei suoi nodi, in modo da definirne il modello di riferimento (la baseline).
Saranno gli scostamenti da tale modello ideale/originario, valutati da specifici algoritmi statistico-probabilistici, a indicare se è in corso un attacco alla rete o qualche suo nodo è stato infettato.
Il modello ovviamente si evolve nel tempo.
Il monitoraggio del traffico di rete si basa sull’analisi dei flussi di dati per le coppie mittente-destinatario.


AZURE AD IDENTITY PROTECTION DI MICROSOFT
Microsoft ha annunciato la disponibilità di Azure AD Identity Protection, una funzione che garantisce la correttezza degli accessi alle risorse IT di una rete aziendale e in ultima analisi la sua sicurezza.
Si tratta di un sistema basato su funzioni di Machine Learning che serve da un lato a bloccare attacchi alla rete e dell’altro a ottimizzare la configurazione della propria struttura di directory su Azure.
Lo scopo principale di AD Identity Protection è evitare la compromissione degli account, che di solito avviene a causa di attacchi di Phishing ben riusciti.
Una volta entrati nella rete rubando l’identità di un dipendente, spiega Microsoft, gli attaccanti hanno libertà di movimento.
E' qui che subentra il servizio visto che grazie all’utilizzo di algoritmi di analisi la grande mole di accessi viene poi incrociato con le informazioni sulle minacce in atto che provengono da altri servizi Microsoft, in particolare sugli attacchi di Phishing registrati per Outlook.com ed Exchange Online.
Tutti questi dati e questa “intelligenza” sono usati per dare a ogni login ad Azure Active Directory un indice di affidabilità che, a seconda del suo valore, può bloccare del tutto un accesso oppure subordinarlo a verifiche ulteriori come un’autenticazione a più fattori.
Ovviamente il controllo non è lasciato totalmente in mano al Machine Learning di Microsoft: Identity Protection è anche configurabile dagli amministratori di sistema.


AMAZON MACHINE LEARNING
Amazon invece utilizza il Machine Learning come sistema di apprendimento e generazione di modelli previsionali, esso permette più facilmente di fare uso di informazioni storiche per costruire e implementare nuovi modelli previsionali.
L’ Amazon Machine Learning genera modelli predittivi che possono essere utilizzati in diverso modo, dalle problematiche associate alle transazioni al miglioramento del supporto alla clientela.
Questi modelli possono essere utilizzati per diversi obiettivi, come, ad esempio, individuare le frodi e migliorare l’assistenza clienti.
Vengono prodotte circa 50 miliardi di previsioni a settimana.
Le API e le procedure di Amazon Machine Learning guidano gli sviluppatori attraverso il processo di creazione e sfruttano modelli di apprendimento automatico che possono essere facilmente implementati e scalati per supportare miliardi di previsioni.

mercoledì 21 settembre 2016

Cos'è La Cyber Threat Intelligence? Sicurezza Aziendale

La Cyber Intelligence fornisce una visione totale e in tempo reale delle anomalie emergenti contrariamente al precedente approccio ormai datato, basato su firme e regole che diventano obsolete dato che si riferiscono a minacce già individuate (e non in divenire).
L’approccio basato sull’Intelligence è il cuore della Cyber Defense di nuova generazione.
Oltre a difendere la propria azienda si devono affrontare anche le minacce interne utilizzando un approccio basato sull’Intelligence .
Per Intelligence ci si riferisce ad azioni d’indagine che forniscono informazioni per affrontare rischi e minacce specifiche prima che l’avversario prenda il sopravvento.
In generale tutti i progressi tecnologici che hanno consentito alle aziende di svilupparsi negli ultimi anni (la digitalizzazione e l’innovazione) sono anche quelli meno sicuri.
A volte, gli stessi lavoratori rappresentano una minaccia significativa per l’integrità dei dati aziendali e il loro comportamento, doloso o colposo, aumenta il rischio per l’azienda.
Controlli serrati e precauzioni sono utili ma non definitivi, in quanto trovare il modo di aggirarli è sempre possibile.
Inoltre un’azienda non può essere soffocata da controlli di sicurezza farraginosi e poco pratici pensando di rimanere più sicura a spese dell’efficienza.
Detto in parole povere, il mondo è sempre più basato sulle previsioni.
Per persone, aziende e istituzioni, la rapidità dei mutamenti sociali richiede competenze per anticipare gli eventi, perché chi conosce prima ha un vantaggio rispetto agli altri.
Nell’era delle tecnologie, dunque, c’è sempre maggiore bisogno dell’intelligenza umana, poiché gli algoritmi non sempre hanno ragione e anzi a volte possono risultare fuorvianti.
I Big Data ad esempio costituiscono senza dubbio uno strumento di grande utilità per gli scopi dell’Intelligence.


INTELLIGENCE O SICUREZZA INFORMATICA?
Le aziende non sono mai completamente al sicuro da minacce, inoltre ogni attacco subito compromette il nome dell'azienda, facendo diminuire la credibilità dei clienti e degli azionisti.
Queste problematiche richiedono tecniche orientate più sull’Intelligence che sulla sicurezza.
Mentre la sicurezza informatica presuppone che le misure di difesa debbano funzionare il 100% delle volte, la Cyber Intelligence fornisce suggerimenti, basati su prove, che indirizzano il processo decisionale.
Cioè vengono suggeriti accorgimenti in base alla situazione che possono far propendere da un lato o da un altro.
Come si sa, su internet si trovano avanzati strumenti di attacco pronti all’uso (software malevoli, botnet, backdoor, keylogger) e questo dimostra come sia banale infiltrarsi in un’azienda.
Una volta infiltratisi, gli attacchi hanno luogo in forma anonima rendendoli difficili da individuare perché in incognito e effettuati con cautela.
Un aggressore potrebbe usare le credenziali di accesso di un dipendente per passare inosservato.
Questo approccio rende estremamente difficile distinguere fra un’attività lecita e quella di un malintenzionato intento a fare danni.
Essere riconosciuti come utenti regolari permette di muoversi indisturbati nell'azienda.
Un attacco di tipo avanzato può restare nascosto nella rete per giorni, settimane o mesi di fila rimanendo pazientemente inattivo nella rete aziendale in modo da renderne l’individuazione più difficile.
Durante questo lasso di tempo l’aggressore si fa un’idea dell’architettura della rete e stabilisce come muoversi su di essa per portare a termine l’attacco mirato.
Per porsi al riparo da eventuali intercettazioni l’aggressore cercherà di compromettere più dispositivi e server presenti sulla rete.
Chi attacca è spesso capace di muoversi su una rete per capire quali siano gli strumenti usati per intercettarlo; questo gli permette di muoversi in modo sufficientemente invisibile per evitare di essere scoperto dai tipici sistemi che basano il loro funzionamento su un insieme di regole.
La sicurezza informatica totale non esiste.
Inoltre in un’epoca in cui le minacce sono innumerevoli e in continua evoluzione analizzare i problemi di ieri non garantisce la difesa da quelli di domani.
Gli aggressori di oggi utilizzano tecniche e strategie in continua evoluzione per rimanere nascosti a lungo nei vostri sistemi.


CYBER INTELLIGENCE PER LE ANOMALIE
Avendo la conoscenza delle attività aziendali è possibile usare nuove tecnologie per analizzarle ed avere una chiara visione di quale sia la normalità.
Il Machine Learning ha reso possibile questo approccio, usando una tecnologia che evidenzia anomalie su base probabilistica in tempo reale (cioè monitora la vostra rete e segnala eventuali anomalie quindi il discostamento dalla situazione "ideale" o normale).
Le anomalie o le deviazioni da ciò che è stato identificato come normale sui sistemi, le reti e gli utenti devono essere autentiche e basate sulla comprensione dinamica dell’ambiente circostante.
Un comportamento difforme spesso può essere affrontato in modo appropriato, ma solo se rilevato nelle sue fasi iniziali.
Queste tecniche d’Intelligence aiutano a conoscere l’ambiente digitale aziendale così com’è per prendere le corrette decisioni.
Le vulnerabilità interne sono fonte di problemi che richiedono una valutazione continua.
Bisogna cercare di capire dove concentrare l’attenzione e stabilire in tempo reale le priorità per la Cyber Defense.
Gli addetti della sicurezza devono essere in grado di affinare la conoscenza delle minacce in modo che abbiano senso in un contesto aziendale invece di perdere tempo ad analizzare migliaia di falsi positivi (cioè allarmi inutili).
Per Threat Intelligence ci si riferisce alla raccolta e condivisione di informazioni su minacce note.
In altre parole si fa riferimento ad un database da confrontare con gli allarmi di sicurezza rilevati in un’azienda, i log e altri dati per capire se quanto rilevato è una minaccia oppure no.
Se quanto rilevato è riconducibile alle informazioni contenute nella Threat Intelligence ciò può essere usato per proteggere l’azienda da attacchi simili ancora in circolazione.
Il limite è subito evidente: condividere informazioni riconducibili ad attacchi già avvenuti non aiuta le aziende a difendersi dai nuovi attacchi di domani.
Affinché questo funzioni è necessario che almeno un’azienda venga violata da ogni nuovo attacco per poterlo identificare, limitandosi a segnalare gli attacchi già subiti con la speranza che lo stesso si possa ripresentare.
Solitamente occorrono alcuni mesi prima che una nuova tipologia di attacco venga inclusa nella Threat Intelligence: nel frattempo la vostra azienda è vulnerabile a quegli attacchi che devono ancora essere scoperti e condivisi dalle loro vittime.
Nella peggiore delle ipotesi è un flusso di dati inutili che distoglie dall’obiettivo principale dell’azienda che è quello di difendersi dai nuovi attacchi, non da quelli già avvenuti.
È di scarso sollievo sapere che la vostra azienda è stata la prima a scoprire, e subire, un nuovo tipo di attacco.
La Threat Intelligence deve essere adattata ad ogni singola azienda e controllata da un essere umano per poter prendere le appropriate decisioni nei momenti critici.
L’Intelligence migliore è quella che aiuta un essere umano nel processo decisionale, che gli dà la miglior sicurezza nel prendere decisioni corrette.
Quindi la vera sicurezza non è quella che identifica le minacce e i metodi di attacco già noti, ma si concentra sulla corretta comprensione di ciò che sta avvenendo in azienda.
La Cyber Intelligence deve guidare nel prendere decisioni quando le infiltrazioni sono nella loro fase iniziale e gestibile, in una finestra temporale che consenta di verificarne l’efficacia ed evitare che la situazione diventi difficile da risolvere.

lunedì 19 settembre 2016

E' Possibile La "Lossless Recursive Compression Of Random Data"?

Nel 2012 Constant Wong e una compagnia cinese annunciò la creazione della "Lossless Recursive Compression Of Random Data", 8 anni di fatica per sviluppare una tecnologia di compressione ricorsiva senza perdita di dati.
Tale tecnologia, per i dati random, è sempre stata considerata impossibile da raggiungere.
Infatti è possibile applicare lo stesso algoritmo di compressione più volte ma aspettarsi di continuare a ridurre le dimensioni dei dati è sempre stata considerata una cosa impossibile da raggiungere.
Anzi dopo 1 compressione, rieseguendola, potrebbe verificarsi un aumento delle dimensioni del file.
Questo è prevedibile.
Se un dato algoritmo Lossless potrebbe produrre più compressioni di dati con lo stesso metodo e senza perdita d'informazioni, probabilmente avrebbe fatto ciò la prima volta che viene eseguito (e non in modo ricorsivo).
Dunque applicando nuovamente lo stesso metodo per i dati compressi è in teoria impossibile produrre un'ulteriore riduzione delle dimensioni.
Quello che invece si può fare è la combinazione di più algoritmi di compressione diversi.
Ad esempio, LZ77 si combina bene con la codifica di Huffman.
La fattibilità di diverse compressioni dipende dalla "profondità" del files (cioè dalla dimensione minima che è possibile raggiungere) e dall'algoritmo utilizzato.
Quindi in poche parole, non è possibile: comprimere dati Random e in modo ricorsivo con lo stesso algoritmo.
La fantomatica Lossless Recursive Compression invece è in grado di comprimere dati random o discreti, più volte, senza alcuna perdita di qualità.
In altre parole, dopo la compressione dei file, essi riducono la loro dimensione ma non la forma originale.
Come detto prima tendenzialmente un file una volta compresso, non può essere ulteriormente compresso con la stessa tecnologia perchè non è più lo stesso tipo di file: è diventato random.
Pertanto, se con ciò si possono comprimere dati random, lo si può fare più volte.
La compagnia spiegò di aver raggiunto questo, tramite teoremi matematici con serie di progressione geometriche.
Wong sottolineò che uno degli aspetti più innovativi della tecnologia è che poteva comprimere e decomprimere i dati digitali in tempo reale.
Questo sarebbe stato fondamentale per l'implementazione di streaming video, broadcasting e telecomunicazioni.
Questa tecnologia avrebbe risolto anche sovraccarichi di rete consentendo inoltre di migliorare la capacità delle strutture di storage e limitando i consumi energetici.


FUNZIONAMENTO E TEOREMA DI SHANNON (SOURCE CODING THEOREM)
Se due file sono compressi con la tecnologia di compressione ricorsiva, anche se solo un bit venisse compresso dopo ogni passaggio, potrebbero essere entrambi ridotti a un singolo 0 o 1.
Come potrebbero essere quindi decodificati se questo stesso bit origina due files diversi?
Questo secondo gli sviluppatori non accade perché dopo che un file subisce un gran numero di passaggi di compressione, raggiungerà l'optimum, rendendo gli ulteriori passaggi trascurabili.
Inoltre, anche nel caso che due files diventino esattamente uguali al loro "optimum" per pura coincidenza, i files decompressi saranno sicuramente diversi, perché i due files son passati attraverso un diverso numero di passaggi per raggiungere lo stesso "optimum".
Il Teorema di Shannon afferma che se due files differenti possono entrambi essere compressi in modo ricorsivo ad essere ricondotti ad un singolo 0, come si potrebbe decodificare il singolo 0 originando due file diversi?
Lo stesso Teorema stabilisce dei limiti di massima compressione per quanto riguarda un insieme di dati e definisce il significato operativo dell'entropia.
Il teorema dice che, per una serie di variabili aleatorie indipendenti di lunghezza che tende ad infinito, non è possibile comprimere i dati in un messaggio più corto dell'entropia totale senza perdita di informazione.
Al contrario, compressioni arbitrariamente vicine al valore di entropia sono possibili, con probabilità di piccole perdite d'informazione (casuale).
Esiste un limite inferiore e superiore alla minima lunghezza attesa di una serie di parole di codice, in funzione dell'entropia della parola in ingresso (vista come una variabile aleatoria) e della dimensione dell'alfabeto in esame.
Secondo il team cinese invece, se un file è passato attraverso quattro passaggi per diventare un singolo 0 e un altro file è passato attraverso cinque passi per diventare la stessa cosa, decodificando i singoli 0 quattro volte (ripristinando il file originale di 16 0's) e cinque volte (file originale di 32 0's) si avranno due file completamente diversi (decodificati dallo stesso singolo 0!).
Questa tecnologia comprime files sostituendo stringhe di bit e rendendoli più brevi (9 bit).
Poi se molti file possono essere compressi in modo ricorsivo per diventare file a 8 bit, ci saranno 256 files diversi compressi, e ciascuno può essere decodificato attraverso diversi passaggi, con conseguente creazione d' infiniti files differenti.
Ovviamente non tutte le stringhe di 8 bit possono essere sostituiti da stringhe, questo è ciò che il team intendeva quando parlava di "optimum", ovvero un file che non può essere compresso ulteriormente, in quanto non può più essere sostituito da un segnale/stringa.
Tutto molto interessante, peccato che il Loseless Recursive Compression, al pari della compressione I2BP, rimarrà uno dei più grandi misteri (e forse bluff) dell'informatica recente.


ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi
Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)

Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)

Nel gennaio 2001 veniva etichettato come il formato video che avrebbe rivoluzionato Internet!
Stiamo parlando dell'I2BP gestito dalla Start-up "Atelier De L'Innovation".
Si parlava di "miracolo tecnologico": un nuovo formato di compressione video che avrebbe permesso di diffondere su Internet, a schermo intero, 25 immagini al secondo (25 FPS), con una qualità video simile a quella delle VHS (cioè diffondere tramite un modem a bassissime velocità, un video streaming dalla qualità di una VHS).
Secondo le descrizioni dei tempi, questa tecnologia avrebbe permesso lo streaming di un film formato DVD a piena risoluzione (con una connessione a 2 kb/s).
Tenendo conto del bitrate di 156 Mbit/s per un flusso DigitalVideo compresso (4: 2: 2, CCIR 601-2), il rapporto di compressione risultante era di 80.000 in tempo reale (50 volte più efficiente del formato d'elite dell'epoca ovvero il DivX. Per comprimere un film all'epoca ci voleva circa 1 ora).
Era un qualcosa che dire rivoluzionario è poco perchè se questo "miracolo" fosse stato possibile, a cosa sarebbero servite le ADSL e la Fibra Ottica?
Assolutamente a niente.
Inoltre avrebbe facilitato l'esplosione di Web TV, servizi di video in streaming e on demand.
Gli sviluppatori sostennero che il loro sistema di compressione video, simile al MPEG-2, non richiedeva particolari compromessi per quanto riguarda la perdita di qualità.
Che sia 28 K, 33 K, 56 K, ADSL, via cavo, via satellite o su GPRS e cellulari UMTS, il loro formato avrebbe superato qualsiasi Streaming esistente.
Video in 320 x 240, a soli 4 kb/s per una qualità vicina a quella del VHS.
Lo stesso tasso (4 kb/s) per video sui cellulari GPRS.
56 kb/s, via cavo o via satellite, per qualità DVD.
A bassa velocità, GSM, la tecnologia avrebbe permesso di trasmettere un clip audio "udibile" solo ad 1 kb/s.
La dimostrazione venne eseguita trasferendo dal PC desktop di Marc-Eric Gervais, capo della I2BP, una serie di file Streaming sul server della Start-up (in una rete locale, intranet).
La qualità fu davvero sorprendente, sia per l'immagine che per il suono.
L'algoritmo di compressione rimase ovviamente un segreto gelosamente custodito.
Molti, nella dimostrazione, sospettarono che si trattasse di un imbroglio (perchè non ci fu la possibilità di controllare i parametri di trasmissione del video streaming) ma la situazione non fu mai chiarita del tutto.
Una successiva dimostrazione online di questa tecnologia, inizialmente prevista per aprile 2001, venne rinviata ad una data non specificata.
Inoltre, da allora, non ci furono più notizie.


LE STRANEZZE E LA TECNOLOGIA ALIENA
Tra programmazione del software (o di quello che era) in Java e formati .exe, Gervais disse anche che il video in streaming dopo la compressione "pesava" solo 50 bytes.
Lo stesso disse di aver preferito il formato MPEG-2 per una migliore qualità dell'immagine.
MPEG-4 usa un algoritmo di compressione Wavelet (WDT).
Il WDT MPEG-4, più efficiente, offre una migliore qualità dell'immagine rispetto al formato MPEG-2 con un rapporto di compressione più elevato.
In ultima analisi, avrebbero scelto la strada sbagliata...per ottenere risultati eccezionali.

Christophe Bernard, ricercatore della Ecole Des Mines di Parigi e specialista di compressione video: "Completamente delirante! Migliorare la compressione di un fattore 3 o 4, sarebbe fantastico. 
Ma, se ci atteniamo ad una velocità di 2 kb/s con 25 fotogrammi al secondo, si ottiene una qualità 50 volte meglio di un DivX!, questo sarebbe l'equivalente di memorizzare un'immagine di 80 byte e ciò non ha senso"

"Per raggiungere tale tasso di compressione elevato, utilizzare certi algoritmi richiede grande capacità di elaborazione. Inoltre, si devono quindi risolvere i problemi di trasporto e sincronizzazione dei dati sulla rete. Questo problema tecnico è peggio che la quadratura del cerchio!" spiega Jean-Noël Gazain,

L'immagine visualizzata a schermo intero su un computer è composta da un insieme di pixel, codificati per trascrivere la crominanza (colore), saturazione e luminanza.
La memorizzazione di un secondo di film (25 immagini) visualizzato a schermo intero memorizza 2,88 milioni di byte.
Per trasmettere il film a 25 fotogrammi al secondo con una larghezza di banda di 2,5 Kb/s, la dimensione I2BP avrebbe dovuto raggiungere un rapporto di compressione di 1125/1.
Per confronto, il rapporto di compressione MPEG-1 di qualità VHS sale a 30/1.
DivX, che è un MPEG-4 migliorato, raggiunge livelli compresi tra 60/1 e 100/1.
Ai tempi (primi anni del 2000), solo la compressione frattale (un'immagine realizzata da formule matematiche) raggiungeva un tasso di 1000/1 sulle immagini fisse e 400 a 500/1 in un video.
Tuttavia, questi valori erano solo teorici perché non c'erano computer abbastanza potenti per eseguire tali operazioni.


LOSSY, LOSSLESS E LOSSLESS RECURSIVE COMPRESSION
Oltre a questo fantomatico formato, nel corso degli anni, sono state inventate la compressione "Lossy" (con perdita di informazione quindi deterioramento del file originario) e "LossLess" (compressione senza perdita di dati ed informazione quindi il file rimane così com'è).
Un' "invenzione" mai dimostrata ma molto particolare è stato la "Lossless Recursive Compression Of Random Data". Generalmente con questo termine, ci si riferisce alla compressione di files già compressi, utilizzando tecniche particolari.


ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi
E' Possibile La "Lossless Recursive Compression Of Random Data"?

Differenze Tra Compressione Lossy e Lossless: Vantaggi e Svantaggi

La compressione audio permette di ridurre le dimensioni di un file audio.
La struttura fisica di un CD e la memorizzazione dei dati è descritta nel Red Book, redatto da Sony e Philips nel 1980, anno in cui cominciò la vendita dei CD.
La capacità standard per un CD Audio è di 747 MB, tuttavia le tracce salvate sul CD sono in formato .CDA (pesanti pochi byte perchè in realtà non contengono la traccia in sè ma soltanto riferimenti sulla durata della traccia audio vera e propria contenente la codifica digitale del file audio).
Un codec è un programma invece che si occupa di codificare e decodificare digitalmente un segnale (tipicamente audio o video) perché possa essere salvato su un supporto di memorizzazione o richiamato per la sua lettura.
I codec effettuano anche una compressione (e decompressione in lettura) dei dati ad esso relativi, in modo da poter ridurre lo spazio di memorizzazione occupato a vantaggio dell'usabilità dell'audio/video.
Per realizzare una compressione si fa ricorso alla riduzione delle frequenze da riprodurre (in alcuni codec audio vengono soppresse le frequenze non udibili dall’orecchio umano) o alla eliminazione delle ridondanze.
In primo luogo la compressione, oltre a ridurre lo spazio per l'archiviazione del file, aumenta anche la velocità di trasferimento ovviamente.
I difetti di sistemi di questo tipo sono maggiore difficoltà di lettura/scrittura dei files e generalmente una diminuzione della qualità dell'audio.


BITRATE
Riguardo i formati audio, ad ogni secondo è associato un certo contenuto informativo e quindi una certa sottosequenza di cifre binarie.
Il numero di cifre binarie che compongono queste sottosequenze è detto bitrate (cifre binarie impiegate per immagazzinare un secondo di informazione).
Questo può essere costante per tutta la durata del file o variare all’interno di esso.
Il bitrate si esprime in kilobit per secondo (kbps) e varia da 32kbps (il minimo) a 320kbps (il massimo).
La compressione, diminuendo la lunghezza globale del file, diminuirà di conseguenza la lunghezza media delle sottosequenze ossia diminuirà il bitrate medio.
Il bitrate medio diventa dunque in questi casi l’indice dell’entità della compressione.
Ad esempio se il file di origine possedesse un bitrate di 256 Kbps e il file compresso possedesse un bitrate medio di 128 Kbps, allora avremmo ridotto di un fattore pari a 2.
CBR (Costant BitRate) il bitrate rimane costante in ogni frame e questo significa che l’encoder utilizzerà sempre la stessa quantità di bit per codificare ogni passaggio musicale.
In pratica i passaggi più complessi avranno una qualità inferiore di quelli semplici visto che saranno codificati con un numero sempre uguale di bit, mentre ne servirebbero di più per i passaggi complessi e di meno per quelli semplici.
L'ABR (Average BitRate) è una modalità che ha una resa superiore al CBR e consiste in una sorta di bitrate “variabile”.
L’encoder codificherà i passaggi che lo necessitano con più bit e quelli più semplici con meno, cercando di mantenere nell’intero file il bitrate medio impostato.
Infine il VBR (Variable BitRate) è una modalità dove c’è un bitrate realmente variabile.
Impostando un indice di qualità e un bitrate massimo e minimo l’encoder codificherà ogni frame utilizzando il bitrate più appropriato (il bitrate aumenta/diminuisce a seconda della "complessità" della musica).


TIPI DI COMPRESSIONE
I tipi di compressione sono sostanzialmente due: algoritmi Lossless e Lossy.
Come suggerisce il nome, la compressione Lossless conserva i dati originali in modo da poterne riottenere una copia esatta, mentre la compressione Lossy provoca alcuni cambiamenti rispetto ai dati originali.
Una compressione Lossy effettua un compromesso fra la perdita d’informazione e la dimensione del file finale, mentre una Lossless deve bilanciare la dimensione del file finale con i tempi di esecuzione dell’algoritmo.


COMPRESSIONE LOSSLESS
La compressione Lossless indica un algoritmo che conserva integralmente, attraverso le varie fasi di compressione/decompressione, tutte le informazioni originarie del file sorgente.
Gli algoritmi più famosi che fanno uso di tecniche "Lossless" sono, la codifica di Huffman e l'algoritmo LZW (Lempel-Ziv-Welch) utilizzato nella compressione di file GIF.
L'efficienza di questi algoritmi si aggira solitamente attorno a rapporti di compressione dell'ordine del 70% al massimo, ovvero i dati compressi occuperanno il 30% della lunghezza originale.
Concludendo, possiamo dire che la compressione Lossless è comunemente usata per la compressione di dati, quali applicazioni eseguibili, testo o database, che devono essere ripristinati nello stato originale.
E per l'audio? I formati Lossless cercano di diminuire lo spazio occupato dalla traccia senza andare a toccare il suono; la % di compressione sarà decisamente inferiore rispetto ai Lossy, ma non ci sarà perdita di qualità.
Se riconvertito partendo dal formato Lossless, il suono sarà identico a prima.
Se ho un file Lossless posso passare ad un Lossy perdendo qualche informazione (in base al tipo di file) e guadagnando spazio.
Tra i principali formati Lossless abbiamo: WAV (o WAVE), FLAC (Free Lossless Audio Codec), APE (Monkey Audio), LA (Lossless Audio).


COMPRESSIONE LOSSY
Per comprimere dati come il suono o le immagini, dove una perdita di qualità potrebbe non essere notata viene usata la compressione Lossy.
Gli algoritmi di compressione Lossy quindi, sacrificano parte dei dettagli contenuti, ad esempio in un'immagine, in favore di un maggiore rapporto di compressione.
L'immagine ricostruita decomprimendo il file inganna l'occhio, ma contiene notevoli differenze (impercettibili però).
Da alcuni studi sull'occhio, si è stabilito che quest'ultimo non è in grado di distinguere due immagini in bianco e nero che abbiano, la prima profondità 6 (64 grigi) e la seconda profondità 8 (256 grigi).
Un altro tipo di differenza non riscontrabile riguarda la luminosità e il colore di un pixel, è stato dimostrato che l'occhio umano è molto più sensibile alla luminosità.
Solitamente, a causa del degrado introdotto nell'immagine alla stima dell'efficienza di un algoritmo "Lossy" si associa anche una stima di questo degrado.
In particolare ciò si nota con l'algoritmo JPEG che permette di stabilire anche la qualità finale dell'immagine.
Ed è proprio JPEG il primo vero standard che ha introdotto una codifica Lossy delle immagini.
Salvando una foto in un formato "pesante" (tipo una .Bitmap o .RAW) potremmo trovarci con una foto di 20 MB per giochi di luce e colori non apprezzati dall'occhio umano (senza considerare i problemi nel dover caricare ad esempio 5-6 di queste foto su un social network).
Per l'audio vale lo stesso discorso: verranno eliminate frequenze impercettibili ovvero le alte frequenze (a meno di non avere impianti sonori d'avanguardia).
La Lossy permette compressioni maggiori rispetto alla Lossless, ma a scapito della qualità sonora come si sarà capito
La riconversione, partendo dai formati Lossy, non permette di riportare la traccia audio al livello di qualità originale.
E questo in quanto non consente di ripristinare le frequenze “tagliate”.
In realtà esistono software che permettono di ripristinare alcune di queste alte frequenze, ma logicamente più di tanto non è possibile fare.
Ecco perchè non ha senso provare ad aumentare la qualità sonora di un mp3 (un 128 Kbps di Bitrate portato a 320, vedrebbe aumentare solo la sua dimensione, non certo la qualità dell'audio).
Detto in parole povere un Lossy non potrà mai diventare un LossLess: i dati persi sono persi, irrimediabilmente.
Principali formati Lossy: Mp3, WMA (Windows Media Audio), OGG (Vorbis), AAC (Advanced Audio Coding), AC3 (Dolby Digital).


ALTRI ARTICOLI
Tutti I Codec e Formati Audio Di Compressione
Tutti I Codec e Formati Video Di Compressione
E' Possibile La "Lossless Recursive Compression Of Random Data"?
Il Mistero Della Compressione Video I2BP: Idea Rivoluzionaria o Bluff? (2001)