Visualizzazioni Totali

IL MIGLIOR BLOG TECNOLOGICO DEL WEB: PER ESSERE SEMPRE AGGIORNATI SULLE NOVITA' DEL BLOG DA OGGI CI TROVATE ANCHE SU FACEBOOK! (LINK A SINISTRA)

martedì 28 giugno 2016

Robot Pericolosi? Ecco Il "Tasto Rosso" Di Google Per Disattivarli

La creazione di Robot, umanoidi e in generale intelligenze artificiali sempre più avanzate potrebbero facilitarci la vita ma i più scettici non escludono uno scenario alla "Terminator", con l'intelligenza artificiale che, autonomamente, vedendo gli umani come una minaccia decide di sterminarli.
Ma si possono fare anche altri esempi che comprendono dure lotte tra creatori e robot: Matrix, Battlestar Galactica, Humans, etc
Scene sicuramente apocalittiche e più da film di Hollywood, anche se Google non la pensa esattamente così.
Umanoidi dotati di intelligenza artificiale possono già sconfiggere i campioni più acclamati in alcune tipologie di sport, e diventano sempre più competenti anche in altre aree meno "schematiche", come ad esempio nella guida su strada insieme ad autisti umani.
I ricercatori londinesi di DeepMind, azienda acquisita da Big G nel 2014, stanno lavorando con gli scienziati dell'Università di Oxford alla creazione di una rete che consente all'operatore umano di "spegnere" e in modo sicuro un'intelligenza artificiale, assicurandosi che quest'ultima non impedisca tali interruzioni.
Ovviamente al momento non ci sono intelligenze artificiali tanto evolute da rappresentare un problema come quello di Terminator ma allo stesso tempo i progressi nel settore sono esponenziali e per questo è difficile dire se e quando l'umanità avrà bisogno di premere il fatidico "tasto rosso" per evitare guai.
Secondo Nick Bostrom, le macchine diventeranno più intelligenti degli uomini entro 100 anni e potrebbero rivoltarsi contro i propri creatori:

"Credo che quando verrà raggiunta l'equivalenza con il genere umano, non passerà molto tempo prima che le macchine diventino superintelligenti. Potrebbe volerci molto tempo per arrivare al livello umano, ma penso che il passo da lì alla superintelligenza sarà molto rapido. Credo che queste macchine con potrebbero essere molto potenti, per le stesse ragioni per cui noi esseri umani siamo molto potenti rispetto ad altri animali su questo pianeta. Non è perché i nostri muscoli sono più forti o i nostri denti più affilati, ma perché i nostri cervelli sono migliori"
Insomma un "tasto rosso", di emergenza, in grado di spegnere un'intelligenza artificiale qualora diventasse pericolosa per il genere umano come descritto dal film Ex Machina.
Questo tipo di sistema dovrebbe essere in grado di "arrestare" le azioni di una intelligenza artificiale ma anche di impedire che un sistema troppo sviluppato possa capire e aggirare questa interruzione.
Tuttavia non è ancora chiaro se tutti i tipi di algoritmo possano essere "disattivati" facilmente e in modo sicuro.
Il tutto viene documentato in un file PDF intitolato "Safely Interruptible Agents" pubblicato sul sito Machine Intelligence Research Institute (MIRI) e firmato da Laurent Orseau, Stuart Armstrong e molti altri.

Si legge nel documento:
"Nel caso in cui l'agente fosse sotto la supervisione umana, di tanto in tanto potrebbe essere necessario per l'operatore spegnere il pulsante rosso per impedire all'agente di portare a termine una serie di azioni nocive, sia per l'agente stesso che per l'ambiente, rendendo più sicura la situazione.
La possibilità sicura di interruzione può essere utile per prendere il controllo di un robot che mostra di avere un comportamento anomalo, e può portare a conseguenze irreversibili, sia per allontanarlo da una situazione delicata, sia per utilizzare gli algoritmi per eseguire operazioni che non ha ancora imparato, o da cui normalmente non trae alcun beneficio"

Il framework sviluppato da DeepMind permette di far credere all'agente IA che lo spegnimento sia auto-indotto, ovvero scelto come miglior comportamento da seguire dall'algoritmo stesso.
Alcuni algoritmi utilizzati oggi, noti come Q-learning, sono già "safely interruptible", ovvero possono essere spenti dagli operatori umani, mentre altri, come Sarsa, possono essere modificati per divenirlo con una discreta semplicità.
Questi studi sono tuttavia affascinanti e terrificanti al tempo stesso, con il team che lavora oggi per risolvere un problema che probabilmente dovranno affrontare le generazioni future.
Meglio prepararsi prima del tempo.

giovedì 23 giugno 2016

Come Copiare A Scuola e Durante Gli Esami: Smartwatch, Apple Watch ed App

Da qualche anno gli studenti hanno a disposizione molte più strade per copiare a scuola o barare durante gli esami di stato.
Tra le più sicure e comode sicuramente quelle offerte dalle funzioni dello Smartwatch.
Questo oggetto da collegare tramite app ad uno Smartphone, permette di poter rimanere in contatto con altri studenti in diretta durante l’esame.
Com'è possibile? L’oggetto è collegato via bluetooth con lo Smartphone, che può essere comodamente lasciato dentro la borsa in maniera tale da non destare alcun tipo di sospetto.
Questo scambio di informazioni avviene in tutta sicurezza, senza che i professori possano avere sospetti riguardo quello che sta accadendo, perché questa sorta di comunicazione è criptata e viene scambiata tramite la visualizzazione dei pixel mancanti sullo schermo, rendendolo indecifrabile e privo di riferimenti logici.
Inoltre è possibile consultare informazioni memorizzate quali formule, versioni di latino, greco, esercizi di matematica e quant'altro.
E' anche possibile ricevere messaggi WhatsApp.
Ad esempio nel 2013 venne sviluppato ConTest, una applicazione che permette appunto di conoscere in tempo reale quali siano le risposte più diffuse fornite dal gruppo di studenti a ogni domanda.
Nascosto lo smartphone nella borsa, l'interazione tra telefono e Smartwatch avviene tramite Bluetooth, con questa app basta osservare i pixel mancanti sulla facciata dello Smartphone per venir a conoscenza dell'ipotetica risposta esatta (dato che, tra tutte, è quella ad aver ricevuto più risposte).
Un sistema astuto che mette anche al riparo da brutte sorprese, poiché è praticamente impossibile per qualsiasi professore decifrare l'interfaccia degli orologi, che a distanza sembrano assolutamente privi di dati.
Inoltre il display è facilmente spegnibile con un semplice movimento di polso.
L'interessante studio di Migicovsky prova a fornire anche una contromisura per frenare gli studenti disonesti, anche se a fronte del previsto boom di dispositivi indossabili, l'unica arma che appare efficiente è vietare l'utilizzo di Smartwatch agli studenti che devono sostenere un esame.
Una soluzione già in vigore presso l'Artevelde University di Gent, Belgio.
Con l’enorme diffusione di questi orologi intelligenti, anche altri istituti in giro per il mondo hanno iniziato a vietare l’utilizzo di orologi durante le prove d’esame.
Nello specifico, alcune scuole australiane hanno esplicitamente modificato le normative scolastiche, sottolineando che durante gli esami non possono essere indossati (o tenuti sul banco) gli orologi, che vanno riposti nello zaino prima dell’inizio del test.

1) Per memorizzare appunti: Keep di Google (keep.google.com).
Con questo contenitore di testo è possibile anche cambiare colore agli appunti per trovare subito ciò che c'interessa e suddividere il tutto per argomenti.
Basta poi avviare l'app e leggere tramite Smartwatch.
2) Web Browser For Android Wear (per fare ricerche dallo Smartwatch, necessario ovviamente il Wi-fi del telefono).
3) PDF Reader For Android Wear (al posto di usare Keep, potrete creare i vostri appunti PDF direttamente da qui).


APPLE WATCH
Alcune caratteristiche dell' Apple Watch sembrano fatte apposta per barare nel corso di un compito.
Basti pensare alla funzionalità Sketch o Digital Touch per farsi un’idea.
Attraverso le funzioni Digital Touch è possibile richiamare l’attenzione di un altro alunno che indossa Apple Watch.
Basta posizionare due dita sul display per inviare una vibrazione che, a differenza di quella tradizionale presente sugli Smartphone, può essere percepita soltanto da chi indossa lo Smartwatch. Attraverso la funzionalità Sketch si possono anche disegnare le risposte, come ad esempio la lettera corretta di un quiz a risposta multipla.
Il disegno inviato a un altro studente con Apple Watch resta visibile per pochi secondi prima di sparire nel nulla.
Apple Watch abilita le funzioni prima descritte quando collegato a un iPhone.
Molto utile anche l'app Push To Watch (per consultare documenti ed immagini dall'orologio intelligente).
Tuttavia far spegnere tutti gli Smartphone presenti in aula in occasione di un compito in classe potrebbe essere la soluzione giusta.
Roland VanSlyke, un insegnante che lavora nel sud della California: «La tecnologia ha molti usi in materia di istruzione e ha davvero cambiato il modo in cui i bambini si collegano con le nuove informazioni. Ma qualsiasi dispositivo che ha la capacità di consentire agli studenti di comunicare furtivamente al di fuori di ciò che vedono gli insegnanti ha il potenziale giusto per permettergli di barare».


VECCHI METODI
Pare che con la tecnologia 3.0, i vecchi metodi siano ormai andati in pensione.
Sto ovviamente parlando di:
- Bigliettini
- Bigliettini a mò di rullo o a fisarmonica
- Scrittura di bigliettini tramite penne "magiche" (il foglio è bianco ma attivando un raggio luminoso dalla penna stessa, magicamente, comparirà ciò che si è scritto)
- Foto sui cellulari
- Scritte sui banchi, astucci, righe
- Materiale fuori dall'aula
- Lettori mp3 (con materiale audio registrato ed ascoltabile tramite cuffie piccolissime)
- Auricolare (se ne vendono "d'invisibili"...inutile dire che potrete comunicare con chiunque all'insaputa del vostro prof, finanche durante un orale)

Non si sa mai che qualcuno, non potendo comprare orologi costosi, si accontenti di questi metodi ormai vecchi ma ancora efficaci.
E voi, che metodo usate/usavate?

martedì 21 giugno 2016

Come Funziona L'Autovelox: L'Effetto Doppler

L'Autovelox serve per rivelare la velocità dei veicoli in transito sulle strade.
Viene misurato il tempo impiegato dall'automobile nell’attraversare due fasci di raggi laser perpendicolari all’asse stradale, opportunamente distanziati, provenienti dall’apparecchio stesso.
Nel caso in cui la velocità del veicolo sia superiore al limite di quella strada, il congegno tramite una macchina fotografica scatta una foto o con una videocamera registra la targa del mezzo trasgressore.
Questi tipi di Autovelox possono essere sia mobili che fissi.
Ovviamente una postazione Autovelox regolarmente segnalata potrebbe anche essere non attiva, ma questo a priori è impossibile saperlo.
Oltre al Tutor (lanciato nel 2005 e che permette tra due aree di calcolare la velocità media ed anche quella istantanea. Funziona anche in caso di pioggia e nebbia e nella corsia di emergenza), esistono anche dispositivi Laser (Telelaser): sono mobili e possono essere gestiti tanto manualmente da un operatore quanto operare in automatico.
La misurazione della velocità può avvenire:
a) Per effetto Doppler (emissione di un fascio Laser ad alta frequenza, il cui segnale di ritorno, riflesso dal veicolo che è stato puntato, viene rilevato da un sensore ottico integrato.
La velocità del mezzo viene rilevata in base alla variazione di frequenza fra i due segnali).
b) Tramite calcolo istantaneo della distanza del veicolo in base al tempo necessario ad un fascio di luce per andare e tornare dal veicolo.
Esistono anche dispositivi Radar.
Usando gli stessi principi dei Radar aerei, tramite un sistema di antenne riceventi e trasmittenti viene rilevata la velocità del veicolo misurando l’eco di ritorno di un segnale Radar emesso su determinate frequenze.
Dunque sfruttano le onde elettromagnetiche.


EFFETTO DOPPLER ED AUTOVELOX
Se ascoltate una macchina della polizia o dei carabinieri con sirene spiegate noterete che durante l'avvicinamento della vettura i suoni diventano via via più frequenti nel tempo mentre in fase di allontanamento del veicolo l'intervallo temporale tra un suono e il successivo tendono ad aumentare sempre più.
Questo effetto è tipico delle onde ed è chiamato effetto Doppler.
Infatti ogni onda che sia sonora o elettromagnetica ha una velocità di propagazione quindi una certa frequenza.
Se la sirena si muove verso la nostra direzione, l'intervallo di tempo che passa tra l'udire un'onda e la successiva è minore rispetto al caso in cui l'oggetto che emana l'onda stia fermo.
Questo é dovuto al fatto che la sirena ed onda hanno la stessa direzione perciò la distanza spaziale tra la prima e la seconda onda quando la sirena è in movimento sarà minore della medesima distanza quando la sirena è ferma.
La distanza tra due emissioni sonore della sirena è detta lunghezza d'onda.
Quando invece la sirena si allontana da voi allora avviene il contrario.
La frequenza delle onde diminuisce e la lunghezza d'onda, cioé la distanza tra due emissioni della sirena, aumenta.
Questo perché la sirena si muove in direzione opposta rispetto alle onde sonore che raggiungono il vostro orecchio.
Il caso di sorgente in avvicinamento é chiamato Blueshift (verso il blu), mentre il caso in allontanamento è chiamato Redshift (verso il rosso).
Questo perchè le onde rosse sono quelle con maggiore lunghezza d'onda tra quelle della luce visibile mentre le onde blu sono quelle con lunghezza d'onda piú piccola.
Quindi per una sorgente in avvicinamento abbiamo una diminuzione della sua lunghezza d'onda; se fossimo all'interno dell'intervallo di lunghezze d'onda della luce visibile osserveremmo perciò uno spostamento verso onde di tipo blu.
Nel caso di onde in allontanamento invece la lunghezza d'onda aumenta (spostamento verso il rosso).
Questo è l'effetto Doppler.
Grazie a quest'effetto sappiamo benissimo che il nostro universo si espande e le galassie si allontanano da noi secondo la legge di Hubble.
Dunque quando osserviamo lo spettro delle galassie, siccome esse si stanno allontanando, abbiamo lunghezze d'onda maggiori: il cosiddetto spostamento verso il rosso, appunto.

Siccome l'effetto Doppler dipende dalla velocità della sorgente, grazie alla misura dello spostamento verso il rosso possiamo determinare la velocità delle galassie e, tramite la legge di Hubble effettuare una stima della distanza.
Velocità delle galassie? Distanze? Ecco spiegato anche il funzionamento di alcuni Autovelox.
Essi infatti mandano un'onda elettromagnetica con una certa frequenza verso l'auto e poi a seconda della frequenza dell'onda di ritorno è possibile stimare la velocità di allontanamento/avvicinamento del veicolo.

sabato 18 giugno 2016

Il Robot Pericoloso Che Viola Le Leggi Robotiche Di Asimov

Isaac Asimov: "Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno”

"Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge"

Alexander Reben, esperto di robotica, non la pensa così avendo deciso di realizzare la prima macchina al mondo che viola deliberatamente la prima e la seconda delle tre leggi di Asimov.
Il suo robot consiste in un braccio mobile armato di ago e di una piattaforma.
L'ago a volte punge con forza l'umano che decide di appoggiare il dito sulla piattaforma bersaglio.

"Nessuno ha mai realizzato un robot pensato espressamente per danneggiare o ferire qualcuno. Volevo costruire qualcosa del genere, per portarlo fuori dal mondo degli esperimenti mentali, e trasformarlo in qualcosa di reale. Perché quando qualcosa esiste realmente sei costretto a confrontartici. Diventa più urgente, e non puoi più perdere tempo a pontificare"

Lo scopo dell'esperto è dunque quello di sensibilizzare l'opinione pubblica riguardo i rischi connessi su robot ed intelligenze artificiali.
Secondo Reben nessuna azienda di robotica vuole passare alla storia come “il primo ad aver realizzato una macchina che causa dolore intenzionalmente”.
Ed è qui forse che Reben compie un errore, sopravvalutando il valore della morale ai nostri giorni.
In realtà moltissime aziende di armamenti, tra cui l’esercito americano e la Lockheed Martin, hanno sperimentato già un anno fa un sistema missilistico intelligente, in grado di volare senza contatto radio con l’aereo che lo lancia, evitare i sistemi di difesa nemici, scegliere un obbiettivo prioritario tra diversi possibili, e quindi abbatterlo.
Per il pentagono, si tratta di un’arma semi autonoma, anche perché una direttiva del 2012 vieta agli Stati Uniti di sviluppare e utilizzare armamenti privi di un controllo umano.
Ma per qualcuno già si tratta di un "lethal autonomous weapons systems": un robot assassino.
Ma anche alcuni droni seguono già questo principio (Droni e Robot).
Qualche giorno fa un team di ricercatori di Google ha affermato di aver realizzato un sorta di telecomando (Tasto Rosso) in grado di disattivare/spegnere un'intelligenza artificiale nel caso diventasse pericolosa.


venerdì 17 giugno 2016

Cosa Sono Gli Algoritmi Genetici e A Cosa Servono

Il concetto di algoritmo genetico è molto datato: si parla del 1960.
Anche se è solo nel 1975 che viene creato un algoritmo genetico propriamente detto.
Sono usati anche per la produzione di reti neurali artificiali e per l'implementazione di intelligenze artificiali.
Inoltre ultimamente sono stati utilizzati anche per decodificare il Ransomware PetyaCome Decodificare Il Ransomware Petya.
Vengono chiamati così, essendo basati sulla metafora dell’evoluzione biologica.
Ad esempio vengono usati quando non esistono basi teoriche forti che supportino la scrittura di un dato codice o quando un problema ha moltissime soluzioni impossibili da valutare una per una.
Una volta posto il problema, si vuole far evolvere una popolazione di soluzioni possibili fino a che non se ne trovi una ottima, che non è necessariamente la soluzione esatta ma magari quella meno sbagliata.


SOPRAVVIVENZA, EVOLUZIONE, SOLUZIONE, GENI
Questi algoritmi operano su un determinato range di potenziali soluzioni applicando il principio dell'evoluzione: sopravvive solo la soluzione migliore.
Il sistema evolverà verso una soluzione che dovrebbe avvicinarsi alla reale soluzione del problema.
Ad ogni generazione, un nuovo insieme di soluzioni è creato dal processo di selezione che, basandosi sul livello di adeguatezza (funzione Fitness), seleziona i migliori "membri della popolazione"(ovvero n individui o, in questo caso, n soluzioni) e li fa evolvere utilizzando una serie di operatori genetici mutuati dalla genetica naturale.
Ad ogni soluzione è associato un valore di Fitness.
Questo processo porta ad un insieme di soluzioni che meglio rispondono al problema posto in principio.
Ogni soluzione è codificata sotto forma di stringa.
Il sistema di codifica più utilizzato è il sistema binario: cioè 0 ed 1.
Ogni soluzione, possiede una Fitness, ovvero una misura (o livello di adeguatezza) di quanto la soluzione è in grado di rispondere al problema posto.
Cosi come nella natura solamente gli individui che meglio si adattano all’ambiente sono in grado di sopravvivere e di riprodursi, anche negli algoritmi genetici le soluzioni migliori sono quelle che hanno la maggiore probabilità di trasmettere i propri geni alle generazioni future.
Il principio di selezione ha il compito di selezionare le soluzioni che meglio rispondono al problema da risolvere.
La selezione si basa sulla Fitness degli individui: le soluzioni con Fitness maggiore (rispetto alla media delle altre soluzioni) avranno maggiori possibilità di partecipare alla riproduzione e quindi di trasmettere alle future generazioni i propri "geni".
Dopo aver selezionato un numero n di individui, l’algoritmo genetico emula la riproduzione sessuata che avviene in natura e ri-combina il materiale genetico dei genitori, dando vita ai figli, ovvero alla futura generazione di soluzioni.
La ri-combinazione avviene tramite operatori genetici di Crossover e Mutazione Puntuale.
La nuova generazione di soluzioni prende il posto della generazione precedente, dalla quale è nata per ri-combinazione.
Il processo viene reiterato per un numero x di volte fino a quando o si raggiunge una approssimazione accettabile della soluzione al problema o si raggiunge il numero massimo di iterazioni prefissato.
Schematizzando, gli elementi costitutivi di un algoritmo genetico sono:
Inoltre gli operatori genetici combinano i geni delle diverse soluzioni al fine di esplorare nuove soluzioni.
Una volta che un gruppo di soluzioni viene individuato come idoneo alla riproduzione, l’operatore genetico di cross over, emulando la riproduzione sessuata degli esseri viventi, combina i geni dei genitori e formula una nuova generazione di soluzioni.
Un altro operatore genetico largamente utilizzato è la Mutazione puntuale (modifica un "gene" a caso).

Il Bug Degli iPhone: 1 Gennaio 1970

Gli Smartphone e i Computer, per essere sincronizzati con date ed orari esatti, comunicano con server NTP.
Il riferimento sono le 00:00:00 dell'1 gennaio 1970 (Tempo Unix).
Se uno smartphone viene "impostato" dai programmatori in riferimento a questa data si ritrova a lavorare con un tempo praticamente "zero": ovvero tutte le operazioni matematiche fallirebbero rendendo di fatto il dispositivo inutilizzabile.
La causa del bug è quindi legata alla gestione del timestamp, che per alcune impostazioni dei fusi orari causerebbe una condizione di underflow in grado di mandare in crash il kernel del sistema operativo.
Un clamoroso errore di questo tipo è stato commesso dall'Apple (sino alla versione 9.3 che ha risolto il problema).
I bug riscontrati nei sistemi operativi mobile generalmente causano il blocco di un’applicazione e rallentamenti nelle performance.
Questo citato invece che affligge i dispositivi mini iPad 2, iPad Air, 5S, iPad Touch 2015, 6S e 6S Plus è ben più grave: come detto impostando la data 01/01/1970 nel sistema operativo iOS il dispositivo al successivo riavvio smette di funzionare, senza più dare segni di vita.
Pare che lo stesso bug si sia verificato anche per altre date (in un range compreso tra il primo gennaio e maggio del 1970).


ATTACCHI
Settare la data manualmente oppure in modo fraudolento potrebbe essere quindi molto pericoloso.
Stessa situazione potrebbe verificarsi tramite attacchi da remoto oppure con app opportunamente costruite.
O ancora creando, tramite Hotspot Wi-fi, falsi server NTP settati con quell'ora e data.
Gli iPhone connessi a una rete Wi-Fi del genere si troverebbero catapultati alla data infausta diventando quindi inutilizzabili al primo riavvio.
Sono stati diffusi anche messaggi palesemente falsi come questo:
Che permetterebbe di attivare funzioni retrò del Macintosh (che per inciso nasce più di 10 anni dopo e non nel 1970).
In realtà l'unica cosa che otterrete è il blocco del dispositivo sulla schermata di accensione.
Neanche la modalità di ripristino darebbe una mano.
Fatto il danno, l'unica alternativa è portare lo Smartphone in un centro Apple o aggiornare ad una versione più recente della 9.2

Cos'è Il Tempo UNIX? Date Particolari e Millennium Bug

Il tempo zero dell'Informatica non inizia con la data di nascita di Gesù Cristo o di chi per lui ma dalla mezzanotte di giovedi 1 gennaio 1970.
Non esisteva a quei tempi una data zero e quindi i programmatori la dovevano fissare per ogni file, ogni volta, nel file-system finchè non scelsero una data che potesse andare bene e che non soffrisse di overflow con sistemi a 32 bit, il 1970 sembrò una buona scelta (anche se inizialmente era stato scelto l'1 gennaio 1971).
Detto anche tempo UNIX, esso è come detto utilizzato per i timestamp dei programmi informatici.
In poche parole, esso segna il tempo trascorso in secondi da quella data.
Questo sistema di misurazione temporale è molto usato da sistemi operativi UNIX e può essere facilmente convertito, grazie a un piccolo software, nel tempo universale.
Ma perchè venne scelto il 1970? I sistemi UNIX vennero progettati nel 1969, il primo pubblicato nel 1971 quindi si suppose che nessun sistema informatico avrebbe potuto rappresentare un tempo di sistema prima di questa data.


DATE DA RICORDARE E MILLENNIUM BUG
Questo strano orologio, proprio come il calendario comunemente usato, regala date molto particolari dal punto di vista numerico.
Per esempio, il 9 settembre 2001 è stata la volta dello Unix Billenium, il momento in cui l'orologio si è fermato a 1.000.000.000 secondi.
Il 18 marzo 2005, invece, la cifra ha segnato l’1.111.111.111.
Il 13 febbraio 2009 per un istante si è fermato sulla cifra di 1234567890 secondi.
Per l'occasione sono state organizzate celebrazioni in tutto il mondo e l'evento è stato celebrato anche da Google, con un doodle dedicato.
Mentre il 26 gennaio 2011 è stato il 15.000° giorno dello Unix Time e i festeggiamenti hanno avuto luogo a Bloomington in Indiana (USA).
Il 18 maggio 2033 invece sarà il giorno del secondo Billennium: i 2.000.000.000 di secondi.
Sono molti i sistemi operativi che presentano problemi con date particolari.
A cavallo tra il 1999 e il 2000 si parlò molto del “Millennium Bug”, un problema che si verificò sui computer al cambio di data dalla mezzanotte del 31 dicembre 1999 all’1 gennaio 2000.
Temendo conseguenze catastrofiche, furono da più parti predisposte misure per correggere sistemi operativi, applicazioni, firmware e altri sistemi che lavorano con le date.


LA FINE DEL MONDO
Non sarebbe un vero calendario, tuttavia, se non ci fosse anche una fine del mondo.
Questa è segnata per le 03:14:08 UTC del 19 gennaio 2038, data prevista per il Bug Dell'Anno 2038 (bugY2038).
In questo giorno, infatti, per i sistemi operativi a 32 bit che adoperano questa rappresentazione del tempo scoccherà l'istante in cui i contatori toccheranno il loro valore massimo, l'istante rappresentabile più distante possibile dal 1 gennaio 1970: 2147483647 secondi.
Dall'istante successivo, i contatori registreranno il valore negativo -2147483648, che corrisponderà (sempre a partire dal 1 gennaio 1970) alle 20:45:52 di venerdì 13 dicembre 1901.
In poche parole il numero di secondi trascorsi dall'epoca raggiungerà il valore di 2 alla 31esima potenza, che è al di fuori dei valori rappresentabili da tale tipo di dato.
Tali calcolatori e sistemi operativi potranno quindi riscontrare malfunzionamenti, non essendo più in grado di memorizzare correttamente il valore che indica la data corrente.
Questa festività, anzi Apocalisse, è anche nota come "The Friday 13th Bug".

Messi In Vendita Sul Deep Web 30 Milioni Di Dati D'Accesso Di Twitter

Su Twitter sono stati messi in vendita poco più di 30 milioni di username e password di Twitter.
Non si tratterebbe però di un attacco ai suoi sistemi informatici.

“Noi siamo certi che questi nomi d’utenti e password non sono stati ottenuti con una violazione dei dati di Twitter: non c’è stata un’intrusione nei nostri sistemi”

Si suppone sia stato un virus ad infettare i computer degli iscritti.
Il social network ha inviato email a diversi milioni di suoi utenti consigliando di cambiare la password di accesso.
Il responsabile della sicurezza di Twitter, Michael Coates, ha fatto sapere di essere fiducioso circa il fatto che i sistemi della piattaforma social non siano compromessi.
Potrebbero anche esser stati utilizzati tecniche quali Fake Login e Brand Spoofing, cioè siti che clonano quelli legittimi con l’intento di indurre gli utenti a fornire dati riservati.
Le "esche" potrebbero essere anche sul Deep Web: banalmente costruisco un sito e lo spaccio per Twitter.
Ogni utente che transita da lì e fa il login con le sue credenziali reali, fornisce involontariamente pass ed user ai truffatori.
Ad ogni modo i settori più colpiti da questa pratica sono quello finanziario (376 registrazioni di domini maligni), vendita al dettaglio (175) ed infrastrutture critiche (75).
La maggiorparte di questo tipo d'attacchi avvengono da cinesi ed americani.
I dati raccolti con questa tecnica sono solitamente venduti nell’underground criminale per poi essere riutilizzati in ulteriori attacchi contro le società.
La cosa più pericolosa, come si sarà capito, è anche quella di usare una stessa password per più siti.
Scoperta tutta, scoperte tutte.
Twitter a parte, il problema più grande rimangono ovviamente le password aziendali e quelle di carte di credito e quant'altro.

mercoledì 15 giugno 2016

Il Bitcoin Supera i 700 Dollari: Brexit, Mufg Coin e Yuan Le Cause?

I picchi di dicembre 2013 (oltre 1000 dollari) sono ancora lontani ma nelle ultime settimane, la quotazione dei Bitcoin ha superato quota 700 dollari, registrando nuovi massimi dal febbraio del 2014 (un anno fa di questi tempi il valore era inferiore ai 250 dollari).
Ora poco più di 600 euro (680 dollari più o meno).
Tanti potrebbero essere i motivi.
Intanto si stanno affacciando altri concorrenti alla principale moneta virtuale, come ad esempio il progetto Mufg Coin della Bank Of Tokyo (anche se c'è una sostanziale differenza: questa moneta virtuale non sarà volatile).
Un altro motivo dell'aumento potrebbe essere l'incertezza e la paura delle conseguenze di una possibile uscita del Regno Unito dall’UE (Brexit).
"Vote Leave" vs "Remain".
Secondo il presidente del Consiglio europeo, Donald Tusk, la Brexit potrebbe essere l'inizio della fine della civiltà politica occidentale.
Secondo il co-fondatore della piattaforma di trading BitMEX, Arthur Hayes, questa situazione potrebbe giocare a favore di un rialzo della quotazione dei Bitcoin (più o meno come la situazione della Grecia qualche tempo fa, anche se qui in proporzioni molto maggiori).
Quindi le valute virtuali, potrebbero essere viste come vere alternative alle valute tradizionali.
Sappiamo che si verifica un dimezzamento costante nel tempo della quantità di Bitcoin immessi nel sistema.
Tra un 3 settimane scatterà il prossimo dimezzamento, che non avveniva da 4 anni.
Un calo dell’offerta, a parità di domanda da parte del mercato, potrebbe quindi essere il semplice motivo di un rialzo del prezzo dei Bitcoin.
Banalmente la tiratura "limitata" di un qualcosa ne aumenta il valore.
Potrebbe aver influito anche la creazione dell'app Thunder, messa a punto da Blockchain, essa riesce a gestire 100mila transazioni al secondo permettendo di ridurre drasticamente i tempi di attesa per la conferma della transazione (tallone d'Achille da sempre del Blackchain).
Quindi dai canonici 10 minuti di attesa (ma a volte anche mezz'ora) si potrebbe passare a pochi secondi.
Circa l’85% dei volumi di Bitcoin scambiati 10 giorni fa ha avuto come valuta d’entrata lo Yuan (che continua ad indebolirsi rispetto al dollaro americano e non solo).
La Cina è da tempo il paese più attivo nell’acquisto di Bitcoin e potrebbe da sola rappresentare il motivo per il quale la quotazione è cresciuta così tanto in così poco tempo.
Infatti la domanda di Bitcoin da parte della Cina è alta e continuerà ad esserlo, vista l’incertezza economica che è costretta ad affrontare.
I Bitcoin rappresenterebbero quindi un bene rifugio alternativo sul quale la Cina sembra puntare con particolare interesse, stando sempre attenti alla volatilità dello stesso.

martedì 14 giugno 2016

Film ed Anime Con Tematiche Cyberpunk

Non esiste in realtà un cinema Cyberpunk.
La corrente futuristica/cibernetica era soprattutto letteraria, come sappiamo (senza però scordarci anche l'ambito riguardante videogame cinema).
Quindi, in questa breve lista, citerò film più o meno inerenti al Cyberpunk quindi con cyborg, alieni, realtà virtuale, intelligenze artificiali, software, città dismesse ed oscure.
Insomma qualche film con tematiche futuriste o fantastiche rintracciabili nelle opere letterarie di Gibson e company, anche se ovviamente non si tratta di Cyberpunk in senso stretto.
Si spiega così l'inclusione di film quali The Crow oppure Aliens o ancora di film antecedenti al 1984 (anno a cui si fa risalire la corrente).
Johnny Mnemonic invece è proprio tratto dall'opera del 1981 di William Gibson (uno dei capostipiti della corrente Cyberpunk), idem New Rose Hotel del 1998.


FILM
Metropolis (1927)
Frankenstein (1931)
L'Invasione Degli Ultracorpi (1956)
Farenheit 451 (1966)
L'Uomo Illustrato (1969)
La Conversazione (1973)
2022 I Sopravvissuti (1973)
Il Mondo Sul Filo (1973)
Il Mondo Dei Robot (1973)
Futureworld: 2000 Anni Nel Futuro (1976)
Guerre Stellari (1977)
L'Impero Colpisce Ancora (1979)
L'Uomo Terminale (1979)
1997 Fuga Da NY (1981)
Destino Cieco-Il Caso (1981)
Blade Runner (1982)
Tron (1982)
War Games (1983)
Videodrome (1983)
Orwell (1984)
Terminator (1984)
View To Kill-Bond (1985)
Max Headroom (1985)
Brazil (1985)
La Donna Esplosiva (1985)
Dovevi Essere Morta (1986)
Aliens-Scontro Finale (1986)
Robocop (1987)
RoboWar (1988)
Patlabor (1989)
Sotto Shock (1989)
Tetsuo (1989)
Atto di Forza (1990)
Hardware-Metallo Letale (1990)
Allucinazione Perversa (1990)
Hardware (1990)
Il Pasto Nudo (1991)
Tetsuo II (1991)
Terminator II-Il Giorno Del Giudizio (1991)
Il Tagliaerbe (1992)
In Fuga Nel Futuro (1992)
The Crow (1994)
Hackers (1995)
Johnny Mnemonic (1995)
Intrappolata Nella Rete (1995)
Strange Days (1995)
Tank Girl (1995)
Virtuality (1995)
Fuga Da Los Angeles (1996)
Crash (1996)
Ciber City (1997)
Cube (1997)
Nirvana (1997)
La Porta Dell'Universo (1997)
The Truman Show (1998)
Dark City (1998)
New Rose Hotel (1998)
Matrix (1999)
eXistenZ (1999)
Dancer In The Dark (2000)
Takedown (2000)
Risvegliare La Vita (2001)
Cypher (2002)
Equilibrium (2002)
Animatrix (2003)
Matrix Reloaded (2003)
Io, Robot (2004)
The Zero Theorem (2013)


ANIME E SERIE TV
Mazinga Z (1972)
L'Uomo Da 6 Milioni Di Dollari (1973)
Jeeg Robot D'Acciaio (1975)
La Donna Bionica (1976)
Patlabor (1988)
Akira (1988)
Goku Midnight Eye (1989)
Patlabor The Movie (1989)
Patlabor II (1993)
Battle Angel Alita (1993)
Lo Spirito Nel Guscio (1995)
Serial Experiments Lain (1998)
X-Files (1998)

Prima Dell'HTTP: Gopher, WAIS e Prospero

Fine anni 80, internet in fermento e in rampa di lancio.
Per pubblicare un'informazione questa viene messa su un server: in poche parole un computer che condivide le sue risorse con altri computer.
L'informazione viene letta, scritta e modificata da un client, un programma che chiede accesso al server.
Il detentore dell'informazione ovviamente decide chi è autorizzato ad accedere al file, a modificarlo, cancellarlo e quant'altro.
Ai tempi esistevano l'FTP per i files (che esiste ancora oggi) e l'NNTP per le Network News.
La gente ricercava files in questi enormi archivi FTP ma non era per niente facile.
Per ovviare a questi problemi di non poco conto nacque il protocollo HTTP che era sicuramente più veloce.
Ma la grande intuizione fu la progettazione dell'URL: il file/documento veniva caricato facilmente sul server e con ancora più facilità il navigatore, conoscendo l'URL, poteva accedere ad esso.

https://www.blogger.com/file1

(in verità ai tempi il protocollo era solo http, senza la "s" finale)

Prime lettere indicano al sistema quale protocollo di comunicazione usare (HTTP, FTP, etc)
Da www sino a .com è il nome del server dove è locato il file.
Infine l'ultima parte è il documento/file cercato (sul server stesso).
Ovviamente non è detto che sia un file o un documento: può essere qualsiasi cosa (anche una normale pagina o una vuota).
Questa era o, come meglio dire, è l'architettura del web da sempre.
Ma ci furono anche altri sistemi che si svilupparono più o meno contemporaneamente e che furono soppiantati dall'HTTP (che inizialmente, prima di diventare quello che è oggi, era solo un'alternativa testuale ai sistemi che vedremo poco sotto).


PROSPERO
Clifford Neuman presso l'università di Washington a fine anni 80 stava progettando un sistema di file distribuiti chiamato Prospero che lavorava su reti locali e WAN.
Si trattava di un insieme di protocolli e software "embedded" che avrebbe dovuto fornire servizi distribuiti di directory, di accesso ai file, di denominazione, manutenzione di metadati, indicizzazione, memorizzazione di cache e storage per applicazioni di rete.
Questo sistema basato sulle directory sfruttava un sistema virtuale.
Gli utenti specificavano i nomi relativi delle diverse directory e il contesto in cui ogni nome deve essere "risolto" e quindi reso disponibile durante la ricerca.


GOPHER E I MOTORI DI RICERCA ARCHIE, JUGHEAD E VERONICA
Nel Minnesota Mark McCahill stava lavorando ad un protocollo chiamato Gopher (GO-FOR), nome preso dalla mascotte dell'ateneo.
Si trattava di un sistema che permetteva di organizzare i contenuti disponibili sui vari server (consultabili tramite righe di comando).
Questo sistema, supportato ancora da alcuni browser moderni, sfruttava i motori di ricerca Archie, Jughead e Veronica.
Ma come veniva richiamato? Al posto dell'HTTP, si digitava Gopher:// (poi il sito).
Archie che vuol dire Archive risale al 1987 ma viene lanciato nel 1990: si tratta di un vecchio motore di ricerca per files (su server FTP anonimi).
Esso consulta periodicamente i server FTP, costruendo e aggiornando una sua lista interna (chiamata Internet Archive Database) che contiene tutti i file e directory trovati in ogni server FTP controllato. Tutti i server Archie contengono la stessa lista.
Un client contatta uno dei server Archie, fornendo una chiave di ricerca: il nome del file cercato.
Il server consulta il proprio database e restituisce la lista degli indirizzi dei siti FTP che dispongono di quel file.
Jughead (Bomba) è un sistema di motore di ricerca sempre per l'FTP ma anche per il protocollo Gopher che però permette ricerche su un singolo server alla volta.
Venne sviluppato da Rhett Jones nel 1993 presso l'Università dello Utah sotto licenza GPL nel 2006 (il suo codice sorgente è stato modernizzato per funzionare meglio su sistemi POSIX attuali).
Veronica (Very Easy Rodent-Oriented Netwide Index To Computerized Archives) fu tra i primi motori di ricerca del World Wide Web, basato sempre sul protocollo di rete Gopher.
Fu inventato nel 1992 da Fred Barrie e Steven Foster.
Si legge nell'acronimo "orientato ai roditori": ciò era riferito alle caratteristiche del protocollo Gopher (che in inglese indica, appunto, il nome di un roditore).
Veronica effettuava ricerche verticali a partire dai titoli delle directory o dei titoli dei singoli documenti, anche se non poteva effettuare ricerche all'interno di questi ultimi.
Funzionava un po' come l'internet dell'epoca a riga di comando e permetteva di fare ricerche complesse racchiudendo la ricerca in parentesi e intervallando le parole con gli operatori logici AND, OR a NOT (utilizzati ancora oggi sui motori di ricerca, anche se non indispensabili come sappiamo).


WAIS
WAIS (Wide-Area Information Server) è un sistema per la ricerca di informazioni contenute nei database di Internet.
Viene sviluppato a fine anni 80.
Progettato per richiamare i documenti dai database, ovvero raccolte di articoli, testi elettronici e netnews tramite parole chiave.
La ricerca come detto si basa sul contenuto dei documenti richiamabili dai database stessi.
Utile per trovare informazioni cercando all'interno del testo piuttosto che soltanto nei titoli dei documenti stessi.
Inoltre è possibile effettuare ricerche in diverse decine di database con una singola operazione.
Migliore del citato Veronica perché si possono fare ricerche in base a "parole chiave" contenute direttamente all'interno di ogni testo.
Contrariamente a quanto si crede sia WAIS che Gopher ebbero, inizialmente, una diffusione maggiore rispetto al WWW ma poi vennero soppiantati dallo stesso.

sabato 11 giugno 2016

Come Pubblicare e Caricare GIF Su Facebook

In quest'articolo spiegherò come trovare e caricare GIF online.
Come saprete non è possibile caricare direttamente GIF su Facebook come si fa con foto e video(otterrete una semplice immagine statica).
Tuttavia è possibile caricare la GIF su appositi siti e poi incollando il link della GIF appena caricata, condividerla su Facebook (comparirà direttamente la GIF).
Il sito in questione si chiama: Giphy
Entrati nel sito, per caricare GIF, è semplicissimo: vi basta schiacciare su UPLOAD e poi su Browse (a questo punto dovrete cercare la GIF sul vostro computer e caricarla).
Così facendo, copiate il link della GIF appena caricare ed incollatela nel tuo stato (o tra i commenti degli amici).
Nella home di Facebook apparirà l’anteprima della GIF e l’immagine verrà riprodotta automaticamente una volta visualizzata da te o da altri utenti.
Come detto questo sito è utile sia per trovare GIF e copiarsi il link poi da incollare su Facebook e sia per caricare una propria GIF.


Se le GIF vuoi crearle tu (da foto e video) e non sai come fare:
Come Creare Una GIF Da Un Video
Come Creare GIF Da Foto ed Immagini
Come Creare GIF Online Per Ask.fm

venerdì 10 giugno 2016

Novità Su Facebook: Foto a 360°, Video Nei Commenti e Dirette Live

Negli ultimi giorni Facebook ha introdotto diverse novità: le fotografie panoramiche a 360° e la possibilità di inserire i video nei commenti.
Oltre alla possibilità di fare dirette streaming sulla falsariga di Periscope e Meerkat.
I video navigabili a 360° (grazie al cursore del mouse) sono stati introdotti da tempo (potete trovarne diversi su Youtube), ma Facebook utilizzerà questa novità per le fotografie sia dei singoli utenti che per i gestori delle pagine.
Come creare foto e video a 360°? Con Ricoh Theta S.
Per pubblicarne una basta scattare una foto panoramica con il proprio smartphone e poi caricarla sul profilo come si è sempre fatto per le normali foto profilo.
Facebook riconosce automaticamente il formato panoramico e converte la fotografia in un’immagine all’interno della quale ci si può spostare.
Il sistema è compatibile con le principali applicazioni per scattare fotografie a 360°, comprese quelle predefinite degli smartphone come quella degli iPhone.
Le fotografie a 360° sono distinguibili da quelle normali grazie a un’icona, mostrata in alto a destra nelle immagini, che rappresenta una bussola.
Come per i video a 360°, anche i post contenenti fotografie panoramiche sono compatibili con i principali visori per la realtà virtuale.
In questo caso basta indossarli e muovere la testa per spostarsi all’interno della foto.
Facebook sta puntando molto su questa tecnologia e proprio quest’anno ha diffuso una prima versione commerciale degli Oculus Rift, i visori prodotti dall’azienda.
Con un tocco quindi sarà possibile agli utenti "entrare" di nascosto sul palco di un concerto, visitare il CERN o la Stazione Spaziale Internazionale con la NASA e molto altro ancora.
Se si è già in possesso di uno dei seguenti gadget tecnologici si potrà iniziare subito a pubblicare foto a 360 gradi.
Gli smartphone e i tablet compatibili per ora sono: iPhone 4S e successivi, iPad mini 2, 3, 4, iPad Air e iPad Air 2, iPad Pro, Samsung Galaxy S7, S6, S5, Samsung Galaxy Note 4 e Note 5.
Ovviamente anche tutte le camere specificamente studiate per i contenuti a 360°, come Ricoh Theta S, LG 360 CAM e Gear 360.
L'altra novità introdotta da qualche mese è la possibilità di inserire un video come foto profilo.


FACEBOOK LIVE E VIDEO NEI COMMENTI
Facebook si sta concentrando molto anche sui video, come dimostrano le recenti iniziative per promuovere il loro utilizzo anche nella versione in diretta tramite il servizio Facebook Live.
Facebook Live permette di fare una diretta streaming di quello che avete davanti, col vostro smartphone: quando aprite la casella per pubblicare uno status, comparirà anche l’icona “Live Video”, oltre a quelle “Aggiungi foto/video”.
Potrete aggiungere una breve descrizione sulla diretta che state per fare e selezionare quali fra i vostri amici potranno vederla; durante la diretta potrete vedere il numero di amici che vi sta seguendo, i loro nomi e i loro commenti allo streaming.
Una volta conclusa la diretta il video sarà salvato automaticamente sul vostro profilo come un video normale, ma se volete potrete comunque cancellarlo.
Ci si può anche iscrivere ai “Live Video” di altri utenti, in modo da ricevere una notifica ogni volta che inizia un nuovo streaming.
È possibile che ancora non vediate la nuova icona per le dirette video: anche se la sua diffusione a tutti gli utenti è iniziata da qualche tempo, non è ancora arrivata in tutti i paesi.
Facebook ha anche deciso di incentivare alcuni editori a pubblicare video in diretta, arrivando in alcuni casi a pagarli per la pubblicazione dei video.
Non è chiaro quali siano le società che vengono pagate da Facebook per pubblicare, ma si pensa di media quali New York Times, Huffington Post, BuzzFeed e Vox Media.
Per incentivare ulteriormente l’utilizzo dei video, è stata aggiunta anche la possibilità di inserirli nei commenti ai post degli amici, come si può già fare da tempo con le immagini.

giovedì 9 giugno 2016

Significato Del Feedback e Delle Stelline Su eBay

Se hai comprato su eBay almeno una volta nella vita, ti sarai accorto che una volta finalizzato un acquisto, nel tuo riepilogo a lato ti comparirà un'opzione per dare un feedback ed una valutazione ad un venditore.
Feedback negativo, neutro, positivo.
Più le valutazioni con le stelline da 1 a 5 per quattro categorie che riguardano la transazione.
Ma cos'è il feedback e perchè per i venditori è così importante?


REGOLE STORICHE, FEEDBACK E STELLINE
“Feedback” potrebbe essere tradotto come “retroazione“, con questa parola si intende la capacità di alcuni sistemi (fisici, elettrici, elettronici) di modificare alcune loro caratteristiche (solitamente indicate come variabili di stato) in modo da mutare le condizioni del sistema stesso sulla base di impulsi o stimolazioni esterne.
Ma tornando ad eBay tutto è iniziato diversi anni fa con il sistema di rating basato sulle famose cinque stelline: “Mi piace”: 5 stelle e poi a scalare.
Su eBay infatti l’epurazione dei venditori professionali è la logica conseguenza di un processo collegato con l’arrivo di John Donahoe alla guida del Gruppo in sostituzione del CEO storico Meg Withman, ritenuta responsabile dei pessimi risultati finanziari degli anni precedenti.
L’avvicendamento fu una specie di terremoto: riduzioni di personale, eliminazione di sedi periferiche, sponsor esterni nelle aste, massicci aumenti di tariffe e costo dei negozi ed una riorganizzazione della piattaforma con il trasferimento di servizi a società terze.
Prima di arrivare alla situazione di oggi: le aste furono blindate, i nick degli acquirenti criptati, il punteggio di feedback ricalcolato sui risultati degli ultimi 12 mesi scalando un positivo per ogni negativo ricevuto, eliminando i neutri ed i negativi rilasciati da utenti sospesi e aggiungendo i feedback multipli da uno stesso utente ad intervalli di una settimana.
Ai venditori venne inibito il rilascio di feedback negativo, imposto PayPal nelle transazioni con gli acquirenti non registrati ed assoggettati ad un sistema di valutazione dettagliata sulla qualità delle transazioni: le stelline, responsabili di tutte le successive epurazioni.
Prima dell'epurazioni (di cui parleremo dopo), gli aspetti citati prima portarono ad un aumento considerevole delle truffe.

Ad ogni modo i 4 criteri delle stelle erono/sono:
1) Comunicazione con il venditore
2) Conformità della descrizione dell’oggetto
3) Tempi di spedizione
4) Costi di spedizione e imballaggio.

Valutazione generale: si decide se lasciare un feedback positivo, negativo oppure neutro.
A differenza del feedback, le valutazioni restano anonime anche per il venditore che non può contestarle in alcun modo.

Contrariamente a quanto si è portati a pensare, i valori non rappresentano peggiore, mediocre, buono, ottimo e migliore, bensì sufficiente e pessimo: 5/5 nelle quattro categorie sono l’adempimento del proprio dovere, 4/5(ed inferiori) si violano le "Regole sull’inadempimento del venditore" che comportano:
1) Declassamento da TopSeller/PowerSeller a venditore normale
2) Aumento sino a dieci volte del costo delle inserzioni
3) PayPal come unico metodo di pagamento
4) Riduzione del 75% degli oggetti che è possibile mettere in vendita
5) Minore visibilità e quindi scomparsa dal motore di ricerca interno
6) Sospensione di 30 giorni
7) Richiesta di saldare subito le spedizioni in corso e subito dopo espulsione definitiva dalla piattaforma (almeno come venditore)

Detta così, sembra davvero difficile essere espulsi.
Cioè qualcuno potrebbe pensare "sino ad arrivare al punto 7, uno dovrebbe combinarla davvero grossa e ricevere diversi avvertimenti".
In realtà non è così ed, anzi, non c'è una vera e propria scala nè si passa da un punto all'altro.
Alcuni di quei punti visti prima sono in contemporanei quindi il passo da sospensione ed espulsione definitiva è breve.
Ed espulsione definitiva vuol dire espulsione definitiva, senza "se" e senza "ma".
Con questa valutazione, la soglia dell'espulsione è una media uguale o inferiore a 4,4 stelle.


UN SISTEMA DI VALUTAZIONE DEL GENERE E' CORRETTO?
Come detto prima molti non sanno il significato di feedback e stelle.
Non sono consapevoli che appunto 4 stelle viene visto dal sistema come un comportamento inadeguato del venditore.
Dunque tra 1 stella e 4 stelle, paradossalmente, non ci sono molte differenze: sono entrambe due votazioni negative.
Ovviamente però con 2 stelle o 1 si velocizza il processo di "espulsione" del venditore.
Spesso queste valutazioni vengono date a caso da acquirenti ignari delle conseguenze e non di rado frutto dell’isteria del singolo individuo per 2 giorni di ritardo, 15 foto al posto di 10, una descrizione più accurata, risposte più veloci e quant'altro.
Basti dire che circa l’80% dei ritardi è da attribuire alle poste italiane, piuttosto che al venditore che spedisce il pacco.
Spesso i compratori considerano solamente il tempo totale della spedizione in sè, tralasciando, per esempio, la qualità dell’imballaggio.
Il feedback consiste inoltre anche nel lasciare un commento di pochi caratteri che descriva l’avvenuta compravendita.
Anche in questo caso, difficilmente si vedono commenti negativi anche se il cliente non è pienamente soddisfatto.
Questo è dovuto al fatto che il venditore dovrà lasciare a sua volta un feedback al compratore, e quindi si può facilmente creare una situazione del tipo “io ti valuto bene, perchè così tu valuterai bene me”.
Ad ogni modo questi giudizi sono inappellabili e, quali che siano, anche i più assurdi, sono fatti propri da eBay che subito mette in moto un meccanismo destinato a concludersi con il disastro finanziario del venditore improvvisamente privato del suo negozio.
Questo sistema di valutazione, al posto di combattere le truffe, le ha accentuate dando il là a feedback falsi distribuiti (in qualche modo) a truffatori in servizio permanente su eBay e valutazioni negative ai TopSeller terrorizzati per quello che potrebbe succedere ai loro account.
E qualche venditore professionale se le fabbrica anche in proprio.



REPUTAZIONE
L’insieme dei feedback ottenuti da ogni utente di eBay, crea una vera e propria reputazione per ogni account.
La prima cosa che un compratore guarda, sono i feedback del venditore.
Se un utente ha un’alta percentuale di feedback negativi, o un basso numero di feedback raccolti, è molto facile che venga evitato, in quanto non è garantita la sua affidabilità.
Viceversa, un venditore che ha decine di migliaia di feedback, magari positivi a più del 99% avrà una reputazione decisamente migliore e per lui sarà più facile vendere prodotti.


CASI NOTI
Le nuove regole della piattaforma furono introdotte ufficialmente il 18 febbraio 2008 e ciò portò anche ad uno sciopero generale dei venditori su eBay (per molti ovviamente è un vero e proprio valore).
Vi furono adesioni da quasi tutto il mondo ma la cosa non produsse risultati ed il nuovo corso di Donahoe iniziò da subito a fare vittime in tutto il mondo.
In Europa il primo TopSeller a farne le spese fu il tedesco "weisse-villa".
All’epoca era il più grande PowerSeller della rete, su eBay dal 2003 aveva all’attivo 165.175 transazioni e 128.047 feedback.
Quattro negativi nell’ultimo mese gli distrussero le stelline innestando la procedura di espulsione.
In Italia la decimazione iniziò appena applicate le nuove regole e da allora non si è più fermata: centinaia di venditori professionali da anni su eBay, con punteggi di feedback vicinissimi al 100% e con alle spalle migliaia di transazioni felicemente concluse, istantaneamente abbattuti da tre o quattro giudizi negativi ricevuti nell’ultimo mese.
Altri casi famosi furono: "Impero-Accessori" chiusa per 300 valutazioni inferiori al 3 su oltre 49.000 totali.
E "the_absolute_store" per 80 voti inferiori a 3 su oltre 28.000".
Molti altri ci lasciarono la pelle anche per 3 giudizi neutri in 1 mese.
Alla fine di quel 2008 una ex Top Account Manager di eBay raccontò ad AuctionBytes: “Una delle questioni più inquietanti che ho incontrato mentre lavoravo su eBay era come alcuni venditori eBay fossero impegnati in tattiche subdole e sleali per sostenere la loro attività di vendita sul sito.
Invece di spendere il loro tempo per crescere con modi nuovi e creativi, per commercializzare i loro prodotti e promuovere i loro annunci, molti venditori adottarono la loro primaria tattica di marketing nel cercare di far sospendere il maggior numero dei loro concorrenti .
Alcuni di loro passano ore e ore alla ricerca degli annunci dei rivali sottolineando le violazioni da riferire, e di tanto in tanto ci chiedono di sottoporre tali relazioni per loro conto.
Un venditore molto grande aveva creato un programma che riportava automaticamente centinaia di inserzioni di un venditore ogni pochi secondi, per essere in grado di abbattere l’intero stock di molti dei suoi concorrenti in un giorno o anche meno, a volte per una cosa semplice come un parola chiave persa in una descrizione dell’oggetto che non si riferiva al 100% allo stesso oggetto in vendita".


EBAY IN TRIBUNALE
Tante furono le reazioni dei venditori tra scioperi generali ed altre proteste ma tutte a vuoto, sino a quella del venditore professionale "clalav" che, sospeso per decine di feedback negativi di ritorsione ricevuti in pochi giorni, portò eBay in Tribunale davanti al Giudice di Pace.
La controversia si concluse, su richiesta di eBay, con la riammissione dell’account ed un risarcimento rimasto segreto per specifica clausola inserita nell’accordo.
Ma questa sconfitta non modificò in nulla l’applicazione delle nuove regole che continuarono a falciare impunemente PowerSeller sino ai primi del 2010 quando vittima ne divenne "www_arcapelsrl_it".
Società di import-export, su eBay TopSeller con migliaia di feedback positivi al 99,6%, "Arcapel" reagì immediatamente: sospeso il 13 Gennaio 2010, citò subito eBay con procedura d’urgenza ordinando la comparizione delle parti innanzi al Giudice Orifici che il successivo 7 luglio sentenziò la riammissione dell’account www_arcapelsrl_it, accollando ad eBay tutte le spese di giudizio.
Due anni dopo la vicenda Arcapel, un altro PowerSeller, "clotec_com", reagì all’espulsione per le vie legali invocando la procedura d’urgenza.
La richiesta venne in prima istanza rigettata ma in seguito a ricorso accettata ed anche in questo caso eBay ne uscì sconfitta in seguito ad una sentenza che ribadì ed ampliò le conclusioni del Giudice della vicenda Aracapel.


MODIFICHE REGOLE VALUTAZIONI E FEEDBACK 2014
Nel mese di agosto 2014 sono entrate in vigore alcune modifiche alle norme per i venditori eBay e nuove misurazioni delle perfomances.
L’ultimo aggiornamento di eBay si basa sulla identificazione di ciò che è importante per gli acquirenti e che influenza la loro decisione di acquistare di nuovo.
Le aree a cui assegnare le stelline sono sempre le stesse quindi i quattro requisiti continuano ad essere validi, ma sono stati revisionati e sostituiti da una metrica definita “tasso di difetto”.

I difetti sono:
Voti 1, 2, 3 per la voce Oggetto conforme alla descrizione
Voti 1 per la voce tempi di spedizione
Feedback negativi o neutri
Controversie aperte per articolo non ricevuto o per oggetto diverso dalla descrizione
Transazione annullata dal venditore, soprattutto in caso di oggetto non disponibile, o venduto ad altro acquirente

eBay ha cercato di bilanciare al meglio le valutazioni del venditore, ad esempio le valutazioni sulla comunicazione e sulla spedizione impattano meno sulla decisione dell’acquirente di continuare a comprare, mentre possono essere un utile indicatore per migliorare la soddisfazione complessiva del cliente.
Invece descrizioni imprecise, controversie per oggetti non conformi, annullamenti per oggetti non disponibili, riducono di molto la propensione a tornare sulla piattaforma da parte del consumatore.
I venditori devono rimanere in alto nelle valutazioni complessive dei loro clienti su tutti gli aspetti della vendita.

Altri punti focali sono:
Risposte tempestive alle questioni che può porre il cliente durante la vendita e nel post vendita.
Azioni immediatamente nei confronti di feedback negativi e neutri.
A questo proposito, la percentuale di feedback negativi o neutri continua ad essere mostrata, ma il feedback negativo o neutro non viene considerato un difetto se viene rimosso secondo le Regole per la rimozione del Feedback.
E’ anche importante che il venditore segnali immediatamente il feedback che ritiene ingiusto.
I difetti vengono misurati una sola volta per ogni transazione e la misurazione confronta le transazioni che non hanno difetti con quelle che ne hanno.
Più si vende, meno le transazioni con difetti, incideranno sullo standard del venditore.
Inoltre eBay considera un margine di tolleranza nel caso in cui qualcosa vada storto e soprattutto considera che se il cliente non lascia il feedback ogni cosa sia andata per il verso migliore ed è quindi una transazione positiva.


LIVELLI
Da premettere che: se hai completato più di 400 transazioni negli ultimi tre mesi, il periodo di valutazione sarà di tre mesi.
Se hai completato meno di 400 transazioni negli ultimi tre mesi, il periodo di valutazione sarà di un anno.
Riguardo la valutazione:
Se i difetti sono inferiori al 2% acquisisci la valutazione Top Rated Seller.
Se i difetti superano il 5% sei sotto lo standard con conseguenze dirette e negative sul tuo listing e la visibilità dei tuoi prodotti.
Il tasso di difetto è  invisibile ai compratori, ma il venditore può controllarlo continuamente dal proprio Status del Venditore.
I venditori con basso tasso di difetto sono premiati con un miglioramento della posizione nei risultati di ricerca esposti da Best Match.
Migliore è la tua posizione su Best Match più sale il tuo tasso di conversione.


CONCLUSIONI
Al di là di queste modifiche che hanno reso il tutto più aequo, il consiglio è sempre quello di contattare il venditore prima di valutare negativamente la transazione.
Se il tutto invece va a buon fine assegnare le 5 stelle, chiudendo un occhio per eventuali ritardi ed altre cose di piccolo conto che spesso non dipendono dal venditore.
Dunque assegnare un feedback neutro, negativo e meno di 5 stelle solo se si è costretti da gravi inadempienze da parte del venditore (quali mancate risposte dopo l'oggetto non pervenuto o spedizione di oggetti diversi, anche se in questo caso lo si può sempre contattare ed informarlo dell'errore. Nel caso decida di cambiarvelo e rispedire a sue spese perchè non perdonarlo?).

Bram Cohen e La Rivoluzione BitTorrent

"In termini di lavoro, ho sempre avuto un brutto atteggiamento, nel senso che non lavorerei mai in un posto dove mi viene richiesto di seguire orari di lavoro rigidi o seguire un codice di abbigliamento"


Bram Cohen, fondatore di CodeCon (incontri tra Hacker in California), ha iniziato a lavorare su BitTorrent nel 2001.
Dopo il rilascio di questa nuova tecnologia nell´estate del 2001, essa si diffuse fino a diventare uno dei metodi più autorevoli di distribuzione di file, in particolare tra i prodotti open source come Linux.
Il suo obiettivo era riuscire a creare un protocollo P2P che desse agli utenti la possibilità di scaricare file in maniera veloce e sicura, premiando quegli utenti che mantengono in condivisione i file anche dopo aver terminato il download.
La natura decentrata di BitTorrent permette ad un utente o una società di condividere i propri files senza bisogno di preoccuparsi di esigenze di larghezza di banda.
Ogni “client” che scarica un file dalla rete dona parte della propria banda (velocità) che, se sommata con tutti gli altri utilizzatori del software, facilita un bel po´ le cose.
Rendendo molto più veloce questo tipo di tecnologie.
Il client originario è chiamato BitTorrent.
Il più utilizzato, però, è µTorrent, client molto leggero e versatile (funziona sia su computer Windows che computer Macintosh).


CHUNKS E TIPOLOGIA DI UTENTI: PIU' VELOCITA' PER TUTTI
Il download prende avvio grazie ai file Torrent, ovvero file che contengono le informazioni necessarie per riuscire a connettersi alla rete di utenti Seed e Peer che condividono il file “ricercato”.
Il protocollo permette di scaricare il file contemporaneamente da più utenti, così da massimizzare la velocità di download.
Per fare questo, il file viene suddiviso in tante piccole parti (Chunks) scaricate da fonti diverse e poi rimesse assieme dal client BitTorrent utilizzato.
Un file di 50 mega potrebbe essere spezzettato in 25 parti da 2 mega l'una (per rendere l'idea).

Il protocollo si appoggia su una rete distribuita, nella quale come accennato prima gli utenti si distinguono in:
1) Seed
2) Peer
3) Leech

Il Seed è l’utente che possiede per intero il file e continua a condividerlo in rete.
Il Peer è l’utente che non possiede ancora il file completo ma condivide ugualmente in rete i pezzi che ha già scaricato.
Il Leech è colui che scarica solamente, non condividendo con nessuno i suoi file.


TRACKER
Invece quando si parla di Tracker, ci si riferisce ad un server in cui sono memorizzate numerose informazioni di carattere tecnico: tiene conto periodicamente in una tabella detta DHT (Distribuited Hash Table), di quanti e quali sono i Peer collegati ad un preciso Torrent e le relative informazioni sulla velocità, la frequenza di upload e download, lo stato di aggiornamento del Tracker etc
Ad ogni Torrent è associato il proprio Tracker: tanti files sono in download, tanti saranno i Trackers esistenti.
Ogni client deve collegarsi al Tracker periodicamente con lo scopo di scaricare o aggiornare la lista degli utenti che possiedono il file o parte di esso.
Dopo di che, le comunicazioni tra i vari client non avvengono con l’utilizzo di server (come avviene invece in eMule) ma in maniera diretta.
In questo modo è possibile raggiungere un numero molto superiore di fonti e ottenere una velocità di download imparagonabile.
Infatti a differenza di eMule, BitTorrent non usa alcun sistema di crediti e di code, ma crea contatti diretti tra i Peer.
Questo permette a BitTorrent di raggiungere velocità di download in costante aumento durante tutta la fase di scambio, raggiungendo velocità medie di molto superiori a quelle di eMule.
L’unico pregio di eMule, essendo fortemente legato ai server, è la presenza di un sistema di ricerca interno al programma.


OCCHIO AI FILES ILLEGALI
Ovviamente bisogna fare attenzione a ciò che si scarica perchè tra files legali ce ne sono moltissimi anche protetti da diritto d'autore quindi assolutamente illegali.
Negli anni, MPAA e RIAA che lottano contro la pirateria (a favore delle case discografiche) hanno portato avanti diverse campagne per sensibilizzare gli utenti all’acquisto di prodotti originali e scoraggiare il download di file protetti da copyright.
Nel contempo, portavano avanti anche battaglie legali contro provider e tracker Torrent.
La più celebre è quella condotta contro il Tracker svedese Pirate Bay.

Douglas Engelbart e L' oN Line System: NLS (1968)

Douglas Engelbart (precursore di mouse, interfacce grafiche, finestre multiple, testo formattato, terminali virtuali e reti di computer) allo Stanford Research Institute (SRI) di Menlo Park costituì un laboratorio di ricerca denominato “Augmentation Research Center” (ARC).
Molte di queste idee, come vedremo, confluiranno nel computer Xerox Alto (distaccato da questo progetto comunque) nel 1973 (anticipando di una decina di anni sia Microsoft che Apple, contrariamente a quanto si crede).
Tornando ad Engelbart, il suo intento era quello di "incrementare" l’intelletto umano, mediante strumenti basati su computer che migliorassero la conoscenza dal punto percettivo e motorio, per meglio gestire i problemi connessi ad una sua ricerca.
Egli mise a punto moltissime innovazioni, che oggi fanno parte integrante dello standard dei computer moderni: le interfacce utente multifinestra, il mouse, la posta elettronica, la teleconferenza, e appunto l’ipermedia.


ON LINE SYSTEM
Il programma di ricerca di Engelbart culminò nel 1968 con la creazione di NLS (oN Line System), un sistema di navigazione (rete di computer) per quanto riguarda strutture ipertestuali di documenti.
Per facilitare l’uso di NLS, Engelbart utilizzò molte idee per le quali oggi viene ricordato, come l’interfaccia video multifinestra e il mouse.
Secondo la sua visione, NLS era un portale che permetteva ad un individuo l’accesso al laboratorio di conoscenza accresciuta (“Augmented Knowledge Workshop”).
In poche parole si trattava di un luogo virtuale dove egli conservava tutti i propri dati e strumenti intellettuali e culturali.
L’8 dicembre 1968, durante la FJCC (Fall Joint Computer Conference) Engelbart diede una spettacolare dimostrazione di NLS che fece scalpore, in quanto mostrò il sistema utilizzando tutte le innovazioni che aveva messo a punto, in un epoca in cui la maggior parte delle interazioni degli utenti con i computer erano tramite telescrivente.
Ogni computer del NLS comprendeva un monitor di grandi dimensioni, un mouse a tre bottoni e un dispositivo chiamato tastierino ad “accordi”.
Lo SRI fu inserito fra i primi nodi che avrebbero costituito la neonata rete ARPANET, e fin dal 1967 venne deciso che il suo laboratorio (ARC) avrebbe avuto la funzione di Network Information Center (NIC), ossia avrebbe dovuto costituire la “biblioteca” di ARPANET, dove tutti i documenti relativi avrebbero dovuto risiedere, e funzionare da centro di distribuzione della documentazione.
Nel 1969, il SDS 940 del suo laboratorio fu il secondo computer connesso alla rete, subito dopo la Università della California di Los Angeles (UCLA) dove era situato il Network Measurement Center.
Tutti i documenti relativi allo sviluppo della rete vennero memorizzati nel suo oN Line System, ed erano ovviamente consultabili via ARPAnet.
Fino verso la metà degli anni ’70, il suo laboratorio funzionò effettivamente come Network Information Center di ARPAnet.


LA DIFFICOLTA' NELL'UTILIZZO
Poco dopo comunque, nel 1971, gran parte dei ricercatori aveva cominciato a lasciarlo e gli sponsor a smettere di sovvenzionarlo.
NLS era molto potente, ma non particolarmente semplice da utilizzare.
Inoltre, nonostante l’utilizzo del mouse, non aveva un’interfaccia utente semplice, e richiedeva l’uso di codici mnemonici molto criptici.
Ciononostante, l’eredità dell’ARC continuò a vivere: molti dei ricercatori che si erano fatti le ossa all’ARC si ritrovarono poi allo Xerox PARC, trasferendo nel progetto che porterà alla creazione dello Xerox Alto gran parte delle idee sviluppate dal progetto di Engelbart.
Nel 1977 lo SRI vendette l’intero progetto alla Tymshare, una società di servizi di telecomunicazione.
Alcuni concetti "full-interaction" del NLS "vivono" anche nella tecnologia moderna, tra cui l'Hyperwords add-on di Mozilla Firefox.
Quanto ad Engelbart: morì all'età di 88 anni, nel 2013.

martedì 7 giugno 2016

Aspen Movie Map e La Prima Mappa Interattiva Della Storia (1978)

Aspen Movie Map è la prima mappa interattiva della storia, anticipando di una trentina di anni Google Street View.
Nel 1978, Andrew Lippman del MIT, fu a capo di un team di ricercatori che svilupparono un sistema ipermediale che aveva molti punti in comune con la realtà virtuale.
Esso permetteva agli utenti una passeggiata virtuale ed interattiva attraverso la città di Aspen (Colorado).
Tramite quattro telecamere (e uno giroscopio), montate su un furgone e puntate in differenti direzioni (posteriore, anteriore e laterale), erano state effettuate riprese per tutta la città di Aspen dalle 10 AM alle 2 PM (affinchè anche l'illuminazione fosse realistica) e sia in autunno che in inverno.
A queste riprese erano state aggiunte migliaia d’immagini fisse, frammenti audio e una grande mole di dati in diversi punti di Aspen e il tutto era stato inciso su dischi ottici di tipo laserdisc.
Il sistema consisteva in un computer con due grandi schermi touch-screen a cui erano stati collegati diversi laserdisc.
Un monitor mostrava le immagini delle riprese, mentre sull'altro era mostrata una mappa delle strade di Aspen, indicando la posizione corrente.
L’utente poteva scegliere, tramite la pressione del dito sui vari bottoni che apparivano sovraimposti alle immagini sullo schermo, diversi percorsi predefiniti, e di spostarsi dall’uno all’altro tramite collegamenti.
I bottoni permettevano movimenti in 2D (laterali e in avanti/indietro).
Inoltre, premendo un punto della mappa, si era istantaneamente trasportati nel punto corrispondente. In certi punti, come di fronte ad alcuni edifici principali di Aspen, l’utente poteva addirittura entrare all'interno (gli edifici erano rigorosamente in 3D).
Insomma si trattava di una mappa multimediale e navigabile che anticipò di una trentina d'anni non solo le mappe di Google ma anche la realtà virtuale.

Bush e La Macchina Ipertestuale Memex: As We May Think (1945)

Già in “As We May Think” (anno 1945) l'ingegnere americano Vannevar Bush, si parlava di dati organizzati in ordine alfabetico o comunque strutturati in modo rigido.
In realtà queste idee gli erano venute in mente una decina di anni prima.
Nel suo scritto Bush propone di realizzare una calcolatore analogico o come meglio dire una macchina ipertestuale chiamata Memex (Memory Expansion), dotata di un sistema di archiviazione in microfilm (supporto analogico in pellicola) più o meno come le nostre odierne memorie di massa (il funzionamento è quello) che consentisse di inserire pagine di libri e documenti riproducendoli ed associandoli tra loro.
Il Memex avrebbe risolto la difficile reperibilità di libri ed informazioni vista la mal-organizzazione delle biblioteche, permettendo quindi di collegare i vari segmenti di informazione tramite libere associazioni, in modo analogo a quanto accade dentro alla mente umana.

“La mente umana opera in modo associativo. Avendo afferrato un concetto, essa salta istantaneamente al prossimo che viene suggerito dall’associazione di idee, in accordo con qualche intricata ragnatela di percorsi tracciata dalle cellule del cervello”

E proprio per emulare in modo meccanico questo tipo di funzionamento, Bush concepì e propose il Memex: più precisamente un dispositivo a forma di scrivania sul cui piano vi sono schermi su cui possono essere proiettati i microfilm.
Il tutto con una una tastiera, un insieme di leve e bottoni.
All’interno della scrivania vi è un sistema elettromeccanico che può gestire in modo automatico una libreria che memorizza milioni di pagine d’informazioni sotto forma di microfilm.
Le informazioni possono essere rapidamente richiamate tramite chiavi di ricerca, che operano sul sistema meccanico di libreria per proiettare sullo schermo le immagini contenenti le informazioni volute.
Esso permette all’utente di costruirsi un percorso personalizzato di consultazione, mediante associazioni che possono essere stabilite fra le informazioni.
Nel suo articolo, Bush illustrò ed esemplificò il concetto di ipertesto, con pagine che l’utente può navigare spostandosi dall’una all’altra seguendo collegamenti che associano punti di una pagina a punti su altre pagine “semplicemente premendo un bottone sotto il codice corrispondente”.
Per gestire questa massa d’informazioni, Bush non riusciva ancora a pensare ad un computer.
L’ENIAC, il primo elaboratore elettronico, veniva completato in quegli anni ma all’epoca non era ancora lontanamente pensabile che un dispositivo di quel genere potesse diventare sufficientemente affidabile e soprattutto poco costoso tanto da diventare uno strumento personale.
Bush auspicava comunque  un mondo in cui esisteva uno strumento a disposizione dell’uomo, utilizzato per archiviare informazioni, connetterle fra loro in strutture metatestuali e ipertestuali, ed estrarne analisi e sintesi che costituiscano risposte alle domande che l’uomo si pone.
In poche parole, senza saperlo, Bush anticipò non solo i collegamenti ipertestuali ma anche i computer e gli odierni motori di ricerca.

lunedì 6 giugno 2016

Ted Nelson, Il Progetto Xanadu e L'Ipetertesto (1967)

"La maggior parte delle persone sono matte, quasi tutte le autorità sono malvagie. 
Dio non esiste ed ogni cosa è sbagliata"


Il concetto di ipertesto poi diffusosi con l'avvento d'Internet a fine anni 80 e soprattutto nei 90 sembra un qualcosa di relativamente recente ma non è così.
Basti dire che già nel 1967 Ted Nelson ne parlava anticipando di molto la rivoluzione che ci sarà nei 90:  "l'ipertesto è la combinazione di un testo in linguaggio naturale con la capacità del computer di seguire interattivamente, visualizzandole in modo dinamico, le diverse ramificazioni di un testo non lineare, che non può essere stampato convenientemente con un impaginazione tradizionale".
Ma cos'è un ipertesto? E' un insieme di documenti che possano essere letti in modo non sequenziale, saltando da un punto all'altro per mezzo di parole chiave.
Insomma, anche se chi non è del campo non sa cos'è, viene usato tutti i giorni.


PROGETTO XANADU
Nelson intendeva creare un sistema/software per l'organizzazione di documenti interconnessi, in poche parole una rete globale per l'interscambio e la condivisione di testi ed informazioni, una sorta di "World Wide Web" degli anni 60/70.
Egli inoltre dichiarava la sua totale adesione alla visione del Memex di Bush (calcolatore con un sistema di archiviazione interno, anche se mai realizzato) e descriveva un sistema di strutturazione dei files dati chiamato ELF (Evolutionary List File) che rifletteva proprio l’organizzazione ipertestuale.
Nello schema di Xanadu, un database di documenti universale (docuverse) avrebbe permesso l’indirizzamento di qualsiasi frammento di qualsiasi documento.
In più Xanadu avrebbe mantenuto ogni versione di ogni documento
Nasceva in linea teorica il progetto Xanadu, ovvero un software che avrebbe dovuto gestire una rete di calcolatori estesa a tutto il pianeta e destinata all'archiviazione di testi e documenti:

"sotto la guida di idee che non sono tecniche ma letterarie stiamo implementando un sistema per la memorizzazione e il reperimento di testi collegati tra loro e visibili in finestre" ed ancora “siamo alla ricerca di metodi che ci consentano di manipolare, sempre che riusciamo a scoprire come definirla, la vera struttura di un testo. Ciò che noi forniremo è un servizio per immagazzinare e reperire porzioni arbitrarie di questa vera struttura. La struttura di cui stiamo parlando è la letteratura"
L'idea era quella di realizzare, servendosi della tecnologia, di un qualcosa che catalogasse o come meglio dire collegasse qualsiasi opera (letteraria o meno).
Come si sarà capito l'approccio di Nelson era più che altro teorico e solo in parte pratico.
In ogni caso il sistema si sarebbe dovuto sviluppare su due livelli: il piano dell'archiviazione logica e il piano dell'utente.
Il piano dell'archiviazione logica doveva rappresentare dati finali e collegamenti, cioè le collocazioni fisiche e gli indirizzi interni.
Il piano dell'utente invece il testo lineare e l'ipertesto.
L'ipertesto si sarebbe dovuto presentare come un documento a finestre e dunque attraverso una citazione esplicita o implicita è possibile approdare al testo cui si riferisce.
Xanadu nell'idee era quindi un sistema di ricomposizione ed archiviazione di materiali e documenti.
La ricomposizione però non altera l'integrità dei documenti di partenza, perché essa avviene esclusivamente attraverso indici, dunque, con Xanadu qualunque porzione di un qualsiasi lavoro può essere annotata, copiata, modificata senza che si perda il collegamento con la versione originale.
Quindi tutti i documenti risiedono su Xanadu, protetti dagli sguardi altrui finché l'autore non decide di renderli pubblici, cioè disponibili sull'intera rete.
Da qualsiasi documento si può passare a qualsiasi altro, seguendo qualsiasi tipo di associazione.
La scrittura avviene direttamente sul sistema, che salva ogni successiva versione del testo e che permette di citare qualsiasi altro documento presente sulla rete semplicemente aprendo una finestra ipertestuale su di esso.
Xanadu avrebbe dovuto implementare anche un meccanismo automatico di pagamento di diritti su tutti i documenti presenti nel docuverse.
Inoltre avrebbe dovuto esistere un meccanismo di “transclusione” che permettesse la citazione di un frammento di documento senza dover pagare diritti.


IL FALLIMENTO DEL PROGETTO
Xanadu rimarrà un progetto irrealizzato, da un lato a causa di una chiara carenza di tecnologie e conoscenze adeguate, dall'altro a causa dei limiti dello stesso Nelson (non certo un programmatore).
Nel 1994 decadrà per decisione dell'Autodesk, la società di software che ne ha finanziato le ricerche dalla seconda metà degli anni Ottanta.
Questo progetto, almeno sino al 1998, non giungerà mai a concretizzarsi.
Malgrado tutto le idee di Nelson, pur non portando direttamente a nulla di concreto sino agli anni 90, hanno avuto il merito di precorrere i tempi e fornire l'ispirazione per quella che diventerà "la grande rete".

Anche se Nelson non è mai stato d'accordo:
"L'HTML è esattamente ciò che volevamo evitare. Collegamenti che portano solo avanti, non puoi risalire alla fonte delle citazioni, non c'è una gestione delle versioni, non c'è una gestione dei permessi"