Visualizzazione post con etichetta Tecnologia. Mostra tutti i post
FAT, FAT32, NTFS e exFAT: quale file system scegliere, le principali differenze
Quando formattiamo
un'unità di memoria (come hard disk, chiavette o memory card) oltre ad andare a
cancellare ogni file memorizzato, possiamo anche determinare con quale
tipologia di file system deve essere, appunto, formattata l'unità.
Possiamo formattare
molto semplicemente qualsiasi un'unità andando in risorse del computer
("Questo PC") e facendo tasto destro, "Formatta...". A
questo punto si aprirà la finestra per confermare l'operazione, dove è presente
anche il menu a tendina per selezionare il file system (se non si seleziona
nulla verrà proposto quello predefinito).
I più comuni file
system sono:
-FAT (molto vecchio)
-FAT32 (il più
diffuso e compatibile)
-NTFS (il più
recente)
-exFAT (l'unione tra
FAT32 e NTFS, ma poco utilizzato/compatibile)
Entriamo però nel
dettaglio, per capire con quale file system formattare la nostra unità ed il
migliore per le nostre esigenze. Teniamo presente comunque che in certe
circostanze, come le installazioni di alcuni sistemi operativi, potrebbe essere
necessario, in modo obbligatorio, formattare l'unità con un file system ben
preciso, inoltre tutte le dimensioni segnalate sono "teoriche", dato
che, a parte qualche dato certo, le varie valutazioni potrebbero variare da
unità a unità (ed essere bypassate con qualche programmino specifico).
1. FAT (FAT16): è
uno dei file system più vecchi (anni 1987-88) e con una compatibilità praticamente
massima. E' il predecessore del FAT32 e andrebbe utilizzato solo su unità di
memoria abbastanza piccole, a causa delle limitazioni (come la quantità di file
per cartella, la dimensione massima di un file, e la dimensione di una partizione).
CONSIGLIATO SU:
chiavette e memory card non più grandi di 2 GB.
2. FAT32: è nato con
Windows 95, per rimpiazzare il FAT16. E' compatibile con tutti i computer
Windows, Mac e Linux, con le console di gioco Xbox, PlayStation, con le TV, i
decoder, le autoradio, praticamente con qualsiasi device che dispone di un
ingresso USB.
La grande
limitazione è che però non supporta i file di dimensione superiore ai 4 GB,
quindi non si possono salvare file che hanno una dimensione superiore ai 4 GB,
inoltre (per il momento poco rilevante) non supporta partizioni più grandi di 8
TB teorici (circa 8.000 GB).
CONSIGLIATO SU:
chiavette, memory card, dispositivi con spazio uguale o inferiore agli 8 GB,
memorie da utilizzare su molti dispositivi.
3. NTFS: appare per
la prima volta con Windows XP dove la prima grande limitazione del FAT32 viene
innanzitutto superata. Con questo file system infatti si possono salvare file
più grandi di 4 GB e si possono avere partizioni superiori agli 8 TB (di fatto
le due limitazioni vengono completamente eliminate).
C'è una migliore
gestione dello spazio e meno frammentazione e si può avviare la funzione di
compressione file. Inoltre si possono aggiungere le autorizzazioni e protezioni
su singoli file e cartelle.
La grande
limitazione che invece colpisce NTFS è la poca compatibilità con i dispositivi,
sembrerebbe quasi pensato solo per Windows.
CONSIGLIATO SU: hard
disk, SSD, chiavette superiori agli 8 GB, dispositivi da utilizzare come
supporti di backup, unità di memoria dove si salvano file di grandi dimensioni.
4. exFAT (FAT64):
questo file system è l'unione tra FAT32 e NTFS. Purtroppo sembra che alcuni
dispositivi, sia più obsoleti che recenti, non riescano a riconoscerlo,
comunque è compatibile con la maggior parte dei device. Ha fatto il suo
ingresso con Windows Vista e successivamente negli altri sistemi.
Non presenta
praticamente alcuna limitazione (numero di file, dimensioni, partizioni) e ha
ottime prestazioni.
CONSIGLIATO SU: è
ancora da valutare, però su hard disk o unità di memoria di grosse dimensioni, o
comunque di archiviazione/backup, è preferibile utilizzare ancora NTFS. Per le altre
unità invece si potrebbe iniziare a provare questo file system.
Commodore: il marchio rinasce con uno smartphone per gamers, tutte le caratteristiche e dove comprarlo
Commodore è da sempre un marchio storico, rimasto un po' bloccato come simbolo dei videogiochi "antichi" ma anche di tutti quei videogiochi nati prima degli anni '90, che ruotavano intorno agli 8 bit.
Comunque vada non si può parlare di Commodore senza passare ai videogiochi, perchè ovunque porti la discussione il noto marchio rimane comunque sinonimo di videogames.
Se quindi Commodore avesse vissuto i suoi anni migliori nel ventunesimo secolo, o più che altro diciamo dal 2000 al 2010, farebbe ancora sicuramente parte delle nostre console preferite, ma dato che dal 2010 in poi stanno prendendo piede sempre più i videogiochi sulle console portatili e soprattutto sugli smartphone, Commodore allora farebbe parte di almeno di uno di questi.
Ecco quindi l'idea: unire questi due device e trasformare il marchio Commodore da "semplice" console a smartphone così potente da sembrare una console portatile.
Ed è proprio con questa idea che i due italiani, Massimo Canigiani e Carlo Scattolini, hanno deciso di rilanciare il marchio, dopo averlo registrato nel 2013, dopo anni e anni di passaggi di mano e idee fallimentari continue.
Lo smarphone ha preso il nome di Commodore PET, ispirandosi allo storico computer che aveva preceduto il Commodore 64 e il Commodore Amiga. E a proposito di questi due computer, lo smartphone porta con se (preinstallati) due emulatori per supportare i vecchi giochi utilizzati su quelle due macchine, il primo è il VICE C64 emulator e il secondo è Uae4All2-SDL Amiga emulator, tutto molto semplice grazie al sistema operativo Android 5.
Ma passiamo alle caratteristiche, punto forte di questo smartphone, soprattutto perchè è in grado di supportare non solo vecchi giochi (che sarebbe stato un po' limitato oltre che insensato, a parte per gli amanti del rétro) ma anche videogiochi attuali e futuri che hanno bisogno di hardware molto potente.
Lo smartphone Commodore PET è dual SIM, con connessione 4G, e dispone di:
-Sistema operativo: Android 5.0 Lollipop
-Schermo: 5,5 pollici IPS (Full HD)
-Processore: Mediatek octa-core a 64-bit da 1.7 GHz
-Scheda grafica: AMD Mali T760
-Memoria: 32GB
-Slot di espansione (MicroSD): fino a 64 GB (una MicroSD da 32 GB è inclusa)
-RAM: 3 GB
-Fotocamera: Sony 13 MP (foto da 4096×2304 e filmati da 1920×1080 pixel)
-Fotocamera anteriore: da 8 MP
-Batteria: da 3000 mAh (rimovibile)
Il Commodore PET è in vendita sul sito ufficiale al prezzo lancio di 349€ in due versioni che si differenziano per il colore.
Comunque vada non si può parlare di Commodore senza passare ai videogiochi, perchè ovunque porti la discussione il noto marchio rimane comunque sinonimo di videogames.
Se quindi Commodore avesse vissuto i suoi anni migliori nel ventunesimo secolo, o più che altro diciamo dal 2000 al 2010, farebbe ancora sicuramente parte delle nostre console preferite, ma dato che dal 2010 in poi stanno prendendo piede sempre più i videogiochi sulle console portatili e soprattutto sugli smartphone, Commodore allora farebbe parte di almeno di uno di questi.
Ecco quindi l'idea: unire questi due device e trasformare il marchio Commodore da "semplice" console a smartphone così potente da sembrare una console portatile.
Ed è proprio con questa idea che i due italiani, Massimo Canigiani e Carlo Scattolini, hanno deciso di rilanciare il marchio, dopo averlo registrato nel 2013, dopo anni e anni di passaggi di mano e idee fallimentari continue.
Lo smarphone ha preso il nome di Commodore PET, ispirandosi allo storico computer che aveva preceduto il Commodore 64 e il Commodore Amiga. E a proposito di questi due computer, lo smartphone porta con se (preinstallati) due emulatori per supportare i vecchi giochi utilizzati su quelle due macchine, il primo è il VICE C64 emulator e il secondo è Uae4All2-SDL Amiga emulator, tutto molto semplice grazie al sistema operativo Android 5.
Ma passiamo alle caratteristiche, punto forte di questo smartphone, soprattutto perchè è in grado di supportare non solo vecchi giochi (che sarebbe stato un po' limitato oltre che insensato, a parte per gli amanti del rétro) ma anche videogiochi attuali e futuri che hanno bisogno di hardware molto potente.
Lo smartphone Commodore PET è dual SIM, con connessione 4G, e dispone di:
-Sistema operativo: Android 5.0 Lollipop
-Schermo: 5,5 pollici IPS (Full HD)
-Processore: Mediatek octa-core a 64-bit da 1.7 GHz
-Scheda grafica: AMD Mali T760
-Memoria: 32GB
-Slot di espansione (MicroSD): fino a 64 GB (una MicroSD da 32 GB è inclusa)
-RAM: 3 GB
-Fotocamera: Sony 13 MP (foto da 4096×2304 e filmati da 1920×1080 pixel)
-Fotocamera anteriore: da 8 MP
-Batteria: da 3000 mAh (rimovibile)
Il Commodore PET è in vendita sul sito ufficiale al prezzo lancio di 349€ in due versioni che si differenziano per il colore.
Confrontare due Processori, due Schede Video oppure due SSD in modo dettagliato
Se dobbiamo cambiare un componente del nostro PC conviene andare a controllare almeno se il pezzo che andremo a montare è migliore di quello che abbiamo già.
La parte più importante per l'uso quotidiano è sicuramente la CPU, ma se invece utilizziamo il computer per giocare ai videogame non possiamo tralasciare la scheda video. In aggiunta si può anche puntare su un disco fisso di ultima generazione, ovvero un SSD, così da aver il computer veramente molto veloce. Esistono 3 siti che fanno proprio al caso nostro e permettono di confrontare velocemente i vari modelli e marche di processori (CPU), di schede video (GPU) e di unità a stato solido (SSD).
1. CPUBoss: grazie a questo tool è possibile confrontare tra di loro i diversi modelli di processori in commercio, così da poter scegliere il migliore o quello che più fa al caso nostro. La ricerca ci aiuta dandoci i nomi dei modelli interi e una volta effettuata la comparazione si può vedere molto semplicemente qual è il migliore dei due. Oltre ad una valutazione generale ci sono molte altre informazioni, come la data di rilascio, il prezzo, la velocità, i core, e soprattutto si può fare una vero e proprio confronto tra i due modelli vedendo le differenze in una pratica tabella.
I punti fondamentali da osservare sono:
-il punteggio ottenuto nelle performance (un punteggio generale)
-la frequenza massima (più alta è migliore)
-il numero di core e di thread (più sono meglio è)
-il consumo di energia (in genere un più basso consumo permette di scaldare meno);
Se non si dovesse conoscere un altro modello oltre a quello che si possiede, è possibile anche vedere una classifica generale cliccando su "SORT" (nella barra) e vedere anche chi sta al primo posto in quel momento, con anche altre classifiche distribuite per caratteristiche.
2. GPUBoss: identico al sito fratello, mostra le differenze tra due schede video. I test sono stati fatti sia durante l'utilizzo normale del PC sia durante lo svolgimento di un videogioco pesante.
Le cose fondamentali da valutare sono:
-il passmark (una valutazione generale)
-la velocità di clock (più è alta meglio è)
-la quantità di memoria (con più memoria è migliore)
-il tipo di memoria (il DDR più recente è meglio)
-la potenza (solitamente con meno potenza non richiede un alimentatore più potente del normale)
-in generale tutti i valori grafici (con particolare attenzione ai valori di shading e texture);
Anche in questo caso è possibile vedere una classifica delle migliori GPU cliccando sempre su SORT.
3. SSDBoss: come è noto un disco a stato solido (SSD) è migliore di un hard disk, ma con questo terzo sito è possibile confrontare tra di loro i vari modelli. Non è così importante come gli altri due tools, ma è comunque utile per poter scegliere quale modello comprare tra due dischi, e osservare da cima a fondo tutte le caratteristiche del modello scelto.
Dato che non ci sono molte cose da confrontare i valori che possono risultare utili sono:
-la capienza e il prezzo
-la velocità di lettura e scrittura (anche quella di lettura di un video 4K)
-il tempo di avvio di Windows
-il peso e i consumi
-il tempo di vita garantito "MTBF" (il tempo garantito prima di un possibile guasto)
Cliccando su SORT verranno mostrati anche qui i migliori SSD.
La parte più importante per l'uso quotidiano è sicuramente la CPU, ma se invece utilizziamo il computer per giocare ai videogame non possiamo tralasciare la scheda video. In aggiunta si può anche puntare su un disco fisso di ultima generazione, ovvero un SSD, così da aver il computer veramente molto veloce. Esistono 3 siti che fanno proprio al caso nostro e permettono di confrontare velocemente i vari modelli e marche di processori (CPU), di schede video (GPU) e di unità a stato solido (SSD).
1. CPUBoss: grazie a questo tool è possibile confrontare tra di loro i diversi modelli di processori in commercio, così da poter scegliere il migliore o quello che più fa al caso nostro. La ricerca ci aiuta dandoci i nomi dei modelli interi e una volta effettuata la comparazione si può vedere molto semplicemente qual è il migliore dei due. Oltre ad una valutazione generale ci sono molte altre informazioni, come la data di rilascio, il prezzo, la velocità, i core, e soprattutto si può fare una vero e proprio confronto tra i due modelli vedendo le differenze in una pratica tabella.
I punti fondamentali da osservare sono:
-il punteggio ottenuto nelle performance (un punteggio generale)
-la frequenza massima (più alta è migliore)
-il numero di core e di thread (più sono meglio è)
-il consumo di energia (in genere un più basso consumo permette di scaldare meno);
Se non si dovesse conoscere un altro modello oltre a quello che si possiede, è possibile anche vedere una classifica generale cliccando su "SORT" (nella barra) e vedere anche chi sta al primo posto in quel momento, con anche altre classifiche distribuite per caratteristiche.
2. GPUBoss: identico al sito fratello, mostra le differenze tra due schede video. I test sono stati fatti sia durante l'utilizzo normale del PC sia durante lo svolgimento di un videogioco pesante.
Le cose fondamentali da valutare sono:
-il passmark (una valutazione generale)
-la velocità di clock (più è alta meglio è)
-la quantità di memoria (con più memoria è migliore)
-il tipo di memoria (il DDR più recente è meglio)
-la potenza (solitamente con meno potenza non richiede un alimentatore più potente del normale)
-in generale tutti i valori grafici (con particolare attenzione ai valori di shading e texture);
Anche in questo caso è possibile vedere una classifica delle migliori GPU cliccando sempre su SORT.
3. SSDBoss: come è noto un disco a stato solido (SSD) è migliore di un hard disk, ma con questo terzo sito è possibile confrontare tra di loro i vari modelli. Non è così importante come gli altri due tools, ma è comunque utile per poter scegliere quale modello comprare tra due dischi, e osservare da cima a fondo tutte le caratteristiche del modello scelto.
Dato che non ci sono molte cose da confrontare i valori che possono risultare utili sono:
-la capienza e il prezzo
-la velocità di lettura e scrittura (anche quella di lettura di un video 4K)
-il tempo di avvio di Windows
-il peso e i consumi
-il tempo di vita garantito "MTBF" (il tempo garantito prima di un possibile guasto)
Cliccando su SORT verranno mostrati anche qui i migliori SSD.
Differenza tra Hard Disk e SSD: i 5 punti fondamentali da prendere in considerazione
Per iniziare a parlare di differenza tra Hard Disk Drive (HDD) e Solid-State Drive (SSD) dobbiamo iniziare con il parlare delle differenze di materiale con cui sono fatti e soprattutto del funzionamento base di queste due memorie.
Innanzitutto i normali hard disk sono dei piatti di metallo con rivestimento magnetico dove vengono memorizzati i dati da una testina, mentre gli SSD sono fatti dello stesso chip con cui viene costruita la memoria RAM (quindi con una velocità di lettura e scrittura molto più elevati).
Come è noto la memoria RAM allo spegnimento del PC viene completamente svuotata, per essere riempita velocemente con i programmi in funzione ad ogni nuova accensione, gli SSD invece hanno la capacità di mantenere i dati anche dopo lo spegnimento del computer, nonostante siano molto simili alle RAM.
La tecnologia utilizzata è quindi superiore sia ai dischi rigidi tradizionali (gli hard disk) sia alle memorie RAM, ma addirittura alle memorie flash, come ad esempio le chiavette USB, e si può dire che sia la vera è propria evoluzione di quest'ultime.
Ora possiamo vedere le caratteristiche che differenziano l'hard disk dall'SSD, e sostanzialmente andremo a vedere tutti i pro e i contro che possono far spostare la propria scelta da un normale disco fisso ad un SSD (unità a stato solido);
1. Velocità: l'SSD è molto più veloce del normale hard disk, quindi permette di far avviare un computer molto più velocemente, dato che sia la velocità in scrittura che in lettura è più rapida, permettendo così anche prestazioni migliori durante l'utilizzo.
2. Prezzo/GB: l'hard disk costa meno di un SSD di pari dimensioni. Per fare un esempio un HDD da 1 TB costa circa 50 euro, un SSD delle stesse dimensioni può arrivare a costare anche 400/500 euro. Sotto i termini di prezzo/dimensioni non ci si può spingere molto oltre, visto i prezzi troppo elevati, ma su un computer si può sempre acquistare un SSD di basse dimensioni per contenere il sistema operativo e i programmi base, e aggiungere un HDD capiente per tutto il resto.
3. Frammentazione: la frammentazione sugli SSD non esiste, ovvero quest'ultima esiste ma non è rilavante come su un normale hard disk. L'HDD è un piatto magnetico che gira in continuazione e viene letto da una testina. Quando un file è molto grande viene letto tutto in un colpo, se questo file non è frammentato, perchè quando il disco fisso inizia a riempirsi i file di grandi dimensioni possono "frammentarsi" ed essere quindi sparsi per tutto il disco; a questo punto la testina farà più fatica a leggere l'intero file, perchè deve cercare tutti i pezzi per il disco, e quindi sarà più lento (ecco perchè si fa la deframmentazione).
Negli SSD non esiste una testina perchè, proprio come sulle chiavette, i dati vengono memorizzati su dei chip di memoria, i quali vengono raggiunti tutti con la stessa velocità, e quindi la frammentazione non c'è, e di conseguenza non esistono neanche rallentamenti (la deframmentazione non andrebbe proprio fatta per evitare di "usurarlo" prematuramente).
4. Durata: un SSD non ha parti in movimento ed è più difficile che si rompa, mentre l'HDD essendo un piatto sempre in movimento ha più possibilità di rompersi. E' anche vero che se l'hard disk lo si tiene "fermo" durante l'utilizzo o non gli si fa prendere grossi scossoni i rischi vengono limitati; nei computer fissi i rischi diminuiscono ancora di più, mentre sui portatili è un po' più probabile, perchè molte volte li spostiamo anche mentre sono in funzione, aumentando i rischi di danneggiamento dell'HDD (anche se la vita media di un hard disk è superiore alle 100.000 ore, in funzione, prima che qualche parte si danneggi).
Gli SSD hanno però anche loro un punto a sfavore: quando andiamo a scrivere in uno spazio per la prima volta la velocità sarà massima, quando però eliminiamo un file quest'ultimo non viene eliminato completamente ma viene solo segnalato come spazio riutilizzabile (come sugli hard disk oppure sulle chiavette USB). Solo che su questo tipo di disco la sovrascrittura è molto più lenta, e a questo punto dopo un po' di volte il disco a stato solido inizia a "degradarsi"; la tecnologia TRIM però ha in parte risolto questo problema, perchè se attivata, dove possibile, permette di eliminare definitivamente il file cancellato, rendendo così completamente vuoto lo spazio da riutilizzare.
C'era anche un dato che qualche tempo fa, e anche tutt'ora, non è così chiaro: gli SSD hanno un numero limitato di scritture prima che poi smettano di funzionare, ma a quanto ammonta? Recenti test hanno dimostrato che riescono benissimo a superare l'un PB (1 Petabyte = 1000 Terabyte, che equivalgono a 1 milione di Gigabytes scritti), quindi non c'e da preoccuparsi, anche se è meglio non utilizzare queste unità come backup ed effettuare operazioni di scrittura il meno possibile (per farli durare di più).
Seguendo questa guida è possibile capire se un Hard Disk o un SSD si sta rompendo.
5. Dimensioni fisiche/Rumore: dato che sugli SSD non sono presenti parti meccaniche è possibile ridurre molto di più le dimensioni e sempre per lo stesso motivo l'hard disk può fare comunque un minimo di rumore, invece gli SSD sono silenziosi al massimo.
L'SSD è uguale all'hard disk in termini di compatibilità, e in generale l'SSD è migliore di un normale HDD. Il disco a stato solido è più veloce, più piccolo e silenzioso, e ha meno rischi di danneggiarsi e soprattutto rimane veloce nel tempo visto che non ha problemi di frammentazione (con TRIM attivato però). L'unica cosa scomoda è il prezzo, ancora troppo alto per poter sostituire completamente gli hard disk.
Si può comunque sfruttare questa nuova tecnologia comprandone uno di dimensioni ridotte e installando solo il sistema operativo e i programmi principali, ed eventualmente qualche file, così da non doverlo più toccare e quindi in un certo senso non avrà nemmeno bisogno di manutenzione; e utilizzare comunque un hard disk normale come secondario, da usare per tutto il resto, dato che costa poco possiamo permettercene uno di grandi dimensioni per tutti i file che abbiamo.
In questo modo potremo notare comunque l'incredibile velocità dei nuovi SSD senza spendere troppo.
Come è noto la memoria RAM allo spegnimento del PC viene completamente svuotata, per essere riempita velocemente con i programmi in funzione ad ogni nuova accensione, gli SSD invece hanno la capacità di mantenere i dati anche dopo lo spegnimento del computer, nonostante siano molto simili alle RAM.
La tecnologia utilizzata è quindi superiore sia ai dischi rigidi tradizionali (gli hard disk) sia alle memorie RAM, ma addirittura alle memorie flash, come ad esempio le chiavette USB, e si può dire che sia la vera è propria evoluzione di quest'ultime.
Ora possiamo vedere le caratteristiche che differenziano l'hard disk dall'SSD, e sostanzialmente andremo a vedere tutti i pro e i contro che possono far spostare la propria scelta da un normale disco fisso ad un SSD (unità a stato solido);
1. Velocità: l'SSD è molto più veloce del normale hard disk, quindi permette di far avviare un computer molto più velocemente, dato che sia la velocità in scrittura che in lettura è più rapida, permettendo così anche prestazioni migliori durante l'utilizzo.
2. Prezzo/GB: l'hard disk costa meno di un SSD di pari dimensioni. Per fare un esempio un HDD da 1 TB costa circa 50 euro, un SSD delle stesse dimensioni può arrivare a costare anche 400/500 euro. Sotto i termini di prezzo/dimensioni non ci si può spingere molto oltre, visto i prezzi troppo elevati, ma su un computer si può sempre acquistare un SSD di basse dimensioni per contenere il sistema operativo e i programmi base, e aggiungere un HDD capiente per tutto il resto.
3. Frammentazione: la frammentazione sugli SSD non esiste, ovvero quest'ultima esiste ma non è rilavante come su un normale hard disk. L'HDD è un piatto magnetico che gira in continuazione e viene letto da una testina. Quando un file è molto grande viene letto tutto in un colpo, se questo file non è frammentato, perchè quando il disco fisso inizia a riempirsi i file di grandi dimensioni possono "frammentarsi" ed essere quindi sparsi per tutto il disco; a questo punto la testina farà più fatica a leggere l'intero file, perchè deve cercare tutti i pezzi per il disco, e quindi sarà più lento (ecco perchè si fa la deframmentazione).
Negli SSD non esiste una testina perchè, proprio come sulle chiavette, i dati vengono memorizzati su dei chip di memoria, i quali vengono raggiunti tutti con la stessa velocità, e quindi la frammentazione non c'è, e di conseguenza non esistono neanche rallentamenti (la deframmentazione non andrebbe proprio fatta per evitare di "usurarlo" prematuramente).
4. Durata: un SSD non ha parti in movimento ed è più difficile che si rompa, mentre l'HDD essendo un piatto sempre in movimento ha più possibilità di rompersi. E' anche vero che se l'hard disk lo si tiene "fermo" durante l'utilizzo o non gli si fa prendere grossi scossoni i rischi vengono limitati; nei computer fissi i rischi diminuiscono ancora di più, mentre sui portatili è un po' più probabile, perchè molte volte li spostiamo anche mentre sono in funzione, aumentando i rischi di danneggiamento dell'HDD (anche se la vita media di un hard disk è superiore alle 100.000 ore, in funzione, prima che qualche parte si danneggi).
Gli SSD hanno però anche loro un punto a sfavore: quando andiamo a scrivere in uno spazio per la prima volta la velocità sarà massima, quando però eliminiamo un file quest'ultimo non viene eliminato completamente ma viene solo segnalato come spazio riutilizzabile (come sugli hard disk oppure sulle chiavette USB). Solo che su questo tipo di disco la sovrascrittura è molto più lenta, e a questo punto dopo un po' di volte il disco a stato solido inizia a "degradarsi"; la tecnologia TRIM però ha in parte risolto questo problema, perchè se attivata, dove possibile, permette di eliminare definitivamente il file cancellato, rendendo così completamente vuoto lo spazio da riutilizzare.
C'era anche un dato che qualche tempo fa, e anche tutt'ora, non è così chiaro: gli SSD hanno un numero limitato di scritture prima che poi smettano di funzionare, ma a quanto ammonta? Recenti test hanno dimostrato che riescono benissimo a superare l'un PB (1 Petabyte = 1000 Terabyte, che equivalgono a 1 milione di Gigabytes scritti), quindi non c'e da preoccuparsi, anche se è meglio non utilizzare queste unità come backup ed effettuare operazioni di scrittura il meno possibile (per farli durare di più).
Seguendo questa guida è possibile capire se un Hard Disk o un SSD si sta rompendo.
5. Dimensioni fisiche/Rumore: dato che sugli SSD non sono presenti parti meccaniche è possibile ridurre molto di più le dimensioni e sempre per lo stesso motivo l'hard disk può fare comunque un minimo di rumore, invece gli SSD sono silenziosi al massimo.
L'SSD è uguale all'hard disk in termini di compatibilità, e in generale l'SSD è migliore di un normale HDD. Il disco a stato solido è più veloce, più piccolo e silenzioso, e ha meno rischi di danneggiarsi e soprattutto rimane veloce nel tempo visto che non ha problemi di frammentazione (con TRIM attivato però). L'unica cosa scomoda è il prezzo, ancora troppo alto per poter sostituire completamente gli hard disk.
Si può comunque sfruttare questa nuova tecnologia comprandone uno di dimensioni ridotte e installando solo il sistema operativo e i programmi principali, ed eventualmente qualche file, così da non doverlo più toccare e quindi in un certo senso non avrà nemmeno bisogno di manutenzione; e utilizzare comunque un hard disk normale come secondario, da usare per tutto il resto, dato che costa poco possiamo permettercene uno di grandi dimensioni per tutti i file che abbiamo.
In questo modo potremo notare comunque l'incredibile velocità dei nuovi SSD senza spendere troppo.
Differenza tra MP3, MP4, AVI, DIVX, XVID e tutti gli altri migliori codec video e audio
Non si potrebbe iniziare a parlare di differenza tra MP3, MP4, AVI, MKV o di qualsiasi altro Codec o Container se prima di tutto non abbiamo bene in mente cosa vogliano dire almeno, appunto, Codec e Container o qualsiasi altro termine base.
Vediamo quindi di definire in modo semplice ma completo i vari termini che servono per capire bene i vari significati delle parole maggiormente utilizzate nel mondo audio/video:
1. Codec: il codec è il software necessario per la codifica o la decodifica dei formati, in grado sia di crearli sia di riprodurli. Come esempio si può prendere il codec DivX oppure l'XviD, ma anche l'MPEG-4 o l'H264.
2. Codec Audio e Codec Video: sono i codec che contraddistinguono i formati audio e video di un determinato file.
3. Transcodifica: questa funzione identifica la conversione di un file audio o video in un altro, tramite i Codec. Un esempio molto semplice può essere il passaggio da DVD (MPEG-2/Dolby Digital) ad AVI (DivX/MP3) anche se generalmente questo passaggio in esempio, ma anche molti altri, permettono di diminuire la dimensione del file a discapito di una certa perdita di qualità.
4. Muxing: questo è il passaggio che consente di riunire audio, video ed eventuali sottotitoli in un container.
5. Container: i container più conosciuti sono sicuramente l'AVI (di Microsoft) e l'MP4 (di MPEG), ma ci sono anche MKV, MOV, FLV e tantissimi altri, e questi "container" servono appunto a "contenere" audio e video creati con i codec e riuniti in un unico flusso di dati. Molti container possono incorporare anche altri oggetti, come ad esempio i sottotitoli.
I due punti fondamentali da conoscere sono almeno il punto sui Codec e quello sui Container (che andremo a vedere meglio nel passo successivo) ed è molto importante che tutto coincida per essere letto da un determinato lettore. Una TV ad esempio è importante che legga il container in cui sono contenuti i codec, come AVI o MP4, ovvero l'estensione con cui viene identificato quel video.
Può essere infatti che al suo interno ci sia uno stesso codec ma che comunque non venga letto dal lettore perchè il container non è compatibile, oppure può non venir letto perchè il codec non è supportato o infine può essere anche che la risoluzione (il numero dei pixel orizzontali e verticali che compongono l'immagine, come 640x480) supportata non arrivi a quella del nostro video (perchè troppo grande).
I container migliori e più popolari sono:
-MP4: creato dal team MPEG, è molto utilizzato per le condivisioni in streaming su Internet, come ad esempio su YouTube, ed il codec predefinito è l'H.264, ma utilizza anche l'MPEG-4 e anche il DivX o XviD. Come audio invece utilizza l'AAC e l'AC3, e in alcuni casi anche l'MP3.
-AVI: è lo standard creato da Microsoft per Windows, ha una qualità abbastanza alta e può contenere moltissimi Codec, anche se è il container preferito per i DivX e XviD, ed anche uno dei più facilmente compatibili con moltissimi device.
-MKV: è nato per comprimere principalmente i video in HD, notoriamente troppo grandi. Come codec si possono sfruttare praticamente tutti quelli disponibili con l'AVI, con la differenza che purtroppo questo container non viene letto da molti lettori. Un punto a suo favore però è la qualità maggiore con un migliore rapporto di compressione; veramente ottimo, appunto, per i film in HD. Anche questo è compatibile con il codec l'H.264, e lo supporta in modo migliore degli altri container.
-MPG: questo container può contenere solo il codec MPEG-1 oppure l'MPEG-2. Presenta delle impostazione molto spesso limitate ma mantiene una qualità molto alta.
-ASF: questo container è stato sviluppato da Microsoft come alternativa all'AVI. Punta tutto sulla compressione, a discapito della qualità, ed era utilizzato spesso per le condivisioni su Internet, ora non è più tanto usato. Può contenere i codec WMV (Windows Media Video) e WMA (Windows Media Audio) e molto spesso come estensione prendono direttamente il nome del codec (e non ASF).
-FLV: è il container creato da Adobe per gestire i video del flash player o altri lettori. Praticamente è uno standard solo per i video online, di qualità non così alta, che pian piano sta scomparendo per lasciar posto all'HTML5.
-3GP: creato per la distribuzione dei video tra cellulari. Il punto di forza è la qualità abbastanza buona anche con i video a bassa risoluzione, oltre ad essere letto praticamente da qualsiasi telefonino. Supporta i codec H.263 e MPEG-4.
-VOB: è il container dei DVD (DVD Video OBject) e praticamente può contenere solo lo standard MPEG-2.
-MOV: è il formato video creato da Apple, utilizzato con il suo lettore QuickTime.
I codec video più utilizzati e i migliori sono:
-MPEG-4: creato dal team MPEG è alla base di moltissimi altri codec. Ogni miglioramento durante lo sviluppo del codec rappresenta una nuova parte (Part) e ogni nuova tecnologia di compressione infatti porta il numero della parte a cui si è arrivati (lo standard rimane MPEG-4, ma viene seguito ad esempio dal termine "Part 2"). Fino al Part 10 (H.264) la codifica dei video era basata sull'MPEG-2.
-DivX / XviD: forse è il codec più conosciuto in assoluto. Famoso per la codifica di molti film, il DivX è un codec commerciale basato su MPEG-4 (Part 2), con la particolarità di poter ridurre anche ad un solo CD di 700 MB, un film masterizzato su un DVD. Settando le opportune impostazioni di qualità è possibile ottenere un ottimo livello di compressione mantenendo quasi inalterata la qualità del video. L'XviD è la variante gratuita (è la parola DivX scritta al contrario) ed è praticamente identica, quindi un lettore può leggere entrambi i codec senza difficoltà.
-H.264 (AVC): è la "versione 10" (Part 10) del codec MPEG-4 ed è utilizzato soprattutto per comprimere i video in HD. La sua forza sta nel riuscire a dimezzare la dimensione di un file video con una perdita di qualità quasi nulla, e il termine AVC sta per "codifica video avanzata". E il codec migliore che si possa utilizzare per rapporto qualità/compressione.
-WMV: creato da Microsoft, è nato come standard per la condivisione di filmati in streaming. Dotato di una grande potenza di compressione era utilizzato soprattutto per condividere velocemente file video compressi di molto, anche se c'era una gran perdita di qualità.
-MPEG-1: è uno dei più antichi codec sviluppati e risale addirittura al 1991. Creato dal team MPEG fu utilizzato soprattutto per supportare i Video CD (simili ai DVD ma contenuti in CD), e anche per la codifica di alcune emittenti televisive. Ora non è più tanto utilizzato perchè presenta numerose limitazioni, una su tutte la risoluzione, che non supera la qualità delle vecchie VHS.
Da non confondere con l'MPEG-1 Layer 3, ovvero il comunissimo MP3 (che è un codec audio).
-MPEG-2: è il codec più diffuso per la distribuzione dei DVD, infatti è supportato dal container VOB. Presenta una qualità molto alta ed molto stabile, viene infatti implementato anche nella TV digitale, e a differenza dell'MPEG-1 può essere utilizzato anche per i video in HD.
-H.262: termine che contraddistingue il codec MPEG-2 Part 2, l'evoluzione dello standard MPEG-2.
-H.263: è il codec sviluppato prima dell'H.264 e presenta livelli di compressione molto elevati. Prima dell'arrivo del suo successore era uno dei codec più diffusi per la condivisione dei video online e rappresenta l'evoluzione (in quanto a compressione) di tutti gli standard precedentemente citati (dall'MPEG-1 in giù).
Anche i codec audio però sono importanti, vediamo i migliori:
-MP3: per esteso è MPEG-1 Layer 3, ed è tutt'ora il codec più utilizzato per digitalizzare e comprimere (con perdita di qualità) un file audio. Una canzone mediamente non supera i 10 MB alla massima qualità (320 kb/s) e può essere riprodotta praticamente da qualunque dispositivo digitale.
-AAC: anche questo è prodotto dal team MPEG, ma prende il nome di Advanced Audio Coding ed è l'evoluzione dell'MP3. Viene spesso utilizzato assieme al codec video AVC (Advanced Video Coding o H.264) ed ha un rapporto di compressione leggermente migliore dell'MP3 (una compressione a 256 kb/s equivale per qualità ad un MP3 a 320 kb/s). Per il momento come standard audio viene utilizzato spesso solo da Apple, nei video invece è utilizzato solitamente per i video in HD.
-AC3: è il sistema di codifica del Dolby Digital e per comprimere il file audio agisce sulle frequenze. Può lavorare anche su 7 canali audio differenti, come per il dolby surround.
-DTS: è il codec che fa concorrenza all'AC3 (Dolby Digital) e viene utilizzato principalmente nei sistemi di codifica destinati all'home cinema o home theatre.
-WMA: sviluppato da Microsoft ed è stato concepito per contrastare l'MP3, non ha però ottenuto il successo sperato. E' disponibile in 3 versioni: il formato WMA standard, con perdita di dati, il WMA Lossless, senza perdita di dati (comprime i dati senza perdita di fedeltà audio) e il WMA Voice, mirato al contenuto della voce, applica la compressione utilizzando una gamma di bassi bitrate.
-WAV: ovvero WAVE (onda) è un tipo di codifica senza compressione e senza perdita di qualità, ovvero "lossless". La forma d'onda viene memorizzata direttamente così com'è, in formato digitale, a discapito della dimensione del file che crea, ovvero non compresso e quindi di dimensioni elevate, per non perdere di fedeltà. Sui CD infatti viene utilizzato questo codec (nel formato CDA), e una canzone potrebbe arrivare a toccare anche i 50 MB. E' stato sviluppato da Microsoft e IBM.
-FLAC: è uno dei codec più potenti in circolazione perchè è lossless (senza perdita di dati, come il WAV) ma riesce anche a comprimere il file audio di circa il 50%. Una canzone quindi occuperà circa 25 MB ma sarà comunque alla massima qualità e visto che la compressione è senza perdita di dati, il FLAC è un po' come il formato ZIP per i dati, ovvero è possibile tornare indietro alla forma originale, oltre che ad essere letta direttamente così com'è.
Gli standard più utilizzati sono i primi 3 descritti, ovvero l'MPEG-4, il DivX/XviD e l'H.264, ma per l'alta qualità è implementato ancora l'MPEG-2.
Come codec audio invece, i più usati sono sicuramente l'MP3 per le canzoni e l'AC3 per l'utilizzo combinato ai video, nei film praticamente. Per l'alta qualità bisogna per forza sfruttare il WAV o al massimo il più potente FLAC.
Una volta che un filmato o una canzone è stata compressa con un codec con perdita di dati non è più possibile tornare indietro alla qualità iniziale, è possibile solamente ricodificarli per essere letti eventualmente da lettori non compatibili con quel formato. L'unico codec in grado di tornare indietro è il FLAC, come è stato spiegato bene nei dettagli.
Ecco, ora che abbiamo capito bene tutte le varie caratteristiche dei container e dei codec non c'è neanche bisogno di spiegare la "differenza" tra questi, dato che non si parla di una vera e propria differenza tra i vari codec, perchè ognuno ha le proprie caratteristiche di codifica.
Forse però non tutti sanno che il team MPEG è nato grazie ad un italiano, Leonardo Chiariglione, che nel 1988 si è riunito per la prima volta con solo altri 25 membri. Ora invece alle riunioni partecipano oltre 350 membri, in rappresentanza di più di 200 aziende e organizzazioni appartenenti a circa 20 nazioni del mondo.
Se invece vogliamo parlare di codec del futuro, non si può tralasciare l'H.265, il successore dell'H.264, che prende il nome di HEVC (High Efficiency Video Coding) ovvero "codifica video ad alta efficienza. Questa codifica promette una migliore qualità video con anche un migliore rapporto di compressione, che in alcuni casi arriva anche a dimezzare la dimensione del vecchio standard AVC (H.264), con una conseguente riduzione del bitrate da gestire ogni secondo (ora gli standard di diffusione utilizzano un bitrate medio pari a 7 Mbit/s, si punta a raggiungere la metà o almeno lo stesso flusso per i video in alta definizione, così da poter essere gestiti senza problemi). Grazie a tutto questo sarà presto possibile far arrivare questo standard anche sulle TV di casa sia per quanto riguarda le normali trasmissioni, e, a questo punto, anche in HD e oltre, dato che supporta egregiamente risoluzioni fino all'8K (8192×4320), sia per la distribuzione dei video sui supporti, dato che la riduzione della dimensione dei file può essere d'aiuto per la masterizzazione dei film in alta definizione.
Tra i nuovi standard si possono citare anche l'MPEG-7, che sostanzialmente promette di definire come sono organizzati i dati multimediali (non è un codec come i precedenti), e l'MPEG-21 che invece cerca di unire l'MPEG-4 con l'MPEG-7, aggiungendo anche ulteriori funzioni.
Tra quelli abbandonati c'è solo l'MPEG-3, che inizialmente doveva essere utilizzato per la TV digitale, in particolare per l'HDTV, ma poi si è rivelato superfluo perchè l'MPEG-2 era già sufficiente.
Per finire possiamo dire che non sempre il video che occupa di più è il migliore, come si potrebbe pensare, perchè come abbiamo visto bisogna stare attenti ai vari codec che sono stati utilizzati per codificare, comprimere o solamente digitalizzare quel determinato filmato. In molti film in HD si sono iniziati a vedere i primi segni dell'età del codec MPEG-2, utilizzato per più di 20 anni nei DVD, perchè un filmato in MPEG-2 ha bisogno di un flusso di dati più alto, mentre il più recente H.264 essendo quasi solo un terzo del precedente standard (con la stessa qualità) può essere caricato e visualizzato più velocemente, e soprattutto nelle immagini in HD molto veloci può essere di grande aiuto e creare meno immagini sfuocate. Inoltre l'H.264 può raggiungere anche risoluzioni pari a 1920x1080 pixel, che con l'MPEG-2 non è possibile.
Ora che sappiamo tutto di container e codec non ci resta che installare sul PC un player universale, scegliendo magari VLC Media Player che è il migliore e legge qualsiasi filmato o file audio, e iniziare a vedere coi nostri occhi i vari standard differenti.
Vediamo quindi di definire in modo semplice ma completo i vari termini che servono per capire bene i vari significati delle parole maggiormente utilizzate nel mondo audio/video:
1. Codec: il codec è il software necessario per la codifica o la decodifica dei formati, in grado sia di crearli sia di riprodurli. Come esempio si può prendere il codec DivX oppure l'XviD, ma anche l'MPEG-4 o l'H264.
2. Codec Audio e Codec Video: sono i codec che contraddistinguono i formati audio e video di un determinato file.
3. Transcodifica: questa funzione identifica la conversione di un file audio o video in un altro, tramite i Codec. Un esempio molto semplice può essere il passaggio da DVD (MPEG-2/Dolby Digital) ad AVI (DivX/MP3) anche se generalmente questo passaggio in esempio, ma anche molti altri, permettono di diminuire la dimensione del file a discapito di una certa perdita di qualità.
4. Muxing: questo è il passaggio che consente di riunire audio, video ed eventuali sottotitoli in un container.
5. Container: i container più conosciuti sono sicuramente l'AVI (di Microsoft) e l'MP4 (di MPEG), ma ci sono anche MKV, MOV, FLV e tantissimi altri, e questi "container" servono appunto a "contenere" audio e video creati con i codec e riuniti in un unico flusso di dati. Molti container possono incorporare anche altri oggetti, come ad esempio i sottotitoli.
I due punti fondamentali da conoscere sono almeno il punto sui Codec e quello sui Container (che andremo a vedere meglio nel passo successivo) ed è molto importante che tutto coincida per essere letto da un determinato lettore. Una TV ad esempio è importante che legga il container in cui sono contenuti i codec, come AVI o MP4, ovvero l'estensione con cui viene identificato quel video.
Può essere infatti che al suo interno ci sia uno stesso codec ma che comunque non venga letto dal lettore perchè il container non è compatibile, oppure può non venir letto perchè il codec non è supportato o infine può essere anche che la risoluzione (il numero dei pixel orizzontali e verticali che compongono l'immagine, come 640x480) supportata non arrivi a quella del nostro video (perchè troppo grande).
I container migliori e più popolari sono:
-MP4: creato dal team MPEG, è molto utilizzato per le condivisioni in streaming su Internet, come ad esempio su YouTube, ed il codec predefinito è l'H.264, ma utilizza anche l'MPEG-4 e anche il DivX o XviD. Come audio invece utilizza l'AAC e l'AC3, e in alcuni casi anche l'MP3.
-AVI: è lo standard creato da Microsoft per Windows, ha una qualità abbastanza alta e può contenere moltissimi Codec, anche se è il container preferito per i DivX e XviD, ed anche uno dei più facilmente compatibili con moltissimi device.
-MKV: è nato per comprimere principalmente i video in HD, notoriamente troppo grandi. Come codec si possono sfruttare praticamente tutti quelli disponibili con l'AVI, con la differenza che purtroppo questo container non viene letto da molti lettori. Un punto a suo favore però è la qualità maggiore con un migliore rapporto di compressione; veramente ottimo, appunto, per i film in HD. Anche questo è compatibile con il codec l'H.264, e lo supporta in modo migliore degli altri container.
-MPG: questo container può contenere solo il codec MPEG-1 oppure l'MPEG-2. Presenta delle impostazione molto spesso limitate ma mantiene una qualità molto alta.
-ASF: questo container è stato sviluppato da Microsoft come alternativa all'AVI. Punta tutto sulla compressione, a discapito della qualità, ed era utilizzato spesso per le condivisioni su Internet, ora non è più tanto usato. Può contenere i codec WMV (Windows Media Video) e WMA (Windows Media Audio) e molto spesso come estensione prendono direttamente il nome del codec (e non ASF).
-FLV: è il container creato da Adobe per gestire i video del flash player o altri lettori. Praticamente è uno standard solo per i video online, di qualità non così alta, che pian piano sta scomparendo per lasciar posto all'HTML5.
-3GP: creato per la distribuzione dei video tra cellulari. Il punto di forza è la qualità abbastanza buona anche con i video a bassa risoluzione, oltre ad essere letto praticamente da qualsiasi telefonino. Supporta i codec H.263 e MPEG-4.
-VOB: è il container dei DVD (DVD Video OBject) e praticamente può contenere solo lo standard MPEG-2.
-MOV: è il formato video creato da Apple, utilizzato con il suo lettore QuickTime.
I codec video più utilizzati e i migliori sono:
-MPEG-4: creato dal team MPEG è alla base di moltissimi altri codec. Ogni miglioramento durante lo sviluppo del codec rappresenta una nuova parte (Part) e ogni nuova tecnologia di compressione infatti porta il numero della parte a cui si è arrivati (lo standard rimane MPEG-4, ma viene seguito ad esempio dal termine "Part 2"). Fino al Part 10 (H.264) la codifica dei video era basata sull'MPEG-2.
-DivX / XviD: forse è il codec più conosciuto in assoluto. Famoso per la codifica di molti film, il DivX è un codec commerciale basato su MPEG-4 (Part 2), con la particolarità di poter ridurre anche ad un solo CD di 700 MB, un film masterizzato su un DVD. Settando le opportune impostazioni di qualità è possibile ottenere un ottimo livello di compressione mantenendo quasi inalterata la qualità del video. L'XviD è la variante gratuita (è la parola DivX scritta al contrario) ed è praticamente identica, quindi un lettore può leggere entrambi i codec senza difficoltà.
-H.264 (AVC): è la "versione 10" (Part 10) del codec MPEG-4 ed è utilizzato soprattutto per comprimere i video in HD. La sua forza sta nel riuscire a dimezzare la dimensione di un file video con una perdita di qualità quasi nulla, e il termine AVC sta per "codifica video avanzata". E il codec migliore che si possa utilizzare per rapporto qualità/compressione.
-WMV: creato da Microsoft, è nato come standard per la condivisione di filmati in streaming. Dotato di una grande potenza di compressione era utilizzato soprattutto per condividere velocemente file video compressi di molto, anche se c'era una gran perdita di qualità.
-MPEG-1: è uno dei più antichi codec sviluppati e risale addirittura al 1991. Creato dal team MPEG fu utilizzato soprattutto per supportare i Video CD (simili ai DVD ma contenuti in CD), e anche per la codifica di alcune emittenti televisive. Ora non è più tanto utilizzato perchè presenta numerose limitazioni, una su tutte la risoluzione, che non supera la qualità delle vecchie VHS.
Da non confondere con l'MPEG-1 Layer 3, ovvero il comunissimo MP3 (che è un codec audio).
-MPEG-2: è il codec più diffuso per la distribuzione dei DVD, infatti è supportato dal container VOB. Presenta una qualità molto alta ed molto stabile, viene infatti implementato anche nella TV digitale, e a differenza dell'MPEG-1 può essere utilizzato anche per i video in HD.
-H.262: termine che contraddistingue il codec MPEG-2 Part 2, l'evoluzione dello standard MPEG-2.
-H.263: è il codec sviluppato prima dell'H.264 e presenta livelli di compressione molto elevati. Prima dell'arrivo del suo successore era uno dei codec più diffusi per la condivisione dei video online e rappresenta l'evoluzione (in quanto a compressione) di tutti gli standard precedentemente citati (dall'MPEG-1 in giù).
Anche i codec audio però sono importanti, vediamo i migliori:
-MP3: per esteso è MPEG-1 Layer 3, ed è tutt'ora il codec più utilizzato per digitalizzare e comprimere (con perdita di qualità) un file audio. Una canzone mediamente non supera i 10 MB alla massima qualità (320 kb/s) e può essere riprodotta praticamente da qualunque dispositivo digitale.
-AAC: anche questo è prodotto dal team MPEG, ma prende il nome di Advanced Audio Coding ed è l'evoluzione dell'MP3. Viene spesso utilizzato assieme al codec video AVC (Advanced Video Coding o H.264) ed ha un rapporto di compressione leggermente migliore dell'MP3 (una compressione a 256 kb/s equivale per qualità ad un MP3 a 320 kb/s). Per il momento come standard audio viene utilizzato spesso solo da Apple, nei video invece è utilizzato solitamente per i video in HD.
-AC3: è il sistema di codifica del Dolby Digital e per comprimere il file audio agisce sulle frequenze. Può lavorare anche su 7 canali audio differenti, come per il dolby surround.
-DTS: è il codec che fa concorrenza all'AC3 (Dolby Digital) e viene utilizzato principalmente nei sistemi di codifica destinati all'home cinema o home theatre.
-WMA: sviluppato da Microsoft ed è stato concepito per contrastare l'MP3, non ha però ottenuto il successo sperato. E' disponibile in 3 versioni: il formato WMA standard, con perdita di dati, il WMA Lossless, senza perdita di dati (comprime i dati senza perdita di fedeltà audio) e il WMA Voice, mirato al contenuto della voce, applica la compressione utilizzando una gamma di bassi bitrate.
-WAV: ovvero WAVE (onda) è un tipo di codifica senza compressione e senza perdita di qualità, ovvero "lossless". La forma d'onda viene memorizzata direttamente così com'è, in formato digitale, a discapito della dimensione del file che crea, ovvero non compresso e quindi di dimensioni elevate, per non perdere di fedeltà. Sui CD infatti viene utilizzato questo codec (nel formato CDA), e una canzone potrebbe arrivare a toccare anche i 50 MB. E' stato sviluppato da Microsoft e IBM.
-FLAC: è uno dei codec più potenti in circolazione perchè è lossless (senza perdita di dati, come il WAV) ma riesce anche a comprimere il file audio di circa il 50%. Una canzone quindi occuperà circa 25 MB ma sarà comunque alla massima qualità e visto che la compressione è senza perdita di dati, il FLAC è un po' come il formato ZIP per i dati, ovvero è possibile tornare indietro alla forma originale, oltre che ad essere letta direttamente così com'è.
Gli standard più utilizzati sono i primi 3 descritti, ovvero l'MPEG-4, il DivX/XviD e l'H.264, ma per l'alta qualità è implementato ancora l'MPEG-2.
Come codec audio invece, i più usati sono sicuramente l'MP3 per le canzoni e l'AC3 per l'utilizzo combinato ai video, nei film praticamente. Per l'alta qualità bisogna per forza sfruttare il WAV o al massimo il più potente FLAC.
Una volta che un filmato o una canzone è stata compressa con un codec con perdita di dati non è più possibile tornare indietro alla qualità iniziale, è possibile solamente ricodificarli per essere letti eventualmente da lettori non compatibili con quel formato. L'unico codec in grado di tornare indietro è il FLAC, come è stato spiegato bene nei dettagli.
Ecco, ora che abbiamo capito bene tutte le varie caratteristiche dei container e dei codec non c'è neanche bisogno di spiegare la "differenza" tra questi, dato che non si parla di una vera e propria differenza tra i vari codec, perchè ognuno ha le proprie caratteristiche di codifica.
Se invece vogliamo parlare di codec del futuro, non si può tralasciare l'H.265, il successore dell'H.264, che prende il nome di HEVC (High Efficiency Video Coding) ovvero "codifica video ad alta efficienza. Questa codifica promette una migliore qualità video con anche un migliore rapporto di compressione, che in alcuni casi arriva anche a dimezzare la dimensione del vecchio standard AVC (H.264), con una conseguente riduzione del bitrate da gestire ogni secondo (ora gli standard di diffusione utilizzano un bitrate medio pari a 7 Mbit/s, si punta a raggiungere la metà o almeno lo stesso flusso per i video in alta definizione, così da poter essere gestiti senza problemi). Grazie a tutto questo sarà presto possibile far arrivare questo standard anche sulle TV di casa sia per quanto riguarda le normali trasmissioni, e, a questo punto, anche in HD e oltre, dato che supporta egregiamente risoluzioni fino all'8K (8192×4320), sia per la distribuzione dei video sui supporti, dato che la riduzione della dimensione dei file può essere d'aiuto per la masterizzazione dei film in alta definizione.
Tra i nuovi standard si possono citare anche l'MPEG-7, che sostanzialmente promette di definire come sono organizzati i dati multimediali (non è un codec come i precedenti), e l'MPEG-21 che invece cerca di unire l'MPEG-4 con l'MPEG-7, aggiungendo anche ulteriori funzioni.
Tra quelli abbandonati c'è solo l'MPEG-3, che inizialmente doveva essere utilizzato per la TV digitale, in particolare per l'HDTV, ma poi si è rivelato superfluo perchè l'MPEG-2 era già sufficiente.
Per finire possiamo dire che non sempre il video che occupa di più è il migliore, come si potrebbe pensare, perchè come abbiamo visto bisogna stare attenti ai vari codec che sono stati utilizzati per codificare, comprimere o solamente digitalizzare quel determinato filmato. In molti film in HD si sono iniziati a vedere i primi segni dell'età del codec MPEG-2, utilizzato per più di 20 anni nei DVD, perchè un filmato in MPEG-2 ha bisogno di un flusso di dati più alto, mentre il più recente H.264 essendo quasi solo un terzo del precedente standard (con la stessa qualità) può essere caricato e visualizzato più velocemente, e soprattutto nelle immagini in HD molto veloci può essere di grande aiuto e creare meno immagini sfuocate. Inoltre l'H.264 può raggiungere anche risoluzioni pari a 1920x1080 pixel, che con l'MPEG-2 non è possibile.
Ora che sappiamo tutto di container e codec non ci resta che installare sul PC un player universale, scegliendo magari VLC Media Player che è il migliore e legge qualsiasi filmato o file audio, e iniziare a vedere coi nostri occhi i vari standard differenti.
Mediaset Premium: nuovi canali e tante altre novità a partire dal 23 giugno 2015
Per festeggiare l'accordo con l'esclusività Warner Bros. e NBC-Universal fino al 2020, e anche la Champions League fino al 2018, Mediaset ha deciso di rinnovare l'offerta Premium con nuovi canali, che partiranno dal 23 giugno 2015, e altri servizi di ultima generazione.
Per quanto riguarda il pacchetto Cinema e Serie TV verranno aggiunti due nuovi canali: Premium Cinema 2 e Premium Stories. Il primo seguirà la scia del Premium Cinema già esistente e anche questo sarà disponibile anche in versione HD; Stories invece prenderà il posto di Mya ed è destinato ad un pubblico femminile (proprio come Mya), e punterà soprattutto sulle serie TV. Su Cinema 2 ci saranno soprattutto prime assolute del cinema italiano, mentre su Stories le serie TV americane faranno da padrone.
In aggiunta a questi due canali ci saranno anche le versioni +24 di Premium Cinema e Premium Cinema 2, dove si potranno vedere i film con 24 ore di ritardo (i film andati in onda il giorno prima quindi).
Nel pacchetto Calcio e Sport si aggiungerà Premium Sport (anche in HD) in onda 24 ore su 24, con notiziari, approfondimenti e speciali esclusive (forse sostituirà Premium Calcio, che si attiverà solo quando ci sono le partite o farà vedere esclusivamente partite di calcio).
Si parlava anche dell'introduzione di Premium Crime in versione HD e di alcuni canali che sarebbero diventati solo in HD, ma per il momento non è previsto niente (*vedi aggiornamento).
Tra le novità tecnologiche presentate c'è la Premium Smart Cam che trasforma la propria tv in una smart tv. Una volta acquistata (99€) bisogna solo inserirla nel televisore con una tessera Premium con abbonamento attivo e collegarla alla rete Wi-Fi di casa, così da poter accedere al catalogo di Mediaset Premium On Demand.
A settembre invece (quasi in contemporanea con Netflix) arriverà Premium Online, dove tutti i contenuti della pay-tv normale arrivano direttamente via web e saranno live, on-demand e in HD su tutti i device. Si potranno vedere 22 canali live in HD (vedi immagine di copertina) con calcio, sport, cinema e serie tv: più di 10.000 contenuti visibili in qualsiasi momento in modalità on-demand, sempre in HD (sarà attivabile, come Sky Online, con un'offerta "tutto compreso" completamente esterna ai pacchetti normali).
Aggiornamento 23/06/2015: tutte le anticipazioni sono state confermate e in più sono state aggiunte non solo le versioni in HD di Premium Crime e Action ma anche le versioni +24 di entrambi i canali (questi canali erano in dubbio).
Di seguito un riassunto di tutti cambiamenti con l'immagine della promo e il nuovo logo di Mediaset Premium.
Per quanto riguarda il pacchetto Cinema e Serie TV verranno aggiunti due nuovi canali: Premium Cinema 2 e Premium Stories. Il primo seguirà la scia del Premium Cinema già esistente e anche questo sarà disponibile anche in versione HD; Stories invece prenderà il posto di Mya ed è destinato ad un pubblico femminile (proprio come Mya), e punterà soprattutto sulle serie TV. Su Cinema 2 ci saranno soprattutto prime assolute del cinema italiano, mentre su Stories le serie TV americane faranno da padrone.
In aggiunta a questi due canali ci saranno anche le versioni +24 di Premium Cinema e Premium Cinema 2, dove si potranno vedere i film con 24 ore di ritardo (i film andati in onda il giorno prima quindi).
Nel pacchetto Calcio e Sport si aggiungerà Premium Sport (anche in HD) in onda 24 ore su 24, con notiziari, approfondimenti e speciali esclusive (forse sostituirà Premium Calcio, che si attiverà solo quando ci sono le partite o farà vedere esclusivamente partite di calcio).
Si parlava anche dell'introduzione di Premium Crime in versione HD e di alcuni canali che sarebbero diventati solo in HD, ma per il momento non è previsto niente (*vedi aggiornamento).
Tra le novità tecnologiche presentate c'è la Premium Smart Cam che trasforma la propria tv in una smart tv. Una volta acquistata (99€) bisogna solo inserirla nel televisore con una tessera Premium con abbonamento attivo e collegarla alla rete Wi-Fi di casa, così da poter accedere al catalogo di Mediaset Premium On Demand.
A settembre invece (quasi in contemporanea con Netflix) arriverà Premium Online, dove tutti i contenuti della pay-tv normale arrivano direttamente via web e saranno live, on-demand e in HD su tutti i device. Si potranno vedere 22 canali live in HD (vedi immagine di copertina) con calcio, sport, cinema e serie tv: più di 10.000 contenuti visibili in qualsiasi momento in modalità on-demand, sempre in HD (sarà attivabile, come Sky Online, con un'offerta "tutto compreso" completamente esterna ai pacchetti normali).
Aggiornamento 23/06/2015: tutte le anticipazioni sono state confermate e in più sono state aggiunte non solo le versioni in HD di Premium Crime e Action ma anche le versioni +24 di entrambi i canali (questi canali erano in dubbio).
Di seguito un riassunto di tutti cambiamenti con l'immagine della promo e il nuovo logo di Mediaset Premium.
Nuovi Canali: Premium Cinema 2, Premium Cinema 2 HD, Premium Cinema 2 +24;
Aggiornamenti: Premium Cinema +24, Premium Crime HD, Premium Crime +24 Premium Action HD, Premium Action +24;
Cambiamenti: Premium Mya diventa Premium Stories e le trasmissioni di Premium Calcio passano a Premium Sport (con altre novità) dal 1 luglio 2015.
Le migliori App per Chiamare gratis o a basso costo alternative a WhatsApp
Se solo si sfruttasse internet alla massima potenza e soprattutto se le reti italiane funzionassero come dovrebbero, si potrebbero sfruttare moltissimi servizi gratuiti con molta facilità. Uno di questi è la possibilità di scambiarsi messaggi ed effettuare chiamate gratuite tramite molteplici app sul proprio smartphone, e si potrebbero creare seri problemi alle compagnie telefoniche.
Per poter ottimizzare al meglio la tecnologia VoIP bisognerebbe passare dal concetto di "ti do il mio numero" al "ti do il mio nick", ovvero al posto di scambiare il numero di cellulare ci si dovrebbe scambiare il proprio nome utente su un determinato servizio di messaggistica gratuita.
Il problema però è che l'informazione sotto questo punto di vista è molto scarsa, basti pensare che moltissimi utenti non hanno mai installato nemmeno un app dagli store dei propri smartphone, e poi nasce anche un altro problema: ci sono troppi servizi e ci si dovrebbe mettere tutti d'accordo su quale usare, dato che questo concetto funziona solo se si sta utilizzando la stessa app. Naturalmente il più popolare dei servizi, ovvero WhatsApp, è riuscito ad accaparrarsi la maggior parte degli utenti, visto che per connettersi richiede di iscriversi tramite il proprio numero di cellulare (anche altri lo fanno), e dopo qualche anno ha finalmente introdotto le chiamate gratuite.
Se però si è un gruppo ristretto e si vuole creare una specie di rete di comunicazione gratuita si può benissimo optare per uno dei migliori servizi tra questi elencati, che permettono sia di inviare messaggi gratuiti sia di effettuare chiamate o videochiamate gratuite:
1. Skype: chi non conosce Skype ormai, è stato uno dei primi programmi a consentire non solo le chiamate gratuite ma addirittura già molti anni fa anche le videochiamate, oltre naturalmente alla possibilità di poter inviare messaggi a costo zero. Essendo uno dei più popolari è facilmente reperibile per tutti i sistemi operativi: Android, iOS e Windows Phone, oltre che su Windows, Mac, Linux, e molti altri.
2. Viber: questo è il principale rivale di Skype ed è disponibile per i principali sistemi operativi. Ci sono praticamente le stesse funzioni anche se Viber ha molte più emoticons ed è un po' meno professionale e minimale, è un po' più divertente da utilizzare e si è rivelato un degno concorrente.
3. WeChat: è uno dei primi che si è dimostrato all'altezza di WhatsApp, diventato famoso soprattutto grazie a molti eventi televisivi che hanno integrato la partecipazione virtuale al programma tramite appunto all'applicazione. La funzione per le chiamate funziona molto bene.
4. Line: in Italia non è così tanto utilizzato anche se è stato spesso sponsorizzato da personaggi famosi. Tuttavia la funzione per effettuare le chiamate, oltre naturalmente alla chat normale, è presente da parecchio tempo è funziona in modo egregio.
5. Facebook Messenger: questa applicazione sembrerebbe la più utile di tutte perchè quasi tutti hanno un profilo Facebook, quindi sarebbero tutti facilmente reperibili. Se non fosse per il fatto che per funzionare necessita del numero di cellulare, che deve essere collegato al profilo Facebook, ma non in molti per motivi di privacy hanno deciso di abbinarlo.
6. Tango, ooVoo e fring: queste tre app sono diverse dalle classiche app di questo tipo perchè sono più simili a dei mini social network. Tango in modo particolare è ricco di moltissime funzioni aggiuntive (oltre che chat, chiamate vocali e videochiamate) mentre ooVoo è specializzato per ogni funzionalità durante le videochiamate, e infine fring è uno dei migliori per fare chiamate di gruppo.
Tutti e tre potrebbero dare de filo da torcere a Skype e Viber ma purtroppo sono poco conosciuti.
6. Tango, ooVoo e fring: queste tre app sono diverse dalle classiche app di questo tipo perchè sono più simili a dei mini social network. Tango in modo particolare è ricco di moltissime funzioni aggiuntive (oltre che chat, chiamate vocali e videochiamate) mentre ooVoo è specializzato per ogni funzionalità durante le videochiamate, e infine fring è uno dei migliori per fare chiamate di gruppo.
Tutti e tre potrebbero dare de filo da torcere a Skype e Viber ma purtroppo sono poco conosciuti.
7. Indoona, mTalk e Libon: sono le tre applicazioni più convenienti per chiamare anche chi non ha l'applicazione installata. Indoona, di Tiscali, ha le tariffe bassissime (1 o 2 centesimi al minuto), sia verso i fissi che verso i cellulari, e molto spesso regala minuti extra per chiamare chi vogliamo. Ma anche mTalk ha le tariffe molto basse (da 1 a 5 centesimi al minuto) ma il suo punto forte è la possibilità di attivare un numero di telefono fisso VoIP in modo da poter ricevere le telefonate anche su un telefono VOIP di casa, oltre che sullo smartphone dov'è installata, e in più si possono inviare SMS e Fax. Infine Libon, è un altro ottimo servizio che offre una tariffa fissa, 3 centesimi al minuto, per chiamare qualsiasi telefono del mondo. L'offerta resta un po' meno conveniente rispetto a mTalk e soprattutto Indoona, ma è comunque una buona offerta.
Ovviamente le chiamate tra membri registrati sullo stesso servizio, sia su Indoona che su mTalk e Libon, sono gratuite.
8. Nimbuzz e Toolani (ex Forfone): nonostante in Italia l'app Nimbuzz sia poco conosciuta è una delle app storiche per effettuare chiamate gratuitamente e soprattutto è disponibile per qualsiasi dispositivo, anche quelli più vecchi. Toolani invece era molto utile prima, quando si chiamava ancora Forfone, dato che offriva 50 minuti al mese per chiamare i fissi italiani gratuitamente, ora invece, visto che è poco conosciuta e poi ha eliminato anche questa offerta, può tornare utile solo per chiamare i fissi all'estero a pochi centesimi, oltre alla possibilità di chiamare gratuitamente gli utenti che hanno l'app installata.
Con tutti questi servizi in futuro non sarà più necessario pagare abbonamenti di 30 euro per il telefono fisso, e a questo punto nemmeno 10 euro per le offerte degli smartphone con inclusi minuti e SMS, ma fare solo abbonamenti Internet. Sfruttando così le applicazioni giuste, anche via computer dato che molte sono disponibili anche come normali programmi, si può telefonare, videochiamare, scambiare messaggi totalmente in modo gratuito semplicemente grazie alla tecnologia VoIP che abbatte i costi per le chiamate e per qualsiasi altro servizio che consente.
Ovviamente le chiamate tra membri registrati sullo stesso servizio, sia su Indoona che su mTalk e Libon, sono gratuite.
8. Nimbuzz e Toolani (ex Forfone): nonostante in Italia l'app Nimbuzz sia poco conosciuta è una delle app storiche per effettuare chiamate gratuitamente e soprattutto è disponibile per qualsiasi dispositivo, anche quelli più vecchi. Toolani invece era molto utile prima, quando si chiamava ancora Forfone, dato che offriva 50 minuti al mese per chiamare i fissi italiani gratuitamente, ora invece, visto che è poco conosciuta e poi ha eliminato anche questa offerta, può tornare utile solo per chiamare i fissi all'estero a pochi centesimi, oltre alla possibilità di chiamare gratuitamente gli utenti che hanno l'app installata.
Con tutti questi servizi in futuro non sarà più necessario pagare abbonamenti di 30 euro per il telefono fisso, e a questo punto nemmeno 10 euro per le offerte degli smartphone con inclusi minuti e SMS, ma fare solo abbonamenti Internet. Sfruttando così le applicazioni giuste, anche via computer dato che molte sono disponibili anche come normali programmi, si può telefonare, videochiamare, scambiare messaggi totalmente in modo gratuito semplicemente grazie alla tecnologia VoIP che abbatte i costi per le chiamate e per qualsiasi altro servizio che consente.
Netflix in Italia è realtà: grazie a Telecom arriverà ad ottobre e costerà 8 euro al mese
Finalmente arriva il comunicato ufficiale da parte del CEO Reed Hastings: Netflix sbarcherà in Italia entro ottobre grazie ad un accordo con Telecom Italia.
Netflix, per chi non lo conoscesse, è uno dei più completi e popolari servizi di streaming online, e i dettagli per quanto riguarda il progetto italiano restano ancora pochi, come anche il giorno esatto in cui partirà e il servizio sarà disponibile a tutti. Per quanto riguarda il prezzo invece Hastings ha dichiarato che resterà in linea con gli altri paesi, quindi non si dovrebbero superare gli 8 euro al mese.
Con questi 8 euro avremo un pacchetto completo di 24 ore su 24 di film e serie TV da vedere, e iniziare a vedere, nei momenti che vogliamo, proprio come se avessimo tutti i film archiviati sul computer. L'importante sarà disporre di una buona linea ADSL, per riuscire a vedere come si deve, e soprattutto senza scatti, anche i contenuti ad alta risoluzione (se si vuole).
Grazie ai suoi contenuti esclusivi Netflix si è guadagnato un totale di 60 milioni di abbonati in tutto il mondo, grazie appunto anche a serie TV, prodotte e trasmesse poi in prima TV su questa piattaforma, come "House of Cards", e in Francia "Marseille".
Netflix è il simbolo in molti paesi dello streaming legale e di qualità, che è riuscito a spazzar via l'impero Blockbuster. Grazie al suo pacchetto flat da 8 euro al mese si possono avere tutti i contenuti del catalogo senza pubblicità, ed è sufficiente un computer collegato ad Internet oppure un box abilitato (sempre con connessione) collegato alla TV, niente di più semplice.
Al lancio in Italia l'offerta includerà alcune serie TV originali Netflix, come Marvel’s Daredevil, Sense8 e Bloodline, ma anche tanti documentari oppure spettacoli comici e contenuti per bambini, oltre al ricco catalogo di film (anche prime TV esclusive).
Netflix sarà disponibile su computer, smart TV, tablet, smartphone, molte console e altrettanti TV-box.
Dovrà fronteggiare le offerte già esistenti in Italia, che sono riuscite a far ritardare l'ingresso del colosso americano nel mercato italiano, ovvero Sky Online, Infinity e TimVision, oltre alla scarsa qualità delle reti ADSL italiane, non così pronta per le nuove tecnologie.
Netflix, per chi non lo conoscesse, è uno dei più completi e popolari servizi di streaming online, e i dettagli per quanto riguarda il progetto italiano restano ancora pochi, come anche il giorno esatto in cui partirà e il servizio sarà disponibile a tutti. Per quanto riguarda il prezzo invece Hastings ha dichiarato che resterà in linea con gli altri paesi, quindi non si dovrebbero superare gli 8 euro al mese.
Con questi 8 euro avremo un pacchetto completo di 24 ore su 24 di film e serie TV da vedere, e iniziare a vedere, nei momenti che vogliamo, proprio come se avessimo tutti i film archiviati sul computer. L'importante sarà disporre di una buona linea ADSL, per riuscire a vedere come si deve, e soprattutto senza scatti, anche i contenuti ad alta risoluzione (se si vuole).
Grazie ai suoi contenuti esclusivi Netflix si è guadagnato un totale di 60 milioni di abbonati in tutto il mondo, grazie appunto anche a serie TV, prodotte e trasmesse poi in prima TV su questa piattaforma, come "House of Cards", e in Francia "Marseille".
Netflix è il simbolo in molti paesi dello streaming legale e di qualità, che è riuscito a spazzar via l'impero Blockbuster. Grazie al suo pacchetto flat da 8 euro al mese si possono avere tutti i contenuti del catalogo senza pubblicità, ed è sufficiente un computer collegato ad Internet oppure un box abilitato (sempre con connessione) collegato alla TV, niente di più semplice.
Al lancio in Italia l'offerta includerà alcune serie TV originali Netflix, come Marvel’s Daredevil, Sense8 e Bloodline, ma anche tanti documentari oppure spettacoli comici e contenuti per bambini, oltre al ricco catalogo di film (anche prime TV esclusive).
Netflix sarà disponibile su computer, smart TV, tablet, smartphone, molte console e altrettanti TV-box.
Dovrà fronteggiare le offerte già esistenti in Italia, che sono riuscite a far ritardare l'ingresso del colosso americano nel mercato italiano, ovvero Sky Online, Infinity e TimVision, oltre alla scarsa qualità delle reti ADSL italiane, non così pronta per le nuove tecnologie.
E-commerce in Italia: il punto della situazione sul commercio elettronico, cresce il mobile nel 2015
È ancora in crescita il settore dell'e-commerce in Italia, ma siamo ancora indietro rispetto ai nostri competitor europei. A rivelarlo è l'ultimo rapporto sul commercio elettronico in Italia elaborato da Casaleggio Associati e presentato recentemente alla Camera di Commercio di Milano. La ricerca e-commerce in Italia 2015 mostra quindi che ancora una volta il nostro paese è indietro in questo ambito, ma che allo stesso tempo ci sono grandi potenzialità e margini di crescita, soprattutto nelle vendite su mobile.
Dopo che per anni l'e-commerce in Italia aveva avuto una crescita percentuale a due cifre, per la prima volta nel 2013 il trend estremamente positivo aveva avuto una battuta d'arresto, assestandosi ad un +6%, mentre nel 2014 si è tornati a salire dell'8%, portando il commercio elettronico ad un fatturato di oltre 24 miliardi di euro. Sembrano cifre altissime, ma in realtà il valore dell'e-commerce italiano è pari a un decimo di quello della Gran Bretagna, che peraltro lo scorso anno ha avuto una percentuale di crescita simile alla nostra: questo significa che in termini assoluti siamo sempre più distanti dai nostri competitor di oltremanica. Se poi allarghiamo ulteriormente l'orizzonte, è prevista per il 2015 una crescita del 20,9% dell'e-commerce mondiale, che dovrebbe raggiungere entro fine anno un valore di 1600 miliardi di dollari.
Per l'Italia, la notizia positiva è che, in un contesto di stagnazione economica, l'e-commerce continua a svilupparsi, più dello scorso anno e avvicinandosi di nuovo a una crescita a doppia cifra. Nel fatturato italiano dell'e-commerce (24,2 miliardi di euro), continuano a dominare i due segmenti più maturi di questo mercato, il turismo e l'intrattenimento online, che rappresentano rispettivamente il 30% e il 49% del valore del fatturato. Il turismo trova infatti online una crescente serie di applicazioni che portano innovazioni nel settore e che coinvolgono sempre di più gli stessi utenti con servizi come ad esempio Airbnb, oltre alle più "tradizionali" agenzie di viaggi online e i motori di ricerca per voli low cost. Nell'intrattenimento online, il 41% del valore è rappresentato dai giochi, dove non mancano le innovazioni come la crescente presenza su mobile. Ad esempio PokerStars è presente su mobile da diversi anni e in tempi più recenti ha lanciato una applicazione social per il gioco gratis, disponibile su iOS e Android.
Il mobile è uno dei trend più interessanti individuati dal report, visto che nel 2014 ha costituito il 13% sul totale dei ricavi derivanti dalle vendite online rispetto all’8,5% del 2013 e al 5% del 2012. Questo è stato possibile sia grazie alla crescente diffusione di smartphone e tablet tra gli utenti italiani, sia perché le stesse aziende hanno investito su questo canale, attraverso siti ottimizzati per mobile e applicazioni. La ricerca riporta una interessante dichiarazione del portale e-commerce vente-privee, secondo il quale il mobile avrebbe in parte colmato il gap nell'utilizzo di internet in Italia e questo canale rappresenta per loro il 45% del fatturato.
Insomma, se per chi vuole vendere online la parola d'ordine è "mobile", l'altro grande trend individuato dal report di Casaleggio Associati è quello dei marketplace (i "centri commerciali online" come Amazon e Ebay) che hanno visto crescere il loro fatturato del 55% rispetto allo scorso anno. Nel complesso rappresentano attualmente il 4% del valore dell'e-commerce in Italia, ma la loro crescita è destinata ad aumentare, visto che in mercati più maturi come quello della Gran Bretagna rappresentano un terzo del fatturato dei prodotti fisici venduti online.
Per quanto riguarda le prospettive future dell'e-commerce italiano, uno dei principali aspetti da tenere conto è la vendita all'estero, che secondo la ricerca rappresenta la principale leva di crescita. In questa ottica, i marketplace possono rappresentare un canale strategico per arrivare su mercati esteri. In generale, il commercio elettronico può rappresentare una ghiotta occasione per le piccole e medie imprese italiane, anche in vista degli obiettivi europei di portare entro il 2020 almeno un terzo delle PMI europee sull’e-commerce.
Dopo che per anni l'e-commerce in Italia aveva avuto una crescita percentuale a due cifre, per la prima volta nel 2013 il trend estremamente positivo aveva avuto una battuta d'arresto, assestandosi ad un +6%, mentre nel 2014 si è tornati a salire dell'8%, portando il commercio elettronico ad un fatturato di oltre 24 miliardi di euro. Sembrano cifre altissime, ma in realtà il valore dell'e-commerce italiano è pari a un decimo di quello della Gran Bretagna, che peraltro lo scorso anno ha avuto una percentuale di crescita simile alla nostra: questo significa che in termini assoluti siamo sempre più distanti dai nostri competitor di oltremanica. Se poi allarghiamo ulteriormente l'orizzonte, è prevista per il 2015 una crescita del 20,9% dell'e-commerce mondiale, che dovrebbe raggiungere entro fine anno un valore di 1600 miliardi di dollari.
Per l'Italia, la notizia positiva è che, in un contesto di stagnazione economica, l'e-commerce continua a svilupparsi, più dello scorso anno e avvicinandosi di nuovo a una crescita a doppia cifra. Nel fatturato italiano dell'e-commerce (24,2 miliardi di euro), continuano a dominare i due segmenti più maturi di questo mercato, il turismo e l'intrattenimento online, che rappresentano rispettivamente il 30% e il 49% del valore del fatturato. Il turismo trova infatti online una crescente serie di applicazioni che portano innovazioni nel settore e che coinvolgono sempre di più gli stessi utenti con servizi come ad esempio Airbnb, oltre alle più "tradizionali" agenzie di viaggi online e i motori di ricerca per voli low cost. Nell'intrattenimento online, il 41% del valore è rappresentato dai giochi, dove non mancano le innovazioni come la crescente presenza su mobile. Ad esempio PokerStars è presente su mobile da diversi anni e in tempi più recenti ha lanciato una applicazione social per il gioco gratis, disponibile su iOS e Android.
Il mobile è uno dei trend più interessanti individuati dal report, visto che nel 2014 ha costituito il 13% sul totale dei ricavi derivanti dalle vendite online rispetto all’8,5% del 2013 e al 5% del 2012. Questo è stato possibile sia grazie alla crescente diffusione di smartphone e tablet tra gli utenti italiani, sia perché le stesse aziende hanno investito su questo canale, attraverso siti ottimizzati per mobile e applicazioni. La ricerca riporta una interessante dichiarazione del portale e-commerce vente-privee, secondo il quale il mobile avrebbe in parte colmato il gap nell'utilizzo di internet in Italia e questo canale rappresenta per loro il 45% del fatturato.
Insomma, se per chi vuole vendere online la parola d'ordine è "mobile", l'altro grande trend individuato dal report di Casaleggio Associati è quello dei marketplace (i "centri commerciali online" come Amazon e Ebay) che hanno visto crescere il loro fatturato del 55% rispetto allo scorso anno. Nel complesso rappresentano attualmente il 4% del valore dell'e-commerce in Italia, ma la loro crescita è destinata ad aumentare, visto che in mercati più maturi come quello della Gran Bretagna rappresentano un terzo del fatturato dei prodotti fisici venduti online.
Per quanto riguarda le prospettive future dell'e-commerce italiano, uno dei principali aspetti da tenere conto è la vendita all'estero, che secondo la ricerca rappresenta la principale leva di crescita. In questa ottica, i marketplace possono rappresentare un canale strategico per arrivare su mercati esteri. In generale, il commercio elettronico può rappresentare una ghiotta occasione per le piccole e medie imprese italiane, anche in vista degli obiettivi europei di portare entro il 2020 almeno un terzo delle PMI europee sull’e-commerce.
Rete veloce in Italia: presente e futuro della banda larga per le TV in streaming e i videogames
La rete Internet fa ormai parte della nostra quotidianità, tanto che ne usufruiamo senza pensarci. Accendiamo il computer, lo smartphone, il tablet e siamo automaticamente collegati; talvolta è necessario digitare una password, ma l’operazione è veloce e indolore. L’unico caso in cui ci ricordiamo dell'esistenza della rete e di quanto sia importante per noi è quando questa non funziona o va a singhiozzi, interrompendo il lavoro o l'intrattenimento. Anche chi possiede un abbonamento che permette di navigare tramite rete mobile necessita di connettersi in Wi-Fi ad una rete fissa a banda larga ed è dunque utile capire il livello italiano di diffusione di quest’ultima e quale è la sua effettiva velocità.
Infratel, società del ministero dello Sviluppo economico, attesta che la banda larga più diffusa sul territorio nazionale è quella che arriva a 20 Mbps, giungendo al 96,9% della popolazione. In questo caso la media è poco al di sotto di quella europea del 97%, ma più aumenta la velocità e più il divario fra copertura italiana ed europea si fa sentire. Solo il 22,3% degli italiani giova della copertura fino a 30 Mbps, mentre la media della popolazione europea arriva al 64% e va ancora peggio con la rete fino a 100 Mbps, fruibile dal 2,4% dei nostri connazionali e dal 6% dei cittadini europei.
Sempre Infratel permette di ricevere i dati a livello regionale oppure comunale e di monitorare i progressi dei lavori di copertura (sia ADSL che fibra ottica) nella propria città. I dati sopra riportati risalgono al 2014 e sono in fase di aggiornamento, dunque le percentuali della connettività nazionale sono poco più alte. Gli obiettivi governativi sono comunque rivolti verso l'aumento della banda ultra larga e verso la copertura del 100% delle città italiane interessate dagli investimenti privati.
La strada tracciata va nella direzione dello sviluppo della rete veloce, che renderà possibile ad un'ampia fetta della popolazione l'accesso a servizi altrimenti off limits. Basti pensare alla televisione in streaming e a quei giochi online che richiedono un'interazione veloce e che attualmente non sono fruibili con la banda larga. Ormai la TV in streaming è diventata una forma di intrattenimento ampiamente diffusa nelle aree coperte da banda ultra veloce, che va ben oltre la visione dei film e si attesta sempre di più su programmi TV diffusi in streaming. Sempre più ampia è anche la varietà dei passatempi praticati online e che richiedono una velocità di interazione elevata, assicurata solo da una rete veloce. Ad esempio su William Hill si può giocare a speed poker che come indica la parola stessa implica tempi brevi di gioco e quindi connessioni veloci. Lo stesso discorso vale per i giochi multiplayer online, come gli sparatutto in prima persona o anche i videogame di ruolo che permettono di compiere missioni con amici (come Diablo III), in cui è necessaria una linea veloce e costante per non invalidare la sessione di gioco.
Un futuro con la banda ultra larga permette anche l'Internet of Things (IoT), che non può esistere senza una rete veloce che lo supporti. L'IoT prevede infatti l'interazione con tutto ciò che ci circonda e per farlo si serve di sensori, attuatori, smart code e tag RFID applicati a un qualsiasi oggetto. L'oggetto in questione diventa dunque in grado di ricevere e trasmettere informazioni tramite il web ed è così che il nostro frigorifero ci farà sapere quali cibi stanno scadendo e che il pneumatico della nostra macchina ci dirà che sta per rompersi. Oltre agli oggetti saranno interessati servizi e infrastrutture, ma come ribadisce Fabio Santini, Direttore della Divisione Developer Experience e Evangelism di Microsoft Italia, "Oggi abbiamo linee più veloci a ricevere le informazioni che a mandarle, invece nel mondo dell'IoT sarà molto importante focalizzarci sulla capacità di mandare i dati dai sensori al cloud".
Infratel, società del ministero dello Sviluppo economico, attesta che la banda larga più diffusa sul territorio nazionale è quella che arriva a 20 Mbps, giungendo al 96,9% della popolazione. In questo caso la media è poco al di sotto di quella europea del 97%, ma più aumenta la velocità e più il divario fra copertura italiana ed europea si fa sentire. Solo il 22,3% degli italiani giova della copertura fino a 30 Mbps, mentre la media della popolazione europea arriva al 64% e va ancora peggio con la rete fino a 100 Mbps, fruibile dal 2,4% dei nostri connazionali e dal 6% dei cittadini europei.
Sempre Infratel permette di ricevere i dati a livello regionale oppure comunale e di monitorare i progressi dei lavori di copertura (sia ADSL che fibra ottica) nella propria città. I dati sopra riportati risalgono al 2014 e sono in fase di aggiornamento, dunque le percentuali della connettività nazionale sono poco più alte. Gli obiettivi governativi sono comunque rivolti verso l'aumento della banda ultra larga e verso la copertura del 100% delle città italiane interessate dagli investimenti privati.
La strada tracciata va nella direzione dello sviluppo della rete veloce, che renderà possibile ad un'ampia fetta della popolazione l'accesso a servizi altrimenti off limits. Basti pensare alla televisione in streaming e a quei giochi online che richiedono un'interazione veloce e che attualmente non sono fruibili con la banda larga. Ormai la TV in streaming è diventata una forma di intrattenimento ampiamente diffusa nelle aree coperte da banda ultra veloce, che va ben oltre la visione dei film e si attesta sempre di più su programmi TV diffusi in streaming. Sempre più ampia è anche la varietà dei passatempi praticati online e che richiedono una velocità di interazione elevata, assicurata solo da una rete veloce. Ad esempio su William Hill si può giocare a speed poker che come indica la parola stessa implica tempi brevi di gioco e quindi connessioni veloci. Lo stesso discorso vale per i giochi multiplayer online, come gli sparatutto in prima persona o anche i videogame di ruolo che permettono di compiere missioni con amici (come Diablo III), in cui è necessaria una linea veloce e costante per non invalidare la sessione di gioco.
Un futuro con la banda ultra larga permette anche l'Internet of Things (IoT), che non può esistere senza una rete veloce che lo supporti. L'IoT prevede infatti l'interazione con tutto ciò che ci circonda e per farlo si serve di sensori, attuatori, smart code e tag RFID applicati a un qualsiasi oggetto. L'oggetto in questione diventa dunque in grado di ricevere e trasmettere informazioni tramite il web ed è così che il nostro frigorifero ci farà sapere quali cibi stanno scadendo e che il pneumatico della nostra macchina ci dirà che sta per rompersi. Oltre agli oggetti saranno interessati servizi e infrastrutture, ma come ribadisce Fabio Santini, Direttore della Divisione Developer Experience e Evangelism di Microsoft Italia, "Oggi abbiamo linee più veloci a ricevere le informazioni che a mandarle, invece nel mondo dell'IoT sarà molto importante focalizzarci sulla capacità di mandare i dati dai sensori al cloud".
Come aumentare il segnale Wi-Fi in casa: 10 trucchi e consigli per migliorare la connessione Wireless
La connessione Wi-Fi è sicuramente molto comoda, forse è il tipo di connessione più comodo in assoluto per avere la rete ADSL in tutta la casa, così da poter connettere ogni dispositivo che abbiamo senza cavi. Se non fosse per le tante cose a cui bisogna stare attenti, sia per avere una connessione ben protetta, sia per averla comunque veloce e senza disturbi.
Per chi è alle prime armi con i router Wi-Fi, ma anche per i geek più attenti, è sempre molto utile leggere qualche consiglio in più, così da avere una connessione protetta ed efficiente allo stesso tempo. Ecco così una lista della cose più importanti da sapere e qualche trucco per il mondo Wi-Fi:
1. Utilizzare un router recente: per avere una connessione stabile e veloce dobbiamo assicurarci di avere un router di ultima generazione, o perlomeno uno con tecnologia N. Le tipologie di reti wireless si differenziano in: A, B, G, N, AC (in ordine cronologico). L'ultima è sicuramente la più potente e recente tecnologia utilizzabile, ma ha bisogno anche di hardware (la scheda di rete), nei dispositivi che devono connettersi, che la supportino (anche se è retro compatibile). Quindi se non abbiamo computer o smartphone e tablet recentissimi possiamo benissimo optare per un router che arriva alla connessione N. C'è anche un altro valore da tener contro: la velocità di trasmissione. Questa è la velocità con la quale il router comunica in wireless, e si può scegliere benissimo un router che arriva a 150/300 Mbps, che è già abbondantemente sufficiente (ne esistono alcuni che arrivano addirittura a 900, ma sono praticamente inutili e costano troppo).
2. Mettere il router nel luogo ideale: il router deve essere posto nel luogo giusto, per trasmettere una connessione veloce e priva di interferenze. Come prima regola dovrebbe essere posto al centro della casa ed essere sollevato da terra. Se invece dobbiamo utilizzare la rete wireless in una zona ben precisa della casa, mettiamo il router direttamente nel locale in cui lo utilizziamo maggiormente. Come ultima cosa, lasciamo il router in una zona dove può "respirare" bene e quindi trasmettere in modo efficiente e adeguato.
3. Tenere le antenne in verticale: le antenne sono importantissime per questo tipo di connessione. C'è chi dice che quelle interne funzionano in modo uguale a quelle esterne, c'è chi invece dice che è meglio averle esterne, e più ce ne sono meglio è. Qualsiasi siano il tipo di antenne presenti nel nostro router, facciamo attenzione a posizionarle in modo verticale, anche se non sono esterne, quindi se sono interne posizioniamo il router come è consigliato nella scheda del prodotto (di solito verticalmente anche questo).
4. Impostare il canale giusto: se abitiamo in una zona abbastanza trafficata, con parecchi router quindi, bisogna fare attenzione a scegliere il canale giusto per la nostra rete wireless. In un ambiente ideale non dovrebbero esserci più di tre router "vicini", perchè ogni canale occupa anche circa 2 canali a sinistra e due canali a destra (anche se non completamente) ed essendoci solo 13 canali disponibili, quelli che si possono occupare senza creare reciproci disturbi sono: 1, 6, 11 oppure 2, 7, 12 oppure 3, 8, 13.
Per scegliere il canale adeguato, si possono sfruttare alcuni software, come NetSurveyor, che identificano le reti Wi-Fi, presenti nella zona vicina a noi, informandoci anche dei canali occupati e di quelli che possono essere utilizzati senza subire particolari disturbi. Comunque sia, fino a 3 router si può evitare di sovrapporsi (con 2 si può anche inserirsi nel canale più lontano possibile dall'altro), mentre quando si inizia ad essere in tanti bisogna cercare di utilizzare il canale "più libero" (tenendo sempre conto che sarà disturbato e disturberà i due canali a destra e i due a sinistra).
5. Passare ad un router 5 GHz (se necessario): nel caso in cui ci fossero troppe reti wireless (che sfruttano la banda a 2,4 Ghz) si può pensare di passare ad un router che sfrutta anche la banda a 5 GHz. Qui abbiamo molti più canali (non sovrapposti) che non hanno niente a che fare con i canali delle reti a 2,4 GHz, quindi non vengono disturbati minimamente, neanche da altri dispositivi che possono interferire (punto 6).
6. Fare attenzione alle interferenze: oltre agli altri router, che possono disturbare la nostra rete, le interferenze più forti arrivano sicuramente dai forni a microonde, seguiti dai segnali bluetooth, e infine dai telefoni cordless. Questi ultimi due non rallentano più di tanto la navigazione, mentre i forni a microonde, naturalmente quando sono in funzione, disturbano tantissimo le reti Wi-Fi, rendendo quasi impossibile la navigazione.
Per non avere questi tipi di disturbi si può utilizzare un router che sfrutta la banda a 5 GHz (punto 5).
7. Impostare la protezione adeguata: la protezione migliore è la WPA2 ma, se per qualche motivo non è disponibile o abbiamo vecchi dispositivi che non la supportano, è possibile anche impostare la WPA. La protezione WEP invece non impostiamola mai (nei più recenti non è neanche più disponibile) perchè ormai è stato accertato che non è più sicura ed è facilmente hackerabile.
Una volta scelta la tipologia di protezione possiamo impostare la password per la nostra rete Wi-Fi.
8. Diminuire la velocità di trasmissione (se necessario): se vediamo che la connessione wireless impostata alla "potenza massima" non regge per quello che dobbiamo fare, possiamo sempre diminuire la velocità di trasmissione, quindi possiamo farla scendere da 300 Mbps a 145 Mbps per esempio, oppure scendere ancora a 54. Meglio avere una connessione stabile con una normale velocità, che una instabile ma velocissima.
9. Amplificare la connessione (se necessario): quando la rete Wi-Fi non è visibile in alcuni punti della casa o non riesce a raggiungere il punto in cui dobbiamo connetterci, possiamo optare per l'introduzione di un ripetitore (o, per meglio dire, un range extender). E' sempre meglio non utilizzare ripetitori fino a quando la connessione è buona, perchè mettendo questo tipo di dispositivo andiamo a rallentare di qualche secondo la velocità di trasmissione, però se è necessario può tornare veramente utile aggiungere un ripetitore per far arrivare la rete Wi-Fi in punti dove prima era impensabile farla arrivare.
10. Fare speedtest di verifica: una volta terminate le varie ottimizzazioni sarebbe meglio fare uno speedtest tramite uno dei migliori siti per scoprire la velocità della nostra ADSL. Questi test normalmente andrebbero fatti tramite cavo Ethernet, e non tramite Wi-Fi, per avere risultati più accurati, però in questo caso, per vedere se la connessione funziona a dovere, possiamo lo stesso fare dei test per verificare che tutto sia a posto.
Molto probabilmente non raggiungeremo la stessa velocità che raggiungeremmo tramite cavo, ma ora, con tutti i miglioramenti e le ottimizzazioni che abbiamo fatto, la velocità wireless non dovrebbe essere molto distante dalla velocità via cavo.
Per chi è alle prime armi con i router Wi-Fi, ma anche per i geek più attenti, è sempre molto utile leggere qualche consiglio in più, così da avere una connessione protetta ed efficiente allo stesso tempo. Ecco così una lista della cose più importanti da sapere e qualche trucco per il mondo Wi-Fi:
1. Utilizzare un router recente: per avere una connessione stabile e veloce dobbiamo assicurarci di avere un router di ultima generazione, o perlomeno uno con tecnologia N. Le tipologie di reti wireless si differenziano in: A, B, G, N, AC (in ordine cronologico). L'ultima è sicuramente la più potente e recente tecnologia utilizzabile, ma ha bisogno anche di hardware (la scheda di rete), nei dispositivi che devono connettersi, che la supportino (anche se è retro compatibile). Quindi se non abbiamo computer o smartphone e tablet recentissimi possiamo benissimo optare per un router che arriva alla connessione N. C'è anche un altro valore da tener contro: la velocità di trasmissione. Questa è la velocità con la quale il router comunica in wireless, e si può scegliere benissimo un router che arriva a 150/300 Mbps, che è già abbondantemente sufficiente (ne esistono alcuni che arrivano addirittura a 900, ma sono praticamente inutili e costano troppo).
2. Mettere il router nel luogo ideale: il router deve essere posto nel luogo giusto, per trasmettere una connessione veloce e priva di interferenze. Come prima regola dovrebbe essere posto al centro della casa ed essere sollevato da terra. Se invece dobbiamo utilizzare la rete wireless in una zona ben precisa della casa, mettiamo il router direttamente nel locale in cui lo utilizziamo maggiormente. Come ultima cosa, lasciamo il router in una zona dove può "respirare" bene e quindi trasmettere in modo efficiente e adeguato.
3. Tenere le antenne in verticale: le antenne sono importantissime per questo tipo di connessione. C'è chi dice che quelle interne funzionano in modo uguale a quelle esterne, c'è chi invece dice che è meglio averle esterne, e più ce ne sono meglio è. Qualsiasi siano il tipo di antenne presenti nel nostro router, facciamo attenzione a posizionarle in modo verticale, anche se non sono esterne, quindi se sono interne posizioniamo il router come è consigliato nella scheda del prodotto (di solito verticalmente anche questo).
4. Impostare il canale giusto: se abitiamo in una zona abbastanza trafficata, con parecchi router quindi, bisogna fare attenzione a scegliere il canale giusto per la nostra rete wireless. In un ambiente ideale non dovrebbero esserci più di tre router "vicini", perchè ogni canale occupa anche circa 2 canali a sinistra e due canali a destra (anche se non completamente) ed essendoci solo 13 canali disponibili, quelli che si possono occupare senza creare reciproci disturbi sono: 1, 6, 11 oppure 2, 7, 12 oppure 3, 8, 13.
Per scegliere il canale adeguato, si possono sfruttare alcuni software, come NetSurveyor, che identificano le reti Wi-Fi, presenti nella zona vicina a noi, informandoci anche dei canali occupati e di quelli che possono essere utilizzati senza subire particolari disturbi. Comunque sia, fino a 3 router si può evitare di sovrapporsi (con 2 si può anche inserirsi nel canale più lontano possibile dall'altro), mentre quando si inizia ad essere in tanti bisogna cercare di utilizzare il canale "più libero" (tenendo sempre conto che sarà disturbato e disturberà i due canali a destra e i due a sinistra).
5. Passare ad un router 5 GHz (se necessario): nel caso in cui ci fossero troppe reti wireless (che sfruttano la banda a 2,4 Ghz) si può pensare di passare ad un router che sfrutta anche la banda a 5 GHz. Qui abbiamo molti più canali (non sovrapposti) che non hanno niente a che fare con i canali delle reti a 2,4 GHz, quindi non vengono disturbati minimamente, neanche da altri dispositivi che possono interferire (punto 6).
6. Fare attenzione alle interferenze: oltre agli altri router, che possono disturbare la nostra rete, le interferenze più forti arrivano sicuramente dai forni a microonde, seguiti dai segnali bluetooth, e infine dai telefoni cordless. Questi ultimi due non rallentano più di tanto la navigazione, mentre i forni a microonde, naturalmente quando sono in funzione, disturbano tantissimo le reti Wi-Fi, rendendo quasi impossibile la navigazione.
Per non avere questi tipi di disturbi si può utilizzare un router che sfrutta la banda a 5 GHz (punto 5).
7. Impostare la protezione adeguata: la protezione migliore è la WPA2 ma, se per qualche motivo non è disponibile o abbiamo vecchi dispositivi che non la supportano, è possibile anche impostare la WPA. La protezione WEP invece non impostiamola mai (nei più recenti non è neanche più disponibile) perchè ormai è stato accertato che non è più sicura ed è facilmente hackerabile.
Una volta scelta la tipologia di protezione possiamo impostare la password per la nostra rete Wi-Fi.
8. Diminuire la velocità di trasmissione (se necessario): se vediamo che la connessione wireless impostata alla "potenza massima" non regge per quello che dobbiamo fare, possiamo sempre diminuire la velocità di trasmissione, quindi possiamo farla scendere da 300 Mbps a 145 Mbps per esempio, oppure scendere ancora a 54. Meglio avere una connessione stabile con una normale velocità, che una instabile ma velocissima.
9. Amplificare la connessione (se necessario): quando la rete Wi-Fi non è visibile in alcuni punti della casa o non riesce a raggiungere il punto in cui dobbiamo connetterci, possiamo optare per l'introduzione di un ripetitore (o, per meglio dire, un range extender). E' sempre meglio non utilizzare ripetitori fino a quando la connessione è buona, perchè mettendo questo tipo di dispositivo andiamo a rallentare di qualche secondo la velocità di trasmissione, però se è necessario può tornare veramente utile aggiungere un ripetitore per far arrivare la rete Wi-Fi in punti dove prima era impensabile farla arrivare.
10. Fare speedtest di verifica: una volta terminate le varie ottimizzazioni sarebbe meglio fare uno speedtest tramite uno dei migliori siti per scoprire la velocità della nostra ADSL. Questi test normalmente andrebbero fatti tramite cavo Ethernet, e non tramite Wi-Fi, per avere risultati più accurati, però in questo caso, per vedere se la connessione funziona a dovere, possiamo lo stesso fare dei test per verificare che tutto sia a posto.
Molto probabilmente non raggiungeremo la stessa velocità che raggiungeremmo tramite cavo, ma ora, con tutti i miglioramenti e le ottimizzazioni che abbiamo fatto, la velocità wireless non dovrebbe essere molto distante dalla velocità via cavo.
Nokia 3310 l'indistruttibile: il miglior telefono cellulare della storia era meglio degli smartphone di oggi
Il Nokia 3310, soprannominato "l'indistruttibile", è stato il miglior telefono cellulare della storia. E' stato oggetto negli anni di molte leggende, ma a confronto con gli smartphone di oggi sembrano veramente delle leggende le cose che poteva fare, una su tutte la durata della batteria, che oggi non dura più di 2 giorni (al massimo), mentre prima ci si scordava di ricaricarla.
Ovviamente gli smartphone di oggi sono molto più potenti, hanno tantissime app e molte più funzioni, tanto da diventare dei veri e propri computer tascabili, però anche i vecchi cellulari avevano un loro fascino.
Il Nokia 3310 è stato lanciato nel 2000 con un prezzo di lancio di circa 99€ (sul mercato europeo) ed è stato uno dei cellulari di maggior successo, raggiungendo i 130 milioni di esemplari venduti, sorpassato (ai tempi) solo dal suo predecessore, il Nokia 3210, con i suoi 150 milioni.
Vediamo 10 motivi per cui il Nokia 3310 è migliore degli smartphone di oggi:
1. La batteria durava di più (era infinita): quasi ci si dimenticava del caricabatterie, mentre ora almeno una volta al giorno bisogna metterlo sotto carica per riempire di nuovo la batteria.
Il buon vecchio Nokia 3310 durava almeno una decina di giorni, e soprattutto quando segnalava che la batteria era scarica potevamo stare tranquilli che un altro giorno poteva passare prima dello spegnimento totale.
2. Non si rompeva mai (era indistruttibile): questa è forse una delle leggende più famose che riguardano il Nokia 3310. Il fatto è che veramente era indistruttibile, si poteva farlo cadere anche dal secondo piano di un palazzo che non si rompeva (e la leggenda narra anche che in quel caso è l'asfalto che si rompe). E poi, se anche per caso si rompeva, i tempi di riparazione erano sicuramente molto più rapidi degli smartphone di oggi, che se dovessero cadere solamente da un tavolino potrebbero andare in mille pezzi.
3. Prendeva sempre e ovunque: il Nokia 3310 prendeva in qualsiasi posto, e sempre con 4 tacchettine piene. Bisognava andare veramente in posti sperduti per non riuscire a telefonare, mentre oggi è già difficile riuscire a prendere con 3 tacche.
Anche se bisogna dire che il problema principale è che comunque le reti di oggi sono invase da qualsiasi segnale in grado di disturbare gli smartphone, in primis le reti 3G e 4G.
4. Non si bloccava mai: era sempre velocissimo, non si bloccava praticamente mai e neanche rallentava minimamente. A differenza degli smartphone che molte volte si impallano, crashano, si spengono e hanno problemi di ogni tipo.
5. Lo schermo era sempre ben visibile: si poteva stare al buio, al sole, in montagna, al mare o in qualsiasi altro posto che lo schermo risultava sempre ben visibile. Ora i display hanno bisogno di stare in particolare condizioni per essere ben visti, anche se è possibile impostare la luminosità automatica.
6. Stava in mano e in tasca facilmente: gli smartphone ormai arrivano a dimensioni improponibili, non così tanto per l'utilizzo (anche se il 3310 stava in mano molto più facilmente) ma soprattutto per il trasporto. I 5 pollici di moltissimi smartphone iniziano già a starci a fatica nelle tasche, mentre il Nokia 3310 ci stava benissimo, e non pesava neanche moltissimo nonostante uno dei tanti soprannomi (telefono mattone).
7. Era facile da usare: c'erano poche impostazioni da settare e poi era già pronto all'uso. Praticamente tutti sapevano usare il Nokia 3310 dopo 2 o 3 giorni dall'acquisto. Con gli smartphone bisogna essere ormai almeno un po' a conoscenza del mondo dei computer.
8. Era completamente personalizzabile: la custodia o, come veniva chiamata comunemente, la cover era completamente intercambiabile. Si poteva cambiare anche la parte davanti, oggi ad esempio solo dietro, e ne esistevano a migliaia, tanto da poter rendere il proprio cellulare unico e diverso da ogni altro.
9. C'erano i giochini "universali": poi c'erano i giochini come Snake, Space Impact e Bantumi, che erano diventati famosissimi e soprattutto tutti ci giocavano (dato che c'erano solo quelli). Tra l'altro si poteva giocare veramente molto più tempo, senza frantumare la batteria, e addirittura con una mano sola o anche un dito solo.
10. La mania del compositore musicale per le suonerie: una delle manie che erano spopolate ai tempi era il compositore musicale. Con questo strumento si potevano creare suonerie scrivendo a mano (o per meglio dire, a dita) le note musicali. Queste si potevano anche inviare ad amici così da potersi scambiare moltissime suonerie senza problemi.
10+. La sveglia funzionava anche a telefono spento: si poteva utilizzare la sveglia anche con il telefono spento, ora invece è gestita dal software e dal sistema operativo, quindi bisogna per forza tenere il cellulare acceso per far sì che la sveglia si attivi all'orario prestabilito. Prima invece si poteva impostare la sveglia, spegnere pure il cellulare, e al momento giusto il nostro Nokia 3310 si accendeva per svegliarci.
Passando ai telefoni cellulari in generale, possiamo dire che ogni telefono aveva un suo sistema operativo, diverso per marca e anche per modello. Oggi, invece, la maggior parte degli smartphone sono tutti uguali: "visto uno visti tutti". Si possono dividere in 3 categorie: gli iPhone (con iOS), i Nokia (con Windows Phone), e tutti gli altri praticamente simili tra loro (con Android).
Per i più retrò, il Nokia 3310 è ancora disponibile, e si può comprare, ad esempio, su Amazon per poco più di 60 euro.
Ovviamente gli smartphone di oggi sono molto più potenti, hanno tantissime app e molte più funzioni, tanto da diventare dei veri e propri computer tascabili, però anche i vecchi cellulari avevano un loro fascino.
Il Nokia 3310 è stato lanciato nel 2000 con un prezzo di lancio di circa 99€ (sul mercato europeo) ed è stato uno dei cellulari di maggior successo, raggiungendo i 130 milioni di esemplari venduti, sorpassato (ai tempi) solo dal suo predecessore, il Nokia 3210, con i suoi 150 milioni.
Vediamo 10 motivi per cui il Nokia 3310 è migliore degli smartphone di oggi:
1. La batteria durava di più (era infinita): quasi ci si dimenticava del caricabatterie, mentre ora almeno una volta al giorno bisogna metterlo sotto carica per riempire di nuovo la batteria.
Il buon vecchio Nokia 3310 durava almeno una decina di giorni, e soprattutto quando segnalava che la batteria era scarica potevamo stare tranquilli che un altro giorno poteva passare prima dello spegnimento totale.
2. Non si rompeva mai (era indistruttibile): questa è forse una delle leggende più famose che riguardano il Nokia 3310. Il fatto è che veramente era indistruttibile, si poteva farlo cadere anche dal secondo piano di un palazzo che non si rompeva (e la leggenda narra anche che in quel caso è l'asfalto che si rompe). E poi, se anche per caso si rompeva, i tempi di riparazione erano sicuramente molto più rapidi degli smartphone di oggi, che se dovessero cadere solamente da un tavolino potrebbero andare in mille pezzi.
3. Prendeva sempre e ovunque: il Nokia 3310 prendeva in qualsiasi posto, e sempre con 4 tacchettine piene. Bisognava andare veramente in posti sperduti per non riuscire a telefonare, mentre oggi è già difficile riuscire a prendere con 3 tacche.
Anche se bisogna dire che il problema principale è che comunque le reti di oggi sono invase da qualsiasi segnale in grado di disturbare gli smartphone, in primis le reti 3G e 4G.
4. Non si bloccava mai: era sempre velocissimo, non si bloccava praticamente mai e neanche rallentava minimamente. A differenza degli smartphone che molte volte si impallano, crashano, si spengono e hanno problemi di ogni tipo.
5. Lo schermo era sempre ben visibile: si poteva stare al buio, al sole, in montagna, al mare o in qualsiasi altro posto che lo schermo risultava sempre ben visibile. Ora i display hanno bisogno di stare in particolare condizioni per essere ben visti, anche se è possibile impostare la luminosità automatica.
6. Stava in mano e in tasca facilmente: gli smartphone ormai arrivano a dimensioni improponibili, non così tanto per l'utilizzo (anche se il 3310 stava in mano molto più facilmente) ma soprattutto per il trasporto. I 5 pollici di moltissimi smartphone iniziano già a starci a fatica nelle tasche, mentre il Nokia 3310 ci stava benissimo, e non pesava neanche moltissimo nonostante uno dei tanti soprannomi (telefono mattone).
7. Era facile da usare: c'erano poche impostazioni da settare e poi era già pronto all'uso. Praticamente tutti sapevano usare il Nokia 3310 dopo 2 o 3 giorni dall'acquisto. Con gli smartphone bisogna essere ormai almeno un po' a conoscenza del mondo dei computer.
8. Era completamente personalizzabile: la custodia o, come veniva chiamata comunemente, la cover era completamente intercambiabile. Si poteva cambiare anche la parte davanti, oggi ad esempio solo dietro, e ne esistevano a migliaia, tanto da poter rendere il proprio cellulare unico e diverso da ogni altro.
9. C'erano i giochini "universali": poi c'erano i giochini come Snake, Space Impact e Bantumi, che erano diventati famosissimi e soprattutto tutti ci giocavano (dato che c'erano solo quelli). Tra l'altro si poteva giocare veramente molto più tempo, senza frantumare la batteria, e addirittura con una mano sola o anche un dito solo.
10. La mania del compositore musicale per le suonerie: una delle manie che erano spopolate ai tempi era il compositore musicale. Con questo strumento si potevano creare suonerie scrivendo a mano (o per meglio dire, a dita) le note musicali. Queste si potevano anche inviare ad amici così da potersi scambiare moltissime suonerie senza problemi.
10+. La sveglia funzionava anche a telefono spento: si poteva utilizzare la sveglia anche con il telefono spento, ora invece è gestita dal software e dal sistema operativo, quindi bisogna per forza tenere il cellulare acceso per far sì che la sveglia si attivi all'orario prestabilito. Prima invece si poteva impostare la sveglia, spegnere pure il cellulare, e al momento giusto il nostro Nokia 3310 si accendeva per svegliarci.
Passando ai telefoni cellulari in generale, possiamo dire che ogni telefono aveva un suo sistema operativo, diverso per marca e anche per modello. Oggi, invece, la maggior parte degli smartphone sono tutti uguali: "visto uno visti tutti". Si possono dividere in 3 categorie: gli iPhone (con iOS), i Nokia (con Windows Phone), e tutti gli altri praticamente simili tra loro (con Android).
Per i più retrò, il Nokia 3310 è ancora disponibile, e si può comprare, ad esempio, su Amazon per poco più di 60 euro.
HTML5: cos'è, cosa cambia e cosa si può fare - Tutto quello che c'è da sapere sul nuovo linguaggio del web
Per capire bene cos'è l'HTML5 dobbiamo partire dal principio, ovvero dall'HTML.
L'HTML (Hyper Text Markup Language) è un linguaggio, o ancora meglio un codice, usato per formattare (costruire, scrivere) le pagine web di ogni sito. Praticamente sono tutte le "scritte" che compongono il codice sorgente di ogni pagina su Internet, che permettono la formattazione dei documenti ipertestuali (pagine web con link).
L'HTML quindi, in breve, è un linguaggio di markup, che, a differenza dei linguaggi di programmazione (che prevedono regole di sintassi ben precise), comprende tutte le regole che servono a definire e a standardizzare le pagine web.
L'HTML però si è "evoluto" più volte (anche se non è una vera e propria evoluzione, ma i nuovi linguaggi cercano di mantenere molte regole usate precedentemente, per non creare troppe pagine incompatibili), passando per l'XHTML, fino ad arrivare all'HTML5. Sembrano dei passaggi semplici, ma dietro ad ogni linguaggio ci sono anni e anni di studio, dove vengono sperimentate moltissime funzioni e soprattutto si cerca di semplificare la vita anche agli sviluppatori.
E dietro all'HTML5 c'è un team formato da: Apple, Mozilla, Opera, e Google. Questi grandi del web hanno formato il team WHATWG (Web Hypertext Application Technology Working Group) per poi sperimentare anche con il famoso gruppo W3C, che poi però ha abbandonato perchè voleva una versione unica, che non si evolvesse nel tempo (ogni versione uno standard diverso).
Insomma i lavori sono iniziati nel 2004 e più o meno a fine 2014 possono dichiararsi conclusi, almeno per quanto riguarda la sperimentazione.
Di fatto però esistono due versioni HTML5, una creata dal W3C dopo la scissione (versione unica), e l'altra creata dal WHATWG (in continua evoluzione), ma entrambi portano enormi miglioramenti sia per chi sviluppa pagine html sia per chi naviga normalmente su Internet:
1. Regole più semplici per la strutturazione della pagina: capitoli, paragrafi e sezioni;
2. Introdotti nuovi markup per la gestione dei menu di navigazione;
3. Vengono migliorati ed estesi gli elementi di controllo per i moduli elettronici;
4. Regole più semplici per l'aggiunta di audio e video: tag <audio> e <video> che vanno a sostituire molti plugin (come il Flash Player ad esempio);
5. Aggiunti gli attributi a tutti i tag per migliorare la pubblicazione (finora erano previsti solo per alcuni);
6. Migliorie nel mondo JavaScript grazie al supporto a Canvas e ai Web Workers (nuove standardizzazioni) che danno anche la possibilità di utilizzare alcuni siti offline;
7. Sostituzione dei cookie con il sistema Web Storage, più efficiente e di prestazioni migliori;
8. Introdotta la geolocalizzazione, data la diffusione degli smartphone;
9. Sostituito il doctype, la stringa che definisce il tipo di codice HTML utilizzato nella pagina, con un tag più semplice;
10. Eliminati elementi poco utilizzati fino ad ora.
Tra le novità più importanti c'è sicuramente la possibilità di poter eliminare molti plugin (YouTube l'ha già fatto) e con loro vengono eliminati anche molteplici problemi, poi c'è anche la possibilità di sfruttare numerose WebApp (anche offline), oltre a nuovi Web Workers che vanno a sostituire i cookie.
Queste descritte sono solo le funzioni che gli utenti possono "utilizzare", mentre tutte le altre appartengono al mondo degli sviluppatori, che vengono aiutati enormemente nella scrittura delle pagine html, oltre che a renderle ottimizzate sia per computer che per smartphone, tablet e qualsiasi altro dispositivo in un colpo solo.
L'HTML (Hyper Text Markup Language) è un linguaggio, o ancora meglio un codice, usato per formattare (costruire, scrivere) le pagine web di ogni sito. Praticamente sono tutte le "scritte" che compongono il codice sorgente di ogni pagina su Internet, che permettono la formattazione dei documenti ipertestuali (pagine web con link).
L'HTML quindi, in breve, è un linguaggio di markup, che, a differenza dei linguaggi di programmazione (che prevedono regole di sintassi ben precise), comprende tutte le regole che servono a definire e a standardizzare le pagine web.
L'HTML però si è "evoluto" più volte (anche se non è una vera e propria evoluzione, ma i nuovi linguaggi cercano di mantenere molte regole usate precedentemente, per non creare troppe pagine incompatibili), passando per l'XHTML, fino ad arrivare all'HTML5. Sembrano dei passaggi semplici, ma dietro ad ogni linguaggio ci sono anni e anni di studio, dove vengono sperimentate moltissime funzioni e soprattutto si cerca di semplificare la vita anche agli sviluppatori.
E dietro all'HTML5 c'è un team formato da: Apple, Mozilla, Opera, e Google. Questi grandi del web hanno formato il team WHATWG (Web Hypertext Application Technology Working Group) per poi sperimentare anche con il famoso gruppo W3C, che poi però ha abbandonato perchè voleva una versione unica, che non si evolvesse nel tempo (ogni versione uno standard diverso).
Insomma i lavori sono iniziati nel 2004 e più o meno a fine 2014 possono dichiararsi conclusi, almeno per quanto riguarda la sperimentazione.
Di fatto però esistono due versioni HTML5, una creata dal W3C dopo la scissione (versione unica), e l'altra creata dal WHATWG (in continua evoluzione), ma entrambi portano enormi miglioramenti sia per chi sviluppa pagine html sia per chi naviga normalmente su Internet:
1. Regole più semplici per la strutturazione della pagina: capitoli, paragrafi e sezioni;
2. Introdotti nuovi markup per la gestione dei menu di navigazione;
3. Vengono migliorati ed estesi gli elementi di controllo per i moduli elettronici;
4. Regole più semplici per l'aggiunta di audio e video: tag <audio> e <video> che vanno a sostituire molti plugin (come il Flash Player ad esempio);
5. Aggiunti gli attributi a tutti i tag per migliorare la pubblicazione (finora erano previsti solo per alcuni);
6. Migliorie nel mondo JavaScript grazie al supporto a Canvas e ai Web Workers (nuove standardizzazioni) che danno anche la possibilità di utilizzare alcuni siti offline;
7. Sostituzione dei cookie con il sistema Web Storage, più efficiente e di prestazioni migliori;
8. Introdotta la geolocalizzazione, data la diffusione degli smartphone;
9. Sostituito il doctype, la stringa che definisce il tipo di codice HTML utilizzato nella pagina, con un tag più semplice;
10. Eliminati elementi poco utilizzati fino ad ora.
Tra le novità più importanti c'è sicuramente la possibilità di poter eliminare molti plugin (YouTube l'ha già fatto) e con loro vengono eliminati anche molteplici problemi, poi c'è anche la possibilità di sfruttare numerose WebApp (anche offline), oltre a nuovi Web Workers che vanno a sostituire i cookie.
Queste descritte sono solo le funzioni che gli utenti possono "utilizzare", mentre tutte le altre appartengono al mondo degli sviluppatori, che vengono aiutati enormemente nella scrittura delle pagine html, oltre che a renderle ottimizzate sia per computer che per smartphone, tablet e qualsiasi altro dispositivo in un colpo solo.
SanDisk presenta le nuove microSD da 200 GB: archivio video che arriva fino a 20 ore in Full HD
SanDisk è una delle aziende più note nel settore dell'archiviazione dati. E' forse il più grande produttore di memorie flash, come chiavette USB, memory card e microSD.
Non è nuova a segnare record e quindi a introdurre per prima novità tecnologiche di alto livello.
Questa volta è toccato ad un record incredibile, se si pensa che anche uno smartphone potrà ben presto immagazzinare dati più o meno come se avesse un micro hard disk all'interno. Dopo il record superato l'anno scorso, con le memorie microSD da 128 GB, quest'anno, al Mobile World Congress 2015, ha presentato le nuovissime microSD da 200 GB (Ultra microSDXC UHS-I card).
Per rendere bene l'idea della potenza di questa memoria, ecco alcuni dati forniti direttamente da SanDisk, sulle possibilità di archiviazione:
-Video: memorizza fino a 20 ore di video Full HD
-Trasferimenti (medi): fino a 90 MB/s
-Trasferimenti (foto): fino a 1200 foto in un solo minuto (basato sul trasferimento di 4.1 GB di foto con il lettore USB 3.0)
-Classe 10 per la registrazione Full HD e la riproduzione senza rallentamenti
-Design resistente all'acqua, agli sbalzi di temperatura, ai magneti e perfino ai raggi X
La scheda, nonostante lo spazio di archiviazione immenso, è rimasta uguale identica al solito standard, ovvero ha dimensioni pari a 15x11x1 (millimetri).
Scrive a 10 MB/s garantiti ma arriva anche alla velocità di picco di 90 MB/s. Questa microSD è compatibile con tutti i dispositivi che supportano lo standard SDXC e sarà in vendita a breve al prezzo, non così economico, di 399 dollari (359 euro circa).
Non è nuova a segnare record e quindi a introdurre per prima novità tecnologiche di alto livello.
Questa volta è toccato ad un record incredibile, se si pensa che anche uno smartphone potrà ben presto immagazzinare dati più o meno come se avesse un micro hard disk all'interno. Dopo il record superato l'anno scorso, con le memorie microSD da 128 GB, quest'anno, al Mobile World Congress 2015, ha presentato le nuovissime microSD da 200 GB (Ultra microSDXC UHS-I card).
Per rendere bene l'idea della potenza di questa memoria, ecco alcuni dati forniti direttamente da SanDisk, sulle possibilità di archiviazione:
-Video: memorizza fino a 20 ore di video Full HD
-Trasferimenti (medi): fino a 90 MB/s
-Trasferimenti (foto): fino a 1200 foto in un solo minuto (basato sul trasferimento di 4.1 GB di foto con il lettore USB 3.0)
-Classe 10 per la registrazione Full HD e la riproduzione senza rallentamenti
-Design resistente all'acqua, agli sbalzi di temperatura, ai magneti e perfino ai raggi X
La scheda, nonostante lo spazio di archiviazione immenso, è rimasta uguale identica al solito standard, ovvero ha dimensioni pari a 15x11x1 (millimetri).
Scrive a 10 MB/s garantiti ma arriva anche alla velocità di picco di 90 MB/s. Questa microSD è compatibile con tutti i dispositivi che supportano lo standard SDXC e sarà in vendita a breve al prezzo, non così economico, di 399 dollari (359 euro circa).
Polaroid Socialmatic: la nuova Polaroid è digitale, stampa senza inchiostro e sembra Instagram
Polaroid sembrava destinata ad una sfortunata fine, invece nel 2008, dopo aver definitivamente cessato di produrre la "vecchia generazione" di macchine fotografiche con pellicole instantanee, ha annunciato che avrebbe portato avanti un nuovo progetto "digitale".
Finalmente, a inizio 2015, sono arrivate le nuove Polaroid Socialmatic, con tecnologia ZINK (Zero-Ink), che riescono a stampare le foto senza l'utilizzo d'inchiostro (quindi niente cartucce da comprare). La nuova fotocamera contiene una minuscola stampante a colori che opera su una carta fotografica particolare, fatta di pigmenti cristallini che si colorano grazie a un processo termico particolare.
Ma ecco nel dettaglio le caratteristiche della Polaroid Socialmatic;
-Fotocamera: la nuova Socialmatic dispone di due fotocamere. La principale è da 14 MP ed è equipaggiata con un flash LED, mentre la secondaria, quella che dovrebbe essere principalmente usata per gli autoscatti (ormai si è diffusa la moda dei "selfie"), è da 2 MP.
-Display: due display touchscreen, uno per ogni fotocamera. Il primo display è da 4,5 pollici ed è essenziale per interagire con il sistema Polaroid (sistema basato su Android), il secondo invece mostra solo delle emoticons (faccine e simboli) a seconda delle foto che facciamo e delle notifiche che riceviamo.
Di supporto è presente anche uno speaker, sia per vedere i video, e ascoltarli, sia per il suono dell'otturatore.
-Connessioni: con un nome così social non poteva non disporre di connessioni. Consente di connettersi con le reti Wi-Fi, inviare e ricevere via Bluetooth, e geotaggare le foto tramite GPS. Tutto molto utile per chi condivide sempre ogni foto tramite Facebook o Twitter ad esempio, e grazie alle app tutto diventa più semplice e immediato.
-Supporti visione/stampa: 4 GB e 10 fogli iniziali. All'interno è già presente una memoria di 4 GB ma è possibile aggiungere una microSD fino a 32 GB, mentre per quanto riguarda i fogli, per stampare le foto, all'inizio ne sono presenti solo 10, di dimensioni standard 5x8 cm (circa).
-Dimensioni e peso: la Socialmatic è alta 130 mm, larga 130 mm e spessa 32 mm, ma nonostante le dimensioni non così eccessive pesa comunque 400 g.
-Prezzo e costi: la Polaroid Socialmatic ha un solo punto a suo sfavore per ora, il prezzo forse un po' troppo alto, ovvero 300 dollari (circa 250 euro), anche se poi i fogli ZINK vengono a costare sui 15/20 euro per pacchetti di 30 o 50. Facendo due conti con 20 euro dovremmo riuscire a stampare almeno 40/50 foto (0,40/0,50 centesimi a foto).
A primo impatto sembra quasi di dover comprare la fotocamera di Instagram, dato che sia per la forma che per il design assomiglia davvero moltissimo all'icona dell'app del social network delle foto. Il concept comunque non ha nulla a che fare con Instagram, ma dovrebbe essere solo "casualmente" simile (o forse per questioni di marketing).
Una cosa molto positiva è che il sistema operativo è Android, così si possono installare veramente tantissime app dedicate al fotoritocco e modificare le foto a piacere e con effetti particolari.
Per chi non vuole spendere 300 dollari per comprare la Socialmatic, Polaroid metterà in commercio la Polaroid Zip Instant Mobile Printer entro aprile 2015, che costerà 129 dollari (circa 100 euro). Questa è solo una stampante ma è comunque utilissima perchè ha praticamente le stesse funzioni della Socialmatic (stampa sui fogli ZINK) soltanto che lo fa tramite un dispositivo esterno, come ad esempio il nostro smartphone (tramite connessioni senza fili).
Finalmente, a inizio 2015, sono arrivate le nuove Polaroid Socialmatic, con tecnologia ZINK (Zero-Ink), che riescono a stampare le foto senza l'utilizzo d'inchiostro (quindi niente cartucce da comprare). La nuova fotocamera contiene una minuscola stampante a colori che opera su una carta fotografica particolare, fatta di pigmenti cristallini che si colorano grazie a un processo termico particolare.
Ma ecco nel dettaglio le caratteristiche della Polaroid Socialmatic;
-Fotocamera: la nuova Socialmatic dispone di due fotocamere. La principale è da 14 MP ed è equipaggiata con un flash LED, mentre la secondaria, quella che dovrebbe essere principalmente usata per gli autoscatti (ormai si è diffusa la moda dei "selfie"), è da 2 MP.
-Display: due display touchscreen, uno per ogni fotocamera. Il primo display è da 4,5 pollici ed è essenziale per interagire con il sistema Polaroid (sistema basato su Android), il secondo invece mostra solo delle emoticons (faccine e simboli) a seconda delle foto che facciamo e delle notifiche che riceviamo.
Di supporto è presente anche uno speaker, sia per vedere i video, e ascoltarli, sia per il suono dell'otturatore.
-Connessioni: con un nome così social non poteva non disporre di connessioni. Consente di connettersi con le reti Wi-Fi, inviare e ricevere via Bluetooth, e geotaggare le foto tramite GPS. Tutto molto utile per chi condivide sempre ogni foto tramite Facebook o Twitter ad esempio, e grazie alle app tutto diventa più semplice e immediato.
-Supporti visione/stampa: 4 GB e 10 fogli iniziali. All'interno è già presente una memoria di 4 GB ma è possibile aggiungere una microSD fino a 32 GB, mentre per quanto riguarda i fogli, per stampare le foto, all'inizio ne sono presenti solo 10, di dimensioni standard 5x8 cm (circa).
-Dimensioni e peso: la Socialmatic è alta 130 mm, larga 130 mm e spessa 32 mm, ma nonostante le dimensioni non così eccessive pesa comunque 400 g.
-Prezzo e costi: la Polaroid Socialmatic ha un solo punto a suo sfavore per ora, il prezzo forse un po' troppo alto, ovvero 300 dollari (circa 250 euro), anche se poi i fogli ZINK vengono a costare sui 15/20 euro per pacchetti di 30 o 50. Facendo due conti con 20 euro dovremmo riuscire a stampare almeno 40/50 foto (0,40/0,50 centesimi a foto).
A primo impatto sembra quasi di dover comprare la fotocamera di Instagram, dato che sia per la forma che per il design assomiglia davvero moltissimo all'icona dell'app del social network delle foto. Il concept comunque non ha nulla a che fare con Instagram, ma dovrebbe essere solo "casualmente" simile (o forse per questioni di marketing).
Una cosa molto positiva è che il sistema operativo è Android, così si possono installare veramente tantissime app dedicate al fotoritocco e modificare le foto a piacere e con effetti particolari.
Per chi non vuole spendere 300 dollari per comprare la Socialmatic, Polaroid metterà in commercio la Polaroid Zip Instant Mobile Printer entro aprile 2015, che costerà 129 dollari (circa 100 euro). Questa è solo una stampante ma è comunque utilissima perchè ha praticamente le stesse funzioni della Socialmatic (stampa sui fogli ZINK) soltanto che lo fa tramite un dispositivo esterno, come ad esempio il nostro smartphone (tramite connessioni senza fili).
Videochiamate senza registrazione: arriva Firefox 34 con Hello, ecco come attivarlo
Solo qualche settimana fa Mozilla aggiornava il proprio browser alla versione 33.1 aggiungendo il nuovo tasto "Dimentica", e oggi viene rilasciato Firefox 34 con una nuova funzione nascosta.
Avevamo già parlato di Hello, la nuova funzione con la quale Firefox si propone come un validissimo rivale non solo di Skype ma anche di Google e degli altri programmi VoIP, ma nonostante sia stata rilasciata la versione 34 (non più beta quindi) il pulsante per attivare le videochiamate rapide tramite link e senza registrazione non è ancora presente, neanche tramite aggiunta manuale.
Esiste però un semplice trucco per far comparire l'icona di Hello:
1. Per prima cosa assicuriamoci di aver installato Firefox 34 (clicchiamo sulle tre righe in alto a destra per entrare nelle impostazioni, poi sul punto interrogativo e infine su Informazioni su Firefox);
2. Digitiamo nella barra degli indirizzi about:config e proseguiamo;
3. Filtriamo i risultati, tramite l'apposita barra, con il termine "loop" e troviamo "loop:throttled", per poi cliccarci sopra due volte per trasformarlo da true a false (si evidenzierà anche);
4. Riavviamo Firefox e clicchiamo nuovamente sulle tre righe per raggiungere Personalizza;
5. Spostiamo il pulsante di Hello (la nuvoletta con la faccina) nella barra in alto del browser.
Una delle novità di questo sistema di videochiamata è la comodità di poter non effettuare la registrazione, perchè con un semplice click sull'icona verrà generato un link da inviare al destinatario. Quando quest'ultimo lo incollerà su un qualsiasi browser farà partire una videochiamata verso di noi.
Avevamo già parlato di Hello, la nuova funzione con la quale Firefox si propone come un validissimo rivale non solo di Skype ma anche di Google e degli altri programmi VoIP, ma nonostante sia stata rilasciata la versione 34 (non più beta quindi) il pulsante per attivare le videochiamate rapide tramite link e senza registrazione non è ancora presente, neanche tramite aggiunta manuale.
Esiste però un semplice trucco per far comparire l'icona di Hello:
1. Per prima cosa assicuriamoci di aver installato Firefox 34 (clicchiamo sulle tre righe in alto a destra per entrare nelle impostazioni, poi sul punto interrogativo e infine su Informazioni su Firefox);
2. Digitiamo nella barra degli indirizzi about:config e proseguiamo;
3. Filtriamo i risultati, tramite l'apposita barra, con il termine "loop" e troviamo "loop:throttled", per poi cliccarci sopra due volte per trasformarlo da true a false (si evidenzierà anche);
4. Riavviamo Firefox e clicchiamo nuovamente sulle tre righe per raggiungere Personalizza;
5. Spostiamo il pulsante di Hello (la nuvoletta con la faccina) nella barra in alto del browser.
Una delle novità di questo sistema di videochiamata è la comodità di poter non effettuare la registrazione, perchè con un semplice click sull'icona verrà generato un link da inviare al destinatario. Quando quest'ultimo lo incollerà su un qualsiasi browser farà partire una videochiamata verso di noi.
Project Ara: uscita, prezzo e news del primo smartphone modulare di Google
Fino ad ora abbiamo sempre potuto scegliere se acquistare PC pre-assemblati oppure assemblarne uno noi, ad hoc in base alle nostre esigenze, per poi cambiare anche qualche pezzo per renderlo sempre più veloce o per aumentare le prestazioni e stare al passo coi tempi.
Con gli smartphone invece abbiamo sempre dovuto adeguarci ai prodotti che il mercato ci offriva e comprarli per forza con l'hardware "predefinito", ma presto potremo cambiare strategia e crearci uno smartphone con i componenti che vorremo.
Il progetto Ara, "Project Ara", è portato avanti da Google, il quale è vicino ad una soluzione che permetterà di creare il primo smartphone modulare.
Il primo modello si chiamerà "Gray", perchè sarà di colore grigio, e arriverà molto probabilmente già entro gennaio 2015; il capo del progetto Ara, Paul Eremenko, ha dichiarato che anche se non avrà un design molto elaborato permetterà di cambiare i componenti molto facilmente. La "base" costerà solamente 50 dollari, mentre per i prezzi dei componenti bisogna ancora aspettare, ma dovremmo essere in grado comunque di risparmiare molto, soprattutto pensando al futuro.
Perchè in questo modo oltre a costruirci il nostro smartphone pezzo per pezzo, saremo anche in grado di effettuare upgrade importanti, sostituendo addirittura il processore e non dover cambiare in continuazione device per stare al passo con i nuovi requisiti minimi dei sistemi operativi o dei nuovi giochi.
Google però non è il solo che sta progettando uno smartphone modulare, c'è anche Vsenn, una startup finlandese avviata da un ex dipendente Nokia. L'azienda ha dichiarato che vuole dare l'opportunità all'utente di "poter creare lo smartphone perfetto, con componenti hardware migliorabili".
A differenza del progetto Ara, con lo smartphone modulare Vsenn potranno essere cambiati solamente quattro componenti: processore, RAM, fotocamera e batteria; quindi meno personalizzabile del principale concorrente, ma sarà comunque possibile: installare Android Stock (la versione pura del sistema operativo, senza modifiche del produttore) e gli aggiornamenti successivi per almeno 4 anni; avere la possibilità di una crittografia a 3 livelli; e cambiare le scocche posteriori per avere così uno smartphone dal design sempre nuovo oltre che da un hardware, e software, sempre aggiornato.
Anche questo smartphone modulare non dovrebbe tardare il suo arrivo e uscire comunque poco dopo l'uscita di quello di Google.
Con gli smartphone invece abbiamo sempre dovuto adeguarci ai prodotti che il mercato ci offriva e comprarli per forza con l'hardware "predefinito", ma presto potremo cambiare strategia e crearci uno smartphone con i componenti che vorremo.
Il progetto Ara, "Project Ara", è portato avanti da Google, il quale è vicino ad una soluzione che permetterà di creare il primo smartphone modulare.
Il primo modello si chiamerà "Gray", perchè sarà di colore grigio, e arriverà molto probabilmente già entro gennaio 2015; il capo del progetto Ara, Paul Eremenko, ha dichiarato che anche se non avrà un design molto elaborato permetterà di cambiare i componenti molto facilmente. La "base" costerà solamente 50 dollari, mentre per i prezzi dei componenti bisogna ancora aspettare, ma dovremmo essere in grado comunque di risparmiare molto, soprattutto pensando al futuro.
Perchè in questo modo oltre a costruirci il nostro smartphone pezzo per pezzo, saremo anche in grado di effettuare upgrade importanti, sostituendo addirittura il processore e non dover cambiare in continuazione device per stare al passo con i nuovi requisiti minimi dei sistemi operativi o dei nuovi giochi.
Google però non è il solo che sta progettando uno smartphone modulare, c'è anche Vsenn, una startup finlandese avviata da un ex dipendente Nokia. L'azienda ha dichiarato che vuole dare l'opportunità all'utente di "poter creare lo smartphone perfetto, con componenti hardware migliorabili".
A differenza del progetto Ara, con lo smartphone modulare Vsenn potranno essere cambiati solamente quattro componenti: processore, RAM, fotocamera e batteria; quindi meno personalizzabile del principale concorrente, ma sarà comunque possibile: installare Android Stock (la versione pura del sistema operativo, senza modifiche del produttore) e gli aggiornamenti successivi per almeno 4 anni; avere la possibilità di una crittografia a 3 livelli; e cambiare le scocche posteriori per avere così uno smartphone dal design sempre nuovo oltre che da un hardware, e software, sempre aggiornato.
Anche questo smartphone modulare non dovrebbe tardare il suo arrivo e uscire comunque poco dopo l'uscita di quello di Google.
Aeromobil 3: l'auto volante è pronta, nel 2015 potrebbe essere già commercializzata
Dopo 25 anni di studi, gli slovacchi di Aeromobil hanno finalmente sviluppato il prototipo versione 3, funzionante e capace sia di andare su strada che volare. L'auto "volante" potrebbe già essere pronta e commercializzata entro il 2015.
A primo impatto sembra abbastanza futuristica anche se non è come tutti l'abbiamo potuta "conoscere" all'interno dei film di fantascienza o anche nei film d'animazione.
L'ibrido, metà automobile e metà velivolo, prende il nome di Aeromobil 3.0 e può ospitare fino a 2 persone, pesa 450 kg ma raggiunge comunque i 160 km/h su strada e 200 km/h in volo.
Dispone di un design molto futuristico (anche se ancora un po' grossolano), è lunga 6 metri e larga 2,25 che diventano 8 quando si aprono le ali, funziona come una normale auto e per decollare ha bisogno di raggiungere almeno i 130 km/h (circa 80 miglia orarie). Ha un'autonomia incredibile visto che può raggiungere i 700 km in volo e 875 km su strada (i dati sono stati dichiarati dall'azienda).
Il concept dell'Aeromobil 3 assomiglia molto all'auto intelligente disegnata da Steve Jobs, l'ipotetica iCar, anche se, aggiungendo le ali, viene completamente trasformata.
Questi sono i primi dettagli resi noti, oltre ad un primo video che mostra le funzionalità di questa prima "macchina volante", non ci resta che aspettare e attendere l'arrivo del 2015, augurandoci di poterla vedere realmente volare e, perchè no, di comprarla (bisognerà vedere anche i prezzi naturalmente, ancora segreti).
A primo impatto sembra abbastanza futuristica anche se non è come tutti l'abbiamo potuta "conoscere" all'interno dei film di fantascienza o anche nei film d'animazione.
L'ibrido, metà automobile e metà velivolo, prende il nome di Aeromobil 3.0 e può ospitare fino a 2 persone, pesa 450 kg ma raggiunge comunque i 160 km/h su strada e 200 km/h in volo.
Dispone di un design molto futuristico (anche se ancora un po' grossolano), è lunga 6 metri e larga 2,25 che diventano 8 quando si aprono le ali, funziona come una normale auto e per decollare ha bisogno di raggiungere almeno i 130 km/h (circa 80 miglia orarie). Ha un'autonomia incredibile visto che può raggiungere i 700 km in volo e 875 km su strada (i dati sono stati dichiarati dall'azienda).
Il concept dell'Aeromobil 3 assomiglia molto all'auto intelligente disegnata da Steve Jobs, l'ipotetica iCar, anche se, aggiungendo le ali, viene completamente trasformata.
Questi sono i primi dettagli resi noti, oltre ad un primo video che mostra le funzionalità di questa prima "macchina volante", non ci resta che aspettare e attendere l'arrivo del 2015, augurandoci di poterla vedere realmente volare e, perchè no, di comprarla (bisognerà vedere anche i prezzi naturalmente, ancora segreti).
Amazon presenta Echo: Alexa diventerà la nostra assistente vocale da salotto
Amazon non finisce di sfornare novità tecnologiche, e a sorpresa presenta Echo, l'assistente vocale da casa. Un po' come Siri, Google Now o Cortana, è in grado di eseguire molte funzioni semplicemente ascoltando le nostre richieste, ed è in grado anche di rispondere alle nostre domande, parlandoci.
Si presenta come un cilindro nero alto 23 cm con un diametro di 8,3 cm, con 7 microfoni che ci ascoltano e due altoparlanti che eseguono i nostri comandi.
Una volta collegato alla rete, è possibile "accenderlo" dicendo semplicemente "Alexa". Detto questo è pronto per: dirci che tempo farà domani, cercare qualcosa su Wikipedia, aggiungere una nota nel calendario o impostare la sveglia, oppure riprodurre una canzone.
Tutto questo senza avere nessuno dispositivo in mano o nella zona, perchè Echo, grazie appunto ai 7 microfoni, ci ascolta anche a 10 metri di distanza. Nel caso fossimo comunque troppo lontani possiamo tenerci vicino un piccolo telecomando con un microfono mobile.
La musica è il vero punto di forza di questo gioiellino, dato che potremo riprodurre qualsiasi canzone grazie al ricco catalogo che possiamo trovare su Amazon Prime Music, iHeartRadio e TuneIn Plus, dai nostri dispositivi Bluetooth e naturalmente su Spotify e Pandora.
Echo si presenta quindi come uno speaker musicale a comando vocale ma con tante altre funzionalità che lo rendono un assistente "intelligente".
Il prezzo di listino è di 199 dollari, con un'offerta iniziale di 99 dollari per tutti gli abbonati al servizio Prime, ma non è ancora stata definita la data in cui verrà venduto anche al di fuori degli Stati Uniti. Per le altre informazioni e il video dimostrativo si può accedere alla pagina dedicata sul sito di Amazon.
Si presenta come un cilindro nero alto 23 cm con un diametro di 8,3 cm, con 7 microfoni che ci ascoltano e due altoparlanti che eseguono i nostri comandi.
Una volta collegato alla rete, è possibile "accenderlo" dicendo semplicemente "Alexa". Detto questo è pronto per: dirci che tempo farà domani, cercare qualcosa su Wikipedia, aggiungere una nota nel calendario o impostare la sveglia, oppure riprodurre una canzone.
Tutto questo senza avere nessuno dispositivo in mano o nella zona, perchè Echo, grazie appunto ai 7 microfoni, ci ascolta anche a 10 metri di distanza. Nel caso fossimo comunque troppo lontani possiamo tenerci vicino un piccolo telecomando con un microfono mobile.
La musica è il vero punto di forza di questo gioiellino, dato che potremo riprodurre qualsiasi canzone grazie al ricco catalogo che possiamo trovare su Amazon Prime Music, iHeartRadio e TuneIn Plus, dai nostri dispositivi Bluetooth e naturalmente su Spotify e Pandora.
Echo si presenta quindi come uno speaker musicale a comando vocale ma con tante altre funzionalità che lo rendono un assistente "intelligente".
Il prezzo di listino è di 199 dollari, con un'offerta iniziale di 99 dollari per tutti gli abbonati al servizio Prime, ma non è ancora stata definita la data in cui verrà venduto anche al di fuori degli Stati Uniti. Per le altre informazioni e il video dimostrativo si può accedere alla pagina dedicata sul sito di Amazon.