Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Moderatore: Ferruccio Lobba
- Michele Azzali
- Moderatore
- Messaggi: 6842
- Iscritto il: mer mag 02, 2007 10:39 am
- Località: Trento
- Contatta:
Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Spero di fare cosa gradita spiegando qui il significato di alcuni dei molti (troppi) acronimi che si usano nel linguaggio della fotografia digitale, figlia della tecnologia galoppante che spesso disorienta le persone che desiderano avvicinarsi a questa splendida attività.
Se poi aggiungiamo che quasi sempre si tratta di trasposizioni, non traduzioni, dalla lingua inglese, la confusione aumenta.
Devo aprire subito una parentesi per richiamare l’attenzione sulla progressiva anglicizzazione della nostra lingua: oggi un avvenimento non si svolge più in qualche posto, sito, località, ma in una location. Il manager una volta si chiamava dirigente, e via discorrendo. Nel campo tecnologico è quasi impossibile difendere l’uso di una lingua nazionale che non sia l’Inglese. I Francesi ci provano con ostinazione perfino in campo sportivo, non so con quali risultati.
Ma questo andamento (non trend…), che sembra ormai inarrestabile, è cominciato decenni fa: quanti di noi ormai conoscono il termine italiano per la parola sport?
Ve lo dico alla fine…
Tornando a noi, la maggior parte degli utenti del forum conosce già tutto o quasi, ma spesso uno si rivolge a noi per ricevere spiegazioni che lo aiutino a districarsi in questo complicato linguaggio.
E poi, a dirla tutta, serve anche a me: non c’è niente che aiuti a capire una cosa come lo spiegarla agli altri. Il rischio è di cadere nella pedanteria, anche se un ripassino non guasta mai…
Per cui mi scuso fin da ora con chi sa già tutto, non è mia intenzione prenderlo per ignorante, ripeto che l’intervento è rivolto ai neofiti e il linguaggio è volutamente semplicistico (per quanto possibile). Non aspettatevi quindi che mi addentri troppo in profondità nei significati, vogliamo essere un forum adatto a tutti i livelli di conoscenza…
Ma prima di tutto, cos’è un acronimo? E’ una sigla, un’abbreviazione formata da poche lettere, usata per indicare una definizione molto più lunga e spesso ripetitiva nei discorsi e negli scritti. In genere, ma non sempre, si usano le lettere iniziali delle parole che compongono la sigla, per dare scorrevolezza all’acronimo.
Un paio di esempi (automobilistici, che sono sempre quelli chiari a tutti): FIAT sta per Fabbrica Italiana Automobili Torino. Anche se la FIAT non è più a Torino… BMW: sta per Bayerische Motoren Werke, che in tedesco significa fabbrica bavarese di motori. Chiaro, no? (Fermi tutti, Ford non è un acronimo… ). Anche Leica, il nome del nostro marchio preferito, è nato come l’acronimo di LEItz CAmera.
La lingua inglese, utilizzata dalla tecnologia, è strapiena di acronimi, gli anglosassoni li adorano, ne creano di continuo. Vediamo quelli che interessano a noi. Li ho messi in un ordine “logico” (o che mi sembra tale), per cui per capire bene tutto andrebbero letti in sequenza.
Pixel:
sta per Picture Element, cioè elemento della figura, dell’immagine. La x messa lì in mezzo non c’entra, ma così si pronuncia meglio in tutte le lingue…
I pixel sono i microscopici elementi, quasi sempre di forma quadrata, che compongono un’immagine digitale, cioè quei “quadratini” che accostati gli uni agli altri e disposti a griglia regolare formano la foto.
Anche chi è alle prime armi con l’elaborazione d’immagine avrà provato ad ingrandire fino a vedere i quadratini da cui è composta: i pixel, appunto.
Voglio fermarmi qui anche se ci sarebbe molto altro da dire sia sulla forma dei pixel (potrebbero essere anche a forma di triangolo equilatero, di rettangolo o di esagono: gli unici poligoni, oltre al quadrato, che consentono una copertura delle superfici piane senza soluzione di continuità, come se fossero piastrelle) che sulla loro sensibiltà alla luce (alcuni sono sensibili al rosso, altri al verde ed altri al blu, i tre colori primari utilizzati dalle apparecchiature elettroniche per formare i colori) e sulle loro dimensioni.
Qui basti sapere che un megapixel è un milione di pixel (mega significa milione come kilo significa mille). Quando si parla di una fotocamera che ha 24 megapixel, come ad esempio la Leica M10, si vuol dire che il suo sensore è fatto di 24 milioni di quadratini. In particolare questo modello ha un sensore costituito da 5.976 pixel in larghezza e 3.984 in altezza:
5.976 x 3.984 = 23.808.384 pixel in totale (cioè quasi 24 milioni).
I sensori delle fotocamere catturano la luce grazie a questi pixel fotorecettori. Anche i monitor dei computer, i mirini elettronici di fotocamere e quelli delle cineprese utilizzano dei pixel, disposti con densità e dimensione diversa, per restituire l’immagine in modo da poterla vedere. Solo che i pixel dei monitor sono molto più grandi, e invece di catturare la luce, la emettono.
JPEG:
sta per Joint Photographic Experts Group, che significa “unione degli esperti di fotografia” un comitato che si dedica alla definizione di standard fotografici. E’ un’estensione del file (do per scontato che chi legge sappia che cos’è un file…), cioè un suffisso, una “desinenza” che si trova alla fine del nome di un file, preceduto da un punto. Questo permette al sistema operativo del computer di riconoscere che il contenuto è un’immagine, così come ad esempio DOC o TXT indicano che il contenuto è testo.
JPEG indica anche il formato dei dati, cioè il fatto che l’immagine sia compressa, che i dati siano più o meno ricchi di informazioni su colori, definizione della foto, ecc. Più alta sarà la compressione, più bassa sarà la qualità dell’immagine e più piccole saranno le dimensioni del file.
E’ il formato più diffuso perché rende possibile comprimere immagini di grandi dimensioni in file piccoli, facilitando la condivisione on-line e risparmiando spazio e memoria.
In realtà non è che i dati vengano compressi, cioè ficcati a forza in uno spazio stretto, ma piuttotsto sfoltiti, sfrondati. Il software toglie un pixel qua e uno là, soprattutto nelle aree uniformi (ad esempio il cielo nelle foto di paesaggio), elimina le tonalità intermedie nei passaggi sfumati di colore, ecc. Lo fa in modo intelligente ma si tratta sempre di eliminare delle informazioni.
JPG:
è uguale al JPEG. Usa una lettera in meno perché una volta il sistema operativo windows (e anche quelli precedenti) richiedeva obbligatoriamente estensioni di tre lettere. Il formato JPEG infatti venne creato per i sistemi Macintosh. Oggi questa differenza è superata.
TIFF:
sta per Tagged Image File Format, letteralmente “formato di file immagine con etichetta”. L’etichetta in questione (tag) contiene una serie di informazioni aggiuntive oltre a quelle che formano l’immagine, tipicamente riguardanti la calibratura del colore. Per questo motivo è un formato di immagini non compresse, a differenza del JPEG.
Anche al JPEG si possono applicare queste informazioni, però si perde il vantaggio della compressibilità. Infatti in genere il file TIFF (o TIF, con solo tre lettere, per i motivi indicati sopra) è molto più pesante del file JPEG della stessa immagine.
PSD:
significa PhotoShop Document, cioè documento di Photoshop, l’arcinoto programma di elaborazione delle immagini del colosso informatico Adobe Systems. Nessuna fotocamera fornisce file in formato PSD, ma i file possono essere salvati in questo formato dopo la lavorazione in Photoshop, salvando insieme all’immagine tutta una serie di dati come ad esempio i livelli, gli spazi colore, le mascherature, eccetera, tutte cose che richiedono una certa conoscenza dei processi di lavorazione digitale. Vedrò se sarà il caso di entrare con cautela in questi argomenti in un post dedicato. Altri programmi di grafica della Adobe possono leggere questo formato, e sono talmente diffusi da costituire quasi uno standard. PSD è infatti un “formato proprietario”, cioè un formato di cui non vengono rese disponibili al pubblico e all’industria le specifiche tecniche, protette da crittografia e/o da brevetti. Il contrario è il cosiddetto “formato aperto”.
Raw:
ecco l’intruso! Raw non è un acronimo ma una parola vera, che in inglese significa grezzo, crudo, non rifinito, da ultimare. Si pronuncia “ro” come Rho, il comune della città metropolitana di Milano. Non è un formato di file, anche se spesso si sente dire “io scatto in raw”.
In tutte le fotocamere infatti l’immagine catturata dal sensore viene registrata in forma numerica, ed immediatamente convertita in un formato vero e proprio, solitamente il JPEG, più o meno compresso. In tal modo però i dati numerici originari vanno persi. Diverse fotocamere tuttavia consentono di registrare anche questi dati grezzi, non convertiti, o addirittura di trattenere solo quelli e di raccoglierli in un file, detto appunto “grezzo”, raw.
Il fatto che i dati siano grezzi, cioè non definitivi, consente in un secondo momento di regolarli entro limiti molto più ampi rispetto alla registrazione coi formati compressi, dando la possibilità di correggere impostazioni che al momento dello scatto non erano ottimali come l’esposizione, il bilanciamento del bianco, il contrasto, tramite la successiva elaborazione con programmi adatti (il solito Photoshop, per dirne uno solo), mantenendo la qualità a livelli alti e sfruttando al massimo le capacità del sensore e dell'ottica.
E qui mi si consenta un’opinione personale: ha poco senso spaccare il capello in quattro analizzando la qualità di un obiettivo se poi si scatta solo in formato JPEG.
I dati grezzi dunque possono essere raccolti in file, ma questo può essere fatto con modalità diverse, e infatti le diverse marche di fotocamere forniscono i file grezzi sotto forma di file diversi, cioè con diversi formati proprietari (vedi sopra).
Ad esempio i file grezzi della Nikon hanno estensione NEF (Nikon Electronic Format), quelli della Canon CRW (Canon RaW) oppure CR2 (Canon Raw 2), quelli della Olympus ORF (Olympus Raw Format), eccetera.
Leica fornisce file grezzi in formato DNG.
DNG:
sta per Digital NeGative, ossia negativo digitale. E’ un formato aperto di registrazione dati, cioè le cui specifiche sono disponibili pubblicamente. Insomma è quasi il jolly dei file grezzi, perché tutti hanno la possibilità di trattarlo, e viene così a costituire uno standard per i file grezzi creati dai singoli modelli di fotocamere, con tutti i vantaggi che ne derivano, soprattutto a proposito di obsolescenza dei programmi.
Venne sviluppato dalla Adobe Systems nel 2004 ma già dopo un anno dalla sua introduzione numerosi produttori di software rilasciarono programmi in grado di trattare il formato DNG. Inoltre prestigiosi marchi fotografici, compresi Hasselblad e Leica, producono fotocamere che mettono direttamente a disposizione i dati in formato DNG.
Vi sono altri tipi di file immagine, con estensioni diverse: .bmp, .eps, .gif, .pict, .png, .tga, ma non ritengo opportuno trattarli tutti. Del resto ho indicato qui quelli principali.
Exif:
sta per Exchangeable Image File Format, cioè formato dei file d’immagine standardizzato. Non si tratta di un formato di file ma di un formato di dati. Questi sono contenuti nei file insieme ai dati che formano l’immagine, ma separati da essi. Sono dati che riguardano le caratteristiche del file immagine (ma ci sono anche per i file audio, ad esempio) a cui sono associati, come data, ora, marca e modello di fotocamera, tempo di esposizione, risoluzione del fotogramma eccetera. Anche le coordinate per la geolocalizzazione, per le fotocamere che lo consentono. Si parla infatti di “dati exif” e sono visibili utilizzando molti programmi di gestione dei file fotografici (nel nostro caso).
PPI:
sta per Pixel Per Inch, ossia pixel per pollice. Con pollice ovviamente si intende l’unità di misura adottata dal sistema imperiale britannico ed utilizzata anche negli Stati Uniti e in altri paesi dove il sistema metrico decimale viene bellamente ignorato. Un pollice equivale a 2,54 centimetri.
Personalmente trovo questo sistema di misura decisamente astruso, basti pensare che un “piede”, un’unità più grande, è costituito da 12 pollici e non da 10. Una “iarda” equivale a 36 pollici (cioè 3 piedi). E un miglio è uguale a 1.760 iarde. Proporzioni prive di senso.
Tuttavia il pollice si è imposto prepotentemente anche da noi in alcuni settori, come la definizione del diametro dei tubi idraulici (da mezzo pollice, da 3/8 di pollice, ecc.), dei cerchioni delle biciclette e delle auto, nonchè delle diagonali di televisori e monitor.
La riluttanza ad adottare il sistema metrico decimale in divesi paesi, ma specialmente in Inghilterra, è dovuta a motivi politico-religiosi ben radicati. Moltissime persone sono convinte che il sistema metrico decimale sia legato alla religione cattolica, cioè sia stato imposto, magari secoli fa, da un Papa. Quasi che, dovendo cambiare unità di misura, si dovesse anche cambiare religione. Ma ciò è dovuto all’astuto condizionamento dell’opinione pubblica.
Se siamo praticamente obbligati a tenerci i pixel, non siamo però obbligati a tenerci i pollici, tant’è vero che potremmo parlare tranquillamente di pixel per centimetro. Photoshop ad esempio consente di esprimere i valori nelle due diverse unità.
Abbiamo visto quanto è lungo un pollice, per cui quando diciamo che un’immagine è “a 1.000 PPI” vogliamo dire che nella lunghezza di un pollice ci stanno 1.000 quadratini, che equivale a dire che l’immagine è “a 394 PPC” (pixel per centimetro), cioè che in un centimetro ci stanno 394 quardatini.
Da quanto indicato più sopra risulta che in 1 cm del sensore di una Leica M10 ci sono 1.660 pixel (4.208 in un pollice).
Attenzione: parlando della definizione di un’immagine elettronica è scorretto parlare di DPI, bisogna usare il termine PPI, e la differenza la vediamo qui sotto subito (o quasi).
DPI:
sta per Dots per Inch, ossia punti per pollice, ma per quanto abbiamo detto sopra si potrebbe parlare di punti per centimetro. Qui però non siamo più nel campo dell’elettronica ma della stampa. Non non si tratta più di fotocamere, sensori e monitor, ma di stampanti, inchiostri e carta. I pixel non c’entrano niente con i DPI.
Il valore di 1.400 DPI significa che una stampante riesce a far stare 1.400 “puntini” di inchiostro nella larghezza di un pollice (e cioè 551 puntini in un centimetro).
Questi puntini non sono affatto quadrati ma sono delle gocce microscopiche: quanto grosse siano, è materia di spionaggio industriale . Maggiore è la capacita di una stampante di fare puntini piccoli e molto fitti, e maggiore sarà la qualità dell’immagine stampata.
Poi ovviamente è da vedere se la carta è in grado di reggere una simile densità di inchiostro senza sbavature, ma questo è un altro capitolo.
Alti valori di DPI consentono di avere un effetto grana contenuto e passaggi tonali migliori e più sfumati.
Le aziende che producono stampanti fanno a gara per poter aumentare questi valori, così come le aziende che producono fotocamere fanno di tutto per avere più megapixel nei propri sensori.
Un pixel dell’immagine che vediamo a monitor non corrisponde affatto ad un puntino sulla stampa. Posso stampare anche un solo pixel della foto, magari grande quanto un foglio, utilizzando molti puntini.
Nella pratica in realtà avviene il contrario, cioè una linea contenuta nella nostra immagine elettronica è costituita da molti pixel, che verranno stampati utilizzando un numero minore di goccioline.
Spesso si usa indifferentemente indicare i DPI al posto dei PPI, scambiando queste due unità di misura che, come abbiamo visto, non hanno nulla a che vedere l’una con l’altra. Perfino molti software professionali (si, anche Photoshop) utilizzano altrenativamente i due termini, contribuendo ad aumentare la confusione.
Si sente dire:
- "se l’immagine non è almeno a 300 DPI, in stampa non viene bene";
- "la stampante stampa a 2.880 DPI, quindi preparo l’immagine a 2.880 DPI".
Sono convinzioni errate, espresse in modo scorretto e derivano proprio dalla confusione che regna in questo campo. L’argomento non è di immediata comprensione, e anch’io all’inizio ho fatto fatica a separare i due concetti.
I valori da impostare prima di lanciare una stampa dipendono dalla capacità di visione dell’occhio umano. Al massimo, guardando una stampa da molto vicino (o magari con una lente), ne possiamo distinguere 118 per ogni centimetro, cioè 300 per ogni pollice (ecco il famoso valore!). Impostare risoluzioni più alte non ha senso, perché non c’è alcun miglioramento percepibile.
Risoluzioni “guida”, caratteristiche di stampa sono:
300 DPI per stampe di alta qualità;
200 DPI per stampe di grandi dimensioni (cioè da guardare da lontano);
100 DPI in genere è la risoluzione delle foto dei quotidiani.
Per cui, prima di stampare alla massima risoluzione possibile, uno dovrebbe pensare: “Quanto è grande la mia stampa? Da che distanza sarà osservata? I 300 DPI li distinguo?”
Commisurando la risoluzione all’uso a cui la stampa è destinata si evita di tirare il collo alla macchina, di forzare le capacità della carta e si risparmia il costosissimo inchiostro.
Trovo che in questo campo solo l’esperienza personale possa portare a flussi di lavoro ottimali.
RGB:
sta per Red, Green, Blue, cioè rosso, verde, blu. E’ uno “spazio colore” (non un “profilo colore” come vedremo più avanti), cioè il modo che hanno le apparecchiature elettroniche di riprodurre i colori. Tutti sappiamo che in natura i colori primari sono rosso, giallo e blu, cioè che tutti gli altri colori si ottengono da questi tre mescolati in quantità variabili.
Vediamo però che in elettronica c’è il verde al posto del giallo. (Non voglio approfondire la teoria del colore o le differenze fra “sintesi additiva” e “sintesi sottrattiva”. Chi vuole sviscerare l’argomento troverà nella rete una miriade di siti che si addentrano in questo ginepraio, per me scoraggiante.)
Accennerò solo al fatto che nel 1931 venne istituita la Commissione Internazionale per l’Illuminazione, la quale definì, attraverso moltissime osservazioni sperimentali sulle persone, quanti colori riesce a vedere l’occhio umano, cioè qual’è il campo delle radiazioni elettromagnetiche che il nostro occhio percepisce.
Questo è definito in modo matematico, perché le frequenze e le lunghezze d’onda delle radiazioni elettromagnetiche che costituiscono la luce sono misurabili (sono costretto solo a ricordare che la luce è composta dalla somma dei colori, e che a frequenza diversa della radiazione luminosa corrisponde un colore diverso).
La rete è piena di siti che riportano i diagrammi che illustrano questo campo con sistemi di coordinate. Ne riporto qui uno in due dimensioni che fa al caso nostro.
Chi vuole usare un linguaggio tecnico chiama gamut l’intero insieme dei colori di uno spazio colore. (Anche questo sarebbe un acronimo, ma sorvoliamo).
In un monitor, in un televisore o nel display di una fotocamera, cioè nelle immagini “proiettate” elettronicamente, i pixel che compongono l’immagine possono assumere diversi colori a seconda di quanto rosso, verde e blu gli vengono inviati dall’apparecchio, e con quale intensità.
Se un pixel riceve la stessa quantità di rosso, verde e blu, apparirà grigio. Più o meno scuro a seconda dell’intensità di rosso, verde e blu. A basse intensità corrispondono grigi scuri, ad alte intensità corrispondono grigi chiari. Nessuna intensità dà come risultato il nero (il “fondo” dei pixel spenti), la massima intensità dà origine al bianco.
E’ per questo che impostare lo sfondo del monitor con colori scuri ne allunga la vita.
Ma naturalmente si può variare la quantità di rosso, verde e blu da inviare ad ogni singolo pixel, dando origine a moltissimi colori. Quanti? Esattamente 16.581.375 (più di sedici milioni) e vediamo perché.
Lo spazio colore che un apparecchio elettronico riesce a riprodurre è più limitato di quello che l’occhio può vedere (si confronti il diagramma sopra). Lo standard RGB venne definito dalla Adobe Systems nel 1998, e si decise di dividere ognuno dei tre colori primari in 255 livelli di intensità. Un rosso pieno sarà quindi costituito da: rosso 255, verde 0, blu 0. Un bel viola da: rosso 186, verde 0, blu 240.
Va precisato che il rosso 255, 0, 0 è diverso da 254, 0, 0. Io li distinguo a malapena, ma per il computer sono due colori diversi.
Risulta quindi che il totale delle combinazioni possibili deriva dalla variazione dei tre colori in tutti i 255 livelli di intensità, cioè: 255 x 255 x 255 = 16.581.375.
Oggi tutti i monitor e i display dei cellulari sono ampiamente in grado di riprodurre la totalità di queste combinazioni, ma per essere sicuri che tutti potessero vedere i colori in TV o a computer, nel 1996 si era già deciso di adottare uno spazio colore più ristretto, che dopo il 1998 sarà rinominato sRGB per distinguerlo dal nuovo Adobe RGB. Cosa significhi la s davanti, non sono riuscito a saperlo, ma faccio finta che voglia dire shrunk, cioè ristretto (ma è un’invenzione mia).
Quando postiamo una foto in internet, o quando ne guardiamo una, comprese quelle di questo forum, sappiamo che i suoi colori rientrano nello spazio colore sRGB. I colori del diagramma riportato qui sopra, proprio perchè li stiamo osservando con un monitor, non sono "veri", ma mi preme evidenziare le differenze fra i diversi spazi colore.
Le apparecchiature elettroniche vanno in crisi quando devono rappresentare le sfumature dei verdi e dei blu. Lo spazio sRGB da questo punto di vista è davvero limitato, come si vede dal diagramma. Va meglio lo spazio Adobe RGB, pur essendo ancora lontano dal coprire lo spettro del visibile.
Le stesse apparecchiature quindi vanno istruite su quale spazio colore adottare per riprodurre le nostre foto, sia che si tratti di un monitor che di un display sul dorso di una fotocamera.
Naturalmente tutti noi vogliamo applicare quello più grande possibile. E naturalmente anche la fotocamera deve sapere quale spazio colore adottare per i nostri scatti. La mia è una Leica M9, e mi consente di scegliere solo fra sRGB ed RGB. E va benissimo, perché so che il mio monitor più di RGB non può fare, e neanche la mia stampante, che adotta gli inchiostri Ultrachrome (vedi diagramma sopra) della Epson, il cui campo di riproducibilità coincide grosso modo con l’RGB.
Attenzione però: lo spazio colore viene incorporato solo agli scatti in JPEG perché in quelli grezzi, come il DNG (vedi sopra) non viene incorporato niente. In questo caso lo spazio colore verrà applicato dopo, da un software dotato di un modulo di sviluppo (Photoshop o Lightroom, ad esempio), ma lo posso anche cambiare e sceglierne uno più adatto all’uso che voglio fare della foto. Nello scatto JPEG invece non posso cambiare più niente: potrò anche guardare la foto con un monitor RGB e stamparla con gli inchiostri Ultrachrome, ma se lo spazio incorporato è sRGB, avrò comunque una gamma di colori limitata.
Per fare un esempio, i miei file DNG sono privi di spazio colore, ma li vedo nello spazio RGB perché ho configurato Lightroom per farmeli vedere a monitor in questo spazio. Quando “esporto” una foto in JPEG per metterla nel forum, incorporo automaticamente lo spazio sRGB (quello di internet) al file in uscita.
E’ inutile applicare lo spazio RGB ai file che si utilizzano in internet, forum compresi.
Di nuovo: Photoshop, all’apertura di un nuovo file, chiede di scegliere fra tre opzioni:
1) usa il profilo incorporato (anziché lo spazio di lavoro);
2) converti colori del documento in spazio di lavoro;
3) elimina profilo incorporato (non gestire i colori).
Naturalmente il termine “profilo” qui è sbagliato, e come già osservato più sopra, contribuisce a creare confusione. Si tratta invece dello spazio colore: il programma vuol sapere se mostrare i colori della foto nello spazio colore incorporato nel file (sRGB oppure RGB), oppure se convertire lo spazio colore del file in quello “di lavoro”, cioè quello predefinito in fase di configurazione del programma: nella stragrande maggioranza dei casi è l’RGB, a meno di particolarità come il CMYC, ma ci stiamo arrivando.
Se scelgo di visualizzare i colori in uno spazio più piccolo di quello del monitor, il programma non avrà difficoltà a mostrarli tutti. Ma se il mio file incorpora uno spazio colore che è più grande di quello del monitor, non vedrò tutti i colori contenuti nella mia foto, perché il programma taglierà via quelli che escono, o meglio li convertirà in quelli più vicini che “stanno dentro” allo spazio colore del monitor. Vedrò cioè un’immagine meno ricca di colori. Questi però restano nel file, a meno che io lo salvi incorporando uno spazio colore più piccolo.
I display sul dorso delle fotocamere adottano lo spazio colore sRGB. Ciò significa che, se la mia foto JPEG incorpora lo spazio RGB, osservandola sul display non vedrò tutti i colori che contiene. Fortunatamente quando scarico le foto nel computer, tutti file hanno il loro spazio colore originale. Per mostrare i file DNG la fotocamera crea temporaneamente un file “che si può vedere”, nello spazio sRGB.
E i file monocromatici? Questi non contengono informazioni sul colore, ma solo sull’intensità luminosa, un parametro chiamato luminanza. Vale a dire che, mentre un file a colori contiene una mappa di tutti i pixel della foto, di quale intensità era la luce che li ha colpiti uno per uno e di che colore è ogni pixel (R, G o B), nel file monocromatico ci sono solo le prime due informazioni.
Guardando un file monocromatico a monitor, quest’ultimo deve però costruire i grigi nel modo che abbiamo visto sopra, cioè “fingendo” che i colori ci siano. Allo stesso modo opera il software di fotoritocco: se il file è già monocromatico non deve fare niente (non ha informazioni sul colore), se lo vogliamo convertire toglie l’informazione sul colore dal file e noi possiamo salvarlo come grayscale, cioè in scala di grigi come se fosse uno spazio colore.
CMYK:
sta per Cyan, Magenta, Yellow, Key Black. E’ anche questo uno spazio colore, non un profilo. Il “Key” lo hanno messo per non fare confusione con la B, che potrebbe anche voler dire Blue.
Di nuovo dobbiamo abbandonare l’elettronica e considerare i tre colori primari naturali: blu rosso e giallo, da cui derivano tutti gli altri. Il Ciano non è altro che un blu molto chiaro, e il magenta fa altrettanto per il rosso. Il giallo è già chiaro abbastanza. Le stampanti, per fare ad esempio i toni del blu, mettono molto ciano in modo da scurirlo, accostato magari ad altri colori in quantità molto minori (quando abbiamo visto il significato del termine DPI abbiamo detto che l’effetto del colore è dato dall’accostamento di microscopiche gocce degli inchiostri.)
Lo spazio colore CMYK infatti serve solo per la stampa, ed assegnare questo spazio ad un file significa previsualizzare i colori come verranno stampati. Sarebbe meglio dire come dovrebbero venir stampati, dato che la “traduzione” dal linguaggio del software a quello della stampante non è semplicissima e subisce l’influenza di molti fattori esterni (tipo di stampante, tipo di carta, modo di applicare l’inchiostro, varietà di inchiostri diversi, ecc.), che rendono necessaria l’adozione dei profili di stampa (vedi oltre).
Il tipo di stampa più semplice è quello in tricromia, cioè quello che utilizza solo tre inchiostri: il ciano, il magenta e il giallo (CMY). Con questi tre è possibile ottenere quasi tutti i colori, anche quelli scuri, ma non il nero.
In teoria il nero si otterrebbe mescolando tutti i colori, ma nella pratica viene fuori una specie di marrone molto scuro (chiamato bistro). Per cui occorre proprio aggiungere anche dell’inchiostro nero, che fa da quarto elemento. La stampa eseguita con questo metodo prende quindi il nome di quadricromia.
La quadricromia però è lontana dal poter riprodurre tutti i colori visibili, e anche quelli dello spazio RGB (si veda il diagramma sopra riportato).
Le stampanti inkjet moderne, così come le macchine tipografiche, hanno da tempo superato questo limite adottando ulteriori serbatoi di colore: da 6 (esacromia: CcMmYK, le minuscole stanno per ciano chiaro e magenta chiaro) ad 8 o più. La mia stampante utilizza nove inchiostri diversi: oltre ai normali ciano magenta e giallo, ne ha due per i neri (lucido o matte), due per i grigi, una di ciano chiaro e una di magenta chiaro, per poter ottenere una gamma di toni e di sfumature (Ultrachrome) che copre uno spazio colore che si avvicina moltissimo all’RGB. Ho amici che usano stampanti con ben dodici inchiostri.
Una volta che si preme il tasto “stampa” del software, a meno che il file sia già nello spazio colore CMYK, ci dev’essere una “traduzione” dei dati da uno spazio colore all’altro, adattando contemporaneamente la stampa alla stampante in uso, al tipo di carta, al tipo di inchiostro, alla risoluzione utilizzata, eccetera. Questa serie di istruzioni vengono impartite alla stampante tramite il suo driver (il programma che la governa), e in parte tramite un profilo icc (ecco finalmente questo termine) che istruisce una specifica stampante, e solo quella, per l’utilizzo di uno specifico tipo di carta. Lo stesso vale per le macchine da tipografia e per le stampanti fotografiche che utilizzano tecnologie diverse dal getto di inchiostro.
Icc (altro acronimo) sta per International Color Consortium, un’organizzazione che pubblica le specifiche di realizzazione di questi profili.
Questi ultimi quindi non sono altro che file contenenti queste istruzioni, che hanno estensione .icc. Tramite il caricamento del profilo nel software di stampa, la stampante viene informata delle caratteristiche della carta su cui deve stampare: lucida o matte, a tono caldo o freddo (con tutte le varianti intermedie), quale dominante ha, ad alto o basso assorbimento di inchiostro, la grammatura, eccetera.
Naturalmente per la mia stampante sono disponibili dei profili, uno per ogni tipo di carta, diversi da quelli per la stampante del mio amico. Alcuni di questi file vengono installati automaticamente nel computer durante l’installazione del driver della stampante, ma la maggior parte dev’essere scaricata dai siti delle aziende produttrici di carta, soprattutto quelli cosiddetti “di terze parti”, che mettono a disposizione i profili dei propri prodotti (carte) per i vari modelli di stampanti.
Poi, se uno proprio vuole, può anche “costruirsi” un profilo da sè, per la propria stampante e la carta preferita. Ci sono strumenti appositi (spettrofotometri) che leggono dei test di stampa, misurano la resa dei colori sulla carta e creano il file del profilo che contiene tutte le istruzioni del caso.
E il profilo del monitor? Si sente spesso dire che il monitor dev’essere profilato, calibrato, cioè il software che lo governa va informato di tutta una serie di correzioni da apportare per restituire le immagini al meglio.
Senza addentrarci in troppi particolari, è anche questo un file che contiene una serie di informazioni sulle condizioni ambientali (intensità e temperatura cromatica del locale in cui si trova il monitor) e delle dominanti del monitor. Un monitor che esce dalla fabbrica non dovrebbe averne, ma in pratica c’è sempre qualche scostamento dal tono neutro.
Tramite uno spettrofotometro per monitor (uno di quegli aggeggi che si piazzano sullo schermo per le misurazioni dei colori) un programma apposito compie una serie di rilievi che poi consentiranno al software di applicare quelle correzioni contenute appunto nel profilo icc.
Continua…? Non lo so. Ovviamente sono aperto alle osservazioni, integrazioni e chiarimenti. E anche alle domande, se sono in grado di rispondere.
In merito all’interrogativo iniziale, in Italiano sport si dice “diporto”.
Se poi aggiungiamo che quasi sempre si tratta di trasposizioni, non traduzioni, dalla lingua inglese, la confusione aumenta.
Devo aprire subito una parentesi per richiamare l’attenzione sulla progressiva anglicizzazione della nostra lingua: oggi un avvenimento non si svolge più in qualche posto, sito, località, ma in una location. Il manager una volta si chiamava dirigente, e via discorrendo. Nel campo tecnologico è quasi impossibile difendere l’uso di una lingua nazionale che non sia l’Inglese. I Francesi ci provano con ostinazione perfino in campo sportivo, non so con quali risultati.
Ma questo andamento (non trend…), che sembra ormai inarrestabile, è cominciato decenni fa: quanti di noi ormai conoscono il termine italiano per la parola sport?
Ve lo dico alla fine…
Tornando a noi, la maggior parte degli utenti del forum conosce già tutto o quasi, ma spesso uno si rivolge a noi per ricevere spiegazioni che lo aiutino a districarsi in questo complicato linguaggio.
E poi, a dirla tutta, serve anche a me: non c’è niente che aiuti a capire una cosa come lo spiegarla agli altri. Il rischio è di cadere nella pedanteria, anche se un ripassino non guasta mai…
Per cui mi scuso fin da ora con chi sa già tutto, non è mia intenzione prenderlo per ignorante, ripeto che l’intervento è rivolto ai neofiti e il linguaggio è volutamente semplicistico (per quanto possibile). Non aspettatevi quindi che mi addentri troppo in profondità nei significati, vogliamo essere un forum adatto a tutti i livelli di conoscenza…
Ma prima di tutto, cos’è un acronimo? E’ una sigla, un’abbreviazione formata da poche lettere, usata per indicare una definizione molto più lunga e spesso ripetitiva nei discorsi e negli scritti. In genere, ma non sempre, si usano le lettere iniziali delle parole che compongono la sigla, per dare scorrevolezza all’acronimo.
Un paio di esempi (automobilistici, che sono sempre quelli chiari a tutti): FIAT sta per Fabbrica Italiana Automobili Torino. Anche se la FIAT non è più a Torino… BMW: sta per Bayerische Motoren Werke, che in tedesco significa fabbrica bavarese di motori. Chiaro, no? (Fermi tutti, Ford non è un acronimo… ). Anche Leica, il nome del nostro marchio preferito, è nato come l’acronimo di LEItz CAmera.
La lingua inglese, utilizzata dalla tecnologia, è strapiena di acronimi, gli anglosassoni li adorano, ne creano di continuo. Vediamo quelli che interessano a noi. Li ho messi in un ordine “logico” (o che mi sembra tale), per cui per capire bene tutto andrebbero letti in sequenza.
Pixel:
sta per Picture Element, cioè elemento della figura, dell’immagine. La x messa lì in mezzo non c’entra, ma così si pronuncia meglio in tutte le lingue…
I pixel sono i microscopici elementi, quasi sempre di forma quadrata, che compongono un’immagine digitale, cioè quei “quadratini” che accostati gli uni agli altri e disposti a griglia regolare formano la foto.
Anche chi è alle prime armi con l’elaborazione d’immagine avrà provato ad ingrandire fino a vedere i quadratini da cui è composta: i pixel, appunto.
Voglio fermarmi qui anche se ci sarebbe molto altro da dire sia sulla forma dei pixel (potrebbero essere anche a forma di triangolo equilatero, di rettangolo o di esagono: gli unici poligoni, oltre al quadrato, che consentono una copertura delle superfici piane senza soluzione di continuità, come se fossero piastrelle) che sulla loro sensibiltà alla luce (alcuni sono sensibili al rosso, altri al verde ed altri al blu, i tre colori primari utilizzati dalle apparecchiature elettroniche per formare i colori) e sulle loro dimensioni.
Qui basti sapere che un megapixel è un milione di pixel (mega significa milione come kilo significa mille). Quando si parla di una fotocamera che ha 24 megapixel, come ad esempio la Leica M10, si vuol dire che il suo sensore è fatto di 24 milioni di quadratini. In particolare questo modello ha un sensore costituito da 5.976 pixel in larghezza e 3.984 in altezza:
5.976 x 3.984 = 23.808.384 pixel in totale (cioè quasi 24 milioni).
I sensori delle fotocamere catturano la luce grazie a questi pixel fotorecettori. Anche i monitor dei computer, i mirini elettronici di fotocamere e quelli delle cineprese utilizzano dei pixel, disposti con densità e dimensione diversa, per restituire l’immagine in modo da poterla vedere. Solo che i pixel dei monitor sono molto più grandi, e invece di catturare la luce, la emettono.
JPEG:
sta per Joint Photographic Experts Group, che significa “unione degli esperti di fotografia” un comitato che si dedica alla definizione di standard fotografici. E’ un’estensione del file (do per scontato che chi legge sappia che cos’è un file…), cioè un suffisso, una “desinenza” che si trova alla fine del nome di un file, preceduto da un punto. Questo permette al sistema operativo del computer di riconoscere che il contenuto è un’immagine, così come ad esempio DOC o TXT indicano che il contenuto è testo.
JPEG indica anche il formato dei dati, cioè il fatto che l’immagine sia compressa, che i dati siano più o meno ricchi di informazioni su colori, definizione della foto, ecc. Più alta sarà la compressione, più bassa sarà la qualità dell’immagine e più piccole saranno le dimensioni del file.
E’ il formato più diffuso perché rende possibile comprimere immagini di grandi dimensioni in file piccoli, facilitando la condivisione on-line e risparmiando spazio e memoria.
In realtà non è che i dati vengano compressi, cioè ficcati a forza in uno spazio stretto, ma piuttotsto sfoltiti, sfrondati. Il software toglie un pixel qua e uno là, soprattutto nelle aree uniformi (ad esempio il cielo nelle foto di paesaggio), elimina le tonalità intermedie nei passaggi sfumati di colore, ecc. Lo fa in modo intelligente ma si tratta sempre di eliminare delle informazioni.
JPG:
è uguale al JPEG. Usa una lettera in meno perché una volta il sistema operativo windows (e anche quelli precedenti) richiedeva obbligatoriamente estensioni di tre lettere. Il formato JPEG infatti venne creato per i sistemi Macintosh. Oggi questa differenza è superata.
TIFF:
sta per Tagged Image File Format, letteralmente “formato di file immagine con etichetta”. L’etichetta in questione (tag) contiene una serie di informazioni aggiuntive oltre a quelle che formano l’immagine, tipicamente riguardanti la calibratura del colore. Per questo motivo è un formato di immagini non compresse, a differenza del JPEG.
Anche al JPEG si possono applicare queste informazioni, però si perde il vantaggio della compressibilità. Infatti in genere il file TIFF (o TIF, con solo tre lettere, per i motivi indicati sopra) è molto più pesante del file JPEG della stessa immagine.
PSD:
significa PhotoShop Document, cioè documento di Photoshop, l’arcinoto programma di elaborazione delle immagini del colosso informatico Adobe Systems. Nessuna fotocamera fornisce file in formato PSD, ma i file possono essere salvati in questo formato dopo la lavorazione in Photoshop, salvando insieme all’immagine tutta una serie di dati come ad esempio i livelli, gli spazi colore, le mascherature, eccetera, tutte cose che richiedono una certa conoscenza dei processi di lavorazione digitale. Vedrò se sarà il caso di entrare con cautela in questi argomenti in un post dedicato. Altri programmi di grafica della Adobe possono leggere questo formato, e sono talmente diffusi da costituire quasi uno standard. PSD è infatti un “formato proprietario”, cioè un formato di cui non vengono rese disponibili al pubblico e all’industria le specifiche tecniche, protette da crittografia e/o da brevetti. Il contrario è il cosiddetto “formato aperto”.
Raw:
ecco l’intruso! Raw non è un acronimo ma una parola vera, che in inglese significa grezzo, crudo, non rifinito, da ultimare. Si pronuncia “ro” come Rho, il comune della città metropolitana di Milano. Non è un formato di file, anche se spesso si sente dire “io scatto in raw”.
In tutte le fotocamere infatti l’immagine catturata dal sensore viene registrata in forma numerica, ed immediatamente convertita in un formato vero e proprio, solitamente il JPEG, più o meno compresso. In tal modo però i dati numerici originari vanno persi. Diverse fotocamere tuttavia consentono di registrare anche questi dati grezzi, non convertiti, o addirittura di trattenere solo quelli e di raccoglierli in un file, detto appunto “grezzo”, raw.
Il fatto che i dati siano grezzi, cioè non definitivi, consente in un secondo momento di regolarli entro limiti molto più ampi rispetto alla registrazione coi formati compressi, dando la possibilità di correggere impostazioni che al momento dello scatto non erano ottimali come l’esposizione, il bilanciamento del bianco, il contrasto, tramite la successiva elaborazione con programmi adatti (il solito Photoshop, per dirne uno solo), mantenendo la qualità a livelli alti e sfruttando al massimo le capacità del sensore e dell'ottica.
E qui mi si consenta un’opinione personale: ha poco senso spaccare il capello in quattro analizzando la qualità di un obiettivo se poi si scatta solo in formato JPEG.
I dati grezzi dunque possono essere raccolti in file, ma questo può essere fatto con modalità diverse, e infatti le diverse marche di fotocamere forniscono i file grezzi sotto forma di file diversi, cioè con diversi formati proprietari (vedi sopra).
Ad esempio i file grezzi della Nikon hanno estensione NEF (Nikon Electronic Format), quelli della Canon CRW (Canon RaW) oppure CR2 (Canon Raw 2), quelli della Olympus ORF (Olympus Raw Format), eccetera.
Leica fornisce file grezzi in formato DNG.
DNG:
sta per Digital NeGative, ossia negativo digitale. E’ un formato aperto di registrazione dati, cioè le cui specifiche sono disponibili pubblicamente. Insomma è quasi il jolly dei file grezzi, perché tutti hanno la possibilità di trattarlo, e viene così a costituire uno standard per i file grezzi creati dai singoli modelli di fotocamere, con tutti i vantaggi che ne derivano, soprattutto a proposito di obsolescenza dei programmi.
Venne sviluppato dalla Adobe Systems nel 2004 ma già dopo un anno dalla sua introduzione numerosi produttori di software rilasciarono programmi in grado di trattare il formato DNG. Inoltre prestigiosi marchi fotografici, compresi Hasselblad e Leica, producono fotocamere che mettono direttamente a disposizione i dati in formato DNG.
Vi sono altri tipi di file immagine, con estensioni diverse: .bmp, .eps, .gif, .pict, .png, .tga, ma non ritengo opportuno trattarli tutti. Del resto ho indicato qui quelli principali.
Exif:
sta per Exchangeable Image File Format, cioè formato dei file d’immagine standardizzato. Non si tratta di un formato di file ma di un formato di dati. Questi sono contenuti nei file insieme ai dati che formano l’immagine, ma separati da essi. Sono dati che riguardano le caratteristiche del file immagine (ma ci sono anche per i file audio, ad esempio) a cui sono associati, come data, ora, marca e modello di fotocamera, tempo di esposizione, risoluzione del fotogramma eccetera. Anche le coordinate per la geolocalizzazione, per le fotocamere che lo consentono. Si parla infatti di “dati exif” e sono visibili utilizzando molti programmi di gestione dei file fotografici (nel nostro caso).
PPI:
sta per Pixel Per Inch, ossia pixel per pollice. Con pollice ovviamente si intende l’unità di misura adottata dal sistema imperiale britannico ed utilizzata anche negli Stati Uniti e in altri paesi dove il sistema metrico decimale viene bellamente ignorato. Un pollice equivale a 2,54 centimetri.
Personalmente trovo questo sistema di misura decisamente astruso, basti pensare che un “piede”, un’unità più grande, è costituito da 12 pollici e non da 10. Una “iarda” equivale a 36 pollici (cioè 3 piedi). E un miglio è uguale a 1.760 iarde. Proporzioni prive di senso.
Tuttavia il pollice si è imposto prepotentemente anche da noi in alcuni settori, come la definizione del diametro dei tubi idraulici (da mezzo pollice, da 3/8 di pollice, ecc.), dei cerchioni delle biciclette e delle auto, nonchè delle diagonali di televisori e monitor.
La riluttanza ad adottare il sistema metrico decimale in divesi paesi, ma specialmente in Inghilterra, è dovuta a motivi politico-religiosi ben radicati. Moltissime persone sono convinte che il sistema metrico decimale sia legato alla religione cattolica, cioè sia stato imposto, magari secoli fa, da un Papa. Quasi che, dovendo cambiare unità di misura, si dovesse anche cambiare religione. Ma ciò è dovuto all’astuto condizionamento dell’opinione pubblica.
Se siamo praticamente obbligati a tenerci i pixel, non siamo però obbligati a tenerci i pollici, tant’è vero che potremmo parlare tranquillamente di pixel per centimetro. Photoshop ad esempio consente di esprimere i valori nelle due diverse unità.
Abbiamo visto quanto è lungo un pollice, per cui quando diciamo che un’immagine è “a 1.000 PPI” vogliamo dire che nella lunghezza di un pollice ci stanno 1.000 quadratini, che equivale a dire che l’immagine è “a 394 PPC” (pixel per centimetro), cioè che in un centimetro ci stanno 394 quardatini.
Da quanto indicato più sopra risulta che in 1 cm del sensore di una Leica M10 ci sono 1.660 pixel (4.208 in un pollice).
Attenzione: parlando della definizione di un’immagine elettronica è scorretto parlare di DPI, bisogna usare il termine PPI, e la differenza la vediamo qui sotto subito (o quasi).
DPI:
sta per Dots per Inch, ossia punti per pollice, ma per quanto abbiamo detto sopra si potrebbe parlare di punti per centimetro. Qui però non siamo più nel campo dell’elettronica ma della stampa. Non non si tratta più di fotocamere, sensori e monitor, ma di stampanti, inchiostri e carta. I pixel non c’entrano niente con i DPI.
Il valore di 1.400 DPI significa che una stampante riesce a far stare 1.400 “puntini” di inchiostro nella larghezza di un pollice (e cioè 551 puntini in un centimetro).
Questi puntini non sono affatto quadrati ma sono delle gocce microscopiche: quanto grosse siano, è materia di spionaggio industriale . Maggiore è la capacita di una stampante di fare puntini piccoli e molto fitti, e maggiore sarà la qualità dell’immagine stampata.
Poi ovviamente è da vedere se la carta è in grado di reggere una simile densità di inchiostro senza sbavature, ma questo è un altro capitolo.
Alti valori di DPI consentono di avere un effetto grana contenuto e passaggi tonali migliori e più sfumati.
Le aziende che producono stampanti fanno a gara per poter aumentare questi valori, così come le aziende che producono fotocamere fanno di tutto per avere più megapixel nei propri sensori.
Un pixel dell’immagine che vediamo a monitor non corrisponde affatto ad un puntino sulla stampa. Posso stampare anche un solo pixel della foto, magari grande quanto un foglio, utilizzando molti puntini.
Nella pratica in realtà avviene il contrario, cioè una linea contenuta nella nostra immagine elettronica è costituita da molti pixel, che verranno stampati utilizzando un numero minore di goccioline.
Spesso si usa indifferentemente indicare i DPI al posto dei PPI, scambiando queste due unità di misura che, come abbiamo visto, non hanno nulla a che vedere l’una con l’altra. Perfino molti software professionali (si, anche Photoshop) utilizzano altrenativamente i due termini, contribuendo ad aumentare la confusione.
Si sente dire:
- "se l’immagine non è almeno a 300 DPI, in stampa non viene bene";
- "la stampante stampa a 2.880 DPI, quindi preparo l’immagine a 2.880 DPI".
Sono convinzioni errate, espresse in modo scorretto e derivano proprio dalla confusione che regna in questo campo. L’argomento non è di immediata comprensione, e anch’io all’inizio ho fatto fatica a separare i due concetti.
I valori da impostare prima di lanciare una stampa dipendono dalla capacità di visione dell’occhio umano. Al massimo, guardando una stampa da molto vicino (o magari con una lente), ne possiamo distinguere 118 per ogni centimetro, cioè 300 per ogni pollice (ecco il famoso valore!). Impostare risoluzioni più alte non ha senso, perché non c’è alcun miglioramento percepibile.
Risoluzioni “guida”, caratteristiche di stampa sono:
300 DPI per stampe di alta qualità;
200 DPI per stampe di grandi dimensioni (cioè da guardare da lontano);
100 DPI in genere è la risoluzione delle foto dei quotidiani.
Per cui, prima di stampare alla massima risoluzione possibile, uno dovrebbe pensare: “Quanto è grande la mia stampa? Da che distanza sarà osservata? I 300 DPI li distinguo?”
Commisurando la risoluzione all’uso a cui la stampa è destinata si evita di tirare il collo alla macchina, di forzare le capacità della carta e si risparmia il costosissimo inchiostro.
Trovo che in questo campo solo l’esperienza personale possa portare a flussi di lavoro ottimali.
RGB:
sta per Red, Green, Blue, cioè rosso, verde, blu. E’ uno “spazio colore” (non un “profilo colore” come vedremo più avanti), cioè il modo che hanno le apparecchiature elettroniche di riprodurre i colori. Tutti sappiamo che in natura i colori primari sono rosso, giallo e blu, cioè che tutti gli altri colori si ottengono da questi tre mescolati in quantità variabili.
Vediamo però che in elettronica c’è il verde al posto del giallo. (Non voglio approfondire la teoria del colore o le differenze fra “sintesi additiva” e “sintesi sottrattiva”. Chi vuole sviscerare l’argomento troverà nella rete una miriade di siti che si addentrano in questo ginepraio, per me scoraggiante.)
Accennerò solo al fatto che nel 1931 venne istituita la Commissione Internazionale per l’Illuminazione, la quale definì, attraverso moltissime osservazioni sperimentali sulle persone, quanti colori riesce a vedere l’occhio umano, cioè qual’è il campo delle radiazioni elettromagnetiche che il nostro occhio percepisce.
Questo è definito in modo matematico, perché le frequenze e le lunghezze d’onda delle radiazioni elettromagnetiche che costituiscono la luce sono misurabili (sono costretto solo a ricordare che la luce è composta dalla somma dei colori, e che a frequenza diversa della radiazione luminosa corrisponde un colore diverso).
La rete è piena di siti che riportano i diagrammi che illustrano questo campo con sistemi di coordinate. Ne riporto qui uno in due dimensioni che fa al caso nostro.
Chi vuole usare un linguaggio tecnico chiama gamut l’intero insieme dei colori di uno spazio colore. (Anche questo sarebbe un acronimo, ma sorvoliamo).
In un monitor, in un televisore o nel display di una fotocamera, cioè nelle immagini “proiettate” elettronicamente, i pixel che compongono l’immagine possono assumere diversi colori a seconda di quanto rosso, verde e blu gli vengono inviati dall’apparecchio, e con quale intensità.
Se un pixel riceve la stessa quantità di rosso, verde e blu, apparirà grigio. Più o meno scuro a seconda dell’intensità di rosso, verde e blu. A basse intensità corrispondono grigi scuri, ad alte intensità corrispondono grigi chiari. Nessuna intensità dà come risultato il nero (il “fondo” dei pixel spenti), la massima intensità dà origine al bianco.
E’ per questo che impostare lo sfondo del monitor con colori scuri ne allunga la vita.
Ma naturalmente si può variare la quantità di rosso, verde e blu da inviare ad ogni singolo pixel, dando origine a moltissimi colori. Quanti? Esattamente 16.581.375 (più di sedici milioni) e vediamo perché.
Lo spazio colore che un apparecchio elettronico riesce a riprodurre è più limitato di quello che l’occhio può vedere (si confronti il diagramma sopra). Lo standard RGB venne definito dalla Adobe Systems nel 1998, e si decise di dividere ognuno dei tre colori primari in 255 livelli di intensità. Un rosso pieno sarà quindi costituito da: rosso 255, verde 0, blu 0. Un bel viola da: rosso 186, verde 0, blu 240.
Va precisato che il rosso 255, 0, 0 è diverso da 254, 0, 0. Io li distinguo a malapena, ma per il computer sono due colori diversi.
Risulta quindi che il totale delle combinazioni possibili deriva dalla variazione dei tre colori in tutti i 255 livelli di intensità, cioè: 255 x 255 x 255 = 16.581.375.
Oggi tutti i monitor e i display dei cellulari sono ampiamente in grado di riprodurre la totalità di queste combinazioni, ma per essere sicuri che tutti potessero vedere i colori in TV o a computer, nel 1996 si era già deciso di adottare uno spazio colore più ristretto, che dopo il 1998 sarà rinominato sRGB per distinguerlo dal nuovo Adobe RGB. Cosa significhi la s davanti, non sono riuscito a saperlo, ma faccio finta che voglia dire shrunk, cioè ristretto (ma è un’invenzione mia).
Quando postiamo una foto in internet, o quando ne guardiamo una, comprese quelle di questo forum, sappiamo che i suoi colori rientrano nello spazio colore sRGB. I colori del diagramma riportato qui sopra, proprio perchè li stiamo osservando con un monitor, non sono "veri", ma mi preme evidenziare le differenze fra i diversi spazi colore.
Le apparecchiature elettroniche vanno in crisi quando devono rappresentare le sfumature dei verdi e dei blu. Lo spazio sRGB da questo punto di vista è davvero limitato, come si vede dal diagramma. Va meglio lo spazio Adobe RGB, pur essendo ancora lontano dal coprire lo spettro del visibile.
Le stesse apparecchiature quindi vanno istruite su quale spazio colore adottare per riprodurre le nostre foto, sia che si tratti di un monitor che di un display sul dorso di una fotocamera.
Naturalmente tutti noi vogliamo applicare quello più grande possibile. E naturalmente anche la fotocamera deve sapere quale spazio colore adottare per i nostri scatti. La mia è una Leica M9, e mi consente di scegliere solo fra sRGB ed RGB. E va benissimo, perché so che il mio monitor più di RGB non può fare, e neanche la mia stampante, che adotta gli inchiostri Ultrachrome (vedi diagramma sopra) della Epson, il cui campo di riproducibilità coincide grosso modo con l’RGB.
Attenzione però: lo spazio colore viene incorporato solo agli scatti in JPEG perché in quelli grezzi, come il DNG (vedi sopra) non viene incorporato niente. In questo caso lo spazio colore verrà applicato dopo, da un software dotato di un modulo di sviluppo (Photoshop o Lightroom, ad esempio), ma lo posso anche cambiare e sceglierne uno più adatto all’uso che voglio fare della foto. Nello scatto JPEG invece non posso cambiare più niente: potrò anche guardare la foto con un monitor RGB e stamparla con gli inchiostri Ultrachrome, ma se lo spazio incorporato è sRGB, avrò comunque una gamma di colori limitata.
Per fare un esempio, i miei file DNG sono privi di spazio colore, ma li vedo nello spazio RGB perché ho configurato Lightroom per farmeli vedere a monitor in questo spazio. Quando “esporto” una foto in JPEG per metterla nel forum, incorporo automaticamente lo spazio sRGB (quello di internet) al file in uscita.
E’ inutile applicare lo spazio RGB ai file che si utilizzano in internet, forum compresi.
Di nuovo: Photoshop, all’apertura di un nuovo file, chiede di scegliere fra tre opzioni:
1) usa il profilo incorporato (anziché lo spazio di lavoro);
2) converti colori del documento in spazio di lavoro;
3) elimina profilo incorporato (non gestire i colori).
Naturalmente il termine “profilo” qui è sbagliato, e come già osservato più sopra, contribuisce a creare confusione. Si tratta invece dello spazio colore: il programma vuol sapere se mostrare i colori della foto nello spazio colore incorporato nel file (sRGB oppure RGB), oppure se convertire lo spazio colore del file in quello “di lavoro”, cioè quello predefinito in fase di configurazione del programma: nella stragrande maggioranza dei casi è l’RGB, a meno di particolarità come il CMYC, ma ci stiamo arrivando.
Se scelgo di visualizzare i colori in uno spazio più piccolo di quello del monitor, il programma non avrà difficoltà a mostrarli tutti. Ma se il mio file incorpora uno spazio colore che è più grande di quello del monitor, non vedrò tutti i colori contenuti nella mia foto, perché il programma taglierà via quelli che escono, o meglio li convertirà in quelli più vicini che “stanno dentro” allo spazio colore del monitor. Vedrò cioè un’immagine meno ricca di colori. Questi però restano nel file, a meno che io lo salvi incorporando uno spazio colore più piccolo.
I display sul dorso delle fotocamere adottano lo spazio colore sRGB. Ciò significa che, se la mia foto JPEG incorpora lo spazio RGB, osservandola sul display non vedrò tutti i colori che contiene. Fortunatamente quando scarico le foto nel computer, tutti file hanno il loro spazio colore originale. Per mostrare i file DNG la fotocamera crea temporaneamente un file “che si può vedere”, nello spazio sRGB.
E i file monocromatici? Questi non contengono informazioni sul colore, ma solo sull’intensità luminosa, un parametro chiamato luminanza. Vale a dire che, mentre un file a colori contiene una mappa di tutti i pixel della foto, di quale intensità era la luce che li ha colpiti uno per uno e di che colore è ogni pixel (R, G o B), nel file monocromatico ci sono solo le prime due informazioni.
Guardando un file monocromatico a monitor, quest’ultimo deve però costruire i grigi nel modo che abbiamo visto sopra, cioè “fingendo” che i colori ci siano. Allo stesso modo opera il software di fotoritocco: se il file è già monocromatico non deve fare niente (non ha informazioni sul colore), se lo vogliamo convertire toglie l’informazione sul colore dal file e noi possiamo salvarlo come grayscale, cioè in scala di grigi come se fosse uno spazio colore.
CMYK:
sta per Cyan, Magenta, Yellow, Key Black. E’ anche questo uno spazio colore, non un profilo. Il “Key” lo hanno messo per non fare confusione con la B, che potrebbe anche voler dire Blue.
Di nuovo dobbiamo abbandonare l’elettronica e considerare i tre colori primari naturali: blu rosso e giallo, da cui derivano tutti gli altri. Il Ciano non è altro che un blu molto chiaro, e il magenta fa altrettanto per il rosso. Il giallo è già chiaro abbastanza. Le stampanti, per fare ad esempio i toni del blu, mettono molto ciano in modo da scurirlo, accostato magari ad altri colori in quantità molto minori (quando abbiamo visto il significato del termine DPI abbiamo detto che l’effetto del colore è dato dall’accostamento di microscopiche gocce degli inchiostri.)
Lo spazio colore CMYK infatti serve solo per la stampa, ed assegnare questo spazio ad un file significa previsualizzare i colori come verranno stampati. Sarebbe meglio dire come dovrebbero venir stampati, dato che la “traduzione” dal linguaggio del software a quello della stampante non è semplicissima e subisce l’influenza di molti fattori esterni (tipo di stampante, tipo di carta, modo di applicare l’inchiostro, varietà di inchiostri diversi, ecc.), che rendono necessaria l’adozione dei profili di stampa (vedi oltre).
Il tipo di stampa più semplice è quello in tricromia, cioè quello che utilizza solo tre inchiostri: il ciano, il magenta e il giallo (CMY). Con questi tre è possibile ottenere quasi tutti i colori, anche quelli scuri, ma non il nero.
In teoria il nero si otterrebbe mescolando tutti i colori, ma nella pratica viene fuori una specie di marrone molto scuro (chiamato bistro). Per cui occorre proprio aggiungere anche dell’inchiostro nero, che fa da quarto elemento. La stampa eseguita con questo metodo prende quindi il nome di quadricromia.
La quadricromia però è lontana dal poter riprodurre tutti i colori visibili, e anche quelli dello spazio RGB (si veda il diagramma sopra riportato).
Le stampanti inkjet moderne, così come le macchine tipografiche, hanno da tempo superato questo limite adottando ulteriori serbatoi di colore: da 6 (esacromia: CcMmYK, le minuscole stanno per ciano chiaro e magenta chiaro) ad 8 o più. La mia stampante utilizza nove inchiostri diversi: oltre ai normali ciano magenta e giallo, ne ha due per i neri (lucido o matte), due per i grigi, una di ciano chiaro e una di magenta chiaro, per poter ottenere una gamma di toni e di sfumature (Ultrachrome) che copre uno spazio colore che si avvicina moltissimo all’RGB. Ho amici che usano stampanti con ben dodici inchiostri.
Una volta che si preme il tasto “stampa” del software, a meno che il file sia già nello spazio colore CMYK, ci dev’essere una “traduzione” dei dati da uno spazio colore all’altro, adattando contemporaneamente la stampa alla stampante in uso, al tipo di carta, al tipo di inchiostro, alla risoluzione utilizzata, eccetera. Questa serie di istruzioni vengono impartite alla stampante tramite il suo driver (il programma che la governa), e in parte tramite un profilo icc (ecco finalmente questo termine) che istruisce una specifica stampante, e solo quella, per l’utilizzo di uno specifico tipo di carta. Lo stesso vale per le macchine da tipografia e per le stampanti fotografiche che utilizzano tecnologie diverse dal getto di inchiostro.
Icc (altro acronimo) sta per International Color Consortium, un’organizzazione che pubblica le specifiche di realizzazione di questi profili.
Questi ultimi quindi non sono altro che file contenenti queste istruzioni, che hanno estensione .icc. Tramite il caricamento del profilo nel software di stampa, la stampante viene informata delle caratteristiche della carta su cui deve stampare: lucida o matte, a tono caldo o freddo (con tutte le varianti intermedie), quale dominante ha, ad alto o basso assorbimento di inchiostro, la grammatura, eccetera.
Naturalmente per la mia stampante sono disponibili dei profili, uno per ogni tipo di carta, diversi da quelli per la stampante del mio amico. Alcuni di questi file vengono installati automaticamente nel computer durante l’installazione del driver della stampante, ma la maggior parte dev’essere scaricata dai siti delle aziende produttrici di carta, soprattutto quelli cosiddetti “di terze parti”, che mettono a disposizione i profili dei propri prodotti (carte) per i vari modelli di stampanti.
Poi, se uno proprio vuole, può anche “costruirsi” un profilo da sè, per la propria stampante e la carta preferita. Ci sono strumenti appositi (spettrofotometri) che leggono dei test di stampa, misurano la resa dei colori sulla carta e creano il file del profilo che contiene tutte le istruzioni del caso.
E il profilo del monitor? Si sente spesso dire che il monitor dev’essere profilato, calibrato, cioè il software che lo governa va informato di tutta una serie di correzioni da apportare per restituire le immagini al meglio.
Senza addentrarci in troppi particolari, è anche questo un file che contiene una serie di informazioni sulle condizioni ambientali (intensità e temperatura cromatica del locale in cui si trova il monitor) e delle dominanti del monitor. Un monitor che esce dalla fabbrica non dovrebbe averne, ma in pratica c’è sempre qualche scostamento dal tono neutro.
Tramite uno spettrofotometro per monitor (uno di quegli aggeggi che si piazzano sullo schermo per le misurazioni dei colori) un programma apposito compie una serie di rilievi che poi consentiranno al software di applicare quelle correzioni contenute appunto nel profilo icc.
Continua…? Non lo so. Ovviamente sono aperto alle osservazioni, integrazioni e chiarimenti. E anche alle domande, se sono in grado di rispondere.
In merito all’interrogativo iniziale, in Italiano sport si dice “diporto”.
Spesso quello che cerchi è dentro di te... oppure nel frigo!
http://www.photomaz.com/
https://www.instagram.com/photomaz59/
http://www.photomaz.com/
https://www.instagram.com/photomaz59/
- Mauro Mascherino
- Messaggi: 1308
- Iscritto il: mer lug 09, 2008 12:18 pm
- Località: Roma e dintorni
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Well done!
Ciao
Mauro
(Wetzlar 2011)
Mauro
(Wetzlar 2011)
- Sergio Frascolla
- Moderatore
- Messaggi: 10290
- Iscritto il: mar mar 11, 2008 9:51 am
- Località: GENOVA
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Applausi!!!!
Sergio Frascolla.
Louis, credo che questo sia l'inizio di una bella amicizia
Wetzlar 2011, io c'ero !
Louis, credo che questo sia l'inizio di una bella amicizia
Wetzlar 2011, io c'ero !
- Ferruccio Lobba
- Moderatore
- Messaggi: 2976
- Iscritto il: sab lug 07, 2007 8:16 am
- Località: Brescia
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Grande Michele !!!!
Una perfetta guida da leggere a fondo
Una perfetta guida da leggere a fondo
Ciao
Ferruccio
Ferruccio
- Emilio Vendramin
- Site Admin
- Messaggi: 8987
- Iscritto il: mar ago 28, 2007 6:53 pm
- Località: Ancona
- Contatta:
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Gran bel lavoro, Michele.
Grazie.
Grazie.
CIAO - WETZLAR 2011 ... io c'ero.
http://emilio-vendramin-fotografie.weebly.com/
http://emilio-vendramin-fotografie.weebly.com/
- valerio.falzetti
- Messaggi: 4755
- Iscritto il: lun ott 18, 2010 9:25 am
- Località: Fabriano
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Grazie Michele,
Vale
Inviato dal mio iPhone utilizzando Tapatalk
Vale
Inviato dal mio iPhone utilizzando Tapatalk
Ho sempre pensato che la fotografia sia come una barzelletta: se la devi spiegare non è venuta bene.
Ansel Adams
Ansel Adams
- webmax
- Messaggi: 2105
- Iscritto il: lun feb 18, 2008 11:30 am
- Località: Mantova - Forte dei marmi
- Contatta:
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Ottimo Michele !
Massimo
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Bravo Michele complimenti. La continuazione sarà molto gradita.
Ciao angelo
- Massimiliano Liti
- Moderatore
- Messaggi: 5345
- Iscritto il: mar feb 05, 2008 12:09 pm
- Località: Firenze
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Spettacolo Michele grazie
Massimiliano Liti (già HAWK)
Quant'è bella giovinezza
Che si fugge tuttavia
Chi vuol essere lieto sia
Del doman non v'è certezza
Quant'è bella giovinezza
Che si fugge tuttavia
Chi vuol essere lieto sia
Del doman non v'è certezza
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Bravo Michele, grande pazienza e grande lavoro, credo che per i fotografi digitali sia un vademecum perfetto. Un saluto. Pier Maria
Pier Maria Lorenzi
http://www.sbooi.it
"Lo primero que todo es tener una maquina que a uno le guste, la que mas le guste a uno... Y que sea el minimo, lo indispensable y nada mas."
Sergio Larrain, secondo me uno dei più grandi. (Ma anche Sarah Moon non scherza...)
http://www.sbooi.it
"Lo primero que todo es tener una maquina que a uno le guste, la que mas le guste a uno... Y que sea el minimo, lo indispensable y nada mas."
Sergio Larrain, secondo me uno dei più grandi. (Ma anche Sarah Moon non scherza...)
- ferroandrea
- Messaggi: 1058
- Iscritto il: ven giu 15, 2007 10:06 pm
- Località: Venezia
- Contatta:
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Ottimo lavoro!
piccolo manuale molto utile e un buon aiuto per chiarire concetti di base
Grazie
piccolo manuale molto utile e un buon aiuto per chiarire concetti di base
Grazie
Saluti Andrea
http://www.ferroandrea.it
https://www.flickr.com/photos/ferroandrea/albums
"We, and our images, are made of the same stuff that dreams are made of"
http://www.ferroandrea.it
https://www.flickr.com/photos/ferroandrea/albums
"We, and our images, are made of the same stuff that dreams are made of"
- pgradaelli
- Messaggi: 538
- Iscritto il: mer mar 05, 2008 1:13 pm
- Località: Roma
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Fatto proprio bene! Molto utile, anche per chi ha già una certa conoscenza, che con questo lavoro viene ben sistematizzata. Grazie davvero, Michele.
Piergiorgio Radaelli
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
... Davvero. Lavoro pregevole. Grazie.
Marco
Inviato dal mio BLA-L09 utilizzando Tapatalk
Marco
Inviato dal mio BLA-L09 utilizzando Tapatalk
Marco Luciano Negro
-
- Messaggi: 270
- Iscritto il: ven gen 27, 2017 12:32 pm
Re: Acronimi fotografici (con intruso): guida semiseria per comuni incomprensioni digitali
Grazie Michele, molto ben spiegato e con simpatica arguzia.
Enzo Calabresi