Docs Italia beta

Documenti pubblici, digitali.

13.1. Glossario

Aberrazione
Una lente perfetta dovrebbe riprodurre un punto o un segmento come tali. In generale, invece, e specialmente per le lenti più economiche, ciò non avviene, e un punto può diventare un circolo, e un segmento una piccola curva. Questi difetti sono dovuti al tipo di vetro usato, al fatto che la superficie delle lenti è curva ed al comportamento della luce. Nel 1856 Ludwig von Seidel individuò cinque aberrazioni che si verificano in luce monocromatica: asferica, coma, astigmatismo, curvatura di campo, distorsione.
Aberrazione cromatica
Difetto delle lenti in presenza in luce bianca. L’indice di rifrazione delle lenti è legato alla lunghezza d’onda (colore) della luce. Ciò significa che la stessa lente assume una focale diversa a seconda della radiazione che la attraversa. Quindi il punto di fuoco del rosso o del blu non coinciderà, provocando un’immagine sfocata. Il difetto si compensa combinando due lenti costruite con vetri dotati di diverso indice di rifrazione (obiettivo acromatico) o con l’utilizzo di una lente asferica.
Aberrazione sferica
Il difetto si verifica nelle lenti semplici, in quanto i raggi che passano attraverso i bordi più esterni della lente non vanno a fuoco nello stesso punto di quelli che passano per le zone centrali o l’asse ottico. Il difetto di sfocatura al centro dell’immagine si compensa con la chiusura del diaframma.
Algoritmo
Matrice di calcolo per eseguire una data operazione matematica; nel contesto del presente documento, ad esempio, esistono algoritmi per la compressione di un’immagine o per la codifica di un file.
Artefatti
Difetti dell’immagine creati dallo strumento usato per registrarla (come il sensore delle fotocamere digitali) o per stamparla. Tipicamente, la compressione JPEG crea degli artefatti, che si manifestano come micro rettangoli o quadrati di “grana” colorata.
Bayer (matrice di)

Consiste in un retino composto dai tre colori fondamentali (rosso, verde e blu), collocato sul sensore di ripresa il quale è composto da pixel monocromatici. Tramite tale retino si ottiene la formazione del colore per sintesi additiva.

Bianco e nero, scala di grigi, RGB, RGB true color

Ciascuna di queste terminologie individua una tipologia di scala di colore:

  • Bianco e Nero: 1 bit per ogni pixel. Ogni pixel può essere bianco o nero;
  • Scala di grigi: 8 bit per pixel corrispondono a 256 tonalità di grigio;
  • RGB (Red, Green e Blu): colori primari utilizzati per creare altri colori. 15 o 16 bit per pixel generano da 32.268 a 65.536 diversi colori;
  • RGB TRUE COLOR: 24 bit per pixel generano 16,8 milioni di colori.
Bit per pixel
Il numero dei bit utilizzati in un’immagine digitale per rappresentare il colore di ciascun pixel. Con 1 bit per ogni pixel si ottiene un’immagine a 2 colori, con 2 bit a 4 colori, con 3 bit a 8 colori, e così via. Come regola, con n bit si rappresentano 2n colori. Con 24 bit per pixel si rappresentano 16,7 milioni di colori.
CAD
Acronimo di Computer Aided Design, settore dell’informatica volto all’utilizzo di tecnologie software e computer grafica per supportare le attività di disegno tecnico e di progetto avendo come obiettivo la creazione di un modello bidimensionale e/o tridimensionale del bene.
Compressione

Termine generico per i metodi di compressione dei file d’immagine che implicano una perdita di qualità. Questa appare evidente dopo il suo salvataggio nella versione compressa. Un esempio di un formato “lossy”, che quindi comporta una compressione, è il formato JPEG.

Esistono anche metodi di compressione di un’immagine che rendono i file più piccoli allocando i dati in modo più efficiente o che rimuovono quelli ritenuti estranei senza generare perdita di dettaglio rispetto all’immagine originale. Generalmente si tratta, per il formato TIFF, della compressione LZW*.

DPI e PPI
Punti per pollice (DPI) e pixel per pollice (PPI). Questi valori indicano la risoluzione di un’immagine. DPI indica il numero di punti contenuti in un singolo pollice di un’immagine stampata da una stampante misurando il numero di punti verticali od orizzontali che essa è in grado di risolvere. PPI indica il numero di pixel contenuti in un singolo pollice di un’immagine visualizzata nel monitor di un computer.
Distorsione (ottica)

Aberrazione ottica, tipica di alcuni obiettivi. Viene detta “a barilotto” quando l’immagine di un quadrato e più ingrandita al centro che ai bordi (l’immagine ricorda quella di un piccolo barile).

Viene detta “a cuscinetto” quando un soggetto quadrato viene riprodotto con un maggiore ingrandimento ai bordi rispetto al centro (l’immagine risultante ricorda la forma di un cuscino). Il difetto è dovuto al fatto che l’immagine, formata dai raggi periferici, viene riprodotta con un rapporto diverso da quella riprodotta dai raggi che passano per l’asse ottico dell’obiettivo.

La prima è tipica degli obiettivi grandangolari, la seconda dei teleobiettivi. È più marcata nelle ottiche economiche e negli zoom.

Densità e gamma dinamica (DMAX)

In fotografia, per descrivere la sensazione visiva dell’annerimento fotografico tipico del negativo più o meno esposto alla luce, coerentemente con il meccanismo della visione umana, si usa il concetto di densità (D). La densità è una grandezza logaritmica e i valori vanno da 0 (trasparenza assoluta, trasmittanza della luce al 100%, paragonabile al bianco) a 6 (trasparenza praticamente nulla, trasmittanza della luce al 0, 0001%, paragonabile al nero). Quindi maggiore è la densità, minore è la luminosità; una densità di 3.0 è dieci volte maggiore di una densità di 2.0. Un rapporto opacità/trasparenza di 100:1 equivale ad una densità di 2.0, così come una densità di 3.0 significa un rapporto opacità/trasparenza di 1000:1. Negli stampati si può avere una densità massima di 2, nelle pellicole si può raggiungere e superare invece densità 4.

La gamma dinamica di uno scanner è la capacità che questo ha di leggere e discriminare le diverse densità tonali tra le zone più opache dell’immagine (nere) e quelle più trasparenti (bianche). I valori minimi e massimi di densità che uno specifico scanner è in grado di catturare sono chiamati DMin e DMax. Se la DMin di uno scanner è 0.2, e la DMax 3.1, allora la sua gamma dinamica è 2.9.

La DMax indica il massimo livello di densità in cui si possono distinguere singoli toni dell’immagine, cioè non ancora sopraffatti dal rumore. Una gamma dinamica più ampia di solito si estende verso i toni scuri, il che comporta una maggiore capacità di rilevare dettagli nelle ombre.

In generale, i produttori comunicano dei valori che non sono realmente legati alla vera gamma dinamica, ma che invece sono teorici (ad esempio quando uno scanner riesce sì a rilevare differenze di luminosità nelle ombre ma il CCD, a quei livelli di luminosità, produce così tanto rumore da rendere l’immagine finale inutilizzabile). Per dirla in breve, la DMAX è la densità massima che uno scanner può rilevare, mentre la Gamma Dinamica è la gamma di toni che uno scanner è in grado di differenziare in maniera accettabile. Questa - per le digitalizzazioni a scopo conservativo del bene - non dovrebbe essere inferiore a Dmax 4.0.

Droni
Per eseguire soprattutto digitalizzazioni fotogrammetriche negli ultimi anni si è fatto ricorso particolarmente all’uso dei droni a controllo remoto, con dimensioni e capacità molto diverse tra loro. I droni permettono di monitorare ambienti particolarmente complessi o inaccessibili, di lavorare in completa sicurezza lì dove le condizioni non lo permetterebbero e forniscono all’operatore e conseguentemente alla digitalizzazione angoli e punti di analisi molto variegati.
Exif

EXchangeable Image File, ovvero file di immagine intercambiabile.

Si tratta di un formato di metadati, condiviso da tutti produttori di fotocamere, utilizzato per abbinare a ciascuna immagine digitale un insieme di informazioni aggiuntive. Le informazioni sono generate al momento della registrazione dell’immagine da parte dello scanner o della fotocamera e in essa incorporati. I dati registrati possono essere:

  • Statici: come ad esempio quelli che identificano marca e modello della macchina fotografica;
  • Dinamici; che cambiano di foto in foto, come ad esempio i valori usati per apertura, tempo di esposizione e ISO o la data in cui la foto è stata scattata.
Firmware
È il software residente a bordo di una apparecchiatura fotografica, fotocamera, sistema di memoria o stampante, che consente di svolgere una serie di funzioni tramite i menu di gestione. In diversi casi è possibile aggiornarlo per aumentare le possibilità dell’apparecchio oppure eliminare difetti che si manifestano nel corso della vita dello stesso.
Fotomodellazione / Fotogrammetria
Tecnica che fa uso di fotocamere digitali per l’acquisizione di foto bidimensionali e la restituzione di modelli metrici tridimensionali. La procedura genera una nuvola di punti, che può essere convertita in una superficie poliedrica (mesh) poi rivestita con immagini fotografiche (texture) che consentono di ottenere una visualizzazione fotorealistica del bene rilevato.
Gamma dinamica
Differenza (contrasto) fra i valori più alti e quelli più bassi di un’immagine, ossia fra le alte luci più chiare e le ombre più scure.
Georeferenziazione
Tecnica di attribuzione di coordinate geografiche a un oggetto grafico che viene usata nelle procedure di cartografia computerizzata.
GIF
Graphics Interchange Format. Formato di file utilizzato per salvare (principalmente) file grafici per il Web. Supporta animazioni e può essere usato per creare animazioni compatte (in termini di ingombro su disco) per siti Web. Il formato GIF utilizza un sistema di compressione e non può gestire più di 256 colori. La risoluzione e il numero dei colori dell’immagine lo rendono inadatto alla visualizzazione di fotografie.
GIS
Sigla di Geographical Information System, banca dati relazionale a base cartografica, più o meno automatizzata. Spesso viene prodotta con l’ausilio di dati acquisiti via satellite. In linea generale, a ciascuna minuta porzione di area rappresentata sulla carta geografica e individuata mediante un sistema di coordinate viene correlata, in un GIS, una serie di informazioni che, codificate in forma numerica e quindi grafica, possono essere aggiornate, visualizzate e stampate in tempi rapidissimi. L’aggiornamento, così come l’immagazzinamento delle informazioni sotto forma di dati codificati, viene effettuato nella banca dati, da cui poi si deriva la cartografia. L’impiego del GIS si è rapidamente esteso a molti ambiti, data la flessibilità dello strumento. Molte discipline fanno uso di sistemi informativi geografici concorrendo al loro sviluppo, sebbene i GIS mantengano con la geografia un rapporto evidentemente privilegiato.
GPS
Sigla di Global Positioning System (propriamente “sistema di posizionamento globale”), indicante un sistema computerizzato di copertura planetaria, utilizzato nelle operazioni di rilievo topografico e architettonico-ambientale, che consente di sfruttare i segnali emessi da alcuni satelliti per localizzare cose e persone (fornite di un apposito trasmettitore-ricevitore) sulla superficie terrestre.
Hard disk
Nei calcolatori elettronici, l’hard disk è il disco di memoria magnetica realizzato con materiale rigido e non asportabile, da cui i nomi di disco rigido e disco fisso con cui è anche comunemente definito. L’hard disk può presentarsi anche in versione trasportabile come periferica esterna collegata al calcolatore elettronico tramite apposite porte di connessione.
Informazione digitale
Con tale espressione si considera il documento generato come esito finale della digitalizzazione: esso varia le proprie caratteristiche a seconda della strumentazione utilizzata, dei parametri considerati e della tipologia di riproduzione del bene (bidimensionale e/o tridimensionale).
Istogramma
Rappresentazione grafica unica dei toni dell’immagine digitale su cui si sta lavorando che mostra la distribuzione dei livelli di grigio o di colore. Può essere visualizzato da quasi tutti i programmi di fotoelaborazione, e sugli schermi LCD di molte fotocamere quando nel modo “play”.
JPEG
Sigla di Joint Photographic Experts Group, indica una tecnica di codifica di immagini digitalizzate, allo scopo di ridurne la ridondanza. La codifica JPEG permette di ridurre di molto le dimensioni di un file relativo a un’immagine a colori, fino a rapporti di compressione di 1/16 o maggiori. La tecnica si basa sull’applicazione di opportune medie fra pixel contigui, sia rispetto ai segnali di luminanza sia a quelli di crominanza. La codifica è studiata per immagini fotografiche e per la loro trasmissione efficiente attraverso reti di telecomunicazione, in particolare Internet. Comportando sempre una perdita di informazione (che varia a seconda del rapporto di compressione adottato), è poco adatta a immagini di altissima qualità o di contenuto informativo particolare (come, per esempio, le immagini astronomiche).
JPEG 2000
Formato file derivato dal formato JPEG originale. Utilizza una tecnologia wavelet per comprimere le immagini con un minor grado di deterioramento riscontrabile nel formato JPEG originale.
IPTC
Standard di informazioni sviluppati dall’International Press Telecommunications Council per identificare il testo e le immagini trasmessi. I metadati IPTC comprendono le voci delle descrizioni, le parole chiave, le categorie, i riconoscimenti e le provenienze. I diversi campi IPTC consentono di semplificare il flusso di lavoro e di organizzare i file.
Kelvin (K)
Dal nome del fisico William T. Kelvin, unità di misura della temperatura assoluta il cui zero è posto a –273,16°C. È usata in fotografia per misurare la temperatura di colore della luce.
Laser scanning

Tecnologia utilizzata per il rilievo di oggetti complessi caratterizzata dall’elevata quantità di dati acquisiti in un tempo molto breve, che consente di eseguire il rilievo geometrico del bene con un ragguardevole livello di dettaglio e completezza. Il risultato di uno scanning effettuato con strumentazioni laser è un insieme numerosissimo di punti (chiamato “nuvola di punti”) distribuiti sull’oggetto da rilevare, in funzione del grado di dettaglio che si vuole raggiungere. La finalità è quella di generare un modello digitale tridimensionale più vicino possibile alla realtà dell’oggetto scansionato (chiamato “clone digitale”) da utilizzare per condurre successivi studi.

La tecnologia laser scanner a tempo di volo permette di generare una nuvola di punti tramite il calcolo del tempo impiegato dal raggio laser a percorrere la distanza dall’emettitore al soggetto colpito e viceversa. Questi laser scanner si caratterizzano per l’abilità di acquisire dati molto distanti, arrivando addirittura a 6 km di raggio.

Nei laser scanner a tempo di fase la distanza è calcolata comparando la differenza di fase tra l’onda trasmessa e quella ricevuta. Questi laser scanner si caratterizzano per una velocità di acquisizione molto rapida e per una elevata densità di dato acquisito.

La tecnologia dei laser scanner a luce strutturata proietta un pattern di luce sul modello (es. strisce). Attraverso l’analisi della deformazione dei bordi del pattern proiettato sulla superficie, effettuata con complessi algoritmi, viene ricavata la geometria del modello. In generale, questi scanner processano un’elevata quantità di dati. La ridondanza di informazioni rese disponibili consente una più efficace e accurata ricostruzione e una significativa riduzione del rumore.

OBJ
Formato di file per definire geometrie 3D, è un formato aperto che è stato adottato da tantissimi applicativi per la grafica 3D per l’interscambio di dati con altri programmi. È un formato semplice, con un data-format che rappresenta solamente la geometria 3D, ossia la posizione di ogni vertice, la posizione di ogni coordinata UV per le texture, le normali e le facce che compongono il modello. I vertici sono memorizzati di default in un ordine antiorario rendendo non necessaria la dichiarazione esplicita delle normali. Le coordinate di un OBJ non hanno unità di misura, ma informazioni sulla scala del modello possono essere contenute in una linea di codice commentata.
Lunghezza focale
Distanza compresa tra l’immagine nitida prodotta e la lente, quando è a fuoco un soggetto all’infinito. Nel caso degli obiettivi, è la distanza tra l’immagine sul piano focale ed il punto nodale posteriore dell’obiettivo.
LUT (Look Up Table)
Palette con il numero di colori usati nell’immagine.
LZW (Lempel-Ziv-Welch)
Routine di compressione senza perdita di informazioni incorporata nel formato file TIFF.
PDF
Sigla di Portable Document Format, è un formato di file basato su un linguaggio di descrizione di pagina per rappresentare documenti di testo e immagini in modo indipendente dall’hardware e dal software utilizzati per generarli o per visualizzarli.
Pixel
Nelle tecniche di digitalizzazione delle immagini, è il più piccolo elemento (picture element), distinto per colore, intensità ecc., costituente dell’immagine originale.
Profilo colore
Importante serie di specifiche salvate in un file ottenuto dopo una calibrazione di una periferica (monitor, stampante) oppure fornite dallo stesso produttore dell’apparecchiatura. Serve ad ottenere un comportamento equilibrato nella resa colore per fare in modo che le tonalità siano esattamente le stesse indipendentemente dalla periferica utilizzata per riprodurle.
Profondità di colore

La profondità di colore indica il numero di bit per canale usati per rappresentare il colore di un singolo pixel in un’immagine bitmap. Maggiore è il numero di bit di informazioni per pixel, maggiore è il numero di colori disponibili e più precisa sarà la rappresentazione dell’immagine: un pixel di un’immagine avente profondità di 1 bit può avere solo due valori: bianco o nero; uni pixel di un’immagine con profondità di 8 bit ne avrà invece 28, ovvero 256 possibili valori (le immagini in scala di grigio con profondità di 8 bit hanno 256 possibili valori di grigio, da 0 a 225); le immagini RGB - composte da 3 canali di colore a 8 bit per pixel - hanno quindi 256 valori possibili per ciascun canale, vale a dire più di 16 milioni di valori del colore in totale.

Valori tipici sono 8, 16 o 24 bit per pixel (che si traducono in 1, 2 o 3 byte per pixel), da cui discende la dimensione del file dell’informazione digitalizzata (c.d. peso), che risulta dal prodotto del numero di byte per pixel per il “totale di pixel” dell’immagine. Oltre alle immagini a 8 bit/canale, è possibile avere anche le immagini a 16 o 32 bit/canale. Quelle a 32 bit/canale sono anche definite immagini HDR (High Dynamic Range).

Il sensore di una fotocamera, a seconda della sua qualità, può registrare immagini RAW a 10, 12 o 14 bit.

PSD
Formato di file usato da Adobe Photoshop per salvare le immagini senza unificare i livelli inclusi.
Rapporto di riproduzione
Viene calcolato dividendo l’altezza o la larghezza dell’oggetto originale per quella della sua immagine riprodotta sulla pellicola. In macrofotografia, se sul negativo l’immagine dell’oggetto risulta due volte più grande dell’originale si avrà un rapporto di riproduzione 2:1. Tale valore può anche esprimersi con 2X.
Raw

Prima di comprendere che cos’è esattamente il formato grezzo (RAW) in fotografia e di esaminare nel dettaglio i vantaggi che questo ha rispetto a formati quali JPEG e TIFF, occorre avere chiaro il funzionamento della fotocamera digitale e il procedimento che genera quella che siamo soliti chiamare «fotografia».

Il sensore, vero cuore di ogni fotocamera digitale (in genere un CMOS), svolge lo stesso compito della pellicola: registrare la luce che attraversa l’obiettivo della fotocamera durante l’esposizione. Per eseguire questa funzione, il sensore è composto da milioni di fotodiodi: microscopici componenti in grado di catturare la luce (fotoni) sotto forma di cariche elettriche. L’accuratezza di questa rappresentazione dipende chiaramente dalla fotocamera e dalla profondità in bit di cui è capace.

La maggior parte delle moderne reflex digitali può infatti registrare file d’immagine a 12 o 14 bit per canale. Questo in sostanza significa che se la macchina registra a:

  • 12 bit per canale, ogni canale supporta 4.096 livelli di luminosità (2 elevato alla dodicesima);
  • 14 bit ne supporta 16.384 (2 elevato alla quattordicesima).

Questo si traduce in circa 68 miliardi di colori nel caso di informazioni a 12 bit e circa 4,3 triliardi di colori in caso di informazioni a 14 bit. In realtà, ciò che il sensore cattura tramite i fotodiodi non sono i valori relativi alle diverse tonalità di colori (a eccezione dei sensori prodotti da Foveon, che catturano tutti e tre i valori di colore per ciascun pixel), ma solo i valori di intensità delle cariche elettriche.

Quando un sensore registra la scena inquadrata non «vede» i suoi colori: memorizza l’intensità della luce captata da ogni singolo fotodiodo. Per poter registrare le informazioni sui colori, vengono generalmente posti davanti ai fotodiodi degli speciali filtri (detti filtri di Bayer* o Matrice Bayer) che permettono ai fotodiodi di registrare solo la luce in specifici intervalli di lunghezze d’onda; in questo modo alcuni fotodiodi leggono solo la luce verde (50%), altri solo la luce rossa (25%) e altri ancora solo la luce blu (25%).

Il risultato delle informazioni così raccolte dal sensore non è quindi una «immagine fotografica» ma le informazioni (a 12 o 14 bit) necessarie per assemblarla: il processore della fotocamera, usando i valori dei fotodiodi vicini, con un complesso algoritmo* calcola per ciascun fotodiodo anche gli altri valori che questo non ha registrato. In questo modo il segnale elettrico analogico viene tradotto in una rappresentazione digitale (a colori) della realtà.

Una volta ottenute le informazioni necessarie per generare l’immagine digitale, il percorso di creazione del file si divide, a seconda del tipo di salvataggio si scelga: nella fotocamera in formato RAW oppure JPEG, nello scanner a queste due opzioni si aggiunge quella del formato TIFF. Nel primo caso (formato RAW) la fotocamera genera un file di dati contenente tutti i voltaggi misurati dal sensore, mentre nel secondo caso (formato JPEG) genera già un’immagine digitale vera e propria, pronta all’uso.

È già ora evidente, quindi, che le «immagini» catturate in formato RAW in realtà non assomigliano per niente a delle immagini, ma sono file contenenti una serie di dati e per questo richiedono qualche passaggio supplementare rispetto ai file JPEG/TIFF prima di essere visualizzati. Se si decide di salvare i propri scatti in formato RAW, infatti, per ottenere un’immagine fotografica visibile e utilizzabile è necessario convertire in altri formati di immagine i dati registrati in RAW dal sensore, utilizzando software appositi. Tutto questo avviene dopo lo scatto e al di fuori della macchina.

Nel caso dei JPEG/TIFF, invece, il sensore cattura sempre un RAW, ma il processore della fotocamera o dello scanner provvede a convertirlo all’istante - e irreversibilmente - in un file JPEG o TIFF.

Risoluzione

Per risoluzione di un’immagine si intende comunemente il numero di pixel per pollice (corrispondente a 2,54 centimetri) che essa contiene.

Essa andrebbe però sempre distinta almeno in risoluzione di input e risoluzione di output. Con la prima, espressa da un valore numerico in PPI (pixel per pollice ovvero pixel per inch), si considera la risoluzione spaziale del sensore che cattura la luce, cioè il numero di pixel in esso presenti.

Un sensore di 8688 x 5792 pixel, per esempio, contiene 50.320.896 pixel. Le immagini generate da questo sensore avranno, pertanto, dimensioni in pixel - sul lato lungo e su quello corto - uguali o al massimo (in caso di registrazione con risoluzione inferiore) più piccole. Laddove un’immagine prodotta con quel sensore dovesse presentare misure in pixel maggiori si è di fronte a un’interpolazione dell’immagine. La risoluzione interpolata è quella ottenuta con la creazione artificiosa di pixel attraverso un software ed è assolutamente deprecabile nei processi di digitalizzazione.

La risoluzione di output è quella che mette in relazione l’unità di misura digitale (i pixel) con l’unità di misura fisica (cm o pollici) ed è l’unico valore che conta quando si invia in stampa un’immagine raster. Viene espressa in DPI (dots per inch, punti per pollice) e misura la quantità di pixel utilizzati per coprire la superficie del supporto da stampare.

Il valore di 300 DPI, normalmente ed erroneamente indicato come di “alta definizione o risoluzione” comporta lo stampare 300 pixel ogni pollice ma, per essere certi che questo valore sia applicabile all’intera superficie nostro supporto dobbiamo assicurarci che il file abbia, come risoluzione di input, un numero di pixel sufficienti a far ciò.

La risoluzione di stampa è quindi condizionata da quella del file oltre che dalla distanza di fruizione del supporto stampato: un foglio A4 (20x30 cm) visto a circa 30 cm di distanza necessita sì di almeno 300 DPI per essere percepito come ad alta risoluzione, ma a un foglio A1, la cui distanza ottimale di visione è superiore al metro, basta una risoluzione di 200/220 DPI per essere percepito tale anch’esso.

Sensore
Elemento sensibile alla luce di una fotocamera digitale per la cattura dell’immagine. Il sensore, posto sul piano focale di una fotocamera, trasforma in segnale analogico la luce che lo colpisce. Il segnale viene poi trasformato in codice binario da un convertitore analogico-digitale. Può essere un CCD o un CMOS. Un sensore alternativo è il Foveon, sensore CMOS, costituito da tre strati di pixel, ognuno dedicato ad uno dei tre colori primari.
Spazio colore

Spazio, piano o tridimensionale, all’interno del quale sono rappresentati i tre attributi del colore: tinta, saturazione e luminosità. Lo spazio colore può essere assoluto o relativo. Quelli assoluti (XYZ CIE 1931 e Lab CIE 1976) rappresentano tutti i colori percepibili dall’occhio umano, quelli relativi solo una parte di essi.

La quantità di colore rappresentata dagli spazi colore relativi dipende dalla loro ampiezza. In fotografia i più usati sono, dal più piccolo al più grande:

  • sRGB;
  • Adobe RGB 1998;
  • ProPhoto RGB.

È consigliata l’archiviazione di file con spazi colore ampi così da registrare il maggior numero possibile di tonalità di colore del soggetto originale.

Taglio
Rispetto all’intera area che una strumentazione di acquisizione dell’informazione digitale può coprire, il taglio si definisce come l’area che viene effettivamente digitalizzata.
TIFF
Sigla di Tagged Image File Format, è un formato di immagine di tipo raster, piuttosto diffuso, sviluppato dalla Aldus Corporation e oggi detenuto dalla Adobe. Le specifiche del formato TIFF permettono una notevole flessibilità. Questo è un vantaggio di per sé, ma rende difficile scrivere un interprete pienamente conforme alle specifiche. Ciò comporta che una stessa immagine possa essere visualizzata con colori differenti a seconda dell’interprete che si utilizza. Il TIFF è largamente utilizzato per lo scambio di immagini raster fra stampanti e scanner perché permette di specificare numerose indicazioni aggiuntive come le tabelle di gamut o informazioni sulla calibratura del colore. Il TIFF quindi è utilizzato per far comunicare più macchine all’interno dello stesso studio fotografico o di editing che hanno la stessa calibratura.
Vignettatura

Oscuramento degli angoli del fotogramma. Può verificarsi con i grandangolari usati con diaframma molto aperto o per l’uso di un paraluce o di un filtro inadatto all’obiettivo.

Nel primo caso è molto evidente durante le riprese di superfici uniformi (come il cielo) a causa della caduta di luce che aumenta a fronte di un ampio angolo di campo dell’obiettivo per il maggior tragitto che debbono compiere i raggi che vanno ai bordi del fotogramma. Ciò comporta una sottoesposizione che può arrivare anche a 2 o 3 diaframmi. Il fenomeno (legge del coseno) è presente in tutti i grandangolari indipendentemente dalla qualità dell’obiettivo.