Gli occhi: lo specchio dell’anima ;)

 

Pubblicato il: 8 luglio 2010 @ 19:59

Eccoci ad un’altra “tappa” del percorso per dare una vista al nostro Xduino. Come promesso nel primo post, oggi vi parlo della simulazione degli occhi che dovranno “trasmettere” ad un ignaro spettatore precise espressioni in dipendenza dei movimenti che la nostra “robottina” rileverà davanti a se con il sensore che abbiamo visto in azione nel precedente articolo.
Vediamo un po come fare questo “affascinante” sguardo:

A me gli occhi meccanici che tentano di riprodurre la realtà non mi sono mai tanto piaciuti… così piuttosto pensavo che non sarebbe male prendere come esempio Eve, la robottina del simpatico Wall-e della WaltDisney Pixar:

eve-wall-e-1.jpeg

Come potete vedere si tratta di una scelta diversa dai soliti robot che prevedono che gli occhi abbiano una mobilità simile alla realtà alla quale siamo più abituati, infatti Eve con quegli occhi blu si esprime molto chiaramente, mentre l’attenzione la dimostra ruotando la testa (lo si apprezza molto bene nel film: ed ecco qui il trailer in tedesco in onore dell’amico Uwe ;-) ).

Allora vediamo come riprodurre le espressioni che ci interessano e con la “spesa” minore possibile, così adotteremo una matrice di led con un numero di led limitato (e di conseguenza con meno pin di Xduino utilizzati).

Si tratta di una matrice di 4 x 8 pari a 12 pin di I/O, ma se si vuole ridurre ulteriormente si può pensare di fare una sola matricetta di 4 x 4 collegata in mirror per fare l’altro occhio (ovvero: accendere due led contemporaneamente) sacrificando le espressioni che prevedono i due occhi di dimensioni diverse (ma andremmo a sacrificare troppo la qualità dell’espressione).

Ecco quindi le espressioni che ho studiato:

La prima espressione è di “contentezza“, da usare quando gli compare qualcosa di non troppo piccolo o troppo grande nel campo visivo;

.

La seconda è di “curiosità“, da usare quando quello che compare è troppo piccolo (o quasi fuori dal campo visivo);

.

La terza è relativa ad uno “sguardo normale“, ovvero quando l’immagine che si era mossa sta ferma per un tot di tempo;

.

La quarta di “pericolo” o “allerta“, cioè quando nell’immagine gli compare qualcosa di troppo grosso o troppo vicino (che per noi sono poi la stessa cosa);

.

La quinta e ultima è l’espressione di “transito“, da usare per passare da un’espressione all’altra.

.

Così, con soli 4 byte come costanti per espressione (20 byte in totale) è possibile fare il tutto :)

E il colore giallo ambra dei led su sfondo nero l’ho scelto per non incappare in violazioni di copyright che potrebbero intervenire facendo somigliare troppo il tutto alla robottina Eve…

Tag: