Al 2005 com a PFC -projecte final de carrera-, anava a fer una implementació de RA -realitat augmentada- sobre un HMD que tenia el nom del títol. El cas es que ahir els de Google van treure aquest vídeo:
M'ha sorprès per lo poc ambiciós que és sent un vídeo conceptual. Al marge de la integració amb els serveis de google i l'avís de que el metro no funciona -que ho hauria de fer abans de sortir de casa, ja que és un trajecte rutinari- la resta és molt trivial.
El que jo plantejava son dos projectes diferents que comparteixen una camara que "llegeix" l'entorn via OCR -tècnica que permet convertir les lletres d'una imatge en "lletres" entendibles per programes-.
- Les ulleres llegeixen el que tens davant, ho tradueixen i et generen una imatge superposada de l'original traduït. P.ex. enlloc de veure "ausgang" a Munich veuries "sortida", o en una carta veuries "arròs" enlloc de 米.
- Una persona cega es guiarà pel que capta la càmera de 360º que va escanejant constantment l'entorn. Si busca "floristeria" i arriba a un encreuament i a l'esquerra hi ha el cartell, escoltarà la paraula "floristeria" per uns auriculars 3D senyalant-li on és. O simplement a mida que va caminant va escoltant què hi ha al voltant -dins uns paràmetres-, com si fos un radar.
Ambdues servirien per completar algun tipus de BD de comerços o "coses" si portés GPS, respectant la privacitat, clar.
Ja m'he quedat més a gust explicant-ho i de pas els ho he fet arribar a Google. Espero que algun dia s'implementi, però no pretenc que sigui per aquesta entrada eh .-)