TranscribeGlass: la nuova frontiera della tecnologia assistiva

TranscribeGlass è un dispositivo a realtà aumentata, economico e che si collega ai vostri occhiali e, abbinato al vostro software di trascrizione preferito, proietta didascalie in tempo reale davanti ai vostri occhi. Il dispositivo/Startup è stato ideato dal CEO e co-fondatore Madhav Lavakare e dal co-fondatore Tom Pritsky. Entrambi studenti, hanno stretti legami con il mondo della tecnologia assistiva e hanno perseguito l’idea, ognuno in modo indipendente dall’altro, prima di unire le forze nel 2021. La società ha recentemente iniziato a produrre i suoi primi 150 preordini, con la speranza di terminare le spedizioni nei prossimi mesi. La beta di TranscribeGlass viene venduta a 55 dollari, con la versione finale che dovrebbe arrivare a circa 95 dollari.

Pritsky, fondatore del club per sordi e ipoudenti di Stanford, soffre di ipoacusia bilaterale dall’età di tre anni e utilizza apparecchi acustici e a lettura labiale per comprendere e comunicare con le persone e a lungo ha immaginato la possibilità di un dispositivo di sottotitoli a comparsa. “Mi sono sempre piaciuti molto i sottotitoli per i film”, ha detto Pritsky. “Ho pensato che sarebbe stato fantastico averli nella vita reale”. TranscribeGlass consente agli utenti di scegliere un servizio esterno di sottotitoli scaricando, ad esempio, un file di sottotitoli al cinema, un servizio di riconoscimento vocale automatico o di creare sottotitoli umani dal vivo. Le didascalie vengono quindi inviate via Bluetooth all’hardware, che le proietta nel campo visivo dell’utente utilizzando la realtà aumentata. L’utente può quindi regolare la dimensione e la posizione del testo per adattarlo al meglio al proprio ambiente.

Lavakare è stato ispirato a creare il dispositivo quando era uno studente delle superiori, dopo aver appreso che un compagno di classe, nonché amico, sordo si era ritirato a causa di problemi di accessibilità con i sistemi di istruzione. “Era il 2017”, ha detto Lavakare. “Perché non c’era già allora qualcosa che avesse potuto aiutare il mio amico a partecipare alle conversazioni in un contesto tradizionale?” Gli apparecchi acustici sono proibitivi per molti, secondo Lavakare: “La maggior parte delle persone che possono usare gli apparecchi acustici semplicemente non li usa a causa di una miriade di fattori, uno dei quali è il costo: la fascia più bassa parte da circa tremila dollari. Gli impianti cocleari sono ancora più costosi e richiedono un intervento chirurgico invasivo. Inoltre, gli apparecchi acustici e gli impianti cocleari non funzionano per tutti e alcune persone non udenti e con problemi di udito rinunciano al loro utilizzo. Coloro che li usano, spesso non riescono a capire tutti i discorsi, specialmente in ambienti con molto rumore di fondo”. “Se mi metti in un bar, mi metti in una situazione veramente difficile”, ha detto Pritsky. “Ci sono conversazioni in cui principalmente annuisco; la mia comprensione scende al massimo al 20%”.

Esisterebbero servizi di sottotitoli tradizionali e istantanei, come Otter.ai e Google Live Transcribe che sono convenienti, ma richiedono all’utente di distogliere lo sguardo dall’oratore per leggere dallo schermo di un telefono o di un computer. Con l’esistenza sia della tecnologia della realtà aumentata (AR) che della tecnologia dei sottotitoli dal vivo, Madhav ha pensato di combinare i due, utilizzando un display AR per consentire all’utente di “guardare coloro che parlano, osservare i loro segnali di comunicazione non verbale e leggere i sottotitoli nel loro campo visivo”. Così, Lavakare ha iniziato a costruire il primo di molti prototipi, “mettendo insieme elettronica, modelli CAD, software, e scrivendo tutto il codice”. Nonostante le riserve iniziali sui primi prototipi, Lavakare da allora è stato incoraggiato dall’accoglienza positiva da parte di un gruppo sempre più ampio di utenti dell’Associazione nazionale dei non udenti dell’India, delle scuole dei non udenti e dai community meetup.

Man mano che il progetto prendeva piede, Lavakare ha iniziato a raccogliere fondi, reclutare mentori e creare un piccolo team di dipendenti. All’inizio è stato difficile. “Ero un ragazzo di 18 anni che non sapeva cosa stava facendo e non aveva un piano per il college. Gli investitori a volte mi prendevano in giro fuori dalla stanza“. Secondo Lavakare, la tecnologia assistiva “non è uno spazio sexy”, non attrae gli stessi finanziamenti di campi più “entusiasmanti” come l’intelligenza artificiale. Nel 2020, la società è stata rilevata dall’Indian Institute of Technology di Delhi, un incubatore per startup, e ha ricevuto un’altra sovvenzione dai governi degli Stati Uniti e dell’India. Pritsky è salito a bordo come co-fondatore nel 2021, incontrando casualmente Lavakare tramite un amico comune. Secondo Lavakare, gestire l’attività da solo era diventato “quasi impossibile” come matricola  universitaria a tempo pieno, ritenendo Pritsky un’aggiunta importantissima alla squadra. Il feedback degli utenti è stato fin dall’inizio una parte cruciale del loro processo di progettazione. Lavakare afferma che nel corso dei cinque sviluppi importanti del prototipo, l’azienda ha avuto almeno 300 persone che hanno testato il prodotto. Pritsky ha pilotato il prodotto con uno dei suoi amici che ha una perdita dell’udito più grave. “Di solito doveva guardarmi, quindi non potevamo camminare fianco a fianco”, ha detto Pritsky. “Stavamo camminando verso un ristorante e dovevamo continuamente fermarci a parlare; dopo, siamo tornati indietro con il dispositivo acceso. Poteva seguire la conversazione camminando fianco a fianco, ed è stato davvero incredibile. Mi creda che non abbiamo mai avuto uno scambio del genere nei molti anni che lo conosco”, ha detto Pritsky.
Il vero test di questi dispositivi è determinato dalle persone a cui sono destinati“, ha scritto al The Daily David Jaffe, docente a contratto di Stanford. Jaffe ha affermato che “la durata della batteria, la precisione” e la “assenza da guasti” del prodotto sono essenziali, oltre al “costo ridotto con cui potrebbero essere forniti agli utenti a basso reddito”.

Cathy Haas, una docente presso lo Stanford Language Center che insegna il linguaggio dei segni americano (ASL), ha avuto la possibilità di provare il dispositivo quando si è imbattuta in Pritsky alla Stanford’s Coffee House. “All’inizio ero un po’ scettica, ma poi l’ho indossato e me ne sono innamorata”, ha detto Haas in un’intervista condotta in ASL con un interprete presente. E, in quanto persona sorda, ha visto molte situazioni in cui il dispositivo potrebbe essere utile. “In una situazione medica, mentre chiamavano il mio nome, ovviamente non sentivo nulla. Se avessi avuto questo dispositivo, sarei stata in grado di rispondere immediatamente”, ha detto Haas. Ha anche sottolineato casi d’uso tra cui guardare film, ricevere avvisi di emergenza e viaggiare. Per Haas, che non può parlare, il dispositivo non è adatto a tutte le situazioni. “Se sto avendo una conversazione uno a uno con qualcuno, potrebbe essere meno utile perché non sarei in grado di rispondere”, ha detto Haas. “Se entrambi potessimo parlare, allora va bene, ma non è sempre possibile nella nostra comunità”. In questi casi, Haas preferisce gli interpreti, che possono comunicare nella sua prima lingua, l’ASL, e trasmettere il tono di chi parla attraverso il linguaggio del corpo e le espressioni facciali. Per un ambiente conversazionale, ha affermato, il dispositivo va bene solo per alcuni membri della comunità. Tuttavia, Haas ha condiviso con entusiasmo il prodotto con i suoi colleghi e attende il suo prossimo lancio. “Spero di poterne avere uno”, ha detto Haas.