Dispositivo generador de voz

Summary

Los dispositivos generadores de voz (SGD por sus siglas en inglés), también conocidos como ayudas para la comunicación con salida de voz, son sistemas electrónicos de comunicación aumentativa y alternativa (CAA) que se utilizan para complementar o sustituir el habla o la escritura en personas con deficiencias graves del habla, permitiéndoles comunicarse verbalmente.[1]​ Los SGD son importantes para las personas que tienen medios limitados para interactuar verbalmente, ya que les permiten participar activamente en las interacciones comunicativas. Son especialmente útiles para pacientes con esclerosis lateral amiotrófica (ELA), pero recientemente se han utilizado en niños con deficiencias del habla previstas.[2]

Stephen Hawking (1942-2018), astrofísico y destacado usuario de SGD

Existen varios métodos de entrada y visualización para que usuarios con distintas capacidades puedan utilizar los SGD. Algunos SGD tienen varias páginas de símbolos para dar cabida a un gran número de enunciados, por lo que sólo una parte de los símbolos disponibles son visibles en un momento dado, y el comunicador navega por las distintas páginas. Los dispositivos generadores de voz pueden producir una salida de voz electrónica utilizando grabaciones digitalizadas del habla natural o a través de la síntesis del habla, que puede llevar menos información emocional pero puede permitir al usuario decir mensajes novedosos.[3]

El contenido, la organización y la actualización del vocabulario de un SGD dependen de varios factores, como las necesidades del usuario y los contextos en los que se utilizará el dispositivo.[4]​ Los elementos del vocabulario deben ser de gran interés para el usuario, aplicarse con frecuencia, tener diversos significados y una funcionalidad pragmática.[5]

Existen múltiples métodos para acceder a los mensajes en los dispositivos: de forma directa o indirecta, o utilizando dispositivos de acceso especializados, aunque el método de acceso específico dependerá de las habilidades y capacidades del usuario.[1]​ La salida SGD suele ser mucho más lenta que el habla, aunque las estrategias de mejora de la velocidad pueden aumentar la velocidad de salida del usuario, lo que se traduce en una mayor eficacia de la comunicación.[6]

El primer SGD conocido se prototipó a mediados de los años 70, y los rápidos avances en el desarrollo de hardware y software han permitido integrar funciones de SGD en dispositivos como los teléfonos inteligentes. Entre sus usuarios destacan Stephen Hawking, Roger Ebert, Tony Proudfoot y Pete Frates (fundador del ALS Ice Bucket Challenge).

Los sistemas generadores de habla pueden ser dispositivos dedicados desarrollados exclusivamente para la CAA o dispositivos no dedicados, como ordenadores con software adicional que les permite funcionar como dispositivos de CAA.[7][8]

Historia

editar
 
El mecanismo selector accionado por el paciente (POSM o POSSUM), se desarrolló a principios de la década de 1960

Los SGD tienen su origen en los primeros dispositivos electrónicos de ayuda a la comunicación. El primer dispositivo de este tipo fue un interruptor de sorbo/soplo llamado mecanismo selector accionado por el paciente (Naman), cuyo prototipo fue creado por Reg Maling en el Reino Unido en 1960.[9][10]​ POSSUM escaneaba un conjunto de símbolos en una pantalla iluminada.[9]​ Investigadores de la Universidad de Delft (Países Bajos) crearon en 1970 la máquina de escribir accionada por un punto luminoso (LOT), que utilizaba pequeños movimientos de la cabeza para dirigir un pequeño punto de luz hacia una matriz de caracteres, cada uno de ellos equipado con una célula fotoeléctrica. Aunque no tuvo éxito comercial, la LOT fue bien recibida por sus usuarios.[11]

En 1966, Barry Romich, estudiante de primer año de ingeniería en la Case Western Reserve University, y Ed Prentke, ingeniero del Highland View Hospital de Cleveland (Ohio), se asociaron para crear la Prentke Romich Company.[12]​ En 1969, la empresa fabricó su primer dispositivo de comunicación, un sistema de mecanografía basado en un teletipo desechado.

En 1979, Mark Dahmke desarrolló un software para un programa de ayuda a la comunicación vocal que utilizaba el sintetizador de voz analógico Computalker CT-1 con un microordenador.[13][14][15][16][17][18][19]​ El software utilizaba fonemas para generar el habla y ayudar a las personas con problemas de comunicación a construir palabras y frases.[20]​ El trabajo de Dahmke contribuyó al avance de la tecnología de asistencia para personas con discapacidad. En particular, diseñó el «Sistema de Gestión del Vocabulario» para Bill Rush, un estudiante con parálisis cerebral.[20][21][22][23]​ Esta primera tecnología de síntesis del habla facilitó la comunicación de Rush y apareció en un número de 1980 de la revista LIFE.[24][25]​ Las contribuciones de Dahmke han influido en el desarrollo de las tecnologías de comunicación aumentativa y alternativa (CAA).

En los años setenta y principios de los ochenta empezaron a surgir otras empresas que desde entonces se han convertido en destacados fabricantes de SGD. Toby Churchill fundó Toby Churchill Ltd en 1973, tras perder el habla como consecuencia de una encefalitis.[26]​ En Estados Unidos, Dynavox (conocida entonces como Sentient Systems Technology) surgió de un proyecto estudiantil de la Universidad Carnegie-Mellon, creado en 1982 para ayudar a comunicarse a una joven con parálisis cerebral.[27]​ A partir de la década de 1980, las mejoras tecnológicas permitieron aumentar considerablemente el número, la variedad y las prestaciones de los dispositivos de comunicación disponibles en el mercado, así como reducir su tamaño y precio. Los métodos alternativos de acceso, como el Target Scanning (también conocido como eye pointing), calibran el movimiento de los ojos del usuario para dirigir un SGD con el fin de producir la fase del habla deseada. El escaneo, en el que las alternativas se presentan al usuario de forma secuencial, pasó a estar disponible en los dispositivos de comunicación.[10][28]​ Las posibilidades de salida del habla incluían tanto el habla digitalizada como la sintetizada.[10]

Continuaron los rápidos avances en el desarrollo de hardware y software, incluidos proyectos financiados por la Comunidad Europea. En la década de 1990 se desarrollaron los primeros dispositivos generadores de voz de pantalla dinámica disponibles en el mercado. Se desarrollaron programas informáticos que permitían la producción por ordenador de tableros de comunicación.[10][28]​ Los dispositivos de alta tecnología han seguido haciéndose más pequeños y ligeros,[28]​ al tiempo que aumentaban su accesibilidad y capacidad; se puede acceder a los dispositivos de comunicación mediante sistemas de seguimiento ocular, funcionan como una computadora para el tratamiento de textos y el uso de Internet, y como dispositivo de control ambiental para el acceso independiente a otros equipos como la televisión, la radio y el teléfono.[29]

Stephen Hawking llegó a asociarse con la voz única de su particular equipo de síntesis. Hawking era incapaz de hablar debido a una combinación de discapacidades causadas por la esclerosis lateral amiotrófica (ELA) y una traqueotomía de urgencia.[30]​ En los últimos 20 años aproximadamente, los SGD han ganado popularidad entre los niños pequeños con deficiencias del habla, como autismo, síndrome de Down y daño cerebral previsto debido a cirugía.

A principios de la década de 2000, los especialistas vieron las ventajas de utilizar SGD no sólo en adultos, sino también en niños. Los neurolingüistas descubrieron que los SGD eran tan eficaces para ayudar a los niños que corrían el riesgo de sufrir déficits temporales del lenguaje tras someterse a una operación cerebral como para los pacientes con ELA. En concreto, los SGD digitalizados se han utilizado como ayudas a la comunicación para pacientes pediátricos durante el proceso de recuperación.

Métodos de acceso

editar

Existen muchos métodos para acceder a los mensajes de los dispositivos: directo, indirecto y con dispositivos de acceso especializados. Los métodos de acceso directo implican contacto físico con el sistema, utilizando un teclado o una pantalla táctil. Los usuarios que acceden a los SGD de forma indirecta y mediante dispositivos especializados deben manipular un objeto para acceder al sistema, como maniobrar un joystick, un ratón de cabeza, un puntero óptico de cabeza, un puntero luminoso, un puntero infrarrojo o un escáner de acceso con interruptor.[1]

El método de acceso específico dependerá de las habilidades y capacidades del usuario. Para la selección directa puede utilizarse una parte del cuerpo, un puntero, un ratón adaptado, un joystick o el seguimiento ocular,[31]​ mientras que para la selección indirecta suele utilizarse la exploración por acceso conmutado.[8][32]​ A diferencia de la selección directa (por ejemplo escribir en un teclado, tocar una pantalla), los usuarios de la exploración de objetivos sólo pueden realizar selecciones cuando el indicador de exploración (o cursor) del dispositivo electrónico se encuentra sobre la opción deseada.[33]​ Aquellos que no pueden señalar suelen calibrar sus ojos para utilizar la mirada como forma de señalar y el bloqueo como forma de seleccionar las palabras y frases deseadas. La velocidad y el patrón de escaneo, así como la forma de seleccionar los elementos, se individualizan en función de las capacidades físicas, visuales y cognitivas del usuario.[33]

Construcción de mensajes

editar
 
Captura de pantalla del programa de mejora de tarifas Dasher

La comunicación aumentativa y alternativa suele ser mucho más lenta que el habla,[6]​ y los usuarios suelen producir entre 8 y 10 palabras por minuto.[34]​ Las estrategias de mejora de la velocidad pueden aumentar la velocidad de producción del usuario a unas 12-15 palabras por minuto[34]​ y, como resultado, mejorar la eficacia de la comunicación.

En cualquier SGD puede haber un gran número de expresiones vocales que facilitan una comunicación eficiente y eficaz, incluidos los saludos, la expresión de deseos y las preguntas.[35]​ Algunos SGD tienen varias páginas de símbolos para dar cabida a un gran número de expresiones vocales, por lo que sólo una parte de los símbolos disponibles son visibles en un momento dado, y el comunicador navega por las distintas páginas.[36]​ Los dispositivos generadores de voz suelen mostrar un conjunto de selecciones mediante una pantalla que cambia dinámicamente o una pantalla fija.[37]

Hay dos opciones principales para aumentar la velocidad de comunicación de un SGD: la codificación y la predicción.[6]

Las estrategias de codificación icónica, como la compactación semántica, combinan secuencias de iconos (símbolos de imagen) para producir palabras o frases.[38]​ En la codificación numérica, alfanumérica y de letras (también conocida como abreviatura-expansión), las palabras y frases se codifican como secuencias de letras y números. Por ejemplo, al teclear «HH» o «G1» (para Saludo 1) se puede obtener «Hola, ¿cómo estás?».[38]

La predicción es una estrategia de mejora de la tasa en la que el SGD intenta reducir el número de pulsaciones de teclas utilizadas mediante la predicción de la palabra o frase que está escribiendo el usuario. El usuario puede entonces seleccionar la predicción correcta sin necesidad de escribir la palabra completa. El software de predicción de palabras puede determinar las opciones que se ofrecerán en función de su frecuencia en el lenguaje, su asociación con otras palabras, las elecciones anteriores del usuario o su idoneidad gramatical.[6][38][29]​ Sin embargo, se ha demostrado que los usuarios producen más palabras por minuto (utilizando una interfaz de escaneo) con una disposición de teclado estática que con una disposición de cuadrícula predictiva, lo que sugiere que la sobrecarga cognitiva de revisar una nueva disposición anula los beneficios de la disposición predictiva cuando se utiliza una interfaz de escaneo.[39]

Otro método de mejora de la velocidad es Dasher,[40]​ que utiliza modelos lingüísticos y codificación aritmética para presentar objetivos de letras alternativos en la pantalla con un tamaño relativo a su probabilidad teniendo en cuenta el historial.[41][42]

La tasa de palabras producidas puede depender en gran medida del nivel conceptual del sistema: el sistema TALK, que permite a los usuarios elegir entre un gran número de enunciados a nivel de frase, demostró tasas de producción superiores a 60 wpm.[43]

Dispositivos de visualización fijos y dinámicos

editar

Dispositivos de visualización fijos

editar
 
Dispositivo generador de voz con pantalla fija

Los dispositivos de visualización fija son aquellos en los que los símbolos y elementos están «fijos» en un formato determinado; algunas fuentes los denominan «estáticos».[44]​ Estos dispositivos de visualización tienen una curva de aprendizaje más sencilla que otros.

Los dispositivos de pantalla fija reproducen la disposición típica de los dispositivos de CAA de baja tecnología (por baja tecnología se entiende aquellos dispositivos que no necesitan pilas, electricidad o electrónica), como los tableros de comunicación. Comparten algunas desventajas; por ejemplo, suelen estar restringidos a un número limitado de símbolos y, por tanto, de mensajes.[37]​ Es importante señalar que, con los avances tecnológicos del siglo XXI, los dispositivos de pantalla fija ya no se utilizan habitualmente.

Dispositivos de visualización dinámica

editar

Los dispositivos de visualización dinámica suelen ser también dispositivos de pantalla táctil. Suelen generar símbolos visuales producidos electrónicamente que, al pulsarlos, cambian el conjunto de selecciones que se muestra. El usuario puede cambiar los símbolos disponibles utilizando enlaces de página para navegar a las páginas apropiadas de vocabulario y mensajes.

La página de «inicio» de un dispositivo de visualización dinámica puede mostrar símbolos relacionados con muchos contextos o temas de conversación diferentes. Al pulsar cualquiera de estos símbolos se puede abrir una pantalla diferente con mensajes relacionados con ese tema.[37]​ Por ejemplo, al ver un partido de voleibol, un usuario puede pulsar el símbolo «deporte» para abrir una página con mensajes relacionados con el deporte y, a continuación, pulsar el símbolo que muestra un marcador para pronunciar la frase «¿Cuál es el marcador?».

 
Dispositivo generador de voz con visualización dinámica, capaz de emitir voz sintetizada y digitalizada.

Las ventajas de los dispositivos de visualización dinámica incluyen la disponibilidad de un vocabulario mucho más amplio y la posibilidad de ver la frase en construcción.[35]​ Otra ventaja de los dispositivos de visualización dinámica es que el sistema operativo subyacente es capaz de ofrecer opciones para múltiples canales de comunicación, como el teléfono móvil, los mensajes de texto y el correo electrónico.[45]​ Un trabajo de la Universidad de Linköping ha demostrado que estas prácticas de escritura por correo electrónico permitieron a los niños usuarios de SGD desarrollar nuevas habilidades sociales y aumentar su participación social.[46]

Teclados parlantes

editar
 
Teclado utilizado para crear voz por teléfono mediante un conversor de texto a voz.

Los sistemas de bajo coste también pueden incluir una combinación de teclado y altavoz de audio sin pantalla dinámica ni visual. Este tipo de teclado envía el texto tecleado directamente a un altavoz de audio. Puede permitir pronunciar cualquier frase sin necesidad de una pantalla visual que no siempre es necesaria. Una simple ventaja es que un teclado parlante, cuando se utiliza con un teléfono estándar o un altavoz, permite a una persona con problemas de voz mantener una conversación bidireccional por teléfono.

Salida

editar

La salida de un SGD puede ser digitalizada y/o sintetizada: los sistemas digitalizados reproducen directamente palabras o frases grabadas, mientras que el habla sintetizada utiliza un software de texto a voz que puede transmitir menos información emocional pero permite al usuario pronunciar mensajes novedosos tecleando nuevas palabras.[47][48]​ En la actualidad, las personas utilizan en sus SGD una combinación de mensajes grabados y técnicas de texto a voz.[48]​ Sin embargo, algunos dispositivos están limitados a un solo tipo de salida.

Habla digitalizada

editar
 
Sencillo dispositivo generador de voz accionado por interruptor

Palabras, frases o mensajes enteros pueden digitalizarse y almacenarse en el dispositivo para ser reproducidos y activados por el usuario.[1]​ Este proceso se conoce formalmente como Banco de Voz.[49]​ Las ventajas del habla grabada incluyen que (a) proporciona una prosodia natural y un habla natural para el oyente[3]​ (por ejemplo, se puede seleccionar a una persona de la misma edad y sexo que el usuario de CAA para grabar los mensajes),[3]​ y (b) proporciona sonidos adicionales que pueden ser importantes para el usuario como risas o silbidos. Además, las SGD digitalizadas es que proporcionan un cierto grado de normalidad tanto para el paciente como para sus familiares cuando pierden la capacidad de hablar por sí mismos.

Una de las principales desventajas de utilizar sólo voz grabada es que los usuarios no pueden producir mensajes novedosos; están limitados a los mensajes pregrabados en el dispositivo.[3][50]​ Dependiendo del dispositivo, puede haber un límite en la duración de las grabaciones.[3][50]

Habla sintetizada

editar

Los SGD que utilizan el habla sintetizada aplican las reglas fonéticas del idioma para traducir el mensaje del usuario en una salida de voz (síntesis de voz).[1][48]​ Los usuarios tienen libertad para crear palabras y mensajes novedosos y no están limitados a los que han sido pregrabados en su dispositivo por otros.[48]

El uso del habla sintetizada ha aumentado gracias a la creación de software que aprovecha los ordenadores y smartphones del usuario. Aplicaciones de CAA como Spoken o Avaz están disponibles en Android e iOS, proporcionando una forma de utilizar un dispositivo generador de voz sin tener que visitar la consulta de un médico o aprender a utilizar maquinaria especializada. En muchos casos, estas opciones son también más asequibles que un dispositivo específico.

Los SGD sintetizados pueden permitir múltiples métodos de creación de mensajes que pueden utilizarse de forma individual o combinada: los mensajes pueden crearse a partir de letras, palabras, frases, oraciones, imágenes o símbolos.[1][50]​ Con el habla sintetizada existe una capacidad prácticamente ilimitada de almacenamiento de mensajes con pocas demandas de espacio de memoria.[3]

Los motores de voz sintetizada están disponibles en muchos idiomas,[48][50]​ y los parámetros del motor, como la velocidad del habla, el rango de tono, el género, los patrones de estrés, las pausas y las excepciones de pronunciación, pueden ser manipulados por el usuario.[50]

Conjunto de selección y vocabulario

editar
 
Dispositivo de generación de texto a voz mediante teclado

El conjunto de selección de un SGD es el conjunto de todos los mensajes, símbolos y códigos que están disponibles para una persona que utiliza ese dispositivo.[51]​ El contenido, la organización y la actualización de este conjunto de selección son áreas de investigación activa y están influidas por una serie de factores, como la capacidad, los intereses y la edad del usuario.[4]​ El conjunto de selección para un sistema de CAA puede incluir palabras que el usuario no conoce todavía - se incluyen para que el usuario «crezca».[4]​ El contenido instalado en cualquier SGD puede incluir un gran número de páginas preestablecidas proporcionadas por el fabricante, con un número de páginas adicionales producidas por el usuario o el equipo de atención al usuario dependiendo de las necesidades del usuario y los contextos en los que se utilizará el dispositivo.[4]

Selección inicial de contenidos

editar

Los investigadores Beukelman y Mirenda enumeran una serie de posibles fuentes (como familiares, amigos, profesores y personal asistencial) para la selección del contenido inicial de un SGD. Se necesita una variedad de fuentes porque, en general, una sola persona no tendría los conocimientos y la experiencia necesarios para generar todas las expresiones vocales que se necesitan en un entorno determinado.[4]​ Por ejemplo, los padres y los terapeutas podrían no pensar en añadir términos de argot, como «innit».[52]

Trabajos anteriores han analizado tanto el uso del vocabulario de hablantes con desarrollo típico como el uso de palabras de usuarios de CAA para generar contenido para nuevos dispositivos de CAA. Tales procesos funcionan bien para generar un conjunto básico de enunciados o expresiones vocales, pero son menos eficaces en situaciones en las que se necesita un vocabulario particular (por ejemplo, términos relacionados directamente con el interés de un usuario por la equitación). El término «vocabulario complementario» hace referencia al vocabulario específico o exclusivo de los intereses o necesidades personales del individuo. Una técnica típica para desarrollar vocabulario marginal para un dispositivo consiste en realizar entrevistas con múltiples «informantes»: hermanos, padres, profesores, compañeros de trabajo y otras personas implicadas.[4]

Otros investigadores, como Musselwhite y St. Louis sugieren que los elementos del vocabulario inicial deberían ser de gran interés para el usuario, ser de aplicación frecuente, tener una gama de significados y ser pragmáticos en su funcionalidad.[5]​ Estos criterios se han utilizado ampliamente en el campo de la CAA como comprobación ecológica del contenido de los DGS.[4]

Mantenimiento automático de contenidos

editar

Beukelman y Mirenda destacan que la selección de vocabulario también implica el mantenimiento continuo del vocabulario;[4]​ sin embargo, una dificultad en la CAA es que los usuarios o sus cuidadores deben programar manualmente cualquier enunciado nuevo (por ejemplo, nombres de nuevos amigos o historias personales) y no existen soluciones comerciales para añadir contenido automáticamente.[34]​ Varios enfoques de investigación han intentado superar esta dificultad,[53]​ estos van desde la «entrada inferida», como la generación de contenido basada en un registro de conversaciones con los amigos y la familia de un usuario,[54]​ hasta datos extraídos de Internet para encontrar materiales lingüísticos, como el Proyecto Webcrawler.[55]​ Además, mediante el uso de enfoques basados en el registro de vida, el contenido de un dispositivo puede modificarse en función de los acontecimientos que le ocurran a un usuario durante el día.[53][56]​ Al acceder a más datos de un usuario, pueden generarse más mensajes de alta calidad, con el riesgo de exponer datos sensibles del usuario.[53]​ Por ejemplo, mediante el uso de sistemas de posicionamiento global, el contenido de un dispositivo puede modificarse en función de la ubicación geográfica.[57][58]

Consideraciones éticas

editar

Muchos SGD desarrollados recientemente incluyen herramientas de medición y análisis del rendimiento para ayudar a controlar el contenido utilizado por una persona. Esto suscita preocupaciones sobre la privacidad, y algunos argumentan que el usuario del dispositivo debería estar implicado en la decisión de monitorizar el uso de esta manera.[59][60]​ Se han planteado preocupaciones similares en relación con las propuestas de dispositivos con generación automática de contenidos,[56]​ y la privacidad es cada vez más un factor en el diseño de los SGD.[52][61]​ Como los dispositivos de CAA están diseñados para ser utilizados en todas las áreas de la vida de un usuario, hay cuestiones legales, sociales y técnicas delicadas centradas en una amplia familia de problemas de gestión de datos personales que pueden encontrarse en contextos de uso de CAA. Por ejemplo, los SGDs pueden tener que ser diseñados para que apoyen el derecho del usuario a borrar registros de conversaciones o contenidos que han sido añadidos automáticamente.[62]

Retos

editar

La programación de los dispositivos generadores dinámicos del habla suele correr a cargo de especialistas en comunicación aumentativa. Los especialistas tienen que atender las necesidades de los pacientes porque éstos suelen elegir qué tipo de palabras/frases quieren. Por ejemplo, los pacientes utilizan frases distintas en función de su edad, discapacidad, intereses, etc. Por lo tanto, la organización de los contenidos requiere mucho tiempo. Además, los SGD rara vez están cubiertos por las compañías de seguros médicos. En consecuencia, los recursos son muy limitados tanto en lo que respecta a la financiación como al personal. El Dr. John Costello, del Boston Children's Hospital, ha sido la fuerza motriz que ha solicitado donaciones para mantener este programa en marcha y bien dotado de personal, tanto en su hospital como en hospitales de todo el país.

Véase también

editar
  • Orca (tecnología de asistencia) - Software de accesibilidad

Referencias

editar
  1. a b c d e f «"Clinical Policy Bulletin: Speech Generating Devices"». www.aetna.com. Consultado el 6 de marzo de 2025. 
  2. Blischak, D. M., Lombardino, L. J., & Dyson, A. T. (2003). «Use of speech-generating devices: In support of natural speech». Augmentative and Alternative Communication, 19. 
  3. a b c d e f Glennen, Sharon L. and Decoste, Denise C. (1997). «The Handbook of Augmentative and Alternative Communication». Singular Publishing Group, Inc.: San Diego, CA. 
  4. a b c d e f g h Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. ISBN 978-1-55766-684-0. Consultado el 6 de marzo de 2025. 
  5. a b Musselwhite, Caroline Ramsey; Louis, Karen Waterman St (1991). Communication Programming for Persons with Severe Handicaps: Vocal and Augmentative Strategies (en inglés). Pro-Ed. ISBN 978-0-89079-388-6. Consultado el 6 de marzo de 2025. 
  6. a b c d «UW Augcomm: Features - Rate Enhancement». web.archive.org. 6 de diciembre de 2008. Consultado el 7 de marzo de 2025. 
  7. Glennen, Sharon L. and Decoste, Denise C. (1997). «The Handbook of Augmentative and Alternative Communication». Singular Publishing Group, Inc.: San Diego, CA. 
  8. a b Jans, D.; Clark, S. (1998). «"High Technology Aids to Communication"». Wilson, Allan (ed.). Augmentative Communication in Practice: An Introduction. 
  9. a b «A journey through early augmentative communication and computer access». web.archive.org. 1 de octubre de 2011. Consultado el 7 de marzo de 2025. 
  10. a b c d Zangari, C.; Lloyd, L.; Vicker, B. (1994). «"Augmentative and alternative communication: An historic perspective"». Augmentative and Alternative Communication. doi:10.1080/07434619412331276740. 
  11. Stassen, H. G.; Sheridan, T. B.; Van Lunteren, T. (1997). «Perspectives on the human controller: essays in honor of Henk G. Stassen». Psychology Press. ISBN 978-0-8058-2190-1. 
  12. «Our History - AAC & Speech Devices from PRC». www.prentrom.com. Consultado el 7 de marzo de 2025. 
  13. «Vintage Computers: The MIKE III, by Mark Dahmke». web.archive.org. 15 de julio de 2015. Consultado el 7 de marzo de 2025. 
  14. «The Computalker Speech Synthesizer – Mark Dahmke». www.mark.dahmke.com. Consultado el 7 de marzo de 2025. 
  15. «Dahmke Using Concurrent PC DOS 1986 pdf». 1library.net (en inglés). Consultado el 7 de marzo de 2025. 
  16. Byte Magazine Volume 08 Number 01 - Looking Ahead. 1983-01. Consultado el 7 de marzo de 2025. 
  17. "Oracle v. Google - Brief of Amici Curiae Computer Scientists". 
  18. Synergist (en inglés). National Student Volunteer Program. 1980. Consultado el 7 de marzo de 2025. 
  19. "LateBlt's Computer Book List". 
  20. a b "J news - UNIVERSITY OF NEBRASKA–LINCOLN". 
  21. Rush, William (2008). Journey Out of Silence (en inglés). Lulu.com. ISBN 978-1-4357-1497-7. Consultado el 7 de marzo de 2025. 
  22. "BYTE - the small systems journal". 
  23. «Minspeak™ History». Minspeak Academy (en inglés estadounidense). Consultado el 7 de marzo de 2025. 
  24. «LIFE Magazine January 1980 @ Original LIFE Magazines.com, Unique Gift Idea, Vintage LIFE Magazine, Classic LIFE Magazine». Original Life Magazines (en inglés estadounidense). Consultado el 7 de marzo de 2025. 
  25. «byte en 1981». empichon72.free.fr. Consultado el 7 de marzo de 2025. 
  26. «About | Toby Churchill». web.archive.org. 10 de diciembre de 2011. Consultado el 7 de marzo de 2025. 
  27. «DynaVox | History». web.archive.org. 5 de agosto de 2016. Consultado el 7 de marzo de 2025. 
  28. a b c Hourcade, J.; Everhart Pilotte, T.; West, E.; Parette, P. (2004). «"A History of Augmentative and Alternative Communication for Individuals with Severe and Profound Disabilities".». Focus on Autism and Other Developmental Disabilities. doi:10.1177/10883576040190040501. 
  29. a b «Speech-generating device». Wikipedia (en inglés). 16 de enero de 2025. 
  30. «Stephen Hawking and ALS». www.chninternational.com. Archivado desde el original el 25 de julio de 2021. Consultado el 8 de marzo de 2025. 
  31. Mathy; Yorkston, Guttman (2000). «"Augmentative Communication for Individuals with Amyotrophic Lateral Sclerosis"». Beukelman, D.; Yorkston, K.; Reichle, J. (eds.). Augmentative and Alternative Communication Disorders for Adults with Acquired Neurologic Disorders. Baltimore: P.H. Brookes Pub. ISBN 978-1-55766-473-0. 
  32. Glennen, Sharon L. and Decoste, Denise C. (1997). «The Handbook of Augmentative and Alternative Communication». Singular Publishing Group, Inc.: San Diego, CA: 62-63. 
  33. a b Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. pp. 97-101. ISBN 978-1-55766-684-0. Consultado el 8 de marzo de 2025. 
  34. a b c Higginbotham, D. J.; Shane, H.; Russell, S.; Caves, K. (2007). «"Access to AAC: Present, past, and future"». Augmentative and Alternative Communication. PMID 17701743. doi:10.1080/07434610701571058. 
  35. a b Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. ISBN 978-1-55766-684-0. Consultado el 8 de marzo de 2025. 
  36. Hochstein, D. D.; McDaniel, M. A.; Nettleton, S. (2004). «"Recognition of Vocabulary in Children and Adolescents with Cerebral Palsy: A Comparison of Two Speech Coding Schemes".». Augmentative and Alternative Communication. doi:10.1080/07434610410001699708. 
  37. a b c Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. pp. 84-85. ISBN 978-1-55766-684-0. Consultado el 8 de marzo de 2025. 
  38. a b c Venkatagiri, H. S. (1995). «Techniques for enhancing communication productivity in AAC: A review of research». American Journal of Speech-Language Pathology 4. 
  39. Johansen, A. S., Hansen, J. P., Hansen, D. W., Itoh, K., and Mashino, S. (2003). «Language technology in a predictive, restricted on-screen keyboard with dynamic layout for severely disabled people.». Proceedings of the 2003 EACL Workshop on Language Modeling for Text Entry Methods (TextEntry '03). Association for Computational Linguistics, Stroudsburg, PA, USA,. 
  40. Ward, D. J.; Blackwell, A. F.; MacKay, D. J. C. (2000). «"Dasher---a data entry interface using continuous gestures and language models"». Proceedings of the 13th annual ACM symposium on User interface software and technology - UIST '00. ISBN 1581132123. doi:10.1145/354401.354427. 
  41. Roark, B., de Villiers, J., Gibbons, C., and Fried-Oken, M.. (2010). «Scanning methods and language modeling for binary switch typing». Proceedings of the NAACL HLT 2010 Workshop on Speech and Language Processing for Assistive Technologies (SLPAT '10). Association for Computational Linguistics, Stroudsburg, PA, USA. 
  42. MacKay, David J. C. (25 de septiembre de 2003). Information Theory, Inference and Learning Algorithms (en inglés). Cambridge University Press. ISBN 978-0-521-64298-9. Consultado el 9 de marzo de 2025. 
  43. Todman, J. (2000). «"Rate and quality of conversations using a text-storage AAC system: Single-case training study"». Augmentative and Alternative Communication. doi:10.1080/07434610012331279024. 
  44. Hochstein, D. D.; McDaniel, M. A.; Nettleton, S.; Neufeld, K. H. (2003). «"The Fruitfulness of a Nomothetic Approach to Investigating AAC: Comparing Two Speech Encoding Schemes Across Cerebral Palsied and Nondisabled Children".». American Journal of Speech-Language Pathology. PMID 12680818. doi:10.1044/1058-0360(2003/057). 
  45. «Dynavox Series 5». web.archive.org. 25 de abril de 2012. Consultado el 10 de marzo de 2025. 
  46. Sundqvist, A.; Rönnberg, J. (2010). «"A Qualitative Analysis of Email Interactions of Children who use Augmentative and Alternative Communication"». Augmentative and Alternative Communication. PMID 21091302. doi:10.3109/07434618.2010.528796. 
  47. Schlosser, Ralf W. (2003). The Efficacy of Augmentative and Alternative Communication (en inglés). Academic Press. ISBN 978-0-12-625667-3. Consultado el 10 de marzo de 2025. 
  48. a b c d e Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. pp. 105-106. ISBN 978-1-55766-684-0. Consultado el 10 de marzo de 2025. 
  49. Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. p. 105. ISBN 978-1-55766-684-0. Consultado el 10 de marzo de 2025. 
  50. a b c d e Radomski, Mary Vining; Latham, Catherine A. Trombly (2008). Occupational Therapy for Physical Dysfunction (en inglés). Lippincott Williams & Wilkins. ISBN 978-0-7817-6312-7. Consultado el 10 de marzo de 2025. 
  51. Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. p. 83. ISBN 978-1-55766-684-0. Consultado el 10 de marzo de 2025. 
  52. a b Wickenden, Mary (25 de octubre de 2011). «Whose Voice is That?: Issues of Identity, Voice and Representation Arising in an Ethnographic Study of the Lives of Disabled Teenagers who use Augmentative and Alternative Communication (AAC)». Disability Studies Quarterly (en inglés) 31 (4). ISSN 2159-8371. doi:10.18061/dsq.v31i4.1724. Consultado el 10 de marzo de 2025. 
  53. a b c Reddington, J.; Tintarev, N. (2011). «"Automatically generating stories from sensor data"». Proceedings of the 15th international conference on Intelligent user interfaces - IUI '11. ISBN 9781450304191. doi:10.1145/1943403.1943477. 
  54. Ashraf, S.; Warden, A.; Shearer, A. J.; Judson, A.; Ricketts, I. W.; Waller, A.; Alm, N.; Gordon, B.; MacAulay, F.; Brodie, J. K.; Etchels, M. (2002). «"Capturing phrases for ICU-Talk, a communication aid for intubated intensive care patients.".». Proceedings of the fifth international ACM conference on Assistive technologies - Assets '02. ISBN 1581134649. doi:10.1145/638249.638288. 
  55. Luo, F., Higginbotham, D. J., & Lesher, G. (2007). «Webcrawler: Enhanced augmentative communication.». Paper presented at CSUN Conference on Disability Technology, March, Los Angeles. 
  56. a b Black, R., Reddington, J., Reiter, E., Tintarev, N., and Waller A.. (2010). «Using NLG and sensors to support personal narrative for children with complex communication needs. In Proceedings of the NAACL HLT 2010 Workshop on Speech and Language Processing for Assistive Technologies (SLPAT '10)». Association for Computational Linguistics, Stroudsburg, PA, USA, 1–9. 
  57. Dominowska, E., Roy, D., & Patel, R (2002). «An adaptive context-sensitive communication aid». Proceedings of the CSUN International Conference on Technology and Persons with Disabilities, Northridge, CA. 
  58. R. Patel and R. Radhakrishnan. (2007). «Enhancing Access to Situational Vocabulary by Leveraging Geographic Context». Assistive Technology Outcomes and Benefits. 
  59. Internet Archive, David R. (2005). Augmentative & alternative communication : supporting children & adults with complex communication needs. Baltimore : Paul H. Brookes Pub. Co. p. 30. ISBN 978-1-55766-684-0. Consultado el 10 de marzo de 2025. 
  60. Blackstone, S. W.; Williams, M. B.; Joyce, M. (2002). «"Future AAC Technology Needs: Consumer Perspectives"». Assistive Technology. PMID 12739846. doi:10.1080/10400435.2002.10132051. 
  61. Rackensperger, T.; Krezman, C.; McNaughton, D.; Williams, M. B.; d'Silva, K. (2005). «"When I First Got It, I Wanted to Throw It off a Cliff": The Challenges and Benefits of Learning AAC Technologies as Described by Adults who use AAC"». Augmentative and Alternative Communication. doi:10.1080/07434610500140360. 
  62. Reddington, J., & Coles-Kemp, L. «Trap Hunting: Finding Personal Data Management Issues in Next Generation AAC Devices.». In Proceedings of the Second Workshop on Speech and Language Processing for Assistive Technologies (pp. 32–42). Edinburgh, Scotland, UK: Association for Computational Linguistics. 

Enlaces externos

editar
  • Medios relacionados con Dispositivos generadores de voz en Wikimedia Commons
  •   Datos: Q7575362
  •   Multimedia: Speech generating devices / Q7575362