¿Cómo evaluar la experiencia de personas mayores en servicios digitales masivos?
La evaluación de la experiencia de las personas mayores en servicios digitales masivos requiere un enfoque multidimensional: técnico, humano y ético. La creciente proporción de población mayor obliga a diseñar, medir y mejorar plataformas (banca, salud, comercio, transporte, administración pública) de manera que sean seguras, útiles y fáciles de usar para quienes presentan diversidad funcional asociada a la edad.
Por qué resulta apremiante evaluar esta experiencia
- Demografía: de acuerdo con Naciones Unidas, la cantidad de personas con 60 años o más crecerá de manera considerable en las próximas décadas, lo que exige que los servicios de gran alcance atiendan adecuadamente a ese grupo.
- Impacto social: la exclusión digital provoca obstáculos que dificultan el acceso a beneficios, atención sanitaria y derechos esenciales.
- Riesgos financieros y de seguridad: fallos o malentendidos durante operaciones pueden derivar en pérdidas económicas o en mayor vulnerabilidad frente a fraudes.
Componentes clave de la evaluación
- Accesibilidad técnica: observancia de las pautas de accesibilidad web, ajustes de contraste, ampliación tipográfica, uso adecuado de etiquetas semánticas y compatibilidad con herramientas de asistencia.
- Usabilidad: sencillez para llevar a cabo acciones esenciales como crear una cuenta, acceder, efectuar pagos o pedir una cita.
- Comprensibilidad: empleo de un lenguaje directo, mensajes de error orientativos y ausencia de tecnicismos, además de instrucciones claramente delineadas.
- Sostenibilidad de uso: provisión de soporte, capacitación y ayudas contextuales que faciliten la continuidad en la utilización del servicio.
- Seguridad percibida y confianza: sensación de resguardo de la privacidad y de protección ante posibles fraudes.
Métricas cuantitativas recomendadas
- Tasa de éxito de tareas: porcentaje de usuarios mayores que completan una tarea sin asistencia.
- Tiempo medio por tarea: tiempo que tarda un usuario en completar tareas críticas; útil para detectar fricciones.
- Tasa de abandono: porcentaje que inicia pero no finaliza un proceso (por ejemplo, pago o registro).
- Errores por tarea: número de errores recurrentes (clics en lugar equivocado, campos mal completados).
- Índice de satisfacción: puntuaciones post-tarea o post-sesión (escala de 1 a 5 o similar).
- Uso de ayuda: frecuencia con la que las personas mayores recurren a ayuda telefónica, chat o tutoriales.
Métodos cualitativos imprescindibles
- Pruebas con usuarios representativos: sesiones guiadas en las que adultos mayores de diversos perfiles llevan a cabo tareas auténticas, dando prioridad tanto a la observación directa como a los comentarios expresados en el momento.
- Entrevistas en profundidad: indagar expectativas, inquietudes y situaciones de uso, por ejemplo cuando interactúan con la plataforma con apoyo de familiares.
- Diarios de uso: anotaciones recogidas durante varias semanas que revelan rutinas reales, momentos de mayor actividad y fallos que aparecen con frecuencia.
- Estudios etnográficos: visitas al domicilio para analizar el contexto digital, los dispositivos disponibles y las fuentes habituales de asistencia.
- Grupos focales segmentados: investigar percepciones compartidas, términos que prefieren y obstáculos recurrentes.
Segmentación y criterios de muestreo
- Edad y subgrupos: 60–69, 70–79, 80+. En cada franja la autonomía y el desempeño cotidiano pueden cambiar de forma notable.
- Capacidades funcionales: limitaciones visuales, dificultades auditivas, destreza manual reducida, así como variaciones en memoria y concentración.
- Nivel de alfabetización digital: desde quienes se incorporaron tardíamente al mundo digital hasta usuarios muy básicos; también considerar a quienes requieren apoyo de terceros.
- Contexto socioeconómico: disponibilidad de dispositivos, estabilidad de la conexión a internet y presencia de redes de apoyo familiar.
Diseño de tareas de evaluación
- Definir tareas realistas y relevantes: iniciar sesión, recuperar contraseña, realizar pago, reservar cita médica, consultar historial.
- Incluir escenarios con interrupciones: llamada entrante, desconexión de red, comprobante impreso no disponible.
- Medir desde la primera interacción: tiempo hasta entender la función, no solo la ejecución.
- Permitir asistencia simulada en algunos escenarios para medir cuánto y qué tipo de ayuda requieren.
Accesibilidad y diseño específico para edad
- Tipografía y disposición: fuente legible, tamaño escalable por el usuario, buen interlineado y separación entre elementos táctiles.
- Contraste y color: colores con contraste alto y alternativas para daltónicos; evitar depender solo del color para transmitir información.
- Navegación simplificada: caminos cortos, opciones claras, evitar menús anidados profundos.
- Lenguaje claro: instrucciones directas, evitar abreviaturas, ejemplos concretos y confirmaciones explícitas.
- Protecciones ante errores: guardado automático, confirmaciones antes de acciones críticas, opciones de deshacer.
Aspectos éticos y de reclutamiento
- Consentimiento informado: detallar con claridad la finalidad del test, cómo se registrarán los datos y cuáles son los derechos del participante.
- Privacidad: asegurar la anonimización de la información y resguardar cualquier grabación que revele datos personales.
- Compensación y accesibilidad del lugar: cubrir los traslados, adecuar los espacios físicos o virtuales y brindar asistencia técnica previa.
- Representatividad: reducir sesgos evitando reclutar únicamente a usuarios activos e incorporando también a quienes dejaron de utilizar el servicio.
Análisis de resultados y priorización
- Clasificar fricciones por impacto y frecuencia: problemas críticos que impiden transacciones tienen prioridad alta; problemas menores de usabilidad, prioridad media.
- Mapas de recorrido y puntos de dolor: identificar etapas con mayor abandono o confusión.
- Propuestas de solución testables: prototipos de baja fidelidad para validar cambios antes de lanzar a producción.
- Medir efecto de las mejoras: comparar métricas antes y después con cohortes equivalentes (personas mayores).
Casos prácticos ilustrativos
- Banca digital: un banco masivo identificó 40% de abandonos en transferencia por confusión en selección de cuentas. Tras simplificar el formulario, aumentar tamaño de campo y añadir confirmación hablada opcional, la tasa de éxito subió 25% entre usuarios mayores y las llamadas al centro de ayuda se redujeron 30%.
- Portal de salud: una plataforma de citas detectó que personas de más de 75 años no finalizaban el proceso por no entender ventanas emergentes. Rediseñaron con lenguaje directo y un flujo lineal; la tasa de cita confirmada aumentó 18% en ese segmento.
- Comercio electrónico: una tienda implementó un modo «versión para mayores» con botones más grandes y soporte por teléfono visible. La conversión en usuarios de 70+ mejoró, pero surgió dependencia del soporte telefónico; se decidió entrenar a usuarios con microvideos y ofrecer asistencia por videollamada guiada.
Indicadores de éxito a mediano plazo
- Reducción sostenida de la tasa de abandono en procesos críticos.
- Aumento en la frecuencia de uso sin asistencia externa.
- Mejora en el índice de confianza y percepción de seguridad.
- Descenso en llamadas al soporte por tareas básicas.
Recomendaciones prácticas para equipos productivos
- Involucrar a personas mayores desde el inicio del diseño y en cada iteración.
- Integrar pruebas de accesibilidad como parte del ciclo de desarrollo continuo.
- Crear métricas desagregadas por edad y capacidad para detectar brechas.
- Formar a equipos de soporte con lenguaje empático y protocolos adaptados.
- Documentar cambios y compartir aprendizajes para replicar soluciones en otros servicios.
Al evaluar la experiencia de las personas mayores en servicios digitales masivos se combinan datos, observación directa y sensibilidad social. Medir no solo revela problemas técnicos, sino también brechas en diseño, comunicación y acompañamiento. Las mejoras que facilitan el acceso a este segmento suelen beneficiar a todos los usuarios y fortalecen la equidad digital; por eso la evaluación debe ser continua, inclusiva y orientada a soluciones concretas y mensurables.
