Señales humanas que tus agentes pueden usar.
Rostro, voz, gesto, señas, atención y afecto — medibles, exportables y respetuosos de la privacidad. Vexkio aporta la capa biométrica y cognitiva que los agentes necesitan para decidir mejor.
También disponible en vexkio.com ↗
Qué mide Vexkio.
Instrumentación con calidad de investigación, no métricas cosméticas. Si necesitás validar un cambio de UX o detectar fraude en un onboarding, las señales importan más que un dashboard bonito.
- Reconocimiento facial y análisis de voz en tiempo real, con consentimiento explícito primero
- Proxies de afecto, atención y estados cognitivos — con calidad de investigación
- Señas y gestos para interfaces accesibles y flujos manos libres
- Plug-in para WebRTC y embeds web; no requiere wearables ni hardware extra
- Exportaciones a CSV / Parquet; consultable desde el control plane de Fanfusion
Dónde tiene más tracción.
- E-commerce y retail midiendo fricción cognitiva en carrito y checkout
- Bancos y fintech para fraude, KYC y onboarding con señales multimodales
- Agencias haciendo testing UX con métricas reales, no solo encuestas
- Academias evaluando atención y retención en contenidos largos
- Clínicas y salud para consentimiento y experiencia del paciente
Dudas típicas antes del piloto.
¿Es un wearable o pide dispositivo especial?
No. Vexkio corre sobre cámara y micrófono estándar del browser (con permiso explícito del usuario). Los modelos se ejecutan edge o cloud según lo que el caso de uso permita.
¿Cómo manejan la privacidad?
Consentimiento primero por diseño: cada sesión requiere opt-in explícito, el usuario puede revocar en cualquier momento y los datos se almacenan con retención configurable. Cumplimos GDPR, CCPA y LGPD en la capa de producto.
¿Qué emociones detecta?
Vexkio reporta proxies de estados afectivos (valencia, arousal) y atención, no emociones en sentido clínico. Son métricas útiles para A/B testing y detección de fricción, no diagnóstico médico.
¿Edge o cloud?
Ambos. Los modelos livianos corren en el edge (navegador o móvil) para latencia sub-100ms y privacidad. Los modelos más pesados corren en la nube para estudios de investigación. La decisión está documentada en el blog.
¿Se integra con Fanfusion Hub?
Sí. Los eventos de Vexkio aparecen como señales adicionales en la cola de aprobación y los dashboards de squads. Podés condicionar políticas basadas en señales cognitivas (p.ej. escalar a humano si fricción alta).
¿Qué industrias lo usan hoy?
E-commerce (checkout), fintech (fraude, KYC), academias (atención), agencias (investigación de UX) y clínicas (consentimiento y experiencia del paciente).
¿Querés diseñar un estudio con Vexkio?
Empezamos con un caso acotado: un flujo de checkout, un onboarding, una pieza de contenido. 30 días para tener evidencia.