Tu próximo gran hire está escondido a plena vista.
Los CVs se acumulan. Las opiniones divergen. El mejor candidato se pierde en el ruido.
¿Y si cada calificación fuera argumentada, cuestionada y juzgada — sin sesgos?
Hasta los mejores equipos de hiring enfrentan sesgos invisibles.
La investigación muestra que incluso evaluadores experimentados se ven afectados por sesgos cognitivos. Son humanos, no una falla de skill — pero pueden resolverse con estructura.
Anchoring bias
El primer CV marca la vara. Todos los siguientes se comparan con ese — no con el rol.
Recency effect
El último candidato se siente más fresco. Los anteriores se desvanecen sin importar su calificación.
Gut feeling
"Tengo un buen feeling con éste." La intuición es valiosa — pero funciona mejor respaldada por evidencia estructurada.
Elegí tu formato.
Ambos modos aumentan tu proceso de evaluación con la misma comparación estructurada respaldada por investigación: AI advocates argumentan el caso de cada candidato, un juez independiente puntúa argumentos anonimizados en 5 dimensiones.
Comparación head-to-head
Subís dos CVs y mirás a los AI advocates debatir sus méritos en 3 rondas adversariales en tiempo real.
- Vista de debate streaming
- Veredicto puntuado en 5 dimensiones
- Reporte PDF descargable
Ranking por torneo
Subís hasta 32 CVs. Un torneo corre debates head-to-head en múltiples rondas, con playoffs para el top 4.
- Swiss-system pairing (como ajedrez)
- Standings en vivo + progreso de matches
- Bracket semifinal + final
Respaldado por ciencia peer-reviewed.
El enfoque de evaluación estructurada está fundado en investigación publicada y peer-reviewed de AI safety y assessment estructurado.
“It is harder to lie than to refute a lie.”
— Irving, Christiano & Amodei
AI Safety via Debate, 2018 ↗
AI Debaters are More Persuasive when Arguing in Alignment with Their Own Beliefs
Carro, M. V., Spinelli, N. et al., 2025
En 145 escenarios con cuatro modelos frontier, los debaters que argumentan lo que creen genuinamente son más persuasivos — aun cuando los argumentos opuestos parecen más fuertes en superficie. El debate hace emerger la verdad.
Debating with More Persuasive LLMs Leads to More Truthful Answers
Khan, A. et al., 2024
Jueces humanos no expertos alcanzaron 88% de accuracy evaluando transcripts de debate, vs 60% leyendo una opinión experta aislada. El debate extiende dramáticamente lo que un no-experto puede evaluar confiablemente.
AI Debate Aids Assessment of Controversial Claims
Freedman, R. et al., 2025
El debate reduce reversals de creencias dañinas de 22.9% a 8.6% — jueces que empiezan con la respuesta correcta tienen mucha menos probabilidad de ser engañados.
¿Listo para contratar con evidencia?
Dale a tu intuición de hiring la evidencia estructurada que merece.