Sylabus CTFL - V4.0 - ES - PROGRAMA DE ESTUDIO - V001.01
Sylabus CTFL - V4.0 - ES - PROGRAMA DE ESTUDIO - V001.01
Programa de Estudio
Nivel Básico
Versión ES V01.01
N D P I
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International Software Testing Qualifications
Board (en adelante denominado ISTQB®). ISTQB® es una marca registrada del International Software
Testing Qualifications Board.
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International 2023 los autores del programa
de estudio de nivel básico v4.0: Renzo Cerquozzi, Wim Decoutere, Klaudia Dussa-Zieger, Jean-François
Riverin, Arnika Hryszko, Martin Klonk, Michaël Pilaeten, Meile Posthuma, Stuart Reid, Eric Riou du Cosquer
(presidente), Adam Roman, Lucjan Stapp, Stephanie Ulrich (vicepresidente), Eshraka Zakaria.
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International 2019 los autores de la
actualización 2019 Klaus Olsen (presidente), Meile Posthuma y Stephanie Ulrich.
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International 2018 los autores de la
actualización 2018 Klaus Olsen (presidente), Tauhida Parveen (vicepresidenta), Rex Black (director del
proyecto), Debra Friedenberg, Matthias Hamburg, Judy McKay, Meile Posthuma, Hans Schaefer,
Radoslaw Smilgin, Mike Smith, Steve Toms, Stephanie Ulrich, Marie Walsh y Eshraka Zakaria.
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International 2011 los autores para la
actualización 2011 Thomas Müller (presidente), Debra Friedenberg, y el ISTQB WG Foundation Level.
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International 2010 los autores de la
actualización 2010 Thomas Müller (presidente), Armin Beer, Martin Klonk y Rahul Verma.
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International 2007 los autores para la
actualización 2007 Thomas Müller (presidente), Dorothy Graham, Debra Friedenberg y Erik van
Veenendaal.
Nota sobre Derechos de Propiedad Intelectual (Copyright) © International 2005 los autores Thomas Müller
(presidente), Rex Black, Sigrid Eldh, Dorothy Graham, Klaus Olsen, Maaret Pyhäjärvi, Geoff Thompson y
Erik van Veenendaal.
Todos los derechos reservados. Por la presente, los autores ceden los derechos de autor al ISTQB®. Los
autores (como actuales titulares de los derechos de autor) y el ISTQB® (como futuro titular de los derechos
de autor) han acordado las siguientes condiciones de uso:
Se podrán copiar extractos de este documento, para uso no comercial, siempre que se cite la fuente.
Cualquier Proveedor de Formación Acreditado puede utilizar este programa de estudio como fuente
para un curso de formación si los autores y el ISTQB® son reconocidos como fuente y propietarios de
los derechos de autor del programa de estudio y siempre que cualquier anuncio de dicho curso de
formación pueda mencionar el programa de estudio sólo después de haber recibido la acreditación
oficial de los materiales de formación por parte de un Comité Miembro reconocido por el ISTQB®.
Cualquier persona o grupo de personas puede utilizar este programa de estudio como fuente de
artículos y libros, si los autores y el ISTQB® son reconocidos como la fuente y los propietarios de los
derechos de autor del programa de estudio.
Cualquier otro uso de este programa de estudio está prohibido sin la aprobación previa por escrito del
ISTQB®.
Cualquier Comité Miembro reconocido por el ISTQB® puede traducir este programa de estudio
siempre y cuando reproduzca el mencionado Nota de Derechos de Propiedad Intelectual (Copyright)
en la versión traducida del programa de estudio.
H R
T C
A
Este documento ha sido hecho público formalmente por la Asamblea General del ISTQB® el 21 de abril
de 2023.
Fue elaborado por un equipo del "ISTQB joint Foundation Level & Agile Working Groups": Laura Albert,
Renzo Cerquozzi (vicepresidente), Wim Decoutere, Klaudia Dussa-Zieger, Chintaka Indikadahena, Arnika
Hryszko, Martin Klonk, Kenji Onishi, Michaël Pilaeten (copresidente), Meile Posthuma, Gandhinee
Rajkomar, Stuart Reid, Eric Riou du Cosquer (copresidente), Jean-François Riverin, Adam Roman, Lucjan
Stapp, Stephanie Ulrich (vicepresidenta), Eshraka Zakaria.
El equipo agradece a Stuart Reid, Patricia McQuaid y Leanne Howard su revisión técnica y al equipo revisor
y a los Comités Miembro sus sugerencias y aportaciones.
Las siguientes personas participaron en la revisión, aportando comentarios y votando este programa de
estudio: Adam Roman, Adam Scierski, Ágota Horváth, Ainsley Rood, Ale Rebon Portillo, Alessandro
Collino, Alexander Alexandrov, Amanda Logue, Ana Ochoa, André Baumann, André Verschelling, Andreas
Spillner, Anna Miazek, Armin Born, Arnd Pehl, Arne Becher, Attila Gyúri, Attila Kovács, Beata Karpinska,
Benjamin Timmermans, Blair Mo, Carsten Weise, Chinthaka Indikadahena, Chris Van Bael, Ciaran
O'Leary, Claude Zhang, Cristina Sobrero, Dandan Zheng, Dani Almog, Daniel Säther, Daniel van der Zwan,
Danilo Magli, Darvay Tamás Béla, Dawn Haynes, Dena Pauletti, Dénes Medzihradszky, Doris Dötzer, Dot
Graham, Edward Weller, Erhardt Wunderlich, Eric Riou Du Cosquer, Florian Fieber, Fran O'Hara, François
Vaillancourt, Frans Dijkman, Gabriele Haller, Gary Mogyorodi, Georg Sehl, Géza Bujdosó, Giancarlo
Tomasig, Giorgio Pisani, Gustavo Márquez Sosa, Helmut Pichler, Hongbao Zhai, Horst Pohlmann, Ignacio
Trejos, Ilia Kulakov, Ine Lutterman, Ingvar Nordström, Iosif Itkin, Jamie Mitchell, Jan Giesen, Jean-Francois
Riverin, Joanna Kazun, Joanne Tremblay, Joëlle Genois, Johan Klintin, John Kurowski, Jörn Münzel, Judy
McKay, Jürgen Beniermann, Karol Frühauf, Katalin Balla, Kevin Kooh, Klaudia Dussa- Zieger, Klaus
Erlenbach, Klaus Olsen, Krisztián Miskó, Laura Albert, Liang Ren, Lijuan Wang, Lloyd Roden, Lucjan
Stapp, Mahmoud Khalaili, Marek Majernik, Maria Clara Choucair, Mark Rutz, Markus Niehammer, Martin
Klonk, Márton Siska, Matthew Gregg, Matthias Hamburg, Mattijs Kemmink, Maud Schlich, May Abu-Sbeit,
Meile Posthuma, Mette Bruhn-Pedersen, Michal Tal, Michel Boies, Mike Smith, Miroslav Renda, Mohsen
Ekssir, Monika Stocklein Olsen, Murian Song, Nicola De Rosa, Nikita Kalyani, Nishan Portoyan, Nitzan
Goldenberg, Ole Chr. Hansen, Patricia McQuaid, Patricia Osorio, Paul Weymouth, Pawel Kwasik, Peter
Zimmerer, Petr Neugebauer, Piet de Roo, Radoslaw Smilgin, Ralf Bongard, Ralf Reissing, Randall Rice,
Rik Marselis, Rogier Ammerlaan, Sabine Gschwandtner, Sabine Uhde, Salinda Wickramasinghe, Salvatore
Reale, Sammy Kolluru, Samuel Ouko, Stephanie Ulrich, Stuart Reid, Surabhi Bellani, Szilard Szell, Tamás
Gergely, Tamás Horváth, Tatiana Sergeeva, Tauhida Parveen, Thaer Mustafa, Thomas Eisbrenner,
Thomas Harms, Thomas Heller, Tobias Letzkus, Tomas Rosenqvist, Werner Lieblang, Yaron Tsubery,
Zhenlei Zuo y Zsolt Hargitai.
"ISTQB Working Group Foundation Level" (Edición 2018): Klaus Olsen (presidente), Tauhida Parveen
(vicepresidente), Rex Black (director de proyecto), Eshraka Zakaria, Debra Friedenberg, Ebbe Munk, Hans
Schaefer, Judy McKay, Marie Walsh, Meile Posthuma, Mike Smith, Radoslaw Smilgin, Stephanie Ulrich,
Steve Toms, Corne Kruger, Dani Almog, Eric Riou du Cosquer, Igal Levi, Johan Klintin, Kenji Onishi,
Rashed Karim, Stevan Zivanovic, Sunny Kwon, Thomas Müller, Vipul Kocher, Yaron Tsubery y a todos los
Comités Miembro por sus sugerencias.
"ISTQB Working Group Foundation Level" (Edición 2018): Klaus Olsen (presidente), Tauhida Parveen
(vicepresidente), Rex Black (director de proyecto), Eshraka Zakaria, Debra Friedenberg, Ebbe Munk, Hans
Schaefer, Judy McKay, Marie Walsh, Meile Posthuma, Mike Smith, Radoslaw Smilgin, Stephanie Ulrich,
Steve Toms, Corne Kruger, Dani Almog, Eric Riou du Cosquer, Igal Levi, Johan Klintin, Kenji Onishi,
Rashed Karim, Stevan Zivanovic, Sunny Kwon, Thomas Müller, Vipul Kocher, Yaron Tsubery y a todos los
Comités Miembro por sus sugerencias.
"ISTQB Working Group Foundation Level" (Edición 2011): Thomas Müller (presidente), Debra Friedenberg.
El equipo central agradece al equipo revisor (Dan Almog, Armin Beer, Rex Black, Julie Gardiner, Judy
McKay, Tuula Pääkkönen, Eric Riou du Cosquier Hans Schaefer, Stephanie Ulrich, Erik van Veenendaal),
y a todos los Comités Miembro por las sugerencias para la versión actual del programa de estudio.
"ISTQB Working Group Foundation Level" (Edición 2005): Thomas Müller (presidente), Rex Black, Sigrid
Eldh, Dorothy Graham, Klaus Olsen, Maaret Pyhäjärvi, Geoff Thompson y Erik van Veenendaal. El equipo
principal da las gracias al equipo revisor y a todos los Comités Miembro por sus sugerencias.
N V I E
Spanish Software Testing Qualifications Board (SSTQB) ha llevado a cabo la traducción del Programa de
Estudio de “ISTQB® Certified Tester, Foundation Level” versión 4.0. Este Programa de Estudio se
denomina, en idioma español, “Probador Certificado de ISTQB® de Nivel Básico” versión 4.0.
El equipo de traducción y revisión para este programa de estudio es el siguiente (por orden alfabético):
El Comité Ejecutivo del SSTQB agradece especialmente las aportaciones de los revisores.
En una siguiente versión se podrán incorporar aportaciones adicionales. El SSTQB considera conveniente
mantener abierta la posibilidad de realizar cambios en el “Programa de Estudio”.
0 I
0.7 Acreditación
Un Comité Miembro de ISTQB® puede acreditar a los proveedores de formación cuyo material de curso
siga este programa de estudio. Los proveedores de formación deberán obtener las directrices de
acreditación del Comité Miembro u organismo que realice la acreditación. Un curso acreditado es
reconocido como conforme a este programa de estudio, y se le permite tener un examen ISTQB® como
parte del curso. Las directrices de acreditación para este programa de estudio siguen las "Accreditation
Guidelines" generales publicadas por el "Processes Management and Compliance Working Group".
0.9 Actualización
La industria del software cambia rápidamente. Para hacer frente a estos cambios y proporcionar a los
implicados acceso a información relevante y actualizada, los grupos de trabajo del ISTQB han creado
enlaces en la página web www.istqb.org, que hacen referencia a la documentación de apoyo y a los
cambios en los estándares. Esta información no es objeto de evaluación bajo el Programa de Estudio de
Nivel Básico.
1 F P P - 180
Duración: 180 minutos
Palabras Clave1
Español Inglés
cobertura coverage
depurar debugging
defecto defect
error error
fallo failure
calidad quality
aseguramiento de la calidad quality assurance
causa raíz root cause
análisis de prueba test analysis
base de prueba test basis
caso de prueba test case
1
Las palabras clave se encuentran ordenadas por orden alfabético de los términos en inglés.
validación validation
verificación verification
O A C 1
Los objetivos de prueba pueden variar en función del contexto, que incluye el producto de trabajo que se
está probando, el nivel de prueba, los riesgos, el ciclo de vida de desarrollo del software (SDLC) que se
está siguiendo y los factores relacionados con el contexto del negocio, por ejemplo, la estructura
corporativa, las consideraciones relativas a la competencia o el tiempo de comercialización.
Los defectos pueden encontrarse en la documentación, como una especificación de requisitos o un guion
de prueba, en el código fuente o en un artefacto de apoyo como un archivo de construcción. Los defectos
en los artefactos producidos al principio del CVDS, si no se detectan, suelen dar lugar a artefactos
defectuosos más adelante en el ciclo de vida. Si se ejecuta un defecto en el código, el sistema puede fallar
al hacer lo que debería hacer, o hacer algo que no debería, provocando un fallo. Algunos defectos siempre
darán lugar a un fallo si se ejecutan, mientras que otros sólo darán lugar a un fallo en circunstancias
específicas, y algunos puede que nunca den lugar a un fallo.
Los errores y los defectos no son la única causa de los fallos. Los fallos también pueden deberse a
condiciones ambientales, como cuando la radiación o el campo electromagnético provocan defectos en el
firmware.
Una causa raíz es una razón fundamental por la que se produce un problema (por ejemplo, una situación
que conduce a un error). Las causas raíz se identifican mediante el análisis de la causa raíz, que suele
realizarse cuando se produce un fallo o se identifica un defecto. Se cree que pueden evitarse otros fallos
o defectos similares o reducirse su frecuencia tratando la causa raíz, por ejemplo, eliminándola.
1. La prueba muestra la presencia de defectos, no su ausencia. La prueba puede mostrar que hay
defectos en el objeto de prueba, pero no puede demostrar que no los haya (Buxton 1970). La prueba
reduce la probabilidad de que queden defectos por descubrir en el objeto de prueba, pero aunque no
se encuentren defectos, la prueba no puede demostrar la corrección del objeto de prueba.
2. La prueba exhaustiva es imposible. Probarlo todo no es factible salvo en casos triviales (Manna
1978). En lugar de intentar probar exhaustivamente, deberían utilizarse técnicas de prueba (véase el
capítulo 4), priorización de casos de prueba (véase el apartado 5.1.5) y pruebas basadas en el riesgo
(véase el apartado 5.2), para concentrar los esfuerzos de prueba.
3. La prueba temprana ahorra tiempo y dinero. Los defectos que se eliminan al principio del proceso no
causarán defectos posteriores en los productos de trabajo derivados. El coste de la calidad se reducirá,
ya que se producirán menos fallos más adelante en el CVDS (Boehm 1981). Para encontrar defectos
en una fase temprana, tanto las pruebas estáticas (véase el capítulo 3) como las pruebas dinámicas
(véase el capítulo 4) deben iniciarse lo antes posible.
4. Los defectos se agrupan. Un pequeño número de componentes del sistema suelen contener la
mayoría de los defectos descubiertos o son responsables de la mayoría de los fallos operativos
(Enders 1975). Este fenómeno es una ilustración del principio de Pareto. Las agrupaciones de defectos
previstas, y las agrupaciones de defectos reales observadas durante la prueba o en operación, son
una entrada importante para la prueba basada en el riesgo (véase la sección 5.2).
5. Las pruebas se desgastan. Si las pruebas se repiten muchas veces, se vuelven cada vez más
ineficaces para detectar nuevos defectos (Beizer 1990). Para superar este efecto, puede que sea
necesario modificar las pruebas y los datos de prueba existentes, y que haya que escribir nuevas
pruebas. Sin embargo, en algunos casos, la repetición de las mismas pruebas puede tener un
resultado beneficioso, por ejemplo, en las pruebas de regresión automatizadas (véase la sección
2.2.3).
6. La prueba depende del contexto. No existe un único enfoque de prueba aplicable universalmente.
La prueba se realiza de forma diferente en distintos contextos (Kaner 2011).
7. Falacia de la ausencia de defectos. Es una falacia (es decir, una idea equivocada) esperar que la
verificación del software asegure el éxito de un sistema. Probar a fondo todos los requisitos
especificados y arreglar todos los defectos encontrados podría seguir produciendo un sistema que no
satisface las necesidades y expectativas de los usuarios, que no ayuda a conseguir los objetivos de
negocio del cliente y que es inferior en comparación con otros sistemas de la competencia. Además
de la verificación, también debe llevarse a cabo la validación (Boehm 1981).
Implementación de la Prueba.
La implementación de prueba incluye la creación o la adquisición de los productos de prueba
necesarios para la ejecución de prueba (por ejemplo, los datos de prueba). Los casos de prueba
pueden organizarse en procedimientos de prueba y suelen reunirse en conjuntos de prueba. Se
crean guiones de prueba manuales y automatizados. Se priorizan los procedimientos de prueba y
se organizan dentro de un calendario de ejecución de prueba para una ejecución de prueba
eficiente (véase la sección 5.1.5). Se construye el entorno de prueba y se verifica que está
configurado correctamente.
Ejecución de la Prueba.
La ejecución de la prueba incluye la realización de las pruebas de acuerdo con el calendario de
ejecución de prueba (ejecuciones de pruebas). La ejecución de una prueba puede ser manual o
automatizada. La ejecución de prueba puede adoptar muchas formas, incluidas la prueba continua
o sesiones de prueba en pareja. Los resultados de prueba reales se comparan con los resultados
esperados. Se registran los resultados de la prueba. Las anomalías se analizan para identificar
sus causas probables. Este análisis permite informar de las anomalías en función de los fallos
observados (véase el apartado 5.5).
Compleción de la Prueba.
Las actividades de compleción de la prueba suelen producirse en los hitos del proyecto (por
ejemplo, la entrega, el final de una iteración, la compleción del nivel de prueba) para cualquier
defecto no resuelto, solicitud de cambio o elemento de lista de trabajo acumulado del producto que
se haya creado. Cualquier producto de prueba que pueda ser útil en el futuro se identifica y se
archiva o se entrega a los equipos adecuados. Se desactiva el entorno de prueba hasta un estado
acordado. Se analizan las actividades de prueba para identificar las lecciones aprendidas y las
mejoras para futuras iteraciones, entregas o proyectos (véase la sección 2.1.6). Se crea un informe
de compleción de la prueba y se comunica a los implicados.
Estos factores influirán en muchos asuntos relacionados con la prueba, entre ellos: la estrategia de prueba,
las técnicas de prueba utilizadas, el grado de automatización de la prueba, el nivel de cobertura requerido,
el nivel de detalle de la documentación de prueba, el suministro de información, etc.
Minuciosidad, cuidado, curiosidad, atención a los detalles, ser metódico (para identificar defectos,
especialmente los difíciles de encontrar).
Buena competencia en el ámbito de la comunicación escucha activa, ser un jugador de equipo
(para interactuar eficazmente con todos los implicados, transmitir información a los demás,
hacerse entender e informar y discutir los defectos).
Pensamiento analítico, pensamiento crítico, creatividad (para aumentar la efectividad de las
pruebas).
Conocimientos técnicos (para aumentar la eficiencia de las pruebas, por ejemplo, utilizando
herramientas de prueba adecuadas).
Conocimientos del dominio (para poder comprender y comunicarse con los usuarios
finales/representantes de negocio).
A menudo, los probadores son los portadores de las malas noticias. Es un rasgo humano común culpar al
portador de malas noticias. Esto hace que las competencias de comunicación sean cruciales para los
probadores. Comunicar los resultados de prueba puede percibirse como una crítica al producto y a su
autor. El sesgo de confirmación puede dificultar la aceptación de información que discrepa de las creencias
actuales. Algunas personas pueden percibir las pruebas como una actividad destructiva, a pesar de que
contribuyen en gran medida al éxito del proyecto y a la calidad del producto. Para intentar mejorar esta
opinión, la información sobre defectos y fallos debe comunicarse de forma constructiva.
Dependiendo del contexto, el enfoque de equipo completo puede no ser siempre apropiado. Por ejemplo,
en algunas situaciones, como las críticas para la seguridad, puede necesitarse un alto nivel de
independencia en la prueba.
Palabras Clave2
Español Inglés
prueba de aceptación acceptance testing
Objetivos de A C 2
FL-2.1.1 (K2) Explicar el impacto del ciclo de vida de desarrollo de software elegido en la prueba.
Recordar las buenas prácticas de prueba que se aplican a todos los ciclos de vida
FL-2.1.2 (K1)
de desarrollo del software.
FL-2.1.3 (K1) Recordar los ejemplos de enfoques de prueba primero para el desarrollo.
2
Las palabras clave se encuentran ordenadas por orden alfabético de los términos en inglés.
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
Explicar cómo se pueden utilizar las retrospectivas como mecanismo para la mejora
FL-2.1.6 (K2)
del proceso.
2.2 Niveles de Prueba y Tipos de Prueba
FL-2.2.1 (K2) Distinguir los diferentes niveles de prueba.
FL-2.2.2 (K2) Distinguir los diferentes tipos de prueba.
FL-2.2.3 (K2) Distinguir la prueba de confirmación de la prueba de regresión.
2.3 Prueba de Mantenimiento
FL-2.3.1 (K2) Resumir la prueba de mantenimiento y sus desencadenantes.
Cada nivel de prueba (véase el capítulo 2.2.1) tiene objetivos de prueba específicos y diferentes,
lo que permite que las pruebas sean lo suficientemente comprensivas a la vez que se evita la
redundancia.
El análisis y diseño de prueba para un nivel de prueba determinado comienza durante la fase de
desarrollo correspondiente del CVDS, para que la prueba pueda atenerse al principio de prueba
temprana (véase la sección 1.3).
Los probadores participan en la revisión de los productos de trabajo tan pronto como están
disponibles los borradores de esta documentación, para que esta prueba temprana y la detección
de defectos puedan apoyar la estrategia de desplazamiento a la izquierda (véase la sección 2.1.5).
construir, probar y entregar código de alta calidad más rápidamente a través de un canal de entrega
DevOps (Kim 2016).
Desde el punto de vista de la prueba, algunas de las ventajas de DevOps son:
Rápida retroalimentación sobre la calidad del código y sobre si los cambios afectan negativamente
al código existente.
La integración continua IC promueve un enfoque de desplazamiento a la izquierda en la prueba
(véase la sección 2.1.5) animando a los desarrolladores a suministrar código de alta calidad
acompañado de pruebas de componentes y análisis estático.
Promueve procesos automatizados como CI/CD que facilitan el establecimiento de entornos de
prueba estables.
Aumenta la visión sobre las características de calidad no funcionales (por ejemplo, rendimiento,
fiabilidad).
La automatización a través de un canal de entrega reduce la necesidad de pruebas manuales
repetitivas.
El riesgo en la regresión se minimiza gracias a la escala y el alcance de las pruebas de regresión
automatizadas.
DevOps no está exento de riesgos y desafíos, entre los que se incluyen:
La tubería3 de entrega DevOps debe ser definida y establecida.
Las herramientas CI / CD deben ser introducidas y mantenidas.
La automatización de la prueba requiere recursos adicionales y puede ser difícil de establecer y
mantener.
Aunque DevOps llega con un alto nivel de pruebas automatizadas, la prueba manual - especialmente
desde la perspectiva del usuario - seguirá siendo necesaria.
3
Buscar/Confirmar traducción del término
Utilizar integración continua (IC) e incluso mejor entrega continua (EC), ya que aporta una
retroalimentación rápida y pruebas de componentes automatizadas para acompañar al código
fuente cuando se envía al repositorio de código.
Completar el análisis estático del código fuente antes de la prueba dinámica, o como parte de un
proceso automatizado.
Realizar pruebas no funcionales empezando en el nivel de prueba de componente, siempre que
sea posible. Se trata de una forma de desplazamiento a la izquierda, ya que estos tipos de pruebas
no funcionales tienden a realizarse más adelante en el CVDS, cuando se dispone de un sistema
completo y de un entorno de prueba representativo.
Un enfoque de desplazamiento a la izquierda puede dar lugar a formación, esfuerzo y/o costes adicionales
al principio del proceso, pero se espera que ahorre esfuerzos y/o costes con posterioridad.
Para el enfoque de desplazamiento a la izquierda es importante que los implicados estén convencidos y
asuman este concepto.
Con el fin de evitar el solapamiento de las actividades de prueba, los niveles de prueba se distinguen por
la siguiente lista no exhaustiva de atributos:
Objeto de prueba.
Objetivos de prueba.
Base de prueba.
Defectos y fallos.
Enfoque y responsabilidades.
Palabras Clave4
Español Inglés
anomalía anomaly
revisión review
análisis estático static analysis
prueba estática static testing
revisión técnica technical review
revisión guiada walkthrough
O A C 3
Reconocer los tipos de productos que pueden ser evaluados mediante las
FL-3.1.1 (K1)
diferentes técnicas de prueba estática.
4
Las palabras clave se encuentran ordenadas por orden alfabético de los términos en inglés.
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
comunicación entre los implicados. Por este motivo, se recomienda involucrar a una amplia variedad de
implicados en la prueba estática.
Aunque la implementación de las revisiones puede resultar costosa, los costes totales del proyecto suelen
ser mucho menores que cuando no se realizan revisiones, ya que se necesita dedicar menos tiempo y
esfuerzo a la corrección de defectos cuando el proyecto se encuentra más avanzado.
Los defectos de código pueden detectarse utilizando el análisis estático de forma más eficiente que en la
prueba dinámica, lo que suele dar lugar tanto a un menor número de defectos de código como a un menor
esfuerzo general de desarrollo.
decisión sobre su estado, propiedad y acciones requeridas. Esto suele hacerse en una reunión de
revisión, durante la cual los participantes también deciden cuál es el nivel de calidad del producto
del trabajo revisado y qué acciones de seguimiento se requieren. Puede ser necesaria una revisión
de seguimiento para completar las acciones.
Corrección y Suministro de Información.
Por cada defecto, debe crearse un informe de defecto para poder hacer un seguimiento de las
acciones correctivas. Una vez alcanzados los criterios de salida, el producto del trabajo puede ser
aceptado. Se informa de los resultados de la revisión.
o Una revisión guiada, dirigida por el autor, puede servir para muchos objetivos, como
evaluar la calidad y generar confianza en el producto del trabajo, educar a los revisores,
obtener consenso, generar nuevas ideas, motivar y capacitar a los autores para mejorar y
detectar anomalías. Los revisores pueden realizar una revisión individual antes de la
revisión guiada, pero no es un requisito.
Revisión Técnica.
o Una revisión técnica es realizada por revisores técnicamente cualificados y dirigida por un
moderador. Los objetivos de una revisión técnica son obtener consenso y tomar
decisiones sobre un problema técnico, pero también detectar anomalías, evaluar la calidad
y generar confianza en el producto del trabajo, generar nuevas ideas y motivar y permitir
a los autores mejorar.
Inspección.
o Como las inspecciones son el tipo de revisión más formal, siguen el proceso genérico
completo (véase la sección 3.2.2). El objetivo principal es encontrar el máximo número de
anomalías. Otros objetivos son evaluar la calidad, generar confianza en el producto del
trabajo y motivar y capacitar a los autores para mejorar. Se recopilan métricas y se utilizan
para mejorar el CVDS, incluido el proceso de inspección. En las inspecciones, el autor no
puede actuar como revisor o escriba.
Palabras Clave5
Español Inglés
criterios de aceptación acceptance criteria
O A C 4
FL-4.2.4 (K3) Utilizar prueba de transición de estado para obtener casos de prueba.
5
Las palabras clave se encuentran ordenadas por orden alfabético de los términos en inglés.
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
FL-4.5.2 (K2) Clasificar las diferentes opciones para escribir criterios de aceptación.
Utilizar el desarrollo guiado por prueba de aceptación (DGPA) para obtener casos
FL-4.5.3 (K3)
de prueba.
Una tabla de decisión completa tiene suficientes columnas para cubrir todas las combinaciones de
condiciones. La tabla puede simplificarse eliminando las columnas que contengan combinaciones de
condiciones inviables. La tabla también se puede minimizar fusionando en una sola columna las columnas
en las que algunas condiciones no afectan al resultado. Los algoritmos de minimización de tablas de
decisión están fuera del alcance de este programa de estudio.
En la prueba de tabla de decisión, los elementos de cobertura son las columnas que contienen
combinaciones de condiciones factibles. Para lograr una cobertura del 100% con esta técnica, los casos
de prueba deben practicar todas estas columnas. La cobertura se mide como el número de columnas
practicadas, dividido por el número total de columnas factibles, y se expresa en porcentaje.
El punto fuerte de la prueba de tabla de decisión es que proporciona un enfoque sistemático para identificar
todas las combinaciones de condiciones, algunas de las cuales podrían pasarse por alto de otro modo.
También ayuda a encontrar lagunas o contradicciones en los requisitos. Si hay muchas condiciones,
practicar todas las reglas de decisión puede llevar mucho tiempo, ya que el número de reglas crece
exponencialmente con el número de condiciones. En tal caso, para reducir el número de reglas que
necesitan ser practicadas, puede utilizarse una tabla de decisión minimizada o un enfoque basado en el
riesgo.
Probar sólo una transición no válida en un único caso de prueba ayuda a evitar el enmascaramiento de
defecto, es decir, una situación en la que un defecto impide la detección de otro. La cobertura se mide
como el número de transiciones válidas e inválidas practicadas o intentadas por los casos de prueba
ejecutados, dividido por el número total de transiciones válidas e inválidas, y se expresa en porcentaje.
La cobertura de todos los estados es más débil que la cobertura de las transiciones válidas, porque
normalmente puede lograrse sin practicar todas las transiciones. La cobertura de transiciones válidas es
el criterio de cobertura más utilizado. Lograr una cobertura completa de transiciones válidas garantiza una
cobertura completa de todos los estados. Lograr la cobertura completa de todas las transiciones garantiza
tanto la cobertura completa de todos los estados como la cobertura completa de las transiciones válidas y
debería ser un requisito mínimo para el software de misión y seguridad física críticas.
que si el software no implementa uno o más requisitos, la prueba de caja blanca puede no detectar los
defectos de omisión resultantes (Watson 1996).
Las técnicas de caja blanca pueden utilizarse en la prueba estática (por ejemplo, durante la realización de
simulacros de código). Son muy adecuadas para revisar código que aún no está listo para su ejecución
(Hetzel 1988), así como pseudocódigo y otra lógica de alto nivel o descendente que pueda modelarse con
un grafo del flujo de control.
Realizar sólo la prueba de caja negra no proporciona una medida de la cobertura de código real. Las
medidas de cobertura de caja blanca proporcionan una medición objetiva de la cobertura y aportan la
información necesaria para permitir que se generen pruebas adicionales que aumenten esta cobertura y,
posteriormente, aumenten la confianza en el código.
experiencia, conoce el dominio y posee un alto grado de competencias esenciales, como capacidad de
análisis, curiosidad y creatividad (véase el apartado 1.5.1).
La prueba exploratoria puede incorporar el uso de otras técnicas de prueba (por ejemplo, la partición de
equivalencia). Puede encontrar más información sobre las pruebas exploratorias en (Kaner 1999,
Whittaker 2009, Hendrickson 2013).
El formato más habitual de una historia de usuario es "Como [rol], quiero que se cumpla [objetivo], de modo
que pueda [valor de negocio resultante para el rol]", seguido de los criterios de aceptación.
La autoría colaborativa de la historia de usuario puede utilizar técnicas como la tormenta de ideas y los
mapas mentales. La colaboración permite al equipo obtener una visión compartida de lo que debe
entregarse, teniendo en cuenta tres perspectivas: el negocio, el desarrollo y la prueba.
Las buenas historias de usuario deben ser: Independientes, Negociables, Valiosas, Estimables, Pequeñas
y Comprobables (INVEST, en referencia a las iniciales de los términos en inglés: Independent, Negotiable,
Valuable, Estimable, Small and Testable). Si un implicado no sabe cómo probar una historia de usuario,
esto puede indicar que la historia de usuario no es lo suficientemente clara, o que no refleja algo valioso
para él, o que simplemente necesita ayuda para probarla (Wake 2003).
Español Inglés
Independiente I Independent
Negociable N Negotiable
Valioso/a V Valuable
Estimable E Estimable
Pequeño/a S Small
Capacidad de Prueba T Testable
6
En este caso y contexto, “cuartilla” es la traducción del término “card”. La traducción correcta sería
“tarjeta” pero se optó por cuartilla para conservar el mnemónico “3C”. Una cuartilla es una hoja de papel
de tamaño A5 (148mm x 210 mm).
comprensible para los implicados. Normalmente, los casos de prueba contienen frases en lenguaje natural
que incluyen las precondiciones necesarias (si las hay), las entradas y las postcondiciones.
Los casos de prueba deben cubrir todas las características de la historia de usuario y no deben ir más allá
de la historia. Sin embargo, los criterios de aceptación pueden detallar algunos de los problemas descritos
en la historia de usuario. Además, no debe haber dos casos de prueba que describan las mismas
características de la historia de usuario.
Cuando se capturan en un formato compatible con un marco de automatización de la prueba, los
desarrolladores pueden automatizar los casos de prueba escribiendo el código de apoyo a medida que
implementan la prestación descrita por una historia de usuario. Las pruebas de aceptación se convierten
entonces en requisitos ejecutables.
Palabras Clave7
Español Inglés
gestión de defectos defect management
7
Las palabras clave se encuentran ordenadas por orden alfabético de los términos en inglés.
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
O A C 5
FL-5.1.3 (K2) Comparar y contrastar los criterios de entrada y los criterios de salida.
FL-5.1.4 (K3) Utilizar técnicas de estimación para calcular el esfuerzo de prueba necesario.
Resumir los cuadrantes de prueba y sus relaciones con los niveles de prueba y los
FL-5.1.7 (K2)
tipos de prueba.
5.2 Gestión del Riesgo
Identificar el nivel de riesgo utilizando la probabilidad del riesgo y el impacto del
FL-5.2.1 (K1)
riesgo.
FL-5.2.2 (K2) Distinguir entre riesgos de proyecto y riesgos de producto.
Explicar cómo el análisis del riesgo de producto puede influir en la minuciosidad y
FL-5.2.3 (K2)
el alcance de las pruebas.
Explique qué medidas pueden tomarse en respuesta a los riesgos de producto
FL-5.2.4 (K2)
analizados.
asociado a las historias de usuario (véase el apartado 5.1.4), determinan el enfoque de la prueba y
planifican la prueba de la entrega.
La planificación de la iteración mira hacia el final de una única iteración y se ocupa de la lista de trabajo
acumulado de la iteración. Los probadores implicados en la planificación de la iteración participan en el
análisis detallado del riesgo de las historias de usuario, determinan la capacidad de ser probadas de las
historias de usuario, desglosan las historias de usuario en tareas (en particular, tareas de prueba), estiman
el esfuerzo de prueba para todas las tareas de prueba e identifican y perfeccionan los aspectos funcionales
y no funcionales del objeto de prueba.
actual se espera que el esfuerzo de desarrollo sea de 600 días-persona, el esfuerzo de prueba
puede estimarse en 400 días-persona.
Extrapolación.
En esta técnica basada en métricas, las mediciones se realizan lo antes posible en el proyecto
actual para recopilar los datos. Al disponer de suficientes observaciones, el esfuerzo necesario
para el trabajo restante puede aproximarse extrapolando estos datos (normalmente aplicando un
modelo matemático). Este método es muy adecuado en los CVDS iterativos. Por ejemplo, el
equipo puede extrapolar el esfuerzo de prueba en la próxima iteración como el esfuerzo medio de
las tres últimas iteraciones.
Delphi de Banda Ancha.
En esta técnica iterativa basada en la experiencia, los expertos realizan estimaciones basadas en
la experiencia. Cada experto, de forma aislada, estima el esfuerzo. Se recogen los resultados y si
hay desviaciones que se salen de los límites acordados, los expertos discuten sus estimaciones
actuales. A continuación, se pide a cada experto que haga una nueva estimación basada en esa
retroalimentación, de nuevo de forma aislada. Este proceso se repite hasta que se alcanza un
consenso. El póker de planificación es una variante del Delphi de Banda Ancha, utilizada
habitualmente en el desarrollo ágil de software. En el póker de planificación, las estimaciones
suelen hacerse utilizando cartas con números que representan el tamaño del esfuerzo.
Estimación de tres puntos.
En esta técnica basada en expertos, éstos realizan tres estimaciones: la estimación más optimista
(a), la estimación más probable (m) y la estimación más pesimista (b). La estimación final (E) es
su media aritmética ponderada. En la versión más popular de esta técnica, la estimación se calcula
como E = (a + 4*m + b) / 6. La ventaja de esta técnica es que permite a los expertos calcular el
error de medición: SD = (b - a) / 6. Por ejemplo, si las estimaciones (en horas-persona) son: a=6,
m=9 y b=18, entonces la estimación final es de 10±2 horas-persona (es decir, entre 8 y 12 horas-
persona), porque E = (6 + 4*9 + 18) / 6 = 10 y SD = (18 - 6) / 6 = 2.
Véase (Kan 2003, Koomen 2006, Westfall 2009) para estas y muchas otras técnicas de estimación de la
prueba.
de los requisitos son definidas por los implicados. Los casos de prueba relacionados con los
requisitos más importantes se ejecutan en primer lugar.
En condiciones ideales, los casos de prueba se ordenarían para su realización en función de sus niveles
de prioridad, utilizando, por ejemplo, una de las estrategias de priorización mencionadas. Sin embargo,
esta práctica puede no funcionar si los casos de prueba o las prestaciones que se están probando tienen
dependencias. Si un caso de prueba con una prioridad más alta depende de un caso de prueba con una
prioridad más baja, el caso de prueba de prioridad más baja debe ejecutarse primero.
El orden de ejecución de las pruebas también debe tener en cuenta la disponibilidad de recursos. Por
ejemplo, las herramientas de prueba necesarias, los entornos de prueba o las personas que sólo pueden
estar disponibles durante un periodo de tiempo específico.
Cuadrante Q3 (de cara al negocio, critica al producto). Este cuadrante contiene prueba
exploratoria, prueba de usabilidad y prueba de aceptación de usuario. Estas pruebas están
orientadas al usuario y suelen ser manuales.
Cuadrante Q4 (de cara a la tecnología, critica al producto). Este cuadrante contiene pruebas de
humo y pruebas no funcionales (excepto las pruebas de usabilidad). Estas pruebas suelen estar
automatizadas.
seguridad. Los riesgos de producto, cuando se producen, pueden dar lugar a diversas consecuencias
negativas, entre las que se incluyen:
Insatisfacción del usuario.
Pérdida de ingresos, confianza, reputación.
Daños a terceros.
Altos costes de mantenimiento, sobrecarga del servicio de asistencia técnica.
Sanciones penales.
En casos extremos, daños físicos, lesiones o incluso la muerte.
Con respecto al control del riesgo de producto, una vez analizado el riesgo, son posibles varias opciones
de respuesta al mismo, por ejemplo, mitigación del riesgo mediante la prueba, aceptación del riesgo,
transferencia del riesgo o plan de contingencia (Veenendaal 2012). Las medidas que pueden tomarse para
mitigar los riesgos de producto mediante la prueba son las siguientes:
Seleccionar a los probadores con el nivel adecuado de experiencia y competencia, apropiados
para un tipo de riesgo determinado.
Aplicar un nivel adecuado de independencia de la prueba.
Realizar revisiones y análisis estático.
Aplicar las técnicas de prueba y los niveles de cobertura adecuados.
Aplicar los tipos de prueba adecuados que aborden las características de calidad afectadas.
Realizar pruebas dinámicas, incluidas las pruebas de regresión.
Palabras Clave
Español Inglés
automatización de la prueba test automation
O A C 6
FL-6.1.1 (K2) Explicar cómo los distintos tipos de herramientas de prueba dan soporte a la prueba
8
“contenerización” es la traducción del término “containerization”. Esta traducción no es definitiva.
ISO/IEC/IEEE 29119-2 (2021) Software and systems engineering – Software testing – Part 2: Test processes
ISO/IEC/IEEE 29119-3 (2021) Software and systems engineering – Software testing – Part 3: Test documentation
ISO/IEC/IEEE 29119-4 (2021) Software and systems engineering – Software testing – Part 4: Test techniques
ISO/IEC 25010, (2011) Systems and software engineering – Systems and software Quality Requirements and
Evaluation (SQuaRE) System and software quality models
ISO/IEC 20246 (2017) Software and systems engineering – Work product reviews
ISO/IEC/IEEE 14764:2022 – Software engineering – Software life cycle processes – Maintenance ISO 31000 (2018)
Risk management – Principles and guidelines
6.4 Libros
Adzic, G. (2009) Bridging the Communication Gap: Specification by Example and Agile Acceptance Testing, Neuri
Limited
Ammann, P. and Offutt, J. (2016) Introduction to Software Testing (2e), Cambridge University Press
Andrews, M. and Whittaker, J. (2006) How to Break Web Software: Functional and Security Testing of Web
Applications and Web Services, Addison-Wesley Professional
Beck, K. (2003) Test Driven Development: By Example, Addison-Wesley
Beizer, B. (1990) Software Testing Techniques (2e), Van Nostrand Reinhold: Boston MA Boehm, B. (1981) Software
Engineering Economics, Prentice Hall, Englewood Cliffs, NJ
Buxton, J.N. and Randell B., eds (1970), Software Engineering Techniques. Report on a conference sponsored by
the NATO Science Committee, Rome, Italy, 27–31 October 1969, p. 16
Chelimsky, D. et al. (2010) The Rspec Book: Behaviour Driven Development with Rspec, Cucumber, and Friends,
The Pragmatic Bookshelf: Raleigh, NC
Cohn, M. (2009) Succeeding with Agile: Software Development Using Scrum, Addison-Wesley Copeland, L. (2004)
A Practitioner’s Guide to Software Test Design, Artech House: Norwood MA Craig, R. and Jaskiel, S. (2002)
Systematic Software Testing, Artech House: Norwood MA
Crispin, L. and Gregory, J. (2008) Agile Testing: A Practical Guide for Testers and Agile Teams, Pearson Education:
Boston MA
Forgács, I., and Kovács, A. (2019) Practical Test Design: Selection of traditional and automated test design
techniques, BCS, The Chartered Institute for IT
Gawande A. (2009) The Checklist Manifesto: How to Get Things Right, New York, NY: Metropolitan Books
Gärtner, M. (2011), ATDD by Example: A Practical Guide to Acceptance Test-Driven Development, Pearson
Education: Boston MA
Gilb, T., Graham, D. (1993) Software Inspection, Addison Wesley
Hendrickson, E. (2013) Explore It!: Reduce Risk and Increase Confidence with Exploratory Testing, The Pragmatic
Programmers
Hetzel, B. (1988) The Complete Guide to Software Testing, 2nd ed., John Wiley and Sons
Jeffries, R., Anderson, A., Hendrickson, C. (2000) Extreme Programming Installed, Addison-Wesley Professional
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
Jorgensen, P. (2014) Software Testing, A Craftsman’s Approach (4e), CRC Press: Boca Raton FL Kan, S. (2003)
Metrics and Models in Software Quality Engineering, 2nd ed., Addison-Wesley Kaner, C., Falk, J., and Nguyen,
H.Q. (1999) Testing Computer Software, 2nd ed., Wiley
Kaner, C., Bach, J., and Pettichord, B. (2011) Lessons Learned in Software Testing: A Context-Driven Approach, 1st
ed., Wiley
Kim, G., Humble, J., Debois, P. and Willis, J. (2016) The DevOps Handbook, Portland, OR
Koomen, T., van der Aalst, L., Broekman, B. and Vroon, M. (2006) TMap Next for result-driven testing, UTN
Publishers, The Netherlands
Myers, G. (2011) The Art of Software Testing, (3e), John Wiley & Sons: New York NY O’Regan, G. (2019) Concise
Guide to Software Testing, Springer Nature Switzerland Pressman, R.S. (2019) Software Engineering. A
Practitioner’s Approach, 9th ed., McGraw Hill
Roman, A. (2018) Thinking-Driven Testing. The Most Reasonable Approach to Quality Control, Springer Nature
Switzerland
Van Veenendaal, E (ed.) (2012) Practical Risk-Based Testing, The PRISMA Approach, UTN Publishers: The
Netherlands
Watson, A.H., Wallace, D.R. and McCabe, T.J. (1996) Structured Testing: A Testing Methodology Using the
Cyclomatic Complexity Metric, U.S. Dept. of Commerce, Technology Administration, NIST
Westfall, L. (2009) The Certified Software Quality Engineer Handbook, ASQ Quality Press Whittaker, J. (2002) How
to Break Software: A Practical Guide to Testing, Pearson
Whittaker, J. (2009) Exploratory Software Testing: Tips, Tricks, Tours, and Techniques to Guide Test Design,
Addison Wesley
Whittaker, J. and Thompson, H. (2003) How to Break Software Security, Addison Wesley Wiegers, K. (2001) Peer
Reviews in Software: A Practical Guide, Addison-Wesley Professional
Gawande A. (2009) The Checklist Manifesto: How to Get Things Right, New York, NY: Metropolitan Books
Gärtner, M. (2011), ATDD by Example: A Practical Guide to Acceptance Test-Driven Development, Pearson
Education: Boston MA
Gilb, T., Graham, D. (1993) Software Inspection, Addison Wesley
Hendrickson, E. (2013) Explore It!: Reduce Risk and Increase Confidence with Exploratory Testing, The Pragmatic
Programmers
Hetzel, B. (1988) The Complete Guide to Software Testing, 2nd ed., John Wiley and Sons
Jeffries, R., Anderson, A., Hendrickson, C. (2000) Extreme Programming Installed, Addison-Wesley Professional
Jorgensen, P. (2014) Software Testing, A Craftsman’s Approach (4e), CRC Press: Boca Raton FL Kan, S. (2003)
Metrics and Models in Software Quality Engineering, 2nd ed., Addison-Wesley Kaner, C., Falk, J., and Nguyen,
H.Q. (1999) Testing Computer Software, 2nd ed., Wiley
Kaner, C., Bach, J., and Pettichord, B. (2011) Lessons Learned in Software Testing: A Context-Driven Approach, 1st
ed., Wiley
Kim, G., Humble, J., Debois, P. and Willis, J. (2016) The DevOps Handbook, Portland, OR
Koomen, T., van der Aalst, L., Broekman, B. and Vroon, M. (2006) TMap Next for result-driven testing, UTN
Publishers, The Netherlands
Myers, G. (2011) The Art of Software Testing, (3e), John Wiley & Sons: New York NY O’Regan, G. (2019) Concise
Guide to Software Testing, Springer Nature Switzerland Pressman, R.S. (2019) Software Engineering. A
Practitioner’s Approach, 9th ed., McGraw Hill
Roman, A. (2018) Thinking-Driven Testing. The Most Reasonable Approach to Quality Control, Springer Nature
Switzerland
Van Veenendaal, E (ed.) (2012) Practical Risk-Based Testing, The PRISMA Approach, UTN Publishers: The
Netherlands
Watson, A.H., Wallace, D.R. and McCabe, T.J. (1996) Structured Testing: A Testing Methodology Using the
Cyclomatic Complexity Metric, U.S. Dept. of Commerce, Technology Administration, NIST
Westfall, L. (2009) The Certified Software Quality Engineer Handbook, ASQ Quality Press Whittaker, J. (2002) How
to Break Software: A Practical Guide to Testing, Pearson
Whittaker, J. (2009) Exploratory Software Testing: Tips, Tricks, Tours, and Techniques to Guide Test Design,
Addison Wesley
Whittaker, J. and Thompson, H. (2003) How to Break Software Security, Addison Wesley Wiegers, K. (2001) Peer
Reviews in Software: A Practical Guide, Addison-Wesley Professional
Black, R. (2017) Agile Testing Foundations, BCS Learning & Development Ltd: Swindon UK
Black, R. (2009) Managing the Testing Process (3e), John Wiley & Sons: New York NY
Buwalda, H. et al. (2001) Integrated Test Design and Automation, Addison Wesley: Reading MA
Copeland, L. (2004) A P ac e G de S f a e Test Design, Artech House: Norwood MA
Craig, R. and Jaskiel, S. (2002) Systematic Software Testing, Artech House: Norwood MA
Crispin, L. and Gregory, J. (2008) Agile Testing, Pearson Education: Boston MA
Fewster, M. and Graham, D. (1999) Software Test Automation, Addison Wesley: Harlow UK
Gilb, T. and Graham, D. (1993) Software Inspection, Addison Wesley: Reading MA
Graham, D. and Fewster, M. (2012) Experiences of Test Automation, Pearson Education: Boston MA
Gregory, J. and Crispin, L. (2015) More Agile Testing, Pearson Education: Boston MA
Jorgensen, P. (2014) S f a e Te , A C af a A ac (4e), CRC Press: Boca Raton FL
Kaner, C., Bach, J. and Pettichord, B. (2002) Lessons Learned in Software Testing, John Wiley & Sons:
New York NY
Kaner, C., Padmanabhan, S. and Hoffman, D. (2013) The Domain Testing Workbook, Context-Driven
Press: New York NY
Kramer, A., Legeard, B. (2016) Model-Based Testing Essentials: Guide to the ISTQB Certified Model-Based
Tester: Foundation Level, John Wiley & Sons: New York NY
Myers, G. (2011) The Art of Software Testing, (3e), John Wiley & Sons: New York NY
Sauer, C. (2000) “The Effectiveness of Software Development Technical Reviews: A Behaviorally Motivated
Program of Research,” IEEE Transactions on Software Engineering, Volume 26, Issue 1, pp 1-
Shull, F., Rus, I., Basili, V. July 2000. “How Perspective-Based Reading can Improve Requirement
Inspections.” IEEE Computer, Volume 33, Issue 7, pp 73-79
van Veenendaal, E. (ed.) (2004) The Testing Practitioner (Chapters 8 - 10), UTN Publishers: The
Netherlands
Wiegers, K. (2002) Peer Reviews in Software, Pearson Education: Boston MA
Weinberg, G. (2008) Perfect Software and Other Illusions about Testing, Dorset House: New York NY
FL - BO - 02
FL - BO - 03
FL - BO - 04
FL - BO - 05
FL - BO - 06
FL - BO - 07
FL - BO - 08
FL - BO - 09
FL - BO - 10
FL - BO - 11
FL - BO - 12
FL - BO - 13
FL - BO - 14
Resultados de Negocio: Nivel Básico
BO - 01 Comprender qué es probar y por qué es beneficioso 6
BO - 02 Comprender los conceptos fundamentales de la prueba de software 22
Identificar el enfoque de prueba y las actividades que se deben implementar en
BO - 03 6
función del contexto de prueba
BO - 04 Evaluar y mejorar la calidad de la documentación 9
BO - 05 Aumentar la efectividad y eficiencia de la prueba 20
BO - 06 Alinear el proceso de prueba con el ciclo de vida de desarrollo de software 6
BO - 07 Comprender los principios de gestión de la prueba 6
BO - 08 Redactar y comunicar informes de defectos claros y comprensibles 1
Comprender los factores que influyen en las prioridades y esfuerzos relacionados
BO - 09 7
con la prueba
BO - 10 Trabajar como parte de un equipo interfuncional 8
BO - 11 Conocer los riesgos y beneficios relacionados con la automatización de la prueba 1
BO - 12 Identificar las competencias esenciales necesarias para probar 5
BO - 13 Comprender el impacto del riesgo en las pruebas 4
BO - 14 Informar eficazmente sobre el avance y la calidad de la prueba 4
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
BUSINESS OUTCOMES
Nivel - K
FL - BO - 01
FL - BO - 02
FL - BO - 03
FL - BO - 04
FL - BO - 05
FL - BO - 06
FL - BO - 07
FL - BO - 08
FL - BO - 09
FL - BO - 10
FL - BO - 11
FL - BO - 12
FL - BO - 13
FL - BO - 14
Capítulo/
sección/
Objetivos de Aprendizaje
subsección
Capítulo 1 Fundamentos del Proceso de Prueba
1.1 ¿Qué es Probar?
1.1.1 Identificar objetivos de prueba característicos. K1 X
1.1.2 Diferenciar entre probar y depurar. K2 X
1.2 ¿Por qué es Necesario Probar?
1.2.1 Aportar ejemplos de por qué es necesario realizar pruebas. K2 X
1.2.2 Recordar la relación entre prueba y aseguramiento de la calidad. K1 X
1.2.3 Distinguir entre causa raíz, error, defecto y fallo. K2 X
1.3 Principios de la Prueba
1.3.1 Explicar los siete principios de la prueba. K2 X
1.4 Actividades de Prueba, Productos de Prueba y Roles de Prueba
1.4.1 Resumir las diferentes actividades y tareas de prueba. K2 X
1.4.2 Explicar el impacto del contexto en el proceso de prueba. K2 X X
1.4.3 Diferenciar el producto de prueba que soporta las actividades de prueba. K2 X
1.4.4 Explicar el valor de mantener la trazabilidad. K2 X X
1.4.5 Comparar los diferentes roles en la prueba. K2 X
Versión 4.0 Página 83 de 87 21 de abril de 2023
© International Software Testing Qualifications Board
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
1.5 Competencias Esenciales y Buenas Prácticas en la Prueba
1.5.1 Dar ejemplos de las competencias genéricas necesarias para probar. K2 X
1.5.2 Recordar las ventajas del enfoque de equipo completo. K1 X
1.5.3 Distinguir las ventajas e inconvenientes de la independencia de la prueba. K2 X
Capítulo 2 Prueba a lo Largo del Ciclo de Vida de Desarrollo de Software
2.1 La Prueba en el Contexto de un Ciclo de Vida de Desarrollo de Software
2.1.1 Explicar el impacto del ciclo de vida de desarrollo de software elegido en la prueba. K2 X
Recordar las buenas prácticas de prueba que se aplican a todos los ciclos de vida de desarrollo del
2.1.2 K1 X
software.
2.1.3 Recordar los ejemplos de enfoques de prueba primero para el desarrollo. K1 X
2.1.4 Resumir cómo DevOps puede tener un impacto en la prueba. K2 X X X X
2.1.5 Explicar el enfoque de desplazamiento a la izquierda. K2 X X
2.1.6 Explicar cómo se pueden utilizar las retrospectivas como mecanismo para la mejora del proceso. K2 X X
2.2 Niveles de Prueba y Tipos de Prueba
2.2.1 Distinguir los diferentes niveles de prueba. K2 X X
2.2.2 Distinguir los diferentes tipos de prueba. K2 X
2.2.3 Distinguir la prueba de confirmación de la prueba de regresión. K2 X
2.3 Prueba de Mantenimiento
2.3.1 Resumir la prueba de mantenimiento y sus desencadenantes. K2 X X
Capítulo 3 Prueba Estática
3.1 Prueba estática - Fundamentos
Versión 4.0 Página 84 de 87 21 de abril de 2023
© International Software Testing Qualifications Board
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
Reconocer los tipos de productos que pueden ser evaluados mediante las diferentes técnicas de
3.1.1 K1 X X
prueba estática.
3.1.2 Explicar el valor de la prueba estática. K2 X X X
3.1.3 Comparar y contrastar la prueba estática y la prueba dinámica. K2 X X
3.2 Retroalimentación y Proceso de Revisión
3.2.1 Identificar las ventajas de una retroalimentación temprana y frecuente de los implicados. K1 X X X
3.2.2 Resumir las actividades del proceso de revisión. K2 X X
3.2.3 Recordar qué responsabilidades se asignan a los principales roles a la hora de realizar revisiones. K1 X X
3.2.4 Comparar y contrastar los diferentes tipos de revisión. K2 X
3.2.5 Recordar los factores que contribuyen al éxito de una revisión. K1 X X
Capítulo 4 Análisis y Diseño de la Prueba
4.1 Introducción a las Técnicas de Prueba
4.1.1 Distinguir entre técnicas de prueba de caja negra, de caja blanca y basadas en la experiencia. K2 X
4.2 Técnicas de Prueba de Caja Negra
4.2.1 Utilizar partición de equivalencia para obtener casos de prueba. K3 X
4.2.2 Utilizar análisis del valor frontera para obtener casos de prueba. K3 X
4.2.3 Utilizar prueba de tabla de decisión para obtener casos de prueba. K3 X
4.2.4 Utilizar prueba de transición de estado para obtener casos de prueba. K3 X
4.3 Técnicas de Prueba de Caja Blanca
4.3.1 Explicar la prueba de sentencia. K2 X
Versión 4.0 Página 85 de 87 21 de abril de 2023
© International Software Testing Qualifications Board
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
4.3.2 Explicar la prueba de rama. K2 X
4.3.3 Explicar el valor de la prueba de caja blanca. K2 X X
4.4 Técnicas de Prueba Basadas en la Experiencia
4.4.1 Explicar la predicción de errores. K2 X
4.4.2 Explicar la prueba exploratoria. K2 X
4.4.3 Explicar la prueba basada en lista de comprobación. K2 X
4.5 Enfoques de Prueba Basados en la Colaboración
Explicar cómo escribir historias de usuario en colaboración con desarrolladores y representantes de
4.5.1 K2 X X
negocio.
4.5.2 Clasificar las diferentes opciones para escribir criterios de aceptación. K2 X
4.5.3 Utilizar el desarrollo guiado por prueba de aceptación (DGPA) para obtener casos de prueba. K3 X
Capítulo 5 Gestión de la Prueba
5.1 Planificación de la Prueba
5.1.1 Dar ejemplos del propósito y el contenido de un plan de prueba. K2 X X
5.1.2 Reconocer cómo un probador añade valor a la planificación de la iteración y de la entrega. K1 X X X
5.1.3 Comparar y contrastar los criterios de entrada y los criterios de salida. K2 X X X
5.1.4 Utilizar técnicas de estimación para calcular el esfuerzo de prueba necesario. K3 X X
5.1.5 Aplicar la priorización de casos de prueba. K3 X X
5.1.6 Recordar los conceptos de la pirámide de prueba. K1 X
5.1.7 Resumir los cuadrantes de prueba y sus relaciones con los niveles de prueba y los tipos de prueba. K2 X X
5.2 Gestión del Riesgo
Versión 4.0 Página 86 de 87 21 de abril de 2023
© International Software Testing Qualifications Board
International
Probador Certificado del ISTQB ® Software Testing
Programa de Estudio – Nivel Básico Qualifications Board
5.2.1 Identificar el nivel de riesgo utilizando la probabilidad del riesgo y el impacto del riesgo. K1 X X
5.2.2 Distinguir entre riesgos de proyecto y riesgos de producto. K2 X X
Explicar cómo el análisis del riesgo de producto puede influir en la minuciosidad y el alcance de las
5.2.3 K2 X X X
pruebas.
5.2.4 Explique qué medidas pueden tomarse en respuesta a los riesgos de producto analizados. K2 X X X
5.3 Monitorización de la Prueba, Control de la Prueba y Compleción de la Prueba
5.3.1 Recordar las métricas utilizadas para probar. K1 X X
5.3.2 Resumir los propósitos, el contenido y las audiencias de los informes de prueba. K2 X X X
5.3.3 Dar ejemplos de cómo comunicar el estado de la prueba. K2 X X
5.4 Gestión de la Configuración
5.4.1 Resumir cómo la gestión de la configuración apoya la prueba. K2 X X
5.5 Gestión de Defectos
5.5.1 Preparar un informe de defecto. K3 X X
Capítulo 6 Herramientas de Prueba
6.1 Herramientas de Apoyo a la Prueba
6.1.1 Explicar cómo los distintos tipos de herramientas de prueba dan soporte a la prueba. K2 X
6.2 Ventajas y Riesgos de la Automatización de la Prueba
6.2.1 Recordar las ventajas y los riesgos de la automatización de la prueba. K1 X X
Versión 4.0 Página 87 de 87 21 de abril de 2023
© International Software Testing Qualifications Board