狠狠撸shows by User: abstracta1 / http://www.slideshare.net/images/logo.gif 狠狠撸shows by User: abstracta1 / Mon, 17 Nov 2014 10:30:39 GMT 狠狠撸Share feed for 狠狠撸shows by User: abstracta1 Lecciones aprendidas desarrollando una plataforma de Mobile Monkey Testing https://es.slideshare.net/slideshow/lecciones-aprendidas-desarrollando-una-plataforma-de-mobile-monkey-testing/41659913 monkop-federicotoledo-141117103039-conversion-gate01
Las t茅cnicas de monkey testing generalmente implican la ejecuci贸n de est铆mulos aleatorios sobre un sistema bajo pruebas con el 煤nico prop贸sito de buscar situaciones de crash. Usar este tipo de t茅cnicas es bastante barato, y adem谩s es posible conseguir informaci贸n de valor sobre aspectos de calidad en forma temprana. T铆picamente, las herramientas existentes que usan estas t茅cnicas son capaces de proveer informaci贸n relacionada a robustez, mostrando la secuencia de pasoso ejecutada y los datos de entrada, y tal vez como informaci贸n adicional el log del sistema. Es bastante complicado para el desarrollador o el tester el encontrar la causa ra铆z, o reducir la cantidad de pasos necesarios para reproducir las situaciones de error detectadas. Implementar este tipo de herramientas no es trivial, m谩s si consideramos que las aplicaciones m贸viles y el testing de las mismas es algo que tiene muy pocos a帽os de desarrollo. Aqu铆 compartimos nuestra experiencia de implementar una plataforma opensource para pruebas de aplicaciones m贸viles usando monkey testing, buscando facilitar el uso y maximizar el beneficio de la informaci贸n a obtener. Esto incluye desde la automatizaci贸n de la exploraci贸n de un producto, la identificaci贸n autom谩tica de errores y hasta la obtenci贸n de m茅tricas 煤tiles para un desarrollador, y que le sirvan para detectar oportunidades de mejora y reducir as铆 el riesgo de la liberaci贸n al mercado. Hemos enfrentado diferentes problemas y desaf铆os, y as铆 identificamos una serie de beneficios y desventajas de usar estas t茅cnicas para este tipo de plataforma en particular que queremos compartir con la audiencia.]]>

Las t茅cnicas de monkey testing generalmente implican la ejecuci贸n de est铆mulos aleatorios sobre un sistema bajo pruebas con el 煤nico prop贸sito de buscar situaciones de crash. Usar este tipo de t茅cnicas es bastante barato, y adem谩s es posible conseguir informaci贸n de valor sobre aspectos de calidad en forma temprana. T铆picamente, las herramientas existentes que usan estas t茅cnicas son capaces de proveer informaci贸n relacionada a robustez, mostrando la secuencia de pasoso ejecutada y los datos de entrada, y tal vez como informaci贸n adicional el log del sistema. Es bastante complicado para el desarrollador o el tester el encontrar la causa ra铆z, o reducir la cantidad de pasos necesarios para reproducir las situaciones de error detectadas. Implementar este tipo de herramientas no es trivial, m谩s si consideramos que las aplicaciones m贸viles y el testing de las mismas es algo que tiene muy pocos a帽os de desarrollo. Aqu铆 compartimos nuestra experiencia de implementar una plataforma opensource para pruebas de aplicaciones m贸viles usando monkey testing, buscando facilitar el uso y maximizar el beneficio de la informaci贸n a obtener. Esto incluye desde la automatizaci贸n de la exploraci贸n de un producto, la identificaci贸n autom谩tica de errores y hasta la obtenci贸n de m茅tricas 煤tiles para un desarrollador, y que le sirvan para detectar oportunidades de mejora y reducir as铆 el riesgo de la liberaci贸n al mercado. Hemos enfrentado diferentes problemas y desaf铆os, y as铆 identificamos una serie de beneficios y desventajas de usar estas t茅cnicas para este tipo de plataforma en particular que queremos compartir con la audiencia.]]>
Mon, 17 Nov 2014 10:30:39 GMT https://es.slideshare.net/slideshow/lecciones-aprendidas-desarrollando-una-plataforma-de-mobile-monkey-testing/41659913 abstracta1@slideshare.net(abstracta1) Lecciones aprendidas desarrollando una plataforma de Mobile Monkey Testing abstracta1 Las t茅cnicas de monkey testing generalmente implican la ejecuci贸n de est铆mulos aleatorios sobre un sistema bajo pruebas con el 煤nico prop贸sito de buscar situaciones de crash. Usar este tipo de t茅cnicas es bastante barato, y adem谩s es posible conseguir informaci贸n de valor sobre aspectos de calidad en forma temprana. T铆picamente, las herramientas existentes que usan estas t茅cnicas son capaces de proveer informaci贸n relacionada a robustez, mostrando la secuencia de pasoso ejecutada y los datos de entrada, y tal vez como informaci贸n adicional el log del sistema. Es bastante complicado para el desarrollador o el tester el encontrar la causa ra铆z, o reducir la cantidad de pasos necesarios para reproducir las situaciones de error detectadas. Implementar este tipo de herramientas no es trivial, m谩s si consideramos que las aplicaciones m贸viles y el testing de las mismas es algo que tiene muy pocos a帽os de desarrollo. Aqu铆 compartimos nuestra experiencia de implementar una plataforma opensource para pruebas de aplicaciones m贸viles usando monkey testing, buscando facilitar el uso y maximizar el beneficio de la informaci贸n a obtener. Esto incluye desde la automatizaci贸n de la exploraci贸n de un producto, la identificaci贸n autom谩tica de errores y hasta la obtenci贸n de m茅tricas 煤tiles para un desarrollador, y que le sirvan para detectar oportunidades de mejora y reducir as铆 el riesgo de la liberaci贸n al mercado. Hemos enfrentado diferentes problemas y desaf铆os, y as铆 identificamos una serie de beneficios y desventajas de usar estas t茅cnicas para este tipo de plataforma en particular que queremos compartir con la audiencia. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/monkop-federicotoledo-141117103039-conversion-gate01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Las t茅cnicas de monkey testing generalmente implican la ejecuci贸n de est铆mulos aleatorios sobre un sistema bajo pruebas con el 煤nico prop贸sito de buscar situaciones de crash. Usar este tipo de t茅cnicas es bastante barato, y adem谩s es posible conseguir informaci贸n de valor sobre aspectos de calidad en forma temprana. T铆picamente, las herramientas existentes que usan estas t茅cnicas son capaces de proveer informaci贸n relacionada a robustez, mostrando la secuencia de pasoso ejecutada y los datos de entrada, y tal vez como informaci贸n adicional el log del sistema. Es bastante complicado para el desarrollador o el tester el encontrar la causa ra铆z, o reducir la cantidad de pasos necesarios para reproducir las situaciones de error detectadas. Implementar este tipo de herramientas no es trivial, m谩s si consideramos que las aplicaciones m贸viles y el testing de las mismas es algo que tiene muy pocos a帽os de desarrollo. Aqu铆 compartimos nuestra experiencia de implementar una plataforma opensource para pruebas de aplicaciones m贸viles usando monkey testing, buscando facilitar el uso y maximizar el beneficio de la informaci贸n a obtener. Esto incluye desde la automatizaci贸n de la exploraci贸n de un producto, la identificaci贸n autom谩tica de errores y hasta la obtenci贸n de m茅tricas 煤tiles para un desarrollador, y que le sirvan para detectar oportunidades de mejora y reducir as铆 el riesgo de la liberaci贸n al mercado. Hemos enfrentado diferentes problemas y desaf铆os, y as铆 identificamos una serie de beneficios y desventajas de usar estas t茅cnicas para este tipo de plataforma en particular que queremos compartir con la audiencia.
from Abstracta
]]>
1010 30 https://cdn.slidesharecdn.com/ss_thumbnails/monkop-federicotoledo-141117103039-conversion-gate01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Abstracta-CDA - TESTING: Automatizaci贸n y Performance - Herramientas para optimizar tiempos y garantizar calidad. https://es.slideshare.net/slideshow/abstractacda-testing-automatizacin-y-performance-herramientas-para-optimizar-tiempos-y-garantizar-calidad/40366782 resumencharlabsas-141016141207-conversion-gate02
]]>

]]>
Thu, 16 Oct 2014 14:12:07 GMT https://es.slideshare.net/slideshow/abstractacda-testing-automatizacin-y-performance-herramientas-para-optimizar-tiempos-y-garantizar-calidad/40366782 abstracta1@slideshare.net(abstracta1) Abstracta-CDA - TESTING: Automatizaci贸n y Performance - Herramientas para optimizar tiempos y garantizar calidad. abstracta1 <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/resumencharlabsas-141016141207-conversion-gate02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br>
from Abstracta
]]>
1255 6 https://cdn.slidesharecdn.com/ss_thumbnails/resumencharlabsas-141016141207-conversion-gate02-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Build and test all, lo nuevo de GXtest para Desarrolladores https://es.slideshare.net/slideshow/build-and-test-all-lo-nuevo-de-gxtest-para-desarrolladores/40175775 buildandtestalleventogx24-141012171510-conversion-gate01
Presentamos la nueva versi贸n de GXtest, que ayudar谩 al desarrollador en las pruebas que realiza a diario, para optimizar su tiempo y la calidad de sus implementaciones, de forma f谩cil, gratuita y sin salir de GeneXus. Adem谩s, mostraremos algunas nuevas herramientas para seguir potenciando a los testers, c贸mo realizar pruebas funcionales sobre aplicaciones para Smart Devices, y c贸mo generar pruebas de performance. Durante el proceso de desarrollo, continuamente estamos probando lo que implementamos, una y otra vez. Aunque sabemos cu谩les son los flujos y juegos de datos m谩s importantes para probar, el repetirlo en forma manual es sumamente tedioso y muchas veces imposible de hacer a conciencia debido a limitaciones de tiempo y otros recursos. 驴No ser铆a bueno... - que las pruebas se generasen autom谩ticamente a trav茅s de un 鈥渂ot贸n derecho -> Test鈥? - que las pruebas se ejecutasen autom谩ticamente mientras pensamos lo pr贸ximo que debemos implementar? - que pudi茅semos guardar esas pruebas en nuestra KB, editarlas y mejorarlas, y no tener que repensar todo cada vez? - que pudi茅semos hacer todo esto desde GeneXus y sin instalar otros programas?]]>

Presentamos la nueva versi贸n de GXtest, que ayudar谩 al desarrollador en las pruebas que realiza a diario, para optimizar su tiempo y la calidad de sus implementaciones, de forma f谩cil, gratuita y sin salir de GeneXus. Adem谩s, mostraremos algunas nuevas herramientas para seguir potenciando a los testers, c贸mo realizar pruebas funcionales sobre aplicaciones para Smart Devices, y c贸mo generar pruebas de performance. Durante el proceso de desarrollo, continuamente estamos probando lo que implementamos, una y otra vez. Aunque sabemos cu谩les son los flujos y juegos de datos m谩s importantes para probar, el repetirlo en forma manual es sumamente tedioso y muchas veces imposible de hacer a conciencia debido a limitaciones de tiempo y otros recursos. 驴No ser铆a bueno... - que las pruebas se generasen autom谩ticamente a trav茅s de un 鈥渂ot贸n derecho -> Test鈥? - que las pruebas se ejecutasen autom谩ticamente mientras pensamos lo pr贸ximo que debemos implementar? - que pudi茅semos guardar esas pruebas en nuestra KB, editarlas y mejorarlas, y no tener que repensar todo cada vez? - que pudi茅semos hacer todo esto desde GeneXus y sin instalar otros programas?]]>
Sun, 12 Oct 2014 17:15:10 GMT https://es.slideshare.net/slideshow/build-and-test-all-lo-nuevo-de-gxtest-para-desarrolladores/40175775 abstracta1@slideshare.net(abstracta1) Build and test all, lo nuevo de GXtest para Desarrolladores abstracta1 Presentamos la nueva versi贸n de GXtest, que ayudar谩 al desarrollador en las pruebas que realiza a diario, para optimizar su tiempo y la calidad de sus implementaciones, de forma f谩cil, gratuita y sin salir de GeneXus. Adem谩s, mostraremos algunas nuevas herramientas para seguir potenciando a los testers, c贸mo realizar pruebas funcionales sobre aplicaciones para Smart Devices, y c贸mo generar pruebas de performance. Durante el proceso de desarrollo, continuamente estamos probando lo que implementamos, una y otra vez. Aunque sabemos cu谩les son los flujos y juegos de datos m谩s importantes para probar, el repetirlo en forma manual es sumamente tedioso y muchas veces imposible de hacer a conciencia debido a limitaciones de tiempo y otros recursos. 驴No ser铆a bueno... - que las pruebas se generasen autom谩ticamente a trav茅s de un 鈥渂ot贸n derecho -> Test鈥? - que las pruebas se ejecutasen autom谩ticamente mientras pensamos lo pr贸ximo que debemos implementar? - que pudi茅semos guardar esas pruebas en nuestra KB, editarlas y mejorarlas, y no tener que repensar todo cada vez? - que pudi茅semos hacer todo esto desde GeneXus y sin instalar otros programas? <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/buildandtestalleventogx24-141012171510-conversion-gate01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Presentamos la nueva versi贸n de GXtest, que ayudar谩 al desarrollador en las pruebas que realiza a diario, para optimizar su tiempo y la calidad de sus implementaciones, de forma f谩cil, gratuita y sin salir de GeneXus. Adem谩s, mostraremos algunas nuevas herramientas para seguir potenciando a los testers, c贸mo realizar pruebas funcionales sobre aplicaciones para Smart Devices, y c贸mo generar pruebas de performance. Durante el proceso de desarrollo, continuamente estamos probando lo que implementamos, una y otra vez. Aunque sabemos cu谩les son los flujos y juegos de datos m谩s importantes para probar, el repetirlo en forma manual es sumamente tedioso y muchas veces imposible de hacer a conciencia debido a limitaciones de tiempo y otros recursos. 驴No ser铆a bueno... - que las pruebas se generasen autom谩ticamente a trav茅s de un 鈥渂ot贸n derecho -&gt; Test鈥? - que las pruebas se ejecutasen autom谩ticamente mientras pensamos lo pr贸ximo que debemos implementar? - que pudi茅semos guardar esas pruebas en nuestra KB, editarlas y mejorarlas, y no tener que repensar todo cada vez? - que pudi茅semos hacer todo esto desde GeneXus y sin instalar otros programas?
from Abstracta
]]>
405 14 https://cdn.slidesharecdn.com/ss_thumbnails/buildandtestalleventogx24-141012171510-conversion-gate01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
驴Por qu茅 automatizar? y 驴por qu茅 con GXtest? https://es.slideshare.net/slideshow/por-qu-automatizar-y-por-qu-con-gxtest/40150770 automatizarcongxtest-gx24-141011143232-conversion-gate02
Sumemos controles de calidad a nuestros sistemas, con menos riesgos y costos, automatizando con GXtest, sin necesidad de contratar habilidades especiales para el equipo. El objetivo de esta conferencia es exponer y demostrar con claridad las ventajas de automatizar con GXtest, derribando algunas afirmaciones t铆picas asociadas a la automatizaci贸n: 鈥淟a automatizaci贸n es costosa鈥 鈥淧ierdo mucho tiempo鈥 鈥淣ecesito habilidades en programaci贸n鈥 鈥淓s muy alta la curva de aprendizaje鈥 Adem谩s, podremos visualizar cu谩ndo es conveniente y por qu茅 automatizar pruebas funcionales de aplicaciones GeneXus con GXtest, sin exigir conocimientos de programaci贸n a los testers y sin largas capacitaciones; obteniendo beneficios adicionales en el proceso, como ser la generaci贸n de documentaci贸n de los casos de prueba o los scripts para pruebas de performance; tareas que insumen mucho tiempo al realizarlas manualmente. Esta charla fue expuesta por Gonzalo Brun y Mat铆as Reina en el marco del Encuentro Internacional de GeneXus 2014, #GX24]]>

Sumemos controles de calidad a nuestros sistemas, con menos riesgos y costos, automatizando con GXtest, sin necesidad de contratar habilidades especiales para el equipo. El objetivo de esta conferencia es exponer y demostrar con claridad las ventajas de automatizar con GXtest, derribando algunas afirmaciones t铆picas asociadas a la automatizaci贸n: 鈥淟a automatizaci贸n es costosa鈥 鈥淧ierdo mucho tiempo鈥 鈥淣ecesito habilidades en programaci贸n鈥 鈥淓s muy alta la curva de aprendizaje鈥 Adem谩s, podremos visualizar cu谩ndo es conveniente y por qu茅 automatizar pruebas funcionales de aplicaciones GeneXus con GXtest, sin exigir conocimientos de programaci贸n a los testers y sin largas capacitaciones; obteniendo beneficios adicionales en el proceso, como ser la generaci贸n de documentaci贸n de los casos de prueba o los scripts para pruebas de performance; tareas que insumen mucho tiempo al realizarlas manualmente. Esta charla fue expuesta por Gonzalo Brun y Mat铆as Reina en el marco del Encuentro Internacional de GeneXus 2014, #GX24]]>
Sat, 11 Oct 2014 14:32:32 GMT https://es.slideshare.net/slideshow/por-qu-automatizar-y-por-qu-con-gxtest/40150770 abstracta1@slideshare.net(abstracta1) 驴Por qu茅 automatizar? y 驴por qu茅 con GXtest? abstracta1 Sumemos controles de calidad a nuestros sistemas, con menos riesgos y costos, automatizando con GXtest, sin necesidad de contratar habilidades especiales para el equipo. El objetivo de esta conferencia es exponer y demostrar con claridad las ventajas de automatizar con GXtest, derribando algunas afirmaciones t铆picas asociadas a la automatizaci贸n: 鈥淟a automatizaci贸n es costosa鈥 鈥淧ierdo mucho tiempo鈥 鈥淣ecesito habilidades en programaci贸n鈥 鈥淓s muy alta la curva de aprendizaje鈥 Adem谩s, podremos visualizar cu谩ndo es conveniente y por qu茅 automatizar pruebas funcionales de aplicaciones GeneXus con GXtest, sin exigir conocimientos de programaci贸n a los testers y sin largas capacitaciones; obteniendo beneficios adicionales en el proceso, como ser la generaci贸n de documentaci贸n de los casos de prueba o los scripts para pruebas de performance; tareas que insumen mucho tiempo al realizarlas manualmente. Esta charla fue expuesta por Gonzalo Brun y Mat铆as Reina en el marco del Encuentro Internacional de GeneXus 2014, #GX24 <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/automatizarcongxtest-gx24-141011143232-conversion-gate02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Sumemos controles de calidad a nuestros sistemas, con menos riesgos y costos, automatizando con GXtest, sin necesidad de contratar habilidades especiales para el equipo. El objetivo de esta conferencia es exponer y demostrar con claridad las ventajas de automatizar con GXtest, derribando algunas afirmaciones t铆picas asociadas a la automatizaci贸n: 鈥淟a automatizaci贸n es costosa鈥 鈥淧ierdo mucho tiempo鈥 鈥淣ecesito habilidades en programaci贸n鈥 鈥淓s muy alta la curva de aprendizaje鈥 Adem谩s, podremos visualizar cu谩ndo es conveniente y por qu茅 automatizar pruebas funcionales de aplicaciones GeneXus con GXtest, sin exigir conocimientos de programaci贸n a los testers y sin largas capacitaciones; obteniendo beneficios adicionales en el proceso, como ser la generaci贸n de documentaci贸n de los casos de prueba o los scripts para pruebas de performance; tareas que insumen mucho tiempo al realizarlas manualmente. Esta charla fue expuesta por Gonzalo Brun y Mat铆as Reina en el marco del Encuentro Internacional de GeneXus 2014, #GX24
from Abstracta
]]>
345 2 https://cdn.slidesharecdn.com/ss_thumbnails/automatizarcongxtest-gx24-141011143232-conversion-gate02-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Herramientas de testing para aplicaciones GeneXus https://es.slideshare.net/slideshow/herramientas-de-testing-para-aplicaciones-genexus/40150671 herramientasdetestingparaaplicacionesgenexus-gx24v1-141011142743-conversion-gate02
En el mundo GeneXus se sabe bien que una herramienta puede mejorar la productividad en el desarrollo. Sucede lo mismo con el testing de aplicaciones, pero seguramente todos piensan en pruebas automatizadas cuando hablamos de herramientas de testing, pero en realidad hay mucho m谩s! En esta charla les queremos contar de varias herramientas que nos han sido de utilidad para diversas tareas de gesti贸n, documentaci贸n, generaci贸n de datos, registro de ideas de testing, ejecuci贸n de pruebas, entre otras. Charla expuesta por Andr茅s Curcio y Mat铆as Reina de Abstracta, en el marco del Encuentro Internacional de GeneXus 2014, #GX24]]>

En el mundo GeneXus se sabe bien que una herramienta puede mejorar la productividad en el desarrollo. Sucede lo mismo con el testing de aplicaciones, pero seguramente todos piensan en pruebas automatizadas cuando hablamos de herramientas de testing, pero en realidad hay mucho m谩s! En esta charla les queremos contar de varias herramientas que nos han sido de utilidad para diversas tareas de gesti贸n, documentaci贸n, generaci贸n de datos, registro de ideas de testing, ejecuci贸n de pruebas, entre otras. Charla expuesta por Andr茅s Curcio y Mat铆as Reina de Abstracta, en el marco del Encuentro Internacional de GeneXus 2014, #GX24]]>
Sat, 11 Oct 2014 14:27:43 GMT https://es.slideshare.net/slideshow/herramientas-de-testing-para-aplicaciones-genexus/40150671 abstracta1@slideshare.net(abstracta1) Herramientas de testing para aplicaciones GeneXus abstracta1 En el mundo GeneXus se sabe bien que una herramienta puede mejorar la productividad en el desarrollo. Sucede lo mismo con el testing de aplicaciones, pero seguramente todos piensan en pruebas automatizadas cuando hablamos de herramientas de testing, pero en realidad hay mucho m谩s! En esta charla les queremos contar de varias herramientas que nos han sido de utilidad para diversas tareas de gesti贸n, documentaci贸n, generaci贸n de datos, registro de ideas de testing, ejecuci贸n de pruebas, entre otras. Charla expuesta por Andr茅s Curcio y Mat铆as Reina de Abstracta, en el marco del Encuentro Internacional de GeneXus 2014, #GX24 <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/herramientasdetestingparaaplicacionesgenexus-gx24v1-141011142743-conversion-gate02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> En el mundo GeneXus se sabe bien que una herramienta puede mejorar la productividad en el desarrollo. Sucede lo mismo con el testing de aplicaciones, pero seguramente todos piensan en pruebas automatizadas cuando hablamos de herramientas de testing, pero en realidad hay mucho m谩s! En esta charla les queremos contar de varias herramientas que nos han sido de utilidad para diversas tareas de gesti贸n, documentaci贸n, generaci贸n de datos, registro de ideas de testing, ejecuci贸n de pruebas, entre otras. Charla expuesta por Andr茅s Curcio y Mat铆as Reina de Abstracta, en el marco del Encuentro Internacional de GeneXus 2014, #GX24
from Abstracta
]]>
656 1 https://cdn.slidesharecdn.com/ss_thumbnails/herramientasdetestingparaaplicacionesgenexus-gx24v1-141011142743-conversion-gate02-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Mobile testing, 驴c贸mo enfrentar los nuevos desaf铆os? https://es.slideshare.net/slideshow/mobile-testing-cmo-enfrentar-los-nuevos-desafos/40150484 ft-gs-mobiletesting-v5-141011141822-conversion-gate01
El testing de aplicaciones mobile es uno de los grandes desaf铆os que se presenta hoy en d铆a por la diversidad de dispositivos y configuraciones existentes. Asegurar que la aplicaci贸n funcione en todos los dispositivos, que sea r谩pida cuando la utilizan muchas personas y que sea segura, son las inquietudes e incertidumbres que nos atacan. 驴Qu茅 necesitamos saber? 驴En qu茅 herramientas nos podemos apoyar? 驴Qu茅 hay de nuevo con respecto al testing de los sistemas que venimos probando? 驴Qu茅 pasa con la usabilidad, c贸mo la probamos? Estas y otras preguntas son las que estaremos abordando en esta charla, compartiendo nuestras experiencias e investigaci贸n al respecto. Esta charla fue expuesta por Federico Toledo de Abstracta (www.abstracta.com.uy) y Guillermo Skrilec de GeneXus Consulting (www.genexusconsulting.com) en el marco del Encuentro Internacional GeneXus 2014 #GX24]]>

El testing de aplicaciones mobile es uno de los grandes desaf铆os que se presenta hoy en d铆a por la diversidad de dispositivos y configuraciones existentes. Asegurar que la aplicaci贸n funcione en todos los dispositivos, que sea r谩pida cuando la utilizan muchas personas y que sea segura, son las inquietudes e incertidumbres que nos atacan. 驴Qu茅 necesitamos saber? 驴En qu茅 herramientas nos podemos apoyar? 驴Qu茅 hay de nuevo con respecto al testing de los sistemas que venimos probando? 驴Qu茅 pasa con la usabilidad, c贸mo la probamos? Estas y otras preguntas son las que estaremos abordando en esta charla, compartiendo nuestras experiencias e investigaci贸n al respecto. Esta charla fue expuesta por Federico Toledo de Abstracta (www.abstracta.com.uy) y Guillermo Skrilec de GeneXus Consulting (www.genexusconsulting.com) en el marco del Encuentro Internacional GeneXus 2014 #GX24]]>
Sat, 11 Oct 2014 14:18:22 GMT https://es.slideshare.net/slideshow/mobile-testing-cmo-enfrentar-los-nuevos-desafos/40150484 abstracta1@slideshare.net(abstracta1) Mobile testing, 驴c贸mo enfrentar los nuevos desaf铆os? abstracta1 El testing de aplicaciones mobile es uno de los grandes desaf铆os que se presenta hoy en d铆a por la diversidad de dispositivos y configuraciones existentes. Asegurar que la aplicaci贸n funcione en todos los dispositivos, que sea r谩pida cuando la utilizan muchas personas y que sea segura, son las inquietudes e incertidumbres que nos atacan. 驴Qu茅 necesitamos saber? 驴En qu茅 herramientas nos podemos apoyar? 驴Qu茅 hay de nuevo con respecto al testing de los sistemas que venimos probando? 驴Qu茅 pasa con la usabilidad, c贸mo la probamos? Estas y otras preguntas son las que estaremos abordando en esta charla, compartiendo nuestras experiencias e investigaci贸n al respecto. Esta charla fue expuesta por Federico Toledo de Abstracta (www.abstracta.com.uy) y Guillermo Skrilec de GeneXus Consulting (www.genexusconsulting.com) en el marco del Encuentro Internacional GeneXus 2014 #GX24 <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/ft-gs-mobiletesting-v5-141011141822-conversion-gate01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> El testing de aplicaciones mobile es uno de los grandes desaf铆os que se presenta hoy en d铆a por la diversidad de dispositivos y configuraciones existentes. Asegurar que la aplicaci贸n funcione en todos los dispositivos, que sea r谩pida cuando la utilizan muchas personas y que sea segura, son las inquietudes e incertidumbres que nos atacan. 驴Qu茅 necesitamos saber? 驴En qu茅 herramientas nos podemos apoyar? 驴Qu茅 hay de nuevo con respecto al testing de los sistemas que venimos probando? 驴Qu茅 pasa con la usabilidad, c贸mo la probamos? Estas y otras preguntas son las que estaremos abordando en esta charla, compartiendo nuestras experiencias e investigaci贸n al respecto. Esta charla fue expuesta por Federico Toledo de Abstracta (www.abstracta.com.uy) y Guillermo Skrilec de GeneXus Consulting (www.genexusconsulting.com) en el marco del Encuentro Internacional GeneXus 2014 #GX24
from Abstracta
]]>
890 3 https://cdn.slidesharecdn.com/ss_thumbnails/ft-gs-mobiletesting-v5-141011141822-conversion-gate01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Mantenimiento y mejora continua de la performance de las aplicaciones https://es.slideshare.net/slideshow/mantenimiento-y-mejora-continua-de-la-performance-de-las-aplicaciones/40150395 mantenimientoymejoracontinuadelaperformancedelasaplicaciones-141011141252-conversion-gate02
驴C贸mo se puede garantizar que la performance de los sistemas no empeore con el transcurso del tiempo? Si un sistema hoy responde r谩pidamente, 驴eso garantiza que seguir谩 siendo as铆 en el futuro? De la misma forma que los sistemas, sus funcionalidades, el hardware, drivers, y sistemas operativos que les dan soporte van cambiando, tambi茅n lo hace la carga sobre el sistema. La carga, entendida como la cantidad de usuarios que accede al sistema, la forma en que los usuarios ejecutan las funcionalidades, y el volumen de datos que debe ser procesado por las solicitudes del negocio son todos ejemplos de elementos que van cambiando durante la vida de una aplicaci贸n inform谩tica. A medida que el contexto va cambiando, el sistema debe adaptarse para mantener la calidad de la performance en las respuestas a sus usuarios. Luego que un sistema es puesto en producci贸n comienza la etapa de mantenimiento. Para que el mantenimiento sea menor, se pueden realizar pruebas funcionales y no funcionales, con el objetivo de anticiparse a situaciones que ocurrir谩n en producci贸n. La etapa de mantenimiento se caracteriza por ser tan larga c贸mo la vida del sistema. En esta etapa es donde ocurren todas esas situaciones inesperadas y todos los cambios en el ambiente a los que debemos adaptarnos. Es importante entonces mantener una permanente monitorizaci贸n sobre los componentes del sistema con el objetivo de detectar problemas r谩pidamente y adaptar lo que sea necesario para solucionarlos. Monitorizaci贸n y revisi贸n de los tiempos de respuesta en los access logs de los servidores web y servidores de aplicaciones. Uso de los recursos (CPU, memoria, acceso a disco). Crecimiento de las tablas en la base de datos. Estos son algunos pocos ejemplos de indicadores que pueden ser monitorizados para conocer el sistema e identificar problemas. En esta charla veremos metodolog铆a, buenas pr谩cticas, herramientas 煤tiles y ejemplos para mantener y mejorar la performance durante la vida de los sistemas inform谩ticos. Esta charla fue expuesta por Simon de Uvarow en el marco del Encuentro Internacional GeneXus 2014, #GX24]]>

驴C贸mo se puede garantizar que la performance de los sistemas no empeore con el transcurso del tiempo? Si un sistema hoy responde r谩pidamente, 驴eso garantiza que seguir谩 siendo as铆 en el futuro? De la misma forma que los sistemas, sus funcionalidades, el hardware, drivers, y sistemas operativos que les dan soporte van cambiando, tambi茅n lo hace la carga sobre el sistema. La carga, entendida como la cantidad de usuarios que accede al sistema, la forma en que los usuarios ejecutan las funcionalidades, y el volumen de datos que debe ser procesado por las solicitudes del negocio son todos ejemplos de elementos que van cambiando durante la vida de una aplicaci贸n inform谩tica. A medida que el contexto va cambiando, el sistema debe adaptarse para mantener la calidad de la performance en las respuestas a sus usuarios. Luego que un sistema es puesto en producci贸n comienza la etapa de mantenimiento. Para que el mantenimiento sea menor, se pueden realizar pruebas funcionales y no funcionales, con el objetivo de anticiparse a situaciones que ocurrir谩n en producci贸n. La etapa de mantenimiento se caracteriza por ser tan larga c贸mo la vida del sistema. En esta etapa es donde ocurren todas esas situaciones inesperadas y todos los cambios en el ambiente a los que debemos adaptarnos. Es importante entonces mantener una permanente monitorizaci贸n sobre los componentes del sistema con el objetivo de detectar problemas r谩pidamente y adaptar lo que sea necesario para solucionarlos. Monitorizaci贸n y revisi贸n de los tiempos de respuesta en los access logs de los servidores web y servidores de aplicaciones. Uso de los recursos (CPU, memoria, acceso a disco). Crecimiento de las tablas en la base de datos. Estos son algunos pocos ejemplos de indicadores que pueden ser monitorizados para conocer el sistema e identificar problemas. En esta charla veremos metodolog铆a, buenas pr谩cticas, herramientas 煤tiles y ejemplos para mantener y mejorar la performance durante la vida de los sistemas inform谩ticos. Esta charla fue expuesta por Simon de Uvarow en el marco del Encuentro Internacional GeneXus 2014, #GX24]]>
Sat, 11 Oct 2014 14:12:52 GMT https://es.slideshare.net/slideshow/mantenimiento-y-mejora-continua-de-la-performance-de-las-aplicaciones/40150395 abstracta1@slideshare.net(abstracta1) Mantenimiento y mejora continua de la performance de las aplicaciones abstracta1 驴C贸mo se puede garantizar que la performance de los sistemas no empeore con el transcurso del tiempo? Si un sistema hoy responde r谩pidamente, 驴eso garantiza que seguir谩 siendo as铆 en el futuro? De la misma forma que los sistemas, sus funcionalidades, el hardware, drivers, y sistemas operativos que les dan soporte van cambiando, tambi茅n lo hace la carga sobre el sistema. La carga, entendida como la cantidad de usuarios que accede al sistema, la forma en que los usuarios ejecutan las funcionalidades, y el volumen de datos que debe ser procesado por las solicitudes del negocio son todos ejemplos de elementos que van cambiando durante la vida de una aplicaci贸n inform谩tica. A medida que el contexto va cambiando, el sistema debe adaptarse para mantener la calidad de la performance en las respuestas a sus usuarios. Luego que un sistema es puesto en producci贸n comienza la etapa de mantenimiento. Para que el mantenimiento sea menor, se pueden realizar pruebas funcionales y no funcionales, con el objetivo de anticiparse a situaciones que ocurrir谩n en producci贸n. La etapa de mantenimiento se caracteriza por ser tan larga c贸mo la vida del sistema. En esta etapa es donde ocurren todas esas situaciones inesperadas y todos los cambios en el ambiente a los que debemos adaptarnos. Es importante entonces mantener una permanente monitorizaci贸n sobre los componentes del sistema con el objetivo de detectar problemas r谩pidamente y adaptar lo que sea necesario para solucionarlos. Monitorizaci贸n y revisi贸n de los tiempos de respuesta en los access logs de los servidores web y servidores de aplicaciones. Uso de los recursos (CPU, memoria, acceso a disco). Crecimiento de las tablas en la base de datos. Estos son algunos pocos ejemplos de indicadores que pueden ser monitorizados para conocer el sistema e identificar problemas. En esta charla veremos metodolog铆a, buenas pr谩cticas, herramientas 煤tiles y ejemplos para mantener y mejorar la performance durante la vida de los sistemas inform谩ticos. Esta charla fue expuesta por Simon de Uvarow en el marco del Encuentro Internacional GeneXus 2014, #GX24 <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/mantenimientoymejoracontinuadelaperformancedelasaplicaciones-141011141252-conversion-gate02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> 驴C贸mo se puede garantizar que la performance de los sistemas no empeore con el transcurso del tiempo? Si un sistema hoy responde r谩pidamente, 驴eso garantiza que seguir谩 siendo as铆 en el futuro? De la misma forma que los sistemas, sus funcionalidades, el hardware, drivers, y sistemas operativos que les dan soporte van cambiando, tambi茅n lo hace la carga sobre el sistema. La carga, entendida como la cantidad de usuarios que accede al sistema, la forma en que los usuarios ejecutan las funcionalidades, y el volumen de datos que debe ser procesado por las solicitudes del negocio son todos ejemplos de elementos que van cambiando durante la vida de una aplicaci贸n inform谩tica. A medida que el contexto va cambiando, el sistema debe adaptarse para mantener la calidad de la performance en las respuestas a sus usuarios. Luego que un sistema es puesto en producci贸n comienza la etapa de mantenimiento. Para que el mantenimiento sea menor, se pueden realizar pruebas funcionales y no funcionales, con el objetivo de anticiparse a situaciones que ocurrir谩n en producci贸n. La etapa de mantenimiento se caracteriza por ser tan larga c贸mo la vida del sistema. En esta etapa es donde ocurren todas esas situaciones inesperadas y todos los cambios en el ambiente a los que debemos adaptarnos. Es importante entonces mantener una permanente monitorizaci贸n sobre los componentes del sistema con el objetivo de detectar problemas r谩pidamente y adaptar lo que sea necesario para solucionarlos. Monitorizaci贸n y revisi贸n de los tiempos de respuesta en los access logs de los servidores web y servidores de aplicaciones. Uso de los recursos (CPU, memoria, acceso a disco). Crecimiento de las tablas en la base de datos. Estos son algunos pocos ejemplos de indicadores que pueden ser monitorizados para conocer el sistema e identificar problemas. En esta charla veremos metodolog铆a, buenas pr谩cticas, herramientas 煤tiles y ejemplos para mantener y mejorar la performance durante la vida de los sistemas inform谩ticos. Esta charla fue expuesta por Simon de Uvarow en el marco del Encuentro Internacional GeneXus 2014, #GX24
from Abstracta
]]>
955 2 https://cdn.slidesharecdn.com/ss_thumbnails/mantenimientoymejoracontinuadelaperformancedelasaplicaciones-141011141252-conversion-gate02-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Los superpoderes de la interfaz. C贸mo el dise帽o convierte al usuario en Superh茅roe o Villano. https://es.slideshare.net/slideshow/los-superpoderes-de-la-interfaz-cmo-el-diseo-convierte-al-usuario-en-superhroe-o-villano/40141450 presentacionppt-141011060330-conversion-gate02
Un gran poder conlleva una gran responsabilidad. La interfaz es la cara visible, el punto de acceso, la presentaci贸n y la imagen no solo de la aplicaci贸n, sino de la empresa que la hizo. Eso es un gran poder, y a su vez tiene una gran responsabilidad. A su vez, le estamos dando al usuario ese poder, y 茅ste puede ser feliz o puede frustrarse y pasar al lado oscuro. Est谩 de moda hablar de usabilidad, de que hay que hacer sitios y sistemas y aplicaciones usables, pero 驴c贸mo lo hacemos? En esta charla veremos de forma general qu茅 es el dise帽o, vi茅ndolo como el dominio de la interfaz, para luego ver paradigmas del dise帽o, aplicado a UI de sistemas. Todo esto lo veremos aplicado a un sistema real para poder ver c贸mo aplicamos cada uno de los paradigmas que comentaremos, y as铆 a trav茅s de ese concepto mostrar buenas y malas pr谩cticas en el dise帽o de interfaz, a trav茅s de ejemplos conocidos, haciendo la charla m谩s din谩mica y simp谩tica, llev谩ndola al producto final, contando con usuarios felices y con superpoderes. Esta charla fue expuesta en marco del Encuentro Internacional GeneXus en 2014, #GX24 Oradores Federico Toledo (www.abstracta.com.uy) Sebasti谩n Mart铆nez (www.sintropia.com.uy) El punto principal transmitido en la charla fue: Al hacer aplicaciones el foco tiene que estar en el usuario, por m谩s que haya otros problemas a resolver. Al usuario no le importa que haya un servidor conectado con no s茅 qu茅, que hace no s茅 qu茅 algoritmo. El usuario est谩 interesado por la tarea que debe hacer y la interaccion con la herramienta realizarlo debe ser lo m谩s c贸moda posible. A modo de validaci贸n de la idea, presentamos Monkop (monkop.com), a la cual le estamos poniendo foco en el dise帽o desde sus inicios. Monkop es una herramienta/servicio que permite mejorar la calidad de las aplicaciones m贸viles a cero esfuerzo. Se sube un APK (aplicaci贸n m贸vil para instalar) a la p谩gina, y con t茅cnicas de monkey testing logra explorarla y capturar m茅tricas de performance, seguridad, robustez, verifica que se sigan las buenas pr谩cticas, etc. As铆 genera un reporte que env铆a al usuario interesado, con oportunidades de mejora detectadas.]]>

Un gran poder conlleva una gran responsabilidad. La interfaz es la cara visible, el punto de acceso, la presentaci贸n y la imagen no solo de la aplicaci贸n, sino de la empresa que la hizo. Eso es un gran poder, y a su vez tiene una gran responsabilidad. A su vez, le estamos dando al usuario ese poder, y 茅ste puede ser feliz o puede frustrarse y pasar al lado oscuro. Est谩 de moda hablar de usabilidad, de que hay que hacer sitios y sistemas y aplicaciones usables, pero 驴c贸mo lo hacemos? En esta charla veremos de forma general qu茅 es el dise帽o, vi茅ndolo como el dominio de la interfaz, para luego ver paradigmas del dise帽o, aplicado a UI de sistemas. Todo esto lo veremos aplicado a un sistema real para poder ver c贸mo aplicamos cada uno de los paradigmas que comentaremos, y as铆 a trav茅s de ese concepto mostrar buenas y malas pr谩cticas en el dise帽o de interfaz, a trav茅s de ejemplos conocidos, haciendo la charla m谩s din谩mica y simp谩tica, llev谩ndola al producto final, contando con usuarios felices y con superpoderes. Esta charla fue expuesta en marco del Encuentro Internacional GeneXus en 2014, #GX24 Oradores Federico Toledo (www.abstracta.com.uy) Sebasti谩n Mart铆nez (www.sintropia.com.uy) El punto principal transmitido en la charla fue: Al hacer aplicaciones el foco tiene que estar en el usuario, por m谩s que haya otros problemas a resolver. Al usuario no le importa que haya un servidor conectado con no s茅 qu茅, que hace no s茅 qu茅 algoritmo. El usuario est谩 interesado por la tarea que debe hacer y la interaccion con la herramienta realizarlo debe ser lo m谩s c贸moda posible. A modo de validaci贸n de la idea, presentamos Monkop (monkop.com), a la cual le estamos poniendo foco en el dise帽o desde sus inicios. Monkop es una herramienta/servicio que permite mejorar la calidad de las aplicaciones m贸viles a cero esfuerzo. Se sube un APK (aplicaci贸n m贸vil para instalar) a la p谩gina, y con t茅cnicas de monkey testing logra explorarla y capturar m茅tricas de performance, seguridad, robustez, verifica que se sigan las buenas pr谩cticas, etc. As铆 genera un reporte que env铆a al usuario interesado, con oportunidades de mejora detectadas.]]>
Sat, 11 Oct 2014 06:03:30 GMT https://es.slideshare.net/slideshow/los-superpoderes-de-la-interfaz-cmo-el-diseo-convierte-al-usuario-en-superhroe-o-villano/40141450 abstracta1@slideshare.net(abstracta1) Los superpoderes de la interfaz. C贸mo el dise帽o convierte al usuario en Superh茅roe o Villano. abstracta1 Un gran poder conlleva una gran responsabilidad. La interfaz es la cara visible, el punto de acceso, la presentaci贸n y la imagen no solo de la aplicaci贸n, sino de la empresa que la hizo. Eso es un gran poder, y a su vez tiene una gran responsabilidad. A su vez, le estamos dando al usuario ese poder, y 茅ste puede ser feliz o puede frustrarse y pasar al lado oscuro. Est谩 de moda hablar de usabilidad, de que hay que hacer sitios y sistemas y aplicaciones usables, pero 驴c贸mo lo hacemos? En esta charla veremos de forma general qu茅 es el dise帽o, vi茅ndolo como el dominio de la interfaz, para luego ver paradigmas del dise帽o, aplicado a UI de sistemas. Todo esto lo veremos aplicado a un sistema real para poder ver c贸mo aplicamos cada uno de los paradigmas que comentaremos, y as铆 a trav茅s de ese concepto mostrar buenas y malas pr谩cticas en el dise帽o de interfaz, a trav茅s de ejemplos conocidos, haciendo la charla m谩s din谩mica y simp谩tica, llev谩ndola al producto final, contando con usuarios felices y con superpoderes. Esta charla fue expuesta en marco del Encuentro Internacional GeneXus en 2014, #GX24 Oradores Federico Toledo (www.abstracta.com.uy) Sebasti谩n Mart铆nez (www.sintropia.com.uy) El punto principal transmitido en la charla fue: Al hacer aplicaciones el foco tiene que estar en el usuario, por m谩s que haya otros problemas a resolver. Al usuario no le importa que haya un servidor conectado con no s茅 qu茅, que hace no s茅 qu茅 algoritmo. El usuario est谩 interesado por la tarea que debe hacer y la interaccion con la herramienta realizarlo debe ser lo m谩s c贸moda posible. A modo de validaci贸n de la idea, presentamos Monkop (monkop.com), a la cual le estamos poniendo foco en el dise帽o desde sus inicios. Monkop es una herramienta/servicio que permite mejorar la calidad de las aplicaciones m贸viles a cero esfuerzo. Se sube un APK (aplicaci贸n m贸vil para instalar) a la p谩gina, y con t茅cnicas de monkey testing logra explorarla y capturar m茅tricas de performance, seguridad, robustez, verifica que se sigan las buenas pr谩cticas, etc. As铆 genera un reporte que env铆a al usuario interesado, con oportunidades de mejora detectadas. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/presentacionppt-141011060330-conversion-gate02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Un gran poder conlleva una gran responsabilidad. La interfaz es la cara visible, el punto de acceso, la presentaci贸n y la imagen no solo de la aplicaci贸n, sino de la empresa que la hizo. Eso es un gran poder, y a su vez tiene una gran responsabilidad. A su vez, le estamos dando al usuario ese poder, y 茅ste puede ser feliz o puede frustrarse y pasar al lado oscuro. Est谩 de moda hablar de usabilidad, de que hay que hacer sitios y sistemas y aplicaciones usables, pero 驴c贸mo lo hacemos? En esta charla veremos de forma general qu茅 es el dise帽o, vi茅ndolo como el dominio de la interfaz, para luego ver paradigmas del dise帽o, aplicado a UI de sistemas. Todo esto lo veremos aplicado a un sistema real para poder ver c贸mo aplicamos cada uno de los paradigmas que comentaremos, y as铆 a trav茅s de ese concepto mostrar buenas y malas pr谩cticas en el dise帽o de interfaz, a trav茅s de ejemplos conocidos, haciendo la charla m谩s din谩mica y simp谩tica, llev谩ndola al producto final, contando con usuarios felices y con superpoderes. Esta charla fue expuesta en marco del Encuentro Internacional GeneXus en 2014, #GX24 Oradores Federico Toledo (www.abstracta.com.uy) Sebasti谩n Mart铆nez (www.sintropia.com.uy) El punto principal transmitido en la charla fue: Al hacer aplicaciones el foco tiene que estar en el usuario, por m谩s que haya otros problemas a resolver. Al usuario no le importa que haya un servidor conectado con no s茅 qu茅, que hace no s茅 qu茅 algoritmo. El usuario est谩 interesado por la tarea que debe hacer y la interaccion con la herramienta realizarlo debe ser lo m谩s c贸moda posible. A modo de validaci贸n de la idea, presentamos Monkop (monkop.com), a la cual le estamos poniendo foco en el dise帽o desde sus inicios. Monkop es una herramienta/servicio que permite mejorar la calidad de las aplicaciones m贸viles a cero esfuerzo. Se sube un APK (aplicaci贸n m贸vil para instalar) a la p谩gina, y con t茅cnicas de monkey testing logra explorarla y capturar m茅tricas de performance, seguridad, robustez, verifica que se sigan las buenas pr谩cticas, etc. As铆 genera un reporte que env铆a al usuario interesado, con oportunidades de mejora detectadas.
from Abstracta
]]>
512 1 https://cdn.slidesharecdn.com/ss_thumbnails/presentacionppt-141011060330-conversion-gate02-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Testing t茅cnico - Automatizaci贸n en web y mobile para pruebas funcionales y performance https://es.slideshare.net/slideshow/testing-tcnico-automatizacin-en-web-y-mobile-para-pruebas-funcionales-y-performance/35226080 testingtcnico-140528125130-phpapp01
Introducci贸n a distintos aspectos de calidad y testing de software, enfocando en ciertos puntos desarrollados en Abstracta: - testing automatizado (Selenium, GXtest, JUnit) - generaci贸n de pruebas con model driven approaches usando UML, UTP, ATL (model to model) y Acceleo (Model to Text) - smart monkey testing (Monkop - monkop.com) para probar autom谩ticamente aplicaciones Android - pruebas de performance con OpenSTA De esta forma mostramos c贸mo estamos volcando la empresa a la investigaci贸n en la industria, investigaci贸n en la academia, desarrollo de productos y servicios de alto valor agregado.]]>

Introducci贸n a distintos aspectos de calidad y testing de software, enfocando en ciertos puntos desarrollados en Abstracta: - testing automatizado (Selenium, GXtest, JUnit) - generaci贸n de pruebas con model driven approaches usando UML, UTP, ATL (model to model) y Acceleo (Model to Text) - smart monkey testing (Monkop - monkop.com) para probar autom谩ticamente aplicaciones Android - pruebas de performance con OpenSTA De esta forma mostramos c贸mo estamos volcando la empresa a la investigaci贸n en la industria, investigaci贸n en la academia, desarrollo de productos y servicios de alto valor agregado.]]>
Wed, 28 May 2014 12:51:30 GMT https://es.slideshare.net/slideshow/testing-tcnico-automatizacin-en-web-y-mobile-para-pruebas-funcionales-y-performance/35226080 abstracta1@slideshare.net(abstracta1) Testing t茅cnico - Automatizaci贸n en web y mobile para pruebas funcionales y performance abstracta1 Introducci贸n a distintos aspectos de calidad y testing de software, enfocando en ciertos puntos desarrollados en Abstracta: - testing automatizado (Selenium, GXtest, JUnit) - generaci贸n de pruebas con model driven approaches usando UML, UTP, ATL (model to model) y Acceleo (Model to Text) - smart monkey testing (Monkop - monkop.com) para probar autom谩ticamente aplicaciones Android - pruebas de performance con OpenSTA De esta forma mostramos c贸mo estamos volcando la empresa a la investigaci贸n en la industria, investigaci贸n en la academia, desarrollo de productos y servicios de alto valor agregado. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/testingtcnico-140528125130-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Introducci贸n a distintos aspectos de calidad y testing de software, enfocando en ciertos puntos desarrollados en Abstracta: - testing automatizado (Selenium, GXtest, JUnit) - generaci贸n de pruebas con model driven approaches usando UML, UTP, ATL (model to model) y Acceleo (Model to Text) - smart monkey testing (Monkop - monkop.com) para probar autom谩ticamente aplicaciones Android - pruebas de performance con OpenSTA De esta forma mostramos c贸mo estamos volcando la empresa a la investigaci贸n en la industria, investigaci贸n en la academia, desarrollo de productos y servicios de alto valor agregado.
from Abstracta
]]>
3590 89 https://cdn.slidesharecdn.com/ss_thumbnails/testingtcnico-140528125130-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
VLCtesting 2013 - Comprobando y refutando las promesas del testing automatizado - Federico Toledo https://es.slideshare.net/slideshow/10-vlctesting2013testing-automatizadofedericotoledocon-comentarios/28356422 10-vlctesting2013-testingautomatizado-federicotoledo-concomentarios-131118011417-phpapp01
http://www.vlctesting.es/ Es importante que los usuarios conf铆en en el software que desarrollamos, y no hay mejor camino que prob谩ndolo. Para probar software siempre se habla de que el testing automatizado es un camino para acelerar, ser m谩s eficiente, reducir costos, reducir riesgos, aumentar productividad, aumentar la motivaci贸n del equipo, etc. Pero 驴todo eso es realmente cierto? En nuestra experiencia podemos decir que no siempre es completamente cierto. Si no enfocamos bien nuestros esfuerzos no lograremos cumplir con esas promesas. Entonces, 驴c贸mo hacemos testing automatizado en forma efectiva y eficiente? 驴C贸mo hacemos que valga la pena? 驴C贸mo lo hacemos para obtener el m谩ximo beneficio? 驴No siempre es beneficioso automatizar pruebas? 驴C贸mo decido cu谩ndo s铆 y cu谩ndo no? Testear efectiva y eficientemente es un gran desaf铆o, que siempre nos lleva a querer ver c贸mo mejorar la productividad en la b煤squeda de la calidad. En esta charla veremos algunas buenas pr谩cticas, lecciones aprendidas, consejos y observaciones que hemos tomado nota en nuestra experiencia dando servicios de pruebas, viendo as铆 c贸mo enfocar nuestros esfuerzos para tener 茅xito en nuestras pruebas, haciendo reales, o lo m谩s reales posible, esos beneficios que siempre nos prometen del testing automatizado. Tambi茅n compartiremos los problemas m谩s comunes con los que nos enfrentamos a menudo, y las alternativas que hemos encontrado para solventarlos. Compartiremos la experiencia de proyectos en distintos dominios de aplicaci贸n (sector financiero, log铆stica, venta y distribuci贸n, etc.), contextos y plataformas, con diversos clientes. Intentaremos mostrar cu谩ndo creemos que s铆 es factible y beneficioso automatizar, y cu谩ndo rotundamente no. ]]>

http://www.vlctesting.es/ Es importante que los usuarios conf铆en en el software que desarrollamos, y no hay mejor camino que prob谩ndolo. Para probar software siempre se habla de que el testing automatizado es un camino para acelerar, ser m谩s eficiente, reducir costos, reducir riesgos, aumentar productividad, aumentar la motivaci贸n del equipo, etc. Pero 驴todo eso es realmente cierto? En nuestra experiencia podemos decir que no siempre es completamente cierto. Si no enfocamos bien nuestros esfuerzos no lograremos cumplir con esas promesas. Entonces, 驴c贸mo hacemos testing automatizado en forma efectiva y eficiente? 驴C贸mo hacemos que valga la pena? 驴C贸mo lo hacemos para obtener el m谩ximo beneficio? 驴No siempre es beneficioso automatizar pruebas? 驴C贸mo decido cu谩ndo s铆 y cu谩ndo no? Testear efectiva y eficientemente es un gran desaf铆o, que siempre nos lleva a querer ver c贸mo mejorar la productividad en la b煤squeda de la calidad. En esta charla veremos algunas buenas pr谩cticas, lecciones aprendidas, consejos y observaciones que hemos tomado nota en nuestra experiencia dando servicios de pruebas, viendo as铆 c贸mo enfocar nuestros esfuerzos para tener 茅xito en nuestras pruebas, haciendo reales, o lo m谩s reales posible, esos beneficios que siempre nos prometen del testing automatizado. Tambi茅n compartiremos los problemas m谩s comunes con los que nos enfrentamos a menudo, y las alternativas que hemos encontrado para solventarlos. Compartiremos la experiencia de proyectos en distintos dominios de aplicaci贸n (sector financiero, log铆stica, venta y distribuci贸n, etc.), contextos y plataformas, con diversos clientes. Intentaremos mostrar cu谩ndo creemos que s铆 es factible y beneficioso automatizar, y cu谩ndo rotundamente no. ]]>
Mon, 18 Nov 2013 01:14:17 GMT https://es.slideshare.net/slideshow/10-vlctesting2013testing-automatizadofedericotoledocon-comentarios/28356422 abstracta1@slideshare.net(abstracta1) VLCtesting 2013 - Comprobando y refutando las promesas del testing automatizado - Federico Toledo abstracta1 http://www.vlctesting.es/ Es importante que los usuarios conf铆en en el software que desarrollamos, y no hay mejor camino que prob谩ndolo. Para probar software siempre se habla de que el testing automatizado es un camino para acelerar, ser m谩s eficiente, reducir costos, reducir riesgos, aumentar productividad, aumentar la motivaci贸n del equipo, etc. Pero 驴todo eso es realmente cierto? En nuestra experiencia podemos decir que no siempre es completamente cierto. Si no enfocamos bien nuestros esfuerzos no lograremos cumplir con esas promesas. Entonces, 驴c贸mo hacemos testing automatizado en forma efectiva y eficiente? 驴C贸mo hacemos que valga la pena? 驴C贸mo lo hacemos para obtener el m谩ximo beneficio? 驴No siempre es beneficioso automatizar pruebas? 驴C贸mo decido cu谩ndo s铆 y cu谩ndo no? Testear efectiva y eficientemente es un gran desaf铆o, que siempre nos lleva a querer ver c贸mo mejorar la productividad en la b煤squeda de la calidad. En esta charla veremos algunas buenas pr谩cticas, lecciones aprendidas, consejos y observaciones que hemos tomado nota en nuestra experiencia dando servicios de pruebas, viendo as铆 c贸mo enfocar nuestros esfuerzos para tener 茅xito en nuestras pruebas, haciendo reales, o lo m谩s reales posible, esos beneficios que siempre nos prometen del testing automatizado. Tambi茅n compartiremos los problemas m谩s comunes con los que nos enfrentamos a menudo, y las alternativas que hemos encontrado para solventarlos. Compartiremos la experiencia de proyectos en distintos dominios de aplicaci贸n (sector financiero, log铆stica, venta y distribuci贸n, etc.), contextos y plataformas, con diversos clientes. Intentaremos mostrar cu谩ndo creemos que s铆 es factible y beneficioso automatizar, y cu谩ndo rotundamente no. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/10-vlctesting2013-testingautomatizado-federicotoledo-concomentarios-131118011417-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> http://www.vlctesting.es/ Es importante que los usuarios conf铆en en el software que desarrollamos, y no hay mejor camino que prob谩ndolo. Para probar software siempre se habla de que el testing automatizado es un camino para acelerar, ser m谩s eficiente, reducir costos, reducir riesgos, aumentar productividad, aumentar la motivaci贸n del equipo, etc. Pero 驴todo eso es realmente cierto? En nuestra experiencia podemos decir que no siempre es completamente cierto. Si no enfocamos bien nuestros esfuerzos no lograremos cumplir con esas promesas. Entonces, 驴c贸mo hacemos testing automatizado en forma efectiva y eficiente? 驴C贸mo hacemos que valga la pena? 驴C贸mo lo hacemos para obtener el m谩ximo beneficio? 驴No siempre es beneficioso automatizar pruebas? 驴C贸mo decido cu谩ndo s铆 y cu谩ndo no? Testear efectiva y eficientemente es un gran desaf铆o, que siempre nos lleva a querer ver c贸mo mejorar la productividad en la b煤squeda de la calidad. En esta charla veremos algunas buenas pr谩cticas, lecciones aprendidas, consejos y observaciones que hemos tomado nota en nuestra experiencia dando servicios de pruebas, viendo as铆 c贸mo enfocar nuestros esfuerzos para tener 茅xito en nuestras pruebas, haciendo reales, o lo m谩s reales posible, esos beneficios que siempre nos prometen del testing automatizado. Tambi茅n compartiremos los problemas m谩s comunes con los que nos enfrentamos a menudo, y las alternativas que hemos encontrado para solventarlos. Compartiremos la experiencia de proyectos en distintos dominios de aplicaci贸n (sector financiero, log铆stica, venta y distribuci贸n, etc.), contextos y plataformas, con diversos clientes. Intentaremos mostrar cu谩ndo creemos que s铆 es factible y beneficioso automatizar, y cu谩ndo rotundamente no.
from Abstracta
]]>
678 4 https://cdn.slidesharecdn.com/ss_thumbnails/10-vlctesting2013-testingautomatizado-federicotoledo-concomentarios-131118011417-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
GX23 - 驴Por qu茅 correr cuando puedes testear? https://es.slideshare.net/slideshow/gx23-por-qu-correr-cuando-puedes-testear/26812988 porqucorrercuandopuedestestear-131003011027-phpapp01
驴Su organizaci贸n est谩 dispuesta a pagar el costo de una aplicaci贸n que no funciona? Correr ese riesgo ya no es una opci贸n. El testing debe ser considerado en todos los proyectos de desarrollo desde la concepci贸n de los mismos.]]>

驴Su organizaci贸n est谩 dispuesta a pagar el costo de una aplicaci贸n que no funciona? Correr ese riesgo ya no es una opci贸n. El testing debe ser considerado en todos los proyectos de desarrollo desde la concepci贸n de los mismos.]]>
Thu, 03 Oct 2013 01:10:27 GMT https://es.slideshare.net/slideshow/gx23-por-qu-correr-cuando-puedes-testear/26812988 abstracta1@slideshare.net(abstracta1) GX23 - 驴Por qu茅 correr cuando puedes testear? abstracta1 驴Su organizaci贸n est谩 dispuesta a pagar el costo de una aplicaci贸n que no funciona? Correr ese riesgo ya no es una opci贸n. El testing debe ser considerado en todos los proyectos de desarrollo desde la concepci贸n de los mismos. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/porqucorrercuandopuedestestear-131003011027-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> 驴Su organizaci贸n est谩 dispuesta a pagar el costo de una aplicaci贸n que no funciona? Correr ese riesgo ya no es una opci贸n. El testing debe ser considerado en todos los proyectos de desarrollo desde la concepci贸n de los mismos.
from Abstracta
]]>
312 2 https://cdn.slidesharecdn.com/ss_thumbnails/porqucorrercuandopuedestestear-131003011027-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
GX23 - GXtest 2.0: Automatizaci贸n de pruebas para la nueva generaci贸n de aplicaciones https://es.slideshare.net/abstracta1/gx3112-g-xtest-20sinnotas gx3112-gxtest2-131003005545-phpapp01
Hoy en d铆a una aplicaci贸n de calidad debe ser correcta funcionalmente, performante, y segura. Eso es lo que espera un usuario, y nada menos que eso. Veremos en esta conferencia la versi贸n 2.0 de GXtest, con la que automatizaremos pruebas sobre aplicaciones web y m贸viles, que cubran los aspectos funcionales, de performance, y de seguridad. Mostraremos c贸mo GXtest aumenta sensiblemente la productividad del equipo, lo cual conduce a una reducci贸n de los costos, incrementando adem谩s su calidad, y controlando los riesgos de las puestas en producci贸n.]]>

Hoy en d铆a una aplicaci贸n de calidad debe ser correcta funcionalmente, performante, y segura. Eso es lo que espera un usuario, y nada menos que eso. Veremos en esta conferencia la versi贸n 2.0 de GXtest, con la que automatizaremos pruebas sobre aplicaciones web y m贸viles, que cubran los aspectos funcionales, de performance, y de seguridad. Mostraremos c贸mo GXtest aumenta sensiblemente la productividad del equipo, lo cual conduce a una reducci贸n de los costos, incrementando adem谩s su calidad, y controlando los riesgos de las puestas en producci贸n.]]>
Thu, 03 Oct 2013 00:55:44 GMT https://es.slideshare.net/abstracta1/gx3112-g-xtest-20sinnotas abstracta1@slideshare.net(abstracta1) GX23 - GXtest 2.0: Automatizaci贸n de pruebas para la nueva generaci贸n de aplicaciones abstracta1 Hoy en d铆a una aplicaci贸n de calidad debe ser correcta funcionalmente, performante, y segura. Eso es lo que espera un usuario, y nada menos que eso. Veremos en esta conferencia la versi贸n 2.0 de GXtest, con la que automatizaremos pruebas sobre aplicaciones web y m贸viles, que cubran los aspectos funcionales, de performance, y de seguridad. Mostraremos c贸mo GXtest aumenta sensiblemente la productividad del equipo, lo cual conduce a una reducci贸n de los costos, incrementando adem谩s su calidad, y controlando los riesgos de las puestas en producci贸n. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/gx3112-gxtest2-131003005545-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Hoy en d铆a una aplicaci贸n de calidad debe ser correcta funcionalmente, performante, y segura. Eso es lo que espera un usuario, y nada menos que eso. Veremos en esta conferencia la versi贸n 2.0 de GXtest, con la que automatizaremos pruebas sobre aplicaciones web y m贸viles, que cubran los aspectos funcionales, de performance, y de seguridad. Mostraremos c贸mo GXtest aumenta sensiblemente la productividad del equipo, lo cual conduce a una reducci贸n de los costos, incrementando adem谩s su calidad, y controlando los riesgos de las puestas en producci贸n.
from Abstracta
]]>
313 2 https://cdn.slidesharecdn.com/ss_thumbnails/gx3112-gxtest2-131003005545-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Generaci贸n de pruebas de performance a partir de pruebas funcionales para sistemas web https://es.slideshare.net/slideshow/ft-perf-scripts-generation/26336474 ft-perfscriptsgeneration-130919020719-phpapp02
Las pruebas de rendimiento consisten en simular carga en el sistema bajo pruebas para analizar el desempe帽o de la infraestructura durante la ejecuci贸n de la prueba, pudiendo encontrar cuellos de botella y oportunidades de mejora. Para la simulaci贸n se utilizan herramientas espec铆ficas, en las que se debe automatizar las acciones que generar谩n esa carga, esto es: las interacciones entre el usuario y el servidor. Para poder simular muchos usuarios con poca infraestructura de pruebas, se automatizan las interacciones a nivel de protocolo (en scripts), lo cual hace que la automatizaci贸n sea m谩s compleja (en cuanto al trabajo necesario para su preparaci贸n) que la automatizaci贸n de pruebas funcionales, que se realiza a nivel de interfaz gr谩fica. Generalmente la tarea de automatizaci贸n consume entre el 30% y el 50% del esfuerzo de un proyecto de pruebas de rendimiento. En este art铆culo presentamos la herramienta desarrollada para seguir un nuevo enfoque para generar scripts para pruebas de rendimiento a partir de scripts de pruebas funcionales. La herramienta implementada ya ha sido puesta en funcionamiento en proyectos reales, de los cuales se muestran los principales resultados que reflejan mayor flexibilidad y menor costo de automatizaci贸n.]]>

Las pruebas de rendimiento consisten en simular carga en el sistema bajo pruebas para analizar el desempe帽o de la infraestructura durante la ejecuci贸n de la prueba, pudiendo encontrar cuellos de botella y oportunidades de mejora. Para la simulaci贸n se utilizan herramientas espec铆ficas, en las que se debe automatizar las acciones que generar谩n esa carga, esto es: las interacciones entre el usuario y el servidor. Para poder simular muchos usuarios con poca infraestructura de pruebas, se automatizan las interacciones a nivel de protocolo (en scripts), lo cual hace que la automatizaci贸n sea m谩s compleja (en cuanto al trabajo necesario para su preparaci贸n) que la automatizaci贸n de pruebas funcionales, que se realiza a nivel de interfaz gr谩fica. Generalmente la tarea de automatizaci贸n consume entre el 30% y el 50% del esfuerzo de un proyecto de pruebas de rendimiento. En este art铆culo presentamos la herramienta desarrollada para seguir un nuevo enfoque para generar scripts para pruebas de rendimiento a partir de scripts de pruebas funcionales. La herramienta implementada ya ha sido puesta en funcionamiento en proyectos reales, de los cuales se muestran los principales resultados que reflejan mayor flexibilidad y menor costo de automatizaci贸n.]]>
Thu, 19 Sep 2013 02:07:19 GMT https://es.slideshare.net/slideshow/ft-perf-scripts-generation/26336474 abstracta1@slideshare.net(abstracta1) Generaci贸n de pruebas de performance a partir de pruebas funcionales para sistemas web abstracta1 Las pruebas de rendimiento consisten en simular carga en el sistema bajo pruebas para analizar el desempe帽o de la infraestructura durante la ejecuci贸n de la prueba, pudiendo encontrar cuellos de botella y oportunidades de mejora. Para la simulaci贸n se utilizan herramientas espec铆ficas, en las que se debe automatizar las acciones que generar谩n esa carga, esto es: las interacciones entre el usuario y el servidor. Para poder simular muchos usuarios con poca infraestructura de pruebas, se automatizan las interacciones a nivel de protocolo (en scripts), lo cual hace que la automatizaci贸n sea m谩s compleja (en cuanto al trabajo necesario para su preparaci贸n) que la automatizaci贸n de pruebas funcionales, que se realiza a nivel de interfaz gr谩fica. Generalmente la tarea de automatizaci贸n consume entre el 30% y el 50% del esfuerzo de un proyecto de pruebas de rendimiento. En este art铆culo presentamos la herramienta desarrollada para seguir un nuevo enfoque para generar scripts para pruebas de rendimiento a partir de scripts de pruebas funcionales. La herramienta implementada ya ha sido puesta en funcionamiento en proyectos reales, de los cuales se muestran los principales resultados que reflejan mayor flexibilidad y menor costo de automatizaci贸n. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/ft-perfscriptsgeneration-130919020719-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Las pruebas de rendimiento consisten en simular carga en el sistema bajo pruebas para analizar el desempe帽o de la infraestructura durante la ejecuci贸n de la prueba, pudiendo encontrar cuellos de botella y oportunidades de mejora. Para la simulaci贸n se utilizan herramientas espec铆ficas, en las que se debe automatizar las acciones que generar谩n esa carga, esto es: las interacciones entre el usuario y el servidor. Para poder simular muchos usuarios con poca infraestructura de pruebas, se automatizan las interacciones a nivel de protocolo (en scripts), lo cual hace que la automatizaci贸n sea m谩s compleja (en cuanto al trabajo necesario para su preparaci贸n) que la automatizaci贸n de pruebas funcionales, que se realiza a nivel de interfaz gr谩fica. Generalmente la tarea de automatizaci贸n consume entre el 30% y el 50% del esfuerzo de un proyecto de pruebas de rendimiento. En este art铆culo presentamos la herramienta desarrollada para seguir un nuevo enfoque para generar scripts para pruebas de rendimiento a partir de scripts de pruebas funcionales. La herramienta implementada ya ha sido puesta en funcionamiento en proyectos reales, de los cuales se muestran los principales resultados que reflejan mayor flexibilidad y menor costo de automatizaci贸n.
from Abstracta
]]>
850 4 https://cdn.slidesharecdn.com/ss_thumbnails/ft-perfscriptsgeneration-130919020719-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation White http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
GX Project Days - Charla de testing https://es.slideshare.net/slideshow/gx-project-days-testing-v05/25512754 gx-20projects-20day-20testing-20v0-130823035018-phpapp02
Por qu茅 correr cuando puedes testear. Charla en la que particip贸 Guillermo Skrilec de GeneXus Consulting y Mat铆as Reina por Abstracta.]]>

Por qu茅 correr cuando puedes testear. Charla en la que particip贸 Guillermo Skrilec de GeneXus Consulting y Mat铆as Reina por Abstracta.]]>
Fri, 23 Aug 2013 03:50:18 GMT https://es.slideshare.net/slideshow/gx-project-days-testing-v05/25512754 abstracta1@slideshare.net(abstracta1) GX Project Days - Charla de testing abstracta1 Por qu茅 correr cuando puedes testear. Charla en la que particip贸 Guillermo Skrilec de GeneXus Consulting y Mat铆as Reina por Abstracta. <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/gx-20projects-20day-20testing-20v0-130823035018-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br> Por qu茅 correr cuando puedes testear. Charla en la que particip贸 Guillermo Skrilec de GeneXus Consulting y Mat铆as Reina por Abstracta.
from Abstracta
]]>
382 3 https://cdn.slidesharecdn.com/ss_thumbnails/gx-20projects-20day-20testing-20v0-130823035018-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
Automatizaci贸n GXtest - experiencias de uso https://es.slideshare.net/slideshow/automatizacin-g-xtest-experiencias-de-uso-24072012/25479160 automatizaci-c3-b3n-20gxtest-20-20experiencias-20de-20uso-2024-07-2012-20-130822035530-phpapp01
]]>

]]>
Thu, 22 Aug 2013 03:55:29 GMT https://es.slideshare.net/slideshow/automatizacin-g-xtest-experiencias-de-uso-24072012/25479160 abstracta1@slideshare.net(abstracta1) Automatizaci贸n GXtest - experiencias de uso abstracta1 <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/automatizaci-c3-b3n-20gxtest-20-20experiencias-20de-20uso-2024-07-2012-20-130822035530-phpapp01-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br>
from Abstracta
]]>
303 2 https://cdn.slidesharecdn.com/ss_thumbnails/automatizaci-c3-b3n-20gxtest-20-20experiencias-20de-20uso-2024-07-2012-20-130822035530-phpapp01-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
GXtest 2.0 - New features and tools https://es.slideshare.net/abstracta1/gxtest-20-newfeaturesandtools gxtest-2-130822035529-phpapp02
]]>

]]>
Thu, 22 Aug 2013 03:55:29 GMT https://es.slideshare.net/abstracta1/gxtest-20-newfeaturesandtools abstracta1@slideshare.net(abstracta1) GXtest 2.0 - New features and tools abstracta1 <img style="border:1px solid #C3E6D8;float:right;" alt="" src="https://cdn.slidesharecdn.com/ss_thumbnails/gxtest-2-130822035529-phpapp02-thumbnail.jpg?width=120&amp;height=120&amp;fit=bounds" /><br>
from Abstracta
]]>
224 2 https://cdn.slidesharecdn.com/ss_thumbnails/gxtest-2-130822035529-phpapp02-thumbnail.jpg?width=120&height=120&fit=bounds presentation Black http://activitystrea.ms/schema/1.0/post http://activitystrea.ms/schema/1.0/posted 0
https://cdn.slidesharecdn.com/profile-photo-abstracta1-48x48.jpg?cb=1663934990 Abstracta is a TI corporation, entirely dedicated to testing tools and services. Please visit http://www.abstracta.com.uy/en.html for general information. Abstracta offers different Software testing related services, highlighting the followings: * Functional testing * Performance testing * Automated testing * Monitoring and tunning More info http://www.abstracta.com.uy/en/services.html blog.abstracta.com.uy https://cdn.slidesharecdn.com/ss_thumbnails/monkop-federicotoledo-141117103039-conversion-gate01-thumbnail.jpg?width=320&height=320&fit=bounds slideshow/lecciones-aprendidas-desarrollando-una-plataforma-de-mobile-monkey-testing/41659913 Lecciones aprendidas d... https://cdn.slidesharecdn.com/ss_thumbnails/resumencharlabsas-141016141207-conversion-gate02-thumbnail.jpg?width=320&height=320&fit=bounds slideshow/abstractacda-testing-automatizacin-y-performance-herramientas-para-optimizar-tiempos-y-garantizar-calidad/40366782 Abstracta-CDA - TESTIN... https://cdn.slidesharecdn.com/ss_thumbnails/buildandtestalleventogx24-141012171510-conversion-gate01-thumbnail.jpg?width=320&height=320&fit=bounds slideshow/build-and-test-all-lo-nuevo-de-gxtest-para-desarrolladores/40175775 Build and test all, lo...