Temporal tables en SQL Server 2016

Temporal tables en SQL Server 2016

La llegada de SQL Server 2016 trae numerosas nuevas funcionalidades para ayudarnos con las necesidades propias de aplicaciones empresariales. Una necesidad bastante habitual consiste en disponer de un histórico de ciertas tablas para, en el futuro, poder comprobar su contenido en distintos momentos del tiempo.

Con este requerimiento de tipo “multidimensional” es fácil pensar en que si ya disponemos de un DW (Data Warehouse) éste sería el lugar donde acudir cuando necesitamos dicha información. Esto puede presentar varios problemas, entre ellos que necesitamos primero que nuestra organización utilice un DW que contemple esta información. Otro problema es que para la carga del DW habitualmente se realizan procesos ETL que transforman los datos por lo que puede que no podamos restituir la información a su estado original.

(más…)

Optimizando el componente DQS Cleansing en SSIS 2012 (parte 1 de 2)

Optimizando el componente DQS Cleansing en SSIS 2012 (parte 1 de 2)

En la actualización para la Cumulative Update 1 del documento DQS Performance Best Practices podíamos encontrar las recomendaciones hardware así como las estimaciones de tiempo que el grupo de producto daba como orientación a la hora de ejecutar los diferentes procesos que puede llevar a cabo SQL Server 2012 Data Quality Services. Además, encontramos información acerca de los factores de mejora de estos procesos en el caso hipotético de que doblemos el número de núcleos de proceso (cores), siempre dependientes de la arquitectura general de la que dispongamos, conocido como el scale-up factor. (más…)
Data Explorer: llega el self-service ETL

Data Explorer: llega el self-service ETL

Recientemente se publicó la versión preview de Data Explorer para Excel (La podéis descargar de aquí)

El producto llega a su versión previa al lanzamiento después de haber tenido dos versiones, el cliente de escritorio y el servicio en la nube, publicadas hace algo más de un año, y que ofrecían un servicio muy similar aunque con ligeras diferencias respecto a la conectividad y posibilidad de publicación de resultados.

(más…)

Automatizando la generación de paquetes SSIS

Tras muchas experiencias en desarrollo de procesos ETL con Integration Services, en los que buena parte de ellos tienen como destino final un Data Mart o un Data Warehouse, hemos ido recopilando buenas prácticas, pros y contras de dar un enfoque u otro a la solución de cada problema, cuáles de ellas obtienen mejores resultados de rendimiento según qué casos, etc. (más…)
Cargar Slowly Changing Dimensions sin castigar a nuestro DWH relacional

Cargar Slowly Changing Dimensions sin castigar a nuestro DWH relacional

En ocasiones al construir sistemas de Inteligencia de Negocios nos podemos olvidar de las buenas prácticas sobre nuestros sistemas relacionales en los que nos apoyamos. Sin embargo, esto puede derivar en problemas para nuestros procesos de carga. Para evitarlo es conveniente diseñar correctamente nuestros sistemas a todos los niveles, desde la primera fuente de datos hasta el último reporte que construyamos. (más…)
Administrando SSIS 2012 mediante T-SQL

Administrando SSIS 2012 mediante T-SQL

En SQL Server 2012 se introduce la nueva arquitectura para Integration Services, con una base de datos dedicada y un nuevo modelo de despliegue basado en esta arquitectura. Podéis encontrar información acerca de estos cambios en los artículos anteriores de esta serie. (más…)
El fenómeno del BackPressure en SSIS 2008. Qué es y cómo detectarlo.

El fenómeno del BackPressure en SSIS 2008. Qué es y cómo detectarlo.

En ocasiones, al ejecutar un paquete SSIS que tiene como origen nuestro flamante servidor con mucha RAM y un muy buen disco vemos que no funciona tan rápido como podríamos esperar. De hecho, nosotros hemos diseñado bien el paquete y todas las transformaciones funcionan, no estamos utilizando transformaciones bloqueantes porque sabemos que penalizan mucho el rendimiento, y hemos intentado optimizar el rendimiento pero aún así no hemos conseguido mejorarlo… ¡la culpa es del origen de datos! ¡Nos han estafado con el servidor! Tomemos la situación con un poco de calma antes de culpar a nuestro origen de datos porque probablemente estemos delante de un caso de backpressure.El backpressure es un fenómeno que ocurre en Integration Services cuando tenemos una o varias transformaciones que trabajan con los datos más lentamente que el origen que las provee de datos. (más…)