COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn


Para facilitar las perspectivas inteligentes y tomar decisiones informadas, las empresas cuentan con más datos que nunca, como aplicaciones empresariales, bases de datos, redes sociales, dispositivos inteligentes, teléfonos móviles y máquinas. Estos datos se generan en grandes volúmenes, a través de varias formas, con gran velocidad y veracidad meticulosa. Si pensabas que la Ley de Moore sobre la duplicación del poder de procesamiento cada 18 meses fue un gran avance, te equivocas. Con más de mil millones de mensajes en redes sociales cada dos días, el Big Data está haciendo que la ley de Moore se vea insignificante.

Big Data Significa Grandes Perspectivas

Con el Big Data se puede aumentar las ventas con sugerencias para agregar productos extras en las compras en línea, rastrear la cadena de suministro, asociar el clima con la salud de los cultivos para mejorar los cultivos, e incluso predecir brotes de epidemia – más rápido que los registros de admisión hospitalaria. Ahora imagina basar todas estas decisiones en datos inexactos y erróneos. La importancia del control de calidad (QA, por sus siglas en inglés) y las pruebas en Big Data, no puede ser subestimada simplemente porque da grandes perspectivas, y puede generar grandes resultados. Hay una necesidad de revisar continuamente el flujo de Big Data y filtrar los datos irrelevantes. Después de todo, no queremos datos sucios y ruidosos afectando las decisiones de negocio y la velocidad de comercialización.

Gran Preocupación

De acuerdo con Experian, el 75% de las empresas desperdician el 14% de los ingresos debido a la mala calidad de los datos. Esto presenta una clara necesidad de una tecnología de estadística y computacional fuerte, que cuente con el apoyo de un marco sólido de control de calidad (QA) que dé lugar a un análisis profundo, que ultimadamente se traduzca en una experiencia superior para consumidores finales, reducción de costos en calidad de datos, y tiempo acelerado para comercialización.

El Importante Rol del Control de Calidad: Un marco de referencia
4 Pi

Desde la perspectiva del control de calidad, tenemos que hacer un esfuerzo adicional para asegurar la calidad de Big Data. Si bien hemos definido bien y ensayado estrategias de prueba de almacenamiento de datos, estos enfoques tradicionales cuando se aplican a Big Data, podrían dar lugar a perspectivas convincentes, pero que son erróneas. Las pruebas de Big Data requieren de estrategias de prueba para datos estructurados, semi-estructurados y no estructurados. Otros requisitos previos incluyen pruebas estadísticas sobre conjuntos de datos, entorno de prueba óptima y escalable, y competencias para trabajar con bases de datos no relacionadas. Hay una necesidad desesperada de un marco de control de calidad eficaz para Big Data, para que sumergirse en el mundo de Big Data sea valioso – un innovador marco de control de calidad que permita evaluar grandes volúmenes de Big Data sin comprometer la calidad de los datos.

El marco está compuesto por cuatro pilares:
1. Personas: Definición clara de los roles y las responsabilidades para fomentar una mayor colaboración en equipo
2. Proceso: Identificación de imprecisiones en los datos antes de llegar al proceso de producción
3. Infraestructura: Aprovisionamiento rápido de infraestructura de nube escalable y con una mínima inversión inicial
4. Automatización: Uso de secuencias de comandos automatizados y herramientas para mejorar la productividad

Para enfrentar cuatro tipos de errores:

1. Fuentes de datos equivocadas que resultan en una inadecuada combinación de datos y entradas erróneas para procesamiento
2. Imprecisiones en los datos que resultan del proceso multimodal de investigación de mercado que operan a través de sistemas de archivos, requiriendo pruebas de configuración adecuadas
3. Defectos de codificación que pueden ser identificados al comparar resultados de la transformación y de la lógica de negocios
4. Brechas de proceso y datos en la capa de visualización, necesitando una estrategia de prueba eficiente

A través de cuatro fases del Ciclo de Vida de Desarrollo de Sistemas (SDLC, por sus siglas en inglés):

1. Planificación de Requerimientos
2. Diseño y Estrategia
3. Desarrollo e Integración
4. Apoyo de Producción

Gran Aprendizaje

A través de los cuatro pilares, el marco 4 Pi aborda cuatro tipos de inexactitudes incluyendo fuentes de datos erróneos, imprecisiones en los datos, defectos de codificación y brechas de proceso y de datos resultantes de las cuatro fases del ciclo del proyecto de Big Data. El marco, a través del cuarto pilar, también incluye comandos de automatización y herramientas para la descripción de datos, validación de datos, prueba de generación de datos, delineamiento para pruebas de datos, análisis predictivo y modelación, para garantizar la precisión de la implementación.

Grandes Recompensas

Con un marco de referencia efectivo, basado en control de calidad, las perspectivas de Big Data pueden ayudar a adelantarse a la competencia, explorar nuevos mercados, predecir el comportamiento del consumidor, impulsar el marketing y mejorar el valor de la marca; todos factores importantes en los resultados del negocio y en la agilidad.

COMPARTIR:Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

NO COMMENTS

DEJAR UN COMENTARIO