Big Data:Ineludible en industria Finanzas/Banca

pig

 

 

 

 

 

 

 

 

bigLa industria de servicios financieros y bancarios ha sido históricamente lenta en la adopción de nuevas vertientes en tecnología de información. Big Data no es la excepción. Neil Palmer, un ejecutivo jefe de la firma SunGard Consulting Services justifica esa cierta lentitud por la naturaleza altamente regulada de esta industria. Sin embargo, con el tremendo crecimiento en los volúmenes de información y la presión de los CEOs en cuanto a reducción de costos operativos, Big Data comienza a ser un factor que da forma a los servicios financieros. Como dato ilustrativo, podemos agregar que la actividad online y el uso de dispositivos móviles por parte de los clientes son fuentes de torrentes de datos, comportamiento y experiencias de uso que necesitan ser monitoreados y analizados en forma continua. Ese análisis de grandes masas de datos hace transparente nuevas oportunidades y a menudo permite prevenir o contrarrestar amenazas en forma temprana.
Según Michael Versace, director de investigación de la reconocida firma de investigación IDC para Financial Insights, enfatiza en que los analíticos de negocio son la clave para la excelencia en la industria financiera.
En nuestro país, son varias las instituciones que utilizan herramientas analíticas y tecnología estructurada como Big Data para reducir sus costos operativos y aprovechar los patrones de comportamiento de sus clientes, de otra manera inexplorables.

Las Razones que Hace de Big Data un Imperativo
¿Cuáles son los factores que obligan a la industria financiera a la adopción de estrategias y plataformas Big Data? Palmer de SunGard entiende que existen diez principales razones.
La primera de ellas es que se necesitan conjuntos de datos históricos cada vez más voluminosos. Se trabaja con períodos de tiempo más prolongados y con datos cada vez más granulares para la alimentación de modelos predictivos, proyecciones y medición de impactos. Todo en forma diaria y en tiempo que por lo menos esté en la categoría de “casi real.”
La industria enfrenta requerimientos regulatorios y de conformidad (compliance) que llevan a una mayor gobernabilidad y visibilidad del riesgo. Las organizaciones requieren de un análisis más profundo y transparente de sus procesos y desempeño.
La administración del riesgo es otro punto que recibe creciente atención y para aumentar la transparencia se requieren estrategias de estandarización de datos (como Master Data Management) que a su vez facilitan la auditoría y la visibilidad del riesgo para la dirección.
Como dijimos al principio, existen múltiples canales de vinculación con los clientes. Las organizaciones financieras necesitan aprovechar los datos a nivel consumidor que llegan de sucursales, Web, smartphones, etc. Con esos datos se alimentan modelos analíticos predictivos que descubren comportamientos de los consumidores y patrones que permiten optimizar las tasas de conversión de ventas, retención y satisfacción.
Otro elemento de propensión al uso de Big Data es el ritmo de crecimiento de algunos mercados. En países como Brasil, China e India aparecen oportunidades económicas que superan a las de Europa y EE.UU. En esos nuevos mercados se están creando enormes infraestructuras de datos que deben ser explotados.
Los avances en la capacidad de almacenar Big Data y de implementar marcos de operación permiten explotar el valor de los datos también a nivel de los departamentos de una organización. Se descubren posibles reducciones de costos operativos y oportunidades de optimización.
La industria financiera que utiliza warehouses o almacenes de datos centralizados, con Big Data deberá hacer una reingeniería de sus procesos ETL (Extract, Transform, Load) para poder manejar los volúmenes y variedad, valga la redundancia, de Big Data.
Los modelos predictivos de riesgos crediticios, que han sido adoptados por la mayoría de las organizaciones, deberán incursionar en Big Data para manejar patrones antes invisibles en prácticas de cobranza, otorgamiento de créditos y otras.
Otro ángulo para la consideración de Big Data es la proliferación de la movilidad con tablets, smartphones y otros dispositivos, presionan a las infraestructuras de IT y redes para que la organización pueda incorporar, indexar e integrar datos estructurados y no estructurados en una variedad de formatos.
Y la misma práctica de Big Data impulsa a nuevas vertientes de su utilización. Cada vez se necesitan más algoritmos para procesar datos y surgen nuevos desafíos de seguridad y control de acceso. Por otra parte, es importante que los sistemas básicos de la organización no sientan el impacto de la presencia de prácticas Big Data.

Qué Tiene Big Data de Especial
Estas anteriores consideraciones son, en general, las que Palmer considera darán impulso a un mayor uso de los entornos Big Data, un enfoque de procesamiento y explotación que ha cambiado ciertas reglas del juego para los departamentos de IT. Su caudal sencillamente no puede ser procesado y analizado con las herramientas de bases de datos estándar. La firma consultora Gartner Group entiende que las oportunidades y amenazas se esconden en un ambiente de datos cuya evolución es tridimensional y la bautizan como “3V”. Se tiene en cuenta al crecimiento de los datos en términos de Volumen, de Velocidad (de circulación de los datos) y de Variedad (en términos de fuentes de datos, tipos de datos). En resumen:  “Big Data son activos de información de alto volumen, alta velocidad y/o alta variedad de información y que requieren de nuevas formas de procesamiento para permitir una toma de decisiones óptima, descubrimiento de elementos clave y optimización de procesos.”
Big Data ha creado espacios de procesamiento que todavía no alcanzan su forma definitiva y se estructuran mediante tecnologías como Apache Hadoop. Hadoop es la implementación de un concepto de computación denominado MapReduce en el que las aplicaciones se dividen en numerosos fragmentos de tarea. Cada uno de esos fragmentos puede ser ejecutado una o más veces en cualquiera de los nodos que componen un cluster o conjunto de computadoras/nodos de procesamiento que operan en forma orquestada. Su sistema de archivos (file system) almacena datos en los nodos de computación, consiguiendo así el incremento del ancho de banda disponible en el cluster. El contexto Mapreduce y su File System permiten que las fallas en un nodo sean manejadas automáticamente por el framework. Hadoop deriva de los papeles de trabajo de MapReduce y GFS (Google File System), ambos desarrollados por Google.
Además de arquitecturas de software para el manejo de Big Data, existe hardware especializado, como los de las empresas HP, IBM, Oracle y Teradata. Los proveedores de hardware conocido como commodity, generalmente con procesadores Intel o AMD, también están proponiendo configuraciones especializadas. La misma Intel está embebiendo su propia implementación de Hadoop en algunos de sus procesadores XEON y eso favorecerá la proliferación de hardware apto para esta clase de aplicación.