martes, 13 de agosto de 2019

Big data: una "revolución industrial" en la gestión de los datos digitales

   Les comparto un interesante artículo sobre el Big Data en la industria, escrito en el 2012 por la Fidelity International (una gestora internacional de fondos de inversión).

Big data: una "revolución industrial" en la gestión de los datos digitales 

"Hay gran cantidad de datos disponibles. Lo que escasea es la capacidad de extraer conocimiento de ellos"Val Harian, economista jefe de Google


EN POCAS PALABRAS

  • Big data es el término inglés que designa los conjuntos de datos de gran tamaño y generalmente desestructurados que resultan difíciles de manejar usando las aplicaciones de bases de datos convencionales.
  • El 80% de los datos que se generan en el mundo están desestructurados. Los datos desestructurados crecen 15 veces más rápido que los estructurados.
  • Esto plantea un enorme problema técnico a las empresas que intentan analizar sus datos propios.
  • Algunos ejemplos de big data son los siguientes: las consultas y resultados de los motores de búsqueda, los datos de las redes sociales (como los tuits), los datos meteorológicos, los datos astronómicos, la vigilancia militar, los datos económicos y bursátiles, los historiales médicos, los experimentos físicos (Gran Colisionador de Hadrones), los archivos fotográficos, la radio y la televisión, los vídeos (CCTV y YouTube) y los datos sobre transacciones.
  • Si estos ingentes volúmenes de datos pueden capturarse y analizarse eficazmente, podrían mejorar la productividad y la competitividad de las empresas en una amplia gama de sectores.
  • También encierran un gran potencial de creación de valor en el sector público y el privado. Las empresas tecnológicas especializadas en sistemas de información están construyendo grandes centros de procesamiento de datos para intentar sacar partido a este mercado.
  • Las empresas de distribución y los fabricantes están usando soluciones para grandes conjuntos de datos con el fin de mejorar la gestión de la cadena de suministro.
  • Estos datos pueden ayudar a los equipos directivos de las empresas a tomar decisiones mejor informadas y a optimizar el gobierno corporativo creando sistemas de gestión de los riesgos más eficaces.
  • La rentabilidad potencial es elevada para las empresas que suministran soluciones para grandes conjuntos de datos, entre las que se encuentran los gigantes informáticos actuales así como empresas de reciente creación y actores más pequeños. El análisis fundamental es esencial para determinar quiénes serán los grandes beneficiados. 

   Cada día se genera la increíble cantidad de 2,9 trillones de bytes de datos (Un trillón es 10 elevado a la 18ª potencia, es decir, un 1 seguido de 18 ceros), un volumen difícil de imaginar. Para ponerlo en perspectiva, eso equivale a 5.800 millones de discos duros de ordenadores de tamaño medio. Pero esta cifra impresiona aún más si tenemos en cuenta que el 90% de los datos del mundo se crearon sólo en los dos últimos años1 y que el 80% de estos datos están desestructurados2, lo que dificulta su interpretación con los programas de bases de datos tradicionales. Este fenómeno ha dado lugar a un nuevo concepto: big data. Generalmente complejos y desestructurados, los big data suponen un desafío tecnológico de primer orden para las empresas, que tienen dificultades para capturarlos, analizarlos y explotarlos. Los expertos creen que estamos entrando en una "revolución industrial de los datos" que brindará importantes recompensas a las empresas y los inversores.

INTRODUCCIÓN A BIG DATA

   El volumen de datos que se genera cada día es tan enorme que las tecnologías de bases de datos actuales se están quedando obsoletas rápidamente. La digitalización ha acelerado el crecimiento de los datos en todas las organizaciones, sectores y economías sin excepción. Empresas, organismos públicos, proveedores de estudios de mercado y meteorólogos están librando una batalla tecnológica para descifrar los grandes conjuntos de datos o big data y extraer parte de su valor. La capacidad para almacenar, consolidar y fusionar información ha hecho que numerosas empresas tecnológicas construyan centros de datos para satisfacer una demanda que crece con fuerza.
   Todos los días se escriben comentarios en Facebook y en Twitter y se suben vídeos a YouTube, pero las redes sociales son sólo uno de los muchos catalizadores de los big data. Los sensores conectados en red recogen ingentes cantidades de datos de los teléfonos móviles, los contadores del gas y la luz, los motores aeronáuticos, las plataformas de perforación y los equipos atmosféricos. Los satélites registran datos meteorológicos y geográficos, así como información para uso militar. Se crean "datos de desecho" como subproductos de las actividades cotidianas y se almacenan datos de transacciones, por ejemplo los que recogen las cajas de los supermercados.
    A medida que los formatos digitales se vuelven más sofisticados, se crean más y más datos. Así, un segundo de vídeo en alta definición ocupa 2.000 veces más bytes que una página de texto3. La creación de toda esta información está impulsando un rápido avance tecnológico en el terreno del almacenamiento de datos. En 1980, el primer disco duro de un gigabyte, el IBM 3380, tenía el tamaño de un frigorífico, pesaba unos 250 kg y costaba 40.000 dólares4. Hoy, se puede conseguir un gigabyte de almacenamiento en una tarjeta de memoria del tamaño de un sello de correos por unos pocos dólares5 y con determinadas cuentas de correo electrónico, el almacenamiento en línea es, de hecho, gratuito (hasta cierta cantidad).

EL CONCEPTO BIG DATA NO SÓLO TIENE QUE VER CON EL TAMAÑO

   Según IDC, la producción digital total del mundo fue de unos 180 exabytes en 2006 y creció hasta 1.800 exabytes en 2011, es decir, se multiplicó por diez en cinco años (un exabyte = mil millones de gigabytes). El volumen total de datos se prevé que alcance los 35.000 exabytes en 2020, lo que supone multiplicar dicha cifra por veinte durante los próximos diez años. Sin embargo, no es sólo la capacidad de almacenamiento lo que está constriñendo el fenómeno big data. También se plantean desafíos a la hora de usar e interpretar los grandes conjuntos de datos. Para entender el concepto big data, analicemos sus tres características esenciales: volumen, variedad y velocidad:
   Volumen: el crecimiento exponencial de los volúmenes de datos es una cuestión fundamental que está impulsando mejoras en las redes de comunicaciones, lideradas por empresas como Cisco Systems, y mayores velocidades en los accesos de banda ancha, lideradas por empresas como Virgin Media. Sin embargo, es un error creer que el volumen es la única característica del concepto big data que merece atención. Se podría afirmar incluso que es la menos importante desde el punto de vista de la utilidad para las empresas. En la variedad y la velocidad es donde probablemente se puede encontrar la mayor cantidad de valor añadido.
   La variedad describe el número de tipos diferentes de datos. Interpretar y analizar diferentes tipos de datos a la vez puede generar grandes ventajas. Por ejemplo, la red social Facebook almacena una enorme cantidad de información sobre sus usuarios. Guarda diferentes tipos de datos: sexo, edad, domicilio, estado civil, película o libros favoritos e incluso en qué marcas sus usuarios han pulsado en el botón "Me gusta". Las empresas pueden saber a quién "le gusta" su marca, el grupo de edad al que pertenece esa persona y si tiene más probabilidades de ser hombre o mujer. Así, pueden enfocarse de forma selectiva en este segmento con campañas de marketing personalizadas.
   La velocidad se refiere a la vida útil de los datos, ya que no tiene mucho sentido tener almacenados datos desactualizados. Por ejemplo, en EE.UU. las empresas de atención sanitaria descartan hasta el 90% de los datos que generan, gran parte de los cuales procede de las emisiones de vídeo en tiempo real durante las intervenciones quirúrgicas. Del mismo modo, las tiendas a menudo borran las grabaciones de sus cámaras de seguridad cuando ha transcurrido cierto tiempo. 

EL FENÓMENO BIG DATA VA A CRECER CON FUERZA 

   Se espera que el fenómeno big data impulse las rentabilidades de toda una generación de nuevas empresas informáticas con capitalizaciones de varios miles de millones de dólares. Es el segmento del mercado de los sistemas de información que más crece en todo el mundo. Los analistas creen que el mercado potencial total está valorado en 100.000 millones de dólares6
   Empresas como General Electric, IBM, Oracle, Microsoft, SAP y Symantec han invertido mucho en centros de procesamiento de datos diseñados para interpretar big data. Estas empresas están dispuestas a pagar una prima para contratar a los profesionales más brillantes. Oracle, Microsoft, IBM y SAP han gastado conjuntamente más de 15.000 millones de dólares en adquisiciones de empresas tecnológicas especializadas en herramientas de inteligencia de negocio7. Hay puestos para programadores, estadísticos, analistas cuantitativos, econometristas y analistas de extracción de datos. El mercado de los grandes conjuntos de datos tiene su propia cadena de suministro y permite beneficiarse a las empresas, tanto si están especializadas en hardware o infraestructuras como en software o servicios.
   La capacidad tecnológica con que cuentan estas compañías es impresionante y ya son capaces de generar resultados beneficiosos para las empresas clientes que contratan sus servicios. Los datos de los sensores colocados en los motores aeronáuticos podrían estudiarse, por ejemplo, para mejorar el consumo de combustible de un avión de pasajeros. El análisis de datos también puede ser ventajoso para el sector del petróleo y el gas, ya que puede contribuir a encontrar formas de prolongar la vida útil de los campos petrolíferos y gasistas y la recuperación de los recursos naturales. Cara al futuro, estas grandes empresas tecnológicas están en una buena posición para desarrollar lucrativos negocios de consultoría basados en su capacidad para analizar grandes conjuntos de datos.
   Las empresas de estudios de mercado también están intentando penetrar en esta área. Internet ha incrementado espectacularmente el número de métodos para llegar hasta una audiencia y comercializar productos, ya que cada página que se ve y cada clic que se hace quedan grabados. Muchas empresas de marketing están aprovechando las ingentes cantidades de datos disponibles a través de líderes de las búsquedas en Internet y las redes sociales como Google y Facebook.  
   La enorme cantidad de datos que existe puede plantear un gran problema a las empresas. El peligro es que las empresas no sean capaces de afrontar el desafío, desaprovechen oportunidades y pierdan su ventaja competitiva. Las grandes empresas de Internet, como Amazon.com, ya usan los datos que recogen de sus clientes para sugerirles productos que tal vez también quieran comprar. Sin embargo, los costes de establecimiento y la infraestructura necesaria plantean problemas a las empresas más pequeñas. Una solución alternativa es externalizar el análisis de datos y el marketing personalizado con proveedores especializados en ese campo.

LAS EMPRESAS PEQUEÑAS ENCIERRAN UN GRAN POTENCIAL

   Aunque algunas de las empresas mencionadas, como SAP y Oracle, ya se consideran gigantes informáticos, muchas empresas más pequeñas y de reciente creación podrían entrar en este grupo. El potencial de crecimiento del mercado de big data es inmenso y hay espacio para nuevos operadores con soluciones innovadoras. Algunas populares herramientas de bases de datos de código abierto como Hadoop están al alcance de las nuevas empresas. También hemos visto ejemplos de nuevas empresas especializadas en big data que se han convertido en multinacionales. De hecho, la amenaza de los nuevos jugadores plantea un problema a las grandes empresas informáticas que intentan entrar en este campo. Como resultado de ello, han aumentado las adquisiciones protagonizadas por grandes empresas tecnológicas. Un buen ejemplo es Autonomy, una empresa informática británica fundada en 1996 en Cambridge. Fue comprada por Hewlett-Packard en 2011 por 11.000 millones de dólares8. Poco después de la operación, HP anunció una nueva plataforma de análisis de grandes conjuntos de datos llamada HP Next Generation Information Platform. Otras empresas tecnológicas pequeñas han visto cómo su cotización despuntaba a pesar de que todavía podrían no ser objetivos de adquisición. Un buen ejemplo es Microgen, una empresa británica de software especializada en aplicaciones que permiten a las empresas ejecutar en tiempo real procesos que anteriormente tendrían que haberse llevado a cabo en lotes y de noche. Recientemente, el software de Microgen alcanzó con éxito las 7.000 millones de transacciones a la hora y es utilizado por muchas empresas líderes como bancos, operadores de transporte y logística y empresas de contenidos digitales. Para una destacada empresa de contenidos digitales, Microgen diseñó un sistema de gestión de derechos de autor que procesa millones de canciones, aplicaciones y otras descargas cada día.

ALGUNAS EMPRESAS SE DEDICAN A LA GESTIÓN DE DATOS

   También están las empresas en las que el análisis de datos es la piedra angular de su modelo de negocio, por ejemplo Experian, que ayuda a otras empresas a gestionar el riesgo crediticio y a prevenir el fraude. En el terreno del consumo, ayuda a las personas a gestionar su perfil crediticio y a impedir el robo de identidades. Experian usa sus herramientas de gestión y análisis de datos para vender productos a empresas en una amplia gama de mercados —desde negocios de distribución a proveedores de servicios financieros— en más de 80 países. Ahora se está expandiendo a mercados emergentes como Brasil, país en el que no estaba presente en 2006 y donde ya genera ingresos por valor de más de 1.000 millones de dólares. 

EL USO DE BIG DATA PUEDE DAR A LA GRAN DISTRIBUCIÓN VENTAJAS COMPETITIVAS

   El uso de big data puede ayudar a las empresas de distribución a automatizar, optimizar y afinar inventarios basándose en la demanda actual. Las grandes cadenas de supermercados como Wal-Mart ya han implantado técnicas de gestión de big data para optimizar su cadena de suministro. El almacén de datos de Wal-Mart es enorme y tiene capacidad para 2,5 petabytes (1 petabyte = mil billones de bytes, un 1 seguido de quince ceros) de información, fundamentalmente de los tickets de caja; equivale a alrededor de la mitad de todas las cartas repartidas por los servicios postales de EE.UU.9 Lo que ha dado a Wal-Mart una ventaja sobre sus competidores es la forma en que innovó a la hora de expandir sus sistemas de intercambio de datos para conectar su cadena de suministro electrónicamente. Dio a sus proveedores un "enlace de distribución minorista" para que vieran cuándo era necesario reponer existencias, en lugar de esperar a que Wal-Mart hiciera un pedido. Estas técnicas de "gestión de inventarios por parte del proveedor" no son nuevas y existen desde la década de 1980, pero Wal-Mart las ha implantado a una escala enorme.
   En general, el data mining o extracción de datos es una práctica habitual en los supermercados. Les confiere la capacidad de registrar las preferencias de los clientes, analizar comportamientos de compra y fijar precios en consonancia, pero sobre todo ha permitido a los establecimientos diferenciarse, ofrecer los incentivos adecuados para atraer a los clientes y competir sobre una base segmentada de comparación de precios. Una innovación reciente ha venido de la mano de los datos almacenados por los programas de tarjetas de fidelización. Las cadenas de supermercados británicas como Tesco y Sainsbury's utilizan regularmente los historiales de compra de las tarjetas de fidelización para adaptar las promociones a cada cliente en forma de cupones.
   Otras cadenas, como las de moda, también están adentrándose en el mundo de los big data. Un ejemplo es Inditex, propietaria de las tiendas Zara, que recoge datos de sus tickets de caja para identificar la demanda de determinadas prendas. Controla la mayor parte de su cadena de suministro y utiliza una estrategia de producción ajustada (JIT) que previene la acumulación indeseada de existencias. También significa que si identifica una nueva tendencia, tarda unas pocas semanas en desarrollar un producto y tenerlo en la tienda, mientras que en el sector se considera que la media son seis meses.

LOS FABRICANTES UTILIZAN BIG DATA PARA MEJORAR LA EFICIENCIA Y LOS COSTES

   Desde los albores de la informática, los fabricantes han sido uno de los primeros y más activos usuarios de los datos para impulsar la calidad y la eficiencia de su producción. Sin embargo, dado que los datos siguen creciendo exponencialmente y la competencia internacional no deja de intensificarse, estas empresas sienten la presión de mejorar continuamente su rendimiento.
   El análisis de sus big data puede acelerar considerablemente la velocidad con que desarrollan un producto. También permite a los diseñadores y fabricantes compartir datos de forma rápida y económica, así como crear simulaciones para probar diferentes diseños. Tanto el sector aeroespacial como los fabricantes de coches analizan sus big data para estos fines.
   En concreto, los fabricantes de coches han invertido con fuerza para intentar optimizar los costes de su cadena de suministro usando sistemas desarrollados internamente que controlan el precio y la calidad de cada pieza suministrada. Toyota, Fiat y Nissan aseguran que han reducido los plazos de desarrollo entre un 30% y un 50%. Aunque la recompensa es ciertamente grande, se necesitan grandes cantidades de dinero para invertir en estos sistemas y no todos los fabricantes tienen presupuesto para desarrollarlos internamente.
   Por lo tanto, muchos fabricantes ven ventajas en externalizar el análisis de los grandes conjuntos de datos a empresas tecnológicas especializadas. En un entorno marcado por unas condiciones económicas difíciles y la cada vez mayor competencia de los mercados emergentes, los fabricantes de los países desarrollados están obligados a reducir los costes y mejorar la eficiencia. Externalizar la gestión de sus big data constituye una opción económicamente interesante.

BIG DATA Y LA NUBE

   Uno de los dilemas a los que se enfrentan las empresas es que no pueden costearse la infraestructura física para interpretar grandes volúmenes de datos desestructurados. Muchos proveedores de almacenamiento de datos ofrecen ahora soluciones en la nube como parte de su gama de productos y las comercializan entre los clientes como soluciones asequibles y accesibles
   En esencia, las empresas alquilan espacio en potentes servidores a los que pueden acceder en línea. Estos servidores están equipados con sofisticadas aplicaciones que han sido diseñadas especialmente para manejar grandes volúmenes de datos. La ventaja para los clientes es que pueden conseguir resultados rápidos, a menudo en tiempo real, y que es una solución muy accesible (algunas empresas, como SAP, ofrecen acceso a través del teléfono móvil).

EL USO DE BIG DATA PUEDE AYUDAR A MEJORAR LA GESTIÓN EMPRESARIAL

   El análisis de grandes conjuntos de datos no sólo ofrece un inmenso atractivo comercial a las empresas, sino que también puede ayudar a mejorar los procesos de gestión. Como hemos comentado, las empresas de distribución y los fabricantes procesan sus big data para optimizar su cadena de suministro y sus inventarios. También se pueden usar big data para potenciar los flujos de caja y reducir todo lo posible el ciclo de conversión de efectivo de una empresa, es decir, el tiempo que pasa entre que la tesorería se gasta en el proceso de producción y se recibe el dinero de los clientes. El uso de big data también puede ayudar a mejorar aspectos del gobierno corporativo creando determinados controles de riesgos. Un problema común es que las decisiones de gestión pueden estar demasiado pegadas a los acontecimientos y, a veces, estar mal fundamentadas. Empresas como SAP han desarrollado herramientas empresariales que mantienen a los directivos bien informados con datos en tiempo real (véase caso práctico arriba).
   Poner big data a disposición de toda una empresa tiene ventajas considerables. Por ejemplo, puede animar a divisiones con peores resultados a mejorar sin intervención directa de la dirección de la empresa. Una aplicación común es clasificar los objetivos de ventas por división o incluso por empleado. Está aumentando la demanda de software que pueda ofrecer este tipo de estadísticas e indicadores de rendimiento. También se realiza un uso generalizado de big data en el sector de la selección de personal y en los departamentos de RR.HH. de grandes empresas. Los candidatos son filtrados y los CV son analizados automáticamente con aplicaciones especializadas.

EL SECTOR PÚBLICO

   El sector público genera y almacena enormes cantidades de datos. De hecho, las instituciones llevan usando big data algún tiempo para un amplio abanico de aplicaciones, desde inteligencia militar a gestión de programas espaciales. En Europa, muchos países cuentan con sistemas nacionales de salud y a menudo estos suelen ser grandes, complejos (cuando no mastodónticos) y caros. Se pueden usar big data como herramienta de gestión para reducir las listas de espera y mejorar la forma en que se recuperan y actualizan los registros de los pacientes.
   En un futuro cercano, se generalizarán las licitaciones para contratar soluciones de big data en el sector público. De hecho, es probable que haya incluso consultores de big data especializados en el sector público. Esta área aún está dando sus primeros pasos actualmente, pero ofrece unas rentabilidades potenciales tremendas.

CONCLUSIÓN 

   Si los grandes conjuntos de datos desestructurados o big data pueden procesarse, analizarse y explotarse eficazmente, podrían mejorar la productividad y la competitividad de las empresas, los sectores y, en última instancia, de economías enteras. Las empresas de distribución y los fabricantes ya están usando big data para mejorar la cadena de suministro y acelerar el desarrollo de nuevos productos. Los equipos directivos de las empresas también emplean big data para controlar el rendimiento y hacer posible la toma de decisiones efectivas en tiempo real. Las ventajas del análisis de los grandes conjuntos de datos desestructurados no se restringen al sector privado: pueden mejorar también los servicios públicos y, en especial, la atención sanitaria.
   El potencial de rentabilidad para los inversores reside en identificar a los beneficiarios de lo que parece que se convertirá en un sector valorado en muchos miles de millones de dólares. La selección de valores es determinante, ya que los ganadores serán tanto gigantes tecnológicos actuales como empresas más pequeñas de rápido crecimiento. Las operaciones de adquisición probablemente sean un rasgo positivo de este sector. La gestión de grandes conjuntos de datos ofrece grandes oportunidades.

CASO PRÁCTICO: SAP

SAP es una empresa multinacional de software con sede en Alemania. Está especializada en el desarrollo de software empresarial que ayuda a sus clientes a gestionar sus operaciones de negocio y las relaciones con sus clientes. La empresa es muy conocida por sus soluciones de almacenamiento de datos. Recientemente desarrolló un nuevo producto denominado SAP HANA (High Speed Analytic Appliance). Una de las mayores frustraciones de muchos directivos es que sus sistemas tradicionales basados en unidades de disco duro no procesan los datos con la suficiente rapidez. A menudo, se necesita información sobre las operaciones de negocio mientras éstas se desarrollan, no cuando los acontecimientos ya han sucedido. SAP HANA utiliza tecnología In-Memory, compresión de datos y procesamiento de datos en paralelo para conseguir resultados rápidos en tiempo real. Esto significa que las empresas pueden tomar decisiones rápidas cuando se tienen que tomar, dando así a su negocio una ventaja frente a sus competidores. En el conjunto de la empresa, SAP genera alrededor del 19% de los ingresos por ventas de licencias nuevas con los productos de inteligencia y análisis de negocio. Su nueva solución SAP HANA ya acumula pedidos por valor de 1.500 millones de euros, una cantidad impresionante para un producto que lleva a la venta menos de un año. La división móvil de SAP también tiene proyectos en marcha por valor de 800 millones de euros7, con los que pretende suministrar información estratégica a los usuarios de telefonía móvil en cualquier momento, en cualquier lugar y en cualquier dispositivo. Ambas líneas de productos deberían ser un área clave de crecimiento estructural para la empresa. 

EL FENÓMENO BIG DATA NO ES ALGO COMPLETAMENTE NUEVO

La capacidad de analizar eficazmente grandes cantidades de datos dio a la NASA ventaja durante la carrera espacial, sobre todo cuando construyó los cohetes Saturno V que llevaron al hombre a la luna. Durante la Guerra Fría, tanto EE.UU. como la Unión Soviética procesaban grandes cantidades de datos de vigilancia militar durante las operaciones de información y durante décadas, las previsiones meteorológicas diarias han corrido a cargo de enormes superordenadores. Las casas de apuestas y los casinos han desarrollado y mejorado continuamente sus modelos estadísticos para ir un paso por delante de los apostadores, mientras que los equipos deportivos (en el béisbol, en el ciclismo y cada vez más en el fútbol) utilizan analistas y estadísticos con la esperanza de conseguir una ventaja competitiva, algo que se popularizó con el libro (y la película) Moneyball: Rompiendo las reglas, de Michael Lewis.  

ENTENDER LA TECNOLOGÍA

La tecnología NoSQL es utilizada ampliamente por empresas como Google y Amazon. Difiere de las bases de datos relacionales que emplean tablas, esquemas o filas para almacenar datos y después interpretarlos mediante SQL, un lenguaje de consulta estructurado. En lugar de tomar datos, definir relaciones y almacenarlos en una base de datos para su posterior análisis, NoSQL puede analizar los datos en origen. Esto confiere a este lenguaje una ventaja de tiempo real sobre las tecnologías actuales y le hace más capaz de procesar grandes cantidades de datos desestructurados. Por ejemplo, Google analizará las páginas web y documentos buscando una palabra clave en lugar de consultar una base de datos relacional centralizada. Hadoop es probablemente la tecnología para big data más conocida. Es un marco de software de código abierto gratuito y ampliamente disponible que nació en el seno de Google y que es utilizado profusamente por Yahoo. El procesamiento masivo en paralelo (MPP) es lo que ha hecho a Hadoop tan popular. Gracias a MPP, se pueden utilizar muchos procesadores informáticos funcionando en paralelo para analizar datos, mientras que en el pasado eran grandes superordenadores los que realizaban esta tarea. Gracias al uso que hace Hadoop del MPP, las empresas pequeñas pueden utilizar sus redes de ordenadores de oficina para analizar datos complejos a un coste relativamente reducido. 

Fuentes:
1.IBM, Bringing big data to the enterprise, [página web] (2012) <http://www-01.ibm.com/software/data/bigdata/>; un disco duro medio se define como una unidad con una capacidad de 500 GB.
2.P. Zikopoulousa y C. Eaton, Understanding Big Data: Analytics for Enterprise Class Hadoop and Streaming Data, (McGraw-Hill, 2011).
3.McKinsey Global Institute, Big data: The next frontier for innovation, competition, and productivity (junio de 2011).
4.The Computer History Museum, Time line of computer history, [página web] (2012) <http://www.computerhistory.org/timeline>.
5.Amazon.com; búsqueda: ‘1GB micro SD cards’, [página web] (2012) <http://www.amazon.com/SanDisk-MicroSD-SDSDQ-1024-A10M-Retail-Package/dp/B000EEZCEG>; acceso 07/08/2012.
6.BofA Merrill Lynch, Big Data II – New Themes, New Opportunities, [informe] (20/03/2012).
7.FILLimited, 31.07.2012.
8.Financial Times, Autonomy shares soar on $11bn HP deal, 19/08/2011.
9.McKinsey Global Institute, loc. cit.  

El artículo original se puede descargar aquí

No hay comentarios:

Publicar un comentario