Cel: +52 (55) 3040-5403 Correo: mariana.velazquez@recluit.com
post-tittle

Discreta historia detrás del Big Data

Por: Reclu IT

26 de julio de 2018

La historia del Big Data es muy poco conocida. Como sucede frecuentemente con las tendencias, parece que cuando explotan es algo muy novedoso que acaba de aparecer; pero en muchos casos son el resultado de una tecnología que tiene un largo tiempo de maduración.

Entre los años 30 y 49 comenzó la era de la computación. En 1940 Turing y Good realizan una máquina capaz de analizar documentos cifrados por los alemanes usando la máquina enigma en la Segunda Guerra Mundial, de tal forma que era capaz de descifrar la clave con la que habían sido cifrados. Y en ese mismo año se realiza una máquina, el Predictor de Kerrison, capaz de automatizar la defensa antiaérea apuntando contra aviones enemigos. Y en 1946 el equipo Proyecto Manhattan consigue utilizar ordenadores para analizar y predecir el comportamiento que podría causar una reacción nuclear en cadena.

Como muchas de las tecnologías y conceptos informáticos actuales, los primeros pasos de lo que sería el almacenamiento y el concepto del Big Data comenzó a trabajarse en los laboratorios de investigación de la compañía IBM. Allá por los inicios de la década de los setenta, donde uno de sus científicos publicó un artículo que mostraba cómo se podía acceder a la información almacenada en grandes bases de datos, sin saber cómo se estructuraba la información o dónde residía.

Más adelante, entre 1950 y 1969 se introduce la comercialización de la analítica mediante la generación del primer modelo de predicción meteorológica con el análisis de datos. En 1956 se consigue resolver el problema del camino más corto mediante la analítica computacional, lo que permite mejorar la logística y el transporte. En 1958, por su parte, FICO aplica modelos predictivos para las decisiones en los riesgos de créditos, mientras que en 1966 comienza lo que en el futuro se conocerá como SAS Institute, como un proyecto de investigación analítica financiado por el Ministerio de Agricultura de Estados Unidos.

Entre 1970 y 1999 el análisis se populariza, creándose en 1973, por ejemplo, el modelo Black-Scholes para predecir el precio óptimo de las acciones en el futuro, o la primera herramienta comercializada para construir sistemas de apoyo en las decisiones guiadas por modelos en 1980. Pero no es hasta bien entrada la época de los 90, en 1995, cuando se lanzan las webs Amazon y eBay, que suponen el comienzo de la carrera para la personalización de las diversas experiencias online para cada uno de los usuarios. Esto supone la necesidad de que las búsquedas de los motores tengan en cuenta cada vez más la importancia de la relevancia de los resultados, llegando a aplicarse en 1998 algoritmos de búsqueda en Google.

A mediados de los noventa fue cuando decenas de compañías entendieron que el almacenamiento digital de la información resultaba más rentable que tener los datos en papel. Justo en 1997, Michael Cox y David Ellsworth, dos investigadores de la Administración Nacional de la Aeronáutica y del Espacio (NASA), publicaron un artículo donde el término Big Data es mencionado por primera vez en la historia y ahí inició toda la revolución en el concepto.

Pasaron 12 años para que surgiera otro concepto que se sumaría al análisis profundo de la información, apuntalando el Big Data. Tim Berners-Lee, director del World Wide Web Consortium (W3C), y considerado uno de los padres del internet, fue el primero en utilizar el término datos vinculados en 2009 y es así que surge el llamado Business Intelligence, concepto que se convirtió en una prioridad para millones de especialistas de la rama.

Desde entonces, las organizaciones en todo el mundo comenzaron a implementar nuevas tecnologías para analizar y optimizar las grandes cantidades de datos que generaban. También inició la dependencia de la utilización de su información como un activo comercial para obtener una ventaja competitiva, ya sea en temas de marketing, experiencias personalizadas para los clientes o, simplemente, para mejorar sus procesos del día a día.

En 2020 se espera que la generación anual de datos haya aumentado hasta un 4.300%. El crecimiento estará motivado por el cambio de las tecnologías analógicas a digitales y por la cantidad de información generada tanto por los usuarios como por las empresas.

Según Gartner, en 2020 habrá más de 25 mil millones de dispositivos conectados a Internet. A finales de 2013, la cantidad de datos generados por los dispositivos era de 4.4 billones de GB. Cifra que se espera se multiplique por 10 en 2020. Esta gran cantidad de datos requerirá de nuevas técnicas. También de una capacidad de gestión mayor y tener muy en cuenta las 3 Vs del Big Data: Velocidad, Variedad y Volumen.

Lo conseguido ya con el Big Data permite ver el futuro con optimismo. Será siempre y cuando la tecnología crezca al nivel que lo hacen los datos. Áreas como el medio ambiente, la salud, la productividad o la vida personal podrán verse beneficiadas por esos miles de millones de bytes que generamos diariamente.

Deja tu comentario

Tu dirección de correo electrónico no será publicada.

Campos obligatorios(*)
post-tittle

Discreta historia detrás del Big Data

Por: Reclu IT

26 de julio de 2018

La historia del Big Data es muy poco conocida. Como sucede frecuentemente con las tendencias, parece que cuando explotan es algo muy novedoso que acaba de aparecer; pero en muchos casos son el resultado de una tecnología que tiene un largo tiempo de maduración.

Entre los años 30 y 49 comenzó la era de la computación. En 1940 Turing y Good realizan una máquina capaz de analizar documentos cifrados por los alemanes usando la máquina enigma en la Segunda Guerra Mundial, de tal forma que era capaz de descifrar la clave con la que habían sido cifrados. Y en ese mismo año se realiza una máquina, el Predictor de Kerrison, capaz de automatizar la defensa antiaérea apuntando contra aviones enemigos. Y en 1946 el equipo Proyecto Manhattan consigue utilizar ordenadores para analizar y predecir el comportamiento que podría causar una reacción nuclear en cadena.

Como muchas de las tecnologías y conceptos informáticos actuales, los primeros pasos de lo que sería el almacenamiento y el concepto del Big Data comenzó a trabajarse en los laboratorios de investigación de la compañía IBM. Allá por los inicios de la década de los setenta, donde uno de sus científicos publicó un artículo que mostraba cómo se podía acceder a la información almacenada en grandes bases de datos, sin saber cómo se estructuraba la información o dónde residía.

Más adelante, entre 1950 y 1969 se introduce la comercialización de la analítica mediante la generación del primer modelo de predicción meteorológica con el análisis de datos. En 1956 se consigue resolver el problema del camino más corto mediante la analítica computacional, lo que permite mejorar la logística y el transporte. En 1958, por su parte, FICO aplica modelos predictivos para las decisiones en los riesgos de créditos, mientras que en 1966 comienza lo que en el futuro se conocerá como SAS Institute, como un proyecto de investigación analítica financiado por el Ministerio de Agricultura de Estados Unidos.

Entre 1970 y 1999 el análisis se populariza, creándose en 1973, por ejemplo, el modelo Black-Scholes para predecir el precio óptimo de las acciones en el futuro, o la primera herramienta comercializada para construir sistemas de apoyo en las decisiones guiadas por modelos en 1980. Pero no es hasta bien entrada la época de los 90, en 1995, cuando se lanzan las webs Amazon y eBay, que suponen el comienzo de la carrera para la personalización de las diversas experiencias online para cada uno de los usuarios. Esto supone la necesidad de que las búsquedas de los motores tengan en cuenta cada vez más la importancia de la relevancia de los resultados, llegando a aplicarse en 1998 algoritmos de búsqueda en Google.

A mediados de los noventa fue cuando decenas de compañías entendieron que el almacenamiento digital de la información resultaba más rentable que tener los datos en papel. Justo en 1997, Michael Cox y David Ellsworth, dos investigadores de la Administración Nacional de la Aeronáutica y del Espacio (NASA), publicaron un artículo donde el término Big Data es mencionado por primera vez en la historia y ahí inició toda la revolución en el concepto.

Pasaron 12 años para que surgiera otro concepto que se sumaría al análisis profundo de la información, apuntalando el Big Data. Tim Berners-Lee, director del World Wide Web Consortium (W3C), y considerado uno de los padres del internet, fue el primero en utilizar el término datos vinculados en 2009 y es así que surge el llamado Business Intelligence, concepto que se convirtió en una prioridad para millones de especialistas de la rama.

Desde entonces, las organizaciones en todo el mundo comenzaron a implementar nuevas tecnologías para analizar y optimizar las grandes cantidades de datos que generaban. También inició la dependencia de la utilización de su información como un activo comercial para obtener una ventaja competitiva, ya sea en temas de marketing, experiencias personalizadas para los clientes o, simplemente, para mejorar sus procesos del día a día.

En 2020 se espera que la generación anual de datos haya aumentado hasta un 4.300%. El crecimiento estará motivado por el cambio de las tecnologías analógicas a digitales y por la cantidad de información generada tanto por los usuarios como por las empresas.

Según Gartner, en 2020 habrá más de 25 mil millones de dispositivos conectados a Internet. A finales de 2013, la cantidad de datos generados por los dispositivos era de 4.4 billones de GB. Cifra que se espera se multiplique por 10 en 2020. Esta gran cantidad de datos requerirá de nuevas técnicas. También de una capacidad de gestión mayor y tener muy en cuenta las 3 Vs del Big Data: Velocidad, Variedad y Volumen.

Lo conseguido ya con el Big Data permite ver el futuro con optimismo. Será siempre y cuando la tecnología crezca al nivel que lo hacen los datos. Áreas como el medio ambiente, la salud, la productividad o la vida personal podrán verse beneficiadas por esos miles de millones de bytes que generamos diariamente.

Deja tu comentario

Tu dirección de correo electrónico no será publicada.

Campos obligatorios(*)

Política de privacidad de www.recluit.mx

Para recibir la información sobre sus Datos Personales, la finalidad y las partes con las que se comparte,
contacten con el Propietario.