EVOLUCION Y FUTURO DEL BIG DATA "Big data" son los datos que son muy grandes, rápidos o complejos, que es difícil o imposible procesarlos con los métodos tradicionales, es alli donde nace la necesidad de querer buscar una forma facil de analizarlos.
-
LA PESTE BUBONICA
En 1663, durante la peste Bubonica, John Graunt, inicio un analisis de datos estadisticos a raiz de dicha enfermedad, pues la merceria de Londres, publicó la primera colección de registros de salud pública cuando registró las tasas de mortalidad y sus variaciones. -
PROGRAMA DE CENSO DE EE.UU.
La Oficina del Censo de EE. UU. anunció que estimaba que tomaría ocho años manejar y procesar los datos recopilados durante el programa del censo de ese año. En 1881, un hombre de la Oficina llamado Herman Hollerith inventó la máquina tabuladora Hollerith que redujo el trabajo de cálculo. (analyticsinsight, 2021) -
"Inteligencia Empresarial"
En 1885 Richard Millar Devens, recalco el termino "Inteligencia Empresarial", Tal como lo entendemos hoy, la inteligencia comercial es el proceso de analizar datos y luego usarlos para brindar información que se pueda procesar, en eun libro escrito por Devens, describio como un banquero obtuvo ganancias utilizando informacion de su alrededor. -
MAQUINA TABULADORA DE TARJETAS
Herman Hollerith inventa la máquina tabuladora de tarjetas perforadas, marcando el comienzo del procesamiento de datos. El dispositivo de tabulación desarrollado por Hollerith se utilizó para procesar datos del Censo de EE. UU. de 1890. (Techtarget, 2022, https://www.techtarget.com/whatis/feature/A-history-and-timeline-of-big-data) -
IBM
En 1911, Herman Hollerith fundó Computing-Tabulating-Recording Company, que luego se convertiría en IBM. (Techtarget, 2022). -
PREDICCION NIKOLA TESLA
Predijo que algún día los humanos tendrán acceso a grandes cantidades de datos a través de un instrumento que se puede llevar "en el bolsillo del chaleco". se referia a los teléfonos inteligentes y otros dispositivos portátiles basándose en su comprensión de cómo la tecnología inalámbrica cambiaría las partículas.(Techtarget, 2022) -
CREACION DE CINTAS MAGNETICAS
Fritz Pfleumer inventa una forma de almacenar información en cinta. El proceso se trataba de poner tiras de metal en papeles magnéticos lo que finalmente lo llevó a crear cintas magnéticas, que formaron la base para videocasetes, carretes de películas y más.(Techtarget, 2022) -
PROYECTO DE DATOS
La administración de EE. UU. creó el primer gran proyecto de datos para rastrear la contribución de 3 millones de empleadores y aproximadamente 26 millones de estadounidenses después de que la ley de seguridad social se convirtiera en ley. -
Period: to
PIMERAS MAQUINAS, ENIAC
1943: El Reino Unido desarrolló la primera máquina de procesamiento de datos para descifrar los códigos nazis, en 1945 se completó ENIAC, la primera computadora electrónica de propósito general, en 1954: la primera computadora completamente transistorizada usó solo transistores y diodos y no tubos de vacío. -
FAMILIA IBM
Se lanzó la familia IBM System/360 de sistemas informáticos centrales.(https://www.verdict.co, 2020) -
PRIMEROS EDIFICIOS DE CENTROS DE DATOS
1965
Estados Unidos planea construir los primeros edificios de centros de datos para almacenar millones de declaraciones de impuestos y huellas dactilares en cinta magnética. (Techtarget, 2022) -
ARPANET
Se creó la Red de la Agencia de Proyectos de Investigación Avanzada (ARPANET), la primera red de área amplia que incluía control distribuido y protocolos TCI/IP. Esto formó la base de Internet de hoy. (Techtarget, 2022) -
Period: to
PROCESADORES, LAN
1971: el 4004 de Intel se convirtió en el primer procesador programable de propósito general. 1973: Xerox presentó el primer sistema de escritorio que incluía una interfaz gráfica de usuario y almacenamiento de memoria interna. 1977: ARCnet introdujo la primera LAN en Chase Manhattan Bank, conectando 255 computadoras. (https://www.verdict.co, 2020) -
Period: to
ERA DE LA PC, BASE DE DATOS, PHYTON
1981 – Comienza la era de la PC. 1983: IBM lanzó su primera base de datos relacional comercialmente disponible, DB2. 1989 – Comienza la implementación del lenguaje de programación Python. (https://www.verdict.co, 2020) -
Period: to
COMIENZA LA ERA DEL INTERNET
1989 y 1990
Tim Berners-Lee y Robert Cailliau encontraron la World Wide Web y desarrollaron HTML, URL y HTTP mientras trabajaban para el CERN. Comienza la era de Internet con un acceso fácil y generalizado a los datos. (Techtarget, 2022) -
DOMINIO GOOGLE.COM
1997
El dominio google.com se registra un año antes del lanzamiento, lo que da comienzo al ascenso del motor de búsqueda hacia el dominio y el desarrollo de muchas otras innovaciones tecnológicas, incluso en las áreas de aprendizaje automático, macrodatos y análisis. -
NoSQL
Carlo Strozzi desarrolla NoSQL, una base de datos relacional de código abierto que proporciona una forma de almacenar y recuperar datos modelados de manera diferente a los métodos tabulares tradicionales que se encuentran en las bases de datos relacionales. (Techtarget, 2022) -
"How Much Information"
Basándose en datos de 1999, la primera edición del influyente libro How Much Information, de Hal R. Varian y Peter Lyman (publicado en 2000), intenta cuantificar la cantidad de información digital disponible en el mundo hasta la fecha. (https://www.verdict.co, 2020) -
LAS 3V
2001
Doug Laney de la firma de analistas Gartner reclca las 3V (volumen, variedad y velocidad), definiendo las dimensiones y propiedades de big data. Las V encapsulan la verdadera definición de big data y marcan el comienzo de un nuevo período en el que los big data pueden verse como una característica dominante del siglo XXI. Desde entonces, se han agregado a la lista V adicionales, como la veracidad, el valor y la variabilidad. (Techtarget, 2022) -
APACHE HADOOP
Los informáticos Doug Cutting y Mike Cafarella crean Apache Hadoop, el marco de código abierto utilizado para almacenar y procesar grandes conjuntos de datos, con un equipo de ingenieros derivado de Yahoo. -
COMPUTACION EN LA NUBE
AWS comenzó a ofrecer servicios de infraestructura informática basados en la web, ahora conocidos como computación en la nube. -
PROCESAMIENTO DE DATOS
Las CPU del mundo procesan más de 9,57 zettabytes (o 9,57 billones de gigabytes) de datos, lo que equivale aproximadamente a 12 gigabytes por persona. La producción global de nueva información alcanza un estimado de 14,7 exabytes. -
100 Gigabit Ethernet.
Se introdujeron las primeras soluciones para 100 Gigabit Ethernet. -
ESCASEZ DE TALENTO ANALITICO
McKinsey informa que para 2018, EE. UU. enfrentará una escasez de talento analítico. Faltan entre 140 000 y 190 000 personas con habilidades analíticas profundas y otros 1,5 millones de analistas y gerentes con la capacidad de tomar decisiones precisas basadas en datos. Además, Facebook lanza Open Compute Project para compartir especificaciones para centros de datos de bajo consumo. -
INICITIVA DE INVESTIGACION Y DESARROLLO DE BIG DATA
La administración Obama anuncia la Iniciativa de Investigación y Desarrollo de Big Data, citando la necesidad de mejorar la capacidad de extraer información valiosa de los datos y acelerar el ritmo de crecimiento de STEM (ciencia, tecnología, ingeniería y matemáticas), mejorar la nacional seguridad y transformar el aprendizaje. -
SOFTWARE DE CONTENEDOR
Docker introdujo el software de contenedor de sistema operativo de código abierto y El mercado mundial de big data alcanza los 10.000 millones de dólares.(https://www.verdict.co, 2020) -
CENTROS DE DATOS
Google y Microsoft lideran la construcción masiva de centros de datos. (https://www.verdict.co, 2020) -
PRONOSTICOS
IDC pronostica que el mercado de análisis de big data alcanzaría los $ 203 mil millones en 2020 Y Huawei y Tencent se unieron a Alibaba en las principales construcciones de centros de datos en China. -
VELOCIDADES DE DATOS
Los principales operadores de centros de datos comenzaron la migración a velocidades de datos de 400G, la tecnología fotónica de silicio comenzó a tener un impacto positivo en las arquitecturas de redes de los centros de datos. (https://www.verdict.co, 2020) -
MERCADO DE BIG DATA
Allied Market Research informa que el mercado de big data y análisis de negocios alcanzó los $193,14 mil millones en 2019, y estima que crecerá a $420,98 mil millones para 2027 a una tasa de crecimiento anual compuesta del 10,9%. -
VELOCIDAD
Las velocidades del centro de datos superan los 1000 G -
FUTURO DE BIG DATA
Las tecnologías como el aprendizaje automático, la IA y el análisis de IoT, por ejemplo, continúan ampliando los límites al mejorar enormemente nuestra capacidad para procesar, analizar y actuar sobre los datos. Los próximos años podrían muy bien hacer que lo que hemos visto en los últimos 20 años parezca un juego de niños. Los centros de datos estarán cada vez más en el dispositivo.