HISTORIA BIG DATA

  • BIG DATA

    BIG DATA
    Big Data es un término aplicado a conjuntos de datos que superan la capacidad del sw hanitual para ser capturados, gestionados y procesados en un tiempo razonable.
    https://www.youtube.com/watch?v=mqMFMgVnRO8
  • SOBRECARGA DE INFORMACIÓN

    SOBRECARGA DE INFORMACIÓN
    En este año se empieza a ver la sobrecarga de información, demostrado en el Censo realizado en EEUU, el cual tardó 8 años en tabularse.
  • MÁQUINA TABULADORA DE HOLLERITH

    MÁQUINA TABULADORA DE HOLLERITH
    La influencia de los datos del censo derivó en la invención de la máquina tabuladora de Hollerith (tarjetas perforadas), que fue capaz de domar esta ingente cantidad de información y permitir realizar el trabajo aproximadamente en un año. La empresa de Hollerith pasó a formar parte de IBM.
  • CRECIMIENTO DEMOGRÁFICO

    CRECIMIENTO DEMOGRÁFICO
    La sobrecarga de información prosiguió con el aumento desmesurado de la población en los EEUU, la emisión de los números de la seguridad social y el crecimiento general del conocimiento, aspectos que exigían un registro de la información más preciso y organizado.
  • EFECTO EN LAS BIBLIOTECAS

    EFECTO EN LAS BIBLIOTECAS
    Las bibliotecas, fueron original de la organización y el almacenamiento de datos, tuvieron que adaptar sus métodos de almacenamiento para responder al rápido aumento de la demanda de nuevas publicaciones e investigaciónes.
  • EXPLOSIÓN DE LA INFORMACIÓN

    EXPLOSIÓN DE LA INFORMACIÓN
    Los académicos comenzaron a denominar a esta increíble expnasión de la información como la "explosión de la información". Tras aparecer por primera vez en el periódico Lawton Constitution en el año 1941.
  • PRIMER PROBLEMA DEL ALMACENAMIENTO Y LA RECUPERACIÓN DE DATOS

    PRIMER PROBLEMA DEL ALMACENAMIENTO Y LA RECUPERACIÓN DE DATOS
    Cuando Fremont Rider, bibliotecario de la Universidad Wesleyana, calculó que las bibliotecas de las universidades de EEUU, duplicaban su tamaño cada dieciséis años. Rider calculó que, si la tasa de crecimiento se mantuviera, la biblioteca de Yale tendría en el alo 2040 "apróxidamente 200.000.000 de volúmenes, que ocuparían 9656 km de estanterías, por lo que se haría un personal catalogado de más de 6.000 personas"
  • TEORÍA DE INFORMACIÓN DE SHANNON

    TEORÍA DE INFORMACIÓN DE SHANNON
    Claude Shannon publicó la Teoría matemática de la comunicación, en la que se estableció un marco de trabajo para determinar los requisitos de datos mínimos para transmitir la información a través de canales afectados por ruido. Sin su teoría, el volumen de los datos sería mucho mayor que el actual.
  • MEMORIA VIRTUAL

    MEMORIA VIRTUAL
    El concepto fue desarrolado por el físico alemán Fritz-Rudolf Güntsch, como una idea que trataba el almacenamiento finito como infinito. El almacenamiento, admistrado mediante hw integrado y sw para ocultar los detalles al usuario, nos permitió procesar los datos sin las limitaciones de memoria de hw que provocaba la partición del problema.
  • CONOCIMIENTO CIENTÍFICO

    CONOCIMIENTO CIENTÍFICO
    El científico de la información Derek Price generalizó las conclusiones de Rider para incluir cadi todos los tipos de conociemiento científico. La revolución científica, tal como él la llamó, era la responsable de la comunicación rápida de ideas nuevas como información científica. Este creciemiento rápido se materializaba en la duplicación cada 15 años de los registros nuevos creados.
  • PIONEROS EN EL RECONOCIMIENTO DE VOZ

    PIONEROS EN EL RECONOCIMIENTO DE VOZ
    Loa científicos han trabajado en el reconociemiento de voz casi desde que empezaron a fabricar ordenadores. William C. Dersch de IBM desveló la máquina Shoebox en la Feria Mundial. Fue la primera máquina capaz de entender 16 palabras y diez dígitos en inglés hablado mediante el uso de los datos disponibles en ese momento, y era capaz de procesarlos correctamente. La existencia de un volumen de datos mayor también ayudaría a entrenar los sistemas de reconocimiento de voz.
  • SISTEMAS DE COMPUTACIÓN CENTRALIZADOS

    SISTEMAS DE COMPUTACIÓN CENTRALIZADOS
    También se encontraba en auge el sector de los negocios. Debido a la influencia que tuvo la información en la década de 1960, la mayoría de organizaciones empezaron a diseñar, desarrollar e implementar sistemas informáticos que les permitían automatizar los sistemas de inventario.
  • BASE DE DATOS RELACIONAL

    BASE DE DATOS RELACIONAL
    Edgar F. Codd, un matemático formado en Oxford que trabajaba en IBM Research Lab, publicó un artículo en el que se explicaba la forma en la que podía accederse a la información almacenada en bases de datros de gran tamaño sin saber cómo estaba estructurada la informacióm o dónde residía dentro de la base de datos. Hasta ese momento, para recuperar la información se necesitaban conocimientos informáticos relativamente sofisticados, por lo que se convertía en una tasa ardua que exigía tiempo.
  • LEY DE DATOS DE PARKINSON

    LEY DE DATOS DE PARKINSON
    A medida que aumentaba la velocidad con la que se creaba información, las opciones de almacenamiento y organización de datos eran cada vez menores. La primera ley de Parkinson puede parafrasearse para describir nuestro sector: "Los datos se expanden para llenar el espacio disponible"
  • NECESIDAD DE DATOS PRECISOS

    NECESIDAD DE DATOS PRECISOS
    Barry Devlin y Paul Murphy difinieron una arquitectura para los informes y análisis de negocio de IBM, que se convirtió en la base del almacenamiento de datos. En el centro neurpalgico de dicha arquitectura, y en el almacenamiento de datos en general, se encuentra la necesidad de almacenamiento homogéneo y de alta calidad de datos históricamente complejos y exactos.
  • SUPERFICIE DE NUEVOS SISTEMAS DE SOFTWARE

    SUPERFICIE DE NUEVOS SISTEMAS DE SOFTWARE
    Las bases tecnológicas de los sistemas de MRP, MRP II y ERP comenzaron a integrar áreas de empresas entre las que se incluían la producción, la distribución, la contabilidad, las finanzas, los recursos humanos, la gestión del inventario, etc.
  • EXPLOSIÓN DE LA WORLD WIDE WEB

    EXPLOSIÓN DE LA WORLD WIDE WEB
    En esta década se produjo un crecimiento tecnológico explosivo, y los datos de la Inteligencia empresarial comenzaron a aplicarse en forma de documentos de Microsoft Excel.
  • PROBLEMA DEL BIG DATA

    PROBLEMA DEL BIG DATA
    El término se empleó por primera vez en un artículo de los investigadores de la NASA Michael Cox y David Ellsworth. Ambos afirmaron que el ritmo de creciemiento de los datos empezaba a ser un problema para los sistemas informáticos actuales.
  • SOTWARE COMO SERVICIO (SAAS)

    SOTWARE COMO SERVICIO (SAAS)
    Las siglas SaaS aparecen por primera vez en un artículo de la división de comercio electrónico de sw & Information Industry (SIIA)
  • LAS TRES V

    LAS TRES V
    Volumen, Velocidad y Variedad, son las dimensiones que al día de hoy siguen siendo las dimensiones comúnmente aceptadas del Big Data.
  • EXPLOSIÓN DE DATOS - CONTINÚA

    EXPLOSIÓN DE DATOS - CONTINÚA
    El tráfico IP estadounidense podría alcanzar el zettabyte en el año 2015 y que la Internet estadounidense del 2015 será, como mínimo, 50 veces más grande que lo era en el 2006.
  • LINKED DATA

    LINKED DATA
    Describe un método de publicación de datos estructurados, basado en protocolos web estándar, para que puedan ser interconectados, leídos automáticamente por ordenadores y enlazados desde otros conjuntos de datos externos.
  • FUTURO BIG DATA

    FUTURO BIG DATA
    Los expertos apuntan a un aumento estimado del 4300% en la generación de datos anuales para 2020. Los pricipales motivos incluyen el cambio de tecnologías analógicas a digitales y el rápido aumento en la generación de datos, tanto por particulares como por grandes empresas.