Big data y open data en línea de tiempo

  • 1996 BCE

    Inteligencia empresarial 2.0

    Inteligencia empresarial 2.0
    La influencia de la información trajo un nuevo problema en la gestión de los datos, además de un aumento del coste que suponía publicarla y almacenarla. Para poder ofrecer más funcionalidades, el almacenamiento digital empezó a resultar más rentable que el papel para almacenar los datos, y comenzaron a emerger las plataformas de BI. R.J.T. Morris y B.J. Truskowski analizaron el almacenamiento de datos en su artículo The Evolution of Storage Systems, publicado en IBM Systems Journal.
  • 1996 BCE

    El espectacular crecimiento de la potencia informática e Internet

    El espectacular crecimiento de la potencia informática e Internet
    El aumento desmesurado del volumen de datos supuso otros problemas para los proveedores de sistemas ERP. La necesidad de tener que diseñar de nuevo los productos ERP, y que incluía romper los límites de titularidad y de personalización, obligó a los proveedores a adoptar de forma gradual un método de negocio colaborativo, en lugar de la intranet.
  • 1992 BCE

    El primer informe de base de datos

    El primer informe de base de datos
    En 1992, Crystal Reports creó el primer informe de base de datos sencillo con Windows. Estos informes permitían a las empresas crear un informe sencillo a partir de diversos orígenes de datos con escasa programación de código. De esta forma, se redujo la presión existente sobre el panorama saturado de datos, y se permitió que las empresas emplearan la inteligencia empresarial de un modo asequible.
  • 1989 BCE

    Inteligencia empresarial

    Inteligencia empresarial
    1989, Howard Dresner amplió el popular término genérico « Business Intelligence (BI)» acuñado por Hans Peter Luhn en 1958. Dresner lo definió como «conceptos y métodos que mejoran la toma de decisiones de negocio mediante el uso de sistemas de apoyo basados en datos reales». Poco tiempo después, como respuesta a la necesidad de una mejor BI, se pudo ver el auge de empresas como Business Objects, Actuate, Crystal Reports y MicroStrategy, que ofrecían informes y análisis de los datos de empresas.
  • 1988 BCE

    La superficie de los nuevos sistemas de software

    A finales de los 80 y principios de los 90 aumento los ERP ya que pasaron a ser más sofisticados y ofrecían la posibilidad de coordinarse e integrarse. Las bases tecnológicas de los MRP, MRP II y ERP comenzaron a integrar áreas de empresas como: la producción, la distribución, la contabilidad, las finanzas, los recursos humanos, la gestión de proyectos, la gestión del inventario, el servicio y el mantenimiento, el transporte, y ofrecer así accesibilidad, visibilidad y homogeneidad de la empresa
  • 1986 BCE

    Julio 1986 Desde las tablillas de barro hasta la memoria de semiconductores

    Julio 1986 Desde las tablillas de barro hasta la memoria de semiconductores
    En su artículo «Can users really absorb data at today’s rates? Tomorrow’s?», Hal Becker mencionaba que «la densidad de recodificación lograda por Gutenberg fue aproximadamente de 500 símbolos (caracteres) por pulgada cúbica; 500 veces la densidad de las tablillas de barro [sumerias del año 4000 antes de cristo]. En el año 2000, la memoria de acceso aleatorio de los semiconductores será capaz de almacenar 1,25×10^11 bytes por pulgada cúbica».
  • 1985 BCE

    Sistemas de Planificación de recursos de fabricación (MRP II)

    Sistemas de Planificación de recursos de fabricación (MRP II)
    Auge MRP se introdujo la Planificación de recursos de fabricación (MRP II) en 1980, con un énfasis en la optimización de los procesos de fabricación mediante la sincronización de materiales con las necesidades de producción. MRP II incluía áreas tales como la gestión del área de producción y la distribución, de proyectos, las finanzas, los recursos humanos y la ingeniería. No fue hasta mucho después de adoptar esta tecnología cuando otros sectores comenzaron a tener en cuenta la tecnología ERP.
  • 1985 BCE

    La necesidad de datos precisos

    La necesidad de datos precisos
    En el año 1985, Barry Devlin y Paul Murphy definieron una arquitectura para los informes y análisis de negocio en IBM (Devlin & Murphy, IBM Systems Journal 1988) que se convirtió en la base del almacenamiento de datos. En el centro neurálgico de dicha arquitectura, y en el almacenamiento de datos en general, se encuentra la necesidad de almacenamiento homogéneo y de alta calidad de datos históricamente completos y exactos
  • 1975 BCE

    El crecimiento de la comunicación bidireccional

    El crecimiento de la comunicación bidireccional
    El Censo del Flujo de la Información, realizado por el Ministerio de Correos y Telecomunicaciones de Japón, comenzó a realizar un control del volumen de información que circulaba por el país en 1975. Utilizando como unidad de medición el número de palabras utilizadas a través de todos los medios de comunicación, el estudio pudo comprobar que el suministro de información superaba al volumen de información consumida, y que la demanda de comunicación unidireccional se había estancado
  • 1970 BCE

    Base de datos relacional

    Base de datos relacional
    En 1970 Edgar F. Codd, matemático formado en Oxford, trabajaba en IBM Research Lab, publicó un artículo que se explicaba la forma en la que podía accederse a la información almacenada en BD de gran tamaño sin saber cómo estaba estructurada la información o dónde residía dentro de la BD. Hasta ese momento, para recuperar la información se necesitaban conocimientos informáticos relativamente sofisticados, e incluso hasta los servicios de especialistas, exigía tiempo y recursos económicos.
  • 1963 BCE

    En busca búsqueda de una solución organizativa

    En busca búsqueda de una solución organizativa
    A principios de la década de 1960, Price observó que la enorme mayoría de investigación científica suponía un esfuerzo abrumador para los humanos. Los resúmenes documentales, creados a finales de la década de 1800 como forma de gestionar los conocimientos, cada vez de mayor volumen, crecían también con la misma progresión (multiplicándose por un factor de diez cada cincuenta años), y ya habían alcanzado una magnitud preocupante. Habían dejado de ser una solución de almacenamiento u organización.
  • 1962 BCE

    Los pioneros en el reconocimiento de voz

    Los pioneros en el reconocimiento de voz
    En 1962 William C. Dersch de IBM desveló la máquina Shoebox en Feria Mundial. 1era máquina capaz de entender 16 palabras y 10 dígitos en inglés hablado mediante el uso de los datos disponibles y era capaz de procesarlos. Sin embargo, hasta transformar esta innovación en el reconocimiento de voz en productos con una utilidad comercial real, aún quedaba mucho camino por delante. Este exigiría avances importantes en la potencia de procesamiento y la reducción del coste de la tecnología informática.
  • 1961 BCE

    El conocimiento científico se amplía.

    El conocimiento científico se amplía.
    El científico de la información Derek Price generalizó las conclusiones de Rider para incluir casi todos los tipos de conocimiento científico. La revolución científica, tal como él la llamó, era la responsable de la comunicación rápida de ideas nuevas como información científica. Este rápido crecimiento se materializaba en la duplicación cada 15 años de los registros nuevos creados
  • 1956 BCE

    Memoria virtual

    Memoria virtual
    El concepto de memoria virtual fue desarrollado por el físico alemán Fritz-Rudolf Güntsch, como una idea que trataba el almacenamiento finito como infinito. El almacenamiento, administrado mediante hardware integrado y software para ocultar los detalles al usuario, nos permitió procesar los datos sin las limitaciones de memoria de hardware que anteriormente provocaban la partición del problema (haciendo de la solución un reflejo de la arquitectura de hardware, una medida ilógica de base).
  • 1948 BCE

    La teoría de la información de Shannon

    La teoría de la información de Shannon
    Claude Shannon publicó la Teoría matemática de la comunicación, en la que se estableció un marco de trabajo para determinar los requisitos de datos mínimos para transmitir la información a través de canales afectados por ruido (imperfectos). Sin su teoría, el volumen de los datos sería mucho mayor que el actual. Utilizó como referencia «Certain Factors Affecting Telegraph Speed», una obra de Nyquist, que nos permitió muestrear señales analógicas y representarlas digitalmente: (digital base)
  • 1944 BCE

    El primer aviso del problema del almacenamiento y la recuperación de datos.

    El primer aviso del problema del almacenamiento y la recuperación de datos.
    El crecimiento del conocimiento como el problema de almacenar y recuperar los datos tuvo lugar en 1944, cuando Fremont Rider, bibliotecario de la Universidad Wesleyana, calculó que las bibliotecas de las universidades de USA duplicaban su tamaño cada 16 años. Rider calculó que si la tasa de crecimiento se mantuviera, la biblioteca de Yale tendría en el año 2040 casi 200.000.000 de volúmenes, ocuparían 9656 km de estanterías, se ocuparía un personal de catalogado de más de 6,000 personas.
  • 1941 BCE

    La explosión de la información

    Los académicos comenzaron a denominar a esta increíble expansión de la información como la «explosión de la información». Tras aparecer por primera vez en el periódico Lawton Constitution en el año 1941, el término se desarrolló en un artículo del New Statesman en marzo del año 1964, en el que se hacía referencia a la dificultad que suponía gestionar los volúmenes de información disponibles.
  • 1940 BCE

    El efecto en las bibliotecas

    El efecto en las bibliotecas
    Las bibliotecas, fuente original de la organización y el almacenamiento de datos, tuvieron que adaptar sus métodos de almacenamiento para responder al rápido aumento de la demanda de nuevas publicaciones e investigación.
  • 1932 BCE

    La máquina tabuladora de Hollerith

    La máquina tabuladora de Hollerith
    La influencia de los datos del censo derivó en la invención de la máquina tabuladora de Hollerith (tarjetas perforadas), que fue capaz de domar esta ingente cantidad de información y permitir realizar el trabajo aproximadamente en un año. Hizo que Hollerith se convirtiera en emprendedor, y su empresa pasó a formar parte de lo que hoy en día conocemos como IBM.
  • 1932 BCE

    El boom del crecimiento demográfico.

    El boom del crecimiento demográfico.
    La sobrecarga de información prosiguió con el aumento desmesurado de la población en los Estados Unidos, la emisión de los números de la seguridad social y el crecimiento general del conocimiento (y la investigación), aspectos que exigían un registro de la información más preciso y organizado.
  • 1880 BCE

    El inicio de la sobrecarga de información

    El inicio de la sobrecarga de información
    El Censo de los Estados Unidos del año 1880 tardó ocho años en tabularse, y se calcula que el censo de 1890 hubiera necesitado más de 10 años para procesarse con los métodos disponibles en la época. Si no se hubieran realizado avances en la metodología, la tabulación no habría finalizado antes de que tuviera que realizarse el censo de 1900.
  • Entran en escena los sistemas de computación centralizados

    Entran en escena los sistemas de computación centralizados
    La información no solo se encontraba en pleno auge en el sector científico, también lo estaba en el sector de los negocios. Debido a la influencia que tuvo la información en la década de 1960, la mayoría de organizaciones empezaron a diseñar, desarrollar e implementar sistemas informáticos que les permitían automatizar los sistemas de inventario.
  • Period: to 1970 BCE

    Big Data y la historia del almacenamiento de la información

    Desde que surgieron las primeras formas de escritura hasta los centros de datos modernos, la raza humana no ha dejado de recopilar información. El crecimiento del sector tecnológico ha provocado el aumento desmesurado del volumen de datos, por lo que son necesarios sistemas de almacenamiento de datos más sofisticados. Esta cronología, que parte en la década de 1930, trata la explosión de la información y la forma en la que el Big Data ha creado la necesidad de organizar y guardar la información.
  • Sistemas de Planificación de necesidades de material (MRP)

    Sistemas de Planificación de necesidades de material (MRP)
    A mitad de 1970 los sistemas de Planificación de necesidades de material (MRP) se diseñaron como herramienta que ayudaba a las empresas de fabricación a organizar y planificar su información. La popularidad de los PC en las empresas estaba en auge. Esta transformación marcó un cambio de tendencia hacia los procesos de negocio y las funcionalidades de contabilidad, y en este ámbito se fundaron empresas como Oracle, JD Edwards y SAP. Fue Oracle la que presentó y comercializó SQL original.
  • La ley de los datos de Parkinson

    En su charla «Where Do We Go From Here?», I.A. Tjomsland afirmó que «aquellos que trabajan en dispositivos de almacenamiento descubrieron hace mucho tiempo que la primera ley de Parkinson puede parafrasearse para describir nuestro sector: “los datos se expanden para llenar el espacio disponible”. Desde mi punto de vista, las grandes cantidades de datos se guardan porque los usuarios no tienen forma de identificar los datos obsoletos».
  • El crecimiento de la información y el sector de la comunicación

    El crecimiento de la información y el sector de la comunicación
    Avances tecnológicos permitieron a los sectores beneficiarse de nuevas formas de organizar, almacenar y generar datos. Las empresas estaban empezando a usar los datos para tomar mejores decisiones de negocio. El artículo Tracking the Flow of Information, el autor Ithiel de Sola Pool analizó el crecimiento del volumen de información de 17 importantes medios de comunicación desde el año 1960 hasta 1977. Atribuye el enorme crecimiento de la información a la expansión del sector de comunicaciones.
  • ¿En qué consiste el Big Data?

    ¿En qué consiste el Big Data?
    Big Data «es un término aplicado a conjuntos de datos que superan la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. Los tamaños del “Big Data” se hallan constantemente en aumento».
  • Explosión de la World Wide Web

    Explosión de la World Wide Web
    En la década de 1990 se produjo un crecimiento tecnológico explosivo, y los datos de la Inteligencia empresarial comenzaron a apilarse en forma de documentos de Microsoft Excel.
  • atos precisos

    En el año 1985, Barry Devlin y Paul Murphy definieron una arquitectura para los informes y análisis de negocio en IBM (Devlin & Murphy, IBM Systems Journal 1988) que se convirtió en la base del almacenamiento de datos. En el centro neurálgico de dicha arquitectura, y en el almacenamiento de datos en general, se encuentra la necesidad de almacenamiento homogéneo y de alta calidad de datos históricamente completos y exactos.