Cloudcomputing 1

Big Data y Open Data

  • El término «Big Data»

    El término «Big Data»
    Se empleó por primera vez en un artículo de los investigadores de la NASA Michael Cox y David Ellsworth. Ambos afirmaron que el ritmo de crecimiento de los datos empezaba a ser un problema para los sistemas informáticos actuales. Esto se denominó el «problema del Big Data».
  • Las tres V

    Las tres V
    Controlling Data Volume, Velocity, and Variety. A día de hoy, las tres V siguen siendo las dimensiones comúnmente aceptadas del Big Data.
  • Hadoop

    Hadoop
    se creó en el año 2006 a raíz de la necesidad de sistemas nuevos para gestionar la explosión de datos de la web. De descarga gratuita, y libre para potenciarlo y mejorarlo, Hadoop es un método de código abierto para almacenar y procesar los datos que «permite el procesamiento en paralelo distribuido de enormes cantidades de datos en servidores estándar del sector, económicos, que almacenan y procesan los datos, y que pueden escalarse sin límite
  • El primer estudio que calcula la cantidad de crecimiento de la información

    El primer estudio que calcula la cantidad de crecimiento de la información
    The Expanding Digital Universe: A Forecast of Worldwide Information Growth through 2010, en el que se calcula y pronostica la cantidad de datos digitales que se crearán y reproducirán cada año.
  • La explosión de datos continúa

    La explosión de datos continúa
    Bret Swanson y George Gilder proyectaron que el tráfico IP estadounidense podría alcanzar el zettabyte en el año 2015, y que la Internet estadounidense del 2015 será, como mínimo, 50 veces más grande que lo era en el 2006.
  • Avances revolucionarios Big Data

    Avances revolucionarios Big Data
    Probablemente, la informática de Big Data sea la mayor innovación informática de la última década. A día de hoy, tan solo hemos visto el potencial que tiene para recopilar, organizar y procesar los datos en todos los aspectos de nuestras vidas.
  • Linked Data

    Linked Data
    Linked Data describe un método de publicación de datos estructurados, basado en protocolos web estándar, para que puedan ser interconectados, leídos automáticamente por ordenadores y enlazados desde otros conjuntos de datos externos.
  • ¿Cuánta información?

    ¿Cuánta información?
    El estudio How Much Information? 2009 Report on American Consumers, realizado por Global Information Industry Center, revela que, en el año 2008, «los americanos consumieron la información equivalente a unos 1,3 billones de horas, lo que supone una media de 12 horas al día.
  • Datos y más datos

    Datos y más datos
    el mundo contiene una cantidad de información digital de una magnitud inimaginable, cuyo ritmo de crecimiento es frenético… El efecto es patente en todos los ámbitos de nuestra vida, desde los negocios hasta la ciencia, los gobiernos o el arte».
  • La aparición del ERP en la nube

    La aparición del ERP en la nube
    Netsuite y Lawson Software, entre otras empresas, fueron las primeras que adoptaron las tecnologías de nube para los sistemas ERP. Comenzaron ofreciendo a medianas empresas y organizaciones soluciones de sistemas ERP ligeros, flexibles y asequibles.
  • Tendencias de la Inteligencia empresarial (BI)

    Tendencias de la Inteligencia empresarial (BI)
    En 2011, las principales tendencias emergentes de Inteligencia empresarial fueron los servicios en la nube, la visualización de datos, el análisis predictivo y el Big Data.
  • El crecimiento real de los datos

    El crecimiento real de los datos
    la capacidad mundial de almacenamiento de información creció a una tasa anual del 25 % anual desde 1987 hasta 2007. En el mismo sentido, se afirmó que en el año 1986, el 99,2 % del almacenamiento de datos era analógico, pero en 2007 el 94 % de dicho almacenamiento era digital.
  • Las dudas existenciales del Big Data

    Las dudas existenciales del Big Data
    Communications, and Society Journal, define el Big Data como «un fenómeno cultural, tecnológico e intelectual que aparece por la interconexión de los siguientes elementos: (1) Tecnología: optimización de la capacidad informática . (2) Análisis: basarse en grandes conjuntos de datos para identificar patrones con el fin de realizar afirmaciones económicas, sociales, técnicas y legales. (3) Mitología: la creencia popular de que los grandes conjuntos de datos ofrecen una forma.
  • SAP HANA

    SAP HANA
    Las empresas empiezan a implementar nuevas tecnologías en memoria, como SAP HANA, para analizar y optimizar cantidades de datos masivas. Las empresas cada vez confían más en el uso de datos como activo de negocio para lograr ventajas sobre la competencia. El Big Data muestra el camino, ya que es indudablemente la principal nueva tecnología a entender y utilizar para mantenerse al día en un mercado que cambia tan rápido como el actual.
  • El año del Internet de las cosas (IoT)

    El año del Internet de las cosas (IoT)
    El IoT se ha convertido en una fuerza poderosa para la transformación de negocios, y su enorme impacto afectará en los próximos años a todos los sectores y todas las áreas de la sociedad. Existen enormes redes de objetos físicos dedicados (cosas) que incorporan tecnología para detectar o interactuar con su estado interno o medio externo.
  • El futuro del Big Data

    El futuro del Big Data
    La producción de datos aumenta a un ritmo espectacular. Los expertos apuntan a un aumento estimado del 4300 % en la generación de datos anuales para 2020. Entre los principales motivos que llevan a este cambio se incluyen el cambio de tecnologías analógicas a digitales y el rápido aumento en la generación de datos, tanto por particulares como por grandes empresas.