Evolución de las computadoras y el Software

  • Sistemas basados en Mainframes

    Sistemas basados en Mainframes
    En los primeros años de la informática entre 1960 y 1967, las máquinas informáticas basadas en mainframe se consideraban la mejor solución para procesar datos a gran escala, ya que proporcionaban tiempo compartido a clientes locales que interactuaban con terminales de teletipo.
  • Red de clústeres

    Red de clústeres
    A principios de la década de 1970, se produjo el desarrollo de la conmutación de paquetes y la computación en clúster, que se consideró una alternativa para los sistemas mainframe, aunque era costosa. En la computación en clúster, el hardware subyacente consiste en una colección de estaciones de trabajo o PC similares, estrechamente conectadas por medio de una red de área local de alta velocidad donde cada nodo ejecuta el mismo sistema operativo. Su propósito era lograr el paralelismo.
  • Protocolo TCP/IP

    Protocolo TCP/IP
    El Protocolo de control de transmisión (TCP) es uno de los principales protocolos del conjunto de protocolos de Internet. Se originó en la implementación inicial de la red en la que complementó el Protocolo de Internet (IP). Por lo tanto, la suite completa se conoce comúnmente como TCP/IP.
  • Invención del DNS

    Invención del DNS
    El Sistema de Nombres de Dominio (DNS) es un sistema de nombres jerárquico y distribuido para computadoras, servicios y otros recursos en Internet u otras redes de Protocolo de Internet (IP). Asocia diversa información con los nombres de dominio asignados a cada una de las entidades asociadas.
  • ARPANET

    ARPANET
    La Red de la Agencia de Proyectos de Investigación Avanzada de EE. UU. (ARPANET) fue la primera red informática pública de conmutación de paquetes. Se utilizó por primera vez en 1969 y finalmente se desmanteló en 1989. El uso principal de ARPANET fue con fines académicos y de investigación.
  • Red de entrega de contenidos (CDN)

    Red de entrega de contenidos (CDN)
    Una red de entrega de contenido, o red de distribución de contenido (CDN), es una red distribuida geográficamente de servidores proxy y sus centros de datos. Las CDN surgieron a fines de la década de 1990 como un medio para aliviar los cuellos de botella en el rendimiento de Internet, ya que Internet comenzaba a convertirse en un medio de misión crítica para las personas y las empresas
  • Creación del protocolo HTTP

    Creación del protocolo HTTP
    La creación del Protocolo de transferencia de hipertexto (HTTP) y el Lenguaje de marcado de hipertexto (HTML) dio como resultado los primeros navegadores web, sitios web y servidores web. Fue desarrollado por Tim Berners Lee en el CERN.
    Estandarización de la infraestructura proporcionada por TCP/IP para redes interconectadas de redes conocidas como World Wide Web (WWW)
  • Red punto a punto (P2P

    Red punto a punto (P2P
    La computación o redes punto a punto (P2P) es una arquitectura de aplicación distribuida que divide tareas o cargas de trabajo entre pares sin el requisito de un coordinador central. Los compañeros comparten los mismos privilegios. En una red P2P, cada cliente actúa como cliente y servidor.
    El intercambio de archivos P2P se introdujo en 1999 cuando el estudiante universitario estadounidense Shawn Fanning creó el servicio para compartir música Napster.
  • Interfaz de programación de aplicaciones

    Interfaz de programación de aplicaciones
    La evolución de la comunicación basada en la interfaz de programación de aplicaciones (API) sobre el modelo REST era necesaria para implementar escalabilidad, flexibilidad, portabilidad, almacenamiento en caché y seguridad. Este requisito lidera la evolución de la plataforma de administración de API y hoy se ha convertido en una de las características principales de cualquier sistema distribuido.
  • Computación en la nube

    Computación en la nube
    La computación en la nube (del inglés cloud computing), conocida también como servicios en la nube, informática en la nube, nube de cómputo o simplemente en "La nube", es el uso de una red de servidores remotos conectados a internet para almacenar, administrar y procesar datos, servidores, bases de datos, redes y software. En lugar de depender de un servicio físico instalado, se tiene acceso a una estructura donde el software y el hardware están virtualmente integrados.
  • Protocolo WebSocket

    Protocolo WebSocket
    WebSocket es un protocolo de comunicaciones informáticas que proporciona canales de comunicación full-duplex a través de una única conexión TCP. El protocolo WebSocket fue estandarizado por el IETF como RFC 6455 en 2011.
    El protocolo WebSocket permite la interacción entre un navegador web (u otra aplicación cliente) y un servidor web con una sobrecarga menor que las alternativas semidúplex, como el sondeo HTTP, lo que facilita la transferencia de datos en tiempo real desde y hacia el servidor.
  • Contenedor de software (Docker)

    Contenedor de software (Docker)
    Usar Docker para crear y gestionar contenedores puede simplificar la creación de sistemas altamente distribuidos, permitiendo que múltiples aplicaciones, las tareas de los trabajadores y otros procesos funcionen de forma autónoma en una única máquina física o en varias máquinas virtuales. Esto permite que el despliegue de nodos se realice a medida que se dispone de recursos o cuando se necesiten más nodos, lo que permite una plataforma como servicio (PaaS - Platform as a Service)