Google está mejorando su plataforma en la nube para atraer clientes que ejecutan cargas de trabajo contemporáneas basadas en contenedores. Desde la VPC compartida hasta los mecanismos de escalamiento automático mejorados, Google Kubernetes Engine admite nuevas capacidades.

Kubernetes se está convirtiendo rápidamente en la plataforma de facto para ejecutar aplicaciones basadas en microservicios contemporáneos, nativos de la nube. Con casi todos los principales proveedores de servicios en la nube que ofrecen un entorno gestionado de Kubernetes, existe una competencia para ofrecer capacidades adicionales a los clientes.

Google quiere hacer de Kubernetes la plataforma preferida

Como fundador original y colaborador clave del proyecto de código abierto, Google quiere hacer de Kubernetes la plataforma preferida para ejecutar aplicaciones de contenedorización. Además de esto, también tiene una oferta alojada de Kubernetes en la forma de Google Kubernetes Engine (GKE). Google Cloud Platform (GCP) fue una de las primeras nubes públicas en ofrecer el servicio Kubernetes administrado. Desde 2015, la plataforma se ha actualizado regularmente para mantenerla a la par con el proyecto de código abierto.

GKE es una de las primeras plataformas administradas de Kubernetes en ofrecer la última versión de Kubernetes, 1.10. Junto con esto, Google ha agregado nuevas capacidades a GKE que lo diferencian de las ofertas similares en la nube pública.

Aquí hay tres mecanismos que hacen que GKE atraiga a las empresas:

Nube privada virtual compartida

Virtual Private Cloud (VPC) permite a los clientes crear una topología de red que imita la red local tradicional que viene con una zona desmilitarizada y una zona de red privada. Al crear subredes aisladas, los clientes podrán separar las cargas de trabajo confidenciales en una parte acordonada de la red.

Las aplicaciones orientadas a Internet se ejecutarán en subredes públicas que están expuestas al mundo exterior. El diseño de VPC es una parte fundamental de la implementación y la migración.

La característica VPC compartida de GCP hace posible ejecutar cargas de trabajo que son comunes a múltiples redes.

La VPC de host ejecuta una infraestructura compartida y confina las cargas de trabajo privadas a sus respectivas VPC.

Las aplicaciones pueden comunicarse entre sí a través de direcciones IP internas y privadas. Esta topología brinda flexibilidad y control a las TI empresariales donde Shared VPC es administrado por equipos de TI centrales, mientras que delega el control de cada VPC invitada (también conocido como VPC de servicio) en departamentos individuales.

La misma arquitectura puede ser aprovechada por las empresas de SaaS que necesitan un nivel adicional de aislamiento y seguridad. Los componentes compartidos de la aplicación que son comunes a todos los inquilinos se ejecutan en la VPC del host.

Cada inquilino obtendría su propia VPC con el máximo aislamiento y seguridad.

Google ahora está extendiendo las capacidades de VPC Compartida a GKE. Se pueden implementar múltiples clústeres de Kubernetes en las VPC de servicio al reutilizar la topología definida por la VPC compartida. Ofrece un mejor aislamiento, control administrativo y visibilidad en la infraestructura. La VPC compartida es exclusiva de GCP, por lo que es un factor diferenciador. Aunque otros proveedores pueden agregar funciones similares, Google es el primero en introducirlo.

Discos persistentes regionales

Para datos persistentes, los dispositivos de almacenamiento de bloques están conectados a las máquinas virtuales. El dispositivo de almacenamiento en bloques de GCP está disponible como un recurso zonal, lo que significa que está confinado a un centro de datos específico dentro de una región.

Para una mayor disponibilidad y redundancia, GCP tiene múltiples zonas en cada región. Para brindar el más alto nivel de disponibilidad a los datos persistentes, Google introdujo los discos regionales persistentes donde los datos se replican de forma síncrona en múltiples zonas. Este enfoque maximiza la disponibilidad de la aplicación sin sacrificar la coherencia.

PD regional ahora tiene integración nativa con Kubernetes. Con un PD regional, los clientes aprovechan la replicación en la capa de almacenamiento, en lugar de preocuparse por la replicación a nivel de aplicación. Cuando se implementa una aplicación en múltiples zonas respaldadas por PD regionales, los datos se replican instantáneamente y se ponen a disposición de todas las zonas.

Escalado automático

Una de las principales ventajas de trasladarse a contenedores es la capacidad de escalar rápidamente. Kubernetes tiene una función llamada Ajuste automático de escala horizontal (HPA) que inicia automáticamente instancias adicionales de la aplicación.

GKE admitió HPA durante mucho tiempo, pero ahora se ha mejorado para activar la escala automática en función de múltiples parámetros. Por ejemplo, el número de instancias estará determinado por la longitud de una cola de mensajes. Los clientes también pueden conectar aplicaciones como Apache Kafka para activar una actividad de HPA. Google está brindando algunas de las mejores características de su plataforma en la nube a Kubernetes. La VPC compartida, los discos regionales persistentes y el HPA personalizado ofrecen un valor adicional a los clientes.

¡No te pierdas nuestra pagina de Facebook!!