GOOGLE TRANSLATE

Blogger Tips And Tricks|Latest Tips For BloggersFree BacklinksBlogger Tips And Tricks
English French German Spain Italian Dutch Russian Portuguese Japanese Korean Arabic Chinese Simplified
Powered By google

Translate

Mostrando las entradas con la etiqueta Centro de datos. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Centro de datos. Mostrar todas las entradas

sábado, 25 de abril de 2020

Google Anthos - La plataforma de nube híbrida.

El CEO de Google, Sundar Pichai, anuncia el debut de Anthos durante el discurso de apertura en el Moscone Center el 9 de abril de 2019 en San Francisco

Anthos, la plataforma de Google para administrar nubes híbridas que abarcan Google Cloud y centros de datos en las instalaciones, ha alcanzado la disponibilidad general para Amazon Web Services (AWS) y está en versión preliminar para Microsoft Azure.

Anthos es un servicio basado en Google Kubernetes Engine ( GKE ) que le permite ejecutar sus aplicaciones sin modificar a través de centros de datos locales o en la nube pública. Anthos alcanzó la disponibilidad general hace poco más de un año, en Google Cloud Next 2019

En ese momento, Google anunció que Anthos se ejecutará en nubes de terceros, incluidos AWS y Azure, lo que significa que los equipos pueden trabajar en todas las plataformas y no preocuparse por el bloqueo de los proveedores.

Anthos Config Management ofrece administración de políticas y configuración, permitiendo usar un enfoque programático y declarativo para administrar políticas para sus máquinas virtuales en Google Cloud, tal como lo hace para sus contenedores. Esto reduce la probabilidad de errores de configuración debido a la intervención manual y acelera el tiempo de entrega al tiempo que garantiza que sus aplicaciones se ejecuten con el estado deseado en todo momento.

En los próximos meses, Anthos Service Mesh le permitirá administrar servicios en implementaciones heterogéneas. Eso significa soporte para aplicaciones que se ejecutan en máquinas virtuales, lo que le permite administrar la seguridad y las políticas en diferentes cargas de trabajo en Google Cloud, en las instalaciones y en otras nubes.

Además, Google promete que se podrá ejecutar Anthos sin un hipervisor externo, lo que debería mejorar el rendimiento, reducir los costos y eliminar la sobrecarga administrativa de la relación de otro proveedor. También serán posibles cargas de trabajo exigentes que requieren metal desnudo por razones de rendimiento o normativas. Bare metal también potencia Anthos on Edge, lo que le permite implementar cargas de trabajo más allá de su centro de datos y entornos de nube pública.

sábado, 1 de julio de 2017

El SSD correcto en sus centros de datos


La implementación de unidades de estado sólido (SSD) en el centro de datos es una excelente forma de aumentar la capacidad de respuesta de las aplicaciones y eliminar los cuellos de botella de E / S en la capa de almacenamiento. Pero hoy en día los centros de datos se enfrentan a una bolsa mixta cuando se trata de cargas de trabajo de almacenamiento, y la respuesta no siempre es tan simple como "agregar más velocidad".

Hay diferentes tipos de velocidad a considerar, a saber, lectura / escritura secuencial y lectura / escritura aleatoria. Y lo que es más, los centros de datos también necesitan la resistencia para manejar decenas de miles (potencialmente millones y miles de millones) de transacciones de E / S diariamente. Así que cuando usted está buscando el dispositivo de almacenamiento adecuado para su centro de datos, la mejor solución de ajuste realmente depende del tipo de carga de trabajo.

Para ayudarnos a clasificar las opciones, examinemos algunos casos de uso específicos en los centros de datos de hoy: bases de datos minoristas, procesamiento analítico en línea (OLAP), servidores virtualizados y datos generados por la máquina.

• Las bases de datos de ventas al por menor en línea ayudan a las empresas a ofrecer una experiencia perfecta para los clientes mientras conducen comercio electrónico rentable, seguimiento de inventario y previsión de las tendencias de ventas. Cada vez más consumidores realizan sus compras en línea, lo que en última instancia impulsa la demanda de mayor rendimiento de almacenamiento con cargas de trabajo heterogéneas de lectura y escritura.

• Y luego hay una gran analítica de datos , que ha estado haciendo olas en los blogs de tecnología en los últimos años. Esta es una descripción simplificada de lo desconocido: los grandes datos son el proceso de descifrar volúmenes masivos de datos en busca de información y correlaciones previamente no consideradas que podrían conducir a nuevas eficiencias, mejoras de procesos y modelos de negocio aún más competitivos. El procesamiento analítico en línea (OLAP) admite datos importantes al permitir que los administradores de TI y los expertos en datos respondan a consultas multidimensionales de forma rápida y eficiente. Naturalmente, volúmenes elevados de datos significan cargas de trabajo pesadas que ponen mucha presión sobre el almacenamiento.

• No olvidemos el cloud computing y la innovación que lo hizo posible, la virtualización. Los servidores virtualizados ejecutan un único hipervisor que controla múltiples entornos de servidores simulados, comúnmente denominados máquinas virtuales (VM). Los administradores de TI pueden proporcionar varias VM por servidor físico, lo que permite soportar múltiples unidades de negocio con necesidades variadas. El reto consiste en mantenerse ágil - cuanto más VMs hay, más difícil es que el almacenamiento se mantenga al día.

• Finalmente, consideremos los datos generados por la máquina. Se trata de datos procedentes de cualquier fuente sin intervención humana. Podría derivar de sensores en una red eléctrica, fabricación de equipos en la planta de fábrica, o datos de registro de los servidores web y las transacciones financieras.

¿Qué tienen en común todos estos casos de uso? Cuando se trata de demandas de almacenamiento en el hardware subyacente, todas generan cargas de trabajo mixtas de lectura y escritura intensiva. Con el fin de escalar el rendimiento para satisfacer el crecimiento o los picos, la capa de almacenamiento necesita entregar velocidades de lectura y escritura mayores, no sólo una u otra.

Intel ha desarrollado una familia de SSD de centro de datos que se adaptan a las necesidades de casos de uso específicos como los que hemos superado. Ahora los centros de datos obtienen exactamente lo que necesitan de sus inversiones, y no terminan gastando CAPEX en características y capacidades que nunca pueden usar. Por ejemplo, la serie SSD DC S3610 de Intel® ofrece el rendimiento necesario para combinar cargas de trabajo mixtas de lectura / escritura intensivas - hasta 550/520 MB / s secuencial y 84.000 / 28.000 IOPS de lectura / escritura aleatoria a través de una conexión SATA de 6 GB / s .1

Con el Intel® SSD DC S3610 Series, los centros de datos también obtienen la resistencia de almacenamiento que necesitan. Este SSD soporta hasta tres escrituras de unidad por día, hasta 10,6 peta bytes escritas durante la vida útil de la unidad.2 No sólo es una buena coincidencia con los ejemplos discutidos anteriormente, sino que también incluye protección de datos de extremo a extremo con 256 Y protección de datos de pérdida de energía.3

Hacer el salto a SSDs es un gran paso, y un positivo para mejorar el rendimiento, pero puede ser un poco nervioso wracking tratando de encontrar el mejor SSD para su carga de trabajo. Es por eso que la alineación en la familia de centros de datos Intel® SSD es tan grande - se toma la ansiedad de elegir el SSD correcto. Ya hemos hecho el trabajo duro para usted.

¿Desea obtener más información sobre los SSD Intel® en el centro de datos?