viernes, 21 de diciembre de 2012

TROUBLESHOOTING en NETBACKUP



… En una infraestructura basada  en NetBackup muchas veces nos encontramos con problemas que normalmente son códigos de errores, en estos casos NetBackup  no muestra un detalle del error y por lo general encontramos alguna nota técnica o KB para dar solución a nuestro problema o bien aplicar algún “Workaround” que nos permita solventar la incidencia.




miércoles, 19 de diciembre de 2012

LA CRISIS NO ES SOLO ECONOMICA.


…. En estos tiempos en plena crisis me temo que estamos viviendo una situación que no solamente radica en lo meramente económico, aunque es cierto que es el principal motivo y a la postre el origen de la situación, lo cierto es que en algunos sectores como el de tecnología en donde se “vende” conocimiento, siendo este el factor que nos diferencia de la competencia, nos encontramos en que estamos abaratando el conocimiento y por tanto en una escasez de calidad profesional realmente alarmante.


 Está claro, como en todo sector, hay niveles pero no sólo salariales sino también de responsabilidades medidos y evaluados acorde a cada perfil y experiencia que cada profesional del sector tiene ,en este sentido, un becario (practicante) o un “junior” como era de esperar es el que está sufriendo esta situación. Y me explico.

Alguien dijo en un sintonizado programa deportivo en pleno directo harto ya de lo mal que estaba el de la cámara, “Que él con becarios no trabaja y que ellos están para aprender…”, y tiene toda la razón, están para aprender o al menos eso es lo que esperan al momento de salir de las universidades o escuelas, y creo que sin temor a equivocarme la responsabilidad que están asumiendo es exagerada y por tanto supone un riesgo,  porque aquello de abaratar costes en tecnología me atrevería a decir que no funciona, es lamentable por tanto escuchar a un compañero decir con aire frustrado “Creo que me equivoque de carrera”, la verdad es que creo que estamos matando a los nuevos profesionales y no somos conscientes que ellos sin duda son el futuro, también por el contrario hay que decir que tienen que ser humildes y sobre todo pacientes porque el camino es largo y recién empieza, pero sea de una forma u otra las organizaciones con el ánimo de centrarse en un asunto sólo económico están poniendo en riesgo su prestigio y por tanto su propio negocio.

Los que tenemos un poco de experiencia más por las canas que por otra cosa y que no estamos muy arriba ni muy abajo, no nos queda más que soportar esta tendencia que peligrosamente se está viendo a medida que pasa el tiempo, la solución creo que es encontrar el equilibrio entre lo necesario y mínimo para ofrecer calidad sin necesidad de caer en que el ahorro de costes se lleve consigo lo más valioso que tienen las organizaciones que es el factor humano y por tanto los buenos  profesionales que son los que al fin y al cabo hacen a las empresas exitosas.

El tema está abierto, y aunque la crisis económica, según los expertos, tiene para largo al menos desde nuestra posición y poniendo nuestro granito de arena, sin duda, podemos hacer que las devastadoras consecuencias de la crisis, no sean tales, por el bien de las empresas, de nosotros y de los que vienen detrás esperando que el futuro sea mejor.

 

Hasta pronto…

STORAGECONSEJOS. JUMBO FRAMES - El tamaño si importa



…. No sean mal pensados por el título del post J , en este artículo describiremos el concepto de JUMBO FRAMES, que no es más que la posibilidad de permitir a nuestros elementos de red ya sea tarjetas NICs , Switches o interfaces virtuales a enviar un mayor tamaño de paquetes Ethernet por encima de los 1500 bytes convencionales, alcanzado si estos elementos lo soportan hasta los 9000 bytes, tanto a nivel de redes locales como de redes de largo alcance WAN, sin embargo hay que tener cuidado al habilitar esta funcionalidad por que algunos proveedores de Internet no soportan JUMBO FRAMES y podemos encontrarnos también que algún elemento de red dentro de nuestra infraestructura tampoco lo soporte, sobre todo los switches antiguos.

      La activación de esta característica básicamente nos permitirá reducir el coste y los ciclos de CPU, mejorando el rendimiento de las conexiones por TCP notoriamente.

      En lo que se refiere a almacenamiento, sobre todo para conexiones a través de ISCSI,   siempre y cuando todos los elementos de nuestra ruta de red soporte JUMBO FRAMES, es recomendable activarlo, de esta manera se ganará en rendimiento tanto de lectura o escritura en disco provisionado por SAN, como en el caso de la conectividad con una librería de cinta por ISCSI al momento de realizar escrituras hacia una cinta en un proceso de Backup.

 ¿ Y porque se limita a 9000 bytes?

      Simplemente porque una trama Ethernet emplea un CRC (Cyclic Redundancy Checksum) de 32 bits el cual pierde su eficacia de detección de errores por encima de los 12000 bytes.

    A continuación les detallo como activar JUMBO FRAMES en diferentes tecnologías.

NETAPP

ifconfig <nombredeinterfaz o VIF> mtusize 9000

VMWARE

esxcfg-vmknic -a -i <dirección IP> -n <MASCARA> -m 9000 <NOMBRE NIC>

LINUX

ifconfig eth1 mtu 9000
ip link set eth1 mtu 9000

XEN SERVER

xe vif-param-set uuid=<vif_uuid> other-config:mtu=9000

WINDOWS

netsh int ipv4 set subint “” mtu=9000 store=persistent

 

sábado, 15 de diciembre de 2012

Controladoras VSeries de NetApp



Hace unos años se hacía referencia a la evolución en tecnología en sus diferentes arquitecturas, y precisamente uno de los conceptos que predominaban era el de “Arquitecturas Abiertas”, lo que significa ir evolucionando hacia la integración de soluciones y así obtener eficiencia y lo que es más importante sencillez al momento de administrar como de implementar cualquier infraestructura.

martes, 11 de diciembre de 2012

Cluster HA en Storage NetApp



.. Una de las características de una arquitectura de almacenamiento basada en controladoras de NetApp es la alta disponibilidad que ofrece a través de un Cluster Activo / Activo en sus controladoras.

    En este sentido, las bandejas de discos son conectadas a través de Loops o anillos físicos  a cada una de las controladoras con la finalidad de tener redundancia, por tanto todas las bandejas conectadas serán visibles desde las controladoras que conforman el Cluster, de tal manera que en caso que uno de los “caminos” se pierda, estos discos puedan ser visualizados por la controladora por el “camino” redundado. Esto ofrece alta disponibilidad en cuanto a conectividad de las bandejas de discos dentro del Cluster.

domingo, 9 de diciembre de 2012

jueves, 6 de diciembre de 2012

VMWare Storage Appliance ¿Es realmente necesario?


..  VMWare en su última versión la 5.1 añade muchas novedades no sólo en licenciamiento (importante revisar este apartado porque no tiene desperdicio), sino también en funcionalidades y en la orientación que se le quiere dar a las arquitecturas basadas en VMWare básicamente hacía entornos de Cloud, es allí cuando se incorpora la funcionalidad de Single Sign On o de la próxima desaparición del VSphere Client para darle mayor protagonismo al VSphere Web Client, pero también las novedades radican en aspectos de almacenamiento, en este sentido se ha incluido dentro de la suite un “Appliance” llamado VMWare Storage Appliance o VSA, que se desplega a través del VCenter, y que nos ofrece la posibilidad de utilizar y compartir el almacenamiento local de cada uno de los hosts que componen un Cluster y convertirlo en un almacenamiento compartido a modo de SAN para toda la infraestructura virtual, para así aplicar funcionalidades de Storage VMotion, HA, DRS y Storage I/O Control. La idea no parece mala.

miércoles, 5 de diciembre de 2012

Recuperación de datos mediante SnapRestore


Como concepto el SnapRestore utiliza la tecnología de Snapshot permitiendo la recuperación de datos a partir de una copia de Snapshot almacenada en los volúmenes en caso de desastre o corrupción de datos.

domingo, 2 de diciembre de 2012

Actualización de Data Ontap de NetApp



 Como hemos mencionado en anteriores post el Sistema de Almacenamiento de NetApp tiene un sistema operativo llamado Data Ontap, actualmente se encuentra en su versión 8.1, que trae consigo nuevas funcionalidades y mejoras dentro de la arquitectura de NetApp, en este artículo describiremos algunas consideraciones a tomar en cuenta antes de realizar la actualización de Data Ontap y garantizar que esta se realice de manera eficiente y lo más importante sin pérdida de datos.


A Practical Implementation of Private Cloud -- NetApp Cloud


Como complemento al POST Diseño de un catalogo de servicios en Private Storage Cloud , aquí les dejo un video referente a implementación de “PRIVATE CLOUD” con NetApp   


viernes, 30 de noviembre de 2012

Diseño de un catalogo de servicios en Private Storage Cloud


 
….. Como habíamos mencionado en el post de Storage Cloud, los departamentos de IT de las organizaciones asumían un papel determinante en el desarrollo de este modelo, ofreciendo servicios de almacenamiento a los diferentes usuarios y departamentos que lo requieran, a través de portales que permitirán a estos usuarios acceder al almacenamiento sin importar el método de acceso o los protocolos utilizados.

jueves, 29 de noviembre de 2012

Fin de disponibilidad de ESX 4.x



VMware anuncia la fecha de fin de disponibilidad del hipervisor VMware vSphere® ESX 4.x y de VMware Management Assistant versiones 1 y 4

El 28 de noviembre de 2012, VMware notificará a sus clientes la fecha de fin de disponibilidad del
hipervisor VMware vSphere® ESX 4.x y de VMware Management Assistant versiones 1 y 4. La fecha de fin de disponibilidad será el 15 de agosto de 2013. Esta comunicación está relacionada con el anuncio general efectuado en julio de 2011 respecto al lanzamiento de VMware vSphere 5.0.


miércoles, 28 de noviembre de 2012

.. De vocación Tecnologíca



…. Hoy en día, en plena revolución tecnológica nos encontramos en una situación global realmente excitante, hace unos días un cliente me comentaba que estábamos en un momento “dulce” en todo lo que es tecnología y la verdad no le falta razón, todo evoluciona y hay conceptos, tendencias y tecnologías que se van superando año tras año, a pesar de la crisis económica en la que nos encontramos.

martes, 27 de noviembre de 2012

TROUBLESHOOTING en NetApp



…. En tecnología uno de los puntos importantes en toda solución, diseño o producto es el denominado concepto de “Troubleshooting”, que no es más que mecanismos, procedimientos y herramientas que nos ayudarán a detectar un problema y posteriormente garantizar una resolución al problema de una manera eficaz y sobretodo en el menor tiempo posible.

    En este sentido NetApp ofrece una serie de procedimientos y herramientas que nos ayudarán en esta tarea como administradores. En este artículo abordaremos este tema.

lunes, 26 de noviembre de 2012

STORAGE CLOUD


Las organizaciones y en concreto los departamentos de IT en su afán de buscar un ahorro de costes en sus infraestructuras están planteando como alternativa soluciones de “Storage Cloud”, como hemos mencionado el Cloud Computing es una nueva tendencia, un nuevo modelo de negocio que abarca tecnologías ya existentes capaces de dar servicios bajo demanda, optimizando así los recursos tecnológicos en una organización.

viernes, 23 de noviembre de 2012

Arquitectura de Symantec NETBACKUP



… Dentro de una infraestructura de IT un elemento importante es tener un Sistema de Backup que permita a los administradores disponer de las herramientas suficientes de respaldo y recuperación de datos de cada uno de sus entornos y aplicaciones, en este contexto el fabricante Symantec tiene un producto llamado NetBackup, actualmente en su versión 7.5 en donde orienta especialmente su tecnología a entornos de virtualización y Cloud, además de proveer mecanismos para optimizar los procesos habituales de todo Sistema de Backup.


miércoles, 21 de noviembre de 2012

SNIA Tutorial: Introduction to Data Protection: Backup to Tape, Disk and Beyond


Interesante Tutorial de la SNIA (Storage Networking Industry Association) referente a conceptos de  “Data Protection”, para diseñar políticas y metodologías de Backup, repasa los diferentes mecanismos de eficiencia como son deduplicación, snapshots, así como los elementos que componen una arquitectura de Protección de Datos.   





Espero que este video les ayude a aclarar conceptos referentes a Protección de Datos


Hasta pronto

domingo, 18 de noviembre de 2012

NDMP (Network Data Manager Protocol)


Es un protocolo abierto que permite realizar copias de seguridad a través de la red en arquitecturas heterogéneas en las que nos encontramos diferentes sistemas de almacenamiento, fue desarrollado por los fabricantes de almacenamiento NetApp y EMC, para mejorar los niveles de transferencia de datos y la velocidad en las operaciones de copias de seguridad interactuando con las librerías de cintas dentro de una arquitectura de almacenamiento y Backup.

miércoles, 14 de noviembre de 2012

BIG DATA … Hacia dónde vamos!!!



….. Hace unos años en tecnología hablábamos de términos como “Sociedad de la información” y a medida que pasaba el tiempo teníamos ante nosotros una eminente  y cambiante forma de ver, compartir,  gestionar y ofrecer servicios  de información a todos los niveles, hoy en día estos conceptos han evolucionado y si hablamos propiamente de la gestión de Datos nos encontramos que cada día tenemos más cantidad de  volúmenes y repositorios que gestionar, es aquí cuando nos encontramos con el concepto de “Big Data” que conceptualmente es un conjunto de datos (en ocasiones de hasta petabytes) que son imposibles de gestionar, tratar y analizar con las herramientas convencionales como pueden ser base de datos o software de análisis, dentro de este conjunto de datos se encuentran los repositorios con imágenes , Webs y como no, las redes sociales tan de moda en estos tiempos.



STORAGECONSEJOS . TIP para provisionar una LUN de 2 Teras en Vpshere 4.1 en NetApp.


... Uno de los problemas que nos encontramos al momento de provisionar una LUN de 2 TB como DataStore en un Cluster de VMWare con VSphere 4.1 es que no nos permite formatear la LUN  dentro de nuestra plataforma Virtual y nos aparece un error similar a este.

Call "HostDatastoreSystem.QueryVmfsDatastoreCreateOptions" for object "datastorename" on vCenter Server "servername" failed. Call "HostStorageSystem.RetrieveDiskPartitionInfo" for object "storageSystem-XXXX" on vCenter Server "servername" failed.


martes, 13 de noviembre de 2012

WAFL el CORE de DataOntap



WAFL (Write Anywhere File Layout) es el concepto en el que se basa el sistema operativo de los equipos de NetApp DataOntap , es una estructura de ficheros capaces de realizar mecanismos que permiten gestionar de manera óptima un conjunto de discos que forman un RAID, ya que permite gestionar grandes tamaños de RAID, mejorar la coherencia de los datos y un crecimiento de los diferentes sistemas de ficheros de forma más rápida, mejorando así el acceso a los bloques de los discos dentro una cabina de NetApp.


domingo, 11 de noviembre de 2012

Tendencias en los Sistemas de Backup.




… Dentro del sector de tecnologías de la información un elemento clave en toda infraestructura de cualquier organización son los sistemas de Backup, como el resto de los elementos de IT, los sistemas de respaldo y restauración han evolucionado de tal forma que el mercado a través de los diferentes fabricantes nos ofrecen soluciones basados en los siguientes puntos que detallaremos en este artículo, conocerlos nos ayudará a determinar el mejor sistema de Backup dentro de nuestra organización.

jueves, 8 de noviembre de 2012

Storage Efficiency en NetApp



....... En NetApp el concepto de “Storage Efficiency” se resume en almacenar la máxima cantidad de nuestros datos ocupando el mínimo espacio posible, de esta manera podemos como administradores de “storage” realizar un mejor planeamiento de nuestra infraestructura de almacenamiento.


miércoles, 7 de noviembre de 2012

La cultura de la tecnología

...Cuando a mi niño de 9 añitos, le preguntan a que se dedica tu padre, él, sacando pecho, responde con seguridad, es informático arregla ordenadores y hace programas, y yo pienso hace tiempo que no hago ninguna de las dos cosas y me pregunto ¿será que no estoy haciendo bien mi trabajo?, que mi niño no sepa muy bien a que me dedico no me preocupa a estas alturas, sin embargo, ese desconocimiento a veces lo veo reflejado en el sector tecnológico, concretamente cuando se hace la similitud entre, por ejemplo, un sistema de almacenamiento comparado con un disco duro comprado en una tienda de informática que por cierto cada vez ofrecen más prestaciones.

Data Reduction Research Notes

Data Reduction Research Notes

Interesante artículo para implementaciones de arquitecturas de almacenamiento.

lunes, 5 de noviembre de 2012

Creación de agregados en NetApp (Videotutorial)



Video Tutorial donde explicamos como crear un agregado en una controladora de NetApp a través de línea de comando CLI y del
Oncommand System Manager.






STORAGECONSEJOS . Convertir sectores de discos a GB


… En ocasiones nos encontramos con la necesidad de ampliar el tamaño de almacenamiento a nivel de LUN en nuestro sistema operativo, como hemos explicado, una LUN se representa como un disco dentro de un servidor el cual tiene que ser formateado, y muchas veces el software que tenemos para la gestión de los volúmenes ya sea Storage Foundation, LVM etc, tiene mecanismos para ampliar este espacio en su sistema.


sábado, 3 de noviembre de 2012

Recomendaciones Boot from SAN


 Uno de los objetivos de este blog, es además de compartir conocimiento, dar a conocer la importancia de una buena y fiable infraestructura de almacenamiento, dicho esto, en este artículo explicaremos un concepto que últimamente los arquitectos de DataCenters están tomando mucho en cuenta para sus diseños.

      El concepto de “Boot from SAN”, es el de dotar a nuestra estructura de servidores la posibilidad de tener los datos de arranque (Boot) en una cabina de almacenamiento a través de la SAN (Storage Area Network), si tenemos una infraestructura SAN, con elementos y funcionalidades que nos garantice alta disponibilidad, fiabilidad de los datos y mecanismos de réplica y respaldo, lo más recomendable, podría ser utilizar “Boot from SAN”.

Si hablamos de ahorro de costes, el uso de este mecanismo nos permite reducir el mantenimiento de hardware de discos locales en los servidores, además de dotar a los administradores de sistemas de una gestión más centralizada de sus servidores, y también aumentar el rendimiento y como no, la disponibilidad de las aplicaciones porque aprovecha todos las características inherentes a un sistema de almacenamiento.

Para proveer esta funcionalidad es necesario tener una red SAN, HBA (Host Bus Adapter) o iSCSI Adapter, y un sistema de almacenamiento que nos permita provisionar LUNs (Logical Unit Number), que serán configuradas de acuerdo a cada sistema operativo o Hypervisor en caso de servidores de virtualización, para almacenar los ficheros de arranque de los sistemas.

Pero como todo, también podemos encontrarnos con inconvenientes, por ejemplo en cuanto a compatibilidad de hardware ya que no todas las HBAs soporta “Boot from SAN”, por lo tanto es más económico realizar una actualización de los discos locales.

También nos encontramos con un punto de fallo único, en este caso el almacenamiento, ya que si éste no está disponible nuestros servidores no arrancarían, lo que en el caso de discos locales solamente tendríamos el fallo en un único servidor.

 Otro punto a tomar cuenta es en caso de que se produzca un fallo eléctrico en nuestro centro de datos, al restablecerse todos los servidores que tienen el “Boot from SAN”, estarían saturando, en algunos casos, la Fabric y por tanto se puede producir una demora en el arranque que afectaría a la disponibilidad de las aplicaciones.

En este enlace podemos encontrar conceptos técnicos referentes a “Boot from SAN” en entornos Windows.


Bueno amigos, espero que este artículo les haya sido de utilidad.

 Hasta pronto….   

jueves, 1 de noviembre de 2012

LUN - Elemento básico en almacenamiento SAN


 …. En este articulo explicaremos el concepto de LUN (Logical Unit Number) como elemento dentro de una arquitectura de almacenamiento de tipo SAN (Storage Area Network). Una LUN es una unidad de disco en bloques que se provisiona a un host (servidor o PC) a través de una red SAN mediante los protocolo de almacenamiento ISCSI o FC desde una cabina de almacenamiento compuesto por un “Array” de Discos.
Una vez los Hosts tengan visibilidad hacía la LUN a este disco se le da el formato de acuerdo al sistema de ficheros del sistema operativo (NTFS, EXT3, FAT, etc), por tanto, el sistema operativo o en caso de virtualización el Hipervisor visualiza este disco como si de un disco local se tratase, listo para almacenar datos de cualquier aplicación o ser configurado en un sistema tipo Cluster.

Por tanto, en todo sistema de almacenamiento de tipo SAN el concepto de LUN es único la diferencia radica en la utilización que los sistemas operativos o hipervisores le quieran dar a este espacio de disco dentro de un sistema de almacenamiento.
En próximos artículos explicaremos los diferentes métodos para provisionar una LUN en una red de almacenamiento SAN.

Hasta pronto.

Bienvenidos a la NUBE "Cloud Computing"


…. El mundo se mueve a través de las tendencias y como tal somos libres de decidir si las seguimos o no, en este artículo intentaré abordar de manera clara y genérica el concepto de “Cloud computing”, una tendencia cada vez más emergente en el panorama de las tecnologías.
 Empezaré diciendo que el término  “Cloud Computing”, a mi entender, es meramente de marketing, pero que conceptualmente es utilizar servicios y aplicaciones en una “nube”, imperceptible para el usuario final,  formado por una infraestructura tecnológica que incluye servidores, almacenamiento y elementos de red donde se ejecutan aplicaciones bajo demanda, a través de un sistema de gestión flexible, que ofrece a los administradores de sistemas disponer de la debida escalabilidad de sus aplicaciones.

Una de las características del “Cloud Computing” es el nivel de disponibilidad, debido a que se puede acceder desde cualquier lugar y en cualquier momento, las “nubes” pueden ser privadas o públicas, si hablamos de públicas el ejemplo más conocido es probablemente “Amazon EC” (Amazon Elastic Compute).

Sin embargo, hay que tomar en cuenta que no todas las aplicaciones están diseñadas para el “Cloud Computing”, en este sentido, es fuente de debate y preocupación la seguridad de los datos, los requerimientos de copias de datos en diferentes lugares, la latencia de acceso a las aplicaciones y como no, tener una alta disponibilidad.
Es aquí cuando los fabricantes de tecnologías están diseñando más productos para motivar a las empresas a implementar “nubes” privadas, para construir una infraestructura económica de sus “DataCenters”, y proveer aplicaciones bajo demanda.

Bajo esta premisa, toma importante papel  en una infraestructura los entornos virtualizados porque permiten a las empresas y administradores de sistemas la posibilidad de tener un gran número de máquinas virtuales y ser capaces de moverlas entre los diferentes servidores físicos que componen su centro de datos.

En este sentido, para infraestructuras de “Cloud” privadas fabricantes como CISCO, NetApp,  VMWare integrando sus diferentes tecnologías han creado FLEXPOD, que es un diseño de arquitectura que integra a estos fabricante y combina redes, virtualización y almacenamiento para así aumentar el despliegue y también reducir el riesgo y el coste total de propiedad, además de proveer mecanismos de transición a la “nube”.
En artículos posteriores, entraremos en detalle acerca de esta arquitectura, respecto al “Cloud Computing”, seguro que seguiremos comentando temas respecto a esta tendencia, si miran en este blog en “ Mis blogs favoritos”, hay un blog bastante interesante respecto al “Cloud Computing” se llama CloudAdmins.



Les dejo unos links bastante interesantes con respecto a flexpod y cloud
http://www.netapp.com/es/solutions/cloud/flexpod/


Bueno amigos, espero que este artículo les haya sido de utilidad.

Hasta pronto

miércoles, 31 de octubre de 2012

Sonrian ... SNAPSHOT


… Uno de los factores determinantes dentro de una arquitectura de almacenamiento es poseer mecanismos de protección datos, y que la recuperación de estos sea los más rápido y consistentes posibles y sobre todo que estos mecanismos no supongan una degradación del rendimiento y permita a los administradores gestionar estas tareas de una manera fácil.  
En este artículo explicaremos el concepto de SNAPSHOT, concretamente desde el punto de vista de NetApp, pero es importante tomar en cuenta que es un concepto genérico, es decir, cada fabricante de acuerdo a su arquitectura define SNAPSHOT de una manera diferente.

En general se denomina SNAPSHOT, a una foto, instantánea o imagen de un sistema de ficheros en un momento dado, para diferentes propósitos, sin necesidad de afectar la disponibilidad de los datos e incluso el rendimiento, uno de los propósitos de generar un snapshot es para respaldo de los datos o para realizar clonados de sistemas de ficheros para proteger los datos ante cambios que se pueden producir en ellos.
Por ejemplo, el concepto de Snapshot en VMWARE es realizar una copia de una máquina virtual específica, en este sentido los administradores de VMWare realizan Snapshots cuando se quiere realizar algún cambio sobre alguna máquina virtual y en caso de producirse algún problema, restaurar la máquina virtual a partir del Snapshot que se generó y así volver al estado anterior de la máquina virtual.

Desde el punto de vista de NetApp , es una imagen en un momento determinado del sistema de ficheros, se realiza a nivel de volumen, por tanto, cuando se realiza un snapshot se realiza una copia de la tabla de inodes del volumen, cuando un fichero es modificado dentro del volumen, Data Ontap copia los bloques antes de modificarse al espacio reservado para snapshots, apuntando los punteros de snapshot a los bloques no modificados, mediante esta técnica se consigue una copia fiable del sistema sin la necesidad de tener que copiar todos los datos, solamente los que se modifican. Se pueden generar hasta 255 snapshots por volumen.
Cuando se crea un volumen se reserva un espacio para los snapshots, y se puede visualizar (es configurable) una vez montado el volumen, concretamente en el directorio . /Snapshot, en el ejemplo vemos un volumen montado en una máquina de Linux y se lista los snapshots generados.

root@maquetas> cd .snapshot/

root@maquetas> ls

 

hourly.0   hourly.1   hourly.2   hourly.3   hourly.4   snapshot1  snapshot2

root@maquetas> ls -la

drwxrwxrwx   9 root     root        4096 Jan 20 20:00 .

drwxr-xr-x   6 root     root        4096 Jan 20 19:30 ..

drwxr-xr-x   5 root     root        4096 Jan 20 19:30 hourly.0

drwxr-xr-x   4 root     root        4096 Nov 17 13:39 hourly.1

drwxr-xr-x   4 root     root        4096 Nov 17 13:39 hourly.2

drwxr-xr-x   4 root     root        4096 Nov 17 13:39 hourly.3

drwxr-xr-x   4 root     root        4096 Nov 17 13:39 hourly.4

drwxr-xr-x   4 root     root        4096 Nov 17 13:39 snapshot1

drwxr-xr-x   4 root     root        4096 Nov 17 13:39 snapshot2

 

La generación de los snapshots se pueden programar en las siguientes periodicidades.

§  Weekly: Se realizan todos los domingos a medianoche.

§  Nightly: Se realizan todos los días a medianoche.

§  Hourly: Se realizan a las horas programadas.

En el ejemplo mostramos una configuración de snapshots programados a través del comando “ snap sched “

Snap sched 1 2 6@8,12,16,20

Donde

1    Nº de snapshots “Weekly” que se guardan

2    Nº de snapshots “Nightly” que se guardan

6    Nº de snapshots “Hourly” que se guardan

8, 12, 16, 20 Horas a las que se realizan los snaps “Hourly”

Esta programación se puede realizar a través del Oncommand System Manager, que es la herramienta grafica de NetApp utilizada para administrar la cabina de NetApp.
A continuación explicaremos, para entender mejor el comportamiento de los snapshots la salida del comando “snap list” , esto nos ayudará a definir una buena configuración de snapshots.

Supongamos que al listar nuestros snapshots nos aparece la siguiente salida

 %/used             %/total            date                  name

     

31% (31%)    0% ( 0%)            Mar 08 00:00                     nightly.0

47% (29%)    0% ( 0%)            Mar 07 20:00                     hourly.0

57% (32%)    0% ( 0%)            Mar 07 16:00                     hourly.1

64% (29%)    0% ( 0%)            Mar 07 12:00                     hourly.2

69% (32%)    0% ( 0%)            Mar 07 08:00                     hourly.3

73% (29%)    0% ( 0%)            Mar 07 00:01                     nightly.1

76% (30%)    0% ( 0%)            Mar 06 20:00                     hourly.4

78% (31%)    0% ( 0%)            Mar 06 16:00                     hourly.5


La columna % used nos muestra el espacio consumido por los snapshots dividido por los bloques utilizados en el volumen, no toma en cuenta si ese espacio es utilizado por el filesystem o snapshots, el primer número es acumulativo para todos los snapshots de la lista, el segundo para el % usado por el snapshot específico.
La columna % total muestra el espacio consumido por los snapshots dividido por el espacio total de disco en el volumen, esto incluye el espacio de datos + espacio reservado para los snapshots incluye todo los bloques usados y libres, si el espacio total del volumen es 100 GB y el espacio consumido por snapshots son 60 MB el cálculo sería < 1% , por tanto nos mostraría 0% tal y como muestra la salida del ejemplo.

Por tanto, la variación de estos valores dependerá de los bloques nuevos, modificados y borrados, dicho esto, si la cantidad de datos varia entonces el % total seguirá siendo el mismo , pero el % used variará, si al contrario la tasa de cambio se mantiene constante, pero el volumen se aumenta o se reduce, entonces el % Total cambiará y el % used seguirá siendo el mismo.
Estos datos son útiles analizarlos, para concluir que cuando se tienen una gran cantidad de datos de snapshots y el espacio libre es alto, se debe de incrementar el % de reserva para snapshots y cuando el espacio libre es bajo, entonces se debe aumentar el tamaño del volumen, de la misma forma el valor del % total nos puede indicar si el porcentaje reservado para los snapshots es insuficiente, y si se ha desbordado el espacio de los datos en el volumen, si se tiene un periodo de retención grande estos datos determinarán hasta cuanto se debe aumentar de tamaño el volumen.

Por último, si se decide eliminar snapshots, ejecutar antes los siguientes comando “snap delta” y snap “reclaimable” para tener una idea que snapshots eliminar.
En conclusión, es importante definir una buena política de retención y reserva de los snapshots tomando en cuenta la variación de los datos almacenados en el volumen, en la práctica, muchas veces nos encontramos sin espacio en el volumen debido a una mala definición de la configuración de los snapshots.

Bueno amigos, espero que este articulo les haya sido de utilidad.
Hasta pronto

martes, 30 de octubre de 2012

TICjob.es

Les dejo un Portal para encontrar empleo en Tecnología de la Información


Factores de fiabilidad de los Discos

....  Una de las cuestiones más recurrentes en todo sistema de almacenamiento es como sabemos la fiabilidad de nuestro hardware, ya que como todo en la vida las cosas se degradan por su uso y los discos no son la excepción, por lo general en cuanto a unidades de discos el tiempo de vida es de 5 años, algunos fabricantes incluso toman como referencia este dato para establecer sus coberturas de garantía.

En este artículo veremos  los factores y como miden por lo general esa fiabilidad los fabricantes de almacenamiento.

Estos factores se aplican para unidades de discos pero también son útiles para cualquier elemento de hardware.

MEAN TIME BETWEEN FAILURES (MTBF)

Se mide el tiempo de vida de un dispositivo de hardware, es la forma menos precisa para medir este factor, ya que por lo general los fabricantes no esperan toda la vida del dispositivo para realizar esta medición, por tanto el dato se obtiene de la tasa de fallo durante el tiempo de vida esperado por el dispositivo.

La formula sería la siguiente

MTBF = test duration * # of drives tested / # of drives that failed during testing

Los valores de MTBF más comunes de los dispositivos de discos de tipo SSD , SATA, SAS y FC son

Discos SSD                   2.0 millones de horas

Discos SAS y FC          1.6 millones de horas

Discos SATA                1,2 millones de horas.

Como hemos mencionado la garantía de los discos normalmente es de 5 años (43,800 horas), como ven, hay una notable diferencia con los valores descritos, por tanto el valor de horas por año sería 43,800 / 5 como resultado tenemos 8,760

Tomando estos valores  podemos obtener por cada tipo de disco el porcentaje de fallos por año.

Discos SATA

1200,000 horas MTBF / 8,760 horas por año = 136,9863
1 fallo / 136.9863 = 0,00730 * 100 = 0,73 % fallos por año

Discos FC – SAS

1600,000 horas MTBF / 8,760 horas por año = 182,6484
1 fallo / 182.6484 = 0,00547 * 100 = 0,55 % fallos por año

Discos SSD ( Estado sólido )

2000,000 horas MTBF / 8,760 horas por año = 228.3105
1 failure / 228.3105  = 0,00438 * 100 = 0,44 % fallos por año

Por tanto podemos calcular 40 drives SAS

40 SAS Drives * 0,55 % = 0,22 fallos /años * 5 años = 1,1 fallos en 5 años

AVERAGE RETURN RATE (ARR)

Se basa en la tasa de rendimiento real que ofrece un dispositivo que está en uso, el problema es que no distingue que los dispositivos hayan sido retornados debido a falsos positivos, o razones que no tienen que ver con algún error.

AVERAGE FAILURE RATE (AFR)

Es la medida más precisa de fiabilidad debido a que se basa en la devolución y en su verificación del fallo del dispositivo, pero se calcula en el tiempo con lo cual resulta difícil su medición por los fabricantes.

En resumen, estos valores son teóricos y por tanto llevados a la realidad no son exactos, ya que la degradación de los dispositivos está supeditada a muchos factores dentro de una arquitectura de almacenamiento, pero podemos concluir que dependiendo la tecnología de los discos unos son más fiables que otros, factor importante que influye en el coste de los mismos.

Espero que este artículo les haya sido de utilidad.

Hasta pronto….

domingo, 28 de octubre de 2012

STORAGECONSEJOS . Documentación necesaria


..... Esta sección la he llamado “storageconsejos”  en ella iré exponiendo  algunos consejos que por mi experiencia me han servido para implementar cualquier solución que integra diferentes tecnologías, no es necesario aplicarlos para alcanzar el éxito en cualquier proyecto pero si considero que su aplicación nos ahorraría muchos dolores de cabeza al momento de su implementación.

Revisar estos tres documentos fundamentales para empezar una correcta implementación “Release Notes” , la “ Comptability Matrix” y “Best Practices”, la información descrita en estos documentos nos ayudará a determinar si tendremos algún problema al momento de integrar las soluciones de los fabricantes que intervendrán en nuestro diseño.
A continuación describiremos que información podemos encontrarnos en estos documentos.

Release Notes .  Es un documento donde se explica que nuevas funcionalidades o características vamos a encontrar en la versión que vamos a instalar, un dato importante que nos podemos encontrar en este documento son las limitaciones de funcionamiento que tiene la versión así como también que  errores o problemas soluciona con respecto a las versiones anteriores.

Comptability Matrix.- Esta información es de vital importancia al momento de realizar el diseño y la implementación de un proyecto, la no verificación de la compatibilidad del software o hardware utilizado nos puede llevar a tener problemas e incidencias de difícil solución y lo que es peor que el fabricante no “soporte” esta implementación al no cumplirse la compatibilidad de sus productos que se integran en cualquier diseño.
Best Practices .- La revisión de las mejores prácticas recomendadas por el fabricante nos ayudará a realizar un diseño más óptimo de nuestra arquitectura, estas consideraciones recomendadas por los fabricantes es de suponer que han sido debidamente testeadas o aplicadas, no obstante hay que señalar que estas recomendaciones en algunos casos no se aplican porque también depende de los requerimientos de la solución a implementar.

Bueno amigos, espero que este consejo les haya sido de utilidad.

Hasta pronto….