… En una
infraestructura basada en NetBackup
muchas veces nos encontramos con problemas que normalmente son códigos de
errores, en estos casos NetBackup no
muestra un detalle del error y por lo general encontramos alguna nota técnica o
KB para dar solución a nuestro problema o bien aplicar algún “Workaround” que
nos permita solventar la incidencia.
viernes, 21 de diciembre de 2012
miércoles, 19 de diciembre de 2012
LA CRISIS NO ES SOLO ECONOMICA.
…. En estos tiempos en plena crisis me temo que estamos viviendo una situación que no solamente radica en lo meramente económico, aunque es cierto que es el principal motivo y a la postre el origen de la situación, lo cierto es que en algunos sectores como el de tecnología en donde se “vende” conocimiento, siendo este el factor que nos diferencia de la competencia, nos encontramos en que estamos abaratando el conocimiento y por tanto en una escasez de calidad profesional realmente alarmante.
Está claro, como en todo sector, hay niveles pero
no sólo salariales sino también de responsabilidades medidos y evaluados acorde
a cada perfil y experiencia que cada profesional del sector tiene ,en este
sentido, un becario (practicante) o un “junior” como era de esperar es el que
está sufriendo esta situación. Y me explico.
Alguien dijo
en un sintonizado programa deportivo en pleno directo harto ya de lo mal que
estaba el de la cámara, “Que él con becarios no trabaja y que ellos están para
aprender…”, y tiene toda la razón, están para aprender o al menos eso es lo que
esperan al momento de salir de las universidades o escuelas, y creo que sin
temor a equivocarme la responsabilidad que están asumiendo es exagerada y por
tanto supone un riesgo, porque aquello
de abaratar costes en tecnología me atrevería a decir que no funciona, es
lamentable por tanto escuchar a un compañero decir con aire frustrado “Creo que
me equivoque de carrera”, la verdad es que creo que estamos matando a los nuevos
profesionales y no somos conscientes que ellos sin duda son el futuro, también por
el contrario hay que decir que tienen que ser humildes y sobre todo pacientes
porque el camino es largo y recién empieza, pero sea de una forma u otra las
organizaciones con el ánimo de centrarse en un asunto sólo económico están
poniendo en riesgo su prestigio y por tanto su propio negocio.
Los que
tenemos un poco de experiencia más por las canas que por otra cosa y que no
estamos muy arriba ni muy abajo, no nos queda más que soportar esta tendencia
que peligrosamente se está viendo a medida que pasa el tiempo, la solución creo
que es encontrar el equilibrio entre lo necesario y mínimo para ofrecer calidad
sin necesidad de caer en que el ahorro de costes se lleve consigo lo más
valioso que tienen las organizaciones que es el factor humano y por tanto los
buenos profesionales que son los que al
fin y al cabo hacen a las empresas exitosas.
El tema está
abierto, y aunque la crisis económica, según los expertos, tiene para largo al
menos desde nuestra posición y poniendo nuestro granito de arena, sin duda,
podemos hacer que las devastadoras consecuencias de la crisis, no sean tales,
por el bien de las empresas, de nosotros y de los que vienen detrás esperando
que el futuro sea mejor.
Hasta pronto…
STORAGECONSEJOS. JUMBO FRAMES - El tamaño si importa
…. No sean mal pensados por el título del post J , en este artículo
describiremos el concepto de JUMBO FRAMES, que no es más que la posibilidad de
permitir a nuestros elementos de red ya sea tarjetas NICs , Switches o
interfaces virtuales a enviar un mayor tamaño de paquetes Ethernet por encima
de los 1500 bytes convencionales, alcanzado si estos elementos lo soportan
hasta los 9000 bytes, tanto a nivel de redes locales como de redes de largo
alcance WAN, sin embargo hay que tener cuidado al habilitar esta funcionalidad
por que algunos proveedores de Internet no soportan JUMBO FRAMES y podemos encontrarnos también que
algún elemento de red dentro de nuestra infraestructura tampoco lo soporte, sobre todo los switches antiguos.
La activación de
esta característica básicamente nos permitirá reducir el coste y los ciclos de
CPU, mejorando el rendimiento de las conexiones por TCP notoriamente.
En lo que se
refiere a almacenamiento, sobre todo para conexiones a través de ISCSI, siempre
y cuando todos los elementos de nuestra ruta de red soporte JUMBO FRAMES, es
recomendable activarlo, de esta manera se ganará en rendimiento tanto de
lectura o escritura en disco provisionado por SAN, como en el caso de la
conectividad con una librería de cinta por ISCSI al momento de realizar escrituras hacia
una cinta en un proceso de Backup.
¿ Y porque se limita a 9000 bytes?
Simplemente
porque una trama Ethernet emplea un CRC (Cyclic Redundancy Checksum)
de 32 bits el cual pierde su eficacia de detección de errores por encima de los
12000 bytes.
A continuación les
detallo como activar JUMBO FRAMES en
diferentes tecnologías.
NETAPP
ifconfig
<nombredeinterfaz o VIF> mtusize 9000
VMWARE
esxcfg-vmknic -a -i
<dirección IP> -n <MASCARA> -m 9000 <NOMBRE NIC>
LINUX
ifconfig eth1 mtu 9000
ip link set eth1 mtu 9000
XEN SERVER
xe vif-param-set uuid=<vif_uuid>
other-config:mtu=9000
WINDOWS
netsh int ipv4 set subint “” mtu=9000
store=persistent
sábado, 15 de diciembre de 2012
Controladoras VSeries de NetApp
Hace unos años se hacía
referencia a la evolución en tecnología en sus diferentes arquitecturas, y
precisamente uno de los conceptos que predominaban era el de “Arquitecturas
Abiertas”, lo que significa ir evolucionando hacia la integración de soluciones
y así obtener eficiencia y lo que es más importante sencillez al momento de
administrar como de implementar cualquier infraestructura.
martes, 11 de diciembre de 2012
Cluster HA en Storage NetApp
.. Una de las
características de una arquitectura de almacenamiento basada en controladoras
de NetApp es la alta disponibilidad que ofrece a través de un Cluster Activo /
Activo en sus controladoras.
En este sentido, las bandejas de discos son
conectadas a través de Loops o anillos físicos
a cada una de las controladoras con la finalidad de tener redundancia,
por tanto todas las bandejas conectadas serán visibles desde las controladoras
que conforman el Cluster, de tal manera que en caso que uno de los “caminos” se
pierda, estos discos puedan ser visualizados por la controladora por el “camino”
redundado. Esto ofrece alta disponibilidad en cuanto a conectividad de las
bandejas de discos dentro del Cluster.
domingo, 9 de diciembre de 2012
STORAGECONSEJOS Backup de Máquinas Virtuales en XEN CITRIX
En este post se describe las opciones de Backup de maquinas virtuales en Xen Citrix en caso de pérdida o
desastre.
jueves, 6 de diciembre de 2012
VMWare Storage Appliance ¿Es realmente necesario?
.. VMWare en su última versión la 5.1 añade muchas novedades no sólo en licenciamiento (importante revisar este apartado porque no tiene desperdicio), sino también en funcionalidades y en la orientación que se le quiere dar a las arquitecturas basadas en VMWare básicamente hacía entornos de Cloud, es allí cuando se incorpora la funcionalidad de Single Sign On o de la próxima desaparición del VSphere Client para darle mayor protagonismo al VSphere Web Client, pero también las novedades radican en aspectos de almacenamiento, en este sentido se ha incluido dentro de la suite un “Appliance” llamado VMWare Storage Appliance o VSA, que se desplega a través del VCenter, y que nos ofrece la posibilidad de utilizar y compartir el almacenamiento local de cada uno de los hosts que componen un Cluster y convertirlo en un almacenamiento compartido a modo de SAN para toda la infraestructura virtual, para así aplicar funcionalidades de Storage VMotion, HA, DRS y Storage I/O Control. La idea no parece mala.
miércoles, 5 de diciembre de 2012
Recuperación de datos mediante SnapRestore
Como concepto el SnapRestore utiliza la
tecnología de Snapshot permitiendo la recuperación de datos a partir de una
copia de Snapshot almacenada en los volúmenes en caso de desastre o corrupción
de datos.
domingo, 2 de diciembre de 2012
Actualización de Data Ontap de NetApp
Como hemos
mencionado en anteriores post el Sistema de Almacenamiento de NetApp tiene un
sistema operativo llamado Data Ontap, actualmente se encuentra en su versión
8.1, que trae consigo nuevas funcionalidades y mejoras dentro de la
arquitectura de NetApp, en este artículo describiremos algunas consideraciones
a tomar en cuenta antes de realizar la actualización de Data Ontap y garantizar
que esta se realice de manera eficiente y lo más importante sin pérdida de datos.
A Practical Implementation of Private Cloud -- NetApp Cloud
Como complemento al POST Diseño de un catalogo de servicios en Private Storage Cloud , aquí les dejo un video referente a implementación de “PRIVATE CLOUD” con NetApp
viernes, 30 de noviembre de 2012
Diseño de un catalogo de servicios en Private Storage Cloud
….. Como habíamos mencionado en el post de Storage Cloud, los departamentos de IT de las organizaciones asumían un papel
determinante en el desarrollo de este modelo, ofreciendo
servicios de almacenamiento a los diferentes usuarios y departamentos que lo
requieran, a través de portales que permitirán a estos usuarios acceder al
almacenamiento sin importar el método de acceso o los protocolos utilizados.
jueves, 29 de noviembre de 2012
Fin de disponibilidad de ESX 4.x
VMware anuncia la fecha
de fin de disponibilidad del hipervisor VMware vSphere® ESX 4.x y de VMware
Management Assistant versiones 1 y 4
El 28 de noviembre de 2012, VMware notificará a sus clientes la fecha de fin de disponibilidad del hipervisor VMware vSphere® ESX 4.x y de VMware Management Assistant versiones 1 y 4. La fecha de fin de disponibilidad será el 15 de agosto de 2013. Esta comunicación está relacionada con el anuncio general efectuado en julio de 2011 respecto al lanzamiento de VMware vSphere 5.0.
El 28 de noviembre de 2012, VMware notificará a sus clientes la fecha de fin de disponibilidad del hipervisor VMware vSphere® ESX 4.x y de VMware Management Assistant versiones 1 y 4. La fecha de fin de disponibilidad será el 15 de agosto de 2013. Esta comunicación está relacionada con el anuncio general efectuado en julio de 2011 respecto al lanzamiento de VMware vSphere 5.0.
miércoles, 28 de noviembre de 2012
.. De vocación Tecnologíca
…. Hoy en día, en plena revolución tecnológica nos
encontramos en una situación global realmente excitante, hace unos días un
cliente me comentaba que estábamos en un momento “dulce” en todo lo
que es tecnología y la verdad no le falta razón, todo evoluciona y hay
conceptos, tendencias y tecnologías que se van superando año tras año, a pesar
de la crisis económica en la que nos encontramos.
martes, 27 de noviembre de 2012
TROUBLESHOOTING en NetApp
…. En tecnología uno de los puntos importantes en toda
solución, diseño o producto es el denominado concepto de “Troubleshooting”, que
no es más que mecanismos, procedimientos y herramientas que nos ayudarán a detectar
un problema y posteriormente garantizar una resolución al problema de una
manera eficaz y sobretodo en el menor tiempo posible.
En este sentido
NetApp ofrece una serie de procedimientos y herramientas que nos ayudarán en
esta tarea como administradores. En este artículo abordaremos este tema.
lunes, 26 de noviembre de 2012
STORAGE CLOUD
Las organizaciones y en concreto los departamentos de IT en
su afán de buscar un ahorro de costes en sus infraestructuras están planteando
como alternativa soluciones de “Storage Cloud”, como hemos mencionado el Cloud
Computing es una nueva tendencia, un nuevo modelo de negocio que abarca
tecnologías ya existentes capaces de dar servicios bajo demanda, optimizando así
los recursos tecnológicos en una organización.
viernes, 23 de noviembre de 2012
Arquitectura de Symantec NETBACKUP
… Dentro de
una infraestructura de IT un elemento importante es tener un Sistema de Backup
que permita a los administradores disponer de las herramientas suficientes de
respaldo y recuperación de datos de cada uno de sus entornos y aplicaciones, en
este contexto el fabricante Symantec tiene un producto llamado NetBackup,
actualmente en su versión 7.5 en donde orienta especialmente su tecnología a
entornos de virtualización y Cloud, además de proveer mecanismos para optimizar
los procesos habituales de todo Sistema de Backup.
miércoles, 21 de noviembre de 2012
SNIA Tutorial: Introduction to Data Protection: Backup to Tape, Disk and Beyond
Interesante Tutorial
de la SNIA (Storage Networking
Industry Association) referente
a conceptos de “Data Protection”, para
diseñar políticas y metodologías de Backup, repasa los diferentes mecanismos de
eficiencia como son deduplicación, snapshots, así como los elementos que
componen una arquitectura de Protección de Datos.
Espero que
este video les ayude a aclarar conceptos referentes a Protección de Datos
Hasta pronto
domingo, 18 de noviembre de 2012
NDMP (Network Data Manager Protocol)
Es un protocolo abierto que
permite realizar copias de seguridad a través de la red en arquitecturas heterogéneas
en las que nos encontramos diferentes sistemas de almacenamiento, fue
desarrollado por los fabricantes de almacenamiento NetApp y EMC, para mejorar
los niveles de transferencia de datos y la velocidad en las operaciones de
copias de seguridad interactuando con las librerías de cintas dentro de una
arquitectura de almacenamiento y Backup.
viernes, 16 de noviembre de 2012
miércoles, 14 de noviembre de 2012
BIG DATA … Hacia dónde vamos!!!
….. Hace unos años en
tecnología hablábamos de términos como “Sociedad de la información” y a medida
que pasaba el tiempo teníamos ante nosotros una eminente y cambiante forma de ver, compartir, gestionar y ofrecer servicios de información a todos los niveles, hoy en
día estos conceptos han evolucionado y si hablamos propiamente de la gestión de
Datos nos encontramos que cada día tenemos más cantidad de volúmenes y repositorios que gestionar, es
aquí cuando nos encontramos con el concepto de “Big Data” que conceptualmente es
un conjunto de datos (en ocasiones de hasta petabytes) que son imposibles de
gestionar, tratar y analizar con las herramientas convencionales como pueden
ser base de datos o software de análisis, dentro de este conjunto de datos se
encuentran los repositorios con imágenes , Webs y como no, las redes sociales
tan de moda en estos tiempos.
STORAGECONSEJOS . TIP para provisionar una LUN de 2 Teras en Vpshere 4.1 en NetApp.
... Uno de los problemas que nos encontramos al momento de provisionar una LUN de 2 TB como DataStore en un Cluster de VMWare con VSphere 4.1 es que no nos permite formatear la LUN dentro de nuestra plataforma Virtual y nos aparece un error similar a este.
Call "HostDatastoreSystem.QueryVmfsDatastoreCreateOptions" for
object "datastorename" on vCenter Server "servername"
failed. Call "HostStorageSystem.RetrieveDiskPartitionInfo" for object
"storageSystem-XXXX" on vCenter Server "servername" failed.
martes, 13 de noviembre de 2012
WAFL el CORE de DataOntap
WAFL (Write Anywhere File Layout) es el concepto en el que se
basa el sistema operativo de los equipos de NetApp DataOntap , es una
estructura de ficheros capaces de realizar mecanismos que permiten gestionar de
manera óptima un conjunto de discos que forman un RAID, ya que permite
gestionar grandes tamaños de RAID, mejorar la coherencia de los datos y un
crecimiento de los diferentes sistemas de ficheros de forma más rápida,
mejorando así el acceso a los bloques de los discos dentro una cabina de
NetApp.
domingo, 11 de noviembre de 2012
Tendencias en los Sistemas de Backup.
… Dentro del sector de
tecnologías de la información un elemento clave en toda infraestructura de
cualquier organización son los sistemas de Backup, como el resto de los
elementos de IT, los sistemas de respaldo y restauración han evolucionado de
tal forma que el mercado a través de los diferentes fabricantes nos ofrecen
soluciones basados en los siguientes puntos que detallaremos en este artículo, conocerlos
nos ayudará a determinar el mejor sistema de Backup dentro de nuestra
organización.
jueves, 8 de noviembre de 2012
Storage Efficiency en NetApp
....... En NetApp el concepto de “Storage
Efficiency” se resume en almacenar la máxima cantidad de nuestros datos
ocupando el mínimo espacio posible, de esta manera podemos como administradores
de “storage” realizar un mejor planeamiento de nuestra infraestructura de
almacenamiento.
miércoles, 7 de noviembre de 2012
La cultura de la tecnología
...Cuando a mi niño de 9 añitos, le preguntan a que se dedica tu padre, él,
sacando pecho, responde con seguridad, es informático arregla ordenadores y hace
programas, y yo pienso hace tiempo que no hago ninguna de las dos cosas y me
pregunto ¿será que no estoy haciendo bien mi trabajo?, que mi niño no sepa muy
bien a que me dedico no me preocupa a estas alturas, sin embargo, ese
desconocimiento a veces lo veo reflejado en el sector tecnológico, concretamente
cuando se hace la similitud entre, por ejemplo, un sistema de almacenamiento comparado con un disco duro comprado en una tienda de informática que por cierto cada vez
ofrecen más prestaciones.
Data Reduction Research Notes
Data Reduction Research Notes
Interesante artículo para implementaciones de arquitecturas de almacenamiento.
Interesante artículo para implementaciones de arquitecturas de almacenamiento.
lunes, 5 de noviembre de 2012
Creación de agregados en NetApp (Videotutorial)
Video Tutorial donde explicamos como
crear un agregado en una controladora de NetApp a través de línea de comando
CLI y del
Oncommand System Manager.
STORAGECONSEJOS . Convertir sectores de discos a GB
… En ocasiones nos
encontramos con la necesidad de ampliar el tamaño de almacenamiento a nivel de
LUN en nuestro sistema operativo, como hemos explicado, una LUN se representa
como un disco dentro de un servidor el cual tiene que ser formateado, y muchas
veces el software que tenemos para la gestión de los volúmenes ya sea Storage
Foundation, LVM etc, tiene mecanismos para ampliar este espacio en su sistema.
sábado, 3 de noviembre de 2012
Recomendaciones Boot from SAN
… Uno de los objetivos de este blog, es además
de compartir conocimiento, dar a conocer la importancia de una buena y fiable
infraestructura de almacenamiento, dicho esto, en este artículo explicaremos un
concepto que últimamente los arquitectos de DataCenters están tomando mucho en
cuenta para sus diseños.
El concepto de “Boot from SAN”, es el de
dotar a nuestra estructura de servidores la posibilidad de tener los datos de
arranque (Boot) en una cabina de almacenamiento a través de la SAN (Storage
Area Network), si tenemos una infraestructura SAN, con elementos y funcionalidades
que nos garantice alta disponibilidad, fiabilidad de los datos y mecanismos de
réplica y respaldo, lo más recomendable, podría ser utilizar “Boot from SAN”.
Si hablamos de ahorro de
costes, el uso de este mecanismo nos permite reducir el mantenimiento de
hardware de discos locales en los servidores, además de dotar a los
administradores de sistemas de una gestión más centralizada de sus servidores, y
también aumentar el rendimiento y como no, la disponibilidad de las
aplicaciones porque aprovecha todos las características inherentes a un sistema
de almacenamiento.
Para proveer esta
funcionalidad es necesario tener una red SAN, HBA (Host Bus Adapter) o iSCSI
Adapter, y un sistema de almacenamiento que nos permita provisionar LUNs
(Logical Unit Number), que serán configuradas de acuerdo a cada sistema
operativo o Hypervisor en caso de servidores de virtualización, para almacenar
los ficheros de arranque de los sistemas.
Pero como todo, también
podemos encontrarnos con inconvenientes, por ejemplo en cuanto a compatibilidad
de hardware ya que no todas las HBAs soporta “Boot from SAN”, por lo tanto es
más económico realizar una actualización de los discos locales.
También nos encontramos
con un punto de fallo único, en este caso el almacenamiento, ya que si éste no
está disponible nuestros servidores no arrancarían, lo que en el caso de discos
locales solamente tendríamos el fallo en un único servidor.
Otro punto a tomar cuenta es en caso de que se
produzca un fallo eléctrico en nuestro centro de datos, al restablecerse todos
los servidores que tienen el “Boot from SAN”, estarían saturando, en algunos
casos, la Fabric y por tanto se puede producir una demora en el arranque que afectaría
a la disponibilidad de las aplicaciones.
En este enlace podemos
encontrar conceptos técnicos referentes a “Boot from SAN” en entornos Windows.
Bueno amigos,
espero que este artículo les haya sido de utilidad.
Hasta pronto….
jueves, 1 de noviembre de 2012
LUN - Elemento básico en almacenamiento SAN
…. En este articulo explicaremos el concepto
de LUN (Logical Unit Number) como elemento dentro de una arquitectura de
almacenamiento de tipo SAN (Storage Area Network). Una LUN es una unidad de
disco en bloques que se provisiona a un host (servidor o PC) a través de una
red SAN mediante los protocolo de almacenamiento ISCSI o FC desde una cabina de
almacenamiento compuesto por un “Array” de Discos.
Una vez los Hosts tengan
visibilidad hacía la LUN a este disco se le da el formato de acuerdo al sistema
de ficheros del sistema operativo (NTFS, EXT3, FAT, etc), por tanto, el sistema
operativo o en caso de virtualización el Hipervisor visualiza este disco como
si de un disco local se tratase, listo para almacenar datos de cualquier
aplicación o ser configurado en un sistema tipo Cluster.
Por tanto, en todo
sistema de almacenamiento de tipo SAN el concepto de LUN es único la diferencia
radica en la utilización que los sistemas operativos o hipervisores le quieran
dar a este espacio de disco dentro de un sistema de almacenamiento.
En próximos artículos explicaremos
los diferentes métodos para provisionar una LUN en una red de almacenamiento
SAN.
Hasta pronto.
Bienvenidos a la NUBE "Cloud Computing"
…. El mundo se mueve a
través de las tendencias y como tal somos libres de decidir si las seguimos o
no, en este artículo intentaré abordar de manera clara y genérica el concepto
de “Cloud computing”, una tendencia cada vez más emergente en el panorama de
las tecnologías.
Empezaré diciendo que el término “Cloud Computing”, a mi entender, es
meramente de marketing, pero que conceptualmente es utilizar servicios y
aplicaciones en una “nube”, imperceptible para el usuario final, formado por una infraestructura tecnológica
que incluye servidores, almacenamiento y elementos de red donde se ejecutan
aplicaciones bajo demanda, a través de un sistema de gestión flexible, que
ofrece a los administradores de sistemas disponer de la debida escalabilidad de
sus aplicaciones. Una de las características del “Cloud Computing” es el nivel de disponibilidad, debido a que se puede acceder desde cualquier lugar y en cualquier momento, las “nubes” pueden ser privadas o públicas, si hablamos de públicas el ejemplo más conocido es probablemente “Amazon EC” (Amazon Elastic Compute).
Sin embargo, hay que tomar en cuenta que no todas las aplicaciones están diseñadas para el “Cloud Computing”, en este sentido, es fuente de debate y preocupación la seguridad de los datos, los requerimientos de copias de datos en diferentes lugares, la latencia de acceso a las aplicaciones y como no, tener una alta disponibilidad.
Es aquí cuando los fabricantes de tecnologías están diseñando más productos para motivar a las empresas a implementar “nubes” privadas, para construir una infraestructura económica de sus “DataCenters”, y proveer aplicaciones bajo demanda.
Bajo esta premisa, toma importante papel en una infraestructura los entornos virtualizados porque permiten a las empresas y administradores de sistemas la posibilidad de tener un gran número de máquinas virtuales y ser capaces de moverlas entre los diferentes servidores físicos que componen su centro de datos.
En este sentido, para infraestructuras de “Cloud” privadas fabricantes como CISCO, NetApp, VMWare integrando sus diferentes tecnologías han creado FLEXPOD, que es un diseño de arquitectura que integra a estos fabricante y combina redes, virtualización y almacenamiento para así aumentar el despliegue y también reducir el riesgo y el coste total de propiedad, además de proveer mecanismos de transición a la “nube”.
En artículos posteriores, entraremos en detalle acerca de esta arquitectura, respecto al “Cloud Computing”, seguro que seguiremos comentando temas respecto a esta tendencia, si miran en este blog en “ Mis blogs favoritos”, hay un blog bastante interesante respecto al “Cloud Computing” se llama CloudAdmins.
Les dejo unos links
bastante interesantes con respecto a flexpod y cloud
http://www.netapp.com/es/solutions/cloud/flexpod/
Bueno amigos, espero que
este artículo les haya sido de utilidad.
Hasta pronto
miércoles, 31 de octubre de 2012
Sonrian ... SNAPSHOT
…
Uno de los factores determinantes dentro de una arquitectura de almacenamiento
es poseer mecanismos de protección datos, y que la recuperación de estos sea
los más rápido y consistentes posibles y sobre todo que estos mecanismos no
supongan una degradación del rendimiento y permita a los administradores
gestionar estas tareas de una manera fácil.
En
este artículo explicaremos el concepto de SNAPSHOT, concretamente desde el
punto de vista de NetApp, pero es importante tomar en cuenta que es un concepto
genérico, es decir, cada fabricante de acuerdo a su arquitectura define
SNAPSHOT de una manera diferente.
En
general se denomina SNAPSHOT, a una foto, instantánea o imagen de un sistema de
ficheros en un momento dado, para diferentes propósitos, sin necesidad de
afectar la disponibilidad de los datos e incluso el rendimiento, uno de los
propósitos de generar un snapshot es para respaldo de los datos o para realizar
clonados de sistemas de ficheros para proteger los datos ante cambios que se pueden
producir en ellos.
Por
ejemplo, el concepto de Snapshot en VMWARE es realizar una copia de una máquina
virtual específica, en este sentido los administradores de VMWare realizan
Snapshots cuando se quiere realizar algún cambio sobre alguna máquina virtual y
en caso de producirse algún problema, restaurar la máquina virtual a partir del
Snapshot que se generó y así volver al estado anterior de la máquina virtual.
Desde
el punto de vista de NetApp , es una imagen en un momento determinado del
sistema de ficheros, se realiza a nivel de volumen, por tanto, cuando se
realiza un snapshot se realiza una copia de la tabla de inodes del volumen,
cuando un fichero es modificado dentro del volumen, Data Ontap copia los
bloques antes de modificarse al espacio reservado para snapshots, apuntando los
punteros de snapshot a los bloques no modificados, mediante esta técnica se
consigue una copia fiable del sistema sin la necesidad de tener que copiar
todos los datos, solamente los que se modifican. Se pueden generar hasta 255
snapshots por volumen.
Cuando
se crea un volumen se reserva un espacio para los snapshots, y se puede
visualizar (es configurable) una vez montado el volumen, concretamente en el
directorio . /Snapshot, en el ejemplo vemos un volumen montado en una máquina
de Linux y se lista los snapshots generados.
root@maquetas> cd .snapshot/
root@maquetas> ls
hourly.0 hourly.1
hourly.2 hourly.3 hourly.4
snapshot1 snapshot2
root@maquetas> ls -la
drwxrwxrwx 9 root
root 4096 Jan 20 20:00 .
drwxr-xr-x 6 root
root 4096 Jan 20 19:30 ..
drwxr-xr-x 5 root
root 4096 Jan 20 19:30
hourly.0
drwxr-xr-x 4 root
root 4096 Nov 17 13:39
hourly.1
drwxr-xr-x 4 root
root 4096 Nov 17 13:39
hourly.2
drwxr-xr-x 4 root
root 4096 Nov 17 13:39
hourly.3
drwxr-xr-x 4 root
root 4096 Nov 17 13:39
hourly.4
drwxr-xr-x 4 root
root 4096 Nov 17 13:39
snapshot1
drwxr-xr-x 4 root
root 4096 Nov 17 13:39
snapshot2
La
generación de los snapshots se pueden programar en las siguientes periodicidades.
§ Weekly: Se realizan todos los domingos
a medianoche.
§ Nightly: Se realizan todos los días a
medianoche.
§ Hourly: Se realizan a las horas
programadas.
En el ejemplo mostramos una configuración de snapshots programados a
través del comando “ snap sched “
Snap sched 1 2 6@8,12,16,20
Donde
1 Nº de snapshots “Weekly” que se guardan
2 Nº de snapshots “Nightly” que se guardan
6 Nº de snapshots “Hourly” que se guardan
8, 12, 16, 20 Horas a
las que se realizan los snaps “Hourly”
Esta programación se
puede realizar a través del Oncommand System Manager, que es la herramienta
grafica de NetApp utilizada para administrar la cabina de NetApp.
A continuación
explicaremos, para entender mejor el comportamiento de los snapshots la salida del
comando “snap list” , esto nos ayudará a definir una buena configuración de
snapshots.
Supongamos que al listar
nuestros snapshots nos aparece la siguiente salida
%/used %/total date
name
31% (31%) 0% (
0%) Mar 08 00:00 nightly.0
47% (29%) 0% (
0%) Mar 07 20:00 hourly.0
57% (32%) 0% ( 0%) Mar
07 16:00 hourly.1
64% (29%) 0% ( 0%) Mar
07 12:00 hourly.2
69% (32%) 0% ( 0%) Mar
07 08:00 hourly.3
73% (29%) 0% ( 0%) Mar
07 00:01 nightly.1
76% (30%) 0% ( 0%) Mar
06 20:00 hourly.4
78% (31%) 0% ( 0%) Mar
06 16:00 hourly.5
La columna % used nos
muestra el espacio consumido por los snapshots dividido por los bloques
utilizados en el volumen, no toma en cuenta si ese espacio es utilizado por el
filesystem o snapshots, el primer número es acumulativo para todos los
snapshots de la lista, el segundo para el % usado por el snapshot específico.
La columna % total
muestra el espacio consumido por los snapshots dividido por el espacio total de
disco en el volumen, esto incluye el espacio de datos + espacio reservado para
los snapshots incluye todo los bloques usados y libres, si el espacio total del
volumen es 100 GB y el espacio consumido por snapshots son 60 MB el cálculo
sería < 1% , por tanto nos mostraría 0% tal y como muestra la salida del ejemplo.
Por tanto, la variación
de estos valores dependerá de los bloques nuevos, modificados y borrados, dicho
esto, si la cantidad de datos varia entonces el % total seguirá siendo el mismo
, pero el % used variará, si al contrario la tasa de cambio se mantiene
constante, pero el volumen se aumenta o se reduce, entonces el % Total cambiará
y el % used seguirá siendo el mismo.
Estos datos son útiles
analizarlos, para concluir que cuando se tienen una gran cantidad de datos de snapshots
y el espacio libre es alto, se debe de incrementar el % de reserva para
snapshots y cuando el espacio libre es bajo, entonces se debe aumentar el
tamaño del volumen, de la misma forma el valor del % total nos puede indicar si
el porcentaje reservado para los snapshots es insuficiente, y si se ha desbordado
el espacio de los datos en el volumen, si se tiene un periodo de retención grande
estos datos determinarán hasta cuanto se debe aumentar de tamaño el volumen.
Por último, si se decide
eliminar snapshots, ejecutar antes los siguientes comando “snap delta” y snap “reclaimable”
para tener una idea que snapshots eliminar.
En conclusión, es
importante definir una buena política de retención y reserva de los snapshots
tomando en cuenta la variación de los datos almacenados en el volumen, en la
práctica, muchas veces nos encontramos sin espacio en el volumen debido a una
mala definición de la configuración de los snapshots.
Bueno amigos, espero que
este articulo les haya sido de utilidad.
Hasta prontomartes, 30 de octubre de 2012
Factores de fiabilidad de los Discos
.... Una de las cuestiones más recurrentes
en todo sistema de almacenamiento es como sabemos la fiabilidad de nuestro
hardware, ya que como todo en la vida las cosas se degradan por su uso y los
discos no son la excepción, por lo general en cuanto a unidades de discos el
tiempo de vida es de 5 años, algunos fabricantes incluso toman como referencia
este dato para establecer sus coberturas de garantía.
En este artículo veremos los factores y como miden por lo general esa
fiabilidad los fabricantes de almacenamiento.
Estos factores se aplican para
unidades de discos pero también son útiles para cualquier elemento de hardware.
MEAN TIME BETWEEN FAILURES (MTBF)
Se mide el tiempo de vida de un
dispositivo de hardware, es la forma menos precisa para medir este factor, ya
que por lo general los fabricantes no esperan toda la vida del dispositivo para
realizar esta medición, por tanto el dato se obtiene de la tasa de fallo
durante el tiempo de vida esperado por el dispositivo.
La formula sería la siguiente
MTBF = test
duration * # of drives tested / # of drives that failed during testing
Los valores de MTBF más comunes de los
dispositivos de discos de tipo SSD , SATA, SAS y FC son
Discos SSD 2.0 millones de horas
Discos SAS y FC 1.6 millones de horas
Discos SATA 1,2 millones de
horas.
Como hemos mencionado la garantía de
los discos normalmente es de 5 años (43,800 horas), como ven, hay una notable
diferencia con los valores descritos, por tanto el valor de horas por año sería
43,800 / 5 como resultado tenemos 8,760
Tomando estos valores podemos obtener por cada tipo de disco el
porcentaje de fallos por año.
Discos SATA
1200,000 horas MTBF / 8,760 horas por
año = 136,9863
1 fallo / 136.9863 = 0,00730 * 100 =
0,73 % fallos por año
Discos FC
– SAS
1600,000 horas MTBF / 8,760 horas por
año = 182,6484
1 fallo / 182.6484 = 0,00547 * 100 =
0,55 % fallos por año
Discos SSD
( Estado sólido )
2000,000 horas MTBF / 8,760 horas por
año = 228.3105
1 failure / 228.3105 = 0,00438 * 100 = 0,44 % fallos por año
Por tanto podemos calcular 40 drives
SAS
40 SAS Drives * 0,55 % = 0,22 fallos
/años * 5 años = 1,1 fallos en 5 años
AVERAGE
RETURN RATE (ARR)
Se
basa en la tasa de rendimiento real que ofrece un dispositivo que está en uso,
el problema es que no distingue que los dispositivos hayan sido retornados
debido a falsos positivos, o razones que no tienen que ver con algún error.
AVERAGE
FAILURE RATE (AFR)
Es
la medida más precisa de fiabilidad debido a que se basa en la devolución y en
su verificación del fallo del dispositivo, pero se calcula en el tiempo con lo
cual resulta difícil su medición por los fabricantes.
En
resumen, estos valores son teóricos y por tanto llevados a la realidad no son
exactos, ya que la degradación de los dispositivos está supeditada a muchos
factores dentro de una arquitectura de almacenamiento, pero podemos concluir
que dependiendo la tecnología de los discos unos son más fiables que otros,
factor importante que influye en el coste de los mismos.
Espero
que este artículo les haya sido de utilidad.
Hasta
pronto….
lunes, 29 de octubre de 2012
domingo, 28 de octubre de 2012
STORAGECONSEJOS . Documentación necesaria
..... Esta sección la he llamado “storageconsejos” en ella iré exponiendo algunos consejos que por mi experiencia me han servido para implementar cualquier solución que integra diferentes tecnologías, no es necesario aplicarlos para alcanzar el éxito en cualquier proyecto pero si considero que su aplicación nos ahorraría muchos dolores de cabeza al momento de su implementación.
Revisar estos tres documentos
fundamentales para empezar una correcta implementación “Release Notes” , la “
Comptability Matrix” y “Best Practices”, la información descrita en estos
documentos nos ayudará a determinar si tendremos algún problema al momento de
integrar las soluciones de los fabricantes que intervendrán en nuestro diseño.
A continuación describiremos que
información podemos encontrarnos en estos documentos.Release Notes . Es un documento donde se explica que nuevas funcionalidades o características vamos a encontrar en la versión que vamos a instalar, un dato importante que nos podemos encontrar en este documento son las limitaciones de funcionamiento que tiene la versión así como también que errores o problemas soluciona con respecto a las versiones anteriores.
Comptability Matrix.- Esta información es de vital importancia al
momento de realizar el diseño y la implementación de un proyecto, la no
verificación de la compatibilidad del software o hardware utilizado nos puede llevar
a tener problemas e incidencias de difícil solución y lo que es peor que el
fabricante no “soporte” esta implementación al no cumplirse la compatibilidad
de sus productos que se integran en cualquier diseño.
Best Practices .- La revisión de las mejores prácticas
recomendadas por el fabricante nos ayudará a realizar un diseño más óptimo de
nuestra arquitectura, estas consideraciones recomendadas por los fabricantes es
de suponer que han sido debidamente testeadas o aplicadas, no obstante hay que señalar que estas recomendaciones en algunos
casos no se aplican porque también depende de los requerimientos de la solución
a implementar.
Bueno amigos, espero que este consejo
les haya sido de utilidad.
Hasta pronto….
Suscribirse a:
Entradas (Atom)