may

27

Posted by : ger | On : 27 mayo, 2013

Voy a explicar en simples pasos, como montar un cliente/servidor en NFS (Servidor es el que levanta NFS, Cliente es el que va a montar las carpetas compartidas por NFS)

Servidor:

/etc/exports
1 /home ip_cliente(rw,no_root_squash)
2 /home2 ip_cliente(rw,no_root_squash)
3 /home3 ip_cliente(rw,no_root_squash)
4 /home4 ip_cliente(rw,no_root_squash)
5 /var/lib/mysql ip_cliente(rw,no_root_squash)
6 /var/lib/pgsql ip_cliente(rw,no_root_squash)
7 /mails ip_cliente(rw,no_root_squash)

/etc/hosts.deny
1 portmap: ALL
2 mountd: ALL
3 statd: ALL
4 lockd: ALL

/etc/hosts.allow
1 portmap: ip_cliente
2 mountd: ip_cliente
3 statd: ip_cliente
4 lockd: ip_cliente

reiniciamos de la siguiente forma sobre el Servidor:
1 exportfs -f
2 service portmap restart
3 service nfslock restart
4 service nfs restart

NOTA IMPORTANTE: También agregamos e puerto 111 abierto sobre el servidor, ya que este servicio trabaja sobre este puerto.

Cliente:

Sobre el cliente realizamos el siguiente testeo:
1 showmount -e ip_servidor

tendríamos que ver sin problemas los directorios compartidos.

reiniciamos de la siguiente forma sobre el Cliente:
1 service portmap restart
2 service nfslock restart
3 service nfs restart

(Si, tiene que ser iniciado sobre el cliente también, sino no funciona)

Para montar las carpetas sobre el cliente:
1 mount -v -t nfs -o rw,vers=3,rsize=32768,wsize=32768,hard,proto=tcp,timeo=600,retrans=2,sec=sys,addr=ip_servidor ip_servidor:/cual_directorio /donde

may

27

Posted by : ger | On : 27 mayo, 2013

Vamos a realizar un transport es decir que los correos de un dominio específico se redirigan a otro mailserver remoto.

EXIM:

Dentro del archivo de exim.conf deberíamos confirgurar las líneas de transport dentro de la siguiente sección:

# vi /etc/exim.conf

######################################################################
# ROUTERS CONFIGURATION #
# Specifies how remote addresses are handled #
######################################################################
# ORDER DOES MATTER #
# A remote address is passed to each in turn until it is accepted. #
######################################################################

# Remote addresses are those with a domain that does not match any item
# in the “local_domains” setting above.

En esta sección colocamos las siguientes líneas:

special:
driver = manualroute
transport = remote_smtp
route_list = hotmail.com hotmail.remotemailserver.com

POSTFIX:

En el caso de que el mail server sea Postfix debemos realizar los siguientes pasos:

Editar el archivo /etc/postfix/transport (si no existe crearlo) y agregar la siguiente línea:

# vi /etc/postfix/transport

hotmail.com smtp:hotmail.remotemailserver.com (o IP)

Luego corremos el siguiente comando:

# postmap /etc/postfix/transport

Finalmente agregamos la siguiente línea en el /etc/postfix/main.cf

# vi /etc/postfix/main.cf

transport_maps = hash:/etc/postfix/transport

Reiniciamos postfix:

# service postfix reload.

Listo, los correos dirigidos a hotmail deberían estar saliendo por el mailserver remoto.

SENDMAIL:

Por último vamos a ver como realizar un transport con Sendmail:

Editamos el archivo de configuración mailertable:

# vi /etc/mail/mailertable

Agregamos la siguientes línea:

hotmail.com smtp:hotmail.remotemailserver.com (o colocamos la IP)

Reiniciamos Sendmail:

# /etc/init.d/sendmail restart

FIN

may

27

Posted by : ger | On : 27 mayo, 2013

RAID: uso de mdadm y recuperación de desastres

Este artículo es una colección de notas tomadas a lo largo de años de trabajar con RAID. Es un recordatorio de comandos, así como de procedimientos de recuperación de desastres.
Tareas generales
Particionar un disco en forma idéntica a otro

sfdisk -d /dev/hdb | sfdisk /dev/hdc

Obtener el número de serie de un disco (serial number)

Este procedimiento es sumamente importante en el caso de falla de un disco, para poder identificarlo fehacientemente y reemplazarlo. El número de serie indicado por estos comandos es el mismo impreso en la etiqueta del disco, y por lo tanto puede ser usado para hacer valer la garantía.

smartctl -i /dev/hdb
hdparm -i /dev/hdb

Copiar un disco completo en otro nuevo

Obviamente los discos deben ser idénticos. Se puede intentar hacer esto cuando hay algunos bad sectors (sectores malos o dañados) en el disco original, y se lo reemplaza por uno nuevo. Es probable que hecho esto no se pierda demasiada información en el disco final.

Ese nuevo disco puede ser luego usado para recrear el RAID como si fuera el original, ya que son idénticos (incluyendo los datos que se perdieron debido a que estaban sobre sectores dañados).

Lo mejor es utilizar el utilitario de recuperación dd_rescue (aptitude install ddrescue en Debian GNU/Linux). Es más rápido y más confiable que usar simplemente dd (descrito abajo):

dd_rescue -v /dev/sdA /dev/sdB

Donde sdA es el disco origen y sdB el destino. Es un proceso que tarda generalmente muchas horas, dependiendo del tamaño del disco y de la cantidad de bad sectors. Por ejemplo, para discos de 500GB es probable que tarde entre 4 y 6 horas, según lo mencionado.

Si no se dispone de este utilitario, se puede intentar con dd. En teoría debería funcionar, pero no es muy confiable dado que el disco origen suele estar plagado de problemas. Si se desea intentarlo, se puede usar la siguiente serie de parámetros:

dd if=/dev/sdA of=/dev/sdB bs=10240k conv=noerror,sync

Si se desea ver el progreso de copiado con dd, se debe usar el utilitario pv (aptitude install pv en Debian GNU/Linux):

dd if=/dev/sdA bs=10240k conv=noerror,sync | pv -c -b -r -t > /dev/sdB

Si hay demasiados sectores dañados, es redundante mencionar que probablemente el disco destino no sirva ya para ser agregado al RAID y sus datos se hayan perdido. De cualquier manera, si se está realizando esto es porque ya no queda más remedio (por ejemplo, en el caso de que hayan fallado dos discos en un RAID5, y se pretende tratar de recuperar el desastre). Bajo ciertas condiciones, y con un poco de ayuda del Supremo, quizá quede otra vez la unidad md en estado funcional.
Bibliografía

http://www.cgsecurity.org/wiki/Damaged_Hard_Disk

RAID (mdadm)

Crear una unidad RAID5:

mdadm –create /dev/md5 –level=5 –raid-devices=3 /dev/sda9 /dev/sdb9 /dev/sdc9

Ver configuración del disp RAID que falla:

mdadm –detail /dev/md3
cat /proc/mdstat

Agregar unidades físicas al RAID: cuando se desconectan, agregarlas con

mdadm –manage -a /dev/md3 /dev/hdd8

Desactivar una unidad RAID:

mdadm –misc -S /dev/md3

Activar una unidad RAID:

mdadm –assemble /dev/md3

Cuando se rompe un disco:
Cambiar el disco roto por uno idéntico
Particionarlo con sfdisk:

sfdisk -d /dev/sdX | sfdisk /dev/sdN

Donde X es un disco preexistente funcional y N es el disco nuevo
Agregar el disco o particiones a las unidades MD:

mdadm –add /dev/md0 /dev/sdc1

Agregar un disco o partición a un RAID5, para incrementar el espacio disponible

mdadm –add /dev/md0 /dev/sde1
mdadm –grow /dev/md0 –raid-devices=4

Cuando termine de sincronizar, lo cual puede llevar varias horas dependiendo del tamaño del array, se debe extender el sistema de archivos a toda la unidad RAID:

resize_reiserfs /dev/md0
o bien:
resize2fs /dev/md0

Crear el archivo de configuración mdadm.conf desde cero
Agregar en /etc/mdadm/mdadm.conf lo siguiente:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

Luego agregar los dispositivos (que ya tienen que haber sido creados), con:

mdadm –detail –scan >> /etc/mdadm/mdadm.conf

y verificar que haya quedado todo bien. Otro método para escanear todas las particiones en búsqueda de unidades md es:

mdadm –examine –brief –scan –config=partitions

Si se está migrando un sistema de no-RAID a RAID, es probable que haya que regenerar el initrd correspondiente al kernel que se esté usando, para que inicie el sistema:

mkinitrd -r /dev/md0 -o /boot/initrd.img-2.6.8-4-k7

Montar unidades RAID

En vez de usar para montar el dispositivo (p.ej. /dev/md0), conviene usar el UUID del sistema de archivos, de la siguiente manera:

# /etc/fstab: static file system information.
#
#
proc /proc proc defaults 0 0
# /dev/md0
UUID=80dd4e01-3bcb-40a9-858f-84f222c7fb76 / reiserfs notail 0 1
# /dev/md2
UUID=a675b65b-2468-4ce0-b9b8-a18e18ad982e /tmp reiserfs defaults 0 2
# /dev/md3
UUID=df777ce0-1adf-481b-b4cd-ee9995226671 /usr reiserfs defaults 0 2
# /dev/md4
UUID=16a357e5-9733-4eea-9294-0fadb2160883 /var reiserfs defaults 0 2
# /dev/md5
UUID=c7cba866-7042-4cad-9d35-7dfcf177a164 /home reiserfs defaults 0 2
# /dev/md1
UUID=3a5e831d-8458-470c-a80a-88f481fb5944 none swap sw 0 0
/dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0

El UUID puede conocerse mediante alguno de los siguientes comandos:

ls -l /dev/disk/by-uuid/

o bien:

blkid /dev/md4

Para conocer más detalles del dispositivo:

vol_id /dev/md4

Reconstruir desastres (1)

I examined the good superblocks to make sure I knew how to recreate the array exactly (i.e. chunk size, etc).
I zeroed all the superblocks on all the disks.
I recreated the array with the ”–assume-clean” option.
I marked it possibly dirty with:

mdadm –assemble /dev/md0 –update=resync

I let it try to resync. This only took about 30-60 minutes, probably because all the data was good and it was just reading from each disk and not writing.
I mounted it & everything so far appears to be good.
Alternately, I think I could have simply recreated it without ”–assume-clean” and the initial creation sync wouldn’t have destroyed the data, but that wasn’t a risk I was willing to take.

Reconstruir desastres (2)

Viernes por la noche. Argentina. Se cortó la luz, volviendo una hora más tarde. Luego de encender nuevamente el servidor, por alguna razón desconocida, se colgó. Al encenderlo por segunda vez, mdadm había desconectado uno de los dispositivos (sdb1) de la unidad md RAID5 (cuatro discos de 500GB, sin spare). Por lo tanto, entré en runlevel 1 y la agregué nuevamente con mdadm –add /dev/md0 /dev/sdb1, comenzando así a sincronizar. Esto fue a las 2300 hs, por lo que me fui a dormir. Cuando volví, descubrí con desagrado que luego de terminar la sincronización, otro de los discos había fallado, pero ahora mdadm había desconectado el primero así como a este otro (sdb1 y sdd1). Como sabía que la sincronización anterior había terminado y la unidad md no había sido usada, estimé que sería posible rescatar la unidad del desastre. Por lo tanto, leí toda la documentación que pude encontrar, y luego de nada más que unas tres o cuatro horas, comencé a trabajar. El procedimiento de rescate fue el siguiente:

Detener el array:

mdadm –stop /dev/md0

Crear nuevamente la unidad md, teniendo la precaución de usar la opción –assume-clean que informa a mdadm que el array ya existe:

mdadm –create /dev/md0 –assume-clean –level=5 –raid-devices=4 /dev/sdb1 /dev/sdc1 missing /dev/sde1

“missing” reemplaza a la unidad que se va a agregar más tarde (sdd1); mdadm informará que las unidades ya pertenecen a un array, y preguntará si realmente se desea continuar con la creación del array, a lo que debe responderse que sí. Este paso reescribe los metadatos y crea un nuevo UUID, dejando todo como estaba e iniciando el array con tres dispositivos.
Detener nuevamente el array:

mdadm –stop /dev/md0

Volver a activar el array, con la opción –update=resync para ver si levanta:

mdadm –assemble –update=resync -f /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sde1

Si comienza a sincronizar, dejarlo que termine. Se puede ver si está sincronizando con:

cat /proc/mdstat

En mi caso no sincronizó, pero imagino que era lógico: el dispositivo estaba sincronizado, y si no hubiera sido así, se hubiera perdido todo con toda seguridad. Pero eso es un punto bueno de mdadm: si algo no está bien, detiene el array de manera que no se pierdan datos.
A continuación, se debe agregar el otro disco que falló:

mdadm -a /dev/md0 /dev/sdd1

Hecho esto, el array sincronizará el nuevo dispositivo, proceso que llevará alrededor de 6 horas con estos cuatro discos de 500GB. Recomiendo encarecidamente no utilizar la unidad, ni el equipo (debería estar en runlevel 1), para evitar cualquier tipo de falla no esperada, y para acelerar el proceso de sincronización.
Todo este procedimiento crea un nuevo array, que por lo tanto tendrá un nuevo UUID. El nuevo UUID puede ser visualizado con:

mdadm -D /dev/md0

Este nuevo UUID debe ser insertado, en vez del UUID anterior en /etc/mdadm/mdadm.conf, para que el array se active en forma automática al inicio del sistema (en Debian, es un proceso realizado por el script /etc/init.d/mdadm-raid)
El paso final es revisar que el sistema de archivos de la unidad md esté correcto (en mi caso el sistema de archivos es ReiserFS):

reiserfsck /dev/md0

Si el chequeo del sistema de archivos es exitoso, seguramente ya no habrá inconvenientes, se podrá montar la unidad y comenzar a utilizar el sistema normalmente. Quizá sea conveniente reiniciarlo una vez más, para asegurarse que todo esté bien en el arranque, y para evitar alguna desagradable sorpresa en el futuro.

Notas finales

Los discos que fallaron deben revisarse con smartctl en búsqueda de cualquier inconveniente que indique que haya que reemplazar el o los discos. En el caso que se decida reemplazar ambos discos, debe hacerse de a un disco por vez y esperando en cada caso que la sincronización finalice, ya que no puede haber más de un disco fuera de servicio en una unidad RAID5.

Si bien en mi caso el rescate fue exitoso, no debe suponerse que sea algo habitual. La falla de más de un dispositivo de una misma unidad RAID5 provoca la pérdida completa de los datos, sin posibilidad de salvarlos de forma alguna. En el caso de que ocurra algo así, el array debe manejarse con el cuidado más completo, estando descansado, tranquilo y sin apuros. Es preferible perder unas horas más, que años de trabajo. Al comenzar el rescate, recomiendo elaborar un plan detallado, tratando de no olvidarse algún paso; luego de hecho esto, iniciar los trabajos. Este documento bien puede servir de base para ello.

may

27

Posted by : ger | On : 27 mayo, 2013

CPIO

Cpio es un comando de unix que sirve como archivador binar y formateador de archivos. Es, en realidad, el “padre” – por así decirlo – de tar, zip y todos esos archivadores. De hecho, esos archivadores son un tanto mejores, pero para lo que a mi compete este es el que daba el ancho.

Cpio recibe como parámetro una lista de archivos y luego los empaqueta en uno solo. Así que para eso usé el siguiente comando:

find . ! -type f ! -xtype f | cpio -ovH newc > directories.cpio

Donde la salida del find le va a dar la lista a cpio para crear el archivador directories.cpio.
Creación de la estructura de directorios

Una vez ya creado el archivo, solo basta usarlo. Y para eso es tan fácil como:

cpio -ivmH newc < directories

Con estos comandos se tiene una estructura de directorios idéntica a la deseada con solo dos sencillos de aplicar comando de UNIX.

may

31

Posted by : ger | On : 31 mayo, 2012

En este post voy a explicar como crear una imagen .iso utilizando la herramienta mkisofs

mkisofs -o /directorio_destino/nombre_de_la_iso.iso /directorio_input

Aplicando esto ya estaremos generando una imagen .iso en el directorio destino especificado.

may

16

Posted by : ger | On : 16 mayo, 2012

Como instalar Java y Tomcat en CentOS

En este post voy a explicar como instalar Java y Tomcat en un OS CentOS.

Primero agregamos un repositorio yum


cd /etc/yum.repos.d
wget 'http://www.jpackage.org/jpackage50.repo'
yum update

Para evitar que nos muestre un error de dependencias colocamos lo siguiente

rpm -Uvh 'http://plone.lucidsolutions.co.nz/linux/centos/images/jpackage-utils-compat-el5-0.0.1-1.noarch.rpm'

Ahora instalamos Java

yum install java

Probamos que se prenda correctamente la VM con el siguiente comando:

java -version

Debería arrojarnos algo asi:

java version “1.6.0_22″
OpenJDK Runtime Environment (IcedTea6 1.10.6) (rhel-1.25.1.10.6.el5_8-i386)
OpenJDK Server VM (build 20.0-b11, mixed mode)

Luego comenzamos a instalar el Tomcat

yum install tomcat6 tomcat6-webapps tomcat6-admin-webapps

Iniciamos el servicio:

service tomcat6 start

Y ya tenemos nuestro Tomcat instalado! Podemos visualizar la web de tomcat ingresando a http://localhost:8080
En el caso de tener algún firewall activada debemos tener en cuenta que el puerto 8080 debe estar habilitado.

nov

07

Posted by : ger | On : 7 noviembre, 2011

Administrando la cola de Email en Exim (queue)

El binario principal de exim (/usr/sbin/exim) se puede utilizar con varias banderas para manipular los mensajes en la cola. La mayoria requieren especificar uno o mas message-IDs en la linea de comandos, que es donde exiqgrep -i realmente funciona.

root@localhost# exim -q -v : Iniciar una corrida de la cola (mail queue).
root@localhost# exim -ql -v : Inicar la ejecucion de la cola solo para entragas locales.
root@localhost# exim -Mrm [ ... ] : Eliminar un mensaje de la cola de correo.
root@localhost# exim -Mf [ ... ] : Congelar o pausar un mensaje.
root@localhost# exim -Mt [ ... ] Descongelar un mensaje.
root@localhost# exim -M [ ... ] : Entregar un mensaje, ya sea que este en pausa o no, o que el tiempo de 
reintentos haya expirado o no.
root@localhost# exim -Mc [ ... ] : Entregar un mensaje solo si el tiempo para reintentos ha sido alcanzado.
root@localhost# exim -Mg [ ... ] : Forzar la falla en la entrega de un mensaje y rebotarlo con el mensaje “cancelled by administrator”:
root@localhost# exiqgrep -z -i | xargs exim -Mrm : Remover todos los mensajes congelados (estado frozen).
root@localhost# exiqgrep -o 432000 -i | xargs exim -Mrm : Remover todos los mensajes de mas de cinco dias (86400 * 5 = 432000 segundos).
root@localhost# exiqgrep -i -f usuario@dominio.org | xargs exim -Mf : Congelar todos los correos en cola de un remitente de correo.
root@localhost# exim -Mvh : Ver los encabezados de un mensaje.
root@localhost# exim -Mvb : Ver el cuerpo de un mensaje.
root@localhost# exim -Mvl : Ver la bitacora de un mensaje.
root@localhost# exim -Mar [... ] : Agregar un recipiente a un mensaje.

oct

26

Posted by : ger | On : 26 octubre, 2011

Dentro de los paquetes normales de Debian podemos encontrar Chromium-browser que es la versión open source de Chrome por decirlo de una forma no tan compleja, quizas no esten conformes con esta versión del navegador y queremos instalar la oficial Google Chrome, para esto debemos hacer lo siguiente:
Abrir /etc/apt/sources.list con permisos de root

# vi /etc/apt/sources.list
###Google Chrome para Linux### deb http://dl.google.com/linux/deb/ stable main

Actualizamos los repositorios con:

# apt-get update

Añadimos la clave pública (llave)

# wget -q -O - https://dl-ssl.google.com/linux/linux_signing_key.pub | apt-key add -

Volvemos a actualizar los repositorios con:

# apt-get update

Y ya podemos instalar 3 versiones de Chrome:

# apt-get install google-chrome-stable
# apt-get install google-chrome-beta
# apt-get install google-chrome-unstable

Y ya estamos listos.

oct

25

Posted by : ger | On : 25 octubre, 2011

En este artículo vamos a ver como crear un script para eliminar los procesos zombies:

Primero generamos un archivo desde la consola de linux con nuestro editor de texto preferido con el nombre “killzombie”. Colocamos el siguiente texto:

#!/bin/bash

echo "$(ps -A -ostat,ppid,pid,cmd | grep -e '^[Zz]')" 

kill -HUP `ps -A -ostat,ppid,pid,cmd | grep -e '^[Zz]' | awk '{print $2}'`

Luego lo guardamos y le damos permisos de ejecución:

chmod +x killzombie

Para finalizar los copiamos a la /usr/local/bin

cp killzombie /usr/local/bin

Finalmente ya podemos ejecutar nuestro script!!

oct

21

Posted by : ger | On : 21 octubre, 2011

En este artículo vamos a ver como generar un CSR en el servidor a través del openssl desde la consola de Linux:
-En primer lugar colocamos el comando para generar el CSR:

openssl req -new -nodes -keyout llave.key -out server.csr -newkey rsa:2048

-Este comando nos va a devolver algo así:

root@german-G41T-M7:~# openssl req -new -nodes -keyout llave.key -out micsr.csr -newkey rsa:2048Generating a 2048 bit RSA private key
……+++
…..+++
writing new private key to ‘llave.key’
—–
You are about to be asked to enter information that will be incorporated
into your certificate request.
What you are about to enter is what is called a Distinguished Name or a DN.
There are quite a few fields but you can leave some blank
For some fields there will be a default value,
If you enter ‘.’, the field will be left blank.
—–
Country Name (2 letter code) [AU]:

Aca tenemos que colocar dos letras del país por
ejemplo ” AR ” y luego presionar enter
- Luego solicitará lo siguiente:

State or Province Name (full name) [Some-State]:

Colocamos la provincia por ejemplo ” Buenos Aires ” y luego presionamos enter
- Luego nos solicitará:

Locality Name (eg, city) []:

Colocamos La ciudad por ejemplo Capital Federal
- Luego nos solicitará:

Organization Name (eg, company) [Internet Widgits Pty Ltd]:

Colocamos La Compañía por ejemplo Linuxafull SRL
- Luego nos solicitará:

Organizational Unit Name (eg, section) []:

Colocamos por ejemplo Soporte
- Luego nos solicitará:

Common Name (eg, YOUR name) []:

Colocamos por ejemplo linux afull
- Luego nos solicitará:

Email Address []:

Colocamos por ejemplo mail@mail.com
- Luego nos solicitará:

Please enter the following ‘extra’ attributes
to be sent with your certificate request
A challenge password []:
An optional company name []:

Le damos enter, enter sin poner nada en ambos casos
¡Y LISTO, GENERADO NUESTRO CSR!
Si queremos verificar si esta correctamente generado tenemos dos formas:
- Visualizándo el CSR generado con el siguiente comando:

root@german-G41T-M7:~# cat micsr.csr

—–BEGIN CERTIFICATE REQUEST—–
MIIC5zCCAc8CAQAwgaExCzAJBgNVBAYTAkFSMRUwEwYDVQQIEwxCdWVub3MgQWly
ZXMxGDAWBgNVBAcTD0NhcGl0YWwgRmVkZXJhbDEUMBIGA1UEChMLTlVUSE9TVCBT
UkwxEDAOBgNVBAsTB1NvcG9ydGUxFjAUBgNVBAMTDUdlcm1hbiBSb2JsZXMxITAf
BgkqhkiG9w0BCQEWEmdlcm1hbkBudXRob3N0LmNvbTCCASIwDQYJKoZIhvcNAQEB
BQADggEPADCCAQoCggEBAN8+JZL8ENiTf6pADcHdzhypGa0TDyLdK+KMZqt4krWK
7R9nTubgz+Cwcp6371RZLr9FK5Geor9DLlIrco0WPSDymsDGRHqGYQNqetEhXAFf
xjLz/Zv/UZbbbuhnsL4njGPYN7dK9j2unDw67irrM31DbyHaypRVdSEcn+z8QN6Z
2tg6URRhuWGge4zWKu9WV5TExBYmizlJbgu3a1uJGPiOJtelw6iMHUFi/JSrAf7R
51Pqd5DmSltBTNH63Cgj6OYJJHZaFkbPUcihxafvJCGal24dQdcUXXnjOAVL4n5a
HdU1qOlb3R1Yg3EY54c/SoYoCs60dJX/oxCSZ3ju+Y8CAwEAAaAAMA0GCSqGSIb3
DQEBBQUAA4IBAQAFDWJviKj9qsOs0SNJB2a74TXZRTcwPk1GXjtZpqLFX9TcmvWZ
pqu5ERmgCUo3BMEZFBQKXUYhpiquCQxx7lr2Gbn8FCNbZU5KUBU8L/DYszwFqxKy
PwcXCZoGBH56PNnEQrp5doA47lOJwZmOKs10ffSbivi0nsZoX/rks4kfgmClEvM9
Aa8A/sRCzNkf5D6pSZTgIGmXfqdL4A8CeGmKkjv/Xaic55Ddl05Ddia33mVP/4sg
n34jpnk/rkJWKOlJT7b4VjrfKZscJEY4n7a5Qx1uqHUx2RRHfTXsyMeXp9tfoIUF
Gb/dkei5S8TWn6TvyhpRBsVJF4ywcD4SLP/l
—–END CERTIFICATE REQUEST—–

Y luego colocamos todo el certificado en la siguiente URL:

http://www.sslshopper.com/csr-decoder.html

- La segunda opción es desencodearlo en la misma consola en la ruta la cual lo hemos generado, con el siguiente comando:

root@german-G41T-M7:~# openssl req -in micsr.csr -noout -text
Certificate Request:
Data:
Version: 0 (0×0)
Subject: C=AR, ST=Buenos Aires, L=Capital Federal, O=Linux a full SRL, OU=Soporte, CN=German /emailAddress=mail@mail.com
Subject Public Key Info:
Public Key Algorithm: rsaEncryption
RSA Public Key: (2048 bit)
Modulus (2048 bit):
00:df:3e:25:92:fc:10:d8:93:7f:aa:40:0d:c1:dd:
ce:1c:a9:19:ad:13:0f:22:dd:2b:e2:8c:66:ab:78:
92:b5:8a:ed:1f:67:4e:e6:e0:cf:e0:b0:72:9e:b7:
ef:54:59:2e:bf:45:2b:91:9e:a2:bf:43:2e:52:2b:
72:8d:16:3d:20:f2:9a:c0:c6:44:7a:86:61:03:6a:
7a:d1:21:5c:01:5f:c6:32:f3:fd:9b:ff:51:96:db:
6e:e8:67:b0:be:27:8c:63:d8:37:b7:4a:f6:3d:ae:
9c:3c:3a:ee:2a:eb:33:7d:43:6f:21:da:ca:94:55:
75:21:1c:9f:ec:fc:40:de:99:da:d8:3a:51:14:61:
b9:61:a0:7b:8c:d6:2a:ef:56:57:94:c4:c4:16:26:
8b:39:49:6e:0b:b7:6b:5b:89:18:f8:8e:26:d7:a5:
c3:a8:8c:1d:41:62:fc:94:ab:01:fe:d1:e7:53:ea:
77:90:e6:4a:5b:41:4c:d1:fa:dc:28:23:e8:e6:09:
24:76:5a:16:46:cf:51:c8:a1:c5:a7:ef:24:21:9a:
97:6e:1d:41:d7:14:5d:79:e3:38:05:4b:e2:7e:5a:
1d:d5:35:a8:e9:5b:dd:1d:58:83:71:18:e7:87:3f:
4a:86:28:0a:ce:b4:74:95:ff:a3:10:92:67:78:ee:
f9:8f
Exponent: 65537 (0×10001)
Attributes:
a0:00
Signature Algorithm: sha1WithRSAEncryption
05:0d:62:6f:88:a8:fd:aa:c3:ac:d1:23:49:07:66:bb:e1:35:
d9:45:37:30:3e:4d:46:5e:3b:59:a6:a2:c5:5f:d4:dc:9a:f5:
99:a6:ab:b9:11:19:a0:09:4a:37:04:c1:19:14:14:0a:5d:46:
21:a6:2a:ae:09:0c:71:ee:5a:f6:19:b9:fc:14:23:5b:65:4e:
4a:50:15:3c:2f:f0:d8:b3:3c:05:ab:12:b2:3f:07:17:09:9a:
06:04:7e:7a:3c:d9:c4:42:ba:79:76:80:38:ee:53:89:c1:99:
8e:2a:cd:74:7d:f4:9b:8a:f8:b4:9e:c6:68:5f:fa:e4:b3:89:
1f:82:60:a5:12:f3:3d:01:af:00:fe:c4:42:cc:d9:1f:e4:3e:
a9:49:94:e0:20:69:97:7e:a7:4b:e0:0f:02:78:69:8a:92:3b:
ff:5d:a8:9c:e7:90:dd:97:4e:43:76:26:b7:de:65:4f:ff:8b:
20:9f:7e:23:a6:79:3f:ae:42:56:28:e9:49:4f:b6:f8:56:3a:
df:29:9b:1c:24:46:38:9f:b6:b9:43:1d:6e:a8:75:31:d9:14:
47:7d:35:ec:c8:c7:97:a7:db:5f:a0:85:05:19:bf:dd:91:e8:
b9:4b:c4:d6:9f:a4:ef:ca:1a:51:06:c5:49:17:8c:b0:70:3e:
12:2c:ff:e5

Si todo esta correcto ya podemos proceder a pedir El SSL para instalar nuestro sitio seguro!!
Una vez instalado el SSL podemos verificar el correcto funcionamiento del SSL con el siguiente comando:

openssl s_client -connect dominio.com:443